知識庫
云計算、大數據的興起,對數據中心網絡提出了更高的要求,尤其是AI應用的興起,使得越來越多的GPU加速計算服務器在數據中心的部署。在這一趨勢下,數據中心的耗能問題日益凸顯。為了適應網絡變革的需要,數據中心的制冷方式也在發生革新,液冷正在興起。
能耗挑戰日益嚴峻
由于數據中心能耗的居高不下,特別是我國數據中心行業發展比較晚,建設標準相對滯后,平均PUE在2.2~3.0之間。高能耗不僅給企業帶來沉重負擔,也給社會能源造成巨大浪費。
隨著各種云計算大數據業務的蓬勃發展,對底層基礎設施的性能要求越來越高。性能的提高直接導致服務器功耗的不斷增加。特別是作為服務器關鍵部件的CPU,隨著性能的提升,功耗增加非常顯著。例如英特爾上一代的Sandy Bridge功耗為135W,最新一代的Skylake功耗達到了240W.在單機柜服務器數量不變的情況下,整柜的功耗幾乎翻番。可見,這會對機房的散熱帶來極大的挑戰。
為了節能,國外做了很多比較激進的嘗試,例如微軟在海底建設了自給型數據中心,Facebook在靠近北極圈的地方建設數據中心等等,希望通過外部自然條件帶來數據中心PUE的收益。2013年工業和信息化部發布《關于數據中心建設布局的指導意見》,國內的大型數據中心也開始在氣候適宜、能源充足的地區建設,例如內蒙古、山西北部等,對數據中心的節能帶來了一定的收益,但是無法從根本上滿足服務器大功耗高密度部署帶來的散熱需求。
液冷成為“新寵”
為了解決數據中心的高效散熱問題,產業界對此做了大量的嘗試。利用自然冷源進行Free Cooling是促使PUE降低的一種好方法。此外,產業界在液冷方面也開始進行嘗試,目前來看液冷主要有冷板、浸沒和噴淋三種技術路線。
冷板液冷是將冷卻水從特制的注水口流入,經過密閉的散熱管流進主機,帶走CPU、內存和硬盤等部件的熱量后再流出。這種散熱方式同風冷相比,密度更高、更節能、防噪音效果更好。由于液冷技術不需要昂貴的水冷機組,所以采用這種技術后,在減少總體擁有成本的同時,顯著提升了數據中心的能源利用效率。
浸沒液冷是最近幾年備受業界關注的新型散熱技術,尤其自SC14起連續多年的全球超級計算大會上,來自國內外的多家服務器企業均展示了在浸沒液冷散熱上的產品,大幅提高了業界對液冷的關注度。但遺憾的是,受限于技術實現的難度,目前參與浸沒液冷服務器設計的企業,對浸沒液冷的應用也僅局限于單機測試、單機展示階段,從公開的信息看,并無服務器集群部署先例。浸沒相對于冷板來看,由于是更加直接的熱交換,散熱效率更高,但也會帶來很多的技術挑戰。
此外,噴淋式液冷是指對IT設備進行改造,部署相應的噴淋器件,在設備運行時,有針對性地對發熱過高器件進行冷卻的一種液冷實現方式。這種方式的特點是不需要對機房基礎設施做太大的改動,只需對服務器進行少量的改造就能實現較好的冷卻性能。噴淋式液冷屬于接觸式液冷,其穩定可靠性還有待進一步的驗證。
還需邁過幾道坎
由于尚處于發展初期,液冷技術還面臨一些問題和挑戰。
首先是原有機房適配的問題。傳統機房的承重、管路等設計均采用傳統機柜的規格。而在液冷方式下,由于制冷方式的轉變,對于部署環境將會有很大的不同。這會帶來部署成本、部署難度等方面的問題。
其次,對于浸沒式和噴淋式等接觸式液冷,液體和IT部件之間的兼容性是我們需要考慮的一個問題。IT部件長期浸泡在相關液體中,是否會對其功能和性能帶來影響是我們需要關注和驗證的一個重要方面。
再次,液冷的行業標準缺失將會阻礙技術的發展。目前各企業關于液冷的研發處于各自為政野蠻生長的狀態,亟須相關的行業標準組織對液冷的標準化進行管理。對液體、供配電、管控、安防和運維等各個方面制訂明確的技術要求,促進液冷技術的良性發展。
最后,我國各大服務器廠商基本都在進行液冷服務器的研發,如果國家能有相關專項進行更多的支持,將會更好地推動液冷國產化的發展,拉近我國與國際先進水平的距離,最終實現液冷由“中國制造”向“中國智造”轉變。
結語
放眼未來,浸沒液冷服務器在高主頻計算領域將發揮重要價值,極大地節約能源,最終實現綠色計算。液冷技術的興起和普及,將引發數據中心和服務器的整個產業鏈的重構。