數(shù)據(jù)家,idc官網(wǎng),算力,裸金屬,高電機房,邊緣算力,云網(wǎng)合一,北京機房,北京云計算,北京邊緣計算,北京裸金屬服務器,北京數(shù)據(jù)服務器,北京GPU服務器,高算力服務器,數(shù)據(jù)機房相關技術新聞最新報道
科學家預測,在未來幾十年內(nèi)全球溫度可能會穩(wěn)步上升,數(shù)據(jù)中心經(jīng)理們不需要等那么久,一股熱浪正因最新的GPU、CPU和AI應用而向他們襲來。
“AFCOM數(shù)據(jù)中心報告”的作者Bill Kleyman強調:“隨著AI需求的增長,數(shù)據(jù)中心運營商必須調整其基礎設施以適應高功率密度的服務器集群?!?/p>
一些芯片制造和液體冷卻領域最聰明的專家聚到一起進行了討論,可以預期的熱量有多少,下一代芯片和AI如何在數(shù)據(jù)中心基礎設施中驅動變革,以及如何與正確的電力策略配合部署新的液體冷卻解決方案,以緩解強烈的熱量。
Vertiv的全球高科技發(fā)展總監(jiān)Greg Stover說:“變革已經(jīng)來臨,我們不能僅靠空氣來抵抗熱量。在未來幾年內(nèi),大多數(shù)數(shù)據(jù)中心將從100%的空氣冷卻過渡到空氣/液體冷卻的混合模式?!?/p>
Mohammad Tradat 博士,Nvidia 數(shù)據(jù)中心機械工程經(jīng)理,展示了一個圖表,預測了微芯片熱設計功率(TDP)的增長。每個處理器的瓦特數(shù)正處于從幾百瓦增長到超過1000瓦的初期階段。他提到了他的公司的一款新芯片,能在一個機架中提供138千瓦的功率。僅用空氣冷卻是無法保持這樣的機架密度冷卻的。
“自2020年以來,TDP一直在激增,”Tradat說?!拔覀冃枰ㄟ^加入液體來重新思考冷卻路線圖。”
他認為單相技術是有限的。另一方面,他補充說,兩相制冷劑可以應用于每個機架200千瓦或更多的能力。
“從單相到兩相液體冷卻的轉變將比從空氣到單相液體冷卻發(fā)生得更快,”Tradat說。
數(shù)據(jù)中心的設計能夠計劃新結構并以完整的液體冷卻基礎設施開始運營。大多數(shù)現(xiàn)有的數(shù)據(jù)中心沒有這種奢侈。Tradat建議運營商根據(jù)現(xiàn)有設計和空間的限制引入盡可能多的液體。
這可能需要引入液體對空氣(L2A)冷卻分配單元(CDU),這些單元帶來了液體冷卻的好處,而無需全面實施設施水系統(tǒng)。CDU在最需要的地方提供局部液體冷卻,并利用現(xiàn)有的空氣冷卻系統(tǒng)來散熱機架或行。
“這項技術可以在大多數(shù)數(shù)據(jù)中心迅速部署,干擾最小,”Tradat說?!暗坏C架密度上升,數(shù)據(jù)中心經(jīng)理需要開始考慮液體對液體CDU。”
他補充說,一個4U CDU可以提供100千瓦的冷卻能力,但液體冷卻行業(yè)需要為制冷劑和兩相技術制定標準,以便其順利進入主流市場。
Intel的高級首席工程師兼熱管理架構師 Dev Kulkarni 博士,介紹了四種主要的液體冷卻方法,并對每種方法進行了簡短的評述:
Kulkarni 說:“你必須根據(jù)你的需求來實施這些不同的冷卻解決方案。但重要的是要向前看兩到三代。如果你全力以赴只做單相,你可能會發(fā)現(xiàn)在短時間內(nèi)需要將一些基礎設施轉換為兩相技術?!?/p>
他的建議是關注硅和AI硬件的發(fā)展路線圖,并使你的公司和客戶的需求與之對齊。同時,關注環(huán)境、社會和治理(ESG)目標以及你如何能夠迅速擴展你的部署。
但他補充說,不要等到部署AI。他建議你找到一種方法立即引入它,同時你可以規(guī)劃更大規(guī)模的部署。最后,他說要找到可以在AI、冷卻、可擴展性和可持續(xù)性方面與你合作的伙伴。
Vertiv的熱管理和數(shù)據(jù)中心副總裁Steve Madara向與會者介紹了一些液體冷卻技術的現(xiàn)實情況。
他說:“如果直接導向芯片的流體停止流動超過一秒鐘,高功率服務器就會宕機。可靠性需要達到極其關鍵的任務級別?!?/p>
他建議將導向芯片的冷卻循環(huán)置于不間斷電源(UPS)系統(tǒng)上,以確保即使電網(wǎng)斷電也永不失電。Madara舉了一個例子:如果電力丟失,數(shù)據(jù)中心需要15秒鐘轉換到發(fā)電機電力,冷卻器可能需要一分鐘才能再次啟動并提供所需的冷卻水平。在此期間,最新一代服務器的水溫可能會上升高達20℉。
他說:“在液體冷卻領域,正在發(fā)展一整套可靠性策略?!?/p>
他推薦L2A CDUs作為部署最簡單的液體冷卻技術。他說,這些可以立即進入現(xiàn)有的數(shù)據(jù)中心。
idc網(wǎng),算力,裸金屬,高電機房,邊緣算力,云網(wǎng)合一,北京機房,北京云計算,北京邊緣計算,北京裸金屬服務器,北京數(shù)據(jù)服務器,北京GPU服務器,高算力服務器,數(shù)據(jù)機房那么,未來一段時間內(nèi)數(shù)據(jù)中心的天氣預報將是更多的熱量和更密集的機架。這也意味著需要更多的液體冷卻。
Stover表示:“目前我們的大部分詢問都是關于為傳統(tǒng)場所使用的液體對空氣冷卻,但是從芯片中帶走熱量只是一方面,你還需要將熱量從建筑中帶出去。”
這需要一個協(xié)調的推動力,以增加新的冷卻技術,提高現(xiàn)有冷卻和電力解決方案的效率,并達到更高水平的可持續(xù)性。
IDC的分析師Courtney Munroe表示:“數(shù)據(jù)中心提供商需要支持超出常規(guī)10-20千瓦/機架的密度范圍,達到70千瓦/機架甚至200-300千瓦/機架,這將需要創(chuàng)新的冷卻技術、熱量散發(fā)以及使用可持續(xù)和可再生的能源來源?!?/p>