液冷式伺服器躍居主流
AI 資料中心的新趨勢
本期摘要
液冷式伺服器躍居主流
機架規模即插即用的整體解決方案
獲利不如預期
業績指引強勁
規模經濟效應
投資價值浮現
液冷式伺服器躍居主流
從 Google、Microsoft、Amazon 和 Meta 公佈最新一季的財報中,我們看到大型公司繼續大舉投資人工智能。我們在之前《AI 算力爆發下的電力需求》一文中提到,人工智能推動資料中心的蓬勃發展,但這些耗電的人工智能資料中心同時也產生大量的電力需求。隨著更強大的人工智能晶片的問世,這個問題勢必會加劇。
為了緩解人工智能的巨大電力需求,資料中心運營商剛剛開始為人工智能伺服器機架採用直接液體冷卻(Direct Liquid Cooling,DLC)的解決方案,而不是目前絕大多數資料中心使用的傳統風冷機架(Air Cooling)。
事實上,液體冷卻的解決方案已經在市場上存在了30 年。但是,因為液冷式資料中心的部署需要較長的時間,不但成本較高,而且如果液體洩漏,可能導致組件故障。此外,管理液體冷卻系統需要的專業知識也與管理風冷系統不同。
與整個資料中心規模相比,液冷式伺服器佔整體伺服器市場的份額在過去一直不到 1% 或是接近 1%。但是,由於許多資料中心本身的電力供給受到限制,要等到電力公司提高發電能量又緩不濟急,液冷式伺服器成為資料中心重要的升級解決方案。
同時,由於擁有高達 40% 功耗降低的優勢,更好的計算性能,無需安裝大型空調而能在更快的時間上線,同時降低了碳足跡,使得 DLC 伺服器逐漸躍居成為人工智能資料中心的主流,投資人面臨什麼樣的投資機遇?

