Hewlett Packard Enterprise(NYSE: HPE)為因應AI時代的來臨,推出創新液冷技術的解決方案,以應對AI系統日益增長的散熱需求。AI是當前運算最密集的工作負載之一,導致AI系統的耗電量和相關能源成本也顯著上升。今年初,國際能源署(IEA)報告指出,2022年全球資料中心用電量佔總用電量的2%,並預測這個比例到2026年可能會增加一倍以上1。
儘管次世代加速器的效能已有所提升,但隨著AI應用日益普及,耗電量仍會持續增加。資料中心需要更有效率地運行AI工作負載,然而,現有設施已無法滿足日益增長的處理器功耗所帶來的散熱需求。因此,液冷技術應運而生,成為應對這一挑戰的解決方案。
AI時代的降溫利器
相較於使用風扇的傳統氣冷技術,液冷技術—特別是直接液冷技術(Direct Liquid Cooling,DLC)—是將冷卻劑直接泵入伺服器中,以吸收處理器散發的熱量,並傳輸到資料中心外的熱交換系統。
HPE在開發與提供創新液冷系統方面擁有數十年的豐富經驗,為運行高效能運算(HPC)工作負載的大型系統提供高效冷卻解決方案。未來採用最新加速器的AI基礎架構也同樣需要創新的液冷技術,以解決電力效率、永續性,甚至系統韌性等關鍵問題,從而確保AI工作負載能持續運行。
液冷技術是AI資料中心的理想解決方案之四大因素:
一、高效能晶片的散熱挑戰
HPE的業界夥伴在次世代加速器的工程設計上取得顯著成就,大幅提升了AI效能和效率。雖然新型晶片設計旨在以更小體積達到更高效能,但這也意味著冷卻其關鍵元件將變得更加困難。若無法及時冷卻晶片,資料中心可能面臨過熱問題,導致系統故障,最終造成AI工作無預警停止。液冷技術能更快速且有效地冷卻這些晶片,因為水的熱容量是空氣的三倍2,可吸收更多加速器和其他元件(如CPU、記憶體和網路交換器)所產生的熱量。
二、實現AI價值並降低對環境的衝擊
儘管高效冷卻次世代加速器非常重要,但企業仍需採用更永續的方式來實現此一目標,為地球盡一份心力。對次世代加速器而言,液冷技術在永續性和成本方面具有顯著優勢。以一個擁有一萬台伺服器的HPC資料中心為例,若皆採用氣冷技術,資料中心每年將排放超過8,700噸的二氧化碳,而採用液冷技術的伺服器,每年僅排放約1,200噸的二氧化碳3。這意味著能耗減少了87%,每年排放到大氣中的二氧化碳減少了1,780萬磅。如此顯著的能耗減少必為企業帶來可觀的成本節省。在擁有一萬台液冷伺服器的資料中心中,每台伺服器的年度成本僅為45.99美元,而氣冷伺服器的年度成本則高達254.70美元,這相當於每年可節省近210萬美元的營運成本3。
三、重複再利用AI系統產生的能源
液冷技術的優勢遠不僅止於此,它將能持續帶來效益。液冷系統在吸收熱量後,會將熱量轉移到資料中心外的熱交換系統,並利用這些熱水為其他建築或設施提供能源。美國能源部國家再生能源實驗室(NREL)已成功採用此方式多年。作為全球領先的再生能源研究中心之一,該實驗室從HPE Cray液冷超級電腦Peregrine系統中回收90%的熱水,並將其再利用作為能源系統整合設施(ESIF)辦公室和實驗室的主要熱源。
HPE的魁北克合作夥伴QScale也計劃利用此一技術支援農作物種植並解決糧食短缺問題。QScale希望利用液冷技術為當地將近100個足球場大小的溫室供電,預計每年可生產約8萬噸的番茄。