隨著生成式AI、雲端運算與高功率GPU的大量部署,AI伺服器的功耗與熱密度正以驚人的速度攀升。若散熱設計不當,將直接導致GPU降頻、自動斷電甚至整機當機,造成訓練進度延遲與成本損耗。根據資料中心研究報告,單一GPU伺服器的熱設計功率(TDP)已突破700W,傳統風冷系統逐漸無法有效應對這股熱浪。全球資料中心面臨一場新的挑戰:如何在不影響效能的前提下,將龐大熱能快速導出?
風冷(Air Cooling)
透過風扇與空調將熱氣排出伺服器機箱與機房。
成本低、導入簡單,是傳統資料中心最常見的散熱方式。
但在多GPU、密集型AI運算環境下,冷卻效率顯不足。
(圖片來源:技術嶺)
液冷(Liquid Cooling)
透過冷卻液流經冷板,直接與CPU/GPU表面接觸進行熱交換。
散熱效率高、可處理高熱功率機種,是AI伺服器的新標準。
(圖片來源:The immersion cooling technology: Current and future development in energy saving)
浸沒式液冷(Immersion Cooling)
整個伺服器浸沒於具絕緣性的冷卻液體中,全面導熱與散熱。
高效率但成本高、維護較複雜,適合高階超算與實驗性資料中心。
(圖片來源:技嘉打造兩相浸沒式液冷(Two-Phase Immersion Cooling)機房,樹立資料中心新標竿)
以下比較有助於快速了解不同散熱方式在效率、成本與實行難度上的差異,幫助採購與決策人員選擇最合適的解決方案。
在當前高熱密度伺服器與 AI 應用快速發展的背景下,選擇合適的散熱方式至關重要。以下以實際數據解析三種主流散熱方式的效能與實行差異:
風冷是最傳統、應用最廣泛的伺服器散熱技術,其原理是透過風扇與空調系統將機箱內部熱氣帶出。美國能源署(DOE)統計顯示,傳統資料中心的平均 PUE(Power Usage Effectiveness)約落在 1.55~2.0,部分高效機房可達 1.12,但此需極度優化整體環控設計。風冷系統中,風扇本身可能佔伺服器總耗電量的 15%~25%,在密集型 GPU 運算環境下效率快速遞減。
冷板式液冷系統透過液體導熱性佳的特性,讓冷卻液直接與 CPU/GPU 表面接觸進行高效率導熱。根據 NVIDIA 與 ASHRAE 的報告,導入冷板液冷後,PUE 可降至 1.05~1.15,TUE(Thermal Utilization Effectiveness)平均提升 15~20%,可降低整體伺服器能耗約 10~27%。
此外,由於冷卻液的熱傳導效率是空氣的 24 倍以上,可支援單機櫃功率突破 30kW,為 AI 運算與高密度模組最實用的散熱方案。儘管初期建置成本略高於風冷,但長期電費回收效果佳且可逐步升級,具有最佳實務性。
浸沒式液冷系統將整組伺服器沉浸在非導電冷卻液體中,熱交換效能最高。根據 OCP 與超級電腦運營商數據,PUE 可壓低至 1.02~1.04,整體能耗較風冷減少 40~50%。該系統的冷卻液熱容量為空氣的 1000~3000 倍,幾乎不需要空調設備。
然而其導入門檻較高,需更換專用機殼、冷卻池、特殊設備,維運與維修較複雜,適合規模大、熱密度極高的應用如超級電腦(HPC)或軍工級任務
散熱方式 | 散熱效率 | 運營成本 | 實行難易度 | 適用場景 |
---|---|---|---|---|
風冷 | ★ | ★★★★★ | ★ | 傳統資料中心、低功耗應用 |
液冷(冷板式) | ★★★★ | ★★★★ | ★★★ | AI伺服器、高密度運算 |
浸沒式液冷 | ★★★★★ | ★★ | ★★★★★ | 超算、高階GPU機房 |
液冷(冷板式)具備較高效能與中等營運成本,已被認為是AI伺服器最平衡的散熱解決方案,其中水冷接頭就是能否成功導入的關鍵元件之一。
根據市場研究機構 IDC 預測,到 2026 年,全球超過 35% 的資料中心將部分導入液冷技術;Gartner 則指出液冷系統在高效能運算伺服器的滲透率將在 5 年內成長 3 倍。這反映了產業對其效率與永續效益的高度認可。
AI伺服器與傳統伺服器在硬體架構與熱設計需求上有根本差異,也因此散熱策略選擇的標準也大異其趣:
項目 | 傳統伺服器 | AI運算伺服器 |
單機功耗 (TDP) | 約 200–300W | 高達 700–1000W |
核心組成 | 以 CPU 為主 | GPU/ASIC/FPGA 為主 |
工作負載 | 間歇性負載 | 長時間高密度運算 |
機櫃密度 | 約 5–10 kW | 15–50 kW,甚至更高 |
散熱方式選擇 | 氣冷為主 | 液冷成新主流 |
從表格可看出,AI伺服器的高密度設計與長時間高效能需求,已讓傳統風冷散熱面臨極限,液冷正是接下來的合理選擇。
根據 CMNews 分析,資料中心在散熱方式選型時,需衡量以下四項核心因素:
建造成本/運營成本
更低的建造成本,代表進入障礙較低,同時企業回本也比較快,現行AI伺服器中,氣冷的建造成本低,但運營成本較高;水冷分成開放式水冷/浸沒式水冷兩種,開放式水冷的建造成本大約是高階氣冷的兩倍,但運營成本較低。浸沒式建造成本則是氣冷的10倍以上。
散熱效率
散熱效率以TDP(熱設計功耗)來衡量,TDP是晶片能夠釋放的最大熱量,散熱的效率必須超過處理器的TDP上限,那才能保證伺服器正常運作。氣冷散熱可以處理 TDP 1000W以下的伺服器晶片,開放式水冷可以處理 TDP 800W~1500W,浸沒式水冷則能夠處理 TDP 1500W以上的晶片。而多數AI伺服器晶片動輒600W以上,對比傳統伺服器的風扇解熱,只能做到500W左右,所以必須採用高階散熱方案,如3D VC、水冷等。
耗電程度(PUE)
PUE是國際資料中心能源使用效率指標,公式為「總用電量/供應設備電量」,PUE值是用來計算資料中心節能省電的標準,PUE值越低,代表機房的空調冷卻所需電力就會更少,而目前歐盟、中國的政策要求PUE在1.3以下。所以資料中心不能一昧追求高算力,而忽略能源使用效率。
伺服器密度
高伺服器密度,指的是在一定的空間內,擺下更多的伺服器,可以讓資料中心具備更高的算力。藉由控制機殼大小,可以改變伺服器密度。氣冷AI伺服器的風扇體積大,導致機殼體積較大,伺服器密度最低通常小於10 kW/m,開放式水冷的伺服器密度相對較高,可達15 kW/m,密度最高的則是浸沒式水冷14~100 kW/m。
評估面向 | 氣冷 | 冷板液冷 | 浸沒式液冷 |
初期建置成本 | ★ | ★★ | ★★★★★ |
維運電費成本 | ★★★★★ | ★★ | ★ |
支援熱功率範圍 | ≤ 800W | 800–1500W | >1500W |
系統整合難度 | ★ | ★★★ | ★★★★★ |
長期可擴展性 | ★ | ★★★★ | ★★★ |
從上述數據可以看出,液冷冷板式技術在散熱效率與導入可行性之間達到絕佳平衡。比起風冷,它具備更佳的熱交換能力與能源效率;而相較於浸沒式液冷,它的系統整合難度與成本門檻又較低。因此越來越多資料中心與AI伺服器架構,開始將液冷列為標準選項。
在這樣的架構中,水冷接頭扮演了至關重要的角色。它們不僅是冷卻液流通的節點,更是影響整體冷卻效率與系統穩定性的關鍵:
精密加工可減少液流阻力與渦流,提升散熱效率
高品質密封設計能防止微漏與壓力損失
模組化結構可提升維護效率與系統升級彈性
簡而言之,液冷效率的高低,絕不僅僅取決於冷板本體,而是整個液體循環系統的每一個細節,其中接頭就是串連起效率、可靠性與維護性的核心零件。
相較於風冷效率過低、浸沒式液冷導入門檻過高,液冷冷板式的設計能在控制成本的前提下,大幅提升伺服器的熱交換效率與系統穩定性。同時,其模組化特性讓維護更為便利,適合大多數資料中心循序升級,是目前最具實務推廣性與長期效益的選擇。
一站式加工整合服務:從圖面分析、材質建議、加工製作到表面處理一條龍服務
品質檢驗設備齊全:全系列尺寸、同心度與氣密檢測能力
可彈性接單:無論是新創開發樣品、中小量試產或穩定量產皆能配合
如果您正在尋找具備精密加工經驗、能快速客製與交付的水冷接頭代工夥伴,嘉可精密將是您值得信賴的選擇。
歡迎帶著您的設計圖與規格需求聯絡我們,讓我們為您打造專屬解決方案。
🔗 立即聯絡我們,取得報價與技術建議 >>聯絡我們
NVIDIA─「Top 6 reasons you need liquid cooling in your data center」白皮書(與 Supermicro 合作)
註:https://www.supermicro.com/thought-leadership/CIO_6_Reasons_Liquid_Cooling_is_Needed.pdf
NVIDIA Blog:Blackwell 平台提升水效率 300 倍
註:https://blogs.nvidia.com/blog/blackwell-platform-water-efficiency-liquid-cooling-data-centers-ai-factories/
IndustryARC:「2024–2034 年全球資料中心液冷市場報告」
註:https://www.industryarc.com/Research/Data-Center-Liquid-Cooling-Market-Research-500580
Data Center Frontier:“Liquid Cooling Comes to a Boil”文章(2025)
註:https://www.datacenterfrontier.com/cooling/article/55292167/liquid-cooling-comes-to-a-boil-tracking-data-center-investment-innovation-and-infrastructure-at-the-2025-midpoint
Vertiv + NVIDIA 液冷效率白皮書(2022–2023)
註:https://www.vertiv.com/49cba7/globalassets/documents/white-papers/vertiv-liquid-cooling-tech-wp-en-na-web_381384_0.pdf
GlobeNewswire:「2024–2034 年全球資料中心液冷市場預測(市場將達 484.2 億美元)」
註:https://www.globenewswire.com/news-release/2025/02/05/3021305/28124/en/48-42-Billion-Data-Center-Liquid-Cooling-Markets-2024-2025-and-2034-Key-Growth-Drivers-Include-Advanced-Technologies-such-as-Immersion-and-Direct-to-Chip-Cooling.html