嘉可精密複合加工知識庫

AI浪潮來襲,伺服器散熱技術正面對世代轉型挑戰

Written by 張雲峰 | Jun 23, 2025 8:39:32 AM

隨著生成式AI、雲端運算與高功率GPU的大量部署,AI伺服器的功耗與熱密度正以驚人的速度攀升。若散熱設計不當,將直接導致GPU降頻、自動斷電甚至整機當機,造成訓練進度延遲與成本損耗。根據資料中心研究報告,單一GPU伺服器的熱設計功率(TDP)已突破700W,傳統風冷系統逐漸無法有效應對這股熱浪。全球資料中心面臨一場新的挑戰:如何在不影響效能的前提下,將龐大熱能快速導出?

目前伺服器的主流散熱方式大致可分為三類:

  1. 風冷(Air Cooling)

    1. 透過風扇與空調將熱氣排出伺服器機箱與機房。

    2. 成本低、導入簡單,是傳統資料中心最常見的散熱方式。

    3. 但在多GPU、密集型AI運算環境下,冷卻效率顯不足。

      (圖片來源:技術嶺)

  2. 液冷(Liquid Cooling)

  3. 浸沒式液冷(Immersion Cooling)

三種散熱方式比較表

以下比較有助於快速了解不同散熱方式在效率、成本與實行難度上的差異,幫助採購與決策人員選擇最合適的解決方案。

在當前高熱密度伺服器與 AI 應用快速發展的背景下,選擇合適的散熱方式至關重要。以下以實際數據解析三種主流散熱方式的效能與實行差異:

🔹 風冷(Air Cooling)

風冷是最傳統、應用最廣泛的伺服器散熱技術,其原理是透過風扇與空調系統將機箱內部熱氣帶出。美國能源署(DOE)統計顯示,傳統資料中心的平均 PUE(Power Usage Effectiveness)約落在 1.55~2.0,部分高效機房可達 1.12,但此需極度優化整體環控設計。風冷系統中,風扇本身可能佔伺服器總耗電量的 15%~25%,在密集型 GPU 運算環境下效率快速遞減。

🔹 液冷(Liquid Cooling,冷板式)

冷板式液冷系統透過液體導熱性佳的特性,讓冷卻液直接與 CPU/GPU 表面接觸進行高效率導熱。根據 NVIDIA 與 ASHRAE 的報告,導入冷板液冷後,PUE 可降至 1.05~1.15,TUE(Thermal Utilization Effectiveness)平均提升 15~20%,可降低整體伺服器能耗約 10~27%

此外,由於冷卻液的熱傳導效率是空氣的 24 倍以上,可支援單機櫃功率突破 30kW,為 AI 運算與高密度模組最實用的散熱方案。儘管初期建置成本略高於風冷,但長期電費回收效果佳且可逐步升級,具有最佳實務性。

🔹 浸沒式液冷(Immersion Cooling)

浸沒式液冷系統將整組伺服器沉浸在非導電冷卻液體中,熱交換效能最高。根據 OCP 與超級電腦運營商數據,PUE 可壓低至 1.02~1.04,整體能耗較風冷減少 40~50%。該系統的冷卻液熱容量為空氣的 1000~3000 倍,幾乎不需要空調設備。

然而其導入門檻較高,需更換專用機殼、冷卻池、特殊設備,維運與維修較複雜,適合規模大、熱密度極高的應用如超級電腦(HPC)或軍工級任務

散熱方式 散熱效率 運營成本 實行難易度 適用場景
風冷 ★★★★★ 傳統資料中心、低功耗應用
液冷(冷板式) ★★★★ ★★★★ ★★★ AI伺服器、高密度運算
浸沒式液冷 ★★★★★ ★★ ★★★★★ 超算、高階GPU機房

液冷(冷板式)具備較高效能與中等營運成本,已被認為是AI伺服器最平衡的散熱解決方案,其中水冷接頭就是能否成功導入的關鍵元件之一。

根據市場研究機構 IDC 預測,到 2026 年,全球超過 35% 的資料中心將部分導入液冷技術;Gartner 則指出液冷系統在高效能運算伺服器的滲透率將在 5 年內成長 3 倍。這反映了產業對其效率與永續效益的高度認可。

AI伺服器 vs 傳統伺服器:算力差異與散熱挑戰

AI伺服器與傳統伺服器在硬體架構與熱設計需求上有根本差異,也因此散熱策略選擇的標準也大異其趣:

項目 傳統伺服器 AI運算伺服器
單機功耗 (TDP) 約 200–300W 高達 700–1000W
核心組成 以 CPU 為主 GPU/ASIC/FPGA 為主
工作負載 間歇性負載 長時間高密度運算
機櫃密度 約 5–10 kW 15–50 kW,甚至更高
散熱方式選擇 氣冷為主 液冷成新主流

從表格可看出,AI伺服器的高密度設計與長時間高效能需求,已讓傳統風冷散熱面臨極限,液冷正是接下來的合理選擇。

如何選擇適合的散熱方式?四大考量標準

根據 CMNews 分析,資料中心在散熱方式選型時,需衡量以下四項核心因素:

  1. 建造成本/運營成本

更低的建造成本,代表進入障礙較低,同時企業回本也比較快,現行AI伺服器中,氣冷的建造成本低,但運營成本較高;水冷分成開放式水冷/浸沒式水冷兩種,開放式水冷的建造成本大約是高階氣冷的兩倍,但運營成本較低。浸沒式建造成本則是氣冷的10倍以上。

  1. 散熱效率

散熱效率以TDP(熱設計功耗)來衡量,TDP是晶片能夠釋放的最大熱量,散熱的效率必須超過處理器的TDP上限,那才能保證伺服器正常運作。氣冷散熱可以處理 TDP 1000W以下的伺服器晶片,開放式水冷可以處理 TDP 800W~1500W,浸沒式水冷則能夠處理 TDP 1500W以上的晶片。而多數AI伺服器晶片動輒600W以上,對比傳統伺服器的風扇解熱,只能做到500W左右,所以必須採用高階散熱方案,如3D VC、水冷等。

  1. 耗電程度(PUE)

PUE是國際資料中心能源使用效率指標,公式為「總用電量/供應設備電量」,PUE值是用來計算資料中心節能省電的標準,PUE值越低,代表機房的空調冷卻所需電力就會更少,而目前歐盟、中國的政策要求PUE在1.3以下。所以資料中心不能一昧追求高算力,而忽略能源使用效率。

  1. 伺服器密度

高伺服器密度,指的是在一定的空間內,擺下更多的伺服器,可以讓資料中心具備更高的算力。藉由控制機殼大小,可以改變伺服器密度。氣冷AI伺服器的風扇體積大,導致機殼體積較大,伺服器密度最低通常小於10 kW/m,開放式水冷的伺服器密度相對較高,可達15 kW/m,密度最高的則是浸沒式水冷14~100 kW/m。

評估面向 氣冷 冷板液冷 浸沒式液冷
初期建置成本 ★★ ★★★★★
維運電費成本 ★★★★★ ★★
支援熱功率範圍 ≤ 800W 800–1500W >1500W
系統整合難度 ★★★ ★★★★★
長期可擴展性 ★★★★ ★★★

 

液冷崛起的趨勢與液冷接頭的關鍵角色

從上述數據可以看出,液冷冷板式技術在散熱效率與導入可行性之間達到絕佳平衡。比起風冷,它具備更佳的熱交換能力與能源效率;而相較於浸沒式液冷,它的系統整合難度與成本門檻又較低。因此越來越多資料中心與AI伺服器架構,開始將液冷列為標準選項。

在這樣的架構中,水冷接頭扮演了至關重要的角色。它們不僅是冷卻液流通的節點,更是影響整體冷卻效率與系統穩定性的關鍵:

  • 精密加工可減少液流阻力與渦流,提升散熱效率

  • 高品質密封設計能防止微漏與壓力損失

  • 模組化結構可提升維護效率與系統升級彈性

簡而言之,液冷效率的高低,絕不僅僅取決於冷板本體,而是整個液體循環系統的每一個細節,其中接頭就是串連起效率、可靠性與維護性的核心零件。

相較於風冷效率過低、浸沒式液冷導入門檻過高,液冷冷板式的設計能在控制成本的前提下,大幅提升伺服器的熱交換效率與系統穩定性。同時,其模組化特性讓維護更為便利,適合大多數資料中心循序升級,是目前最具實務推廣性與長期效益的選擇。

 

為何選擇嘉可精密?我們能為您做到的

  • 快速打樣 : 我們可在最短數日內完成小批量打樣,加速產品開發時程,協助客戶搶佔市場先機。
  • 一站式加工整合服務:從圖面分析、材質建議、加工製作到表面處理一條龍服務

  • 品質檢驗設備齊全:全系列尺寸、同心度與氣密檢測能力

  • 可彈性接單:無論是新創開發樣品、中小量試產或穩定量產皆能配合

如果您正在尋找具備精密加工經驗、能快速客製與交付的水冷接頭代工夥伴,嘉可精密將是您值得信賴的選擇。

歡迎帶著您的設計圖與規格需求聯絡我們,讓我們為您打造專屬解決方案。

🔗 立即聯絡我們,取得報價與技術建議 >>聯絡我們

參考資料與數據來源:


  1. NVIDIA─「Top 6 reasons you need liquid cooling in your data center」白皮書(與 Supermicro 合作)
    註:https://www.supermicro.com/thought-leadership/CIO_6_Reasons_Liquid_Cooling_is_Needed.pdf

  2. NVIDIA Blog:Blackwell 平台提升水效率 300 倍
    註:https://blogs.nvidia.com/blog/blackwell-platform-water-efficiency-liquid-cooling-data-centers-ai-factories/

  3. IndustryARC:「2024–2034 年全球資料中心液冷市場報告」
    註:https://www.industryarc.com/Research/Data-Center-Liquid-Cooling-Market-Research-500580

  4. Data Center Frontier:“Liquid Cooling Comes to a Boil”文章(2025)
    註:https://www.datacenterfrontier.com/cooling/article/55292167/liquid-cooling-comes-to-a-boil-tracking-data-center-investment-innovation-and-infrastructure-at-the-2025-midpoint

  5. Vertiv + NVIDIA 液冷效率白皮書(2022–2023)
    註:https://www.vertiv.com/49cba7/globalassets/documents/white-papers/vertiv-liquid-cooling-tech-wp-en-na-web_381384_0.pdf

  6. GlobeNewswire:「2024–2034 年全球資料中心液冷市場預測(市場將達 484.2 億美元)」
    註:https://www.globenewswire.com/news-release/2025/02/05/3021305/28124/en/48-42-Billion-Data-Center-Liquid-Cooling-Markets-2024-2025-and-2034-Key-Growth-Drivers-Include-Advanced-Technologies-such-as-Immersion-and-Direct-to-Chip-Cooling.html