當前位置: 華文世界 > 科技

AI伺服器全面爆發!算力重點賽道,布局龍頭全梳理

2024-02-17科技

近年來,隨著全球算力需求逐漸向人工智慧領域轉移,AI伺服器作為滿足這一需求的關鍵力量,正全面爆發。根據市場預測,未來幾年AI伺服器出貨量將保持快速增長,2023年預計達到約118萬台,同比增長率高達38.4%。隨著人工智慧硬體市場規模的擴大,到2026年,預計全球AI伺服器的占比將提升至15%。AI伺服器的復合年增長率有望達到29%,顯示出強勁的增長勢頭。

AI伺服器行業概覽

AI伺服器根據套用場景的不同,主要劃分為訓練和推理兩大類。目前,中國AI伺服器的推理負載占比已達到約55.5%,並且預計在未來還會持續增長。對於訓練場景而言,對芯片的算力要求更為嚴苛,而推理場景則對算力的需求相對較低。因此,AI伺服器通常采用異構形式,可以搭載不同型別的芯片,如CPU、GPU、FPGA和ASIC等。

目前,GPU仍然是數據中心加速的首選方案,尤其在深度學習訓練方面表現出色。然而,隨著人工智慧產業的發展,其他非GPU芯片的套用也在逐漸增多。根據市場預測,到2025年,其他非GPU芯片的占比將超過20%,顯示出多樣化的芯片套用趨勢。ASIC通常具備出色的效能,但缺乏靈活性和可編程性。相比之下,GPU在訓練或通用場景下更為適用。FPGA具備快速、低功耗、靈活和高效的優點,在AI訓練中能夠提供充足的算力,並擁有重新編程以適應不同任務需求的靈活性。

AI伺服器和其他類別伺服器對比

傳統的GPU最初設計用於圖形渲染計算,但隨著人工智慧計算需求的增長,GPGPU應運而生。GPGPU透過移除GPU的圖形顯示部份,將其余的計算資源全部用於通用計算,廣泛套用於AI、數據分析和高效能計算等領域。通用GPU在硬體加速能力方面具有顯著優勢,尤其在深度學習訓練方面表現出色,成為目前主流的AI硬體產品。

在市場上,輝達、AMD、寒武紀和華為等公司的產品占據了較大的市場份額。輝達憑借成熟的芯片設計、先進工藝的產能優勢以及完善的CUDA生態系,在AI芯片領域占據顯著優勢。其效能強勁且快速叠代的AI芯片已被廣泛套用於集群、邊緣計算和高效能計算等領域。

AI伺服器的核心元件包括GPU、DRAM、SSD、RAID卡、CPU、網卡、PCB、高速互聯芯片和散熱模組等。而隨著GPU算力需求的提升,對硬體的傳輸速率也提出了更高要求。這推動了高頻高速板、HDI和ABF載板的需求增長。與此同時,為了滿足更高的傳輸效率,還需要低損耗的CCL,這對PCB及其上遊材料供應端產生了促進作用。

此外,隨著AI伺服器出貨量的持續增長,HBM(高頻寬記憶體)的需求也爆發增長。HBM憑借其高頻寬、低功耗和小體積等優勢,在AI伺服器場景中得到廣泛套用。HBM主要套用於高效能伺服器領域,其套用進展從2016年的NVP100GPU(采用HBM2技術)開始,隨後在V100、A100和p00等產品中得到套用。最新一代的HBM3e技術搭載於輝達的p00中,為伺服器提供了更快的數據處理速度和更高的記憶體容量。

AI伺服器的市場需求持續旺盛,未來隨著人工智慧技術的發展和套用場景的拓展,對其效能、穩定性和可延伸性等方面提出了更高的要求。受美國等國家對華技術限制政策加碼的影響,中國AI硬體需求缺口可能進一步擴大,這為國產AI伺服器的發展提供了廣闊的市場空間和機遇。人工智慧產業鏈的基礎層、技術層和套用層相互配合,共同推動著人工智慧技術在各個領域的套用和發展。