當前位置: 華文世界 > 科技

輝達的狂歡,才剛剛開始

2024-10-09科技

本文由半導體產業縱橫(ID:ICVIEWS)編譯自eetimes

輝達的競爭對手不是AMD,而是谷歌和亞馬遜。

自Open AI釋出ChatGPT以來,生成式AI成為一大熱潮,輝達的GPU作為AI芯片開始流行。然而,在GPU的生產中,存在兩個瓶頸:台積電的CoWoS和高頻寬記憶體(HBM),導致GPU在全球範圍內短缺。

在這些GPU中,p00的需求量尤其大,其價格飆升至4萬美元,引發了所謂的輝達「GPU狂熱」。

在這種情況下,台積電將產能翻倍,SK海力士等DRAM廠商增加了HBM產量,導致「p00」的交貨時間從52周縮短至20周。那麽,輝達的「GPU狂熱」會結束嗎?

在這篇文章中,我們將討論輝達的「GPU狂熱」是否即將結束。先說結論,預計即使到2024年,ChatGPT級AI開發和營運所需的高端AI伺服器也只有3.9%的出貨量。因此,谷歌、亞馬遜、微軟等雲服務提供商(CSP)的需求似乎根本無法得到滿足。 總之,到目前為止,輝達 的「GPU狂熱」只是一個開始,全面的生成式 AI 熱潮即將來臨。

下面,我們先簡單回顧一下輝達 GPU的兩大瓶頸。

兩個輝達 GPU 瓶頸

在輝達 GPU的生產中,代工廠台積電負責所有前、中、後制程。這裏,中間工序是指分別生產GPU、CPU、HBM等芯片,並將其放置在從12英寸矽片切下的方形基板上的工序。這種基板稱為矽中介層(圖 1)。

圖 1 2.5D 到 3D 中出現的中級工藝,例如 輝達 GPU

另外,台積電開發的輝達 GPU封裝稱為CoWoS(Chip on Wafer on Substrate),但兩個瓶頸是矽中介層容量和HBM(圖2),情況如下。

圖2 CoWoS結構和輝達 GPU上的兩個瓶頸

CoWoS 於 2011 年開發,但此後,隨著 GPU 效能的提高,GPU 芯片的尺寸不斷增大,GPU 中安裝的 HBM 數量也隨之增加(圖 3)。結果,矽中介層逐年變大,而從單個晶圓上可獲得的中介層數量卻與之成反比減少。

圖 3 Interposer 面積和 HBM 數量隨著每一代的增加而增加

此外,GPU中安裝的HBM數量增加,HBM內部堆疊的DRAM芯片數量也增加。此外,DRAM每兩年就會小型化一次,HBM標準每兩年更新一次以提高效能。因此,尖端 HBM 供不應求。

在這種情況下,台積電將其矽中介層產能從2023年夏季前後的每月15,000片翻倍至今年夏季前後的每月超過30,000片。此外,三星電子和美光科技已獲得輝達認證,並開始供應尖端 HBM,此前由 SK 海力士主導。

受上述影響,需求量最高的輝達 p00的交貨時間從52周大幅縮短至20周。那麽,AI伺服器的出貨量因此增加了多少呢?

兩類AI伺服器的定義

根據DIGITIMES Research釋出的【全球年度伺服器出貨量,2023-2024】(Servers Report Database, 2024)顯示,AI伺服器有兩種類別:

  • 配備兩個或多個AI加速器但未配備HBM的系統稱為「通用AI伺服器」。

  • 配備至少四個配備HBM的AI加速器的系統被稱為「高端AI伺服器」。

  • 這裏的AI加速器是指為加速AI套用,特別是神經網絡和機器學習而設計的特殊硬件,典型的例子就是輝達的GPU。此外,ChatGPT級別的生成式AI的開發和執行需要大量高端AI伺服器,而不是通用AI伺服器。

    那麽,通用AI伺服器和高端AI伺服器的出貨量分別是多少?

    通用AI伺服器和高端AI伺服器出貨量

    圖4顯示了2022年至2023年通用AI伺服器和高端AI伺服器的出貨量。預計2022年通用AI伺服器出貨量為34.4萬台,2023年出貨量為47萬台,2024年出貨量為72.5萬台。

    圖4 通用AI伺服器和高端AI伺服器出貨量(2022-2024)

    同時,ChatGPT級生成式AI開發和營運所需的高端AI伺服器預計2022年出貨3.4萬台,2023年出貨20萬台,2024年出貨56.4萬台。

    那麽,高端AI伺服器的出貨量能否滿足美國CSP的需求呢?

    圖5顯示了伺服器、通用AI伺服器和高端AI伺服器的出貨數量。從伺服器整體來看,無論是通用人工智能伺服器還是高端人工智能伺服器,出貨量都非常少。

    圖5 伺服器、通用AI伺服器、高端AI伺服器出貨量

    當我研究開發和執行 ChatGPT 級別的生成式 AI 需要多少高端 AI 伺服器時,我更加失望。

    ChatGPT級別生成AI所需的高端AI伺服器

    據報道,ChatGPT 的開發和營運需要 30,000 台輝達 DGX p00 高端 AI 伺服器(圖 6)。

    圖6 執行ChatGPT需要多少高端AI伺服器?

    輝達 DGX p00配備了八顆p00芯片,每顆芯片的價格已飆升至4萬美元,使得系統總價達到46萬美元。換句話說,生成 ChatGPT 級別的 AI 需要投資 30,000 台 x 460,000 美元 = 138 億美元。

    我認為世界上充斥著生成式人工智能系統,但實際上已經構建了多少 ChatGPT 類生成式人工智能?

    圖7 伺服器出貨量、高端AI伺服器出貨量、ChatGPT級生成AI系統數量

    由於2022年高端AI伺服器出貨量為3.4萬台,因此只能構建一套ChatGPT級AI系統(這正是ChatGPT)。次年,即2023年,高端AI伺服器出貨量達到20萬台,因此可以構建6到7個ChatGPT級AI系統。由於預計2024年將出貨56.4萬台高端AI伺服器,因此將有可能構建18至19個ChatGPT級AI系統。

    不過,上述估算假設ChatGPT級AI可以用3萬台高端AI伺服器「輝達 DGX p00」構建。然而,由於一代 AI 可能變得更加復雜,在這種情況下可能需要超過 30,000 個 輝達 DGX p00。綜上所述,美國通訊服務提供商不太可能對當前高端人工智能伺服器的出貨量感到滿意。

    現在,我們來看看每個終端使用者(例如美國的 CSP)擁有多少台高端 AI 伺服器。

    終端使用者的高端人工智能伺服器數量

    圖 8顯示了終端使用者的高端 AI 伺服器數量。2023年,擁有OpenAI的微軟擁有最多的高端AI伺服器數量,為6.3萬台,但到2024年,谷歌將超越微軟,擁有最多的高端AI伺服器。

    2024 年排名前五的分別是谷歌,以 162,000 台(5 個系統)排名第一,微軟以 90,000 台(3 個系統)排名第二,超微以 68,000 台(2 個系統)排名第三,亞馬遜67,000台(2個系統)排名第四。最後是Meta,以46,000台(1個系統)排名第五(括弧中的數碼是ChatGPT類生成AI可以構建的系統數量)。由此可見,美國前五名光熱發電企業壟斷了約80%的份額。

    接下來我們看看AI加速器出貨的高端AI伺服器數量(圖9)。不出所料,輝達的GPU是AI加速器使用最多的,2024年將達到33.6萬台。然而,令人驚訝的是,第二受歡迎的公司不是AMD,而是谷歌。

    圖9 按人工智能加速器劃分的高端人工智能伺服器(2023-2024)

    谷歌開發了自己的張量處理單元(TPU)作為人工智能加速器。到2024年,搭載該TPU的高端AI伺服器數量將達到13.8萬台。這裏,從圖8我們知道,谷歌到2024年將擁有16.2萬台高端AI伺服器。因此,預計有 138,000 台配備了 Google 自家的 TPU,其余 24,000 台配備了 輝達 的 GPU。換句話說,對於輝達來說,谷歌既是客戶,也是可怕的敵人。

    另外,如果我們再看一下2024年的出貨量,排名第三的AMD有4.5萬台,排名第四的亞馬遜則以4萬台緊隨其後。亞馬遜還在開發 AWS Trainium 作為人工智能加速器。如果再等等,AMD可能會被亞馬遜超越。

    綜上所述,目前,輝達 的 AI 加速器出貨量最多,但谷歌和亞馬遜正在成為其強有力的競爭對手。輝達的競爭對手不是處理器制造商AMD,而是美國谷歌和亞馬遜。

    全面的生成式人工智能熱潮即將到來

    讓我們總結一下到目前為止的一切。根據 DIGITIMES Research 的一份報告,預計到 2024 年,能夠開發和執行 ChatGPT 級生成式 AI 的高端 AI 伺服器出貨量僅占所有伺服器的 3.9%。人們認為這個出貨量根本無法滿足CSP的需求。

    也就是說,輝達從2023年到2024年的「GPU狂熱」只是一個開始。因此,未來可能會出現全面的生成式人工智能熱潮。讓我們在下面展示其基礎。

    圖 10顯示了半導體行業協會 (SIA) 釋出的按套用劃分的半導體市場及其未來預測。據SIA預測,2030年全球半導體市場規模將超過1萬億美元。

    圖10 按套用劃分的半導體出貨量預測

    截至 2030 年,最大的市場將是計算和數據儲存。其中包括PC和伺服器(當然還有高端AI伺服器),但由於PC出貨量不太可能大幅增加,因此伺服器可能會占大多數。

    有線通訊是指用於數據中心的半導體。這意味著到2030年,計算和數據儲存(3300億美元)+有線通訊(600億美元)=總計3900億美元將成為數據中心(包括PC)的半導體,成為全球最大的市場。

    另一件值得關註的事情是數據中心市場及其前景,如圖11所示。2022年ChatGPT釋出後,數據中心市場預計將穩步增長。數據中心由三個要素組成:網絡基礎設施、伺服器和儲存,預計從 2023 年到 2029 年,伺服器和儲存將分別增加一倍左右。

    圖11 數據中心市場展望

    這樣,伺服器用半導體(包括高端AI伺服器)將占據全球市場最大份額,數據中心市場也將擴大。

    重復最後一次。到目前為止,輝達 的「GPU 狂熱」還只是剛剛開始。全面的生成式人工智能熱潮即將到來。