當前位置: 華文世界 > 財經

AI芯片之戰:六大科技巨頭自研芯片最新進度解讀

2024-02-21財經

自從OpenAI 釋出ChatGPT後,生成式 AI 造成市場大熱,引發各家科技大廠競相投入。現階段提供算力的主要來源,以輝達(NVIDIA)提供的AI加速器為大宗,但同時造成其AI加速器在市場上的供不應求,就連OpenAI也因為不想再被緊缺的供應鏈牽制,而打算自行開發芯片。

多家科技大廠決心自研 AI 加速器以滿足需求之外,另一方面,受中美科技戰限制,雖然輝達提供中國客戶減規版產品,但近期又有訊息,減規版產品不受中國客戶青睞,中國廠商轉向華為求助,或自研芯片,不落人後繼續發展大型語言模型。

這波AI浪潮發展下,輝達無疑是AI算力領先者,A100/p00系列芯片拿下全球AI市場頂尖客戶訂單,研究公司Gartner和Moor Insights&Strategy表示,輝達的全球人工智能芯片市占率最高可能達90%創新高,但輝達寡占市場使客戶須有成本高漲認知,還要面對可能搶不到貨,或購買數量太少不知道何時能到貨的壓力。

華爾街投資銀行Bernstein Research資深分析師Stacy Rasgon分析,ChatGPT每次查詢的成本約為0.04美元,如果ChatGPT查詢量增長至Google搜尋規模的十分之一,最初需要部署價值約481億美元的GPU進行運算,每年還需要價值約160億美元的芯片才能維持運作。還有相當於 160 億美元的相關芯片來執行工作。所以,無論是為了減少成本,還是降低對輝達的過度依賴、甚至是進一步提高議價能力,全球科技大廠都已開始其自研AI加速器的計劃。

根據科技媒體 The Information 引述知情人士的說法報導指出,全球科技大廠包括微軟、OpenAI、特斯拉、Google、亞馬遜、Meta 等六家科技公司,都正投入研發自家 AI 加速器芯片,預計將會與輝達的旗艦級 p00 AI 加速器芯片競爭。

全球大廠自研芯片進度

微軟自研AI芯片傳聞未曾停過

一年一度 Microsoft Ignite 2023 大會,終於釋出數據中心 AI 芯片 Azure Maia 100 和雲端運算處理器 Azure Cobalt 100。微軟 2019 年後就傳出開發 AI 專用芯片,為大型語言模型提供動力。大會推出的 Azure Maia 100 是 AI 加速器芯片,能用於 OpenAI 模型、ChatGPT、Bing、GitHub Copilot 等 AI 工作執行。

微軟介紹,Azure Maia 100 是系列第一代產品,5 納米制程生產。Azure Cobalt 為Arm 架構的雲端運算處理器,配備128 個運算核心,與目前幾代Azure Arm 芯片相比,效能提升40%,支持 Microsoft Teams、Azure SQL 等服務。

兩款芯片均由台積電生產,微軟已在設計第二代。 有分析師表示,以ChatGPT每天營運成本約70萬美元,且大部份算力源於昂貴伺服器計算,Azure Maia 100與輝達產品有同等競爭力,每芯片成本可降低三分之一。

Open AI 也正在探索制造自研 AI 加速器芯片,並已開始評估潛在的收購目標。

先前路透社引述知情人士的訊息指出,至少從2022年開始,OpenAI就已討論各種方案,以解決AI芯片短缺問題。盡管OpenAI尚未做最終決定,但希望解決AI芯片短缺的選項包括打造自家AI芯片、與輝達等芯片制造商合作研發,OpenAI並未正式評論。

電動車大廠特斯拉也是積極投入AI 加速器芯片的科技大廠。

特斯拉以自動駕駛需求為主,至今推出兩種AI芯片,分別是全自動駕駛的FSD芯片和Dojo D1芯片。FSD 芯片用於特斯拉車自動駕駛系統,Dojo D1 芯片用於特斯拉超級電腦,為通用 CPU,構建 AI 訓練芯片,為 Dojo 系統提供驅動力。

Google 也早在 2013 年就秘密研發專註 AI 機器學習演算法芯片,並用於雲端運算數據中心,取代輝達 GPU。

這款TPU自研芯片2016年公開,為深度學習模型執行大規模矩陣運算,如自然語言處理、電腦視覺和推薦系統模型。Google 其實 2020 年資料中心便建構 AI 芯片 TPU v4,直到 2023 年 4 月才首次公開細節。

亞馬遜旗下雲端運算服務提供商AWS,從2013年推出首顆Nitro1芯片至今,為最先自研芯片的雲端廠商,擁有網路芯片、伺服器芯片、人工智能機器學習自研芯片三條產品線。

AWS 自研 AI 芯片版圖包括推理芯片 Inferentia 和訓練芯片 Trainium。

另一方面,AWS 專為人工智能打造的Inferentia 2(Inf2)2023年初釋出,計算效能提高三倍,加速器總記憶體提高25%,可透過芯片直接超高速連線支持分布式推理,最多支持1,750億個參數,為AI芯片市場最強自研廠商。

Meta則到2022年仍使用CPU和專為加速AI演算法設計的客製芯片組合執行AI工作,但因CPU的AI工作效率不如GPU,Meta取消2022年大規模客製芯片計劃,轉而訂購數十億美元的輝達GPU。

就在其他各家大廠紛紛投入自研AI加速器芯片,Meta也釋出了自研芯片,並2023年5月19日公布AI訓練與推理芯片。芯片功耗僅25瓦,為輝達相同產品功耗的0.05%,並采RISC-V開源架構。市場訊息指出,芯片為台積電7納米生產。

中國大廠的自研芯片之路,又是另一種光景。

美國去年10月擴大禁止向中國出售先進人工智能(AI)芯片,輝達雖然迅速為中國市場量身訂造新芯片,以符合美國出口規定。但近日有訊息指出,阿裏巴巴、騰訊等中國雲端運算大客戶,並不熱中買功能降低的減規版p0芯片,轉成國內采購,如向華為買。策略轉變顯示透過部份先進半導體訂單轉給中國公司,將更依賴中國本土廠商芯片。

TrendForce表示,中國雲端業者約八成高階AI芯片購自輝達,五年內可能降至50%~60%。若美國繼續加強芯片管制,可能對輝達中國地區銷售造成額外壓力。