AI芯片和加速器的快速發展:技術新變革
隨著人工智慧(AI)技術的飛速發展,許多芯片制造商、初創公司和雲服務提供商正在忙著打造專門的AI處理器和加速器。數據中心,可以算作互聯網的「幕後英雄」,無論是Netflix還是Google等大公司,都在利用這些數據中心和托管的計算資源來為使用者提供數位服務。企業們逐漸把焦點轉向高級AI工作負載,這使得傳統以CPU為核心的伺服器被整合了新型的專用芯片或「協處理器」,從而增強了它們的效能。這些協處理器的用意在於增加額外的元件,以提升伺服器的計算能力,讓它們能應對AI訓練、推理、資料庫加速和網路功能等強烈的計算需求。
在過去幾年,Nvidia的GPU已成為協處理器的明星選手,以其卓越的速度處理海量數據。根據Futurum Group的研究,去年GPU在支持AI套用的協處理器中占據了74%的市場份額。預計到2028年,GPU的市場收入將以每年30%的速度增長,達到1020億美元。盡管GPU在加速各種龐大AI工作負載方面表現不俗,尤其是訓練和執行需要龐大參數的語言模型或基因組測序等任務,但擁有它們的總成本卻不容小覷。例如,Nvidia的旗艦產品GB200「超級芯片」,結合了Grace CPU和兩個B200 GPU,價格預計在60,000到70,000美元之間。裝配36個這樣的超級芯片的伺服器,其成本更是高達200萬美元。顯然,這種情況並不適用於所有公司。
許多IT經理對采用新技術以支持中低強度的AI工作負載充滿期待,特別關註總體擁有成本、可延伸性和整合度。多數AI模型(比如深度學習網路、大型語言模型等)已經步入成熟階段,市場需求正逐步轉向提升特定工作負載(諸如影像辨識、推薦系統等)的效能,同時保證高效性。這便是芯片制造商、初創公司與雲服務商正在大力研發的專用AI處理器和加速器所要解決的問題。
那麽,AI處理器和加速器到底是什麽呢?簡言之,這些處理器是專為特定AI功能設計的芯片,通常會圍繞三種關鍵架構展開:專用積體電路(ASIC)、現場可編程門陣列(FPGA)和最新的神經處理單元(NPU)。ASIC和FPGA的歷史相對悠久,最大的區別在於可編程性。ASIC是從頭為特定任務獨家客製的,而FPGA可以在後期進行重新配置。相對而言,NPU則可以說是針對AI和機器學習負載(如神經網路推理和訓練)專門打造的硬體。
Futurum集團的執行長Daniel Newman接受VentureBeat采訪時指出,加速器通常獨立執行功能,有時采用晶圓級或多芯片的ASIC設計,能夠處理多種套用。NPU是一個很好的例子,它可以應對大量矩陣數學和神經網路任務,且其功耗較低。正因如此,專為特定套用構建的ASIC和NPU在成本及功耗方面相比GPU更具優勢。
IBM雲與行業平台的總經理Rohit Badlaney也表示,GPU設計主要圍繞算術邏輯單元(ALU)展開,以便同時進行成千上萬的計算,而AI加速器則是主要基於張量處理器核心(TPC)進行最佳化。IBM目前采用混合雲架構,運用多個來自Nvidia和Intel的GPU和AI加速器,旨在幫助企業應對獨特的工作負載需求,兼顧高效能與高效率。他進一步解釋,AI加速器是企業和開源社群構建生成式人工智慧所需的重要產品之一。
在市場上,除了英特爾,還有其他多家初創企業如Groq、Graphcore、SambaNova Systems和Cerebras Systems也推出了客製的AI加速器,力圖在不同領域與GPU一較高下。比如,Tractable公司利用Graphcore的智慧處理單元-POD系統,效能較以往的GPU提升了近五倍,讓團隊的研發效率顯著加快。這就像是給他們的研發過程開了一扇門,愈發順暢。
部份AI處理器還專門為訓練工作負載提供支持。在Aleph Alpha的數據中心,AI超級電腦正透過Cerebras CS-3提供動力,擁有高達90萬個AI核心,用以構建下一代AI模型。甚至谷歌最近推出的TPU v5p也為Salesforce和Lightricks等公司提供了一些AI訓練工作負載。
在選擇加速器時,IT經理們應考慮哪些因素呢?除了GPU外,現在有很多AI處理器能夠加速AI工作負載,尤其在推理方面。某些芯片或許表現優秀,但在特定型別的AI任務處理中卻可能受到架構限制;反之,某些芯片的功能更全,但與GPU相比總擁有成本可能並無太大改善。VentureBeat采訪的多位專家一致認為,選擇應基於工作負載的規模與型別、數據處理的靈活性、成本及可得性需求來做權衡。
來自Sustainable Metal Cloud的技術長Daniel Kearney建議,企業應當透過基準測試來驗證價效比,並確保團隊熟悉相關加速器的軟體生態系。這種前期的調查研究能夠為企業節省大量時間和金錢,特別是在進行大型且高成本的訓練工作時。
全球範圍內,隨著推理工作的增加,AI芯片、加速器和GPU等硬體的市場預計將以每年30%的速度增長,預計到2028年達到1380億美元。隨著技術的不斷進步,AI處理器和加速器將在未來的市場中占據越來越重要的地位。