當前位置: 華文世界 > 科技

對壘輝達,AMD還需跨越哪些鴻溝?

2024-10-22科技

在科技飛速發展的今天,半導體行業無疑是全球科技競爭的焦點。其中,AI芯片領域的競爭尤為激烈,各大廠商都在積極推出新產品,試圖在這一領域占據一席之地。AMD與輝達這兩大巨頭之間的對決,更是吸引了無數人的目光。那麽,在與輝達的對壘中,AMD究竟還差在哪兒?

AMD近期推出的Instinct MI325X AI加速器,無疑是其向輝達發起挑戰的重要一步。這款芯片在AMD的描述中,著重增強了HBM記憶體部份,並采用了AMD CDNA 3 GPU架構,內建1530億個晶體管,配備256GB下一代HBM3E高頻寬記憶體,提供6TB/s的記憶體頻寬。在FP8和FP16精度下,MI325X分別達到2.6 PF和1.3 PF的峰值理論效能。

然而,與輝達今年3月釋出的B200 GPU相比,MI325X仍存在不小的差距。B200 GPU基於Blackwell架構,采用台積電的N4P制程工藝,擁有高達2080億的晶體管數量和192GB的HBM3e記憶體容量,提供了8TB/s的記憶體頻寬,以及20PF的FP8峰值效能。輝達B200 GPU的AI運算效能在FP8及新的FP6上都可達20 PF,是前一代Hopper構架的p00運算效能8 PF的2.5倍。在新的FP4格式上更可達到40 PF,是前一代Hopper構架GPU運算效能的5倍。

MI325X能否與B200掰手腕?AMD與輝達AI芯片對決引關註

在人工智慧(AI)芯片領域,AMD與輝達兩大巨頭之間的對決一直備受關註。近期,AMD推出的Instinct MI325X AI加速器與輝達釋出的B200 GPU之間的較量,更是引發了業界的高度關註。那麽,MI325X能否與B200掰手腕呢?

AMD的Instinct MI325X AI加速器采用了AMD CDNA 3 GPU架構,內建了高達1530億個晶體管,並配備了256GB的下一代HBM3E高頻寬記憶體,提供了6TB/s的記憶體頻寬。在峰值效能方面,MI325X在FP8和FP16精度下分別可以達到2.6 PF和1.3 PF。這樣的效能表現,使得MI325X在AI推理和訓練任務中都有不俗的表現。

然而,輝達釋出的B200 GPU則顯得更為強勁。B200基於Blackwell架構,采用了台積電N4P制程工藝,擁有高達2080億的晶體管數量,以及192GB的HBM3e記憶體容量,提供了8TB/s的記憶體頻寬。在FP8峰值效能上,B200更是達到了20 PF,是前一代Hopper構架的p00運算效能的2.5倍。此外,B200在FP6和FP4格式上的效能也同樣出色,分別可達20 PF和40 PF。

從硬體效能上看,輝達B200在晶體管數量、記憶體頻寬以及FP8峰值效能等方面都占據了明顯優勢。這使得B200在AI運算任務中能夠提供更強大的效能支持,尤其是在處理大型AI模型時,B200的表現更為出色。

然而AMD的MI325X也並非沒有亮點。據AMD稱,MI325X在某些特定的AI工作負載上,效能比輝達的p00高出30%。特別是在處理大型語言模型(LLM)時,如Mixtral 8x7B、Mistral 7B和Meta Llama 3.1 70B等,MI325X的表現優於輝達p00,分別快40%、30%和20%。這表明MI325X在某些特定套用場景下,具有與B200一較高下的潛力。

此外AMD還公布了其AI芯片路線圖,計劃在未來幾年推出效能更強大的AI芯片系列。例如,2025年的MI350芯片將進一步提高推理和訓練效率,而2026年的MI400系列則有望實作更多技術革新。這表明AMD在AI芯片領域有著長遠的規劃和布局,未來有望推出更多具有競爭力的產品。

盡管MI325X在硬體效能上與B200存在一定差距,但AMD在AI芯片領域的持續創新和突破不容忽視。隨著技術的不斷進步和市場的不斷發展,MI325X未來能否與B200掰手腕,還需時間給出答案。

未來AI芯片路線圖再度更新:技術叠代加速,市場潛力巨大

隨著科技巨頭們紛紛釋出最新的AI芯片產品和技術路線圖,AI芯片領域再度成為市場關註的焦點。AMD、輝達等公司在AI芯片領域的激烈競爭,不僅推動了技術的快速叠代,也為市場帶來了更多的機遇和挑戰。

AMD最新推出的Instinct MI325X AI加速器,在MI300X的基礎上進行了全面升級,特別是在HBM記憶體部份有了顯著提升。這款新品采用了AMD CDNA 3 GPU架構,內建1530億個晶體管,配備256GB下一代HBM3E高頻寬記憶體,提供6TB/s的記憶體頻寬。在FP8和FP16精度下,MI325X分別達到2.6 PF和1.3 PF的峰值理論效能。AMD還公布了其最新的AI芯片路線圖,MI350系列首款產品MI355X將引入新一代的CDNA 4架構,采用3nm工藝制造,搭配HBM3E,總容量進一步提升到288GB,計劃於2025年下半年開始發貨。

與此同時,輝達也在加速其AI芯片的研發和叠代。輝達CEO黃仁勛在最近的活動中帶來了最新的AI芯片路線圖,展示了從Blackwell到Rubin的飛躍性變化。輝達計劃將叠代速度加快到「一年一更」,並在架構、節點、HBM和封裝等方面進行全面升級。據悉,Blackwell架構的GPU產品正在生產中,將成為2024、2025年的重要營收驅動。接下來,輝達將釋出增強版Blackwell Ultra GPU,預計於2025年推出,擁有8堆疊HBM3e記憶體,每疊有12個die高。而下一代Rubin GPU則將於2026年上市,使用HBM4記憶體,並有8個堆疊。

投行Bernstein的分析師也在最近釋出的研報中,總結了到2027年的AI芯片技術變革路線圖。報告指出,隨著AI芯片加速叠代,輝達相較於其他廠商的領先優勢將進一步擴大。同時,CPU與GPU整合、記憶體和邏輯整合的趨勢也將越來越明顯。為了進一步推動數據傳輸的發展,HBM4可能會開始提供基礎芯片基礎上的客戶客製服務。報告還預計,未來幾乎所有的AI芯片都將使用台積電的CoWoS進行封裝,台積電在先進封裝領域的領先地位將得到保持。

AI芯片的快速發展離不開其在多領域的廣泛套用。從數據中心到智慧型手機,從自動駕駛到智慧城市,AI芯片無處不在。它們能夠有效處理海量數據,提升計算效率,為各行各業提供支持。在雲端運算、物聯網等新興領域,AI芯片的需求更是不斷增長,成為行業發展的重要驅動力。根據市場研究機構的報告,預計未來幾年AI芯片市場將以超過20%的年復合增長率快速發展。

AI芯片行業的競爭格局也日趨激烈。除了AMD和輝達這兩大巨頭外,越來越多的公司開始進入AI芯片領域。許多互聯網公司和技術巨頭,如亞馬遜、微軟、Meta等,都在開發ASIC芯片,以應對日益增長的計算需求。這些公司的加入,不僅豐富了AI芯片市場的產品線,也推動了技術的不斷創新和升級。

對於投資者而言,AI芯片行業的潛力和成長性顯而易見。然而進行投資時仍需謹慎選擇,關註市場的政策動向和企業的基本面。尤其是對於新興公司的投資,了解其技術能力和市場定位至關重要。同時,投資者也需留意行業內的競爭格局,行業龍頭企業在資本和技術上的優勢往往決定了市場的走向。