当前位置: 华文世界 > 科技

对垒英伟达,AMD还需跨越哪些鸿沟?

2024-10-22科技

在科技飞速发展的今天,半导体行业无疑是全球科技竞争的焦点。其中,AI芯片领域的竞争尤为激烈,各大厂商都在积极推出新产品,试图在这一领域占据一席之地。AMD与英伟达这两大巨头之间的对决,更是吸引了无数人的目光。那么,在与英伟达的对垒中,AMD究竟还差在哪儿?

AMD近期推出的Instinct MI325X AI加速器,无疑是其向英伟达发起挑战的重要一步。这款芯片在AMD的描述中,着重增强了HBM内存部分,并采用了AMD CDNA 3 GPU架构,内置1530亿个晶体管,配备256GB下一代HBM3E高带宽内存,提供6TB/s的内存带宽。在FP8和FP16精度下,MI325X分别达到2.6 PF和1.3 PF的峰值理论性能。

然而,与英伟达今年3月发布的B200 GPU相比,MI325X仍存在不小的差距。B200 GPU基于Blackwell架构,采用台积电的N4P制程工艺,拥有高达2080亿的晶体管数量和192GB的HBM3e内存容量,提供了8TB/s的内存带宽,以及20PF的FP8峰值性能。英伟达B200 GPU的AI运算性能在FP8及新的FP6上都可达20 PF,是前一代Hopper构架的p00运算性能8 PF的2.5倍。在新的FP4格式上更可达到40 PF,是前一代Hopper构架GPU运算性能的5倍。

MI325X能否与B200掰手腕?AMD与英伟达AI芯片对决引关注

在人工智能(AI)芯片领域,AMD与英伟达两大巨头之间的对决一直备受关注。近期,AMD推出的Instinct MI325X AI加速器与英伟达发布的B200 GPU之间的较量,更是引发了业界的高度关注。那么,MI325X能否与B200掰手腕呢?

AMD的Instinct MI325X AI加速器采用了AMD CDNA 3 GPU架构,内置了高达1530亿个晶体管,并配备了256GB的下一代HBM3E高带宽内存,提供了6TB/s的内存带宽。在峰值性能方面,MI325X在FP8和FP16精度下分别可以达到2.6 PF和1.3 PF。这样的性能表现,使得MI325X在AI推理和训练任务中都有不俗的表现。

然而,英伟达发布的B200 GPU则显得更为强劲。B200基于Blackwell架构,采用了台积电N4P制程工艺,拥有高达2080亿的晶体管数量,以及192GB的HBM3e内存容量,提供了8TB/s的内存带宽。在FP8峰值性能上,B200更是达到了20 PF,是前一代Hopper构架的p00运算性能的2.5倍。此外,B200在FP6和FP4格式上的性能也同样出色,分别可达20 PF和40 PF。

从硬件性能上看,英伟达B200在晶体管数量、内存带宽以及FP8峰值性能等方面都占据了明显优势。这使得B200在AI运算任务中能够提供更强大的性能支持,尤其是在处理大型AI模型时,B200的表现更为出色。

然而AMD的MI325X也并非没有亮点。据AMD称,MI325X在某些特定的AI工作负载上,性能比英伟达的p00高出30%。特别是在处理大型语言模型(LLM)时,如Mixtral 8x7B、Mistral 7B和Meta Llama 3.1 70B等,MI325X的表现优于英伟达p00,分别快40%、30%和20%。这表明MI325X在某些特定应用场景下,具有与B200一较高下的潜力。

此外AMD还公布了其AI芯片路线图,计划在未来几年推出性能更强大的AI芯片系列。例如,2025年的MI350芯片将进一步提高推理和训练效率,而2026年的MI400系列则有望实现更多技术革新。这表明AMD在AI芯片领域有着长远的规划和布局,未来有望推出更多具有竞争力的产品。

尽管MI325X在硬件性能上与B200存在一定差距,但AMD在AI芯片领域的持续创新和突破不容忽视。随着技术的不断进步和市场的不断发展,MI325X未来能否与B200掰手腕,还需时间给出答案。

未来AI芯片路线图再度更新:技术迭代加速,市场潜力巨大

随着科技巨头们纷纷发布最新的AI芯片产品和技术路线图,AI芯片领域再度成为市场关注的焦点。AMD、英伟达等公司在AI芯片领域的激烈竞争,不仅推动了技术的快速迭代,也为市场带来了更多的机遇和挑战。

AMD最新推出的Instinct MI325X AI加速器,在MI300X的基础上进行了全面升级,特别是在HBM内存部分有了显著提升。这款新品采用了AMD CDNA 3 GPU架构,内置1530亿个晶体管,配备256GB下一代HBM3E高带宽内存,提供6TB/s的内存带宽。在FP8和FP16精度下,MI325X分别达到2.6 PF和1.3 PF的峰值理论性能。AMD还公布了其最新的AI芯片路线图,MI350系列首款产品MI355X将引入新一代的CDNA 4架构,采用3nm工艺制造,搭配HBM3E,总容量进一步提升到288GB,计划于2025年下半年开始发货。

与此同时,英伟达也在加速其AI芯片的研发和迭代。英伟达CEO黄仁勋在最近的活动中带来了最新的AI芯片路线图,展示了从Blackwell到Rubin的飞跃性变化。英伟达计划将迭代速度加快到「一年一更」,并在架构、节点、HBM和封装等方面进行全面升级。据悉,Blackwell架构的GPU产品正在生产中,将成为2024、2025年的重要营收驱动。接下来,英伟达将发布增强版Blackwell Ultra GPU,预计于2025年推出,拥有8堆叠HBM3e内存,每叠有12个die高。而下一代Rubin GPU则将于2026年上市,使用HBM4内存,并有8个堆栈。

投行Bernstein的分析师也在最近发布的研报中,总结了到2027年的AI芯片技术变革路线图。报告指出,随着AI芯片加速迭代,英伟达相较于其他厂商的领先优势将进一步扩大。同时,CPU与GPU整合、内存和逻辑整合的趋势也将越来越明显。为了进一步推动数据传输的发展,HBM4可能会开始提供基础芯片基础上的客户定制服务。报告还预计,未来几乎所有的AI芯片都将使用台积电的CoWoS进行封装,台积电在先进封装领域的领先地位将得到保持。

AI芯片的快速发展离不开其在多领域的广泛应用。从数据中心到智能手机,从自动驾驶到智慧城市,AI芯片无处不在。它们能够有效处理海量数据,提升计算效率,为各行各业提供支持。在云计算、物联网等新兴领域,AI芯片的需求更是不断增长,成为行业发展的重要驱动力。根据市场研究机构的报告,预计未来几年AI芯片市场将以超过20%的年复合增长率快速发展。

AI芯片行业的竞争格局也日趋激烈。除了AMD和英伟达这两大巨头外,越来越多的公司开始进入AI芯片领域。许多互联网公司和技术巨头,如亚马逊、微软、Meta等,都在开发ASIC芯片,以应对日益增长的计算需求。这些公司的加入,不仅丰富了AI芯片市场的产品线,也推动了技术的不断创新和升级。

对于投资者而言,AI芯片行业的潜力和成长性显而易见。然而进行投资时仍需谨慎选择,关注市场的政策动向和企业的基本面。尤其是对于新兴公司的投资,了解其技术能力和市场定位至关重要。同时,投资者也需留意行业内的竞争格局,行业龙头企业在资本和技术上的优势往往决定了市场的走向。