当前位置: 华文世界 > 科技

突破GPU局限:AI芯片与加速器的未来演进

2024-10-07科技

AI芯片和加速器的快速发展:技术新变革

随着人工智能(AI)技术的飞速发展,许多芯片制造商、初创公司和云服务提供商正在忙着打造专门的AI处理器和加速器。数据中心,可以算作互联网的「幕后英雄」,无论是Netflix还是Google等大公司,都在利用这些数据中心和托管的计算资源来为用户提供数字服务。企业们逐渐把焦点转向高级AI工作负载,这使得传统以CPU为核心的服务器被整合了新型的专用芯片或「协处理器」,从而增强了它们的性能。这些协处理器的用意在于增加额外的组件,以提升服务器的计算能力,让它们能应对AI训练、推理、数据库加速和网络功能等强烈的计算需求。

在过去几年,Nvidia的GPU已成为协处理器的明星选手,以其卓越的速度处理海量数据。根据Futurum Group的研究,去年GPU在支持AI应用的协处理器中占据了74%的市场份额。预计到2028年,GPU的市场收入将以每年30%的速度增长,达到1020亿美元。尽管GPU在加速各种庞大AI工作负载方面表现不俗,尤其是训练和运行需要庞大参数的语言模型或基因组测序等任务,但拥有它们的总成本却不容小觑。例如,Nvidia的旗舰产品GB200「超级芯片」,结合了Grace CPU和两个B200 GPU,价格预计在60,000到70,000美元之间。装配36个这样的超级芯片的服务器,其成本更是高达200万美元。显然,这种情况并不适用于所有公司。

许多IT经理对采用新技术以支持中低强度的AI工作负载充满期待,特别关注总体拥有成本、可扩展性和集成度。多数AI模型(比如深度学习网络、大型语言模型等)已经步入成熟阶段,市场需求正逐步转向提升特定工作负载(诸如图像识别、推荐系统等)的性能,同时保证高效性。这便是芯片制造商、初创公司与云服务商正在大力研发的专用AI处理器和加速器所要解决的问题。

那么,AI处理器和加速器到底是什么呢?简言之,这些处理器是专为特定AI功能设计的芯片,通常会围绕三种关键架构展开:专用集成电路(ASIC)、现场可编程门阵列(FPGA)和最新的神经处理单元(NPU)。ASIC和FPGA的历史相对悠久,最大的区别在于可编程性。ASIC是从头为特定任务独家定制的,而FPGA可以在后期进行重新配置。相对而言,NPU则可以说是针对AI和机器学习负载(如神经网络推理和训练)专门打造的硬件。

Futurum集团的首席执行官Daniel Newman接受VentureBeat采访时指出,加速器通常独立执行功能,有时采用晶圆级或多芯片的ASIC设计,能够处理多种应用。NPU是一个很好的例子,它可以应对大量矩阵数学和神经网络任务,且其功耗较低。正因如此,专为特定应用构建的ASIC和NPU在成本及功耗方面相比GPU更具优势。

IBM云与行业平台的总经理Rohit Badlaney也表示,GPU设计主要围绕算术逻辑单元(ALU)展开,以便同时进行成千上万的计算,而AI加速器则是主要基于张量处理器核心(TPC)进行优化。IBM目前采用混合云架构,运用多个来自Nvidia和Intel的GPU和AI加速器,旨在帮助企业应对独特的工作负载需求,兼顾高性能与高效率。他进一步解释,AI加速器是企业和开源社区构建生成式人工智能所需的重要产品之一。

在市场上,除了英特尔,还有其他多家初创企业如Groq、Graphcore、SambaNova Systems和Cerebras Systems也推出了定制的AI加速器,力图在不同领域与GPU一较高下。比如,Tractable公司利用Graphcore的智能处理单元-POD系统,性能较以往的GPU提升了近五倍,让团队的研发效率显著加快。这就像是给他们的研发过程开了一扇门,愈发顺畅。

部分AI处理器还专门为训练工作负载提供支持。在Aleph Alpha的数据中心,AI超级计算机正通过Cerebras CS-3提供动力,拥有高达90万个AI核心,用以构建下一代AI模型。甚至谷歌最近推出的TPU v5p也为Salesforce和Lightricks等公司提供了一些AI训练工作负载。

在选择加速器时,IT经理们应考虑哪些因素呢?除了GPU外,现在有很多AI处理器能够加速AI工作负载,尤其在推理方面。某些芯片或许表现优秀,但在特定类型的AI任务处理中却可能受到架构限制;反之,某些芯片的功能更全,但与GPU相比总拥有成本可能并无太大改善。VentureBeat采访的多位专家一致认为,选择应基于工作负载的规模与类型、数据处理的灵活性、成本及可得性需求来做权衡。

来自Sustainable Metal Cloud的首席技术官Daniel Kearney建议,企业应当通过基准测试来验证性价比,并确保团队熟悉相关加速器的软件生态系统。这种前期的调查研究能够为企业节省大量时间和金钱,特别是在进行大型且高成本的训练工作时。

全球范围内,随着推理工作的增加,AI芯片、加速器和GPU等硬件的市场预计将以每年30%的速度增长,预计到2028年达到1380亿美元。随着技术的不断进步,AI处理器和加速器将在未来的市场中占据越来越重要的地位。