当前位置: 华文世界 > 科技

AI算力芯片报告:以「芯」助先进算法,以「算」驱万物智能

2024-02-18科技

A I技术快速发展催生算力需求快速提升

大模型技术所带来的突破以及商业化前景促使全球进 入AI竞赛,其中,美国在AI领域依旧担当着创新者和引领者的身份。大模型的发展依托于强大 的算法、庞大的数据量以及巨大的算力支撑,当下大模型逐步从单模态走向多模态,对于以英 伟达GPU为代表的算力需求快速爆发,全球范围内算力芯片的供需缺口一定程度上降低了多模态 大模型的发展速度,但依旧无法阻止AI技术向前演进以及商业化逐步落地,因此而对国内外算 力产业链带来了巨大的发展机遇。国产算力同样面临着巨大的需求,但却要面对高端GPU芯片无 法进口的局面,进而为国产厂商崛起带来了发展机遇。

辑芯片市场规模巨大,产业链具备高门槛

辑芯片有多种品类,市场相对分散

辑芯片具有多种品类,根据 Gartner的定义,包括了MPU、GPU、FPGA、应用/基带SoC、无线、 有线、应用/媒体处理器、MCU和其他逻辑等,市场相对分散。

力芯片的分类

C PU 算力的基础控制单元

央处理器( central processing unit,简称CPU)作为计算机系统的运算 和控制核心,是信息处理、程序运行的最终执行单元,电脑和智能设备的控 制中枢。

CPU内部主要由运算器、控制器和寄存器组成,运算器执行数值计算,寄存 器储存数据。

大模型走向多模态,技术持续演进,商业前景广阔

工智能( A I )的定义

1 956年,达特茅斯会议召开,提出了「人工智能」这个名词,标志着AI作为一个独 立研究领域的诞生,该会议确立了AI的目标,即创建一种机器,其智能行为可以与 人类的智能相媲美。

由于 「智能」没有定义,「人工智能」 至今也尚无统一的定义。

现代人工智能技术是通过机器学习及由其驱动而发展起来的计算机视觉、自然语言 处理和语音识别技术来实现多模态数据融合的现实交互。

工智能( A I )的三大流派

号主义,又称为逻辑主义、心理学派或计算机学派,其原理主要为物理符号系统 (即符号操作 系统)假设和有限合理性原理。知识工程是符号主义人工智能的典型代表,知识图谱就是新一代 的知识工程技术。

联结主义,又称为仿生学派或生理学派,认为人工智能源于仿生学,神经网络,特别是对人脑 模型的研究 ,主张模仿人类的神经元,用神经网络的连接机制实现人工智能。人工神经网络就是 其典型代表性技术。

行为主义,又称进化主义或控制论学派,其原理为控制论及感知 -动作型控制系统。 波士顿动力 公司的机器狗和机器人就是这个学派的代表作。

度学习是一种实现机器学习的技术

器学习是人工智能的一个子领域。人工智能的某些领域使用了不同于机器学习的 方法。神经网络是机器学习的一个分支。存在非神经网络机器学习技术,如决策树。 深度学习是创造和应用 「深度」神经网络的科学和艺术,即多「层」神经网络,这 是相对于「浅层」神经网络,即层次少的神经网络而言的。

传统机器学习算术依赖人工设计特征,并进行特征提取,而深度学习方法不需要人 工,而是依赖算法自动提取特征。

器学习本质上是一种大数据统计分析技术

器学习是通过一些让计算机可以自动 「学习」的算法,从数据中分析获得规律, 然后利用规律对新样本进行预测。 学科的角度看,机器学习是广义统计推理和决 策领域的一部分,同时它也引入了古典统计学中不存在的计算机科学和优化的观点。

现阶段机器学习对数据有很大的依赖性,本质上是一种大数据统计分析技术。

经网络是现代人工智能的基础

经网络又称人工神经网络 (ANN)或模拟神经网络(SNN),是机器学习的子集,同时 也是深度学习算法的核心。神经网络其名称和结构均受到人脑的启发,可模仿生物 神经元相互传递信号的方式。

Google的搜索算法就是最著名的神经网络之一。ChatGPT也是一种基于神经网络的聊 天AI模型。生成式预训练是一种在自然语言处理领域特别成功的技术,它涉及以无 监督的方式在海量数据集上训练广泛的神经网络,以学习数据的通用表示。

经网络模型让计算机自行找出解决问题方法

工神经网络 (ANN) 由节点层组成,包含一个输入层、一个或多个隐藏层和一个输出层。每个 节点也称为一个人工神经元,它们连接到另一个节点,具有相关的权重和阈值。如果任何单个 节点的输出高于指定的阈值,那么会激活该节点,并将数据发送到网络的下一层。否则,不会 将数据传递到网络的下一层。连接是神经元中最重要的东西。每一个连接上都有一个权重。

神经网络不直接告诉计算机如何解决问题,而让它从可观测数据中学习,让它自己找出解决问 题的方法。

代神经网络发展:由浅层学习走向深度学习

一代神经网络又称为感知机:在 1950年左右被提出来,算法分为输入层和输出层,输入和输 出之间为线性关系,感知机无法处理非线性模型,即不能解决线性不可分的问题。

第二代神经网络为多层感知机( MLP):在1980年提出,和第一代相比,在中间加了多个隐藏层, 隐藏层可以引入非线性结构,能够处理非线性问题。

第三代神经网络为深度神经网络: 2006年Hinton采取无监督预训练(Pre-Training)的方法解 决了梯度消失的问题,使得深度神经网络变得可训练,自此逐步开启了第三代神经网络。

度学习:基于对数据进行表征学习的方法

度学习是从层到层的函数的复杂组合,从而找到定义从输入到输出的映射的函数。深度学习 可以通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表 示。深度学习的实质,是通过构建具有很多隐层的机器学习模型和海量的训练数据,来学习更 有用的特征,从而最终提升分类或预测的准确性。

深度学习的优点是:学习能力强;覆盖范围广,适应性好;数据驱动,上限高;可移植性好。

深度学习的缺点是:计算量大,便携性差;硬件需求高;模型设计复杂;可解释性不高,容易 存在偏见。

究范式由规则到统计, 「随机派」当下主导

历史上来看,自然语言处理的研究范式变化是从规则到统计,从统计机器学习到基于神经网络的深度学习,这同时也是语言 模型发展的历史。统计语言模型是当前自然语言处理处理的根本,当我们在判定一句话是否是人话的时候,可以通过计算概率 的方式来判断该句子是否成立,如果一个句子成立的概率很大,那么这个句子是一个成立的句子概率就越大。

依据对自然语言处理的方法和侧重点不同,大致可划分为两个派别:符号派和随机派。符号派坚持对自然语言处理进行完整且 全面的剖析,其过程具有较高的准确性和完整性。随机派坚持以概率统计的相关思想对自然语言处理的结果进行相关推测,并 广泛应用计算假设概率的经典方法 ——贝叶斯方法。随机派的根本思想在于从大量数据中提取特征并进行「概率预测」,在逻 辑性上远落后于「符合派」,但是当下自然语言处理领域的大规模性和真实可用性需求推动「随机派」成为主流。

么是多模态模型?

模态认知模型旨在处理和分析来自多个来源并且不同种类的数据,例如文本、语音、 图像、视频、结构化知识源和三维数据等更复杂的数据种类。为通用认知大模型引入 多种模态的信息处理能力,是通用人工智能技术发展的必然趋势。

常见的多模态任务大致可以分为两类: (1)多模态理解任务,包括视频分类、视觉问 答、跨模态检索、指代表达等;(2)多模态生成任务,包括以文生图和视频、基于 对话的图片编辑等。

模态,迈向通用人工智能( A GI )的重要路径

据是人类知识的重要载体。据 IDC预测,2018年到2025年之间,全球产生的数据量 将会从33ZB增长到175ZB,复合增长率达到27%,其中超过80%的数据都会是处理难度 较大的非结构化数据。非结构化数据包括全文文本、图象、声音、影视、超媒体等。

通用人工智能 AGI是「智能代理理解或学习人类可以完成的任何智力任务的能力」, 是人工智能领域的长期目标之一。多模态之间的互补性可以增强人工智能的学习能 力,为了探索实现通用人工智能(AGI)的路径,人工智能(AI)从单模态走向多模 态已是大势所趋。

模态学习的五大关键技术

多模态具备更广泛的应用场景

主流多模态大模型发布演进

A I 模型轻量化,端侧推理大势所趋

AI 领域,模型轻量化是指将复杂的深度学习模型转换为更小、更快、更低功耗的 模型,以便在资源有限的设备上进行推理。模型轻量化的主要目标是在保持模型性 能的前提下,将模型的大小和计算复杂度最小化。这样可以降低模型的存储和计算 开销,从而提高模型的实时性和可扩展性。

模型轻量化可以有两种方式:第一是可以使用模型压缩和优化技术来达到轻量化; 第二是让大模型只维持 「基本功能」,外挂模块实现能力扩展,也可以实现大模型 的轻量化。

本文仅供参考,不代表我们的任何投资建议。【 幻影视界】 整理分享的资料仅推荐阅读,用户 获取的资料 仅供个人学习,如需使用请参阅报告原文。