當前位置: 華文世界 > 科技

AI算力芯片報告:以「芯」助先進演算法,以「算」驅萬物智慧

2024-02-18科技

A I技術快速發展催生算力需求快速提升

大模型技術所帶來的突破以及商業化前景促使全球進 入AI競賽,其中,美國在AI領域依舊擔當著創新者和引領者的身份。大模型的發展依托於強大 的演算法、龐大的數據量以及巨大的算力支撐,當下大模型逐步從單模態走向多模態,對於以英 偉達GPU為代表的算力需求快速爆發,全球範圍內算力芯片的供需缺口一定程度上降低了多模態 大模型的發展速度,但依舊無法阻止AI技術向前演進以及商業化逐步落地,因此而對國內外算 力產業鏈帶來了巨大的發展機遇。國產算力同樣面臨著巨大的需求,但卻要面對高端GPU芯片無 法進口的局面,進而為國產廠商崛起帶來了發展機遇。

輯芯片市場規模巨大,產業鏈具備高門檻

輯芯片有多種品類,市場相對分散

輯芯片具有多種品類,根據 Gartner的定義,包括了MPU、GPU、FPGA、套用/基頻SoC、無線、 有線、套用/媒體處理器、MCU和其他邏輯等,市場相對分散。

力芯片的分類

C PU 算力的基礎控制單元

央處理器( central processing unit,簡稱CPU)作為電腦系統的運算 和控制核心,是資訊處理、程式執行的最終執行單元,電腦和智慧裝置的控 制中樞。

CPU內部主要由運算器、控制器和寄存器組成,運算器執行數值計算,寄存 器儲存數據。

大模型走向多模態,技術持續演進,商業前景廣闊

工智慧( A I )的定義

1 956年,達特茅斯會議召開,提出了「人工智慧」這個名詞,標誌著AI作為一個獨 立研究領域的誕生,該會議確立了AI的目標,即建立一種機器,其智慧行為可以與 人類的智慧相媲美。

由於 「智慧」沒有定義,「人工智慧」 至今也尚無統一的定義。

現代人工智慧技術是透過機器學習及由其驅動而發展起來的電腦視覺、自然語言 處理和語音辨識技術來實作多模態數據融合的現實互動。

工智慧( A I )的三大流派

號主義,又稱為邏輯主義、心理學派或電腦學派,其原理主要為物理符號系統 (即符號操作 系統)假設和有限合理性原理。知識工程是符號主義人工智慧的典型代表,知識圖譜就是新一代 的知識工程技術。

聯結主義,又稱為仿生學派或生理學派,認為人工智慧源於仿生學,神經網路,特別是對人腦 模型的研究 ,主張模仿人類的神經元,用神經網路的連線機制實作人工智慧。人工神經網路就是 其典型代表性技術。

行為主義,又稱前進演化主義或控制論學派,其原理為控制論及感知 -動作型控制系統。 波士頓動力 公司的機器狗和機器人就是這個學派的代表作。

度學習是一種實作機器學習的技術

器學習是人工智慧的一個子領域。人工智慧的某些領域使用了不同於機器學習的 方法。神經網路是機器學習的一個分支。存在非神經網路機器學習技術,如決策樹。 深度學習是創造和套用 「深度」神經網路的科學和藝術,即多「層」神經網路,這 是相對於「淺層」神經網路,即層次少的神經網路而言的。

傳統機器學習算術依賴人工設計特征,並進行特征提取,而深度學習方法不需要人 工,而是依賴演算法自動提取特征。

器學習本質上是一種大數據統計分析技術

器學習是透過一些讓電腦可以自動 「學習」的演算法,從數據中分析獲得規律, 然後利用規律對新樣本進行預測。 學科的角度看,機器學習是廣義統計推理和決 策領域的一部份,同時它也引入了古典統計學中不存在的電腦科學和最佳化的觀點。

現階段機器學習對數據有很大的依賴性,本質上是一種大數據統計分析技術。

經網路是現代人工智慧的基礎

經網路又稱人工神經網路 (ANN)或模擬神經網路(SNN),是機器學習的子集,同時 也是深度學習演算法的核心。神經網路其名稱和結構均受到人腦的啟發,可模仿生物 神經元相互傳遞訊號的方式。

Google的搜尋演算法就是最著名的神經網路之一。ChatGPT也是一種基於神經網路的聊 天AI模型。生成式預訓練是一種在自然語言處理領域特別成功的技術,它涉及以無 監督的方式在海量數據集上訓練廣泛的神經網路,以學習數據的通用表示。

經網路模型讓電腦自行找出解決問題方法

工神經網路 (ANN) 由節點層組成,包含一個輸入層、一個或多個隱藏層和一個輸出層。每個 節點也稱為一個人工神經元,它們連線到另一個節點,具有相關的權重和閾值。如果任何單個 節點的輸出高於指定的閾值,那麽會啟用該節點,並將數據發送到網路的下一層。否則,不會 將數據傳遞到網路的下一層。連線是神經元中最重要的東西。每一個連線上都有一個權重。

神經網路不直接告訴電腦如何解決問題,而讓它從可觀測數據中學習,讓它自己找出解決問 題的方法。

代神經網路發展:由淺層學習走向深度學習

一代神經網路又稱為感知機:在 1950年左右被提出來,演算法分為輸入層和輸出層,輸入和輸 出之間為線性關系,感知機無法處理非線性模型,即不能解決線性不可分的問題。

第二代神經網路為多層感知機( MLP):在1980年提出,和第一代相比,在中間加了多個隱藏層, 隱藏層可以引入非線性結構,能夠處理非線性問題。

第三代神經網路為深度神經網路: 2006年Hinton采取無監督預訓練(Pre-Training)的方法解 決了梯度消失的問題,使得深度神經網路變得可訓練,自此逐步開啟了第三代神經網路。

度學習:基於對數據進行表征學習的方法

度學習是從層到層的函式的復雜組合,從而找到定義從輸入到輸出的對映的函式。深度學習 可以透過組合低層特征形成更加抽象的高層表示內容類別或特征,以發現數據的分布式特征表 示。深度學習的實質,是透過構建具有很多隱層的機器學習模型和海量的訓練數據,來學習更 有用的特征,從而最終提升分類或預測的準確性。

深度學習的優點是:學習能力強;覆蓋範圍廣,適應力好;數據驅動,上限高;可移植性好。

深度學習的缺點是:計算量大,便攜性差;硬體需求高;模型設計復雜;可解釋性不高,容易 存在偏見。

究範式由規則到統計, 「隨機派」當下主導

歷史上來看,自然語言處理的研究範式變化是從規則到統計,從統計機器學習到基於神經網路的深度學習,這同時也是語言 模型發展的歷史。統計語言模型是當前自然語言處理處理的根本,當我們在判定一句話是否是人話的時候,可以透過計算機率 的方式來判斷該句子是否成立,如果一個句子成立的機率很大,那麽這個句子是一個成立的句子機率就越大。

依據對自然語言處理的方法和側重點不同,大致可劃分為兩個派別:符號派和隨機派。符號派堅持對自然語言處理進行完整且 全面的剖析,其過程具有較高的準確性和完整性。隨機派堅持以機率統計的相關思想對自然語言處理的結果進行相關推測,並 廣泛套用計算假設機率的經典方法 ——貝葉斯方法。隨機派的根本思想在於從大量數據中提取特征並進行「機率預測」,在邏 輯性上遠落後於「符合派」,但是當下自然語言處理領域的大規模性和真實可用性需求推動「隨機派」成為主流。

麽是多模態模型?

模態認知模型旨在處理和分析來自多個來源並且不同種類的數據,例如文本、語音、 影像、視訊、結構化知識源和三維數據等更復雜的數據種類。為通用認知大模型引入 多種模態的資訊處理能力,是通用人工智慧技術發展的必然趨勢。

常見的多模態任務大致可以分為兩類: (1)多模態理解任務,包括視訊分類、視覺問 答、跨模態檢索、指代表達等;(2)多模態生成任務,包括以文生圖和視訊、基於 對話的圖片編輯等。

模態,邁向通用人工智慧( A GI )的重要路徑

據是人類知識的重要載體。據 IDC預測,2018年到2025年之間,全球產生的數據量 將會從33ZB增長到175ZB,復合增長率達到27%,其中超過80%的數據都會是處理難度 較大的非結構化數據。非結構化封包括全文文本、圖像、聲音、影視、超媒體等。

通用人工智慧 AGI是「智慧代理理解或學習人類可以完成的任何智力任務的能力」, 是人工智慧領域的長期目標之一。多模態之間的互補性可以增強人工智慧的學習能 力,為了探索實作通用人工智慧(AGI)的路徑,人工智慧(AI)從單模態走向多模 態已是大勢所趨。

模態學習的五大關鍵技術

多模態具備更廣泛的套用場景

主流多模態大模型釋出演進

A I 模型輕量化,端側推理大勢所趨

AI 領域,模型輕量化是指將復雜的深度學習模型轉換為更小、更快、更低功耗的 模型,以便在資源有限的裝置上進行推理。模型輕量化的主要目標是在保持模型性 能的前提下,將模型的大小和計算復雜度最小化。這樣可以降低模型的儲存和計算 開銷,從而提高模型的即時性和可延伸性。

模型輕量化可以有兩種方式:第一是可以使用模型壓縮和最佳化技術來達到輕量化; 第二是讓大模型只維持 「基本功能」,外掛模組實作能力擴充套件,也可以實作大模型 的輕量化。

本文僅供參考,不代表我們的任何投資建議。【 幻影視界】 整理分享的資料僅推薦閱讀,使用者 獲取的資料 僅供個人學習,如需使用請參閱報告原文。