當前位置: 華文世界 > 科技

在全面「本地化」前,所有AI PC都是「偽AI PC」?

2024-03-30科技

文 | 雷科技leitech

先思考一個問題:

一個依賴於雲端 AI 的 PC,能夠稱之為 AI PC 嗎?

2024 年的 PC 市場,AI PC 無疑會是最重要的概念之一,主流 PC 廠商以及英特爾、AMD 都在下重金押註。但對於已經釋出的 AI PC 產品,不少人並不認可,核心在於這些 AI PC 中「AI」與「PC」(硬件)基本是分離的。

很簡單,就拿目前 PC 上最大的 AI 用例——微軟 Copilot 來說,在英特爾與微軟對「AI PC」的聯合定義中,強調必須配備混合架構芯片、Copilot 及其對應的物理按鍵。但事實是,所有升級到最新 Windows 11 版本的 PC 都能使用 Copilot,因為 Copilot 只依賴於微軟 Azure 雲端算力,與 PC 硬件本身無關。

換言之,無論是不是頂著「AI PC」的光環,不論是依賴雲端算力抑或是本地效能強大,一切PC看似都是AI PC,大家用起來都是「眾生平等」。

這樣看,似乎現在的AI PC全都是「偽概念」,只有等到 Copilot 能在本地執行,並且深入 Windows 系統層面,或許才會出現真正的 AI PC。

好訊息是,這個時間點可能就是下一代。

Copilot 將支持本地執行,Windows 12 大變革

Copilot 要支持本地執行的訊息,之前其實就有包括集邦咨詢在內的機構和媒體傳出,但傳聞終歸是傳聞,雲端運算已經是第一大支柱業務的微軟,未必會允許 Copilot「下雲」。

所幸在台北舉辦的英特爾人工智能峰會上,英特爾客戶端計算事業部副總裁 Todd Lewellen 在接受采訪時表示,Copilot 將很快支持在 PC 上本地執行。

當然不是全部功能。眾所周知,終端算力不可能和雲端算力相比,想要讓 Copilot 保持強大的效能和「智商」還是離不開雲端的支持。但據 Todd Lewellen 介紹,Copilot 的很多關鍵功能將直接執行在原生的 NPU 上。

也不只是我們今天所看到的雲端 Copilot。

早在雷科技之前關於下一代 Windows(以下簡稱「Windows 12」)的報道中,我們就參照訊息源指出,微軟將引入 AI 驅動的 Windows Shell,透過「高級版 Copilot」,持續幫助系統增強搜尋、啟動專案或工作流、上下文理解等生成式 AI 能力。

同時,微軟還在開發一項新的時間線功能,允許讓 Copilot 記下所有套用、網站瀏覽等活動記錄,並且能夠隨時進行回溯,甚至是透過 Copilot 增強的搜尋能力,快速找到過去某個時刻在 Windows 上的活動。

除此之外,微軟還有更多基於 AI 改造 Windows 的想法和計劃。

但不管是 Copilot 的本地執行還是在系統層面的深度引入,都意味著未來「AI 味」越來越重的 Windows 需要更強的端側算力。

「將進入下一代 AI PC,NPU(算力)的要求為 40 TOPS,」Todd Lewellen 表示,「我們即將推出的下一代產品將屬於這一類別。」

真AI PC需要強悍算力,芯片巨頭燃戰火

從之前多個來源的傳聞以及英特爾高管的說法來看,40 TOPS(每秒萬億次運算)是微軟對於下一代 AI PC 的最低算力要求,而且需要註意的是,這是對 NPU 的要求,不同於當下混合架構(CPU+GPU+NPU)提供的算力。

而僅從 NPU 提供的算力來看,今天所有宣稱「AI PC」的筆記電腦產品,都夠不到微軟下一代 AI PC 的資格。

比如英特爾最新的酷睿 Ultra,也就是 Meteor Lake,在 CPU+GPU+NPU 共同參與運算下的 AI 算力可達 34 TOPS,但如果僅算 NPU 就只有 10 TOPS,GPU 才是出力的大頭。而 AMD 最新一代銳龍 8040 系列(Hawk Point),NPU 的算力也只有 16 TOPS:

兩者都低於 40 TOPS 的效能要求。

相比之下,將在年中集中上市的驍龍 X Elite 筆記本倒是滿足了要求,混合架構下的 AI 算力可以達到 75 TOPS,僅 NPU 的算力也能達到 45 TOPS。

不過這種優勢大概只能保持半年。

英特爾這邊是確定了下一代 Lunar Lake(預計年底釋出)的 NPU 算力將超過 40 TOPS。AMD 那邊雖然沒有訊息,但如果不出意外也會在下一代大幅提升 NPU 算力,以滿足微軟對於 AI PC 的標準和 Windows 系統的需求。

至於為什麽微軟只看 NPU,其實不難理解。Todd Lewellen 表示,微軟堅持讓 Copilot 在 NPU 而不是 GPU 上執行,以盡量減少對電池壽命的影響:

去年(與微軟)進行了很多討論,我們問『為什麽我們不能在 GPU 上執行它?』他們說是希望確保 GPU 和 CPU 被釋放出來完成其他工作。而且我們希望確保出色的電池壽命體驗,如果在 GPU 上執行 Copilot 和其中一些工作負載,你會看到對電池續航的巨大影響。

核心其實就是兩點:一是不能影響 CPU 和 GPU 日常幹活;二是 GPU 用於 AI 運算功耗太大了,對續航的影響太大,NPU(神經網絡處理器)作為專門為神經網絡運算而設計的處理器,則恰恰有更高的效率和更低的功耗。

而這也從一個側面說明了,目前已釋出的 AI PC 產品,並沒有準備好面對「AI 真正改變 PC 體驗」的未來。

但 PC 的未來又是什麽?

依賴雲有致命問題,本地對AI PC意味著什麽?

個人終端的特性決定了,基於雲端執行的 AI 存在太多問題,首當其沖的就是私密安全。一個表現是,在與 Copilot 或者 ChatGPT 等 AI 聊天機器人的對話中,使用者是不敢發送個人私密資訊的。

當微軟要基於 AI 改造 Windows 系統的時候,肯定要讓 AI 從系統層面了解和處理大量關於系統、軟件執行以及使用者的數據,但不管是網絡連線還是模型訓練,都會大幅放大使用者私密泄露的風險。

從這個角度,雖然我們離不開雲端執行的強大 AI,但同時,基於本地執行的 AI,又是必需的。

另外受制於網絡連線,延遲和穩定性都會影響雲端 AI 的實際處理能力,從而影響到使用者的終端體驗,還有雲端的持續成本等問題,都是英特爾、高通以及各大 PC 和手機廠商強調「端側 AI」的重要原因。

不過更本質的問題是,只有將 AI 平台化,自下而上從系統層面重新設計產品體驗,將算力平台化,讓套用可以充分利用端側算力,才能真正稱得上 AI 化。而這些,都需要 AI 能在本地執行,終端也能提供相應的端側算力。

這也是 PC 的未來。也只有當 Windows 開始自我革命,改造基於 AI 的個人電腦作業系統;當處理器廠商毅然決然轉身,大幅提高 AI 運算效率;當 PC 廠商腳踏實地,真正思考 AI 時代的 PC 體驗:

PC 才會是真正的 AI PC。