當前位置: 華文世界 > 科技

元宇宙聊天室|AI終端預計在未來兩年內爆發

2024-07-18科技

2024年世界人工智慧大會剛剛落幕。在外界看來,今年是AI手機、AI PC元年,人們都期待著AI賦能端側的「iPhone時刻」到來,大模型的出現會給這些終端裝置帶來哪些新的變革?大會期間,澎湃科技(www.thepaper.cn)邀請聯想集團全球中小企業產品和解決方案總經理鄭愛國、高通中國區研發負責人徐晧以及面壁智慧聯合創始人兼CEO李大海,做客「元宇宙聊天室」,深入探討人工智慧時代硬體變革的現狀與未來。

三位一致認為,盡管大模型在端側落地仍存在參數超大、硬體儲存和運算限制方面的技術難點,但是日新月異的技術革新給終端裝置帶來發展機遇,預計在未來兩年內,大模型落地終端的套用場景很可能會大面積湧現,未來智慧終端將無所不在。

以下為直播摘要:

端側AI何時會普及?

澎湃科技: 我們觀察到一個現象,雖然現在AI硬體的風聲很大,但實際上AI手機在整體市場占有的份額並不高,消費者對於AI硬體的整體感受度也不強,各位是怎麽看端側AI的發展趨勢的?

鄭愛國: AI手機並不是普及度不高,而是在普及過程中面臨技術突破的制約,導致大眾還沒有看到AI在端側的套用。目前大模型的能力在雲端已經很強,但是在端側要壓縮大模型的尺寸,而且受限於原生的算力,大模型還不能發揮其極致的效能,但我相信這個階段很快就會過去。

我們的模型廠商和硬體平台都在努力讓大模型在原生的效能更好,讓它在端側迎來爆發。關於這個爆發何時來臨,我認為大家的預測都可能會偏保守,相信隨著大模型能力的加持,明年就能看到很多AI在終端的套用,「陪伴在人們身邊的超級助理」會大面積出現。這個助理不僅僅有大語言模型的文字創造能力,還會有多模態功能。

聯想的AI PC基於本地模型、本地算力、個人知識庫、自然語言互動、個人私密保護,能夠成為個人的裝置助理、服務助理、工作助理。以前存取本地文件,需要記住它在哪、檔名是什麽、存在哪個目錄裏,現在把所有文件放在個人知識柯瑞,使用者需要的時候就可以直接詢問AI。按照未來大模型的發展趨勢,隨著算力越來越強,未來端側可以提供更大參數的模型,再加上多模態功能,我認為明年、後年這種場景會越來越多。

徐晧: 大語言模型對參數要求較高,但現在我們已經實作了在手機上可以執行一百億參數以下的模型,在PC上我們演示的是一百三十億以下,並且這個能力還在不斷提高。比如我們之前在端側演示了基於Stable Fusion的生成式AI可以在一秒以內根據文字要求生成高畫質圖片,以及其他大語言模型和多模態的在端側獨立執行的演示,我預計今年和明年,大家會看到相當數量的生成式AI和多模態AI在終端側的套用場景不斷湧現。

李大海: 我們現在戲稱這些模型還是「矽基幼崽」,還很年輕、還很弱小,是人在用知識不斷去餵養它。我相信,有一天它可能會成為人的朋友,再過一段時間,它甚至可能變成人的導師。我覺得人跟機器人、跟AI的關系是在不斷變化的。

大模型日新月異帶來革命性新機會

澎湃科技: AI搭載在電腦或者手機上有哪些難點?

鄭愛國: 大家日常關註到的模型都是雲端的千億、萬億參數級的模型,而端側大模型目前最高只能達到百億參數。端側大模型怎麽更好地理解使用者意圖,是把大模型套用到原生的最大難點。

在大模型能夠理解意圖之後的第二個難點在於,怎麽讓大模型把相應的功能呼叫起來,讀取本地知識庫,再綜合生成正確的答案。

第三個難點是在硬體方面,怎麽讓大模型速度更快,同時功耗更低。

李大海: 對於端側模型演進,受兩個因素影響:一是大模型知識密度(知識密度 = 模型能力 / 模型參數)的莫耳定律,我們叫面壁定律,它每8個月會翻一倍,另一個就是端側算力的不斷提升,這兩個因素疊加之後,相信端側模型會進步非常快。我們的目標是在端側實作GPT-4水平的模型,如果能做到這一點,端側的套用會進一步地爆發。

徐晧: 還有一個技術難點是,大語言模型數量眾多而且不斷演進,每個月我們都能看到一些新的模型釋出。我們需要考慮的是,哪些模型是可以盡快落地的,哪些模型是我們能夠縮小到較小的規模後在端側運用的,我們會結合使用者反饋對這些模型有更好的、更精準的定位,這樣就不用因為層出不窮的大模型而經常更換使用的模型。

澎湃科技: 大模型的日新月異,也給硬體廠商帶來了一些挑戰,各位怎麽看?

徐晧: 可以從兩個維度看這個問題。首先,當我們說智慧終端的時候,它有很多不同的終端形態,有智慧型手機,有AI PC,有自動駕駛車,還有智慧機器人。其次,每一個終端上都有其獨特的套用場景和技術要求,也有不同的技術路線和不同的大模型,如處理文字的模型、有多模態的模型、有智慧體等。每一個方向都有它的技術難點,也都有技術挑戰。我們不光要對每個終端形式做支持,還要關註不同廠商在每個終端上的技術側重點,並且在每個智慧終端上都要把握最新的技術趨勢。

端側AI的爆發不僅是對硬體、軟體,對整個生態系都是一個挑戰,但也是巨大的機遇。一旦大語言模型成熟之後,它所有的終端形式、和所有的套用都會有大振幅的功能提升,這對所有從業者來說都是非常好的技術創新和商業落地的機會。

鄭愛國: 我們從原來序列做產品的方式,現在已經完全變成並列開發的模式。原來過去幾十年其實在做一件事,但是在過去的一年裏,我們可能做的都不止十件事,可能是一百件事。在硬體方面,我們現在跟蹤獨立顯卡、整合顯卡NPU、內建NPU、外接NPU等,硬體平台就已經有無數條技術線。

在模型方面,我們不僅關註端側比較小的模型,還關註端到端的解決方案,在邊側也要看600億、700億規模的模型。同時,大模型的使用場景也是五花八門。總之,我覺得現在挑戰是一方面,但更多的是興奮。AI能夠創造更多使用者場景和新的產業機會,能身處其中是特別興奮的一件事。

在價格戰中錯位競爭

澎湃科技: 目前大模型產業出現了明顯的價格戰趨勢,怎麽看待這個現象,為什麽是現在?

李大海: 在我看來,大家有能力去做價格戰,首先是因為技術上的突破。面壁智慧提出了一個大模型的莫耳定律,按照這個定律的發展,推理的成本確實是在持續地下降。在成本下降的過程中,采取一些行銷措施讓使用者、讓行業感受到技術的進步,我覺得這也是一個好的策略。長期來說,我相信未來一定會產生又便宜又有毛利的API服務。

作為一個端側模型公司,我們不會參與價格戰,因為我們的模型本身就放在端上,對於使用者來說這個模型的成本是零。端側模型在推理的時候不用將數據上傳到雲端去,所以端側模型能夠相對雲端模型錯位競爭,不用陷入到價格戰中。

澎湃科技: 說起套用的話,怎麽看AI硬體的成本問題?怎麽降低成本,讓更多的人能接受?

鄭愛國: 我覺得這是個誤解。大家說起AI PC就覺得好像是高價位的,並非如此,其實全價位段的AI PC都有。而且現在大模型對配置的要求沒有大家想象得那麽高,中國使用者更不用擔心這個問題,因為中國的PC市場現在是全球卷得最厲害的。

AI PC確實需要記憶體夠大,端測大模型要執行起來,就要一直要放在記憶體裏。現在大家之所以能看到的產品比較少、比較貴,是因為把大模型放在硬體平台還有很多工作要做,比如軟硬體的適配等,以確保它體驗好、功耗低。我預計,未來大家會看到有越來越多價格競爭力的產品出現。