當前位置: 華文世界 > 三農

「AI原生」時代來臨,基礎設施怎麽建?

2024-07-08三農

開啟水龍頭前,我們不需要知道水是從哪條河裏來的。同理,未來我們用各種AI套用時,也不會知道它呼叫了哪些基座模型,用到了哪種加速卡的算力。

在業內人士看來,這就是最好的AI Native(AI原生)基礎設施。

如何高效整合異構算力資源

在2024世界人工智能大會(WAIC)暨人工智能全球治理高級別會議上的一場AI基礎設施論壇上,業內專家熱議這種被稱為AI Native的概念。它是指將人工智能融入到各個產品、業務和服務中,從而實作更高效和智能化的運作方式。

「AI Native我們也把它叫做AI原生,這就像是互聯網原生的概念,但不同的是,互聯網是由流量驅動的,AI是由算力驅動的。」無問芯穹聯合創始人、清華大學電子工程系副研究員顏深根表示,「AI時代要求我們構建新的生態,以適應算力驅動的需求。」

顏深根表示,AI基礎設施應該「向上對接套用,向下對接芯片設計與制造工藝」,從而讓算力能夠更為充分地發揮出來,提升算力的使用效率。

針對如何構建適應多模型與多芯片格局的AI Native基礎設施,無問芯穹聯合創始人兼CEO夏立雪對第一財經記者表示:「我們需要提供高效整合異構算力資源的算力平台,以及支持軟硬件聯合最佳化與加速的中介軟體,讓異構芯片真正轉化為大算力。」

訓練和推理是大模型生命周期中不可或缺的兩個階段,都需要強大的算力資源來支撐。然而,相比國際上模型層與芯片層呈現的「雙頭壟斷」格局,中國的模型層與芯片層表現得「百花齊放」,尤其是在芯片層。

異構的芯片之間存在一種「生態豎井」,即硬件生態系封閉且互不相容。用了A卡的開發者,無法輕易遷移至B卡上展開工作,也難以同時使用A卡和B卡完成大模型訓練或推理,這導致如果一個算力集群中存在兩種或以上的芯片,算力使用方會面臨一系列技術挑戰。

在今年的WAIC大會上,無問芯穹釋出了全球首個可進行單任務千卡規模異構芯片混合訓練的平台,具備萬卡擴充套件性,支持包括AMD、華為昇騰、天數智芯、沐曦、摩爾執行緒、輝達六種異構芯片在內的大模型混合訓練,千卡異構混合訓練集群算力利用率最高達到97.6%。

算力分散且利用效率不高是目前制約國內人工智能技術發展的一個瓶頸。中科加禾創始人兼中科院計算技術研究所研究員崔慧敏表示:「我們必須承認,目前在國內,中間層的AI基礎設施仍然落後於上層的套用以及下層的芯片。」她也認為,算力最佳化非常重要,也就是做到在不降低演算法精度的情況下,提升算力的效能。

崔慧敏提出,透過構建基礎的軟件平台層,就能讓底下的芯片層以及上面的模型層隨意切換。這就像是提供了一個中間的編譯平台,讓模型、套用可以在不同的硬件平台之間自由移植,同時最佳化效能,從而補齊AI產業生態的缺位,降低上層套用在國產芯片平台上的落地門檻和成本,提升多種異構算力的利用和適配效率。

如何打造自主可控的AI生態

隨著國內大模型的發展,構建AI產業生態成為業內高度關註的話題。上海算豐資訊總經理顧萌指出:「在基礎設施建設領域,輝達生態不可攻破,存在壓倒性的優勢,這對於我們的AI基礎設施如何服務於AI發展,以及AI發展如何反哺AI基礎設施的建設提出挑戰。」

科大訊飛董事長劉慶峰在大會上表示:「國產大模型的底座能力決定了企業在這條路上到底能走多遠,我們要以長期主義來打造中國真正自主可控的AI產業生態。在國產化的底座下,能為行業帶來更高的話語權與安全性。」

在提到AI基礎設施建設時,劉慶峰對第一財經記者表示:「我們希望透過一些技術的創新方法,來提升算力的使用效率,從而彌補我們在算力上的某些不足。」

長期以來,雲端大模型和基礎設施一直是AI領域的投資重點。劉慶峰說道:「未來,雲、邊、端結合軟硬一體化一定是大模型發展的一個趨勢。」

顏深根認為,在互聯網時代,平台占據強勢地位,比如百度、阿裏、美團這些大平台是流量的主要入口,而未來,隨著人工智能的發展,端側智能的能力會迅速增強,平台的收益將會向器材側轉移,這會給端側帶來更加豐厚的利潤。

「我們也希望在端側做一些最佳化,比如芯片的IP等,但在技術上要實作還面臨一定的挑戰,一方面是現在模型本身的規模還比較大,記憶體方面的問題沒有解決,另一方面是要發展端側,在芯片層面也還有欠缺,國內對大模型的支持還沒有理想的解決方案。」他表示。