當前位置: 華文世界 > 科技

莫讓大模型套用「堵」在算力門口,上海本土雲原生企業釋出算力一體化方案

2024-03-31科技

來源:網易新聞

算力、算力、還是算力。不管是大模型套用Kimi助手由於存取量過多而疑似宕機;還是在千帆大模型平台上,大模型API日呼叫量增長10倍;抑或AI使用者想要租用算力需要排隊……都在指向一個事實,大量未被滿足的大模型套用需求被"堵"在算力門口。

如何破局?在近日舉行的2024 DaoCloud AI 算力品牌釋出會上,一家坐落於上海楊浦區的本土科技企業上海道客網絡科技有限公司,憑借其自主研發的雲端運算作業系統和GPU算力排程產品,試圖給出解決方案。

大會現場,道客與香港科技大學、合肥電信進行了合作簽約儀式,未來將共同推動 AI 算力在學術和產業領域的快速落地和共享。

大模型催生雲原生高速發展

"大模型對算力的超高需求,使產業解決方案收斂到雲原生領域。"道客產品副總裁葉挺說。

上海道客網絡科技有限公司成立於2014年,是一家專註於用雲原生技術去支撐分布式負載的科技企業,大模型催生出對算力市場的需求,使這家企業進入到快速發展的"第二曲線"。

雲原生是一種新型的軟件開發和部署方法論,核心是利用雲平台的彈性和分布式優勢,實作快速部署、按需伸縮、不停機交付等各項功能。當大模型動輒需要上千塊卡進行訓練時,分布式部署就成了必然選擇。

作為連結上層套用和下層資源的中間層,雲原生排程能把計算資源提供給所需的套用,而排程水平的高低則決定著資源利用效率。道客在雲原生排程方面積累了多年經驗,當下,雲原生排程領域全球前三貢獻者分別是谷歌、紅帽和道客。

香港科技大學算力排程演算法研究專案組成員徐凱強表示,硬件標稱算力與實際系統算力之間有40%-50%的顯著差異,這是因為計算排程和通訊過程中的效能損失造成的,這也意味著在不更換器材的情況下有一半算力潛力可挖,他的專案組將和道客在統一排程和異構算力等方向進行更深入的合作研究。

國產算力一體化解決方案釋出

想要搭建一個雲原生的算力構架很簡單,想要真正做到能夠支撐大規模高效能的算力分布式平台,難度非常大。據道客行政總裁兼雲原生計算基金會全球大使陳齊彥介紹,此次釋出的算力一體化方案的d.run,不止GPU芯片的簡單組合,而是能夠支撐千卡萬卡級別的高速互聯,並透過軟硬協同的效能最佳化和加速,將GPU資源的利用率更大化,實作算力排程的降本增效。

"簡單來說,d.run可以實作在不改變器材數量前提下,透過演算法‘挖潛’,提升資源使用效率,從而產生算力增量。讓一台器材從產出普通算力到產出高效算力。"陳齊彥說。

"只有將算力變成一種能力,賦能到實際場景中,才能真正加速智能創新。"聯合創始人兼技術長郭峰說。d.run 的AI生態開發平台,相當於互聯網時代的SaaS,覆蓋數據準備、模型開發、模型訓練、模型部署等環節,透過各種便捷實用的生態 產品和開源工具,加速了算力向場景滲透,打造了通往 AI 的最短路徑。

猴子無限是道客 d.run 方案賦能的企業之一,也是 AI 開放生態平台的一份子,猴子無限在雲原生的高可用環境之上,構建了一套體系化的大模型平台流程,幫助使用者更優且更快地構建高價值的 AI 套用。

今年被業內認為是大模型套用快速落地的一年,想要套用落地搶先一步,算力是個不得不考慮的問題,算力服務也在孕育著萬億市場規模的新賽道。

作者:

文:沈湫莎 圖:受訪者提供 編輯:沈湫莎 責任編輯:任荃