當前位置: 華文世界 > 科技

成立16個月斬獲10億元融資,無問芯穹瞄準大模型時代首選「算力營運商」

2024-09-06科技

本報資料圖片

大模型基礎設施創業公司無問芯穹(Infinigence AI)今天宣布完成近5億元A輪融資。至此,成立至今僅16個月的無問芯穹累計已完成近 10 億元融資。

無問芯穹聯合創始人、CEO夏立雪認為,AI2.0浪潮帶來的新「二八定律」,只需解決20%的關鍵技術問題即可支撐80%的垂直場景泛化,中國算力生態正面臨著供需不平衡、資源分布不均等現狀,這無疑給無問芯穹拉動上下遊協力實作多元異構算力的高效整合創造了時代機遇。

無問芯穹表示,本次融資募集的資金將用於加強技術人才吸納與技術研發,保持軟硬協同、多元異構的技術領先優勢;深入推動產品商業化發展,保持Infini-AI異構雲平台產品與市場間的緊密嵌合;強化生態合作,啟用異構集群算力資源,構建支撐「M種模型」和「N種芯片」的AI算力底座,做AI模型算力的「超級放大器」……無問芯穹將致力於成為大模型時代首選的「算力營運商」。

做AI模型算力的「超級放大器」

大模型能夠支撐的實際產業規模,取決於AI模型的實際可用算力。無問芯穹認為大模型的實際可用算力不僅取決於芯片的理論算力,還可透過最佳化系數放大算力利用效率,透過集群規模放大整體算力規模,由此,無問芯穹提出「芯片算力×最佳化系數(軟硬協同)×集群規模(多元異構)=AI模型算力」公式。遵循這一公式,無問芯穹將透過軟硬件聯合最佳化技術,持續提升芯片算力在大模型任務中的利用率,並透過多元異構算力適配技術,提升集群算力利用率,擴大行業整體算力供給。

在軟硬件聯合最佳化方面,無問芯穹透過自研的推理加速技術FlashDecoding++大幅提升主流硬件和異構硬件的利用率,超越在先SOTA,完成多個主流開源大模型在AMD、華為昇騰、壁仞、寒武紀、燧原、海光、天數智芯、沐曦、摩爾執行緒、NVIDIA等10余種計算卡上的適配,並在部份計算卡上實作了行業第一的推理加速成果,高效滿足各行業愈發高漲的大模型推理需求。基於這一方案取得的最佳化效果,無問芯穹已與AMD簽署戰略合作,攜手推動商用AI套用的效能提升。

在多元異構算力適配方面,無問芯穹也擁有業界稀缺的異構適配與集群能力稟賦,7月釋出的大規模異構分布式混合訓練系統HETHUB,是業內首次在華為昇騰、天數智芯、沐曦、摩爾執行緒和AMD、NVIDIA共六種芯片「4+2」組合間實作了千卡規模的異構算力混合訓練,集群算力利用率最高達到97.6%,平均高出基準方案約30%,這意味著,在相同的多元芯片機房條件或者集群條件下,無問芯穹可將訓練總時長壓縮30%。

提供異構算力利用到大模型套用開發的全棧式能力

近年來,國際上模型層與芯片層逐漸形成「雙頭收斂」格局,而中國的模型層與芯片層依然持續呈現由「M種模型」和「N種芯片」構成的「M×N」格局。然而,不同硬件平台需要適配不同軟件棧和工具鏈,異構芯片間長久存在著難以兼用的「生態豎井」現象。隨著越來越多國產異構算力芯片被套用於全國各地方算力集群,異構算力難以被有效利用的問題日益嚴峻,逐漸成為中國大模型產業發展的瓶頸。

無問芯穹依托軟硬協同、多元異構技術優勢,已基於多元芯片算力底座打造出Infini-AI異構雲平台。該平台向下相容多元異構算力芯片,可有效啟用全國各地沈睡異構算力,現已營運的算力覆蓋全國15座城市。此外,Infini-AI異構雲平台還包含一站式AI平台(AIStudio)和大模型服務平台(GenStudio)。自平台上線以來,已有Kimi、LiblibAI、獵聘、生數科技、智譜AI等多個大模型行業頭部客戶在Infini-AI異構雲平台上穩定使用異構算力,並享受無問芯穹提供的大模型開發工具鏈服務。

Infini-AI異構雲平台不僅可幫助下遊客戶輕松遮蔽硬件差異,無感高效地使用底層異構算力的強大能力,還將有力打破國內異構算力的生態困境,加速上層套用逐漸向異構算力基座遷移,有效整合並擴大國內大模型產業可用算力的規模,真正將異構算力轉化為能用、夠用、好用的大算力,助力構建具有中國特色的本土化異構算力生態。

作者:沈湫莎

文:沈湫莎 圖:受訪者提供 編輯:沈湫莎 責任編輯:任荃

轉載此文請註明出處。