當前位置: 華文世界 > 科技

火山引擎veStack智算版 構建智能時代高效能AI雲底座

2024-02-19科技

AI大模型技術的發展和套用,給各行各業智能化升級帶來了巨大的機遇和挑戰,尤其是對算力提出了極高的要求。為了幫助行業客戶更好應對算力的迫切需求,火山引擎veStack混合雲全新推出智算版,透過構建高效能的異構算力底座,提供AI大模型訓練到推理的全流程能力。

火山引擎veStack 智算版是專為智算場景打造的AI雲底座,具有開放相容、高效能大規模、全棧AI能力等產品優勢,滿足企業使用大模型服務、算力租賃服務以及打造專屬大模型等需求,為各行各業的智能化升級提供了一個合規、普惠的AI原生基礎設施。

開放相容:相容十余種訓練、推理卡

AI大模型的訓練和推理,需要依賴於強大的算力支撐。然而,目前市場上的算力產品,往往存在著不同的架構、介面、驅動、軟件等,導致算力的相容性和互操作性較低,給使用者帶來了使用和管理的困難。例如,使用者可能需要針對不同的算力產品,進行不同的環境配置、程式碼適配、效能調優等,增加了使用者的成本和風險。

為了解決這一問題,火山引擎veStack 智算版提供了一個開放相容的智算基礎設施,支持相容十余種訓練、推理卡,包括NVIDIA以及各類國產主流廠商的GPU、NPU、IPU等產品。使用者可以在veStack智算版上,無縫地使用不同算力產品,無需進行額外的配置和適配,即可實作算力的快速接入和部署。同時,veStack智算版還會持續對算力進行相容適配、升級叠代,打造一個高效能的異構算力底座,滿足使用者的不同算力需求和場景。

高效能大規模:支持3.2Tbps RDMA頻寬,單集群可支持萬卡以上規模

AI大模型的訓練和推理,不僅需要強大的單卡算力,還需要高效的多卡協同和擴充套件能力。然而,目前市場上的算力產品,往往存在著網絡頻寬、儲存效能、集群規模等方面的瓶頸,導致算力的效能和效率受到限制,給使用者造成效能和成本的損失。

為此,火山引擎veStack 智算版提供了一個高效能大規模的智算基礎設施,支持3.2Tbps RDMA頻寬,單集群可支持萬卡以上規模。使用者可以在veStack 智算版上,利用高效能無失真網絡和高效能並列檔儲存,實作多卡之間的高效協同和擴充套件,提升訓練和推理的效能和效率。

全棧AI能力:一站式建設專屬大模型

隨著大模型技術的發展,業界發現通用基礎大模型難以滿足各行業細分場景下的特定需求,同時基於數據安全、合規性等行業監管要求,政府、金融等行業客戶更傾向於在本地數據中心部署專屬的行業大模型。

在這一背景下,火山引擎veStack 智算版提供了一個全棧AI能力的智算基礎設施,可支持企業客戶部署火山方舟,並提供豐富的精選大模型。如金融行業使用者就可以在veStack 智算版上,享受從底層算力基礎設施、機器學習平台、火山方舟一站式大模型服務平台以及各種專業服務的全流程AI能力支持,實作AI套用的快速開發和部署。

為了給企業提供靈活、高效的算力資源,veStack 智算版還提供了多種算力服務模式,包括雲服務、軟硬一體買斷以及純軟買斷和訂閱等,使用者可以根據自身業務需求,靈活選擇火山引擎提供的GPU專區或者自建IDC等方案,滿足其算力以及業務合規等訴求。

當前,veStack 智算版在各行各業均有豐富的行業落地實踐,已助力汽車、金融、生信等多行業客戶建設開放相容、高效能、具備全棧AI能力的智算中心,幫助客戶實作雲上創新,持續增長。未來,火山引擎將繼續深耕智算領域,為使用者提供更優質的智算服務和解決方案,共同推動各行業的智能化升級。