當前位置: 華文世界 > 科技

價格比同行低99.3%,字節挑起大模型價格戰

2024-05-15科技
5月15日,字節跳動正式對外釋出豆包大模型。火山引擎是字節跳動旗下雲服務平台,豆包大模型原名「雲雀」,是國內首批透過演算法備案的大模型之一。目前豆包大模型日均處理1200億Tokens文本,生成3000萬張圖片。
今日火山引擎總裁譚待重點披露了豆包大模型的商業化價格——豆包主力模型在企業市場的定價為0.0008元/千Tokens,即0.8厘的價格可處理1500多個漢字,較行業平均價格便宜99.3%。市面上同規格模型的定價一般為0.12元/千Tokens,是豆包模型價格的150倍。
但火山方面並未披露豆包大模型的具體參數規模。火山方面人士對記者表示,目前參數規模已經不是衡量大模型能力的唯一指標。采訪中譚待表示,「今年行業不再比拼參數規模了,因為大家都‘悟’了。」不同尺寸的模型具備不同效能,價格自然不同,但豆包是以最終能力最強的主力模型來定價,同時與行業價格進行對比。
在具體最佳化成本的方式上,譚待披露稱,一方面透過技術層面手段將成本做低,如對模型結構進行最佳化調整。其次是在工程方面將過去的單機推理升級為分布式推理,同時結合對雲端運算算力的混合排程,透過綜合方式將成本做低。
至於為什麽要做降價這個市場動作,譚待表示,今年一個很大的變化在於行業大模型能力大幅提升,做套用這件事變得很重要,也就是一定要將生態做繁榮。譚待稱目前接觸的很多客戶都在做大模型方面的嘗試,但創新這件事的風險度很高,尤其在AI領域,因此需要將成本降低,拉動大家更廣泛地使用起來。從這個角度來講,不論是大企業還是個人,都需要更低成本、更高品質的大模型。
目前,大模型套用發展仍處於早期階段。QuestMobile數據顯示,截至今年3月,基於大模型的AIGC行業使用者量為7380萬,盡管同比增長了8倍,也僅占行動網際網路使用者量的6%。譚待認為,降低成本是推動大模型快進到「價值創造階段」的一個關鍵因素。
如今行業內降低大模型價格漸成趨勢,昨日OpenAI在進行大模型技術更新的同時,也宣布了價格的下降。OpenAI新推出的兩個嵌入模型:text-embedding-3-small模型與text-embedding-3-large模型,前者的價格僅為上一代的五分之一,每1000個tokens的價格從0.0001美元降低到0.00002美元。後者可以建立多達3072維(dimensions)的嵌入,其主要提升在於效能。
另在5月13日,智譜大模型開放平台(bigmodel.cn)上線新的價格體系,入門級產品 GLM-3 Turbo 模型呼叫價格下調80%,從5元/百萬tokens降至1元/百萬tokens,1元可以購買100萬tokens。面壁智慧方面針對大模型降價趨勢表示,自身產品小鋼炮MiniCPM一直0元購,降無可降。
對於降價這件事,譚待在采訪中表示,To B業務透過虧損換收入是不永續的,所以火山不走這條路,更多考慮的是讓更多人來使用,「大的使用量才能打磨出好模型,也能大幅降低模型推理的單位成本。」譚待表示,透過技術手段將價格打下來後,行業便會踴躍進來嘗試這件事。
截至目前,字節跳動基於豆包大模型打造了AI對話助手「豆包」、AI套用開發平台「扣子」、互動娛樂套用「貓箱」,以及星繪、即夢等AI創作工具,並把大模型接入抖音、番茄小說、飛書、巨量引擎等50余個業務,用以提升效率和最佳化產品體驗。
字節跳動產品和戰略副總裁朱駿認為,技術在快速演化,但使用者核心的需求沒有改變,包括高效獲取資訊、工作提效、自我表達、社交娛樂等,字節跳動希望能夠找到適合的大模型套用形態。目前豆包是字節跳動重點投入的大模型套用。據朱駿透露,豆包上已有超過800萬個智慧體被建立,月度活躍使用者達到2600萬。
豆包大模型在服務字節內部的同時,也在與火山引擎的眾多企業客戶合作共創,其所提供的是一個有多模態能力的模型家族,目前主要包括通用模型pro、通用模型lite、語音辨識模型、語音合成模型、文生圖模型等九款模型。
(本文來自第一財經)