當前位置: 華文世界 > 科技

4050億參數!Meta或將7月23日釋出迄今最強大Llama 3模型

2024-07-13科技

來源:媒體捲動

來源:硬AI

不到兩周後,我們可能就會見到迄今為止最強大的開源Llama 3模型。

美東時間7月12日周五,媒體援引一名Meta Platforms的員工訊息稱,Meta計劃7月23日釋出旗下第三代大語言模型(LLM)Llama 3的最大版本。這一最新版模型將擁有4050億參數,也將是多模態模型,這意味著它將能夠理解和生成影像和文本。該媒體未透露這一最強版本是否開源。

Meta公司拒絕對上述訊息置評。周五盤中,低開的Meta股價跌幅收窄,盤初曾跌3.6%,午盤跌不足2%,仍將在周四大幅回落超4%後連跌兩日,或將重新整理6月28日以來收盤低位。

去年7月Meta釋出的Llama 2有三個版本,最大版本70B的參數規模為700億。今年4月,Meta釋出Llama 3Meta,稱它為「迄今為止能力最強的開源LLM」。當時推出的Llama 3有8B和70B兩個版本。

Meta CEO祖克柏當時稱,大版本的Llama 3將有超過4000億參數。Meta並未透露會不會將4000億參數規模的Llama 3開源,當時它還在接受訓練。

對比前代,Llama 3有了質的飛躍。Llama 2使用2萬億個 token進行訓練,而訓練Llama 3大版本的token超過15 萬億。

Meta稱,由於預訓練和訓練後的改進,其預訓練和指令調優的模型是目前8B和70B兩個參數規模的最佳模型。在訓練後程式得到改進後,模型的錯誤拒絕率(FRR)大幅下降,一致性提高,模型響應的多樣性增加。 在推理、程式碼生成和指令跟蹤等功能方面,Llama 3相比Llama 2有極大改進,使Llama 3更易於操控。

4月Meta展示,8B和70B版本的Llama 3指令調優模型在大規模多工語言理解數據集(MMLU)、研究生水平專家推理(GPQA)、數學評測集(GSM8K)、編程多語言測試(HumanEval)等方面的測評得分都高於Mistral、谷歌的Gemma和Gemini和Anthropic的Claude 3。8B和70B版本的預訓練Llama 3多種效能測評優於Mistral、Gemma、Gemini和Mixtral。

當時社交媒體的網友評論稱,根據基準測試,當前的Llama 3模型不完全是 GPT-4 級別的,但仍在訓練中的較大尺寸的模型將達到 GPT-4 級別。

輝達高級科學家Jim Fan認為,Llama 3的推出已經脫離了技術層面的進步, 更是開源模型與頂尖閉源模型可分庭抗禮的象征

從Jim Fan分享的基準測試可以看出,Llama 3 400B 的實力幾乎媲美 Claude「超大杯」以及新版 GPT-4 Turbo,將成為「分水嶺」,相信它將釋放巨大的研究潛力,推動整個生態系的發展,開源社群或將能用上GPT-4級別的模型

此後有訊息稱,研究人員尚未開始對Llama 3進行微調,還未決定Llama 3是否將是多模態模型;正式版的Llama 3將會在今年7月正式推出。

不同於OpenAI等開發商,Meta致力於開源LLM,不過,這個賽道也越來越擁擠。谷歌、特斯拉CEO馬斯克旗下的xAI和Mistral 等競爭對手也釋出了免費的AI模型。

Llama 3問世後,同在4月亮相的4800億參數模型Arctic擊敗Llama 3、Mixtra,重新整理了全球最大開源模型的紀錄。

Arctic基於全新的Dense-MoE架構設計,由一個10B的稠密Tranformer模型和128×3.66B的MoE MLP組成,並在3.5萬億個token上進行了訓練。相比Llama 3 8B和Llama 2 70B,Arctic所用的訓練計算資源不到它們的一半,評估指標卻取得了相當的分數。