新京報貝殼財經訊(記者白金蕾 陳維城)10月25日至26日,由RTE開發者社區和聲網聯合主辦的RTE2024第十屆即時互聯網大會在京舉行。會上一場由Lepton AI創始人兼行政總裁賈揚清,MiniMax合夥人魏偉,面壁智能聯合創始人、技術長曾國洋,Hugging Face工程師王鐵震等組成的針對「AI的6000億美元難題 :從基礎設施到商業化落地」的圓桌論壇,引發業界關註。
「AI的6000億美元難題」起源於紅杉資本的合夥人 David Cahn(大衛·卡恩)的文章,他認為:AI(人工智能)基礎設施的巨額投資和實際收入之間差距過大,人工智能將要到達泡沫的臨界點;AI可能是下一個變革性的技術浪潮,GPU(圖形處理器)計算價格的下降,實際上對長期創新和初創公司是有利的,而投資者會受損。
RTE2024第十屆即時互聯網大會。圖|受訪者供圖
針對AI的基礎設施建設,賈揚清分享了兩個核心觀點:同等尺寸的模型,能力會越來越強,尤其是透過蒸餾、壓縮等技術,現在的LLama 3.2 3B模型甚至可以和以前的LLama 70B模型能力相近;除了極少數頭部公司之外,越來越多的企業會采用「開源+精調」來做下一代模型,因此開源架構的套用會越來越普遍。
「開源模型的優勢是生態和社區,從實際套用角度,很多人找個開源模型然後微調是可以用的,但用開源模型解決所有問題是不夠的。」王鐵震說,「我們將在未來看到越來越多Infra(基礎設施)和Realtime(即時處理) 的工作,大家不僅需要關註開源模型本身,還需要重視開源模型的基礎設施和數據閉環,才能把開源模型跑得更好、更快。Realtime 需要TTS(文本到語音),也需要大模型,如果能夠透過一些方式放在一起,放在邊緣側、離使用者更近的地方,才能產生非常好的效果。」
應該如何看到大模型訓練和推理的成本問題?曾國洋分享到,「隨著技術的前進,算力一定會越來越便宜,相同能力的模型規模也會越來越小,但算力成本最佳化會最終轉化為訓練更強大的模型。真正達到 AGI (通用人工智能)水平之前,我們只能感受到模型在變得越來越強,很難感受到成本的變化。」他還提到,由於面壁智能是做端側模型的,所以很關註如何讓模型在端上跑得更快,在實際部署過程中,他們會用各種量化壓縮甚至是稀疏化方法去最佳化實際部署的開銷。
賈揚清也指出成本不是一個考量因素。他判斷,推理成本一年內會降到現在的十分之一,創業者在構建套用時可以按照做一個套用成本是目前十分之一來進行成本核算,看能不能做,包括模型、硬件和套用在上量後,也都是可以降低成本的。
近期有報道稱,OpenAI正在解散其聚集於AI安全研究的「AGI Readiness」團隊。在場的AI企業創始人是如何看待AI安全和倫理問題的?賈揚清舉例稱,目前的飛機有很多安全需求,但造火箭就被給予了更多靈活性。所以他猜測,OpenAI可能是為了更好地先期發展,也可能是覺得AI安全沒有跳出傳統的安全範疇,傳統的數據安全、雲安全已經足夠保障了。
王鐵震表示,現在擔心AI取代人類是比較早的,但是AI已經對一些行業產生了不好影響,比如影片以假亂真的影響,包括對青少年心理的影響,而這裏創業的機會也是非常多的。
活動現場,聲網宣布與MiniMax正在打磨中國第一個Realtime API (即時處理應用程式介面)。那麽,應該如何看待音影片多模態模型的實際套用潛力?魏偉表示,隨著多模態的出現,生成式人工智能的邊界一定會被繼續拓展,並加速這一產業的變革。從產品和使用者服務過程中魏偉發現,文本、語音、音樂、影片這些模型可以很好地幫助藝術、影視、音樂等領域的創作者極大地提高效率,並為他們提供新的思路和方法。
王鐵震也認為,如果影片生成的效果,能超過電影級別的效果,而且不需要多次生成,哪怕價格高,也有人願意嘗試。
校對 劉軍