Meta對OpenAI發起挑戰,攜新型生成式音影片AI模型亮相。近日,Meta推出了一款名為Movie Gen的AI模型,這一最新的創作工具能夠根據使用者的指示生成逼真的影片和音訊片段,並表示其效能可與OpenAI及ElevenLabs等知名媒體生成AI公司的工具相媲美。
Meta分享的Movie Gen範例中包含了動物遊泳、沖浪的精彩畫面,以及利用真實照片演繹畫布上繪畫動作的影片。根據Meta在博文中所提到的,Movie Gen還具備為影片內容創作同步背景音樂和音效的能力,同時使用者也可以用其對現有影片進行編輯。在其中一段影片中,Meta透過這個工具為一名在沙漠中奔跑的男子添加了絨球,而另一段則將一位正在停車場玩滑板的男子身邊幹燥的地面,變成了飛濺的水坑,表現相當出色。
Meta表示,使用Movie Gen制作的影片長度最長可達到16秒,而音訊的時長可達45秒。公司分享的盲測結果顯示,該模型的表現超越了Runway、OpenAI、ElevenLabs和Kling等多家公司的產品。好萊塢也在積極探索如何利用這項生成式AI影片技術,此前OpenAI曾演示其Sora產品能根據文本提示制作電影風格的影片。娛樂行業的技術人員對於能夠利用這些工具來提升和加快電影制作行程充滿期待,但也有人對這種貌似未經授權就利用版權作品進行訓練的系統表示擔憂。
Meta的一位發言人透露,Movie Gen大概率不會像Llama系列大語言模型那樣公開給開發者使用,而是會認真評估每個模型可能帶來的風險。為了更好地推動這一工具的使用,Meta計劃與娛樂行業及其他內容創作者直接合作,並計劃在明年某個時間將Movie Gen整合進Meta的產品中。根據Meta釋出的博文和研究論文,這款工具基於已經獲得特許的和公開可用的數據集進行構建。
總的來說,Meta以新興的Movie Gen沖擊AIl領域,展示了他們在生成式AI影片技術上的創新能力,不僅為內容創作者提供了強大的創作工具,同時也引發了行業對版權和使用規範的深入思考。在這個快速發展的技術時代,AI的進步與倫理的探討同樣不可或缺。