Meta对OpenAI发起挑战,携新型生成式音视频AI模型亮相。近日,Meta推出了一款名为Movie Gen的AI模型,这一最新的创作工具能够根据用户的指示生成逼真的视频和音频片段,并表示其性能可与OpenAI及ElevenLabs等知名媒体生成AI公司的工具相媲美。
Meta分享的Movie Gen示例中包含了动物游泳、冲浪的精彩画面,以及利用真实照片演绎画布上绘画动作的视频。根据Meta在博文中所提到的,Movie Gen还具备为视频内容创作同步背景音乐和音效的能力,同时用户也可以用其对现有视频进行编辑。在其中一段视频中,Meta通过这个工具为一名在沙漠中奔跑的男子添加了绒球,而另一段则将一位正在停车场玩滑板的男子身边干燥的地面,变成了飞溅的水坑,表现相当出色。
Meta表示,使用Movie Gen制作的视频长度最长可达到16秒,而音频的时长可达45秒。公司分享的盲测结果显示,该模型的表现超越了Runway、OpenAI、ElevenLabs和Kling等多家公司的产品。好莱坞也在积极探索如何利用这项生成式AI视频技术,此前OpenAI曾演示其Sora产品能根据文本提示制作电影风格的视频。娱乐行业的技术人员对于能够利用这些工具来提升和加快电影制作进程充满期待,但也有人对这种貌似未经授权就利用版权作品进行训练的系统表示担忧。
Meta的一位发言人透露,Movie Gen大概率不会像Llama系列大语言模型那样公开给开发者使用,而是会认真评估每个模型可能带来的风险。为了更好地推动这一工具的使用,Meta计划与娱乐行业及其他内容创作者直接合作,并计划在明年某个时间将Movie Gen整合进Meta的产品中。根据Meta发布的博文和研究论文,这款工具基于已经获得许可的和公开可用的数据集进行构建。
总的来说,Meta以新兴的Movie Gen冲击AIl领域,展示了他们在生成式AI视频技术上的创新能力,不仅为内容创作者提供了强大的创作工具,同时也引发了行业对版权和使用规范的深入思考。在这个快速发展的技术时代,AI的进步与伦理的探讨同样不可或缺。