Sora是谁?2024年2月16日,全球人工智能模型领跑者OpenAI推出了一款能根据文字指令即时生成短视频的模型,命名为Sora。Sora能够从文本说明中生成长达60秒的视频,并能够提供具有多个角色,特定类型的动作和详细的背景细节的场景。Sora还能在一个生成的视频中创建多个镜头,体现人物和视觉风格。此外,Sora可以一次性生成整个视频,也可以扩展生成的视频,使其更长。
周鸿伟讲述了Sora的强大能力和分析起生成视频的原理,最重要的是他只是简单的叙述了Sora对视频产业的带来的影响,例如工作机会,视频质量,生产效率等,他非常想继续说下去,详细谈一下Sora对人类未来的改变,但是他止住口了,因为他知道自己的一言一行带来的舆论上的争议,所以他最后郑重的说了一句最关键的话,就是人类进入AGI(通用人工智能)由原来预测的10年缩短到2年,也就是说到了2027年,人类将进入人脑联机的「自我创造世界」的「永生」模式即元宇宙时代正式开启。
什么是通用人工智能? AGI,全称为Artificial General Intelligence,即人工通用智能,也被称为强人工智能或完全人工智能。这是人工智能领域的一个重要目标,旨在实现能够执行各种复杂任务、完全模仿人类智能行为的计算机系统。 与弱人工智能或狭窄人工智能(Narrow AI)相比,AGI不仅限于处理特定任务,如图像识别、语音识别等,而是具备类似人类的通用智能。这意味着AGI能够自主学习、推理、解决问题、理解语言、感知环境等,甚至在某些方面超越人类。
AGI的实现需要高效的学习和泛化能力,能够根据所处的复杂动态环境自主产生并完成任务。同时,它还需要具备自主的感知、认知、决策、学习、执行和社会协作等能力,并符合人类情感、伦理与道德观念。
Sora真的只是一个简单的AI工具,或者只是影响影视行业的就业率么?本文向大家详细分析一下Sora未来两年的进化结果。预测到2024年下半年,Sora将根据文字内容生成10分钟左右的长视频,到了2024年底,Sora将首次实现人机互联进入自我创造场景体验技术,简单的说就是你坐在球幕影院观看4D巨幕,而 4D巨幕的场景是你自己「创作」出来的。
2025年,该技术趋于成熟化,逐步可实现社交群体互联,也就是说大家可以联网共同进入同一个「世界」在这个「世界」创造「社会」,或者创作「城市」等等,到了2025年底,Sora会让这个「世界」更加真实化,会增加更多的辅助服务内容,例如VIP高端用户享有的特权,在「世界」里面大家可以做「生意」,甚至佩戴感官体验设备达到更加真实的「生活」场景体验。
到了2026年,将探索人类意识(或记忆)储存在Sora里面,Sora将为人类「永生」模式创造新纪元,届时每个进入Sora的人都可以备份自己在Sora的"经历",同时Sora平台实现有条件开源,将更多的思想创意内容融入进来,使得Sora更加的成熟化,最终达到人均在Sora花费(消耗)的时间仅次于睡觉的时间。
2027年,Sora将首次事实「人类永生」模式体验。
Sora到底可怕之处在哪,会让你磨骨耸然?
1、Sora 技术应用的前两年,影视行业部分技术端,例如创作制作,特效,剪辑,音响、灯光、建模师等技术工种将大规模缩减,人人都可以当导演,制作「电影」。
2、Sora出现的第三年开始,大批人类逐步开始依赖Sora,主流用户群体是社交恐惧症者,自闭症者,遇到挫折者,富人等群体,再往后就是大量的中产阶级,学生,年轻人,老龄人,到最后覆盖10岁以上人类群体。
3、在人人都像用手机一样在使用Sora时,部分人如同网瘾少年一样,无法自摆,他们失去了现实生活的追求和欲望,而把所有的精力都再放在了Sora里面。即便一些手段干预,也无济于事。
4、社交活动大规模减少进而带来的消费下降,每个人都沉浸在Sora中,只有在那里才能找到自我,生活有一半以上的时间都会与Sora「相处」,生活社交大规模减少,消费也大打折扣,带来很大的社会活动冲击。
最后,整个社会的发展,完全依赖人工智能,届时机器人各类角色将大量涌出,人工智能已经完全实现无人驾驶一样覆盖人类生活每一个角落,脑机技术可以实现大部分行为,人类进入休眠式的「享受」阶段。