在伦敦举行的C21Media主题演讲中,OpenAI的Chad Nelson展示了即将推出的Sora v2。Sora v2提供的功能:
文本生成视频(text-to-video)
图像生成视频(text+image-to-video)
视频编辑生成(text+video-to-video)
视频间转换(video-to-video)
根据演讲透露,Sora v2将“非常非常快”上线,这是现场泄露出来的一段视频。
Sora v2:革命性的技术突破
根据泄露的视频内容,Sora v2能够生成长达一分钟的动态视频,并且支持多场景切换。最令人惊叹的是角色一致性表现堪称完美。这意味着,无论是电影制作还是多媒体艺术创作,Sora都能提供极高质量的输出。如果这一功能被包含在OpenAI的$200/月专业订阅中,极有可能引发订阅热潮。
艺术家的视角:突破想象力的边界
东京的跨领域艺术家Emi Kusano以她的AI作品而闻名。刚刚她分享了一个用Sora创作的视频,这个视频项目的灵感来自 20 世纪 80 年代的时尚团体 "Takenoko-zoku"。
她分享了Sora如何在她的创作中发挥关键作用:
1. 动态视角与细节捕捉
Sora能够生成70年代可能不存在的动态角度,特别是舞蹈场景中,AI创造的独特动作增添了无与伦比的魅力。
2. 将想象转化为现实
Emi描述使用Sora的过程如同“falling down the rabbit hole(源自于《爱丽丝梦游仙境》一书,常用来比喻人陷入一个完全新奇、未知且令人沉迷的体验中)”,连日常生活都仿佛变成了AI提示词在眼前浮现。
3. 体验前所未有的“时空旅行”
借助Sora,她仿佛置身于不存在的过去或未来。这种“时间旅行”的感觉是传统视频制作所无法实现的。
创作心法:如何充分利用Sora?
Emi分享了她的创作心得:
Sora遵循物理定律,因此在创作时需要考虑环境、物体质量等细节 创作者可以通过精心设计的提示词,打破AI视觉语言的局限性,探索全新的艺术表达。
结语
之前Sam Altman 说他对于OpenAI Day3 发布会非常兴奋,也许就是sora 的发布,北京时间周二凌晨2点钟答案揭晓。