多知12月10日消息,Open AI周一宣布,旗下视频生成模型Sora正式面向大众推出,该系统可以根据文本提示生成逼真的视频。新版工具Sora Turbo可以生成最长达20秒的视频,并且可以提供这些视频的多种变体。据介绍,Sora将在10日开始向美国及其他市场的ChatGPT付费用户开放。
今年2月,Open AI首次推出Sora,这是一种可以根据文本创建逼真视频的模型,并分享了我们在世界模拟方面的初步研究进展。Sora是理解和模拟现实的人工智能的基础。这是开发可以与物理世界交互的模型的重要一步。
今年2月的Sora是预览模型,只有部分艺术家、电影制作人和安全测试人员可以使用。周一,OpenAI发布了 Sora 的新版本——Sora Turb,它比2月份预览的模型快得多,使用人群更多了。
Sora是可根据文本创建逼真视频的模型,Open AI网站展示了一个示例,对Sora输入文字“在开阔的沙漠中拍摄一群猛犸象的广阔宁静镜头”,随后生成的视频展示了三只猛犸象缓慢穿过沙丘。
Sora生成的视频分辨率高达1080p、最长20秒,并可以宽屏、竖屏或方形屏形式呈现,用户可以自带素材进行扩展、混音和混合,或者更新文本生成全新的内容。
值得注意的是,“中国Sora”正在快速崛起,如快手可灵视频生成大模型生成的视频分辨率最高可达1080p,时长最高可达2分钟,提供首尾帧控制、镜头控制等功能;字节跳动自研的视频生成模型Seaweed仅需60秒即能生成时长5秒的高质量AI视频;腾讯混元大模型已经上线视频生成能力;Minmax旗下海螺AI新模型可以生成2D 视频;商汤Vimi只通过一张人物照片,就能生成一段1分钟左右的人物视频;由清华大学联合生数科技共同研发Vidu生成一段4秒片段只需30秒……
不过,从商业可用的角度来说,持续生成动作连贯、风格稳定、高分辨、长时长的视频还需要一些时间。