真爽!Zopia + Seedance 2.0,一天一个小短片

问AI · API集成将如何改变视频创作生态?
过年期间尝试了,Zopia + Seedance 2.0的组合拳,太好用了,效率整体提升,一天一个一分钟的小短片,非常牛逼。
情人节的时候,做了个情人节主题的。
除夕的时候,做了个除夕主题的。
现在就来,手把手拆解一下全流程。

https://zopia.ai/zh

打开网站,输入提示词,点击生成。

帮我构思一个2026马年的小短片,一分钟以内,风格是3D黏土,主角是欣欣的回家囧途,最后和她爸妈团聚在一起吃年夜饭,开头有钩子,中间有冲突,最后有反转,温馨。

图片
然后设置,简体中文,比例9:16,图片尺寸2K,风格国风3D。
图片
这样就会得到一个详细的剧本,如果觉得不满意,可以多轮修改,满意就进到下一步。
图片
下一步是【开始角色与场景设计】。
图片
这一步的角色里面,会生成角色、场景、道具,这里面不满意的地方可以一直修改,修改到自己满意为止。图片生成的模型有:NBPSeedream 4.5MJ V7GPT Image 1.5
如果有现成的角色设定,这里也支持直接上传。重要提示:记得生成角色多视图(三视图),在后面的分镜图里面,非常的重要。
图片
图片
剧本、角色都搞定了,就可以【开始生成分镜】。
图片
分镜图,生成的速度很快,支持多次修改,支持批量下载。因为是有主体参考的,所以人物一致性、场景一致性、风格一致性都是可以的。
非要挑刺,那就是分不清楚场景里面的,东南西北。(不过,最近网上冲浪,看到过有些网站说自己已经解决了这个问题,到时候有时间,我去试试)。
图片
这里的出图,是第一次出图,图的是方便,但是精准性上面,还是需要自己慢慢后期去修改的,做AI的哪有不修修补补的,狗头。
图片
图片
图片
这样所有的静帧图片就搞定了,开始制作视频,这次使用的是即梦Seedance 2.0模型,目前来说,简直无敌的存在。

https://jimeng.jianying.com

打开网站,上传图片,输入关键词,点击生成。(关键词是从Zopia那里复制粘贴的)

图片1,这是女主欣欣,

图片2,特写镜头,欣欣拖着行李箱,焦急地看着手机导航,突然——行李箱轮子掉了!她一个趔趄,差点摔倒。

图片3,慢镜头:行李箱里的衣服散落一地。,

图片4,欣欣(崩溃),沮丧的说到:“ 天哪!今年回家也太难了……” 

图片5,欣欣坚强地收拾行李,继续前行,镜头拉远显示她孤身一人在空荡的路口。

图片
当然,不是一次就可以生成完美的效果,基本上抽2-3次,缝缝补补,剪辑一下,就可以有一段可以用的了,已经非常棒了。
下面是直出的,未剪辑版本。
 该视频属于AI生成
除了这种,一张一张的图片,四宫格也是可以生成视频的。
同样的,上传图片,输入关键词,点击生成。

图片1,这是女主欣欣。,

图片2,根据这个四宫格分镜图,生成一个完整的故事,音画同步。

镜头1,固定镜头,欣欣坐在后排,疲惫地靠着车窗。

镜头2,特写镜头,突然——车子停了!前方堵车,欣欣一脸生无可恋。

镜头3,推进镜头,欣欣看着手表 ,并焦急的说到:“爸妈说晚上8点吃饭,这下完了……”

镜头4,固定镜头,司机指着前面的路,堵车。

不要字幕

图片
一次效果不满意的话,我基本是多抽几次,剪辑处理一下。
下面是直出的,未剪辑版本。
 该视频属于AI生成
剩下的镜头,如法炮制就可以了。
结果,不出意外的,还是发生了意外。
人都是麻木的,说识别到我上传的素材中包含人脸信息,请调整素材后再试试。真给我整不会了,最后有些镜头,是去其他网站搞定的。
图片
有个镜头,一次成型,效果不错,我也拿出来写下。

镜头光速推进,穿过窗户,镜头往上摇,看到了天空中放的烟花,黏土风格

图片
效果嘎嘎好,我爱即梦的最新模型。
 该视频属于AI生成
这样所有的视频就都生成好了,剪辑教程看这个。

AI漫剧:剪辑篇


小惊喜,请教了同学,即梦怎么固定角色声音,同学说可以上传音频作为参考,其实内测期间我就知道可以参考音频,我一直理解成了音乐这种,其实声音也是音频。(我对即梦新模型的开发,不足百分之一) 
但是,更加离谱的是,同学说即梦不用上传音频,好像会检索上下文,自动匹配音色。
然后,我实操了一下,发现这个欣欣的口音,我感觉可以对的上,注意,我压根没有上传音频的参考,真的,离离原上谱。
好了,这就是我目前最优化的视频产出工作流。
等各大网站2月24日都接上了即梦的API,不知道AI工具得热闹成啥样子,小小的期待一波。