10月10日,大模型初创企业MiniMax官宣视频模型上线图生视频功能,南都记者实测发现,目前向该视频模型输入一张图片,能生成一段长达6秒的视频。不久前的9月2日,MiniMax发布了视频模型abab-video-1。MiniMax还透露,在过去的一个月内,其大模型创意平台海螺AI网页版访问量增速超800%,登上AI产品榜(web)9月全球增速榜、国内增速榜双榜单TOP 1。
南都记者以“两只猫在厨房,左边的猫在包饺子,右边的猫在切韭菜,镜头聚焦到包饺子的猫手上,它包得特别快”为提示词,向视频模型中输入一张有两只白猫的原始照片。
实测发现,MiniMax视频模型能实现上传的图片,也能理解输入的提示词。输出的视频里,画面中出现了两只猫,一只在包饺子,一只在边包饺子边切韭菜。不过,虽然MiniMax视频模型基本完成了视频输出的主要任务,也基本做到了转场、镜头切换和聚焦,但在南都记者实测中,输入图片中的猫和生成视频中的猫并不完全一致,图片中的两只白猫在视频中变成了两只黑猫。
实测视频↓↓
MiniMax还表示,海螺AI视频同步上线了提示词优化功能。开启时,模型会自动优化用户的提示词,以提升视频生成质量。
此前南都记者针对阿里云通义、字节即梦、快手可灵、智谱清影、爱诗科技pixverse、生数科技vidu 六款目前已上线图生视频功能的视频大模型做了测评。实测发现,相较于文生视频功能,目前大多数的视频模型的图生视频功能仍有很大提升空间。大多数视频模型只能粗浅表现让照片中的两只猫动起来,能理解提示词并在视频中加入新物品、加入转场效果的视频模型并不多,也更容易出现“翻车”现象(详见此前报道>>>)。
采写/视频:南都记者 林文琪