豆包刚更新的这功能,真要把PS给干懵了

AIGC技术发展到现在,估计大伙对「文生图」都不陌生了。

随随便便输入一句话,AI就能根据描述,生成符合你需求的图片。

而且随着模型迭代,生成效果也越来越好。

图片

不过这方面应用的槽点,也不是没有。

不知道机友们发现了没,目前大多数大模型,只能做到生成图片。

但你要是让它编辑图片,比如把图片里的狗子换成猫咪。

那抱歉,做不到。

有的AI直接装傻,以为你要“说图解画”,不吭一声就讲解起图片信息。

图片

还有的AI,虽然已经支持了AI图片编辑。

但大伙也发现了,它只有变清晰、风格转换、扩图和局部消除四个选项。

图片

这样的问题,也是直到今年年底,才得到了完美解决。

谷歌前几天不是推出了Gemini 2.0模型嘛。

就是视频里面的这个⬇️
2.0的新特性就包括“一句话编辑图片”。

图片

给它一张图,然后要求它把车子改成敞篷式,再换成黄色配色。

Gemini 2.0都能做到,而且还把主体和背景的一致性保持得很好。

图片

唯一的问题是。

这玩意还是个期货,得明年1月才开放图片生成和编辑。

图片

也是在这绝望之际。

八弟才提醒了我,前阵子其实国产的豆包大模型,早就把这事儿给办成了。

图片

然后我也去试了一下。

至于实际的图片编辑效果,机哥只能说一句——大受震撼

介么说吧。

以前咱们想把雷总手上的麦克风换成油条,起码得在PS捣鼓个小半天,而且还贼考验技术。

但现在时代变了,只需一句提示词:把麦克风换成油条。

嗯,喜闻乐见的图就出来了。

图片

更具体的使用方法也不复杂。

在豆包网页版上传一张图片,选择「智能编辑」,再对它提P图的要求就完事儿。

图片

先从简单的要求开始。

机哥就拿很经典的「蒙娜丽莎的微笑」,上传给豆包。

图片

接着咱再给他提要求。

“把蒙娜丽莎的头发换成红色,背景换成海滩”。

本着对过去使用AI大模型编辑图片的刻板印象。

我以为豆包也会来个360°大翻车。

结果这AI还真把需求,给满足到位了。

图片

要是再上点难度,让红发蒙娜丽莎抱着红色的猫,照样没啥难度。

提示词:把蒙娜丽莎的头发换成红色,背景换成海滩,手上抱着一只猫。
图片

经过和原图的仔细对比,大伙其实能发现。

蒙娜丽莎的五官、表情和动作都没啥变化,就连图片的风格也保持了原汁原味。

不会因为我要求背景换成海滩,就把整张图改成现代风。

啊当然。

实在想让蒙娜丽莎现代化一点,也不是不行。

比如这张图,就是我让蒙娜丽莎,站在广州城中村的街头拍照。

提示词:蒙娜丽莎站在广州城中村的街头拍照,风格现代化。
图片

你就说有没有内味吧。

不过在“一句话修图”的过程中,有一个小细节需要注意。

豆包目前主要提供了两个修图选项。

一个是「参考风格」,另一个是「智能编辑」。

图片

如果你选择了前者,那修改出来的图,人脸很有可能会随机更换。

因为它模仿的是风格,而非固定主体进行修改。

一个小细节,记好笔记。

图片

除了比较简单的更换颜色。

豆包目前也能实现大面积物体的替换。

恰逢最近天气转凉,还特意给雷总换了一套保暖又好看的东北棉袄。

图片

不过和上面相比,这里换了衣服之后的人脸,变得没那么像雷总了。

图片

这可能也是目前,AI局部更换物体的局限性。

但整体测试下来,我感觉豆包AI对人像图片的修改,在大多数情况下都表现得很优秀。

那是不是就意味着。

它对其他物体的修改和替换,会更加驾轻就熟呢?

我当场就拿小米SU7 Ultra试了一波。

图片

上传完成后,我让豆包给汽车颜色换成蓝色。

咋说呢,其实整体表现还行,车身设计和背景都和原图高度保持一致。

就是车上的小米LOGO被改乱了。

考虑到PS自己改色,都得花个大半小时,这效果完全能接受。

图片

再来个高难度一些的。

让豆包把车型改成SUV,表现也还不错。

图片

再或者说,给最近很火的小米YU7整个Ultra版本,同样没啥压力。

图片
图片

更细节的是什么呢?

豆包根据我们需求修改完图片后,还提供「继续编辑」功能。

换句话说,你可以像一个财大气粗的甲方一样。

对业务能力拉满的乙方,一次又一次地提修改要求,直到你满意为止。

图片

什么修图啊,换装啊,美化啊,添加或者删减元素啊。

都是一句话就能完成的事儿。

不仅仅是专业设计师用得着,咱们平时这些高强度冲浪的乐子人,也能用这AI魔改出一些好玩的梗图。

比如让一个打十个的叶问,穿上蝙蝠侠战衣,压迫感更胜一筹。

提示词:穿上蝙蝠侠战衣
图片
图片

让儒雅随和的雷军,戴上墨镜拿着冲锋枪,在复仇者联盟基地硬刚灭霸。

不过从修改图的效果能看出。

一旦需求太多,要改动的部分太复杂,人物的脸部细节也难免会受到影响。

提示词:人物戴上墨镜,手上拿着冲锋枪,背景是复仇者联盟基地
图片
图片

但总的来说,瑕不掩瑜嘛。

放在以前,别说一句话让AI指哪打哪地编辑和修改图片了,同样的提示词,AI都很难生成出一模一样的图片。

这种在过去要花一两个小时P图的操作。

如今只需上传一张图片,再用键盘敲下一行字,完事儿。

图片

至于豆包是怎么实现这犹如魔法般的功能。

机哥就不展开细说了,技术原理啥的,机友们感兴趣的话可以去查阅豆包的官方技术论文。

作为普通用户,去感受和体验就OK。

图片

啊对了。

比如我这里写的提示词是:

地铁六号线站点中文名为“好机友机哥”,添加一些霓虹灯元素。

结果AI生成出来的图,效果还挺不错,字体很板正,整体符合我要求。

图片

这波体验测试下来,算是给机哥来了点小震撼。

大概在一年多以前,我写AIGC相关的文章时,还在吐槽AI大模型数不胜数,应用场景却没啥变化。

可谁也没想到,AI技术会迭代和普及得如此之快。

手机上的大模型就不用多说了,小米超级小爱、OPPO小布、vivo蓝心小V、荣耀YOYO、华为小艺,全都吃上了大模型。

什么AI消除、扩图和画质增强,也都基本给到位了。

图片

至于各家通用大模型的厂商。

咱们也能看到,各种各样的新玩法层出不穷。

比如腾讯混元的「深度搜索」、通义千问的「海量智能体」,还有如今豆包的「一句话P图、生成中文」。

别说什么行业大佬,我一个普通码字狗用起来,都觉得很爽。

图片

诶不对...

那以后要是“一句话写文章”技术成熟了。

总不能,该不会,把我给干失业了吧。

图片来自网络

没想到啊,现在真能一句话P图
↘↘↘