Hello朋友们~今天是拼命学习的Simonlin!
我就说晚睡能学到好东西吧...
闲着无聊在网络上闲逛,让我发现了三个宝藏AI生图提示词。
先给大家看看效果,获取方式在文章末尾。
第一个:电子设备拆解(
图1
)
第二个:用Json代码将生成的图片还原(
图2
图3
)
第三个:城市高楼微缩建模(
图4
图5
图6
)
我想跟大家分享一下在实操过程中,我的一些想法。
在使用“城市高楼微缩建模”这个提示词的时候,我是先把它发给了Nano Banana Pro,因为它更新后,拥有了相对全面的世界知识。
我想着:“福州还是有排面的吧。”结果它一开始生成的图片一出来,我就觉得不对劲了...
哪怕我在福州只是待了四年,也从没见过这种设计风格的建筑...
所以,抱着严谨的态度,我又去问了GPT...
提示词:验证一下,照片中的建筑物是真实存在的吗?调用网络搜索,若有误差,对比实际数据,给我答复。
结果它的回答证实了我的猜想(
图7
)。
这就让我感觉到,交叉验证的必要性。
为什么?
大模型生成的内容,有时候会出现“幻觉”,也就是把原本不符合事实的一件事,说的头头是道,煞有介事的样子,就给人带来了误导。
怎么做?
当向AI要的交付物,可能是文字内容,可能是图片内容,对你来说很重要的时候,你一定得将A大模型模型生成的结果,发给B大模型,甚至是C大模型,甚至还可能有D大模型,多次反问,验证它的真实性。
对于事实性内容,尤其是如此。
其原理在于,大模型的本质之一,就是“预测”。简单来说,“我今天要”这几个字,在大模型的眼里,它会先进行分解,再根据概率匹配合适的词。
由此,比如“出门”这个词汇的概率比“上班”更高,那么这句话就很可能是“我今天要出门”。
这也是为什么,我们经常觉得同一个主题给到大模型,它生成的内容都非常的类似原因。
而不同模型的能力是不同的,侧重方向自然也不一样,“交叉验证”就像考试后对答案,一个人说“这题选A”,可能只是他自己的误差。
当所有人都说“选A”,那大概率就是真的。
这就是“不把鸡蛋放同一个篮子里”。
所以,当我们越来越依赖AI,我们更加要小心对待它给我们的东西。
希望我们都能在AI时代里保持理性,拥有独立思考的能力。
提示词获取:
先求个关注~然后在我公众号后台发送:
“宝藏提示词”,我会将以上提到的三个提示词,通通发你。
下次见。