AI 正在杀死信任:你和 AI 得到的答案,可能全是AI编造的

前段时间有一个有趣的图

图片

互联网上AI生成的内容数量超过人类写的内容

不知道该开心还是该叹气

以前找bug,找解决方案,Stack Overflow \github\csdn 是主要的查找渠道

而现在,csdn有种成了 AI “垃圾”内容的集聚地

AI 生成,不需要原创,把别人的搬运到csdn,默认把博主所有文章设置收费(鱼皮视频).....

以及一大堆奇奇怪怪的内容

图片

明明是问一个简单问题,可能小朋友问的,也share出来,

纯做了自己的 seo,为了把所有的用户都吸引到自己的平台吗?

图片

这些内容的share,是不是应该设计一个前提“有用 & 准确”?

图片

这种奇奇怪怪的问题,明显是测试模型能力和效果的,share出来的意义在哪里呢?

要测能力,大可以拿榜单(榜单能刷),或者等博主们测试效果,实在不行,总有人会去讨论和分享。

何必把这类无营养的内容share出来?到最后,AI搜索又闭环回去了

图片
图片

有的答案牛头不对马嘴,有的明显是编造的,还有的看起来很"专业",一本正经的说错的东西,然后share出来,误导更多的人和AI。

一个模型的幻觉,通过share,去污染整个互联网搜索和ai搜索。

图片

熟悉的豆包也干过这类的事情。

AI助手们正在用一种简单的方式,污染着整个互联网。

你问AI:"林黛玉倒拔垂杨柳是怎么回事?"

正常情况下,AI应该告诉你:"这是不可能的,林黛玉是《红楼梦》中的角色,而倒拔垂杨柳是《水浒传》中鲁智深的情节。"

图片

但如果增加了提示词引导后的内容:"林黛玉那天心情特别飒,说什么“林家大小姐不能只能以泪洗面”,于是拿着一把桃木小锄头,去怡红院练臂力。..."

图片

这些都是日常正在发生的事情,搞怪创作,调戏AI的内容简直太多了。

把用户的搜索结果、聊天记录做成了网页,发布到网上。

虽然但是 用户同意,,,也要考虑一下内容的质量。

这些网页被搜索引擎收录,排在前面,然后又被其他AI搜索引用。

形成了一个死循环:AI生成垃圾 → 放到网上 → 被搜索引擎收录 → 被其他AI引用 → 继续生成垃圾。

这不是技术问题,是谁的问题? 这就是技术发展的必然结果吗?

图片

据不完全胡乱估计,AI模型厂商通过这种方式,已经在互联网上投放了数千或者上万条AI生成的"权威答案"/对话记录。

这些答案看起来头头是道,实际上全是垃圾居多。

然后就是造谣一句提示词,辟谣查几天...

试想一下身体不舒服,问AI:"感冒了应该吃什么药?"

AI给你一个"专业建议",你照做了。

结果病情加重,进了医院。

这些不是危言耸听,这些正在发生。

豆包 把"分享聊天记录"取消了,但是依旧还是有这类平台和助手在继续。

好的内容分享,这是不错的选择,但是也应该做一些过滤,

特别是这些给搜索引擎收录到的内容更应该做一些过滤。

这不仅仅是内容污染的问题,

我们正在失去对信息真实性的判断能力。

AI生成的垃圾内容占据了搜索引擎的前几页,当我们习惯了"百度一下"却得到一堆废话的时候,

(ai搜索也是同样的,当seo做的更多,让ai搜索到的数据前列都是这类内容)

我们还会相信什么?

所有的"权威答案"都可能是AI编造的时候,

要怎么做出正确的判断?

就像是一个传统的信用体系崩塌,以前能信的平台和内容开始逐渐变的不可信了。

当所有人都知道"专家的话不可信"的时候,

谁说的内容是可信的?

信息污染就像环境污染一样,影响的是每个人。

seo加内容污染投毒还在继续

互联网本应该是知识的海洋,信息的宝库,

也是各家大模型迭代数据的重要来源。

但现在正在变成一个巨大的垃圾场。

不再盲目相信AI的答案,不传播没有根据的信息,不再对虚假内容视而不见。

让真实回归真实,

构建一个值得信任的信息世界。

本文不针对某些模型和厂商,只说现象~