1.AI幻觉现象指模型生成的内容看似真实,但实际上并不符合事实或上下文。
2.幻觉的产生与大语言模型的训练方式和AI感知世界的方法有关,数据是幻觉的根源。
3.由于幻觉,AI系统可能引发经济、法律甚至生命安全方面的问题。
4.目前,人工智能领域针对幻觉还没有根本上的解决方案,但已提出优化训练数据和设置工程性防护措施等方法。
以上内容由腾讯混元大模型生成,仅供参考
本文节选自《AI,一败涂地?》
本文约80%的内容系借由AI工具撰写
2022 年 11 月,当人们还沉浸在 ChatGPT 带来的惊艳之时,有小部分的用户很快发现了这个聊天机器人的问题:它解决了此前所有 AI 机器人都有的问题——“不像真的”,却带来了全新的问题——“它说假话也像真的”。
现在我们知道了,在人工智能领域有一个专门的术语来形容这种“一本正经的编造假话”,它被称之为“幻觉”。
早在 1995 年,计算机科学家 斯蒂芬·塞勒(Stephen Thaler)在当时的人工智能背景下引入了幻觉的概念,这一概念最初被用于指代神经网络中自发产生的新想法或概念,因为这与人类的幻觉类似,没有明确的外部信息输入。因此,在很长一段时间里,在 AI 领域“幻觉”是一个带有一定褒义色彩的术语,“有幻觉”意味着你的 AI 具备一定创造性能力。
如果生成的事实性内容可以在可靠来源中找到,但存在矛盾,则称为事实不一致。例如,当被问及“第一个登上月球的人”时,模型可能会错误地回答“尤里·加加林”,而正确答案是尼尔·阿姆斯特朗。 如果生成的事实性内容无法根据已有的现实世界知识进行验证,则称为事实捏造。例如,当被问及“独角兽的历史起源”时,模型可能会编造出一个看似合理但实际上毫无根据的答案,比如,“独角兽在公元前 10000 年左右的亚特兰蒂斯平原上漫游,它们被视为神圣的生物,经常与皇室联系在一起”。
如果模型的输出偏离了用户的指令,则称为指令不一致。例如,用户明确指示将英语问题翻译成西班牙语,但模型却直接回答了这个问题。 如果模型的输出与用户提供的上下文信息不符,则称为上下文不一致。例如,用户提到尼罗河起源于非洲中部的大湖地区,但模型却回答尼罗河起源于非洲中部的山脉。 如果模型的输出在逻辑上自相矛盾,则称为逻辑不一致。例如,在解决数学方程式时,模型的推理步骤正确,但最终答案与推理链不一致。
本文节选自《AI,一败涂地?》,全书内容请见: