近日,杭州互联网法院对全国首例生成式AI“幻觉”侵权纠纷案作出一审判决,认定涉事AI平台已尽合理注意义务,不存在过错,驳回原告全部诉讼请求。这起案件的宣判,不仅让AI“幻觉”引发的权益纠纷进入公众视野,更抛出了一个核心命题:AI产业飞速发展的当下,如何在技术创新与风险规制之间找到平衡点?
图片来源:视觉中国
案件源于2025年6月,梁某使用某科技公司开发的生成式AI查询高校报考信息时,AI生成了该高校主校区的不准确信息。即便梁某指出错误,AI却坚称存在这个校区,并回答“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉。”直到梁某向AI提供该高校的官方招生信息,AI才承认生成了不准确的信息。梁某认为,AI生成错误信息对其构成误导,而且承诺赔偿,于是提起诉讼,要求研发公司赔偿9999元,最终因未能举证实际损失被驳回。
其实AI幻觉现象屡见不鲜,为何会出现该现象?
“人”非圣贤,孰能无过,AI也有“迷糊”的时候。在日常生活中,AI“幻觉”并非个例,其背后是技术逻辑的天然局限。从原理来看,AI依托公开合规信息训练,通过大语言模型掌握语言关联规律,但并未真正“理解”知识。导致“幻觉”的核心原因有二:一是数据层面存在碎片化、覆盖不均、更新滞后等问题,且难以精准识别隐蔽虚假信息;二是泛化能力不足,无法像人类一样触类旁通,面对未学习过的场景只能生硬套用既有规律,最终输出偏差内容。
这起案件更敲响了公众理性使用AI的警钟。
现实中,盲目信任AI的代价屡见不鲜:西安一女士因AI误诊误用药物导致病情加重,国外一学生依赖AI写论文却被伪造的参考文献拖累,如今也有用户盲目采信AI炒股建议……
公众在面对AI生成的信息时,应当如何正确对待?
AI只能作为“辅助工具”而非“决策专家”。尤其在升学、医疗、投资等关键领域,必须通过官方网站、专业人士、权威数据等渠道交叉验证,摒弃“一键采信”的惰性思维,才能规避权益受损风险。
技术无过错,但使用有边界,平台与监管需共同筑牢防线。对平台而言,既要加大算法迭代投入,优化数据筛选机制,拓宽训练数据的覆盖面与时效性,从源头减少“幻觉”;也要针对医疗、法律、金融等高风险领域,强制增设人工复核环节,明确标注AI生成内容属性,杜绝不实承诺,同时建立商业广告与普通信息的区分机制,防范利益干扰信息客观性。
对监管层面来说,这起首例案件为AI治理提供了重要司法参照。后续需加快构建适配生成式AI的规则体系,细化平台“合理注意义务”的判定标准,清晰界定平台、开发者与用户的权责边界,建立高效的维权渠道与纠纷解决机制。同时鼓励行业自律,出台技术规范与伦理准则,让创新发展不偏离合规轨道。
AI作为科技革命的核心驱动力,发展潜力毋庸置疑,但技术进步绝不能以牺牲用户权益为代价。唯有公众保持理性认知、平台扛起主体责任、监管筑牢制度防线,才能让AI在创新与规范的平衡中真正服务于人,为社会发展注入持久动能。