客户端
游戏
无障碍

1

评论

3

2

手机看

微信扫一扫,随时随地看

AI大模型“串号”?输出陌生文件信息,泄露隐私还是AI幻觉?| 网事

AI划重点 · 全文约1638字,阅读需5分钟

1.一名网友在使用AI大模型DeepSeek处理文件时,发现输出的内容中出现了他人的文件信息,引发对AI大模型泄露隐私的担忧。

2.评论区有网友指出,这可能是由于AI幻觉导致,也可能是大模型训练语料中的原始训练数据。

3.然而,目前主流AI大模型均无法直接生成PPT,而是根据表格内容给予PPT制作建议,暂时未出现“串号”现象。

4.深圳理工大学计算机科学与控制工程学院副院长唐继军教授表示,AI大模型大概率出现了“幻觉”,但数据安全问题同样值得关注。

5.专家建议在使用AI大模型时对文件进行脱敏、脱密处理,或采取本地部署形式规避风险。

以上内容由腾讯混元大模型生成,仅供参考

随着DeepSeek等AI大模型的火爆出圈,不少人已经将AI作为“办公搭子”,用于处理日常的文件资料。然而,一名网友近日发帖表示,其在使用AI大模型时,出现了疑似“串号”的现象。“用DeepSeek测试文件,竟然给我发了其他人的资料,涉及金额、申请人、公司项目等具体信息。”该网友担心,AI大模型有泄露隐私的风险。与此同时,评论区也有网友指出,这可能是由于“AI幻觉”导致。

AI输出陌生文件信息

当事网友告诉读特新闻记者,其使用的是腾讯元宝中的DeepSeek模式,向AI提供了一份表格名单后,要求AI加入图片生成一份PPT。“让它把表格内容整理一下,结果输出的内容中发了别人的表格信息出来,是完全不相关的内容。”

从该网友截图的AI输出结果中可以看到,AI生成了上百个项目的列表,显示了疑似企业地址、名称、项目名、申请人、合同金额、业绩等信息,出于对他人隐私的保护,该网友对以上信息进行了打码处理。

图片

AI大模型输出陌生文件信息列表。(受访者供图)

图片

陌生文件中甚至出现了具体合同金额。

对于AI输出的结果感到诧异,该网友追问AI从哪里获得的上述资料,AI则回答称:“看起来我在处理过程中出现了混淆,可能由于系统缓存或测试数据干扰导致的。这是我的严重失误,向您诚恳道歉!”随后AI修正了输出的结果。

对此,有网友认为AI大模型出现了“串号”,错误地将回答他人的内容输出到了该网友的指令下。也有网友分析,可能是出现了AI幻觉,输出结果是AI编造的。还有可能是大模型训练语料中的原始训练数据。

读特新闻记者将多个表格文档发送给主流AI大模型进行测设,结果显示,目前AI大模型均无法直接生成PPT,而是根据表格内容给予PPT制作建议,暂时未出现“串号”现象。值得一提的是,目前DeepSeek和腾讯元宝在联网模式下均不支持上传附件。

图片

DeepSeek和腾讯元宝的联网模式暂不支持上传附件。

AI“招认”使用私聊对话?

这不是AI大模型第一次陷入泄露隐私和AI幻觉的争议。读特新闻记者留意到,此前腾讯元宝在回答网友问题时就曾提到,“腾讯元宝的训练数据包含微信生态内的2000亿条社交对话,腾讯文档超500亿页的企业文档,QQ空间日均产生的10亿条UGC内容。”该回答也遭到网友质疑,私聊内容是否被拿去训练AI。

对此,腾讯混元官方回复称“混元模型的训练过程严格遵守数据隐私规范,绝不会使用任何涉及个人隐私的信息。大模型在生成内容时出现的偶发‘幻觉’现象,现阶段难以完全避免,工程师也在加紧攻坚。”

就在前不久,腾讯元宝因用户协议内容陷入了舆论旋涡。根据最初的《腾讯元宝用户协议》,用户上传至服务平台的内容以及使用服务生成的内容,均被授予腾讯公司及其关联方不可撤销的、可转让的、无地域限制的、永久的、免费的许可使用权。

面对争议,腾讯元宝在3月初变更协议内容,调整为用户上传至平台的内容及其使用AI生成的内容,权利归用户或相关权利人所有,使用服务不会改变权属归属。在法律允许的范围内,腾讯仍保留对用户上传内容和AI生成内容的使用权,但仅限于“提供、维护和改进服务”,包括模型优化、品牌推广、用户调研等。

专家:交给AI的数据需脱敏处理

AI“串号”输出陌生文件信息,AI“招认”使用社交对话训练模型,AI这一系列行为究竟是泄露隐私还是AI幻觉?深圳理工大学计算机科学与控制工程学院副院长唐继军教授接受读特新闻记者采访时表示,AI大概率出现了“幻觉”,但数据安全问题同样值得关注。

AI幻觉是指大语言模型编造它认为是真实存在的甚至看起来合理或可信的信息,简而言之就是“胡说八道”。“AI目前普遍存在‘无中生有’的问题,特别是当结果中出现数字时,编造的可能性很大。AI生成的项目列表中出现的公司是否存在都不一定。”唐继军表示,自己在使用AI大模型过程中也多次遇到编造事实和虚构数据的情况。

“通常而言,AI大模型跟每个用户的对话有专门的‘沙箱’,也就是用户自己的工作区域和数据空间,一般不会出现越界的情况,”唐继军进一步解释称,“但当大模型无法回答用户的问题时,AI为了填空很可能把其他类似任务的数据结果进行整合,生成一个不存在的数据。”

不过,唐继军仍然提醒大家在使用AI大模型时对文件进行脱敏、脱密处理。“一方面针对AI平台的攻击越来越多,另一方面AI会利用数据更新大模型,数据泄露的风险仍然存在。建议核心业务使用大模型时采取本地部署的形式,规避风险。”

(作者:读特新闻记者 严偲偲)

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部