马斯克不满Grok表现,专家担忧他试图按个人偏见打造Grok 4

问AI · AI偏见如何威胁民主进程?

图片

据美国有线电视新闻网报道,上周,埃隆·马斯克旗下xAI的聊天机器人Grok在回应X平台用户关于政治暴力的问题时表示,自2016年以来,右翼政治暴力多于左翼,引发马斯克不满。

马斯克发文批评:“这完全错误,Grok在重复传统媒体的论调。”尽管Grok引用了国土安全部等官方数据,马斯克仍承诺在三天内推出重大更新,称要“重写整个人类知识库”,并呼吁X用户提供“政治不正确但真实”的事实,以优化模型训练。

他表示:“未经校正的数据训练模型包含太多垃圾。”马斯克还宣布,Grok 4将于7月4日后发布。

专家担忧,全球首富马斯克可能试图让Grok反映其个人世界观,这可能导致更多错误和偏见问题。人工智能正深刻影响工作、沟通和信息获取,涉及软件开发、医疗和教育等领域。Grok已嵌入X平台这一热门社交网络,旧的错误信息防护机制被移除,其影响力不容小觑。

加州大学伯克利分校AI研究员戴维·埃文·哈里斯表示:“这是一场长期争论的开始,关于AI是否应提供事实信息,还是其开发者可随意让其偏向自身政治倾向。”

知情人士透露,马斯克的顾问提醒他Grok不能仅反映个人观点,他对此表示理解。xAI未回应置评请求。

对Grok偏见的担忧。数月来,用户质疑马斯克是否在引导Grok反映其世界观。5月,Grok在无关查询中提及“南非白人种族灭绝”,称其“被指示接受这一说法”。马斯克出生于南非,该国“白人种族灭绝”说法存在争议。

xAI随后表示,一次“未经授权的修改”导致Grok对政治话题做出不当回应。Cohere联合创始人尼克·弗罗斯特认为,马斯克试图打造一个反映其观点的模型,“这会降低用户体验,除非用户完全认同他的信念。”

图片

重新训练Grok的挑战。弗罗斯特表示,OpenAI、Meta和Google等公司常更新模型以提升性能,但从头重新训练Grok以剔除马斯克不认同的内容耗时耗资,且可能降低用户体验。他警告:“这几乎肯定会增加偏差,恶化模型表现。”

另一种方法是调整提示或模型权重,以改变Grok行为,而无需完全重训。Vermillio首席执行官丹·尼利表示,xAI可针对特定领域调整权重和数据标签,优化问题区域。

马斯克未透露Grok 4的具体变化,仅表示将采用“专用编码模型”。

AI中的偏见问题。马斯克曾宣称Grok将“最大限度追求真相”,但所有AI模型都因人类选择训练数据而带有偏见。尼利表示:“互联网数据本身就有倾向,AI无法完全避免。”未来,用户可能根据世界观选择AI助手,但弗罗斯特认为,带有明显倾向的AI会因缺乏实用性而受欢迎程度降低。

尼利相信,权威信息源最终会重新占据主导,但通往这一目标的道路“充满困惑,甚至可能威胁民主”。

在朋友圈分享这个故事;关注『跟着大事跑的人』,每天了解全球热点!