刊物介绍
《人工智能资讯周报》探讨人工智能对公共政策、治理和政策建议的影响,探索人工智能对商业、政治和社会的影响,以确定潜在的研究领域,探讨可能的合作研究和机构伙伴关系。本刊着重提供中国人工智能发展动态和对人工智能的思考,同时关注全球范围内人工智能相关研究动态。本刊旨在通过可靠的研究,来帮助企业、研究机构和公民预测和适应技术引领的变化。和成就。自2017年起,每年的5月30日被设立为“全国科技工作者日”,以鼓励和支持科技工作者的创新和贡献。
作者:周逸清
主编:刘仪
摘要
2024年美国总统大选的一系列人工智能影响案例证明,科技巨头旗下的AI产品不仅生成虚假政治信息,且这些大型科技公司的平台还可以推动软性误导性政治信息的传播,甚至有些科技平台本身表现出对总统候选人明显的倾向性,科技巨头的人工智能产品在选举生态中发挥着不可忽视的重要影响力。为了应对这些问题,科技巨头如Google、Meta、OpenAI和X等,通过签署《打击在2024年选举中欺骗性使用人工智能技术的协议》,承诺采取措施减少AI在选举中的负面影响,包括开发新技术降低风险并妥善处理检测到的虚假内容等。然而,这些科技巨头的承诺本质是自愿性质的,行动存在打击力度不够,以及在技术层面监管误导性政治宣传内容的有效性问题。随着承诺为科技创新开绿灯的特朗普赢得选举,未来四年美国的人工智能等新兴技术将迎来宽松监管时代,在可预见的未来,科技巨头的人工智能产品将继续在美国的政治选举生态中施加不可忽视的影响力。
图源:abcNEWS
皮尤研究公司的一项最新调查结果显示,人工智能与科技巨头对于2024年美国大选可能造成的潜在危害成为美国民众对于选举的普遍担忧。39%的美国人认为,在总统竞选期间,人工智能将主要用于不良目的,57%的美国成年人担忧有人或组织将利用人工智能来创建和分发关于候选人和竞选活动的虚假或误导性信息。77%的受访者认为,科技巨头有责任防止其平台被滥用以影响美国大选,而只有20%的人相信科技巨头能够真正防止其平台和产品的滥用。
一、科技巨头对美国大选的影响实例
在人工智能领域,科技巨头在美国总统选举中的角色可划分为两大类:第一类为信息生产者,其产品通常基于生成式人工智能技术,使得用户能够通过这些平台生成或创造与选举相关的文本、图像、音频和视频等信息;第二类则是信息分发者,其产品作为人工智能信息传播的渠道,推广由AI生成的文本、图像、音频和视频信息。信息生产者的主要影响在于生产可能含有错误或误导性的信息,而信息分发者则可能通过选择性地传播或抑制不同政治立场的信息,从而对美国大选产生影响。这种影响可能表现为对信息有意识或无意识的操纵,进而影响公众舆论和选举结果。
信息生产者
谷歌Bard:2023年,布鲁金斯学会(BROOKINGS)评估了谷歌的AI聊天机器人Bard(现Gemini)对于政治回答的表现。研究发现,Bard对于特朗普和拜登的评价时在篇幅和褒贬倾向上存在一定的差异。被问及对特朗普的评价时,Bard给出了简短而笼统的回答,没有具体说明特朗普的政绩,并对特朗普进行了笼统的批评。而在评价拜登的总统任期时,Bard给出了一长段详细的评论,答案中还包含了关于拜登如何提升执政满意度的方法。
Midjourney:2024年6月,反数字仇恨中心(Center for Countering Digital Hate, CCDH)测试了流行的人工智能图像生成器Midjourney能否有效防止生成关键政治人物的误导性图像。尽管 Midjourney 承诺在2024年大选前阻止用户创建两位总统候选人的图像(当时拜登还被视为民主党候选人),但在50%的测试中,它还是创建了具有误导性的拜登和唐纳德·特朗普的图像。CCDH的报告发现,用户可以通过提示词中添加标点符号等方式轻松绕过平台监管,创建此类图像。
OpenAI:2024年6月,ChatGPT在回答CBS新闻记者有关摇摆州选民投票基本信息的问题时给出了具有误导性的答案。在被问到北卡罗莱纳、宾夕法尼亚、威斯康星州、密歇根州投票流程的问题时提供了不完整,甚至是错误的信息,而这些都是一般选民可能会想要知道的问题,包括投票的时间、地点、方式及其他要求。尽管OpenAI曾声明它会将提问2024美国选举相关问题的用户引导至CanIVote.org这一关于美国大选信息的权威网站,但事实上在被问到相关问题时该平台并没有出现相应的引导界面。
X:2024年9月,拜登宣布退出总统竞选不久,网上开始流传民主党新候选人哈里斯无法接替拜登的虚假消息。这一消息声称,在美国的九个州,提交总统候选人名单的截止日期已过。虚假信息源自X(前Twitter)内嵌的聊天机器人Grok,并在X上迅速传播,获得了数百万的浏览量。虽然Grok后续对虚假信息进行了纠正,但这一事件仍引发了关于Grok信息准确性的巨大关注。
信息分发者
谷歌:2016年美国总统大选期间,SourceFed报道谷歌的搜索推荐隐藏了对希拉里·克林顿不利的词条。当研究人员输入“希拉里·克林顿 cri(Hilary Clinton cri)”时,谷歌建议词条“希拉里·克林顿犯罪改革(crime reform)”、“希拉里·克林顿危机(crisis)”和“希拉里·克林顿 1994 年犯罪法案(Crime Bill 1994)”。输入“希拉里·克林顿 ind(Hilary Clinton ind)”一词时,谷歌建议搜索“希拉里·克林顿印第安纳州(Indiana)”或“希拉里·克林顿印度(India)”。但在 Yahoo! 和 Bing 中输入相同的不完整搜索词时,返回填充是“希拉里·克林顿起诉书(indictment)”,且“希拉里·克林顿起诉书”的搜索次数是“希拉里·克林顿印度”的八倍。
谷歌:2020年,《华尔街日报》发现谷歌的搜索抓取功能手动屏蔽了某些右翼新闻网站。报道称,谷歌搜索存在一个含有数百个网站的“黑名单”,根据该名单阻止某些网站出现在新闻或特色产品栏目的搜索结果中,这些网站中包括 The Gateway Pundit 和 The United West,但它们可能会出现在自然搜索结果中。该媒体指出,谷歌的工程师手动“更改算法”,包括对搜索页面上的结果进行“调整”,还“提升了一些大型网站的搜索排名”。
X:2024年10月,OPB报道,飓风海伦给美国多地带来洪涝灾害后,一张由人工智能生成的,由一个哭泣的孩子在船上抱着小狗的照片在网上广泛传播,X上一些展示该图片的帖文甚至得到数百万的浏览量,引起了很多用户的激烈反应,其中包含着大量批评拜登政府应对灾难的措施的言论。
X:2024年11月,德国之声报道,开源情报研究人员爱丽丝·托马斯(Elise Thomas)称社交平台X上涌现了一批支持特朗普竞选美国总统的AI机器账号,这些都是拥有蓝标的认证账号。她推断这批账号由AI运营的原因一方面在于此类账号在帖文中使用“特朗普2020大选”(#Trump2020)的标签,有的账户甚至明确声称“我是OpenAI开发的人工智能助手,可以帮助用户完成各种任务”。这些账户组成了社媒平台上的人工智能网络,通过与真实用户的互动,影响美国大选。
二、 科技巨头的应对举措
2024年是超级选举年,据统计,世界上有76个国家或地区在这一年举行大选,覆盖世界总人口的41%。为了应对人工智能虚假信息可能对2024年各地选举造成的破坏性影响,2024年2月,谷歌、微软、Meta、OpenAI、Tiktok、X等25家世界领先的科技巨头在慕尼黑签署了《打击在2024年选举中欺骗性使用人工智能技术的协议》(Tech Accord to Combat Deceptive Use of AI in 2024 Elections)(后称《协议》)。这些科技巨头也单独发布政策或声明,以明确各自应对人工智能对美国大选的潜在危害的措施。在应对AI信息生产者造成的影响方面,科技巨头倾向于限制选举相关AI信息的生产,以达到减少人工智能生成的错误或误导性信息对于2024年美国总统选举的影响。在应对AI信息分发者造成的影响方面,科技巨头倾向于采用AI信息标记和审查的方式帮助广大受众辨别信息的真实性。
针对AI信息生产的措施
在《协议》中,科技巨头共同承诺开发并实施识别人工智能生成内容的新技术,降低欺骗性人工智能选举内容的风险。推进音视频和图像的溯源,在适当情况下将机器可读信息附至用户使用AI模型生成的音频、视频和图像内容中。同时评估协议范围内的人工智能模型存在的风险,以便更好地了解AI滥用的载体,从而进一步提升对滥用人工智能生成欺骗性选举内容的控制。
Google在名为“针对11月美国大选的准备”(Preparing for the U.S. elections in November)的文章中提到了Google为维护美国大选正常秩序关于AI使用的监管政策。在生成式AI产品方面,Google宣布禁止Gemini应用及集成了Gemini AI功能的其他软件响应选举相关的查询,对于Gemini上的选举查询,Google称它会将用户链接到Google检索。
为了消除、检测和处理欺骗性内容,OpenAI禁止将其AI工具用于政治竞选、冒充官员或歪曲投票过程,训练AI系统拒绝生成真实人物的图像请求;当用户向ChatGPT询问选民登记或投票地点时,OpenAI称会将他们引导到官方网站。
针对AI信息分发的措施
《协议》中提到,科技巨头将采用检测技术与内容审核服务,发现并定位网络平台上的虚假人工智能选举内容,鼓励创作者与公众报告人工智能生成的选举内容。以言论自由和安全为原则,处理检测到的虚假人工智能选举内容;在采取行动时,还将特别注意内容的语境,着重保护教育、记录、艺术、讽刺和政治表达。
2023年11月28日,Meta发布题为“Meta如何应对2024年大选”(How Meta Is Planning for Elections in 2024)的文章,提到Meta将延续一贯的政策,建立事实核查网络评估旗下平台是否存在虚假信息。同时,Meta要求广告商公开披露使用AI和其他电子技术生成广告内容的情况。2024年7月1日,Meta在更新后的“我们对人工智能生成内容和操纵媒体进行标记的方法”(Our Approach to Labeling AI-Generated Content and Manipulated Media)一文中指出,在不违反其他内容政策的情况下,Meta不会移除AI生成的内容,但会对检测到行业标准AI图像标记的内容和用户自行报告由AI生成的内容进行标注。
2024年8月30日,Google发布名为“针对11月美国大选的准备”(Preparing for the U.S. elections in November)的文章,提到Google建立专门的情报团队负责监控并掌握滥用AI的趋势,借助人工智能工具监控平台,了解Google生态系统中存在的问题和网络攻击。Google将SynthID嵌入式水印植入该公司旗下的生成式AI工具制作的内容,包括文本、音频、图像和视频,利用技术手段提高对AI生成内容的辨别。同时,Google还要求选举内容制作者披露在广告和YouTube视频中的使用数字修改或AI合成的内容。此外,Google今年2月8日加入了“内容来源和真实性联盟”(C2PA),并作为其指导委员会成员,帮助开发跨平台使用的技术。
2024年5月,OpenAI发布“OpenAI如何应对2024年全球大选”(How OpenAI is approaching 2024 worldwide elections)的文章,宣布了该公司为防止AI危害大选的制定的ChatGPT和API的使用政策。Open AI加入“内容起源与真实性联盟”(C2PA)指导委员会,为DALL·E 3(该公司最新的图像模型)在ChatGPT和OpenAI API中创建和编辑的所有图像添加C2PA元数据标注。同时进行小规模研究非公开模型投资溯源技术,这将为文本到视频模型Sora集成C2PA元数据,并在OpenAI定制语音生成模型Voice Engine中加入水印。
三、科技巨头行动的局限
科技巨头行动的局限
第一,科技巨头对AI的监管缺乏透明度和有力的问责。在《打击在2024年选举中欺骗性使用人工智能技术的协议》中,科技巨头的承诺本质上是自愿的,因而无法强制执行协议内容,协议也没有设定任何标准来衡量签署者在实现这些目标方面的进展。虽然各方在《协议》中一致同意保持监管工作对公众透明公开,但协议中没有规定公司必须报告其进展的机制,也没有为公众提供跟踪其进展的基准,这导致了透明度和问责的缺失。各大公司并未形成制度化的曝光模式,在打击危害性AI运动的各个阶段的进展与成果也未得到详细公开。
第二,科技巨头的自我监管无法保证彻底消除生成式AI产生的虚假信息和误导性信息。即使Open AI和Midjourney等生成式AI平台明确规定禁止生成大选相关的数字信息,用户仍然能通过变换措辞的方式生成选举相关的误导性内容,或使用AI聊天机器人而获取错误的选举信息。科技巨头对于生成内容的禁令在技术层面上并未得到真正的落实,借助生成式AI平台得到虚假信息的现象依然无法杜绝。
第三,对于具有煽动性的软性造假内容,科技巨头的监管政策打击效果有限。现有政策为了保护个人言论自由,考虑到这类信息中含有的幽默、讽刺、艺术和其他形式,使软性“造假”蓬勃发展。例如YouTube的官方选举政策就声明,有些内容虽然违反了平台政策,但只要具有教育、纪实、科学或艺术性质,影片就可能留在YouTube平台上。在2024年美国总统大选中,被竞选双方广泛用于政治宣传的AI生成表情包就是通过幽默的方式传播信息,培养社群共同体意识。而AI工具的便捷可用性促进了表情包的生成,促进政治表情包成为美国大选舆论战的一部分,它们的虚假和煽动性信息将在幽默讽刺外衣的掩盖下广为流传。
四、结语
2024年美国总统大选中,一系列案例揭示了科技巨头旗下的人工智能产品不仅能够制造虚假的政治信息,还可能助长误导性政治信息的传播。某些科技平台甚至显示出对特定总统候选人的明显偏好。这些科技巨头的AI产品在选举生态中扮演着举足轻重的角色。为了应对这些挑战,包括Google、Meta、OpenAI在内的科技巨头通过签署《打击在2024年选举中欺骗性使用人工智能的技术协议》,承诺减少AI在选举中的负面影响,包括开发新技术以降低风险,并妥善处理已检测到的虚假内容。然而,这些承诺本质上是自愿的,在技术层面上对误导性政治宣传的监管力度和效果都显得不足。随着支持科技创新的特朗普赢得选举,美国预计将迎来对AI等新兴技术监管较为宽松的四年。在可预见的未来,科技巨头的AI产品将继续在美国政治选举生态中发挥其影响力。
编辑:郭紫馨
责编:邹明蓁