2024年的40场大选,生成式AI最大应用场景中,如何对付真实的谎言


美国政治咨询公司欧亚集团,在对2023年的政治风险进行展望时,把生成式AI排到第三位,说它是一种新型的大规模破坏性武器。
“美国已成为破坏民主工具的主要出口国——不是有意为之,而是推动增长的商业模式的直接后果。由此产生的人工智能 (AI) 技术进步将削弱社会信任,为煽动者和独裁者赋能,并扰乱企业和市场。”
准确地说,这种大规模破坏性武器,2023年处于验证和测试阶段;真正的应用,应该是2024年,全球约40个国家和地区将举行大选,包括美国、印度、俄罗斯、墨西哥等,将成为生成式AI最大的应用场景。
根据前两届美国大选的经验,特朗普(如果最终能成为共和党候选人的话)控制的共和党和民主党,都有可能会采取各种手段赢得这次大选;一方认为美国的国家认同处于危险之中,另一方认为到了美国民主保卫战的时刻了。如果他们会无所不用其极的话,首先想到的,一定会是生成式AI这个潜在的大杀器。
那些敌视美国制度的外部势力,也会对使用这个新技术很有兴趣,会想方设法影响舆论,让美国社会更加撕裂。在举行选举的其他国家和地区,生成式AI技术也会被内外力量用作舆论工具。
这些在技术上已经可以轻易做到:几个人就能建立起一个AI生成的新闻网站,或者运营成百上千个社交媒体账户。机器人账户和虚假博客7X24地输出由AI生成的宣传内容。用机器人低成本生成文字、声音、图片和视频,已经在一些国家开始充斥搜索网站和社交媒。这些体媒体账号多数不采用实名,内容没有来源或者没有事实依据,选取敏感的政治人物和政治话题,采取煽情的手法,使用流量密码作为关键提示词产生图文并茂的“内容”。
我们正在进入一个有图无真相的时代。从Dall.E 3、Midjourney、Stable Diffusion这些文字生成图像的模型,到最近大量出现的视频生成模型,可以轻易地模仿乱真一个人的声音,可以合成一个人的肖像,也可以合成一个人的动作举止,再把声音与视频合成,并且能瞬间完成。在推荐算法的支持下,这些合成的文字和图片,可以轻易找到它想要的群体。

图片

生成式AI已经能对民意调查的结果进行预测。这进一步激发了各党派采取更加智能的宣传,通过媒体和舆情机构,选取选民数据集,生成有利的民调结果,或者用推荐算法去影响目标选民的态度 。尽管美国的主流生成的视频和音频都禁止了生成真人的内容 ,但是竞选活动中,候选人也会寻找灰色地带,让一些模糊的处理显得可信。
这些内容会在Facebook、Instagram、Tiktok、Google、Youtube、X等社交媒体和搜索网站上迅速传播,各大巨头都已经建立起了审核和纠正机制,但是反应速度要慢很多。马斯克收购推特并改名为X,他已经几乎全部砍掉了内容审核部门。x.AI训练出来的模型Grok,采取了更为宽松的对齐方法训练模型。大型语言模型在训练和对齐的过程中也都会排除“有毒”的内容,但它们成为人类的工具时,往往会生成人类想要的内容。
2024年,将成为一个AI舆论元年,在虚构与非虚构之间划清界限,非常具有挑战性。这一结果,将对生成式AI本身的进一步应用,产生重大影响。如果它真的混淆了真伪,而科技巨头、监管机构、专业媒体和社会组织无能为力的话,不等给人类造成“生存威胁”,生成式AI自身的生存会成问题。
进入2024年,主要的AI企业,科技巨头、主流新闻媒体正在行动起来。魔高一尺,道高一丈。生成式AI在新闻传播中究竟是魔还是道,很大程度上取决于这些推动生成式AI发展的科技巨头和独角兽们。
首先是要从源头数据抓起。各大AI公司正在规范训练数据集,尤其是合法使用高品质的语料数据。在《纽约时报》起诉OpenAI和微软侵权使用其数据前夕,OpenAI推出了其数据合作伙伴计划,与那些专有的和非公开的数据源机构展开合作。包括OpenAI与媒体集团Springer 及美联社合作,为其提供生成式AI技术,产生业务模式,以换取其数据训练大模型。OpenAI与一家美国新闻项目合作,把AI应用于地方新闻,试图在媒体中推广更可及、高品质、媒体机构负担得起的AI技术,包括实现多语种内容、地方服务等。
而一向谨慎的苹果,正在努力与美国的媒体集团合作,付费获得这些媒体的档案语料库,用来训练自己的大模型。目前正在沟通的包括康迪纳斯特的 Vogue、New Yorker、NBCNews,以及IAC的People、The Daily Beast、Better Homes、 Gardens等。
其次是收紧对政治广告真实性的审核,控制在生成式AI问答机器人中的政治查询,以防止虚假内容和政治“不正确”。Meta要求,刊登政治广告中,其图像、视频、音频如有AI生成或用其他软件修改的内容,必须披露。尤其是提供内容中真实人物说过的话和做过的事,必须与事实相符,不得随意合成。如果不披露的将不予发布。Meta自己的AI广告生成工具也不允许政治广告客户使用。
谷歌的Youtube 将从2024年开始,要求以传播事实为目的的视频,必须披露其中的修改和合成的内容。谷歌的AI对话应用Bard和生成式AI搜索,都将显著减少有关大选的问询回答。一些主流的文生图模型已经拒绝生成真实人物的图像。
内容的真实性,正在变成一种服务。微软将于三月份推出内容凭证服务(ContentCredentials as a Service )。微软将与内容出处和真实性联盟(C2PA)合作,提供一套使用加密技术编码内容出处细节的元数据,这样就可以使用的数字水印凭证来进行数字签名和验证媒体。用户可以将内容凭证附加到他们的图片或视频上,以显示内容是如何、何时以及由谁创建或编辑的,包括是否由AI生成。这些凭证成为内容历史的一部分,并随之传播,无论其发布在何处,都创造了一个永久记录和上下文。当用户遇到包含内容凭证的图像或视频时,他们可以通过点击嵌入的图钉来了解其创作者和起源,从而揭示资产的历史。
这些水印凭证,让个人或组织能维护其内容的权益,并且防止篡改。首先将向政治竞选团队提供。
从图像产生的源头就建立起“元数据”,也是一种方法。尼康、索尼、佳能正在合作建立起一种新的标准,在相机中嵌入应对造假的技术。
尼康将为摄影记者和其他专业人士提供带有认证技术的无反光镜相机,其中的抗篡改的数字签名将包括时间、地点和摄影师等信息。
全球一些媒体机构、科技企业、相机生产商合作建立了一个名叫Verify(验证)的网站,可以用来免费验证图片的真伪。如果照片有数字签名,网站会提供照片的拍摄时间、地点、摄影师等数据。日本企业占了全球摄影机市场的90%,他们主导制定了这一标准。
谷歌在8月份发布了一个工具,将不可见的数字水印嵌入到人工智能生成的图片中。2022年,英特尔开发了一项技术,通过分析表明受试者皮肤下血流的肤色变化来确定图像是否真实。日立正在开发用于在线身份验证的防伪技术。
辨别深度造假,也成为AI研究的一个前沿领域。科学家们也在积极研究识破深度造假的技术。以色列的三位科学家,发现生成式模型仍不够完善,无法以足够的准确性将虚假事实编码进假内容中,他们提出了一种名为Factor的框架,用造假图片、视频、音频等与预先根据真实数据训练好的特征进行对比,从而产生“真实性分数”(即相似性函数),如果分数较低,就能发现内容是合成的而且是虚假的。这一技术在可以识破一些深度造假,如面部调换、文生图、音频与视觉合成等。但是作者也承认,如果生成式AI技术进一步提升,这一方法需要重估。
图片
来源:Detecting deepfake without seeingany. Tal Reiss et al.
2024年,也为生成式AI技术用于媒体创新带来了新的机会。美国媒体初创公司 Channel 1 推出了AI 主播,能7X24地播报新闻, 它们形象逼真,语音流畅,甚至连嘴唇动作都严丝合缝。而且,它们可以瞬间切换语种播报新闻,胜过大部分人类主播。
表面上支撑这些主播的是动态图像和合成声音技术,背后是一个类似于 ChatGPT 的复杂模型,赋予了这些主播各自独特的个性和灵活性。它们可以拥有自己的记忆和语音语调,也能面对世界不同地区的受众定制内容。
它们播报的新闻有三个 “可信赖的新闻来源”:一是收取稿酬的独立记者;二是 AI 根据政府文件和其他可信来源生成的新闻;三是外部专业媒体机构的报道。Channel 1 有真人编辑和制片人,他们会参与检查最终出现在屏幕上的内容的准确性。
屏幕上的一些与新闻有关的画面会由AI生成,为了避免误导观众,编辑会给这些 AI 生成的画面打上标签。它们要做新闻频道的TikTok,受众可以自己选择观看哪些新闻。
Channel 1 在这个选举之年推出,引发了广泛的担忧,它会不会改变新闻真实性的定义,大量廉价制作的新闻充斥网络,会不会让进一步减低受众的新闻素养,以及对于真人新闻主播的冲击,等等。
——————————————————

未尽研究,引领生成式AI与媒体研究:

生成式人工智能,如何再一次“重塑”媒体

能预测舆情的大模型,是怎样炼成的

BloombergGPT来了,这是要干掉金融分析师,还是预防被ChatGPT干掉

给AGI分级:通用刚入门,个别领域已经超人