关注我们
人工智能(AI)的迅速崛起促使政策制定者和政治学家都开始评估这项技术在商业和政治领域的(误用)用途。一方面,政治学家担心,让国家控制人工智能可能会使其成为一个超级强大的监视工具。另一方面,让市场控制人工智能可能会让某些公司取代国家成为权力中心。因此,大量关于“人工智能治理”的研究蓬勃发展。尚待分析的是国家或市场在哪些政治决定因素下可以积累上述权力,以及随后可能产生哪些监管制度。本文主张引入宏观政治经济方法来解释人工智能的危险,然后制定公平的解决方案。人工智能监管框架的构建必须以公民和公司偏好如何聚集以及在哪些制度约束下为指导。我们首先概述现有文献。然后,我们转向比较政治经济学的框架,以确定各国人工智能发展和监管的宏观差异。最后,我们强调,与之前的自动化技术不同,人工智能如何影响高收入、非常规用户,以及这种政治如何影响当代关于人工智能治理的讨论。
本篇论文原发表在《French Politics》,论文名称:《Artificial intelligence: promises, perils—and political economy 》(《人工智能:前景、风险和政治经济学》),作者是来自康奈尔大学的Musckaan Chauhan和Isabel M. Perera 。
要点1:人工智能如何增强国家的监控能力,并可能导致哪些后果?
人工智能可以通过多种方式增强国家的监控能力,包括大规模数据收集和分析、自动化监控系统和智能监控设备。例如,面部识别技术和生物识别系统可以在边境管理和内部安全监控中发挥作用。此外,人工智能还可以用于分析社交媒体和网络活动,以识别潜在的威胁和异议分子。
这种增强的监控能力可能导致一系列后果。首先,它可能加剧公民的自由和隐私权受到侵犯的担忧。其次,人工智能系统可能会犯错或误判,导致无辜者受到不公正的对待或监视。此外,威权国家可能会利用这些技术来压制异见和民主活动,进一步巩固其权力。
要点2:人工智能如何影响金融科技和全球金融基础设施,并可能导致哪些市场不平等?
人工智能对金融科技和全球金融基础设施的影响主要体现在以下几个方面:
l自动化和效率提升:人工智能可以自动化许多金融交易和处理流程,提高交易速度和准确性,降低人为错误。
l风险管理:通过大数据分析和机器学习,人工智能可以帮助金融机构更准确地评估和管理风险。
l金融服务普及:人工智能可以使金融服务更加普及,特别是在偏远地区和发展中国家。
然而,这些变化也可能导致市场不平等加剧:
l数据获取和访问:拥有大量数据和先进分析能力的金融机构可以获得更大的竞争优势,进一步扩大市场差距。
l技术鸿沟:发展中国家和小型金融机构可能无法跟上技术发展的步伐,导致它们在全球金融体系中处于不利地位。
l算法偏见:如果人工智能系统的训练数据存在偏见,那么其决策也可能带有偏见,进一步加剧市场不平等。
要点3:人工智能治理的主要挑战是什么,如何有效解决这些问题?
人工智能治理的主要挑战包括:
l监管滞后:人工智能技术发展迅速,现有的法律和监管框架往往难以跟上技术的发展步伐。
l权力失衡:人工智能可能被少数大型科技公司或国家控制,导致权力过度集中,威胁公平竞争和市场多样性。
l隐私和安全:如何在推动技术创新的同时保护个人隐私和数据安全是一个重要问题。
有效解决这些问题的方法包括:
l制定全面的监管框架:政府和监管机构需要制定全面的法律和监管框架,确保人工智能的开发和应用符合公共利益和社会价值观。
l多方参与治理:鼓励政府、企业、学术界和社会各界共同参与人工智能治理,确保各方的利益得到平衡。
l透明度和问责制:确保人工智能系统的决策过程透明,并建立有效的问责机制,防止滥用和不当行为。
l持续监测和评估:建立持续的监测和评估机制,及时发现和解决人工智能带来的新问题,确保技术的健康发展。
马克龙立志使法国成为世界人工智能(AI)领导者。作为其法国2030计划的一部分,共和国总统承诺投资5亿欧元发展该技术——这一举措部分是为了应对该领域的“盎格鲁-撒克逊偏见”(正如他自己所说,参见France24 2023; Chatterjee and Volpicelli 2023)。他并不是唯一一个对人工智能充满希望的政府。尽管马克龙可能最担心来自美国谷歌和OpenAI的竞争,但德国、挪威以及欧盟的同行们也启动了类似的投资和计划,以支持在关键领域使用人工智能(Reuters 2023; Milne 2023; EC 2021)。
与人工智能的承诺一样引人注目的是其风险。在极右翼,这一问题分裂了领导层,支持者面临着关于允许人工智能失控的道德和伦理后果的传统主义担忧(Gatinois 2023; Guillou and Piquard 2023)。此外,这些担忧跨越语言甚至政治界限。在美国外交政策巨头亨利·基辛格2018年在《The Atlantic》上发表的一篇文章中,他认为人工智能是“启蒙运动的终结”。他警告说,人工智能缺乏提供适当结果的背景;这些脱离背景的结果反过来可能会改变人类的思维过程和价值观;而且,即使人工智能确实提供了背景适当的结果,其超级计算能力也可能无法以人类大脑能够理解的方式解释这些结果的依据。简而言之,人工智能可能会压倒人类意识——危及社会关系的核心线索。
撇开专家和政治家之间的辩论不谈,很明显,人工智能给当代政治和社会带来了重大变化。但效果如何?此外,学术政治科学对此有何看法?国家和市场会因此而改变吗?本文回顾了该学科的最新研究成果,探讨了人工智能与政治经济之间的关系。为此,我们查阅了Scimago排名前50的政治科学期刊,从1990年至今,搜索有关或相关人工智能的文章。我们的发现突出了政治科学家对人工智能风险的日益关注,即其巩固国家和公司权力的能力。但这个结果并非定局。事实上,我们发现文献中存在一些重要空白,如果得到解决,可能会改变甚至逆转这一假设。特别是,我们认为更密切地关注人工智能可能与其它(非智能)技术相似或不同的方式,可能会揭示一个更为细致的政治经济学。
两个风险及可能的解决方案
关于人工智能的(有限的)政治学研究指出,其发展威胁到政治权力的实现、维持和调节。出现了两个分支的担忧。一方面,政治科学家担心授予国家对人工智能的控制权可能会使其成为一个超强大的监控代理。另一方面,授予市场对人工智能的控制权可能允许特定公司取代国家成为权威中心。在这两种情况下,都出现了如何检查这种权力积累的问题——也就是说,如何“治理”它。在第一种情况下,人工智能可能会产生越来越强大的威权国家。在第二种情况下,越来越强大的科技公司(“大科技”)可能会接管他们生产的人工智能的监管,迎来一个由算法或数字“治理”取代现有国家基础设施的时代。简而言之,如果人工智能落入“错误”的人手中,无论是国家还是公司,那么它可以使这些实体变得非常强大。
一、 风险1:人工智能与国家权力积累
政治科学家,特别是那些研究国际关系的学者,已经强调将人工智能引入政府活动可以增强其权力。当然,威权政权是这些技术的主要用户。例如,威权国家可以使用人工智能镇压民主社会运动。越来越多的文献研究了如叙利亚等国内异见的“数字镇压”,其中基于人工智能的技术加强了这种镇压(Conduit 2023; Earl et al 2022; Frantz et al 2020; Michaelson and Thumfart 2022)。还要注意,各国还将这些技术跨境部署,这在安全研究中引发了关于用人工智能决策取代人类决策对战争影响的激烈辩论(Amoore and Raley 2016; Goldfarb and Lindsay 2022; Heath-Kelly 2016; Horowitz and Lin-Greenberg 2022; Jensen et al 2020; Maas 2019; Mollicchi 2016; Payne 2018; Roberts and Elbe 2016; Whyte 2023)
因此,并非只有威权国家在使用人工智能。实际上,自由民主国家也在越来越多地使用人工智能——不仅用于战争,还用于国际贸易和国内监控目的(Feldstein 2019)。从贸易的角度来看,法国、日本和德国在向其他国家提供这些技术方面发挥了重要作用。欧盟也是如此。根据Bocu和Al-Jizawi(2023)的说法,欧盟在为土耳其正义与发展党统治下的目标人口提供数字基础设施和提高数字镇压能力方面发挥了重要作用。还要注意,自由社会投资人工智能以应对与中国的贸易赤字,正如欧盟2011年的智能专业化政策所寻求的那样,该政策旨在通过人工智能工具提升关键欧洲部门的竞争力(Wigger 2022)。
从国内政策的角度来看,自由民主国家已经开始使用人工智能监控来阻碍公民参与(Dauvergne 2021)并加强内部警务策略的偏见(Leese 2023; Ferguson 2017)。此外,使用信息和通信技术(ICTs)控制移民流动(参见《Journal of Ethnic and Migration Studies》2022年特刊)表明,数字资源已经作为国家武器库中的重要工具。例如,Soysuren和Nedelcu研究了法国如何越来越依赖数据库和生物识别技术(存储在Eurodac中)来驱逐外国人。人工智能监控的使用只会加速这些移民控制过程。
更一般地说,国家对人工智能的使用威胁到“数字隐私”。Whitford和Yates(2022)将此术语定义为“个人对个人数据隐私的适当期望以及对谁可以访问该数据的控制。”尽管国际组织已开始以人权的名义呼吁数字隐私保护(Chapman and Li 2023; Soh and Connolly 2021),但并非所有国家都同意如何管理这一风险。例如,欧盟的2023年人工智能法案旨在监管和禁止对基本人权和数字主权构成风险的AI系统。其方法与美国2021年创新与竞争法案形成鲜明对比,后者“优先考虑人工智能创新、自愿标准和指南,并将现有消费者保护标准应用于新技术”(Broeders et al 2023)。即使在自由民主国家,何为人工智能的滥用也因而是一个高度复杂且具有争议性的主题,标志着地缘政治和经济优先事项。
二、风险2:人工智能与企业权力的积累
政治科学家,尤其是那些研究全球经济的学者,也对通过人工智能积累企业权力表示担忧。《Review of International Political Economy》(2021年)最近的一期特刊注意到了全球金融领域的这种焦虑。在其引言中,编辑们指出人工智能可能会改变银行业的“基础设施”—— 也就是说,这些技术如何支撑基本的金融活动,如支付和定价。在编辑们看来,人工智能在这种“背景功能”层面影响全球金融。那么,控制这些基础设施的功能和所有权的市场参与者,就会获得重要的政治权力和影响力。
在那期特刊中的几篇研究文章指出,人工智能驱动的银行业正在积累市场力量。例如,Brandl和Dietrich(2021)展示了新技术是如何在集中化的全球支付系统中取代旧技术的:在20世纪80年代初之前的银行业,20世纪90年代的跨国公司,以及21世纪初的科技驱动型公司。此外,全球金融基础设施的快速变化产生了不平等的结果,加剧了现有的市场不平等。这期特刊中的研究展示了大数据是如何通过改变边缘金融和“金融包容性”的基础设施来影响金融化的,扩大了负债边缘化人群的数量,特别是在全球南方(Bernards 2019; Langevin 2019; Singh 2019)。在中国,金融科技(“Fintech”)平台,或者那些使用技术的平台,在数字人民币的推广中被赋予了中心地位(Liu 2023)。
因此,这部分文献指出,如果处于人工智能发展前沿的金融科技和大科技公司继续控制其使用,它们可能会变得过于强大。在这种情况下,传统上被视为国家基础设施工作的“治理”,被大型科技公司所取代,迎来了一个“算法治理”或“数字治理”的时代。通过使用人工智能和新兴技术来控制全球供应链和全球金融,囤积数据并操纵信息交换的方式,大型科技公司似乎准备接替政治权威,取代国家及其基础设施。
因此,政治科学家已经开始担心人工智能可能会导致权力的过度集中,无论是国家的还是市场层面。尽管人工智能可以作为工具促进和改进人类社会的某些方面,但其未经检查的使用可能会不成比例地增强某些行为体。换句话说,如果人工智能作为一种工具落入“错误”的手中,那么它可以使这些实体变得非常强大。“错误”的手可能是国家、科技公司或寻求推进其议程的政治团体。为了纠正这种权力的过度积累,政治科学家建议更新监管结构。因此,关于“人工智能治理”的学术文献迅速涌现。
主要的编辑文集已经开始出现这一主题。2021年,《Policy and Society》专门为“人工智能与机器人治理”(Taeihagh 2021)出版了一期。在那里,Gahnberg(2021)提出了一个AI监管的总体框架。他建议在四个不同领域进行正式的规则制定:1)人工智能体决策能力的设计,2)它从中学习和操作的环境,3)人工智能体可以采取的物理/数字/运动动作,4)人工智能体可以从其环境中检索的信息。学者们现在正在等待即将出版的《Oxford Handbook of AI Governance》,该手册有望进一步分析和阐述这些政策建议。我们认为,这些学术成果构成了一个重要的知识进步,因为它们开始陈述AI监管对国家和市场的可观察影响。
但仍有更多内容有待分析和解释。虽然国际关系和国际政治经济学学者已经为提醒该学科注意国家和市场通过人工智能积累权力的方式铺平了道路,但关于这一结果的政治决定因素却鲜有提及。国家或市场行为者何时、为何以及如何通过人工智能积累权力?而且,如果改善治理结构可以纠正这种不平衡,那么哪些行为者有兴趣制衡这种权力?对国内政治,特别是比较政治经济学的关注,可以帮助学者确定国家或市场在何种条件下积累这种权力,如何积累,以及随后可能产生什么样的监管制度。
最近的研究试图绘制各国AI监管政策的差异。Papyshev和Yarime(2023)根据各国的AI战略将41个国家进行了分类。在他们看来,国家要么“发展”、“推广”要么“控制”AI。处于“推广”组的国家(例如,英国、美国、印度)和发展组的国家(例如,中国、日本)都优先考虑创新而非保护。虽然“推广”AI的国家倾向于采取分散的方法,并对私营部门的发展袖手旁观,但那些“发展”AI的国家则积极直接地与私营部门合作。与此同时,“控制”组的政府(欧盟、墨西哥)强调发展强大的监管框架,以防范AI使用带来的风险。
比较政治经济学家可以帮助识别这种宏观层面的差异,同样重要的是,探索其政治决定因素。现有的框架(例如,资本主义多样性、福利国家类型、增长模式)可以帮助确定产生替代国家-市场关系的分配政治。例如,自由市场经济体和福利国家倾向于有利于私营部门及其公司。这种模式可能有助于解释为什么像美国或英国这样的国家采取了推广而非开发或控制策略。欧盟长期以来对消费者保护的重视(可能是其整合多种国家增长模式的努力的副产品)可能有助于解释其追求控制策略的原因。
这些初步假设需要更有力的实证检验——以及更清晰地阐明不同制度背景下关键行为者的偏好。目前的工作强调了AI公司塑造AI政策(Ulnicane等人2021; Radu 2021)。但比较政治经济学文献告诉我们,公司的特征,如其规模或生产策略,对其偏好以及由此产生的公共政策结果有很大影响(Estévez-Abe等人2001; Mares 2003)。学者们刚刚开始确定AI公司的相关政治经济特征(例如,Tallberg等人2023),并指出快速的技术变革也可以同样迅速地改变它们的偏好(例如,来自Fintech的Campbell-Verduyn和Lenglet 2022, Brown和Piroska 2022的例子)。确定精确的公司偏好,无论是生产AI的公司还是受其影响的公司,将是理解他们所倡导的监管结构的关键第一步。
此外,关于AI监管的政治斗争不仅仅是公司之间的斗争。比较政治经济学家还强调劳动的力量和偏好可以制衡商业的力量(例如,Korpi 2006)。很少有人努力研究AI如何塑造工人的偏好,因为文献往往侧重于自动化或机器人等较旧技术的影响。正如Kurer和Gallego(2022)在他们对该文献的回顾中所指出的,关于面临自动化被取代风险较高的工人是否支持增加失业救济金、社会保护和普遍基本收入的支出,证据不一。技术变革如何影响工人的政治偏好也高度依赖于情境:工人可能会开始投票给非建制党派,但这取决于自动化作为一个问题是否已经被充分政治化。此外,工人可能会(错误地)将他们经济下滑的原因归咎于全球化及/或移民竞争,而不是数字化,这是一个由于结构性变化的渐进性质以及经济衰退与移民和贸易之间的政治优先级而难以观察的原因。
如果自动化对工人的影响产生了对工人偏好的异质性效应,那么人工智能会有所不同吗?也许吧。尽管自动化和机器人技术威胁到了低收入和中等收入者,但人工智能破坏了高收入、知识密集型职业的稳定(O’Donovan 2020)。例如,像优步这样的数字平台现在使用算法执行管理任务,使他们的商业模式中产阶级知识工作变得多余。现在,人工智能可以生成文档研究和打字,因此法律和新闻等职业受到威胁。然而,这些受过更高教育或收入较高的职业中的工人可能在公共政策方面比他们受到自动化威胁的低收入同行有更多的发言权。最近的好莱坞编剧罢工就是一个很好的例子(Foroohar 2023)。(2023年5月2日,美国好莱坞约1.15万名电影和电视编剧走上纽约和洛杉矶街头罢工,呼吁提高薪资,要求公平的合约,拒绝给AI打工。据报道,美国编剧协会WGA先前与主要电影制作公司和流媒体平台争取加薪谈判破裂后,宣布了此次罢工。)在这里,受过更高教育的编剧成功地通过媒体宣传他们对人工智能的不满,从雇主那里赢得了重要的让步。至关重要的是,编剧们已经加入了工会。
确实,政治经济学家面临的一个关键问题是,工人和企业的偏好如何以及何时会聚集在一起,以及它们受到哪些制度约束。在科技驱动增长制度的国家中,人工智能开发公司可能比其他增长制度下的公司更成功地配置有利于自己的监管制度(Baccaro 和 Pontusson 2016;Hassel 和 Palier 2020)。与此同时,代表性较强、收入较高的职业可能成功地倡导防止他们被取代的监管控制。这些政治因素将决定谁积累权力,谁来管理它。
影响与后续步骤
尽管人工智能充满希望,但它也带来了相当大的风险。我们认为,将宏观政治经济学方法引入这个领域可以帮助解释人工智能可能有多危险,以及在什么条件下可能出现公平的解决方案。这种方法的核心将是将注意力转向偏好形成、利益聚合和制度背景。此外,可以从关于自动化和机器人等旧技术影响的学术研究中吸取教训。最后,我们强调,推广这些教训将需要明确界定是什么使 “这次不同”(用Kurer和Gallego 2022 年的话来说)
简而言之,“人工智能” 到底是什么?对这个术语的明确定义将阐明其破坏性影响可能与以前的技术变革有何不同,以及政治经济行为者可能如何对其做出不同反应。我们发现,这样做需要关注技术变化的速度以及它取代人类决策的程度。首先,人工智能变化如此之快,以至于它可能超过政治能够做出的反应速度。它不仅可能在企业和劳动力偏好方面产生比以前技术更多的不稳定性;历史上僵化的监管机构可能太慢而无法跟上。其次,人工智能可能会自立门户。其独立功能可能会塑造行为者之间的互动、他们获取资源的方式以及他们处理信息的方式,以及他们运作的机构的规则。仔细思考这些维度将有助于分析师更好地理解法国 2030 计划及类似计划对二十一世纪社会的分配影响。