方师师 叶梓铭:人工智能伦理治理的全球图景:多维特征与实践要素

作者:方师师(上海社会科学院新闻研究所副研究员);叶梓铭(上海社会科学院新闻研究所硕士研究生)

来源:《青年记者》2024年第10期

图片

导 读:

本文基于上世纪50年代至今全球范围内1617篇人工智能伦理治理文档,对人工智能的伦理治理开展全景梳理。研究发现,人工智能的伦理治理汇集了全球力量,刚柔并济是其主要态势。各国家、地区和国际组织在制定人工智能伦理规范时既有基本共识,也存在维度偏向。实用主义与主动参与是其基本取向。未来人工智能的全球治理需进一步提升能力,扩展合作,弥合鸿沟。


2016年,基于深度学习的人工智能围棋模型AlphaGo在与李世石的围棋对决中一战成名。仅在一年后,2017 年6月12日,来自美国谷歌公司的八位研究者发布的论文“Attention is all you need”成为生成式人工智能广泛应用于人类社会的基石[1]。美国人工智能实验室OpenAI于2022年11月基于该论文提出的Transformer模型发布生成式人工智能应用ChatGPT,甫一问世便迅速成为史上增速最快的消费级应用,开启生成式人工智能广泛应用的先河。随着模型的不断更新迭代,最新一代模型能够完成从自动生成文本到生成简短视频等的多模态任务。迄今为止,十数种大型高性能模型和更多基于特定场景的小模型相继推出,人工智能的应用正从想象变成现实,引领新一轮改变人类社会的科技革命。

然而,对于这一进程的复杂忧思也同时兴起,在人工智能的研究、应用与产业扩散进程中,涉及的社会议题与法律难题日益引发关切,包括但不限于数据隐私安全、算法透明度、知识产权、伦理道德以及技术滥用等。当前,人工智能伦理治理的对象正从单一甚至是封闭系统内的数据扩展至生成式人工智能的应用,微观视角下,基于移动互联网迅速扩散的新型人工智能应用联结社会各领域,涌现的一系列复杂问题急需各方解决;从宏观视角看,伦理治理是选择伦理复杂性相对最小化甚至经济效益相对最大化的治理路径,还是选择尊重各方权益的帕累托改进也亟需观察。

鉴于此背景,本文基于浦江人工智能实验室OpenEGlab开放数据库中上世纪50年代至今的1617篇人工智能政策、标准化文件、合作协议等相关文档,对全球范围内的人工智能伦理治理的特征与要素进行梳理,为理解当前人工智能伦理治理的全球实践提供参照,为构建更大范围的治理共识提供对话基础。

一、全球人工智能伦理治理实践与研究概述

(一)人工智能伦理治理的范畴界定

人工智能伦理治理属于科技伦理治理,是各相关主体以伦理原则为指导,解决科技发展面临的伦理与社会问题,促进科技有益发展的方式总和[2],其核心是促进人工智能朝向有益人类福祉和社会安康的方向发展。[3]当前,虽然在表述和执行力度方面存在差异,但“以人为本”是不同国家、不同场景的伦理治理实践所认可的基本共识。自2020年至今,随着人工智能的应用日益嵌入各社会场景,各国、国际组织在政策实践中围绕人工智能的治理实践文本迅速增加,人工智能的治理实践日益多元化,在约束力的不同层次与治理类型的多样化上不断推进,人工智能治理的“潮头”已经形成。

(二)人工智能伦理治理的全球参与

截至2024年8月,全球范围内多达106个国家、国际组织与地区推出了人工智能的相关治理规则,全球合作广泛展开。2023年3月,联合国教科文组织号召各国立即执行其于2021年11月发布的《人工智能伦理问题建议书》[4],并推促一系列以伦理原则为核心的非正式合作;2023年5月,美国国会发布《生成式人工智能和数据隐私的初步报告》,2023年10月,白宫办公室发布《关于安全、可靠、值得信赖地发展和使用人工智能的行政命令》;2024年1月,欧盟委员会、欧洲议会和欧盟理事会共同完成了《人工智能法》的定稿;2023年11月,英国召集人工智能安全峰会发布《布莱切利宣言》,围绕AI全球机遇和挑战提出了多项议程,支持以全球合作的方式设立AI安全的研究网络,并通过维持该对话机制以服务于全人类利益;2024年7月4日,世界人工智能大会暨人工智能全球治理高级别会议发表《人工智能全球治理上海宣言》,呼吁推动制定和采纳具有广泛国际共识的人工智能的伦理指南与规范,引导人工智能技术健康发展,防止其被误用、滥用或恶用。

二、全球人工智能伦理治理的主导进程与基本路径

(一)全球人工智能伦理治理的主导进程

1.刚柔并济:人工智能伦理治理的主要趋势。对于人工智能这一仍在高速发展的技术,各方均认识到其引发的科技革命尚在早期,直接立法限制无法充分应对其复杂的发展样态,甚至可能造成发展停滞的巨大代价。但放任技术发展则可能带来如隐私泄露、劳动力替代等问题,因而“软性”的伦理治理成为人工智能治理的重要方式。相比具有国家强制力的“硬法”,“软法”是指不具有任何约束力或约束力比传统硬法更弱的准法律文件,包括国际组织的非条约性协议,以及各国国内由政府、社会组织提出的具有约束力的社会规范等。[5]

落实在人工智能治理进程中,从“软”至“硬”的规则文本包括伦理原则、发展战略与政策计划、标准化文件与法律法规,基于数据集分别描述统计不同类型人工智能治理文本的发布情况发现:自2016年起,在人工智能治理浪潮中,以促进发展为目的的政策原则在全球范围内普遍展开,与之同步的是伦理宣言、共识文件的密集签署与发布,2020年后,与发展和伦理相关的行动已经告一段落,而更具强制力的法律法规和产业界执行落实的标准化文件的推出密度迅速增大,在2021年达到历史性的新高。

2.维度偏向:人工智能伦理治理的国别比较。历经一轮伦理治理浪潮后,当前全球范围内的人工智能的规则秩序仍在形成阶段,而不同国家伦理治理规则在文本量上呈现显著的“马太效应”:从政策发布量的角度看,规则密度(相同时间段内的政策数目)前十的国家与国际组织占比超过总规则数的一半,作为关键性质的前沿科技,人工智能的发展水平与治理水平能够预期提升各国竞争力,在竞争人工智能伦理治理的过程中,在其他相关领域具有领先地位的组织往往能够取得显著的先发优势,而其他组织则被迫居于落后地位。当前,美国、中国、欧盟的政策密度显著高于其他国家与国际组织,呈现“三足鼎立”的发展态势(见表1)。

图片表1 全球人工智能伦理政策密度前十的国家、地区与国际组织

(数据来源:OpenEGlab治理规则集 数据截止时间:2024年8月20日)

为更进一步对人工智能伦理治理的主导特征进行描摹,基于政府在人工智能技术发展中的积极或被动角色,以及政府是集中于规范潜在风险还是优先发展人工智能两种维度,国家或国际组织的治理角色可以区分为市场导向型(被动-发展)、发展型(积极-发展)、监管型(积极-规范)与自我调节型(被动-规范)四种理想类型(Ideal Type)[8]。比较治理图谱的伦理治理倾向与治理规则文本,能依照其政策取向定位每个国家于其中的一种或两种类型,参考全球伦理治理政策密度的情况,我们选取美国、欧盟与中国作为代表性的国家和地区进行比较分析。

美国作为本轮人工智能发展浪潮的诞生地,其人工智能技术与产业发展位于世界顶尖水平,为维护其在产业发展中的领先地位,其治理角色介于市场导向型与自我调节型之间,倾向于推进人工智能发展,国家在军事等关键领域干预,依赖市场机制和各州自行立法驱动技术创新。表现为“总统发布战略、美国国家科学技术委员会布局发展、美国国家标准技术研究所主责伦理风险管理标准”的相对稳定的框架。[9]同时,部分代表产业界的观点认为,应秉持非必要不干预的原则,对基于伦理自律外的法律监管抱持较强的排斥态度[10],强调对政府的监管范围施加限制。

图片图1 美国人工智能治理伦理维度偏向

图片图2 欧盟人工智能治理伦理维度偏向

欧盟向来高度重视隐私保护等人格权益的法律保障,近年来在人工智能发展中并未进入第一梯队,为发挥其在国际法与国际组织中的治理传统,寻求国际影响,欧盟以管控风险为主导形成自我调节与监管并重的治理角色。早在2021年4月,欧盟委员会就提出关于人工智能的监管框架草案,尝试基于“风险”视角对人工智能系统进行分类与横向监管。欧洲议会及时跟进生成式人工智能的发展动态并迅速开启规范化讨论,试图提出有效的监管措施。在2022年《数字权利和原则的欧洲宣言》中,强调数字化转型应以人为中心,倡导团结与包容等关键原则。并在全球首先立法实践人工智能治理[11],充分彰显其敏捷的实效,对全球各国的伦理治理实践具有较强的影响力。

中国兼具发展型与监管型国家的角色特质,高度重视伦理治理与人工智能发展的平衡,采纳积极政策推进先进人工智能服务社会,同时持续推进伦理原则的细化与落实。《人工智能伦理治理标准化指南(2023版)》则从技术框架出发,为人工智能伦理标准体系提供了明确的界定以指导人工智能伦理治理的具体实践。《生成式人工智能服务管理暂行办法》率先就生成式人工智能监管这一议题提出特定的伦理规范,将备案程序与算法治理内容融合,要求企业发挥能动性为用户提供举报渠道,强化了伦理治理在技术法规中的作用,体现了中国在人工智能服务管理方面迅速跟进的治理能力。

3.汇聚合力:联合国等国际组织推进的全球合作。各国在伦理治理中的角色自主一方面有助于维护独立的治理主权,但受制于国家角色差异,国际伦理治理政策的不平衡也为监管套利等问题留下了隐患,面对各国独自治理所难以覆盖的难题,以联合国为代表的政府间国际组织对于汇聚人工智能伦理治理合力,加强国际对话有不可或缺的作用。

联合国的人工智能伦理行动旨在成为全球治理的关键中介,其行动关涉议题多元,影响广泛,在形塑全球合作过程中具有三大突出作用:一是通过全球倡议呼吁关注伦理议题。《人工智能伦理问题建议书》得到联合国教科文组织193个会员国一致通过,这一规范能够为人工智能的全球治理提供必要的伦理框架。[12]二是通过组织分工多层次推进落实伦理规范。2023年10月26日,联合国组建高级别人工智能咨询机构,就人工智能可能产生的偏见歧视等关键问题展开讨论。三是调用既有合作模式构筑伦理治理合作平台。近期,以教科文组织为代表的联合国相关机构积极推进国家与全球科技公司的伦理共识,协同八大全球性科技公司签署开创性协议,落实《人工智能伦理问题建议书》中的伦理原则。

图片图3 中国人工智能伦理治理维度偏向

图片图4 联合国人工智能伦理治理维度偏向

图片图5 经济合作与发展组织伦理治理维度偏向

经济合作与发展组织的出版物和统计数据库是全球各国与国际组织研究经济、社会、环境等多方面问题的重要资源。在人工智能伦理治理领域,OCED的伦理治理实践倾向于发展议题,相对较少讨论隐私等风险性问题,重点实践包括聚焦伦理原则以实现可信任的AI[13],汇集力量关注AI引致的就业替代等经济与社会领域的关键问题[14]。

(二)全球人工智能伦理治理的基本路径

虽然受限于决策博弈的影响和国际合作机制的欠缺,当前伦理治理全球合作的统一协调存在较多阻碍,不过当前伦理治理的基本路径高度相似:生成式人工智能的泛用特征要求各方采纳相近的治理逻辑,而通用人工智能方兴未艾的发展现状与难以准确预测的发展前景,促使各利益攸关方以自律为核心,主动参与伦理治理实践。

1.实用主义:寻求发展与安全兼顾的政策模式。发展人工智能、尽可能让人工智能应用赋能社会各界是多数国家的主要需求,而保障这一进程的安全是各国与国际组织关心的首要治理目标。这些需求和目标具体表现为坚守以人为本的伦理原则,有效管控人工智能的权责归属、隐私问题、偏见等伦理风险,适当监管人工智能的算力、算法与数据等情境中。近年来,人工智能的迅速发展与变迁使得各方在政策制定时更多考虑现实条件与紧迫问题,充分开展治理创新,采纳鼓励符合伦理原则的技术发展实用主义取向的“治理工具箱”。

采取软性治理的方式不易压制技术活力,能够较好地保护人工智能的产业发展,因而成为各国在当下推进人工智能伦理治理的普遍选择。同时各国通过行业自律公约、伦理规范、标准指南等软法程序实现治理目标也有更好的敏捷性[15]。比如新加坡信息通信与媒体发展局开发人工智能核查(AI Verify)治理工具包,帮助相关组织通过标准化测试验证其人工智能系统的功能,确保它们符合国际认可的人工智能伦理原则。新加坡政府还支持隐私强化技术(PETs)的研究和开发,并在实践中推广。

2.主动参与:探索自律与他律结合的安全策略。由于人工智能的发展迅速且不可预测,采用事后的技术评估治理人工智能往往为时已晚,以技术治理技术的尝试可能引发更复杂的伦理问题。当前的人工智能发展阶段中,研发者的自律(负责任的研究和创新)是安全策略的首要要求,各方普遍要求开发人员在采取高风险的行动之前(如将新型智能应用上线用户测试)必须主动准备好控制风险的相关措施。

为实现开发者自律与快速响应,透彻理解技术的相关机构监督开发人员是实现自律的必要前提。各国政府正认真对待跨国科技公司对伦理治理的参与性与主动性,比如美国国会邀请OpenAI首席执行官和IBM首席隐私和信任官参与听证会以了解人工智能潜在风险,避免重蹈社交媒体监管失当的问题。[16]中国发展具有特色的网络空间约谈制度以调和矛盾,坚持问题导向,确定权责主体,以监督企业履行主体责任。[17]英国政府则要求组织在使用人工智能时提供清晰的相关信息,以增强公众信任。[18]

三、任重道远:迈向人工智能善治的漫长征程

当前人工智能伦理治理的规则体系正形成刚柔并济的治理模式,展望未来,在多重地缘政治的挑战下全球范围的人工智能治理实践仍然任重道远。全球人工智能伦理治理仍需要各国、地区与国际组织超越自身治理局限,立足伦理治理的基本路径,提高治理能力,推促形成发展与治理合力。

(一)提升治理能力,共建智能社会

在促进发展与保障安全相互平衡的基本路径下,不断权衡、动态调整是可预期的近未来人工智能伦理治理主旋律。但随着人工智能逐渐成为完备的智能体嵌入人类生活各方面,各国的人工智能伦理治理还将应对各类难以充分预期的挑战:当前视为显而易见的治理主体、路径、场景的关系并非绝对稳定,随着人工智能融入社会生活,社会治理的各维度逐渐与人工智能的治理议题重合,问题的复杂性提升。未来人工智能的伦理治理必然需要考虑人工智能本身日益显著的能动性,治理对象也可能成为新的治理主体。

因而在伦理实践上,需要尽快提升伦理治理实效,伦理治理的走深细化更需要各方追踪潜在的人工智能核心技术突破,尤其关注研发者的自律水平。吸纳多方利益攸关者,以把握人工智能伦理的复杂情境,推进人工智能服务全社会的组织与制度设计。关注利用人工智能技术尝试数字永生等显著存在重大伦理风险的后生命技术,将此类存在极大争议的伦理议题从学术讨论落实至政策议程,维护以人为本的伦理治理核心原则。

(二)扩展合作机制,应对竞争议题

与多数新技术一样,生成式人工智能正遵循技术周期的发展路径,一项技术的最初成功引发的科技泡沫可能会因为技术功能的不及预期而破灭,后续随着技术迭代和各界的创新采纳,最后达到“生产力高原”[19]。在这一进程中,弥合各方的判断差异始终立足于全球层面的有效合作。面对伦理治理的诉求,全球人工智能伦理治理需要运作良好的对话机制与相对稳定的国际环境,以平衡各方的主导诉求差异,增进对话与理解的同时,关注具有重大隐患但并不紧迫的伦理议题,比如部分组织以促进商业投资为目的,对人工智能创造效益的评估基于潜在的人力资本替代程度。并且,有必要避免价值相对主义,形成合力阻止单一国家或组织的话语基于自身政治经济利益无视以人为本等基本伦理原则,维护人工智能良善发展。

(三)考虑多元诉求,弥合数字鸿沟

对全球南方国家而言,决策资源不足、治理人才不充分是阻碍更广泛地参与人工智能伦理行动与促进人工智能良善发展的主要原因。据联合国的统计,2023年仍有超过26亿人无法使用互联网。[20]伴随人工智能应用不断泛化,伦理治理的落实将与长期且系统性地弥合数字鸿沟进程并行。不过,虽然当前伦理治理的政策实践存在强者恒强的“马太效应”,但同时也存在着多方参与的“长尾效应”,在发展人工智能中不占据充分优势的中小国家正根据自身国情制定人工智能的战略政策和法律法规,未来的伦理治理研究也需要关注全球南方国家提出的伦理方案,未来的全球合作有必要推动支持人工智能先发国家负责任的开放创新和伦理治理领域的知识共享和开源,[21]吸纳全球南方国家的治理诉求,共创全球人工智能“善治”的共同愿景。

参考文献:

[1]Vaswani A. Attention is all you need[J]. Advances in Neural Information Processing Systems, 2017.

[2]樊春良.科技伦理治理的理论与实践[J].科学与社会, 2021(04):33-50.

[3]樊春良,吴逸菲.人工智能伦理治理的三维分析框架:核心要素、创新过程与主体责任[J].自然辩证法研究, 2023(10):18-24.

[4]联合国新闻.教科文组织:各国应立即实施全球伦理框架以应对人工智能挑战[EB/OL]. [2024-08-10].https://news.un.org/zh/story/2023/03/1116697.

[5]曾雄,梁正,张辉.人工智能软法治理的优化进路:由软法先行到软法与硬法协同[J].电子政务,2024(06):96-107.

[6] ISO/IEC. Information technology — Big data reference architecture[EB/OL].[2024-09-05]. https://www.iso.org/standard/71277.html?browse=tc.

[7] OECD. AI language models: Technological, socio-economic and policy considerations[EB/OL].[2024-09-05].https://www.oecd-ilibrary.org/science-and-technology/ai-language-models_13d38f92-en.

[8]Djeffal C, Siewert M B, Wurster S. Role of the state and responsibility in governing artificial intelligence: a comparative analysis of AI strategies[J]. Journal of European Public Policy, 2022, 29(11): 1799-1821.

[9]顾登晨.静水流深:美国人工智能治理的特征、趋势与启示[EB/OL].(2024-01-25).[2024-08-10]. https://www.163.com/dy/article/IPAISITE0511DDOK.html,

[10]Nancy Pelosi. Pelosi Statement in Opposition to California Senate Bill 1047[EB/OL].[2024-08-19]. https://pelosi.house.gov/news/press-releases/pelosi-statement-opposition-california-senate-bill-1047.

[11]EU Artificial Intelligence Act[EB/OL]. [2024-08-16].https://artificialintelligenceact.eu/the-act/.

[12]联合国教科文组织.人工智能:教科文组织号召各国政府立即实施全球伦理框架[EB/OL]. [2024-08-16]. https://www.unesco.org/zh/articles/,2023-03-31.

[13]OECD AI Principles overview[EB/OL]. [2024-08-16]. https://oecd.ai/en/ai-principles.

[14]Squicciarini,M.& H.Nachtigall. Demand for AI skills in jobs: Evidence from online job postings[EB/OL].(2021-03)[2024-08-16].https://doi.org/10.1787/3ed32d94-en.

[15]张凌寒,于琳.从传统治理到敏捷治理:生成式人工智能的治理范式革新[J].电子政务,2023(09):2-13.

[16]机器之心.像监管核武器一样监管AI,OpenAI高层发文探讨“超级智能”监管[EB/OL].(2023-05-24)[2024-08-16] https://www.thepaper.cn/newsDetail_forward_23191922.

[17]李佳伦,谢新洲.互联网内容治理中的约谈制度评价[J].新闻爱好者,2020(12):8-13.

[18]GOV,UK. AI regulation: a pro-innovation approach[EB/OL].(2023-08-03)[2024-02-03]. https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach.

[19] Vitomir Kovanovic. Generative AI hype is ending – and now the technology might actually become useful[EB/OL].[2024-08-17]. https://hashtag.net.au/the-conversation/92284-generative-ai-hype-is-ending-%E2%80%93-and-now-the-technology-might-actually-become-useful.

[20]UN. Interim Report: Governing AI for Humanity[EB/OL].(2023-10-26)[2024-02-01]. www.un.org/en/ai-advisory-body.

[21]World Economic Forum. The Presidio Recommendations on Responsible Generative AI, In collaboration with AI Commons[EB/OL].(2023-06)[2024-02-01]. WEF_Presidio_Recommendations_on_Responsible_Generative_AI_2023.pdf (weforum.org).

本文引用格式参考∶

方师师,叶梓铭.人工智能伦理治理的全球图景:多维特征与实践要素[J].青年记者,2024(10):107-112.