梁正,经济学博士,清华大学人工智能国际治理研究院副院长、公共管理学院教授;宋雨鑫,清华大学博士后、人工智能国际治理研究院助理研究员。
原载于《中国法律》第6期第54—59页。
以ChatGPT为代表的生成式人工智能技术革新,不仅是人工智能产业发展的分水岭,同时也是人工智能治理建设的分水岭。当前人工智能治理议程、机制和活动严重滞后于技术迭代式创新发展的进程,先进人工智能可能引发的极端生存性风险引起国际社会的普遍担忧。2023年以来,世界各国和地区纷纷调整自身战略与政策的优先事项,加速投入到人工智能安全治理的国际体系建设中来。
在此背景下,人工智能国际治理的基本形态也随之变化,从软法为主、多利益攸关方参与的共识治理渐趋转向硬法推动、多边主体主导进程的规则治理。目前,存在国际法适用于人工智能领域的普遍共识,以联合国代表的国际组织,中美为代表的国家行为体也在国际和国内层面推动不同形式的治理规则落地。然而,既有人工智能国际治理规则仍以宣言共识、技术标准、伦理规则等国际软法为主,出现一些间接性的治理规则,如国际数字经贸规则、跨境数据流动规则、国际网络犯罪规则等,但直接规范人工智能的国际条约、协议等国际硬法稀缺,尚未形成具有法律约束力的一般性人工智能国际规则。基于整体发展阶段判断,目前仍处于人工智能国际法秩序构建的早期阶段。一是从国际主体参与来观察,联合国框架下的多边进程大力推动人工智能国际规则制定,而国家行为体间以双多边协商机制为主。此外,国际标准组织、科学共同体、科技产业界等也积极参与人工智能国际规则的制定过程。但意识形态主导下国家阵营分化,并出现人工智能治理制度的“全球竞赛”,美西方积极争夺规则制定的主导权,而发展中国家在规则构建中处弱势地位,缺乏充分表达和参与治理的机会。二是从治理规则内容观察,既有治理内容以伦理治理为主,但近两年推进人工智能安全治理规则成为最高优先事项。已制定的治理规则呈现碎片化的分布态势,多围绕重点议题、重点领域先行推动规则制定的进程,尚未形成全面覆盖、普遍适用的人工智能国际治理规则。此外,当前的技术加速发展暴露规则制定的难点和盲点,既有国际法规则框架难以妥善应对。最大难点是规则制定的协调性挑战,国际行为体在人工智能的治理理念、利益诉求、优先议程等方面存在普遍分歧,国际规则制定的协调难度较大,规则间也缺乏互操作性。在从软法到硬法的趋势转变中,规则制定主导权的多方主体博弈现象突出,并给包容平等、多元参与的国际治理机制建设带来巨大的一致性挑战。以2023年为节点,国际组织和各国政府在人工智能全球治理领域的参与程度和战略部署明显提升,出现从多方进程主导向多边进程主导的过渡与转移的特征。这其中,以联合国为代表的全球性、区域性多边组织对人工智能国际治理的共识与机制落地起到重要的建设作用。数据统计显示,2015年到2023年, 各国共发布172项 AI治理举措, 国际组织发布214项举措, 国际组织已经超越国家成为人工智能治理举措的主要来源。早在2019年, 经济合作与发展组织(OECD)即发布了全球首个政府间人工智能治理原则的文件。作为世界上最重要的多边合作机构,联合国及其附属机构积极推动治理机制与规则的制定进程,强化其在人工智能国际治理中的主导地位。以2023年10月成立联合国高级别人工智能咨询机构(High Level Advisory Body on AI)为标志,联合国加速有关人工智能的国际规则制定,密集出台系列的国际性文件:2024年3月,联合国大会通过关于促进《安全、安全和可信的人工智能系统的决议》;2024年7月,联合国大会通过关于《加强人工智能能力建设国际合作决议》;2024年8月,联合国网络犯罪问题特设委员会通过《联合国打击网络犯罪公约》;2024年9月,联合国未来峰会通过《未来契约》及两个附属文件《全球数字契约》和《子孙后代问题宣言》。联合国关注议题覆盖人工智能发展与安全两个基本面向,而治理文件加速面世既反映出人工智能国际治理规则秩序建设的必要性和迫切性,也反映出联合国协调多方价值利益分歧、为子孙后代承担责任的决心和努力。但在联合国框架下多边合作的主基调外,围绕人工智能的技术竞争与地缘政治紧张态势也愈发明显。美国作为人工智能技术的领先国家,在军事防务、安全合作和标准协调等事项上同盟友开展国际合作,试图维持和强化其在“关键和新兴技术领域”的世界领导者地位。2020年10月,美国商务部发布《关键与新兴技术国家战略》的战略文件,明确人工智能技术是一项关键与新兴技术,人工智能技术合作和发展是同战略对手角逐竞争的关键领域。拜登政府延续前任政府确立的竞争性合作战略,更为密集地通过小多边机制推动“小圈子”合作对话。2021年9月,美英澳建立AUKUS三边安全伙伴关系,将人工智能确定为“高优先级领域”开展合作。生成式人工智能技术突破后,这一“建圈子”的进程加速,2023年5月,四方安全对话机制(Quad)通过《关于关键和新兴技术标准的四项原则》;同年10月,G7“广岛人工智能进程”发布《广岛进程先进人工智能系统开发组织国际指导原则》和《广岛进程先进人工智能系统开发组织国际行为准则》。美国为首的发达国家强调人工智能治理的趋同与对标, 加快构建具有互操作性和一致性的治理规则。但这一合作进程直接服务于技术竞争之目的,且在磋商制定过程中将其他人工智能主要大国排斥在外,也未能充分吸取以金砖国家为代表的新兴市场和发展中国家的呼声和诉求,不利于平等、包容和多元的人工智能国际治理体系形成。(二)大国竞争背景下国家、地区间的人工智能治理竞争
作为全球科技竞争中最为激烈的领域, 人工智能的国际竞争早已超越技术和产业的竞争, 并实质拓展到以治理规则制定为代表的人工智能治理竞争。在大国竞争的趋势背景下,世界主要国家和地区高度重视人工智能治理优势塑造,以此抢占国际人工智能治理格局中的制高点和生态位。各国家和地区围绕国内战略、政策、规划和立法,主要展开以下两方面的行动:其一是强化国内法的示范效应。欧盟《通用数据保护条例》制定后,以成熟规则的优势迅速输出,并形成欧盟法的全球影响力。“布鲁塞尔效应”(Brussels effect)的产生使得国家和地区开始关注技术竞争、产业竞争之外的治理赛道,纷纷打造本国或地区的特色人工智能治理模式,其目的不仅在于回应域内的人工智能发展与安全治理的需要,也试图通过治理制度建设扩大本国或本地区的国际影响力。中国人工智能治理采取“发展与安全并重”的平衡策略,为回应技术迭代采取敏捷治理模式,在立法层面以“小快灵”立法回应技术应用的场景风险,如2022年发布《互联网信息服务深度合成管理规定》,2023年发布《生成式人工智能服务管理暂行办法》都在第一时间回应治理需求,保持着治理的先手优势。欧盟方面通过全球第一部《人工智能法》,试图再次产生立法的“布鲁塞尔效应”。美国为取得和维持在人工智能领域的领导地位,采取促进发展的治理战略,强调分散化监管、行业自我规制和软法治理,建立了人工智能安全研究所,并在该所项下组建包括科技企业、科研院校、非营利组织在内超过200名成员的人工智能安全研究所联盟(Artificial Intelligence Safety Institute Consortium,AISIC)。英国形成了行业主导,重视多方协调的去中心化监管框架。2023年3月发布《人工智能监管:促进创新的方法》,并于同年11月2日成立全球首个人工智能安全研究所。新加坡则通过制定务实的治理框架和操作指引,提高自身治理框架的吸引力。2024年5月发布《生成式人工智能治理模型框架》。此外,也推出AI Verify 测试工具包,旨在为全球人工智能企业提供合规服务。其二是采取单边行动或倡议。在正式的双多边机制之外,国家行为体也通过单边呼吁、行动扩大自身在人工智能国际治理中的话语权与影响力。首先通过立场文件强化自身主张。例如,中国相继发布《全球数据安全倡议》、《全球人工智能治理倡议》、《人工智能能力建设普惠计划》和《全球数据跨境流动合作倡议》,并向联合国提交了《中国关于规范人工智能军事应用的立场文件》《中国关于加强人工智能伦理治理的立场文件》,展现中国在人工智能治理上平等、包容和负责任的大国形象。美国则宣扬、推广其在人工智能军事应用问题上的主张,2023年2月美国提出《关于在军事上负责任地使用人工智能和自主技术的政治宣言》,目前已获逾50个国家支持。其次通过特定领域的单边行动来扩大自身影响。例如,日本积极推动双多边数字贸易规则制定,2019年发起“可信数据自由流动”(DFFT)的倡议已上升为G7集团的集体行动。英国围绕人工智能安全治理议题,主办首届人工智能安全峰会,峰会上包括中美英等28国在内签署全球第一个有关人工智能安全的政府间声明——《布莱切利宣言》。荷兰在2023年2月于海牙举行首届“军事领域负责任人工智能”峰会,包括中美在内的 60 多个主权国家联合签署《军事领域负责任使用人工智能的行动倡议》 (REAIM Call to Action)。韩国则在2024年分别主办第二届人工智能安全峰会和第二届“军事领域负责任使用人工智能”峰会。从进程上看,尽管全球人工智能治理秩序正加速形成, 但现阶段人工智能治理的国际合作仍具有高度碎片化特征。国际行为体间围绕规则制定主导权的复杂、激烈博弈正限制着全方位、多元化、普适性的治理框架和治理秩序的落地成型。在缺乏广泛共识和政治互信的情况下,国家间的技术竞争、治理竞争更可能加剧人工智能安全风险的全球扩散,甚至引发极端的生存性风险。三、碎片化的规则实践:基于重点议题和重要领域的探索
当前,人工智能治理规则的国际实践具有碎片化特征,国际组织、国家行为体等围绕重点议题和重点领域展开探索,形成了一些治理机制,并制定了一些治理规则,但尚未形成全面化、一般性的人工智能国际治理规则。在发展侧,治理规则建设要旨在加强数据、产品和技术的流通,促进数字产业和数字经贸的发展。当前,主要围绕促进数字经济、产业发展的数字经贸规则、数据跨境流动议题,以及旨在弥补智能鸿沟的人工智能能力建设议题开展治理规则制定活动。其一是数字经贸规则的建设。有鉴于人工智能在数字经济中日益重要的作用,近年来数字双多边经贸协议开始在电子商务、数字贸易之外关注人工智能议题,如2020年签署,中国加入的《数字经济伙伴关系协定》第8.2条,2020 年 8 月澳大利亚和新加坡签署的《数字经济协定》第31条均涉及人工智能。但从内容上看,当前条款并不涉及具体的权利义务配置,而仅是缔约方对人工智能治理合作的共识确认。其二是数据跨境流动规则。数据跨境流动议题是人工智能治理的重要组成部分,各国高度重视数据跨境流动的监管。据统计,超过180个区域贸易协定中,已增设包括数据跨境流动在内的数字贸易规则专门章节或者专门条款。但当前,尚不存在全球性、共识性的数据跨境流动规则,2019年在WTO 框架下启动的电子商务规则谈判因各成员国在跨境数据流动、数据本地化、源代码保护、电子传输免关税永久化等方面分歧较大,至今无法有效凝聚为规则文本。政府间数据跨境合作多以区域性多边协议或双边商议为主,典型规则如亚太经合组织跨境隐私规则(Cross-Border Privacy Rules, CBPR),美国、墨西哥、加拿大、日本、韩国、新加坡等国加入。G7集团则在“可信数据自由流动”共识(Data Free Flow with Trust, DFFT)基础上推进数据跨境流动方案,2023年12 月发布《数字和技术部长关于可信数据自由流动的实施声明》。典型双边框架如欧盟同美国建立的《欧盟-美国数据隐私框架》,中国也加速推进双边的数据跨境合作,2024年6月中德签署《关于中德数据跨境流动合作的谅解备忘录》。与此同时,中国与新加坡、中国与欧盟间的数据跨境流动交流机制也在稳步推进。2024年11月,中国进一步发布《全球数据跨境流动合作倡议》,呼吁各国秉持开放、包容、安全、合作、非歧视的原则,在推动数据跨境流动的同时实现各国合法政策目标。其三是人工智能能力建设规则。人工智能技术拉大了发达国家同发展中国家的技术差距,并带来双方之间人工智能技术发展和产业层面的“智能鸿沟”,加剧世界经济结构、政治格局的不平衡和两极分化。为弥合“智能鸿沟”,促进人工智能产业链在全球范围内的合理配置,提高发展中国家的技术条件和能力基础,联合国在《全球数字契约:零案文》中均强调人工智能能力建设的重要性,呼吁人工智能领先国家通过基础设施建设合作、教育培训等方式帮扶发展中国家提高人工智能技术能力,缩小治理代差。中国响应联合国提议,2024年9月提出《人工智能能力建设普惠计划》,提出在人工智能基础设施、产业赋能、人才培养、数据建设、安全治理等领域合作的5大愿景与10项行动,推动全球人工智能包容普惠发展。在安全侧,治理规则建设要旨在有效管控人工智能引发的安全风险,构建人工智能安全治理的国际体系。当前,主要围绕各国最为关切的军事应用和网络犯罪议题推动规则制定工作。其一是人工智能军事应用规则建设。人工智能技术同武器系统结合,促使致命性自动化武器系统(Lethal Autonomous Weapons Systems,LAWS)出现。这类具备自主决策能力、致命打击能力且缺乏人类干预的武器系统一旦大规模部署应用,将严重冲击国际人权法关于禁止使用滥伤性武器、比例原则等基本人道立场。鉴此,国际社会普遍呼吁严厉管控致命性自主武器系统,并通过致命性自主武器系统政府专家组会议协商制定人工智能军事应用规则。2023年5月,在GGE on LAWS多边进程下,阿根廷等14国和美国等7国分别在《特定常规武器公约》项下提出针对自主武器系统的议定书草案。此外,“军事领域负责任使用人工智能”峰会(REAIM Summit)也是促进人工智能军事应用重要平台,在2023年荷兰海牙举办首届峰会上,包括中美在内的国家联署《军事领域负责任使用人工智能的行动倡议》,倡议依照“国际法律义务,以不损害国际安全、稳定和问责的方式”负责任地在军事领域研发和应用人工智能。其二是国际网络犯罪的规则建设。人工智能技术同通讯网络技术结合,特别是合成类、生成式人工智能技术恶用,助长网络犯罪、金融犯罪、儿童色情犯罪等跨国犯罪泛滥。为解决犯罪目的使用信息和通讯技术的国际安全问题,2024年8月,联合国特设委员会投票通过首个全球层面的网络犯罪公约——《关于打击为犯罪目的使用信息和通信技术行为的全面国际公约》(又称《联合国打击网络犯罪公约》,标志着网络犯罪治理国际合作的新格局到来。聚焦国际行为体普遍参与、共同商议的事项,当前也成为人工智能国际规则制定的重点领域。在伦理治理、技术标准治理和安全治理领域,科学共同体、产业界、标准化组织等多利益攸关方积极建言献策,同国际组织、国家等主要国际行为体一道,推动伦理准则、技术标准和安全合作的内容建设。其中,伦理治理领域是国际组织、各国和地区参与度最高、内容最详实的治理领域。当前人工智能国际治理规则内容以伦理规则为主,各国、国际组织在政策实践中围绕人工智能的治理实践文本迅速增加,伦理政策密度加大。国家和国际组织之外,如电子电器工程师协会(IEEE)、国际标准化组织(ISO)等技术机构参与到人工智能伦理标准的制定中。但大部分伦理规则属国际软法范畴,不具有强制约束力,多为建议性、倡导性的伦理原则、共识。而在标准制定领域,电子电器工程师协会(IEEE)、国际标准化组织(ISO)、国际电联(ITU)等国际机构主导国际技术标准的制定。根据联合国《为了人类的人工智能治理》报告,自2018年来,人工智能相关国际技术标准逐渐增长,其中国际电联发挥着主导作用。各国内部也重视人工智能技术标准建设,如美国国家标准与技术研究院(NIST)、中国全国信息技术标准化委员会人工智能分技术委员会(SAC/TC 28/SC 42)等标准化机构承担具体的标准建设工作。但众多技术标准间概念术语、流程方法等尚不统一,未能形成具有互操作性的技术标准执行机制。人工智能安全治理领域是目前最受关注的治理领域,ChatGPT出现,使得安全治理迅速聚焦 AI Safety,即模型本身架构是否安全、可控、可解释,能够同人类的道德、价值观保持一致。在先进人工智能失控隐忧下,科学家共同体高度关注安全治理问题并广泛发声,提出《北京AI安全国际共识》和《AI安全国际对话威尼斯共识》,呼吁更迅速、有力的国际行动应对可能的灾难性风险。国家行为体迅速行动,2023年11月英国主办首届全球AI安全峰会并发布首个全球性AI声明——《布莱切利宣言》;2024年5月第二届全球AI安全峰会在韩国首尔举办,会上发布《关于安全、创新和包容性人工智能的首尔宣言》《首尔人工智能安全科学国际合作意向声明》。美国主导下,西方开展人工智能安全研究所(AI Safety Institution,ASI)建设,美、英、欧盟、澳、加、日、韩等将组建AI安全研究所网络,共同探索在全球范围内建立一致的AI标准和评估框架。站在人工智能国际治理秩序形成的早期节点,面对复杂、激烈的竞争博弈阻碍和碎片化规则制定格局,要切实推动协商一致、有效治理的人工智能国际治理规则体系建立,有必要在共识建设和具体策略上分别发力,探索可行的规则建设方案。具体而言,在人工智能国际治理规则秩序的共识建设上,存在以下三点发力方向:一是要凝聚人工智能国际治理的底线安全共识。全球各方应共同防范、应对人工智能技术可能面临的失控、恶用和滥用风险,倡导负责任地使用人工智能,确保人工智能技术的安全、可靠和可信。二是构建高质量发展和高水平安全统筹平衡的人工智能国际治理体系。在发展治理侧,规则共识促进人工智能技术、产品和服务的跨国流通,能力建设缩小智能鸿沟和治理代差,实现全球范围内各国的均衡、普惠和包容性发展。在安全治理侧,在安全共识基础上尽快探索涵盖国际最大治理公约数的人工智能安全治理体系,为技术划定发展的安全底线和阈值,避免人工智能技术过速发展引发的极端风险出现。三是主张联合国框架下双多边机制推动人工智能国际治理规则秩序建立。首先在联合国框架下建立不同利益相关方都能有效参与的开方性对话平台和包容性治理机制,以真正的多边主义而非“小圈子”推动最大多数利益相关方能够公平参与治理。在人工智能国际治理规则秩序构建的具体策略上,应当充分利用软法和硬法的互补优势,结合当前碎片化、不均衡的规则制定现状,分阶段、分领域、有重点地渐次筑建人工智能国际治理的规则体系。具体而言分为以下三个层次阶段:一是在规则制定推动进程较快和共识基础较好的领域率先发力形成国际硬法。对于人工智能全球治理中的透明度、问责制、关切人类福祉等普遍性技术议题,以及普遍认可的打击网络犯罪、深度伪造等安全问题,可由各国协商共同制定国际硬法来规制,对人工智能技术应用给予较强力度的底线约束。二是以国际软法规则发展为国际硬法规则制定完善奠定基础。在短期内难以形成统一国际规则或标准的复杂敏感治理领域,可利用国际软法提供具有一定弹性空间和指导意义的韧性规范,最大限度凝聚国际共识并率先搭建起治理框架,为相关国际规则的制定和完善奠定基础。三是最终形成多方主体参与下国际硬法与国际软法的协同体系。国际硬法居于体系中心,充分发挥稳定性和强制性的特点,以此提高人工智能国际合作的有效性,国际软法则位于体系外围,利用其所具有的事实效力以及灵活高效、适应性强等优势,吸纳科技企业、科学家共同体等多方主体参与补充国际硬法的不足,维持人工智能全球治理体系有序运转。