关注我们
2024年12月2日上午,由清华大学、新加坡国立大学、香港科技大学联合主办的“2024人工智能合作与治理国际论坛”举办圆桌对话,对话由新加坡国立大学副教务长陈西文(Simon CHESTERMAN)主持,中国政法大学教授、联合国人工智能高级别咨询机构成员张凌寒,微软亚洲区政府事务和公共政策部总监马库斯·巴特雷·约翰斯(Marcus Bartley JOHNS),新加坡政府首席人工智能官兼副首席数字技术官、联合国人工智能高级别咨询机构成员何瑞敏(HE Ruimin),国际商业机器公司(IBM)全球新兴监管政策高级顾问艾达·莫林(Ida Maureen Chao KHO)作为对话嘉宾,共同就本次论坛主题——“人工智能治理的国际合作”展开精彩对话与交流。
圆桌讨论
陈西文指出,当前人工智能国际治理框架由少数发达国家主导,忽视了发展中国家的参与,这导致治理视角和解决方案的局限性。他认为,人工智能技术具有跨国界的特性,任何国家或区域都无法单独应对其带来的复杂问题,因此国际治理需要在合法性和效率之间找到平衡。在这方面,联合国作为全球性组织,可以推动更加多元化的治理讨论,使更多发展中国家的声音被听到。他还强调,信任建设是人工智能治理的核心,通过多边对话和实际合作,可以增强各方对全球规则的认同。最后,他提倡在治理中既要规范技术风险,也要释放其创新潜力,实现“防止坏事发生”的同时,也“允许好事发生”。
张凌寒分享了联合国人工智能高级别咨询机构的工作经验,涵盖“挑战与风险”“机会与赋能”“全球治理机制”三个主要方向。她强调,信任是建立人工智能国际治理的核心,通过解决实际问题,可以逐步积累信任,从而推动治理从小范围的共识扩展到广泛的国际合作,最终形成稳定、持久的全球治理框架。同时,她指出,加强发展中国家的能力建设对于减少全球不平等具有重要意义,并在应对虚假信息、误导性信息等关键风险方面发挥了积极作用。此外,她强调,人工智能治理必须超越国界,以多边合作为基础,通过透明的对话和协调行动实现信任构建,确保治理措施具有包容性和可持续性。
马库斯·巴特雷·约翰斯表示,人工智能国际治理需要解决三个关键问题:一是如何推动全球人工智能信息的流动?二是如何规定人工智能监管的违规成本?三是如何降低不同组织和国家的合作成本?针对这些问题,他认为,人工智能监管组织应当有明确和清晰的规定,多个监管组织应当包容在一个治理体系内。在此基础上,他提出全球治理框架应具备多样性和适应性,不同地区和组织需根据自身需求灵活设计治理模式。最后,他强调通过减少对话障碍、优化合作机制,各方可以共同应对人工智能治理中的核心挑战,推动全球范围内的包容性与可持续发展。
何瑞敏指出,人工智能国际治理应以地方化实践为起点,结合全球经验实现高效管理。他认为,地方化讨论不仅有助于深入理解本地需求,还在促成利益相关方之间的共识方面具有独特优势。地方治理的实践经验可以为全球治理框架的优化提供重要支持。他强调,不同国家和领域应因地制宜,设计灵活的治理模式,以确保技术与社会需求的高度契合,并通过利益共享促进社会福祉。此外,他指出,人工智能技术的核心目标是服务于人类,这需要技术开发与社会需求的深度融合。他提倡包容性的全球AI治理,主张通过对话、利益共享和实际进展推动技术发展,同时加强全球监管,以充分发挥人工智能对全球的积极作用,并有效应对其带来的挑战。
艾达·莫林结合IBM在人工智能伦理实践中的经验,详细阐述了负责任人工智能在技术治理中的重要性。她认为,技术治理不仅要制定规则,还应关注规则在现实中的可操作性,以确保治理措施能够切实有效地应用于不同场景。她主张采用以使用风险为导向的监管模式,聚焦技术应用中的潜在风险,而非直接对技术本身施加限制,以避免过度监管阻碍创新发展。她强调了“伦理设计”的关键作用,通过在技术开发阶段嵌入伦理标准,增强公众对人工智能技术的信任。最后,她指出,包容性是实现技术公平的重要保障,呼吁在治理中融入多样化视角,确保技术惠及更多人群。
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
Bilibili:清华大学AIIG