人工智能风险面前,我们该如何“出招”?

潮新闻客户端 记者 黄慧仙

图片

论坛现场。 潮新闻记者 黄慧仙 摄

“此前看过一则新闻,ChatGPT击败17位医生,帮助4岁男孩精准揪出怪病病因,这说明只要应用得当,AI完全可以成为人类诊疗疾病的助手。但与此同时,哈佛大学附属医院布莱根妇女医院的一项研究显示,在给出癌症治疗建议时,ChatGPT只有62%的案例是完全正确的……”

11月21日,在2024年世界互联网大会乌镇峰会人工智能负责任开发与应用论坛上,深圳理工大学计算机科学与控制工程学院院长、讲席教授,美国医学与生物工程院院士潘毅分享的两则人工智能相关新闻,一下子激起了在场嘉宾的讨论兴趣。

面对人工智能带来的风险挑战,我们该出哪些“招式”应对?

当前,大模型的强大让人们看到了通用人工智能的曙光,但同时也让不少人心生忧惧。技术本身带来的“幻觉”的不可控性,社会治理方面的就业、隐私、安全、伦理、法律等问题,以及更广域视野下数字鸿沟的产生,都是被现场专家频频提及的风险。

近几年来,中国科学院自动化研究所人工智能伦理与治理中心主任、联合国人工智能高层顾问机构专家、北京人工智能安全与治理实验室主任曾毅先后在英国布莱切利和韩国首尔参加了两场人工智能安全相关的会议。两场会议间,令曾毅有些不安的是,各国对于人工智能安全网络的议题讨论度其实有一定减弱趋势。

“人工智能安全与治理的目的是确保人工智能稳健发展,而非掣肘人工智能的发展。‘安全’应成为人工智能发展的第一性原理,纳入人工智能发展的基因之中。”曾毅说,目前,国际人工智能安全与治理体系,表现出明显的“小院高墙”“大院小门”的特点,如在数据的前置过滤问题上,中国就与西方国家就存在着明显差异。要形成行之有效、包容性足够广泛的国际治理体系,彼此之间就需要在维持自身监管体系和治理体系的基础上,在解决方案上找对“接口”,实现更多共通性。

对此,剑桥大学智能未来研究中心项目主任、剑桥大学生存风险研究中心创始执行主任肖恩·欧·海格缇也有着类似的感受。“去年在意大利ChatGPT被禁的原因,就是因为不符合当地法规。”海格缇认为,人工智能安全监管其实也是一种跨区域实验,如何在不同地区、政府之间建立具备可操作性的安全治理体系,将是一个很有意义的长期课题。

当视野从宏观的体系建设落到微观的网络安全治理具体方案上,总有行动派提出具体实践方案:为大模型建立主流价值语料库,减少生成式人工智能在价值导向、虚假信息等方面的风险;用一种大模型来监督另一种大模型,找到大模型中存在的安全问题……

蚂蚁集团副总裁李俊奎提到了“红绿灯”概念。“红灯是做好风险控制,用技术监督技术,保障AI可信;黄灯是做好AI制度馆里,建立AI科技伦理委员会;绿灯则是缩小AI引发的技术鸿沟,让人工智能技术回到产业应用,回到普惠的锚点。”李俊奎说。

所谓“红灯”,其实就是用一种大模型来考验另一种大模型,达到“以攻促防”的效果。李俊奎解释说,生成式大模型是一种“深黑盒”技术,作为“红队测试”方,他们研发的“蚁天鉴AI”扮演了“坏人”的角色,实现“生成式机器人”对“AIGC生成式模型”的诱导式检测计算,从而“找茬”大模型存在的弱点。

去年底,首届全球人工智能安全峰会在英国召开。美国、英国、欧盟、中国等多方代表就人工智能技术带来的风险与机遇展开讨论,推动形成具有广泛共识的人工智能治理框架。去年10月提出的《全球人工智能治理倡议》,也主张人工智能治理应确保有益、确保安全、确保公平。

正如此前业内人士所说,未来,平衡好发展与安全的关系,加快基础研究和技术创新,积极参与全球人工智能治理,将成为推进人工智能有序发展的重要路径。

“转载请注明出处”