划重点
01专家学者在第八届啄木鸟数据治理论坛上讨论人工智能发展与安全,揭示AI发展中的挑战与未来治理方向。
02中国工程院院士吴世忠提醒全球范围内加强AI监管的紧迫性,指出AI技术发展与安全研究之间的不平衡。
03中国社科院法学所研究员周汉华批评以数据交易为目标的数据确权思路,提倡以数据互操作性作为数据价值实现的新途径。
04清华大学教授申卫星强调在AI时代探究事实真相的重要性,呼吁客观、全面地揭示中国人工智能治理的现实需求。
以上内容由腾讯混元大模型生成,仅供参考
中国工程院院士吴世忠
中国社科院法学所研究员周汉华
清华大学教授申卫星
12月18日,南都数字经济治理研究中心联合清华大学智能法治研究院“第八届啄木鸟数据治理论坛”在京举办,十余位专家学者分享了对数据和人工智能领域热点话题的看法。中国工程院院士吴世忠警示了AI技术发展与安全研究之间的不平衡,强调全球范围内加强AI监管的紧迫性。中国社会科学院法学所研究员周汉华批评了以数据交易为目标的数据确权思路,提倡以数据互操作性作为数据价值实现的新途径。清华大学教授申卫星强调在AI时代探究事实真相的重要性,并指出国内外人工智能立法经验的重要性及其局限性。这些讨论不仅揭示了人工智能发展中的挑战,也为未来的治理方向提供了宝贵的思考。
中国工程院院士吴世忠:
相较AI技术发展,安全研究明显滞后
“AI治理的根本目的是要管控安全风险。”中国工程院院士吴世忠在论坛上分享了对人工智能安全与治理现状的观察。他提到,AI在带来发展奇迹的同时,安全隐患也相继浮出水面。比如,2023年基于深度伪造的诈骗暴增3000%,钓鱼邮件增长了1000%,有的还伪造了名人政要的视频。此外AI赋能勒索病毒、数据窃密和网络诈骗等,也给网络安全带来了新挑战。
AI已进入“大算力+大模型+大数据+大应用”时代
当天论坛上,吴世忠从发展、生态、安全和治理四个维度勾勒了AI发展的总体态势。就发展而言,当前AI技术可谓日新月异,它已成为一个重大的科技创新和重要的发展动力。
从2022年底GPT的横空出世,到今年初SORA的文生图景,从“大力出奇迹”的大模型到一举天下知的GPU(图形处理器),“短短三年内,AI不仅迅速改变了科学范式,而且在深度探究极限推理。”吴世忠说。
基于这样巨大的发展潜力,AI成为各国高度重视的战略科技,大国之间积极开启布局,抢占先机。在吴世忠看来,目前AI已进入“大算力+大模型+大数据+大应用”的时代。“算力即是权力,模型孕育智力,数据涵养能力,应用形成实力——这既是当前发展的主流生态,也是大国竞争的主要赛道。”
AI在推动科学研究的范式转变的同时,AI的广泛应用也在极速放大安全风险。着眼于近忧层面,吴世忠提到深度伪造技术的危害,AI赋能勒索病毒、数据窃密和网络诈骗等安全新挑战,以及在智能交通、智慧医疗等领域,也带来复杂的价值对齐需求。
“虽然业界对AI安全的远虑也有不同声音,但对智能时代的安全认知却日渐清晰。”吴世忠认为,不同于IT时代的网络安全、数据时代的信息安全,如今是智能时代的智慧安全,是AI自身安全(Safety)、AI攻防安全(Security)和伦理道德安全(Ethics)的系统叠加和综合集成。
AI治理研究需加强跨学科综合研究和各界力量参与
要应对AI带来挑战,安全研究任重道远。据吴世忠介绍,安全内容包括四大方向:基础研究旨在识别安全风险,探究安全机理;技术研究立足攻防兼备,深化测试评估;伦理研究重在支撑政策法规,落实治理要求;应用研究则为了促进行业应用,保障发展安全。
在对近十年全球AI科技论文进行统计分析后,他发现相较于AI技术的发展,安全研究明显滞后,研究力量分布和资源利用也有待优化。研究相对集中的基础、技术、伦理和应用四大方向进展不一。围绕安全问题的风险、可信、攻击、防御、测评、应用和治理七个领域的研究也才刚刚兴起,有待深化。
纵观国际治理的动向趋势,欧盟、美国、中国等纷纷基于自身立场和利益提出了不同的治理模式。据吴世忠介绍,欧盟基于风险分级的方式,推出全球首部《人工智能法案》,在透明度和安全义务上施加最严格的限制;美国则采用“外紧内松”的策略,积极主导AI国际治理进程,在国内的监管则倾向于企业自律;中国采取的是统筹发展与安全的综合性治理方式,坚持以人为本、智能向善。
值得关注的是,去年以来多国先后成立“人工智能安全研究所”和“安全研究联盟”,加强安全研究、标准制定、安全测评,谋求人工智能全球治理主导权和话语权。
吴世忠认为,AI全球治理已进入提速换挡的关键期,治理方向逐步从各自为政向协作互动转变,且越来越注重通过政策和技术落地来推动“最佳实践”。
聚集AI治理的核心议题,吴世忠提到,由于法律制定滞后于技术发展,导致在AI应用过程中出现了诸多监管延迟,为潜在的风险滥用提供了“温床”。而全球范围内规范标准的不一也阻碍了国际技术的交流与合作。
那么,该怎么处理技术与伦理发展失衡问题?如何开展AI治理研究?吴世忠认为,这需要加强跨学科综合研究和社会各界的参与,以构建一套适应AI时代要求的伦理框架与法律体系,在确保技术进步的同时,尊重和保护人类的尊严、权利与福祉。
我国布局智能社会实践并积极发出国际治理倡议
吴世忠还分享了中国探索AI治理的路径与方向。他提到在顶层设计方面,据不完全统计,截至目前已有超二十项人工智能相关国家政策,地方性政策文件甚至超百件。
南都记者注意到,2017年3月,“人工智能”被首次写入国务院政府工作报告。今年3月,政府工作报告又将“人工智能+”上升到行动层面,明确提出深化大数据、人工智能等研发应用。不久前刚举行的中央经济工作会议,再提开展“人工智能+”行动,培育未来产业。
梳理这些政策文件,吴世忠发现,我国政策治理视角聚焦于鼓励技术创新、建立标准规范、安全风险治理和科技伦理治理四个方面。政策治理对象,主要体现在数据、算法和生成内容上。在治理主体上也表现出多元化——不仅有政府部门,还有企业、行业协会、科研院所、标准化组织等,形成了软规与硬法相结合、多元主体协同治理、多样化举措并举的敏捷治理模式。
值得一提的是,中国也在积极提出AI国际治理的方案。比如7月,第78届联合国大会协商一致通过中国主提的加强人工智能能力建设国际合作决议,140多国参与联署。决议旨在帮助各国特别是发展中国家从AI发展中平等受益,致力于弥合数字鸿沟。
基于以上观察,吴世忠建议,我国要始终坚持强技术、重安全、引人才、推应用的方向。不断推动产业链核心关键环节的国产化;深入推进和加强数据治理,布局建设国家级人工智能安全风险测评体系和能力;广泛吸纳海外高端人才丰富我国人才储备;统筹重点行业应用试点以提升人工智能产业实力和影响力。
中国社科院法学所研究员周汉华:
数据确权需走出以数据交易为目标的“误区”
中国社科院法学所研究员周汉华认为,当前以数据交易为目标的数据确权思路,在实践中问题与争议重重,难以发挥数据要素乘数效应——促进数据多场景应用、多主体复用。周汉华在会上表示,要走出以数据交易为目标的数据确权“误区”,转而以“数据互操作”作为数据价值的基本实现形式,也就是通过开放标准或者接口等,实现不同平台企业(系统、应用或设备)之间的兼容,使不同企业能够交换数据,从而满足“数据二十条”提出的增强“数据要素共享性、普惠性”的目标。“数据产权并不需要界定数据为谁所有,而是强调数据相关方均有权使用数据,本质是推动‘数据互操作’。”周汉华解释说。
与“数据二十条”提出“增强数据要素共享性、普惠性”相去甚远
2022年底印发的“数据二十条”,提出构建数据资源持有权、数据加工使用权、数据产品经营权的数据产权“三权分置”。“数据二十条”淡化了所有权观念,强化使用权,让数据高效流通使用赋能实体经济。
2023年底,国家数据局等17个中央部门印发《“数据要素×”三年行动计划(2024—2026年)》,首次提出要充分发挥数据要素乘数效应,发挥数据要素的放大、叠加、倍增作用。周汉华说,这为明确数据确权方向提供了更具有可操作性的标准,也可以用来判断现有数据产权制度设计是否合理。
周汉华分析,当前数据确权着眼于数据交易,并由此出发,进行确权、估值、登记、入表、交易等一系列制度安排。这种制度思路背后,实际上是以确立数据实际持有者或控制者的权利为中心。而且,此种数据确权的目的在于保护数据持有者的支配权、排他权,实质上沿袭了传统的物权确权模式,尤其与土地确权模式类似——土地的所有权、承包权、经营权“三权分置”。但是,和土地这类生产要素不同,数据具有非独占性、非排他性的特征。因此,以数据交易数据为目标的确权思路存在致命缺陷,与“数据二十条”提出的“增强数据要素共享性、普惠性”相去甚远。
数据交易模式下社会总收益未发生变化
实践中,目前的数据确权模式涌现一系列问题:数据交易所场内交易数量匮乏;企业数据资源入表积极性不高;资本市场(股价)对数据资源入表反应冷淡;律所、会计师事务所等数据资产化第三方服务机构,向数据交易所缴纳会费,希望从数据交易市场分一杯羹,但实际上没多少业务;数据确权登记的法律效力不明确,数据资产估值与定价难;不同企业入表的数据资源占总资产的比例差别巨大;数据资源入表可能触碰财务造假刑法红线;土地财政难以为继后,大量城投企业将手中数据资源入表的积极性高,这导致土地城投风险演变为数据城投风险;城投的数据属于公共数据,原本应开放给全社会使用,现在却因授权运营,公共数据开放的空间被不断挤压;数据抵押融资后,风险向银行传导,于是银行从严控制数据资产抵押融资授信额度。
周汉华进一步表示,数据交易模式下,卖方的收入来自于买方的支出,社会总收益并未发生变化,只是财富转移。如果卖方收入过少或者没有交易,而制度建设与中间环节过多,还会导致收入实质性小于支出,造成社会效率损失。另外,卖方与买方信息不对称,卖方希望有个好价钱,但价格越高,数据买方越少,双方存在零和博弈,最终没有增加收益。
周汉华据此认为,如果不调整数据确权中沿袭的物权确权思路,会出现具体制度成本越大、制度建设越到位,反而交易成本可能越高,数据交易越少。
“数据互操作”给市场新进入者机会
如何调整?周汉华给出的思路,是以“数据互操作”作为数据价值的基本实现形式。“互操作”创造价值有一个典型案例:不同地方、使用不同终端、语言的用户均能通过互联网进行交流。“数据互操作”是以不特定数据使用者或者网络用户的权利为中心,不再以数据实际持有者的权利为中心,目的在于保证所有使用者均能接入网络、使用数据。
周汉华说,“数据互操作”的意义,远非按物权确权模式那样,仅仅增加一些数据交易量或者资产负债表中的资产可比。
但周汉华亦指出,我国目前的具体法律规则、制度、实践很多都不支持“数据互操作权”。尤其互联网大厂缺乏动力,因为选择不兼容通常有利于大平台,而“数据互操作”把机会给了市场的新进入者。周汉华建议,在明确“数据互操作”的数据确权新方向后,需要对现行制度、规范进行系统梳理、清理,以实现“数据二十条”的原则与基本设想。
清华大学教授申卫星:
探究事实真相在人工智能时代至关重要
清华大学智能法治研究院院长、法学院教授申卫星以视频形式为论坛致辞。他表示,探究事实的真相在人工智能时代至关重要。
从研究者的角度看,申卫星认为需要深入了解中国产业现状、消费者意识,才能把握中国人工智能治理的现实需求是什么。“国外的人工智能立法给我们提供了有益经验,但是也容易让我们形成路径依赖,导致不少研究者只能聚焦于法律移植研究。”
究其原因在于,研究者苦于缺乏真实情况的案例、数据支撑,司法案例有滞后性,乃至存在一定的刻意创造性。他说,期待更多中国本土的人工智能治理需求能够被客观、全面地揭示出来。
从消费者的角度来看,也需要提升人工智能的透明度辅助用户正确地认识AI的真相。当前AIGC创作能力日益逼真,以至于“眼见不一定为实”,由此可能引发数字沉迷、财务诈骗、虚假信息等问题。
为警惕AIGC让人难以区分虚拟与现实,消费者应提高人工智能素养,掌握正确认识和使用人工智能工具的能力。申卫星还提到,从国内外的人工智能治理趋势来看,通过深度合成标识、算法和数据披露等方式提高AI的透明度已经成为人工智能治理最大的共识。
从市场秩序来看,申卫星强调,需要客观地表达人工智能的“能”与“不能”。在他看来,“科学研究的人工智能和现实落地的人工智能是存在差异的,要避免把科学研究中设置大量假设条件的AI能力在商业落地中进行夸大的、片面的宣传。”
也就是说,在产业应用中,既要相信人工智能的巨大发展潜力,也要理性看待人工智能发展过程的阶段性,认识其不足并不断探索改进的方向。
“期待我们在AIGC时代依然具有掌握事实、掌握真相的能力和依据。”申卫星说。
出品:南都数字经济治理研究中心
采写:南都记者李玲 杨柳 发自北京