客户端
游戏
无障碍

0

评论

收藏

分享

手机看

微信扫一扫,随时随地看

AI快速发展,立一部“根本大法”时机到了吗?专家热议

AI划重点 · 全文约2880字,阅读需9分钟

1.中国政法大学民商经济法学院民法研究所等联合举办“人工智能版权前沿问题”研讨会,探讨技术创新与风险防范之间的平衡点。

2.专家指出,增强AI大模型透明度,切实保护个人隐私安全,已成为大模型企业的一道必答题。

3.由于个人用户对数据价值的认知水平往往与技术公司的利用能力不对等,当前“用户同意”机制仍有待完善。

4.为此,专家建议在后端规制方面,除了重视“告知同意”,还应赋予用户撤回和退出的权利。

5.同时,专家表示,AI法律监管应包容审慎,采取灵活监管模式,充分发挥市场力量。

以上内容由腾讯混元大模型生成,仅供参考

图片

今年政府工作报告提出,持续推进“人工智能+”行动,将数字技术与制造优势、市场优势更好结合起来,支持大模型广泛应用。近年来,我国人工智能产业取得长足进步,逐渐成为驱动新质生产力的重要引擎。与此同时,人工智能技术的每一步创新也不断引发法律与伦理方面的深刻思考。

用户数据如何规范用于模型训练?AI生成内容的版权归属如何确定?如何促进AI产业健康发展?为探寻技术创新与风险防范之间的平衡点,近日,中国政法大学民商经济法学院民法研究所、走出去智库、《互联网法律评论》联合主办“人工智能版权前沿问题”研讨会,来自法学、经济学、公共政策等领域的专家学者齐聚一堂,就当前AI领域的前沿问题展开热议。

减少“数据污染”,用户须负责任地使用模型

当前,大模型训练依赖海量数据,而用户数据通常会被用于模型的优化。如果未明确告知用户将使用哪些数据或者数据的使用范围过于模糊,可能引发对于数据被滥用风险的担忧。会上多位专家提到,增强AI大模型透明度,切实保护个人隐私安全,已成为大模型企业的一道必答题。

中国人民大学法学院副教授姚欢庆提出,各种单一数据对于个人而言没有太多利用价值,但科技公司却能通过不同数据库的汇集和碰撞,迅速拼凑推导出更多的个人信息,比如近期受到热议的“开盒”便是一个例子。由于个人用户对数据价值的认知水平往往与技术公司的利用能力不对等,当前“用户同意”机制仍有待完善,涉及个人隐私的“知情同意”应做到明白、清楚、仔细。

中国政法大学比较法学研究院教授刘文杰表示,目前法律法规并未对用户输入内容是否能用于模型训练作出直接规定,在实践中,用户为让AI更好回答问题,相关提示词可能涉及个人信息。根据《个人信息保护法》,信息输入后,如果服务商想要储存、再加工,需要向用户明示并征求其同意。关于敏感个人信息,我国法律还有“一事一议”的特殊规定,即处理敏感个人信息不能采用概括同意或推定同意的授权模式,而必须获得个人明确的、单独的同意。

北京理工大学智能科技法律研究中心研究员王磊则指出,大型平台企业的数据利用大多合法合规,但黑灰产对大数据的非法运用十分猖獗,须通过政府监管、技术平台和社会多方形成合力进行打击。他指出,当前高质量数据的结构性匮乏已成为制约大模型发展的瓶颈,尤以医疗、交通、金融等领域为代表。

另外,中国政法大学民商经济法学院知识产权法研究所讲师郝明英认为,在后端规制方面,除了重视“告知同意”,还应赋予用户撤回和退出的权利。南都数字经济治理研究中心去年发布的《生成式AI用户风险感知与信息披露透明度报告(2024)》曾在实测15款头部国产大模型时发现,仅有腾讯元宝、智谱清言等4家大模型在协议中提及允许用户拒绝相关数据被用于AI训练。

针对当前模型训练的数据诉求,与会专家讨论指出,模型优化有时缺乏常识和判断逻辑,与用户提供的训练数据质量有关。如果用户不断投喂错误观点和结论,模型将可能赋予错误内容更优先权重。此外,数据标注环节若由非专业人员完成,标注错误往往引发“数据污染”,导致模型输出产生“幻觉”。为了构建良好的生态系统,其中用户负责任地使用模型也是重要一环。

AI生成内容权利、义务及责任应当相适应

生成式人工智能在各领域被广泛应用以来,其生成内容的版权纠纷也密集涌现。从2023年至今,我国已涌现一批相关司法判例,为AI生成内容的权利和责任归属问题提供了支撑。

郝明英指出,中国现有判例表明,如用户在提示输入、结果筛选等环节体现“独创性劳动”,即认定生成内容受版权保护。这与日本文化厅最新意见相近,结合产业实践,OpenAI、Midjourney等海外平台也大多在用户协议中将生成内容权利归属于用户,强调“人类创作性贡献”的核心地位,“指令的具体性”是影响认定的因素之一。

刘文杰则指出,当前司法实践中对AI生成内容场景中用户“作者”身份的判定其实不同于传统著作权法理论。以北京互联网法院相关判决为例,法院虽认可用户对AI生成图片的著作权,却要求该用户在作品上标注所使用的AI技术,这说明此处的用户与传统著作权法理论中的“作者”并不完全等同。用户提供提示词触发模型运行,进而由模型输出内容,此时用户对生成作品的贡献更接近于工具操作者或“制作者”,而非“创作者”。

谈及AI生成侵权内容时的责任问题,郝明英表示,目前基本各国都认同AI无法成为权利主体的观点,这就意味着一旦出现侵权问题,它无法承担相应责任。在生成内容权利归属于用户的情况下,如果由平台承担侵权责任,就会违背“权责统一”的基本原则。

她强调,基于AI生成内容的权利、义务及责任应当相适应,在发生侵权行为时衡量平台责任,需主要考虑其注意义务的边界。刘文杰也认为,如果人工智能生成内容受《著作权法》保护,就存在责任区分问题。只有承认生成内容相当程度上来自于平台运营的人工智能模型,才能要求平台承担责任。

对外经济贸易大学政府管理学院讲师冯昕瑞表示,AI对人类社会一大冲击的体现是秩序被打破后带来的混乱,从秩序维护的角度看,她倾向于给予使用者端更多的版权和责任。反之如果让模型端承担更多权利责任,一方面可操作性更低,另一方面过多的规制可能降低模型能力,从而影响产业效益。

国研新经济研究院创始院长朱克力则指出,经济学强调“成本—收益”逻辑。工业时代,创作者投入大量时间、智力等成本,所以其著作权受法律保护以便获得收益;但在人工智能时代,用户进行文字、图片等产出的投入成本明显降低,且相关产品具有普惠性,在探讨权益问题时需将如何平衡投入、产出也考虑进去。

AI法律监管应包容审慎,“让子弹飞一会儿”

如今,人工智能的飞速发展正推动人类社会生产从自动生产向智能生产转变,面对其为“创作经济学”带来的巨大冲击,我国现有的法律框架是否还能解释和适应AI对创造力本质的改变?

朱克力表示,过去的版权法律体系完全是基于人类作为创作主体而构建的,如今创作主体已经发生了变化,不仅包括人,还有“人机协作”等情形。这一背景下,原有法律框架与生产生活必然产生冲撞,如今对相关法律框架进行前瞻性调整的时机已经到来。

那么,如何从监管角度规范和促进AI发展?王磊提出两点更适合现阶段AI监管政策的观察。一是“小步快跑”——就个人信息保护、生成式人工智能、深度合成伪造等具体问题,相关主管部门以敏捷治理方式给出监管要求,如十条到二十条左右的规定,具有很强针对性和灵活性。

二是,“让子弹飞一会儿”——以共享经济为例,在讨论共享经济要不要立法的过程中,共享经济就已经不具备立法规制相应的规模了。这说明“市场有自我纠偏能力,要兼顾考虑法律框架,也要充分发挥产业和市场的力量。”在他看来,缓步推进立法新进程,对AI产业发展持开放性态度,对于科技企业及高新技术发展或更有利。

刘文杰认为,从ChatGPT到DeepSeekManus,目前人工智能还处于飞速发展阶段,其将对人类生活及国际竞争产生哪些长远影响,仍待深入观察。同时,目前我国行政主管部门通过规章、规范性文件等多种方式对人工智能产业进行监管,可根据实际情况及时调整监管力度。这种灵活监管模式有利于产业发展,相较于通过一部AI“根本大法”解决所有问题的设想更切合实际。

他建议在不侵害人基本权利的前提下,采用更加包容的监管方式,“不是用大量禁止条款管它,用提倡的方法、促进的方法。”在相关应用落地时,对其进行审慎的安全评估,同时充分发挥市场力量,“如果你(应用)真的不好的话,不用开发商创造什么风险,市场自然会给你‘清场’。”

郝明英也表示,如今人工智能、知识产权等都已成为国际竞争的抓手,甚至已经成为部分国家的“武器”。在这一背景下,未来法律进行适应性调整,既要从人类命运共同体角度出发,也要有国家竞争的因素考量。在全球视角与国际竞争层面,AI发展领域须加快提出“中国方案”,发出“中国声音”。

采写:南都记者樊文扬

免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
举报
正常人的智商范围在85~115,你的智商在正常水平吗?测一测
广告千映智智商测试
了解详情
评论 0文明上网理性发言,请遵守《新闻评论服务协议》
请先登录后发表评论~
查看全部0条评论
首页
刷新
反馈
顶部