2024年,大模型热潮进入第二年,技术迭代和竞争更加激烈,企业争相拼落地、拼价格、拼技术路线。随着大模型应用场景渗透到社会的每一个角落,昔日高居云端的AI智能已步入寻常百姓家,越来越多的普通人开始使用和掌控它。
AI正在重塑这个世界,对于新技术,人们有期待也有担忧——虚假信息、算法歧视、侵犯知识产权、数据安全、个人隐私泄露、就业冲击等等,让全社会对AI伦理治理的关注比以往更为强烈。
在这一背景下,南方都市报、南都数字经济治理研究中心联合清华大学智能法治研究院,以“AI应用落地提速,如何向善治理”为主题,将于12月18日下午在京举办“第八届啄木鸟数据治理论坛”。从完全不了解到经常使用AI工具,人们的“AI焦虑”是更深了还是有所缓解?具体又对哪些潜在风险,感到格外担忧?AI技术到底是生产效率的提升者,还是麻烦的制造者?这场论坛将逐一解答。
最新的生成式AI使用与风险感知报告,最权威的AI安全分享,最前沿的数据要素化解读,最贴近一线的AI版权讨论视角……用户和企业关心的AI话题与数据,这场论坛也将全方位聚焦呈现。
清华大学智能法治研究院院长申卫星,南方都市报党委副书记、主编刘江涛等领导嘉宾将分别为论坛致辞。在主旨演讲环节,本次论坛邀请了来自知产、法律、技术人文等领域的4位重磅级专家,从不同专业角度分享对当前人工智能技术发展的观察与思考。
中国工程院院士吴世忠将分享对AI安全与治理现状的观察,从宏观视角剖析当前AI技术的安全性及合规治理建议;中国社会科学院法学所研究员周汉华,则将发表题为《发挥数据的乘数效应与数据确权的方向》的主旨演讲,为与会听众带来关于数据价值最大化、以及确权定价的前沿思考。此外,中国文字著作权协会常务副会长兼总干事张洪波,将围绕“生成式人工智能数据使用的版权边界与利益平衡”进行阐述;知名学者、中国人民大学哲学院教授刘永谋,还将以《机器情感与AI陪伴的人文审度》为主题分享,探讨人机交互中伦理道德的重要性。
有价值的观点通常在“交锋”中产生。除了精彩的主旨演讲外,本次论坛还特别设置了圆桌对话环节。对话将围绕“AI浪潮下,数据治理新趋势”展开,由南都数字经济治理研究中心负责人李玲主持。届时,中国科学院科技战略咨询研究院科技发展战略所所长肖尤丹、清华大学智能法治研究院院长助理刘云、赛博昆仑创始人兼CEO郑文彬以及金山办公安全中心负责人刘振全等四位嘉宾将齐聚一堂,共同探讨AI技术发展背景下数据治理面临的新形势与解决方案。
论坛当天,南都数字经济治理研究中心还将重磅发布3.6万字的《生成式AI用户风险感知和信息透明度测评报告》(2024)(以下简称“《报告》”)。该报告通过数据可视化分析、文本分析的方式,基于上千份问卷调研数据,呈现2024年大模型行业应用落地的合规现状,以及用户对生成式AI潜在风险的认知和态度。为了解当前国产大模型信息披露透明度情况,《报告》选取了15款常用的大模型产品作为测评样本,通过隐私政策和用户协议测评,产品功能设计体验等方式,了解各家的信息披露透明度。报告同步也注重观察行业实践案例,对比了ChatGPT、Gemini等国外主流生成式AI在数据安全、隐私保护等方面的先进做法。
测评主要基于个人信息保护、知识产权、内容安全、特殊群体保护、投诉反馈等5个维度,并细分20个具体测评项。 而结果显示,15款被测大模型产品无一披露训练数据来源;基于技术的局限性,各家均称无法完全保证AI生成内容的真实性和准确性;绝大多数大模型产品声明,会将用户输入的信息内容、提示语等用于模型训练,仅有4款允许用户撤回语音信息授权。值得注意的是,虽然大多数用户认为AI生成的文本内容真实性和逻辑性较高,但对于绘画、音频和视频等内容的质量评价普遍偏低。
《报告》披露,经问卷调研发现,近九成受访者对生成式AI的潜在风险有一定认识,但深入了解的比例相对较低。虚假信息与欺诈最令受访者担忧,隐私与数据安全、科研诚信风险、版权作品被盗用也引起普遍担忧。对于AI深度合成技术被滥用的问题,支持通过立法以及对生成内容添加明确标识扼制此类现象的人数最多。《报告》重申尊重知识产权和原创性,同时建议加强对AI生成内容的标识要求,呼吁相关的管理办法和国标尽快出台,为产业界提供清晰指引和落地指南。
“第八届啄木鸟数据治理论坛”作为一场AI思维碰撞的知识盛宴,积极汇聚各方锐见,探索AI治理之道,力求在技术创新与社会责任之间找到最佳平衡点。我们诚挚地邀请各界人士莅临现场,与行业领袖们一同探讨AI治理的前沿话题,见证最新研究成果的发布,共话智能向善的美好未来!
出品:南都数字经济治理研究中心
采写:南都记者 吕虹
设计: 李蓓