关注我们
为了促进人工智能健康发展,规范人工智能生成合成内容标识,2025年3月14日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局等四部门联合发布关于印发《人工智能生成合成内容标识办法》的通知(以下简称《标识办法》),同步推出的还有强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》。作为全球率先提出保障人工智能安全可信的“中国方案”,《标识办法》的发布具有里程碑式的重要意义。
值得注意的是,ChatGPT、Stable Diffusion、Transformer-TTS等生成式人工智能(Generative Artificial Intelligence,GAI)的迅速发展已经颠覆人类信息获取方式,人工智能生成内容(Artificial Intelligence Generated Content,AIGC)预计2026年将占据互联网内容的90%。
海量信息的生成与合成在促进经济社会发展的同时,也产生了人工智能技术滥用、虚假信息传播加剧等诸多风险问题。那么,现阶段人工智能生成合成内容标识涉及哪些技术手段?世界各国存在哪些实践经验?未来人工智能生成合成内容标识制度又面临哪些挑战?这都是需要考虑的重要问题。
Part1
人工智能生成合成内容标识相关技术手段
Part2
人工智能生成合成内容标识制度的国际经验
Part3
人工智能生成合成内容标识制度的实践挑战
Part4
人工智能生成合成内容标识相关技术手段
人工智能生成合成内容涉及多种内容标识的技术方法和载体手段。其中,较为典型的诸如C2PA技术、SynthID技术、Stable Signature技术等。
首先,C2PA技术是由内容溯源和真实性联盟(Coalition for Content Provenance and Authenticity,C2PA)推出的一项内容凭证溯源技术。它借助元数据嵌入、加密哈希值、信任信号等方式实现内容认证,旨在为数字内容提供可验证的元数据,以应对人工智能驱动技术引致的信息真伪辨别问题。
图1 C2PA架构组成
图片来源:C2PA Technical Specification
其次,SynthID是由谷歌旗下人工智能公司DeepMind开发的一种用于对人工智能生成内容添加水印和识别的技术。具体地,它能将不可见水印直接嵌入人工智能生成内容中,同时保持内容的完整性和质量,即使经过修改(如裁剪、添加滤镜、改变颜色或调整帧率),水印仍可以被检测。
图片来源:Google DeepMind
最后,Stable Signature是由互联网公司Meta与法国国家信息与自动化研究所(INRIA)联合开发的数字水印技术,用于标记人工智能生成内容。与SynthID技术类似,Stable Signature技术通过在生成模型中嵌入隐形水印,即使生成的图像经过裁剪、压缩、颜色更改等破坏性操作,仍能追溯其初始来源,并防止被非法使用。
图3 Stable Signature工作路线
图片来源:Meta
值得一提的是,以TikTok、OpenAI、Meta等为代表的科技公司也陆续推出了关于人工智能标识的相关功能。以TikTok为例,它通过引入Adobe公司“内容凭证”(Content Credentials)标记系统将人工智能生成处理图像、视频的元数据嵌入其中,可以帮助平台迅速识别并自动标记人工智能生成合成内容。例如,当用户将使用诸如DALL·E 3、Bing Image Creator等工具制作的人工智能生成合成内容上传至TikTok时,系统会自动添加“AI生成”标签,告知观众该内容是通过人工智能技术创建的。
“人工智能+”的核心在于利用人工智能的强大能力,促进这些行业的数字化转型和智能化提升。此外,大模型的发展为智能终端提供了强大的基础平台,有望开启“AI+”时代。国家政策也积极鼓励构建AI+行业应用繁荣生态,以促进人工智能在行业中的应用和发展。然而,人工智能的发展与应用并非没有挑战。如何确保人工智能的应用符合伦理标准,保护个人隐私和数据安全,以及如何处理人工智能可能带来的就业影响等问题,都是需要深入探讨和解决的问题。
因此,“人工智能+”不仅是一个技术应用,更是一个涉及社会、经济、法律等多方面因素的复杂过程。总的来说,“人工智能+”代表了一种趋势,即通过人工智能与各行各业的深度融合,推动这些行业的智能化升级和创新发展。这要求我们既要充分发挥人工智能技术的优势,又要妥善应对其带来的挑战,以实现可持续发展和社会进步。
人工智能生成合成内容标识制度的国际经验
表1 部分国家(地区)人工智能生成合成内容标识政策文件
总体而言,虽然各国(地区)政策文件中的具体内容有所区别,但均从不同方面对人工智能服务提供者作出了明确规范与要求,可以预见人工智能生成合成内容标识制度将成为未来人工智能治理的重要机制与关键一环,需要以政府为主导的多元主体协同参与治理实践,以促进“善治”目标的实现。
人工智能生成合成内容标识制度的实践挑战
作为人工智能时代保护公众权益、维护公共价值的重要制度设计,人工智能生成合成内容标识制度在治理实践中仍可能面临一系列困难与挑战,并具体表现为标准化管理与差异化治理、技术规制与技术发展、本国实践与全球行动等三对矛盾。
其一,标准化管理与差异化治理。人工智能生成合成内容的提供、传播、分发、使用等涉及多方主体,需要针对不同的主体特征合理划定责任、配置义务。然而,现阶段各国人工智能生成合成内容标识制度的设置往往是针对“信息服务提供者”的特殊要求,一定程度上忽视了“用户”“内容传播平台”等其他主体。此外,若以市场角色作为划分依据,则生成式人工智能服务提供者又可以区别为基础大模型开发者、垂直行业模型开发者、生成内容服务提供者等。事实上,不同的人工智能模型、平台和应用程序存在很大差异,生成内容的格式、特点也不尽相同。一方面,需要明晰责任主体的标准化、程序化义务,实现统一的标识管理,另一方面,准确识别不同类型主体、不同技术逻辑模型的差异化特征与个性化需求,分层分类、分级分步治理,做到具体责任具体划定、具体问题具体分析。
其二,技术规制与技术发展。考虑到人工智能技术的复杂性、应用的广泛性、决策的不可解释性等诸多特征,针对人工智能生成合成内容标识制度的治理措施和规制负担均可能“牵一发而动全身”,容易陷入人工智能技术规制与技术发展的二元困境。一方面,无差别、过度的技术监管不仅会加重人工智能服务提供者、传播平台,乃至用户的合规成本与义务负担,也可能引致低风险内容监管过度、高风险。内容监管不足的规制困境,不利于国家在日趋激烈的国际竞争环境中取得优势地位与话语权。另一方面,放任人工智能生成合成内容自主发展,也可能出现错误信息传播、虚假信息泛滥、伦理道德争议等一系列风险问题,例如地震被压在废墟下的小男孩、80后死亡率突破5.2%等。因此,需要进一步构建兼顾发展与安全、且不超越当前及未来技术发展可能性的人工智能治理框架,尽可能保证人工智能技术在合规的轨道上“风驰电掣”。
其三,本国实践与全球行动。人工智能生成合成内容的传播与应用具有体量大、速度快等特点,在世界范围内的跨境流动中具备不可控性与不确定性。一方面,由于各国经济发展、技术水平、价值取向等方面的差异性,人工智能生成合成的内容导向也有所区别,判断海外“信息服务提供者”发布的内容是否符合本国法律法规、道德规范需要大量的监管资源。另一方面,现阶段各国在人工智能生成合成内容标识的相关立法、制度实践与技术标准等方面还没有达成全球共识,考虑到资本公司天然的逐利性,违法者一旦利用人工智能生成合成内容进行跨境网络犯罪活动,将不利于全球人类的发展与生活,而构建一个更加开放、包容、可持续的人工智能治理环境应当成为国际社会的共同认知。
2025年3月14日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局四部门联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》)。
《标识办法》旨在促进人工智能健康发展,规范人工智能生成合成内容标识,保护公民、法人和其他组织合法权益,维护社会公共利益,于2025年9月1日起施行。
以下是要点信息和全文标注。
关于印发《人工智能生成合成内容标识办法》的通知
国信办通字〔2025〕2号
各省、自治区、直辖市互联网信息办公室、通信管理局、公安厅(局)、广播电视局,新疆生产建设兵团互联网信息办公室、工业和信息化局、公安局、文化体育广电和旅游局:
为了促进人工智能健康发展,规范人工智能生成合成内容标识,保护公民、法人和其他组织合法权益,维护社会公共利益,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局制定了《人工智能生成合成内容标识办法》,现印发给你们,请认真遵照执行。
人工智能生成合成内容标识办法
审核丨梁正 鲁俊群