划重点
01复旦大学张成洪教授表示,算法审计有助于建立算法治理的长效机制,当前我国的算法治理已逐步推进。
02未来算法审计或将体系化、规范化,需要明确并落实一系列核心标准,如算法的透明性与可解释性。
03为此,应建立专门的第三方算法审计机构,对企业的算法应用是否符合政策法规进行独立审计和评价。
04同时,完善算法审计的技术手段、标准和流程,以确保AI系统的透明性、公平性和合规性。
以上内容由腾讯混元大模型生成,仅供参考
算法为各行各业带来了无限可能,然而我们也时常被“困”:“信息茧房”困住了屏幕前的人,“大数据杀熟”困住了钱包,送餐系统困住了骑手,AIGC(生成式人工智能)又带来了新“困境”。
国家网信办等四部门联合开展“清朗·网络平台算法典型问题治理”专项行动,进一步深化互联网信息服务算法综合治理。南方都市报、南都大数据研究院推出系列访谈报道,专访算法领域的实践者、研究者,描摹发展现状,考量应用实效,研判问题风险,探索长效治理,助力塑造更加健康、透明和公平的算法生态环境,推动算法技术发展秉持科技伦理,向上、向善。
系列访谈第6期,专访复旦大学管理学院信息管理与商业智能系教授、博士生导师张成洪,聚焦算法的合规性审计落实,探索算法的长效治理机制。
近日,四部门联合开展“清朗·网络平台算法典型问题治理”专项行动,要求定期审核、评估、验证算法机制机理、模型、数据和应用结果等,常态化开展算法安全自评估。当前,我国的算法治理进展到了哪一步?未来将如何前行?
复旦大学管理学院信息管理与商业智能系教授张成洪接受南都专访指出,这次专项行动针对传统AI领域面临的一些问题,主要以企业自查的形式去做治理,用“算法专项治理的清单指引”告诉企业要检查哪些要点和内容。接下来治理的一个趋势是要去落实对算法的常规性的合规审计,依据法律法规或者行业要求定期对企业展开检查和监管,这个可能需要企业内部来做,也需要行业或国家成立专门的机构监管机构去做。
未来算法审计或将体系化、规范化
南都:近日,四部门联合开展“清朗·网络平台算法典型问题治理”专项行动,明确提出整治信息茧房、热搜榜单、新就业形态劳动者权益、大数据“杀熟”等问题,要求算法向上向善、落实算法安全主体责任等,您如何看待上述问题的治理?
张成洪:当下许多平台决策和业务流程已高度依赖算法,特别是人工智能技术的深度参与。这次专项行动所聚焦的问题,如信息茧房、热搜榜单操控、新就业形态劳动者权益保障、大数据“杀熟”等,恰恰反映了在广泛应用AI算法在现实场景中所暴露的深层次治理需求。
算法治理的核心在于对算法及其应用场景进行规范与约束,确保算法的设计与实施符合相关法律法规、行业标准和科技伦理要求。换言之,算法治理在对算法这个概念本身进行治理的同时,也要对算法在具体应用过程中产生的影响进行有效监管与纠偏。该过程需要明确并落实一系列核心标准,如算法的透明性与可解释性,以便理解决策逻辑;确保算法公平、公正,避免价格歧视和“杀熟”现象;提升算法推荐的多样性,防止用户陷入“信息茧房”;切实保护用户隐私和数据安全;并确保算法使用遵循科技伦理、体现“以人为本”的理念。
随着生成式AI时代的到来,这些标准和原则的适用性和重要性仍将持续强化。未来,AI在社会生活和产业生态中的作用会越来越显著,因此持续推进AI算法治理、不断完善相关政策与实践,需要长效推进。
南都:对于算法治理的必要性,目前社会已经形成共识,但尚未形成针对算法的治理体系。应如何构建算法治理的长效机制,以确保算法应用的持续合规?从实践层面来讲,我国的算法治理进展到了哪一步?
张成洪:AI算法治理至少应包含三个层次。首先是政策法规层面,由国家或行业主管部门制定相关政策和标准,为算法治理提供顶层指引。其次是合规性审计层面,根据法律法规和行业要求,对企业的算法应用进行检查和监管。这种审计工作既可由企业内部执行,也可能需要专门的行业组织或国家级监管机构牵头开展。最后是合规合法的算法开发与设计层面,对研发团队和算法工程师提出明确要求,使其在设计和实现算法时就融入合规与伦理考量。
在当前实践中,AI治理更多仍以备案和事后审查为主。以大模型为例,其开发和应用需要通过网信部门的备案或审核登记;本次专项行动也强调常态化开展算法安全自评估和全面备案(“应备尽备”)。同时,这次专项行动通过“算法专项治理清单指引”推动企业自查,从而明确算法合规的关键要点与内容。此次专项行动也为未来的算法审计提供了一定的基础。未来,将算法审计体系化、规范化可能是必然趋势,为更有效的监管与合规落实提供坚实支撑。
应建立专门的第三方算法审计机构
南都:可否谈一谈算法审计的必要性,开展算法审计有哪些因素需要考量?
张成洪:以2021年美团为例,当时社会普遍关注骑手“被困在算法”这一问题,而国家也相继出台要求保护骑手权益的政策。美团回应的举措是公开其骑手调度管理算法,但由于公开程度不够详细,难以为外界所真正理解。这引出了一个关键问题:算法公开的“度”应如何把握?如果完全公开,企业的核心技术和知识产权可能受到损害;但若公开程度不足,又难以真正赢得公众和监管方的信任。这种矛盾使得算法的透明度和知识产权保护之间的平衡成为亟待解决的挑战。一个可行的解决方案是具体算法只向专门的审计机构公开,不必向公众全部公开。
未来的算法审计实践也需综合考虑审计主体和审计机制。当前,企业内部已通过自查来初步满足合规要求。这一点很好,然而仅依靠企业自查可能仍然不足,未来应建立专门的第三方算法审计机构,对企业的算法应用是否符合政策法规进行独立审计和评价。这类机构或可借鉴现有的软件测评中心、安全测评中心的经验与模式。
与此同时,要完善算法审计的技术手段、标准和流程。例如,需要针对不同算法应用场景明确评价指标、测量方法和审核规程,形成系统化、可操作的审计体系,以帮助发现并识别算法在公平性、透明度、安全性和合规性方面的潜在问题。只有构建一套专业、独立且具备权威性与操作性的审计体系,才能在兼顾企业创新发展与用户权益保护的基础上,实现算法治理的长效与可持续。
南都:落实算法审计有何挑战与难点?应如何解决?
张成洪:对AI算法进行审计是一项极具挑战性的任务。传统业务审计中,已经意识到业务高度依赖IT系统,因此对IT逻辑的严格审查成为不可或缺的一环。然而,在算法审计中,即使有条件查看算法代码,也很难明确其是否合规,尤其是深度学习类的AI算法。这些模型常被视为“黑箱”,内部机理复杂且缺乏可解释性,为审计工作带来极大难度。
尽管如此,算法审计仍需向前推进,并在以下几个方面持续努力。首先,需要完善制度建设和监管体系,将算法纳入监管范畴,对其应用的全过程加以规范与监督。在实践中,这既可能由企业内部自行开展,也可能借助第三方外部机构进行独立审计。其次,可以借鉴传统审计流程的经验,通过制定标准、信息收集、测试与反馈的循环流程,不断完善审计方法和体系。同时,在对算法进行审查时,需要将合规性要求细化为可操作的评价指标,并借助专门的技术工具加以测量和验证。
目前,AI算法审计仍处于初步探索阶段,但随着AI监管日趋严格和相关负面事件的增多,算法审计的社会需求愈发紧迫。伴随技术的进步和专业机构的成立,AI算法审计未来将逐渐成熟和完善,为确保AI系统的透明性、公平性和合规性发挥不可或缺的作用。
复旦大学管理学院信息管理与商业智能系教授、博士生导师张成洪。主要研究方向包括AI算法治理、知识管理、企业数字化管理、商业智能等。
出品:南都大数据研究院
采写:南都记者 张雨亭
设计:罗锐 尹洁琳