青记独家|算法治理视阈下的可问责性和可解释性

导  读

本研究通过揭示各国算法监管政策在可问责性方面的共同关注和可解释性方面的国别差异,旨在为制定更加科学有效的监管政策提供参考。



一、引言


随着人工智能越来越普遍地被应用在新闻的采集、生产、分发、反馈等环节,算法可能引起的信息茧房、个人隐私泄露、算法偏见导致社会不公等问题日益引起各界关注。习近平总书记指出:“从全球范围看,媒体智能化进入快速发展阶段。我们要增强紧迫感和使命感,推动关键核心技术自主创新不断实现突破,探索将人工智能运用在新闻采集、生产、分发、接收、反馈中,用主流价值导向驾驭‘算法’,全面提高舆论引导能力。”[1]如何对算法实施有效的监管,以确保各种智能工具始终服务于社会,已成为许多国家和国际组织普遍关注的核心议题。

近年来,一些国家和国际组织陆续出台了旨在促进算法监管的政策法规、发展指南等,积极探索算法治理的制度建设。如何通过对智能技术的治理以确保人类对技术的掌控,也是学界研究的焦点。算法伦理研究和算法监管研究的“打开黑箱”进路,[2][3]都不约而同地注意到算法作为监管对象具有与此前的监管对象不同的一个显著特点,即算法是被封装起来的“黑箱”,在理解其内在工作机制、评价其决策所产生的后果等方面存在着重重障碍,如何对算法施加有效监管成为算法伦理和算法监管研究的焦点。本文基于对19个国家和国际组织的81项关于算法与人工智能监管政策进行系统的文本分析,旨在揭示不同国家算法监管政策的考量,为我国制定更加科学、有效的算法监管政策提供参考。


二、文献综述


(一)算法监管与治理

随着信息技术的迅猛进步,算法在传播领域广泛渗透,新闻采写、策划乃至数据分析等正逐步迈向自动化,[4]实现了新闻内容的迅速产出与广泛传播。然而,算法应用亦伴随着潜在风险,是技术开发者与使用者必须共同面对的严峻挑战。[5]对此,全球各国及国际组织在理念与操作层面积极探索对算法进行监管的可行路径。从算法规制谱系的宏观视角审视,苏宇认为,当前算法规制实践虽初步成形,但仍受规制思维、对象、主体、工具及法律关系等多维局限。未来需以人的主体性为核心,构建开放、反思且统合的框架,以有效应对算法风险。[6]Tóth等学者则指出,随着人工智能主体与情境道德强度的提升,问责在多方参与者及机构间呈现广泛分散的趋势。[7]除宏观视角外,现有研究亦从微观角度出发,针对算法问责性、透明度和可解释性等关键议题进行了深入探讨。肖红军认为,算法问责需要通过算法主体自觉尽责、算法技术价值嵌入、算法生态互动治理和算法监管问责强化来实现。[8]Shin和Park则认为,公平、问责制和透明度在与信任的基本联系方面具有启发性作用,需要构建以人为本、对社会负责的算法系统。[9]总体而言,现有研究主要围绕算法监管的现有框架和改进路径展开讨论,鲜有学者基于监管文本的梳理与分析,对算法监管视阈下的具体算法伦理维度进行系统探究。
(二)可问责性
对于职业共同体成员而言,向同行、服务对象及一般社会公众提供便捷途径以了解和询问其专业责任,即构成了专业领域的可问责性。本文用“可问责性”来指称英文概念“accountability”,这并不是中文文献最被采纳的译法。此前仅见于2008年复旦大学陈炜的博士论文中,且“问责性”与“可问责性”被混合使用。[10]现有中文文献多将“accountability”表述为“问责制”,指在算法决策导致不良后果时,能够明确界定底层算法及相关主体应承担的责任。[11][12]这一概念通常涵盖一系列措施,包括透明度、审计和对算法决策者的制裁。[13]具体而言,算法问责制关注的是谁有义务证明机器学习系统的设计、使用和结果的合理性,以及谁对这些系统的负面后果负责。[14]通过责任分配和解释要求,人们可以监督和约束相关行为者的行动。因此,算法问责制可被视为一种治理功能,旨在主动避免机器学习系统带来的负面影响,或在系统产生不利影响时被动地制裁责任人。[15]基于这种理解,现有研究围绕算法问责制的改进,探讨如何有效实施和管理问责措施,并为政策制定者提供指导,使其能够恰当地监管机器学习系统。[16]然而,从道德自律的角度看,算法问责不仅涉及问责机制与法规的他律手段,更强调从事算法设计的技术共同体必须赋予算法可审计性、可追溯性。联合国教科文组织在其《人工智能伦理问题建议书》中对“问责”做了如下表述:“应建立适当的监督、影响评估、审计和尽职调查机制”“技术和制度设计应确保人工智能系统的运行可审计和可追溯”。[17]将“accountability”翻译为“问责制”,无法涵盖应用伦理需要表达的算法合乎道德的性质,即具备可以被追究确切责任范围和履行责任情况的程度。因此,相较于“问责制”,本文融合海峡两岸的“问责制”和“可归责性”两个译法的含义,将其译为“可问责性”或“问责”。这样表述避免了将不具有主体性的技术制品作为监管对象的尴尬,强调了设计算法的技术共同体需要承担使算法在技术上可被问责、可提供解释(甚至是提供可被理解的解释)的专业责任,从而为深入探讨算法监管提供了一个更为丰富和全面的视角。
(三)可解释性
作为算法治理领域的核心议题之一,可解释性(Interpretability)被定义为“人类理解决策原因的程度”。[18]在机器学习(Machine Learning,简称“ML”)系统的背景下,Kim等学者将可解释性定义为“人类能够一致预测模型结果的程度”。[19]而从人工智能系统角度出发,可解释性则被定义为“以可理解的术语向人类解释或呈现的能力”。[20]值得关注的是,联合国教科文组织(UNESCO)在《人工智能伦理问题建议书》中将可解释性定义为“让人工智能系统的结果可以理解,并提供阐释说明”。[21]可见,可解释性不仅侧重于人工智能角度,同时也关注接受解释的人类层面,即可理解性(Comprehensibility)。这一概念更侧重于接受解释的人类层面,指人实际理解有关算法模型的原理解释的程度,以及他们能否利用这些解释来解决问题。[22]当前研究聚焦于算法技术层面的可解释性提升,致力于从计算机科学的视角深入剖析并阐明可解释性的实现途径与机制,关注技术层面的细节优化,并力求在理论框架上构建一套完整且系统的理解体系,以促进人工智能模型在决策过程中的可解释性,从而为人工智能技术的应用提供更加坚实的理论基础与实践指导。[23][24]然而,现有研究对于算法监管政策法规中可解释性所受到的重视程度及其具体实践举措的探讨仍显不足,且对于可解释性在促进算法监管有效性、提升算法可问责性方面的潜在价值仍有待进一步探究。
综上所述,现有研究在算法监管、可问责性和可解释性方面已取得了一定进展,但对算法监管视阈下的可问责性和可解释性仍需进一步探讨。为此,本文基于对各国算法与人工智能监管政策的统计分析,通过文本分析方法,探讨不同国家在算法监管视域下对可问责性和可解释性的关注度及实践举措,旨在为制定更为科学、有效的算法监管政策提供有益参考,实现算法技术的利弊平衡和长远发展。本文提出以下研究问题。
RQ1:世界各国和国际组织在算法监管政策中,对可问责性的关注程度如何,并有哪些具体的实践体现?
RQ2:世界各国和国际组织在算法监管政策中,对可解释性的关注程度如何,并有哪些具体的实践体现?


三、研究方法


苏俊斌和曹南燕认为,职业共同体关于技术的伦理关切往往体现在伦理守则和监管政策的文本表述当中,[25]因此本文以截至2024年8月世界各国关于人工智能监管的政策为研究对象,对其文本进行系统分析,以期揭示不同国家对技术共同体伦理诉求的回应情况。

(一)数据收集
本研究首先通过系统性的文献回顾和政策文件检索,收集了来自中国、美国、英国、欧盟等19个国家和国际组织的81项相关政策文件。这些文件内容广泛,涵盖了全国性和地区性的政府、组织发布的算法和人工智能相关的法律法规、行业标准、指导原则、发展规划、伦理指南和技术规范等多个方面。数据来源包括各国政府官方网站、国际组织数据库等。通过这一系统的数据收集过程,在一定程度上增强了本研究中政策文件的全面性和权威性,也为后续的统计与分析提供了坚实的基础。
(二)数据编码
本研究参考联合国教科文组织所发布的具有广泛影响力的《人工智能伦理问题建议书》[26],以此为基础,构建了一个针对政策和法规诉求回应的编码框架,旨在全面统计并深入分析各国和国际组织在算法与人工智能监管领域所回应的各类诉求。该框架综合考虑了算法监管的多个关键维度,具体包括:透明性、可问责性、可解释性、可理解性、数据保护、隐私、可控性、鲁棒性、可追溯性、知识产权、可靠性、公平性、AI可专利性、偏见和安全性。
(三)数据分析
本研究首先对全球各国和国际组织关于算法与人工智能的规则、政策数量进行统计分析,旨在揭示各国在算法监管领域的关注程度和活跃性,初步评估各国在该领域的政策响应和立法动态。其次,本研究基于编码,梳理各国政策和法规中涉及的伦理诉求,以统计世界各国总体上针对可问责性、可解释性等各类伦理诉求所制定的政策数量,以理解国际范围内算法监管政策制定的优先级和侧重点。此外,本研究深入分析世界不同国家和国际组织在算法与人工智能监管政策中所分别回应的具体伦理诉求,尤其是可问责性、可解释性维度。最后,构建词共现矩阵,运用Gephi 0.10.1软件基于政策所回应的诉求之间的共现关系构建有值无向关系网络,并进行中心性分析以识别关键节点,探测社区结构,以此深入揭示这些诉求之间深层次的内在联系。
通过上述分析,研究探讨可问责性、可解释性维度在加强算法监管方面所发挥的作用,进而探索算法监管中的潜在改进空间,为制定更为有效的政策提供参考。


四、研究结果


(一)全球各国和国际组织算法与人工智能规则政策数量统计分析

本研究统计发现,不同国家在算法监管领域的关注程度和活跃性存在显著差异。首先,美国和中国在算法与人工智能领域的政策制定最为活跃,政策数量分别为22项和17项。可见,中美两国普遍认识到算法与人工智能技术的快速发展对社会、经济和安全带来的挑战,并采取了积极的监管措施。其次,英国、荷兰、法国、欧盟、澳大利亚等国家和国际组织对算法与人工智能领域的政策制定也较为关注,政策数量皆在3项以上。这些国家虽然政策制定的力度和速度相对较低,但也在逐步加强算法监管。最后,日本、韩国、墨西哥、乌拉圭、芬兰、瑞典、匈牙利、新加坡、印度、阿联酋各国的算法监管政策数量不足3项,表明这些国家在算法监管领域的关注度相对较弱,有较大发展空间。见表1所示。

表1  各国和国际组织关于算法和人工智能的规制政策数量

图片

(二)各国和国际组织针对各类回应诉求的政策数量统计
本研究统计各国和国际组织针对各类伦理诉求所制定的政策数量,以探究各国和国际组织政策制定的优先级和侧重点。研究发现,透明性是最受关注的伦理诉求,共有58项相关政策。可问责性以49项相关政策位列第二,显示出各国对明确算法决策责任归属、增强可追溯性、可审查性的高度重视。涉及公平性的则有46项相关政策,显示了各国对避免算法歧视和提高算法决策可解释性的高度重视。值得关注的是,涉及可解释性和可理解性的各有40项和18项相关政策。可解释性与可理解性紧密相关。可解释性主要关注于提供解释的一方如何清晰地阐述算法的决策过程和输出结果。而可理解性是基于人,即用户视角所提出的,强调所提供的解释内容可以被用户理解的程度。这对于提高算法的可问责性至关重要。此外,隐私和数据保护也受到了广泛关注,分别有40项和31项相关政策,反映了保护个人隐私和数据安全的紧迫性。偏见、可靠性、可控性、知识产权、可追溯性、鲁棒性和安全性的相关政策数量相对较少,但也有所涉及。见表2所示。

表2  各国和国际组织回应相关诉求的政策数

图片
(三)各国和国际组织主要政策所回应的伦理诉求
本研究通过对各国和国际组织主要政策的统计分析,揭示了各国和国际组织在算法与人工智能领域伦理诉求响应方面的异同。结果显示,几乎所有国家和国际组织在算法监管政策中均强调了可问责性和可解释性。具体而言,中国在可问责性和可解释性方面的相关政策数量较多。美国在透明性和可问责性方面表现突出,拥有较多的相关政策。英国则在可问责性和可解释性等多个伦理维度上均有涉及。荷兰和新西兰虽然政策数量较少,但在可问责性、透明性以及公平性等关键伦理问题上有所体现,显示了这些国家在确保算法伦理方面的基本立场。法国和澳大利亚的政策数量相对有限,但在关键伦理维度如可问责性、可解释性、隐私和数据保护上仍有所关注。值得注意的是,欧盟在可问责性方面表现尤为突出,政策数量较多。韩国和芬兰虽然政策数量不多,但在关键伦理诉求上有所覆盖,显示了这些国家在算法伦理治理方面的初步探索。总体来看,各国和国际组织在算法与人工智能的伦理治理上展现出不同程度的重视和响应,其中可问责性和可解释性是大多数国家共同关注的伦理维度,体现了世界各国和国际组织在可问责性和可解释性维度的深度投入与前瞻布局。见表3所示。

表3  各国和国际组织主要政策关切点

图片

(四)各国和国际组织针对各类回应诉求的词共现网络分析
本研究通过对各国和国际组织针对各类回应诉求的词共现网络分析,揭示了这些诉求之间深层次的内在联系。共词分析图由15个节点和116条边构成。节点表示高频词,边表示高频词的共现情况,即词与词之间的关联情况。分析发现,网络平均度(Average Degree)为15.467,网络直径(Network Diameter)为2,图密度(Graph Density)为1.105,平均路径长度(Avg. Path Length)为1.038,表明每个伦理诉求平均与其他15个伦理诉求相连,网络中任意两个节点之间的最大距离为2,表明各诉求联系较为紧密,网络结构紧凑。
进一步而言,选取度中心性、接近中心性和介数中心性三个网络度量指标,以揭示不同伦理诉求在网络中的重要性和影响力。多数伦理诉求(如“可问责性”“可解释性”“透明性”“公平性”等)的度中心性均为16,表明这些诉求在算法监管政策回应中与其他诉求的关联度较高,是网络中的重要组成部分。在接近中心性方面,“可问责性”“可解释性”“偏见”“公平性”等诉求的接近中心性均为1,表明这些诉求在网络中处于相对中心的位置。介数中心性衡量一个节点在网络中作为信息流通桥梁的程度。在本研究中,尽管“知识产权”的度中心性和接近中心性相对较弱,但其介数中心性最高(0.083),表明其在算法监管政策回应的伦理诉求网络中起到了重要的桥梁作用。
此外,关联强度分析的结果显示,“可问责性”“可解释性”“公平性”“透明性”以及“隐私”这几个伦理诉求之间存在着较强的共现关系。这一发现表明,在算法监管政策回应的语境下,上述伦理诉求不仅各自具有重要性,而且彼此之间还存在着紧密的内在联系和相互影响,在推动算法监管政策制定和实施过程中相互交织、共同作用。总体而言,该词共现网络分析发现,可问责性、可解释性等绝大多数伦理诉求在网络中具有高连接度和中心性,揭示了各国和国际组织在算法监管回应中的伦理诉求具有高度的互联性和紧凑性,核心概念之间联系紧密,具有相互依存性和整体性。见表4、图1所示。

表4  各国和国际组织针对各类回应诉求的节点中心性

图片

图片

图1  词共现网络关系矩阵



五、结论


随着人类社会步入算法时代,算法在新闻传播等领域的广泛应用引发了全球范围内的广泛关注和讨论。在此背景下,如何对算法进行有效监管已成为各国政府和相关机构亟待解决的重要课题。基于对中国、美国、英国、欧盟等19个国家和国际组织的81项算法与人工智能监管政策的数据统计和文本分析,本研究得到了两个方面的结论。

其一,可问责性是当前国际社会在算法监管领域的共同关切。其核心在于当算法决策导致不良后果时,能够明确界定底层算法及相关主体应承担的责任。[27][28]这一概念旨在通过建立健全的监管框架,促进技术创新与伦理规范的协同发展。在全球范围内,众多国家和地区已相继制定并实施了一系列针对算法与人工智能领域的监管政策和规范框架。这一系列举措从本质上而言凸显了对算法可问责性的高度重视,旨在通过强化问责机制来促进长远发展。从具体政策规制角度而言,不同国家和地区之间虽然存在差异,但普遍强调可问责性这一维度,具体包含以下四个关键要素:一是建立完善的监督机制,确保算法系统的开发、部署及应用过程受到有效监控;二是开展全面的影响评估,识别并预防算法可能带来的负面影响;三是实施定期审计,通过独立第三方机构对算法性能、公平性、安全性等进行系统性审查;四是强化尽职调查要求,促使企业及相关责任方在算法设计之初就充分考虑伦理和社会责任问题。在建立规章制度的基础上,各国政策进一步强调,技术和制度设计应当确保人工智能系统的运行既具备可审计性,又能够实现全程追溯,以便于事后追踪与责任界定。由此可见,当下算法监管视域下的问责,不能仅强调建立问责机制,更要事后追责、事前预防,通过构建系统化的监管结构增强其可审核性、可追溯性、可归责性,从根本上防范算法滥用和误用的风险,从而为社会的可持续发展提供坚实保障。因此,相较于简单的“问责制”表述,“可问责性”更加精准地反映了现代治理体系下对于算法监管的高标准要求,是当前国际社会在算法监管领域的共同关切。
其二,通过文本分析,本研究发现在各国针对算法监管所出台的政策文件中,可解释性这一维度均得到了不同程度的强调与关注。这不仅反映了算法监管对算法可解释性、可理解性提升的高度重视,更揭示了可解释性在促进算法可问责性方面的重要作用。具体而言,可解释性的提升不仅有助于揭示算法决策的内在逻辑,确保算法决策过程的透明化,而且为监管者和用户提供了必要的信息,以便对算法行为进行监督和评估。在算法决策出现问题或争议时,可解释性使得我们能够追溯算法决策的全过程,明确责任主体,进而采取相应的纠正措施。不仅如此,算法可解释性与可理解性是相互依存、相互统一的两个方面。可解释性主要关注提供解释的一方如何清晰地阐述算法的决策过程和输出结果。而可理解性是基于人类,即用户视角所提出的,强调所提供的解释内容可以被用户理解的程度。因此,算法的可解释性不仅关乎技术细节的披露,更在于如何以一种直观、易懂的方式呈现算法的逻辑结构、决策依据及输出结果,使得无论是专业人士还是普通用户,都能对算法的运行机制有一个清晰的认识。这种认识的深化,不仅有助于消除公众对算法的神秘感与不信任感,还能为算法的合理应用与有效监管奠定坚实的基础。此外,在新闻传播领域,算法的可解释性关系到公众对算法决策的信任度与接受度。当算法能够清晰地解释为何做出某一决策时,用户更有可能认同并接受这一决策,从而增强算法以及新闻的可信度与公信力。总体而言,在构建算法监管体系时,应高度重视算法的可解释性建设,通过技术手段与政策法规的双重努力,不断提升算法的可解释性水平,从而更有效地实现算法的可问责性,推动算法监管向更加科学、合理和高效的方向发展。
【本文为国家社科基金项目“新闻推荐算法的把关机制、伦理问题以及对策研究”(批准号:19BXW118)成果】

参考文献

[1]习近平.加快推动媒体融合发展 构建全媒体传播格局[J].求是,2019(06):1-5. 

[2] Diakopoulos N. Algorithmic accountability reporting: On the investigation of black boxes [R]. New York, NY: Tow Center for Digital Journalism, Columbia Journalism School,2014:13-15.

[3] Perel M, Elkin-Koren N. Black box tinkering: Beyond disclosure in algorithmic enforcement[J]. Fla. L. Rev., 2017,69:181.

[4] Diakopoulos N. Automating the news: How algorithms are rewriting the media[M]. Cambridge, MA: Harvard University Press, 2019:36-40.

[5] Rubin V L. Misinformation and disinformation [M]. New York, NY: Springer,2022:12-14.

[6] 苏宇.算法规制的谱系[J].中国法学,2020(03):165-184.

[7] Tóth Z, Caruana R, Gruber T, et al. The dawn of the AI robots: towards a new framework of AI robot accountability[J]. Journal of Business Ethics, 2022,178(4):895-916.

[8] 肖红军.构建负责任的平台算法[J].西安交通大学学报(社会科学版),2022,42(01):120-130.

[9] Shin D, Park Y J. Role of fairness, accountability, and transparency in algorithmic affordance[J]. Computers in Human Behavior, 2019,98:277-284.

[10] 陈炜.公共危机传播的媒介景象:从政治问责性到公众问责性[D].复旦大学,2008.

[11] Moller J, Trilling D, Helberger N, van Es B. Do not blame it on the algorithm[J]. Information, Communication and Society, 2018, 21(7):959-977.

[12] Lewis S, Guzmna A, Schmidt T. Automation, journalism, and human-machine Communication[J]. Digital Journalism, 2019,7(4):409-427.

[13] Diakopoulos N. Accountability in algorithmic decision making[J]. Communications of the ACM, 2016,59(2):56-62.

[14] Bovens M. Two concepts of accountability: accountability as a virtue and as a mechanism[J]. West Eur Politics,2010,33(5):946-967.

[15] Novelli C, Taddeo M, Floridi L. Accountability in artificial intelligence: what it is and how it works[J]. Ai & Society, 2024, 39(4):1871-1882.

[16] Horneber D, Laumer S. Algorithmic accountability[J]. Business & information systems engineering, 2023,65(6):723-730.

[17] UNESCO. Recommendation on the Ethics of Artificial Intelligence[R]. https://unesdoc.unesco.org/ark:/48223/pf0000380455_eng, 2021.

[18] Miller T. Explanation in artificial intelligence: Insights from the social sciences[J]. Artificial Intelligence, 2019,267:1-38.

[19] Kim B, Khanna R, Koyejo O O. Examples are not enough, learn to criticize! criticism for interpretability[C] //Advances in neural information processing systems, 29.

[20] Doshi-Velez F, Kim B. Towards a rigorous science of interpretable machine learning[J]. arXiv preprint arXiv:1702.08608,2017.

[21] UNESCO. Recommendation on the Ethics of Artificial Intelligence[R]. https://unesdoc.unesco.org/ark:/48223/pf0000380455_eng, 2021.

[22] Fürnkranz J, Kliegr T, Paulheim H. On cognitive preferences and the plausibility of rule-based models[J]. Machine Learning, 2020, 109(4):853-898.

[23] Gilpin L H, Bau D, Yuan B Z, et al. Explaining explanations: An overview of interpretability of machine learning[C]//2018 IEEE 5th International Conference on data science and advanced analytics (DSAA). IEEE, 2018: 80-89.

[24] Carvalho D V, Pereira E M, Cardoso J S. Machine learning interpretability: A survey on methods and metrics[J]. Electronics, 2019, 8(8): 832.

[25] 苏俊斌,曹南燕.中国注册工程师制度和工程社团章程的伦理意识考察[J].华中科技大学学报(社会科学版),2007,21(4):95-100.

[26] UNESCO. Recommendation on the Ethics of Artificial Intelligence[R]. https://unesdoc.unesco.org/ark:/48223/pf0000380455_eng, 2021.

[27] Moller J, Trilling D, Helberger N, van Es B. Do not blame it on the algorithm[J]. Information, Communication and Society, 2018, 21(07):959-977.

[28] Lewis S, Guzmna A, Schmidt T. Automation, journalism, and human-machine Communication[J]. Digital Journalism,2019,7(04):409-427.

[苏俊斌:厦门大学新闻传播学院副院长、福建省重点文科实验室(培育)厦门大学国际新闻与战略传播数据实验室副主任、硕士生导师;倪子涵:厦门大学新闻传播学院硕士研究生]

【文章刊于《青年记者》2024年第12期】
本文引用格式参考:

苏俊斌,倪子涵.算法治理视阈下的可问责性和可解释性[J].青年记者,2024(12):13-19.


人机协同的网络治理

人机协同的多利益相关者治理模式作为适应平台生态发展的新趋势,鼓励用户、创作者和监管机构的积极参与,共同维护内容生态的健康与多样性。在人机协同治理模式下,技术不仅是平台依赖的基础工具,也是内容治理网络的一个独立节点。


编辑:小青