新的 “进攻崇拜”:政策精英如何看待军用人工智能
作者:Zachary Selden,佛罗里达大学政治学副教授。
来源:Zachary Selden, “A New “Cult of the Offensive?” Elite Perceptions of Artificial Intelligence in Military Affairs in the United States and the People’s Republic of China,” Foreign Policy Analysis, Vol. 20, No. 4, 2024.
摘要
人工智能在军事事务中的应用具有模糊性,其影响可能增加或减少进攻性军事行动的相对成本。关键问题不在于从技术上确定人工智能的新兴用途是有利于进攻还是防御,而在于政策精英如何看待人工智能的潜力和用途。与一战时期的“进攻崇拜”类似,当冲突的预期不断升温时,新兴技术的不确定性可能会促使政策精英更关注其进攻优势。本文研究了2014年至2022年间中美两国围绕人工智能军事应用政策的论述,发现对人工智能军事应用的讨论方式发生了转变,更关注这一新兴技术的进攻性,而非防御性应用。这表明人们对攻防平衡的看法可能正朝着破坏战略稳定的方向发展。
很多情况下,新兴技术的应用偏好往往模棱两可,第一次世界大战前的“进攻崇拜”时代就是鲜明的例子。19世纪末的尖端技术提高了快速机动能力,也显著增强了火力射速。这些特性被视为有利于进攻,同时也使防御者可以削弱进攻部队的冲击力。但为什么欧洲领导人普遍关注该技术的进攻优势而非防御性应用?
一战前欧洲精英们对尖端技术存在“压倒性的进攻优势”的错误认知,也许并非偶然。20世纪初,人们普遍认为欧洲战争不可避免,如果国家领导层确信大国冲突的可能性越来越大,那么其战略焦点自然会转向为生存冲突做好准备。为此,只能通过进攻性地使用尖端技术,才能在未来可能的冲突中占据决定性优势。对未来可能发生冲突的看法促使人们关注技术的进攻性应用,而这种关注又进一步强化了敌对的战略观念。需要注意的是,只有新兴技术明显倾向于进攻性力量,或其所带来的优势模糊不清,以及决策者对未来发生冲突的看法不断升温时,这种情况才会发生。
人工智能是一种模棱两可的技术。中美两国也是将人工智能融入军事系统最先进的两个国家。因此,人工智能对国际体系稳定的影响可能极为深远。本文将探讨的是,政策精英如何认知当今时代的重大技术变革,如何看待人工智能在军事领域的应用。本文中,政策精英是指负责为军事相关的人工智能项目提供资金、为其潜在用途制定广泛政策框架,并批准在军事对抗中使用此类系统的决策者。
技术、认知与攻防平衡
技术变革是影响力量平衡以及进攻性与防御性军事行动相对成本的重要因素。攻防理论认为,当现有技术有利于进攻方时,国家更有可能发起冲突;反之,当技术更利于防御时,国家发起暴力冲突的可能性就会降低。攻防理论的基本逻辑遵循现实主义推理,在无政府体系下,国家很有可能将其他国家的军事能力作为其不易衡量,且容易改变的意图的有形替代物。
如果国家认为自己掌握的军事技术有利于采取进攻性行动,并能以相对较低的成本通过冲突获取利益,那么谈判的动力就会降低。进攻性主导的环境更有可能鼓励各国伺机扩张领土和利益。当防御性技术更强大时,国家对其他国家的行动或意图的关注就会减少,更有可能通过谈判解决冲突。
攻防平衡并不一定由整体军事能力驱动,而是由特定时期的尖端技术驱动。具体而言,技术是支持谨慎的防御,还是鼓励先发制人的行动,是关键影响因素。然而,攻防平衡理论的适用性一直受到质疑。其中一种观点认为,国家行为更多是由国家领导人的观念决定的,而不完全是对攻防力量的客观战略评估。无论感知是否准确,国家对局势的感知会影响其行动。有影响力的政策精英和国家领导人往往根据自己的感知推动国家行动,即便这些感知与现实有出入。如果政策精英们认为国际环境日益威胁且大国冲突不可避免,那么他们在论述中更倾向于强调新技术的进攻性用途,而不顾实际的技术现实。尽管采取守势并利用新兴技术提高防御能力可以削弱对手的攻击,但不能带来决定性胜利。当技术属性模糊不清时,政策精英们更有动力强调技术的进攻性用途。
然而,应该如何衡量感知?本研究试图通过广泛调查政策精英对人工智能在军事事务中应用的看法,构建一个更可靠的衡量标准。
人工智能与自主
人工智能技术的一系列进步核心在于,计算机能够独立于人类干预执行任务,并能够通过学习积累经验,应用所获知识制定更优解决方案。虽然人工智能的学习方式不一定模仿人类智能,其制定的策略可能超出人类大脑的想象,但任何有关人工智能在军事应用方面的讨论都必须聚焦于现存的狭义人工智能。狭义人工智能指的是使机器能够在人类设定的任务范围内,达到或超越人类表现的技术水平。目前,由“杀手机器人”主导的安全环境仍然是虚构的。
然而,人工智能所能胜任的军事相关任务范围正在迅速扩大,并被公认为正处于生产真正自主武器系统的边缘。“自主”一般被定义为机器能够独立完成指定任务的能力,但何为“自主”或“自动化”,即使在美国精英内部也仍存在争议。当前设计的武器系统通常都保留有人类参与,以确保最终目标选择和武器使用得到验证,并受到人工干预。这被视为在军事事务中合乎道德地使用人工智能的关键。人类的介入至少可以确保一旦发生瞄准错误,责任能够由明确的主体承担。但这并不意味着武器系统永远无法自主运行。如果将系统设置为完全自主模式,那么即使系统是自主运行的,也会有人工监督,并在必要时执行控制。但这种安排似乎存在逻辑矛盾。如果自主系统的设定是为了应对高度复杂和变化迅速的威胁环境,超出了人类操作员的反应时间,那么人类在此过程中究竟能够发挥何种作用?
与作战行动直接相关的自主系统的数量正在显著增加。例如,美国海军“海上猎人”是一种自主的潜艇猎杀水面舰艇,很可能在印太地区的任何海上冲突中发挥作用。除此之外,类似Perdix机载无人机自主完成监视和侦察任务,这种系统不携带武器,用于执行支援任务。出于道德考虑,各国可能会避免将其武器化用于执行致命任务。然而,军事和政治精英们普遍认为,人工智能技术正推动军备竞赛的加剧。在这种环境中,自我克制只会导致战略劣势,甚至可能威胁国家生存,反而会驱使各国为避免最坏情况的发生而推动系统武器化的进程。因此,关键问题依然是:政策精英的看法是什么?
了解感知
为衡量政策精英的看法,可以通过分析其使用的语言表达。如果言论的转变显示出对人工智能的进攻性/防御性应用更感兴趣,那么这可能预示着国际安全环境正在逐步向大国间竞争升级的方向发展。这一问题在国际关系领域具有重要意义,但话语模式的显现需要系统的分析加以揭示。本文的目的是分析一系列信息来源,为各类声明赋值,以识别政策精英在谈论人工智能时更倾向于进攻还是防御的模式。
研究方法
本文抽样调查了2014年至2022年关于人工智能军事应用的讨论,使用定性数据分析程序,对美国案例中的访谈、演讲、安全战略、委员会报告和国会声明进行了随机抽样分析。
围绕“新兴技术是否被视为倾向于谨慎或先发制人”的问题,对文件中的相关样本进行了多维度的编码。首先是对如何运用人工智能的声明进行分类。讨论人工智能将如何提高作战杀伤力、主导空域的能力,或通过大规模使用人工智能无人平台来压垮防御能力的言论,显然侧重于进攻性用途。而强调将人工智能用于网络防御、情报分析以及改进维护和后勤的方案则被视为防御性方案。第二个维度考虑的是声明中关于其他大国的措辞和态度,以评估国家间竞争和威胁感知的强度。第三个维度考察了有关军备控制和军备竞赛的声明,这在一定程度上反映了安全精英对军备竞赛可能性的担忧程度,以及对人工智能的军事应用实施某种国际控制的可行性。第四个维度是伦理与法律影响,这一类别反映对人工智能在军事事务中的伦理和法律影响的担忧。
编码说明
进攻性应用:讨论利用人工智能提高战斗力、速度和杀伤力,同时减少人员风险。例如,机器人和自主空中、两栖和地面平台将被用作两栖攻击的第一波力量,以应对敌方的反介入/区域拒止能力。作为海军陆战队远征前进基地行动的一部分,完全自主的第一波行动可能会减少海军陆战队参加高风险两栖攻击行动的需要。
防御性应用:讨论将人工智能用于网络防御、维护、后勤和其他支持功能。例如,机器学习系统有很多机会帮助应对网络空间的复杂性,并支持人类在应对网络攻击时做出有效决策。
军备竞赛:讨论中明确提及以往的军备竞赛,或表明国家正落后于其主要国际竞争对手。例如,一些分析家将人工智能发展速度的加快和规模的扩大视为 “斯普特尼克时刻”,可能会引发全球人工智能军备竞赛。
军备控制:讨论军备竞赛的危险以及制定国际协议限制人工智能军事应用的必要性。
中美作为“竞争者”:对取得人工智能、自动驾驶和其他军事相关应用方面重大进展的国家持中性评价,承认竞争对手取得的技术进步,但并不把这种进步描绘成对本国的威胁。
中美作为“对手”:在讨论中指出另一国可能以敌对方式使用因技术进步获取的能力,认为另一国对本国构成了明显的安全威胁。
伦理:讨论通常具体涉及战争法、国际公约或国际法。例如,人工智能的可接受用途将以法律和伦理原则为依据。
通过对上述编码类别的分析,可以观察政策精英的看法是否随着时间发生变化,能够揭示其关于人工智能军事应用的认知趋势。
结果
通过2014年至2022年间生成的共约400个单独声明,作者将上述维度合并为两个类别,并提出了两个指数:冲突指数和谨慎指数,以揭示相关言论的总体倾向。
冲突指数包含特定年份中被编码为“对手”、“军备竞赛”和 “进攻性应用”的声明。发言都表明,精英们认为在军事事务中使用人工智能是为了对威胁国家利益的国家取得进攻性优势。关于人工智能军备竞赛的讨论本质上是进攻性的,因为很难想象人工智能在军事事务中的纯防御性应用会引发军备竞赛。从整体上看,这些言论表明了一种更倾向于冲突的心态。
谨慎指数综合了特定年份中所有被编码为“竞争者”、“军备控制”、“道德”和 “防御性应用”的声明。防御性应用表明了精英们对在军事事务中使用人工智能来防范网络威胁、改进情报分析以及执行侦察和支持功能的看法。军备控制讨论表明,人们认为应对人工智能技术的进攻性使用进行某种控制,并愿意为此参与国际合作努力。有关伦理道德的讨论表明人们认为任由人工智能在军事事务中肆意发展存在固有的危险。从整体上看,这些言论表明了一种谨慎的不易引发冲突的心态。
指数值的计算方法是将代码汇总,将“冲突”指数乘以-1。指数值为0表示 “冲突”和 “谨慎”两类之间的平衡,正值表示特定年份中“谨慎”声明占比更高,负值表示“冲突”声明占比更高。研究结果表明了一种趋势,即更多的声明以冲突为导向。两者在2018/2019年后都急剧转为负值,并以大致相同的数值结束,表明精英对人工智能军事应用的论述越来越以冲突为导向。
这一定程度上反映了2016年特朗普当选总统后大国竞争的升级。特朗普政府不仅在《国家安全战略》中明确将中国定义为“对手”,其煽动性言论和对中国贸易政策的调整进一步恶化了两国关系。虽然奥巴马总统的“亚洲再平衡”和布什总统的“全球态势评估”都将美国安全政策的重点转向印太地区,以巩固美国在亚洲的联盟,遏制中国日益增长的影响力。但与特朗普相比,他们在描述中国时用词谨慎温和得多,将中国描述为竞争对手而非敌人,并将重点放在两国潜在合作的领域以及潜在冲突的领域。2015年《国家安全战略》还称美国“欢迎一个稳定、和平和繁荣的中国崛起”。
在人工智能大规模应用于军事事务之前,美国政策精英对与中国发生冲突的可能性的关注就已经开始增强。新美国安全中心发表的一份报告指出:“南海水域可能成为未来几十年的军事前线”。2013年至2022年间,美国国会针对中国军事和经济增长对美国利益“威胁”的立法数量增加了六倍。白邦瑞的《百年马拉松》和格雷厄姆·艾利森的《注定一战:中美能否避免修昔底德陷阱》进一步强化了公众和政策精英对中美冲突“不可避免”的看法。皮尤研究中心和盖洛普组织的调查发现,认为中国“在未来对美国构成威胁”的受访者比例从2014年的19%上升到2023年的50%。
本研究发现,尽管特朗普政府的政策对话语转变产生了显著影响,但其卸任后,这一趋势仍在延续。围绕人工智能的论述越来越多地提及军备竞赛和进攻性应用。特朗普政府可能是这一话语转变的一个因素,但无法完全解释这一转变。值得注意的是,对人工智能进攻性应用的关注增加,似乎是在对对方国家敌意增加之后发生的。
结论
在衡量攻防平衡时,比较军队规模固然重要,但围绕新军事技术或相关技术的改造和使用也会给进攻或防御部队带来决定性的优势。而对于技术给攻防平衡带来的实际作用的认知也十分重要。本研究表明,当威胁感上升时,技术进步的模糊性很可能被视为有利于进攻或先发制人的行动。攻防平衡的最终依据是做出战争与和平关键决策的领导人及其技术顾问的看法,因此思考攻防平衡时还要考虑政策精英对技术的看法,而通过分析精英在相关讨论中所使用的语言,可以揭示其潜在的认知偏好。
译者:赵怡雯,国政学人编译员,伦敦大学学院安全研究专业。
校对 | 范昊晖 李佳霖
审核 | 李源