数字化
在人机关系和发展方向的问题上,类人想象占据了智能体叙事和设计的相当注意力。以人自身为参照物的思考方式在人工智能设计和研究中引发了巨大的张力,它一方面强化了在人机界面的友好性和技术的可解释性层面的设计观照,另一方面也制造了某种特定的思维图式,使得人工智能的研究长期在一些传统的问题上逡巡。
原文 :《严肃的人工智能研究慎用拟人化概念》
作者 | 南京师范大学哲学系教授 吴静
图片 | 网络
从古老的人形机器人开始,类人想象就在人机关系和发展方向的问题上占据了智能体叙事和设计的相当注意力,情感更是被视为智能的高阶表现。拟人化伴侣期待和“恐惑谷”效应之间的张力一直极力拉扯。这当中的原因非常复杂。一方面,原本应当被解读为机器人设计原则的阿西莫夫三定律,在很多时候被误读为机器人的行为准则。这个误指颠倒了定律的责任主体,加剧了人类对机器人自主行为的期待和恐惧。另一方面,出于本能的认知倾向,人类在以熟悉的模式去理解智能体的同时,希望智能装置的发展能达到人类智能的高度,从而更加趋近人类自身的理解方式且易于交流。功能主义导向的科普方式习惯于将人工智能的性能类比为数智设备对人类大脑的结构和功能的模仿,这也诱导了对人工智能技术发展的想象以同人类智性能力之间的对比作为参照和目标。
近年来,由于大模型基础上自然语言处理技术的迅猛提高,使用者更加容易将自己的情感和认知模式投射到智能体上,并将纯粹出于算法的输出结果误读为其自然性的表达,从而引发对人工智能的自我意识和情感的猜测与判断。同时,科技营销话语对人工智能能力的夸大和拟人化用语,进一步误导了非技术人士对频繁出现的“神经网络”“人工大脑”概念背后的真实技术原则和能力的把握。这种以人自身为参照物的思考方式在人工智能设计和研究中引发了巨大的张力,它一方面强化了在人机界面的友好性和技术的可解释性层面的设计关照,另一方面也制造了某种特定的思维图式,使得人工智能的研究长期在一些传统的问题上逡巡。
“类人化”概念的消极影响
尽管人工智能研究界从未给予正名,关于人工智能的“主体性”和“自我意识”之类的话语还是经久不衰,很大程度上是因为部分非专业人士相信意识本身是高级智能体现的一个效应:随着机器智能水平的提高,它们有可能会超出算法规定,形成自己的判断即意识。就目前的研究证据而言,这些假设缺乏根据。事实上,即使撇开现有“神经网络”“人工意识”的发展与人类大脑和认知过程的巨大差异不谈,人类智能和人工智能也是两个完全不同的机理系统。现有的判别式人工智能和生成式人工智能尽管能够在自然语言处理上呈现出较大进展,从而在人机交互界面上展现出相当高的友好性,但这种输出的可理解性、类人性与人类的范畴化思维存在本质上的差别。而且,意识和智能在本质上并不一样。长久以来在“机器人”和“人工智能”领域的拟人化设想导致人们在面对人工智能输出结果的可理解性时容易发生误判,将数据-算法-模型共同决定的输出结果误读为智能体的“主体性”表达。其实至少在现有的弱人工智能阶段,人工智能并不具有类似于人类的这些自主属性,而且这些类人化范畴有可能导致以下问题。
误解人工智能的能力范围。类人化概念的使用会使人们错误地认为人工智能具有人类的感知、情感和创造力,认为它能够理解或感受人类的情感,从而对其能力产生不切实际的期待,并对其过度信任或依赖。这一现象在以语言大模型为基础的生成式人工智能的使用中已经屡屡发生。使用者有几率将输出结果解读为社交关系的自然反馈,因此出现了相应的情感投射和猜测。然而,人工智能只是在机器学习的基础上根据预设的算法和数据来模拟情感反应,而且这当中也会因为数据或模型的原因出现偏差,特别是在面对复杂、不确定或新颖的情况时。更重要的是,人工智能对其结果所表达的真实意义和结果并没有预期,自然也谈不上负责。
忽视人工智能的技术本质,从而误判风险。一个大模型背后的算法、数据(包括但不限于规模、类型以及离散度等因素)和微调过程,是人工智能运行的基础和核心。一旦将人工智能拟人化,人们就有可能忽视算法治理的真正环节和细节,面临潜在的风险和威胁,显性的如隐私泄露、数据滥用或恶意攻击等,隐性的如数据类型单一、离散度不够或不均衡,奖惩措施不得当等。这些风险是AI系统本身结果所决定的,并非人工智能“有意识”或“有意图”造成,因此,需要通过具体的技术措施加以解决,而非价值规范性体系。
混淆AI与人类的角色和责任。将人工智能拟人化有可能导致人们把智能体确定为完全的“责任主体”,从而进行归咎。这种混淆必然导致对问题原因和责任的不正确理解,因此也很难以正确的方式加以解决。例如,在自动驾驶汽车发生事故时,人们可能会责怪“汽车”或制造商,而不是对导致事故的具体技术缺陷予以优化和解决。
AI应该追求“自主意识”“主体性”吗
当前的人工智能技术主要依赖于大数据、机器学习和深度学习等算法,虽然在某些领域(如图像识别、自然语言处理等)取得了显著进展,但仍远未达到拥有自主意识或自我进化的程度。人工智能的学习和分析能力是基于预设的算法和大量训练数据,而非真正的理解和创新。人工智能的知识生产实际上是一个高度依赖人类的过程。从数据收集、算法设计到模型训练和优化,都需要人类的指导和干预。人工智能虽然可以自主学习和优化模型,但其学习内容和方式仍然受到人类预设的约束和限制。因此,将人工智能的知识生产视为完全自主和独立的过程是一种误解。
一些非业内人士将复杂的认知能力投射到人工智能系统上,特别是大型语言模型上,其实是以拟人化的方式理解了人工智能的输出结果。大语言模型虽然能够参与复杂的语言互动,但完全不理解任何东西。它们不具有真正的“思考”和“理解”的能力,只能通过深度学习的思维链条和语言概率逻辑实现文本生成,即其所生产的知识本身和真实经验之间缺乏真正的联系。
人工智能虽然可以模拟某些认知过程,但尚未达到真正理解或拥有意识的地步。大语言模型技术可能赋予人工智能系统新的能力和功能,如果设计和监管不当,可能会造成严重破坏。必须认识到,在人工智能的应用上,具有可预期的鲁棒性、系统的稳定性、结果的可靠性,以及风险的有限性,才是发展追求的目标。人工意识的概念在一定程度上可能导致人们对人工智能的知识生产产生误解。这些误解会忽视决定了AI输出质量的数据、算法、模型等存在的技术问题和结构性问题,而将其归结为特定的“自主意识”或主体性。这有可能会遮蔽核心技术差异和数据偏见所导致的谬误偏差,甚至会掩盖意识形态领域的冲突。撇开算法治理和技术治理,而以系统性的“人工意识”代替结构性生成的人工智能知识生产,无法真正推进现阶段的人工智能发展。而且人工智能一旦具有真正意义上的自主性意识,其行为的不可预期性就会大大增强,安全控制的难度会加大,系统的稳定性会减弱,这必然会增大人工智能应用的风险和治理成本,与目前人工智能开发和应用的目标相违背。因此,至少在现阶段,人工意识不应该成为人工智能发展的首要目标。正如李飞飞所说:“我们需要真正关注对人类和我们社区的潜在影响,而不是将责任归咎于技术本身。”
像人类一样思考:具身人工智能探索
拒绝使用类人化的范畴,主要是改变人工智能知识生产和判断的方式,并不意味着不能研究如何让AI像人类一样思考。印度机器人模拟专家阿卡普拉沃·包米克在谈到具有自主性的AI智能体设计需要遵循的原则时特别强调了只有从具身认知的特性、而不是抽象的人-机对立原则出发才能有所突破。由于认知本身是基于同智能体自身所处的环境之间的交互而形成的,它首先具有情境性,并且这种情境性认知会建立起一个随着时间压力而推进的连续的进化响应,从而动态地生成适合于情境的价值判断或行动。这种认知模型本身不具有泛化扩展性,因此只能以环境反馈的方式进行补偿。
这和现有的认知型智能体的发展路径完全相悖。无论是OpenAI的GPT和Sora,还是谷歌的Gemini、Gemma,即便是所谓的多模态大模型,也主要基于对去语境化的信息建构起来的符号系统的处理。该路径的理论根据在于,欧美认知计算主义认为数字信息比与具体语境相关的模拟信息更重要。这种信息实体论不但改变了人们对现实的看法,而且在人工智能技术的发展上更重视对人类已有经验文本——文字、影像、图表等,而忽视了具身智能的交互性发展。生成式人工智能和大模型技术所依赖的数据集来源的结构性问题正是这一智能发展方向无法克服的一个弊端。即便是已有的多模态大模型扩大了来源文本的类型,但依旧没有使问题好转,因为不同文本生产技术的发展水平在世界范围内并不均衡,同时也会产生不同的意义模式,当其被去语境化为普遍符号时,就已经改变了其被生产出来时与真实生活的距离。有事实证明,部分数据在训练一段时间后可能已经破坏了大模型的表征。并且,大模型的技术逻辑会导致数据离散度变低、进而产生认知中心化乃至模型崩溃的结果,这也是其发展的顽疾之一。它有可能导致价值极化的出现。
反观人类自身基于道德判断的行为就会发现,具身认知和知觉能力是形成完整的意识和判断的基础。因为具身认知是有机体适应环境、对多种感觉刺激进行辨别并形成综合理解的活动。在此基础上形成的情感、道德、价值判断以及相应的行动和具身认知,是不可分离的。这种具身主义的观点对认知主义是一种否定。后者相信,人类的心智实际上是一种特殊的信息处理系统,可以被理解为根据某些特定的逻辑规则或者某种形式的数理算法对无意义的抽象符号所进行的计算。而具身主义则强调了身体及其感官系统的重要性,认为它们的特殊体验造成了认知和情感-价值判断的差异。
早在1986年,布鲁克斯已经从控制论角度出发,强调智能是具身化和情境化的,他认为传统以信息表征为核心的经典AI进化路径是错误的,而要消除表征的局限性就是制造基于行为获取信息的机器人。苏黎世大学人工智能实验室前主任罗尔夫·普菲弗与加拿大佛蒙特大学的乔希·邦加德则在合著的《身体的智能:智能科学新视角》一书中进一步提出,智能行为可以通过加强智能体的“身体”与外部环境交互的方式实现新的学习反馈机制,从而形成更能应对世界复杂性的智能。而在业界方面,英伟达创始人黄仁勋就曾在2023年表示,具身智能是能理解、推理并与物理世界互动的智能系统,是人工智能的下一个浪潮。
具身智能就是让人工智能获得“身体”——不是形式上的身体,而是具备感性经验获得能力的身体。正如人类的认知是基于对感官所获得的信息进行加工的过程一样,具身智能的发展思路是试图帮助人工智能从对情境的实时交互中形成符号理解的过程。它是将认知置于环境中,形成连续的进化响应的过程。简单地讲,具身人工智能将不再像传统人工智能那样对相关条件和行为进行对应反应,而是和人类理解世界的方式类似,通过传感设备获得第一手环境信息(声音、影像、触觉、温度甚至表情等),建立起实时、动态的完整符号模型。其认知和理解不再是“离线”式的,而是满足时间压力的持续交互状态。这种心智仿真结构所形成的智能体将是一个与情境不可分离的开放网络。