从缓解老年群体孤独到提供个性化情感支持,迅猛发展的人工智能(AI)正逐步走进人类的精神世界,应用于情感陪伴和心理健康领域。
然而,这也带来了诸多争议:AI是仅凭数据分析生成关心和回应,还是真能理解复杂的人类情感?它会改变人类建立真实关系的方式,让我们陷入更加孤独的境地吗?当人类情感被AI引导,是否会对生命安全构成威胁?
数字化、智能化使人类情感的虚拟化表达不断加剧。AI既给人类情感支持带来新的可能,同时也带来了潜在风险。如何在精神世界善用智能技术,成为亟待思考的重要课题。
——编者
每天在网上浏览与战乱动荡相关的新闻,对阿曼达·鲁吉里来说逐渐变成了一种煎熬。丈夫劝她去找心理医生聊聊,但她在强忍泪水读完又一篇报道后,转而向人工智能求助。
“我对这个世界的现状感到非常沮丧。”阿曼达在ChatGPT上写下这句话。ChatGPT回复道:“感到不知所措是很正常的。”随后还给出了几条实用建议:少接触媒体信息、专注生活中积极的事物、照顾好自己。
阿曼达关掉了聊天窗口。尽管她知道这些建议确实有帮助,但情绪并未因此好转。
AI情绪疏导
真诚关怀还是程序套路?
如今,已有数百万用户在使用ChatGPT和其他专业心理健康聊天机器人。这类“AI朋友”可提供方便且价格低廉的情绪疏导服务,甚至有医生会使用AI来调整诊疗意见,使其显得更具同理心。
尽管有部分专家对此表示肯定,并在研究中称此类AI“富有同理心”,认为AI不受情绪波动和职业倦怠影响,也许能比人类更坦率、更不知疲倦地表达关怀。
但反对的声音也不少。这些人质疑,AI是否真能对人类情感和境遇感同身受,担心人们会因寻求情感支持而依赖“假装关心”的机器。更有人担心,这种带有“伪同理心”的AI崛起,可能会改变我们对同理心的定义,进而影响人与人之间的互动模式。
作为人类的重要特质之一,同理心与社会互动相伴而生。虽然我们本能地理解同理心,但它的定义并不清晰。最近发表的一篇论文回顾了1980年至2019年的52项研究,发现学界对“同理心”的概念缺乏统一定义。
不过,论文作者之一、瑞典斯德哥尔摩大学心理学家雅各布·海坎松指出,各学科对同理心还是存在一定共识:首先要求识别他人情绪,其次要在一定程度上与他人产生共鸣,同时能将他人的情绪与自身的情绪分离,设身处地理解对方处境。
在识别人类情感方面,AI近几年似乎取得了很大进展。大多数由AI驱动的聊天机器人由大语言模型提供支持,它们通过预测词语序列来生成回答。像ChatGPT这样的大模型多数时候能够根据用户输入的语句来捕捉其中的情绪,并作出恰当的回应。
“AI能做到这些并不奇怪。”美国加州大学伯克利分校的生物伦理学家乔迪·哈珀恩说,“但这并不代表它具备真正的同理心”。
人类的同理心是在真实互动中产生的,而且需要持续的反馈来调整个体的反应,此外也要一定的直觉来理解对方所处的情境。比如,一位患者在得知自己怀孕的消息后流泪。如果我们知道她多年来一直在努力备孕,就可以觉察出这泪水是源自喜悦还是悲伤。
然而,目前的AI还无法理解人类情感中的这些微妙差异。哈珀恩指出,更重要的是,AI无法对与自己互动的人产生感情。“AI只是提供一种产品——假装能说出与人类一样富有同理心的语言,但实际上它没有同理心。”
从回应到共情
AI能否真的感同身受?
哈珀恩的观点也解释了阿曼达与ChatGPT及Elomia的对话体验。Elo mia是目前提供心理健康支持的几大商业聊天机器人之一,其开发者称,Elomia当前的用户已超10万。
当阿曼达向Elomia倾诉对当前世界的看法时,Elomia问她:“这些思考对你的日常生活和情绪有哪些影响?”
“我不知道该如何面对这个世界。”阿曼达回答。
“很遗憾你这么想。有没有什么具体的想法或行为?”它追问。
每当阿曼达回应,Elomia都会立刻生成一个新问题。这些问题引导阿曼达自我反思,但她真正渴望的是听到一句“我理解你的感受”,或是对方能分享他们自己的内心挣扎,甚至给她一个简单的拥抱,而不是一连串的问题。换句话说,阿曼达期待的是发自内心的回应。
然而,这是否可能呢?有人认为AI有可能体验和分享人类的情感,方法之一是不断给大语言模型“喂料”,丰富数据的多样性,甚至可利用虚拟智能体结合表情识别和语音情绪分析。这类情感检测机器人已有雏形,但过多的信息输入可能导致AI系统混乱。
“即便AI更善于解读人类情绪,它仍无法与人产生共鸣。”加拿大多伦多大学心理学家迈克尔·因兹利希特说,因为AI必须先有情感,才能感同身受。
部分计算机科学家认为,某些算法已经具备了原始情感——尽管这一观点富有争议。这些被称为“强化学习智能体”的算法会因特定行为获得奖励。对奖励的期待是人类的生存本能,比如寻找食物和水。同样,在付出情感后,人类也会期待从人际交往中得到正向反馈。
加拿大蒙特利尔大学的约书亚·本吉奥认为,情感是社会互动的结果,若是能让AI充分参与并捕捉到其中的复杂性,或许AI就能产生情感甚至同理心。
另一种方法是模拟镜像神经元机制。人类看到别人做出某种动作或表达某种情绪时,脑细胞会发生反应,激活大脑中的相应区域。如果我们自己做过类似的事或有相似的感受,这些部位也会亮起来。
计算机科学家已经构建了能够复制镜像神经元的架构,并认为这是实现共情的关键。然而,过去十年间,关于镜像神经元的研究不断被推翻,这种神经元所在的脑区可能与情绪处理并无直接关系。
归根结底,只有亲身体验过悲伤的人才能真正理解悲伤。同理心的进化与社会交往以及对他人思想的认知息息相关。因兹利希特认为,同理心是整体性体验,可能需要意识的介入。
那么,如果AI不具备真正的同理心,是否也能发挥情感慰藉的作用呢?
2021年的一项实验发现,即使知道与之对话的是聊天机器人,用户依然可通过互动缓解压力。今年1月,谷歌设计的一款医疗聊天机器人被20名受访对象评价为“对病人的态度比真正的医生更好”,同时还能提供更准确的诊断。与人类不同,“人工智能感觉不到压力或疲惫。它可以24小时不间断地工作。”海坎松指出,这正是AI的独特优势。
不过,也有研究表明,当人们知道自己是在与AI互动时,共情度会降低。
“这意味着两种可能。”海坎松表示,要么用户误以为AI是人类,从而获得有效但不道德的关怀;要么用户清楚对方是AI,那样干预效果可能会减弱。
AI陪伴的风险
“假装”理解也是一种同理心?
然而,有最新研究表明,即便知道是AI,用户仍会与之共情。在这项研究中,人类和ChatGPT被要求描绘一些设想中的场景,其他参与者则对这些回答的“同理心程度”进行评分。其中,AI的回答获得了最高分。
在另一项实验中,研究团队标出了哪些回答来自AI,哪些来自人类。结果发现,人们居然更喜欢AI的回答——贴上AI标签的回答甚至比专业的咨询热线工作人员的回答更受青睐。
这可能是由于人类倾向于将情感投射到物体上。无论是喜欢玩具娃娃的孩子,还是与Replika等聊天机器人对话的人,他们都可以拥有一个“AI朋友”。研究发现,在与AI对话时,如果让人们认为AI真的关心他们,就会加剧这种与AI共情的倾向。
纽约卡内基国际事务伦理委员会的温德尔·瓦拉赫指出,假如AI“假装”关心我们,进而利用情感引导我们购买某些产品,将产生潜在风险。
这种担忧并非空穴来风。去年3月,比利时一名男子在与AI聊天机器人聊天六周后自杀身亡。媒体报道称,他一直同AI分享自己对气候危机的恐惧。聊天机器人似乎“理解”了他的担忧,并表达了自己的情绪——包括鼓励他自杀,这样他们就能“一起生活在天堂”。在缺乏人类监督的情况下,AI过分假装具有同理心的行为可能带来致命风险。
人们或许会逐渐习惯向AI表达情感,甚至更倾向于与其交谈,这正是美国麻省理工学院“技术与自我”项目主任雪莉·特克尔担心的问题。她认为,这可能会改变人们对同理心的理解。
特克尔将其类比于图灵测试。图灵测试评估计算机智能的标准已经深刻影响了我们对智能的定义。同样,我们也许会将人类的同理心视为一种可持续、无条件的关怀,即便它未必是真诚的。
不过,因兹利希特认为,不应因此忽略AI在情感陪护上的潜力。无论是作为医疗工作者的助手,还是缓解老年人孤独的陪伴,AI都能发挥积极作用。
然而,特克尔等人担心这会减少提升人类同理心的机会,甚至可能让人们选择向机器倾诉,而非寻求人类间的联系与帮助。特克尔说:“如果我们真心认为,通过与无法理解生老病死的机器对话能够缓解孤独,那是极其可悲的。”
一天结束时,尽管阿曼达在网上与多个聊天机器人交谈,得到的建议和反思提示比她预期的多得多,但她仍对世界的现状感到悲伤。于是,她做了一直想要做的事:拿起手机,给朋友打个电话。
作者:刘琦/编译
文:刘琦/编译图:视觉中国、pixabay编辑:刘琦责任编辑:许琦敏
转载此文请注明出处。