*中国人民大学吴玉章讲席教授刘永谋首发于微信公众号,保留一切知识产权,侵犯必究。
(美)皮卡德:情感计算,罗森林译,北京:北京理工大学出版社,2005.
皮卡德是情感计算技术的开拓者,她的《情感计算》一书是该领域最重要的奠基之作。最近,她在学术报告中含沙射影中国学生不受学术规范,被当场质疑而在网上小火了一下。不过,这不影响她的技术权威性。
《情感计算》2000年出版,中文版2005在北京理工大学出版社出版。这本书从整体上建构情感计算技术的理论体系,并对未来发展进行展望和预想,已经成为如今机器情感的主流技术进路文本。
细读了该书,受到如下启发,或者说对如下问题感兴趣。
第一,AI情感行为的功能或环节问题。
皮卡德主张是三功能说,即情感识别、情感表达和有情感。她将三者组合称为情感智能:
我得出的结论是:如果我们想让计算机真正具有智能并适应我们,能与我们自然地人机交互,则它们就应具有情感识别和表达能力,并应该有情感,具有我们现在称之为“情感智能(emotional intelligence)”的东西。
AI的情感具身智能被我称为情感智能,这与皮卡德用意一致,只是情感智能的组合我们理解不同。皮卡德认为,以上三功能也是成人情感能力的组成。只要AI与人的情感智能有差别,主要是两个方面:情感体验不同,社交规则演化不同。我以为的是情感四功能说,即情感识别、情感表达、情感体验和情感控制,而AI不能实现后两种功能。
焦点是皮卡德所谓的“有情感”什么意思。她说了这么一段话:
此外,计算机能通过观察人类举止、语言和情境分析来推断最有可能出现哪一种情感。重点集中在认知推理方面,它的采用使计算机不仅能推断出可能出现什么情感,而且也使计算机产生情感状态。情感产生的关键问题是理解什么样的情境产生什么样的情感,至少是在典型的情境下如何?且这种情境中情感是如何影响行为的。
意思是AI能进行情感性地应对人类行为,完成情感型-社交型互动。我以为,这样的问题仍然属于情感识别和情感表达问题。情感识别不仅是对象情感信息的收集,还包括对它进行结构分析、模式识别即进行情感认知。情感表达不仅是向对象传递情感信息即如何表达的问题,还包括表达什么即以什么情感模式予以回应的问题。
在另一节制,皮卡德详细叙述“有情感的五种成分”:1)成分一:出现情感和情感行为;2)成分二:快速的主要情感;3)成分三:由认知产生情感;4)成分四:情感体验;5)成分五:精神与肉体的相互作用。按照她的观点,AI前三项没有问题,有部分情感体验,没有成分五。她说的AI有情感体验,是将情感体验分解为情感标记、生理变化和主观感受三部分,于是计算机可以对某种如危险行为进行恐惧标记,以电压变化代替人体生理变化,从而说AI有部分情感体验。这种辩解不太成立,没有主观感受,谈什么体验呢?
2.情感计算的有限主义
当然,皮卡德承认:
和简单的生物只需要几种第一性情感一样,所有计算机不需要全部的情感能力,有些计算机甚至不需要任何情感能力。
……因为现在标准的计算机结构,缺乏人类情感系统中工作的传感器和调整控制,所以,没有感知任何类型感觉到能力,最好的情况只能模拟人的某些情感机制。由于缺乏生殖系统,我们不可能真正复制产生人类感觉到生理环境。
情感的计算机制当前毫无接近于人类机制的地方,也没有任何证据证明它们有赶上人类机制的可能,但也没有证据证明它们不可能。当前的计算机制只是低弱的模仿,从人类和动物情感系统成功的功能中取得灵感。而且,尽管人是我们知道的最高智能的系统,人类情感在调节和引导智能中起至关重要的作用,但这不意味着在机器中实现其中的一些目标时不会找到一些更好的方法。
情感计算的成功不应该用如何构建接近于人的智能来衡量;而应该用计算机能如何有效地帮助我们达到目标来衡量。并承认和尊重这一事实:人是感情的生物。
情感计算机不是有情感的人都替代物。
这样的理解与我所说的AI的有限主义进路是一致的。在机器情感的讨论中,时刻要牢记情感计算的有限性,避免在脑中AI偷偷被人所顶替而得出荒谬的想法。
在实践中,机器情感的应用开发存在某种适度,尤其针对不同文化、地区和人群会不同。一方面,人与计算机互动呈现出社交性,即人与计算机交互会自然地使用情感,这是情感计算合法性的根本基础。简单说,如果没有伊利扎效应,情感计算完全没有必要。
正是伊利扎效应回答如下问题:为什么要给计算机加上情感?尤其是对于理性至上主义者来说,情感正是要战胜的非理性成分,无情感的计算机才是纯粹理性的化身。我以为与人更好的互动是机器情感的唯一和根本的原因。
皮卡德其实暗示另一条理由,即情感帮助人类更好地决策。但是,这推不出AI有情感才能更好地决策,因为人不同于计算机。或者说,情感决策和理性决策可以由人与计算机分开完成。
机器情感的适度问题值得仔细研究。第一,不同的人情感度不一样,机器人当然也有不同的类型,映射不同的度。第二,AI进行情感识别和表达,也得有度,太多的情感分析,过于夸张的情感表达,常常有负面作用。第三,人类情感目前可辨认的有几百种,基本情感可以不断复合成为新的情感类型。AI需要处理的情感,应该有个范围如基本情感。第四,人类情感分为背景情感、个体情感和社会情感,社会情感显然AI无法应对,可以考虑放弃。第五,在陪伴、养老、聊天等情况下,AI可以拥有情感,不属于AI必备能。
3.两个非常有启发的问题。
第一,情感计算会不会被用来为极权主义的情感操控服务?如今大家非常担心情感PUA,显然AI做这个肯定非常好用。向老人推荐保健品的推销员,利用感情手段进行推销,AI同样可以。在极端的政治环境中,AI可以向目标人群推销某种情感如个人崇拜。你怕不怕?
第二,AI会不会因为情感障碍而干傻事呢?当AI有情感,就有可能有情感问题:
我们会问:计算机如果没有某种负面的情感比如悲伤是否会更好?一个似乎合理的答案是,对于这些负面情感的机制,在计算机不断地适应复杂和变化的环境中,也可能扮演重要的角色。
什么是情感行为?计算机能因为主人死了,就自爆或格式化硬盘吗?如果计算机只有正面情感,还算有情感吗?当AI因为感情问题干了啥事,谁来负责呢?当AI有了感情,你可以随意伤害它的感情吗?
类似的问题,在我看来,再一次提醒机器情感的有限性:如无必要,机器不必有情感。