在AI时代,人性之恶是如何被放大的?

图片

作者|托马斯·查莫罗-普雷穆季奇(Tomas Chamorro-Premuzic)

著名心理学家,伦敦大学学院商业心理学教授,心理分析、人才管理、领导力发展和人员分析领域的国际权威,万宝盛华集团首席人才科学家,霍根评价系统研究和创新中心的主要负责人之一




于人工智能的讨论大多围绕道德问题展开,最常见的假设就是机器要么成为与人类为敌的邪恶力量,比如它们不遵守道德原则或道德败坏;要么复制人类最坏的性格特点。二者选其一的话,后者倒是最有可能出现的。

这些担忧往往源于以下假设:人类以自身道德准则为基础创造出了人工智能,因此,它天生就行为不端或者会做错事。然而,人类的本性不是只有作恶这一项,我们也有善的特征,既然人工智能可以选择模仿人类行为的部分元素,那人工智能至少有能力重塑人类仁慈或道德的行为,甚至完善这些行为。

图片


《AI时代人性的弱点

[英] 托马斯·查莫罗 - 普雷穆季奇  著

李文远  译

中国科学技术出版社

2025年1月


除非按照人类设定的标准加以评判,否则机器的行为就称不上道德或不道德,这就是人工智能道德问题复杂的原因。从这个意义上讲,评判人工智能的品德与评判狗的品德没什么不同(这是一种拟人化的投射),除非我们的目的是通过评判狗的品德来判断狗主人的品德。人类将某种道德感投射到自己和他人的行为上,包括机器。所以,当我们研究机器做出的决定时,如果我们在道德或伦理上不赞同它们,说它们不符合我们人类的价值观,那么我们主要是在评判为机器编写程序的人。


伦理问题总是会回到人类身上,即使这种行为像是由机器自动产生的,或者是由那些模仿人类的机器无意中学到的一连串错误造成的。任何伦理准则的基础本质上都是人类的,因为我们总是从人类的角度来审视事物。


从这个意义上讲,那些人工智能因人类干扰其目标而灭绝人类的恐怖故事与其说是不道德或邪恶的,倒不如说是人工智能思想单纯。例如,假设我们为人工智能编程,以尽可能多地生产回形针,而人工智能通过学习得知,为实现这一目标,它必须控制一系列资源和组件,这会导致人类灭绝,甚至因为人类干扰其实现目标而直接消灭人类。要说这是人工智能对人类缺乏同理心或道德层面的同情心,不如说是它的超能力,如果它真的有超能力的话。


从伦理角度来看,人类做过最坏的事情也许是因为某些动物很美味或者是极佳的狩猎战利品而导致其灭绝;或者是摧毁地球,因为我们喜欢坐飞机去参加面对面的商务会议或用空调来给我们的办公室降温。


当我们的任务是设计机器或给机器编程,以大规模复制或再现人类决策时,风险就更大了。不过这里需要强调的是,人工智能就像你家宠物狗一样,不存在道德或不道德之说。你可以奖励狗狗,比如当它耐心地等待你喂它饼干;你也可以惩罚狗狗,比如当它在你的客厅里撒尿。但是,当狗狗违反了我们教给它的规则时,我们都不太可能指责狗狗不道德。如果我们训练狗狗攻击白人或女性,那不道德的肯定不是狗。如果你更喜欢养一只机器狗,比如索尼公司推出的Aibo机器狗,那你可以期待它在开箱后就会有某些预编程的行为。但除了这些出厂预设的行为外,它还将学会适应你的个人道德规范,从而吸收你的道德标准。


同理,任何技术都可以用于好的或坏的用途,这取决于人类的意图和道德,以及我们用来判断这些意图的道德规范。在具有启示意义的回形针问题中,悲剧结果是由不可预见的编程后果造成的,这更多地说明了人类的愚蠢,而不是人类的道德,更不用说人工智能了。


个人基因组和生物技术公司23andMe可以将人类唾液转化为基因遗传倾向和医学图谱。虽然对很多人来说,基因图谱分析听起来相当可怕和令人厌恶,尤其是因为它与纳粹优生学或种族清洗有关。但现实是,这种技术的潜在应用场景很多,而这些场景可能因其在别人眼中的道德观念而有所不同。


在伦理或道德的层面,我们可以考虑个性化医疗来有效治疗高遗传性疾病。特别要提到的是,23andMe所采用的单核苷酸多态性基因分型(single nucleotide polymorphism genotyping)技术可对1%罕见疾病(99%源自遗传)的患者进行高度定制的靶向治疗。


还有个问题也许不那么涉及伦理,但未必不道德,那就是将个人基因组应用于汽车保险行业,他们根据用户的性格或个性来定制保单。例如,责任心、自控力和鲁莽冒险行为等个性部分在一定程度上是遗传的,它们也预示着个体在驾驶风格和表现方面的差异。相比于男性,女性造成的道路事故较少,而且投保金额应该更低,因为从性格的角度来看,她们大多更有责任心,也没有男性那么鲁莽。反对任何类型的概率细分或随机个性化只意味着更注意安全的司机最终要为那些鲁莽司机的行为买单,这可以说是不公平的。此外,由于个性只影响驾驶模式,而非决定驾驶模式,因此,只要给予司机反馈,让他们更了解自己的个性,就可以帮助他们调整自己的行为,纠正坏习惯和抑制冒险倾向。我们还可以用人工智能测试人们的驾驶水平,尤其当他们的默认倾向有所改善时,这就能取代之前的基因预测,这不仅可以提高公平性,而且能提高准确性。


即使针对有争议的人工智能应用,我们也可以重新调整,以完成略微不同的目标,改善其伦理层面的影响。例如,脸书的某个算法经过训练后,用于检测那些因其偏好数据和个人行为模式而被视为政治取向未定的人群。此时,人工智能的目标可能是告知、误导或推动这些人为某个候选人投票或让他们保持未作决定的状态。这些潜在选民受到假新闻的轰炸,或者剑桥分析公司Cambridge Analytica)提供的额外舆论导向专家服务,比如用挪用公款、贿赂和嫖娼来构陷政治人物,这些手段与人工智能无关,但这并不意味着该公司很有道德。同样,如果脸书向其他方出售或收集个人数据的做法违反了某些数据保密或匿名法规,则现有法律法规可通过惩罚人类而非惩罚算法来解决这个问题。简而言之,无论脸书、23andMe还是剑桥分析公司,算法能做的最多就是识别数据中的模式,比如:做X或拥有X的人更有可能做Y或拥有Y,而不判断这是否会使他们成为好人或坏人。

能肯定的是,用于数字政治定位的人工智能工具在政治上比瑞士更中立。即使人工智能在2016年英国脱欧全民公投和特朗普竞选总统中发挥着决定性的作用,但已投入使用的算法并不真正关心英国脱欧或特朗普,因为它们没有真正理解这两件事的意义,或许就像许多投票支持或反对这些结果的人类一样。


2016年英国脱欧公投和美国总统大选被指控受到数字或算法干预,人们反应强烈,此事成为一桩丑闻,发展成这样的部分原因在于批评人士对结果的蔑视,因为他们认为英国脱欧和特朗普是民主选举中伦理道德程度较低的结果。作为拥有英国和美国双重国籍的人,我自己就是那个自由主义群体的一员,但我接受这样一个事实,即在两次选举中,大约有50%的选民可能与我的观点相左。


与任何人工智能应用一样,算法的确构成了威胁。如果我们利用技术将不公平或不道德的过程标准化或自动化,那么不平等现象就算没有自动化,也肯定会加剧。当某个人因为信用评分不符合某些标准而得不到银行贷款时,或者当保险算法因为计算过程中的概率错误而使被保险人得不到保护时,就会发生这种情况。


如果我们一开始就不理解道德的含义,那就很难成为有道德的人,尤其是当你不理解何为不道德不符合伦理的时候。对伦理问题的讨论往往被默认为法律问题,而作为道德的指南针,法律显然是相当不完善的。


1973年之前,同性恋在美国被列为一种精神疾病;而奴隶制直到1865年才被废除。在20世纪50年代,白人把自家房子卖给黑人是一种违法行为,正如美国前总统罗纳德·里根(Ronald Reagan)所指出的那样,就个人而言,我可以把我的房子卖给任何人,只要你喜欢这房子,就可以把它买下来。当人们可以自由决定把房子卖给谁的时候,才有自由可言。这种做法合乎道德吗?以里根的标准来看,这也许并非完全不道德。


要衡量我们的行为是否合乎道德,一个简单标准就是康德曾说过的一句铿锵有力的名言:如果每个人的行为都像你一样,世界会变成什么样?它会是更好还是更坏?它会在透明国际(Transparency International)的星际评级中上升还是下降?


伦理是一个复杂的话题,要决定谁是谁非,没有任何捷径可走,除了展开一场艰难且可能毫无成果的辩论,其结果最多是陷入宗教、意识形态或文化差异的死胡同,我们称之为道德信念。但是,要改善人类文明中的公平和福祉,唯一希望就是就某些基本要求(参数)达成一致,为道德、法律和文化行动准则奠定基础。伦理学是一种治理框架,能够使某个社会比其他社会更有吸引力、更小危害性。


如果要衡量一个社会的伦理程度,我们可以研究其最贫穷和话语权最少的社会成员拥有哪些福祉。


在一个社会中,如果出生在贫困家庭的人几乎没有变富有的可能性,那就必须从伦理的角度质疑这个社会。同理,在一个社会中,如果拥有地位和特权的富人滥用权力且能控制机制,那么这个社会也必须受到道德审查。正如佩特拉·科斯塔(Petra Costa)所指出的那样,除非富人感觉受到穷人的某种威胁,否则的话,民主很难正常发挥作用。


—End—

本文选编自《AI时代人性的弱点》,注释从略,题目为编者所加,特别推荐阅读。该文由出版机构提供,只做推荐作者相关研究的内容参考,不得用于商业用途,版权归原出版机构所有。任何商业运营公众号如转载此篇,请务必向原出版机构申请许可!