告诉AI怎么做,别让AI告诉你怎么做

图片

导读

Foreword


新兴技术的迅猛发展常引发人们对未来的担忧。在《人工智能之镜》一书中,哲学家香农·瓦洛尔深入探讨了人工智能对人类自我认知的影响及其与社会发展的关系。她认为,人工智能“继承”和“折射”的是人类社会承载的价值,是“过去”提供的数据集,因此问题核心在于人类自身。通过案例分析,瓦洛尔揭示了人工智能如何反映和放大人类的偏见,并让我们陷入过去的模式,而非迈向一个更公正和可持续的未来。她呼吁我们抓住人性中的创造力和能动性,共同探索新的技术-伦理路径,平衡监管与创新,发挥技术在关怀方面的潜力,将人工智能的应用转变为“丰富的实践”。尽管未提供具体策略,但瓦洛尔解构了对人工智能的神化,鼓励我们重新审视其角色,并承担起对他人和地球的责任。



图片

《人工智能之镜:如何在机器思维时代重拾人性》

香农·瓦洛尔

272页,牛津大学出版社,2024年
哲学家香农·瓦洛尔(Shannon Vallor)在她的新书《人工智能之镜:如何在机器思维时代重拾人性》(The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking)开篇提出这样一个疑问:“当一个人或一个智慧物种(intelligent species)不再讲述自己的故事时,他们会发生什么?当自我认知和自主性屈服于不透明算法的预测能力时,我们又将失去什么?”
快速发展的新兴技术总是会引发人类对于未来的恐慌。19 世纪初,玛丽·雪莱(Mary Shelley)在《弗兰肯斯坦》(Frankenstein)中描绘了电力创造生命的巨大潜力。在20 世纪,科幻和奇幻类作品则描绘了人类对核技术和外星遭遇的未来想象。瓦洛尔认为,人类对于人工智能(AI)的焦虑并非来自真实的外部威胁,而是来自人类自身及其选择。她在书中写道:“人工智能并不是作为人类未来的继承者来威胁我们。它并非蚕食人类领土的外敌,而是从人性的内部构成威胁。”
实际上,瓦洛尔认为真正的风险不在于技术本身,而在于技术的设计者。她解释道,人工智能是“建立在富裕的后工业社会价值基础之上的”,因此,它是“反观人类自身的一面镜子,即人工智能不是我们应该或可能成为的模样,而是我们已经成为和长期以来的模样”。这些自动化技术的算法中融入了人类的偏见和偏执,从而导致了众所周知的人工智能失灵。例如,亚马逊的内部招聘工具使用机器学习来评估应聘者的申请,以消弭招聘过程中的人为偏见,但由于它降低了女性申请者的排名,该工具在2018年被废止。同样,2016 年 ProPublica 的一项研究发现,一种为法院保释和量刑决策提供指导的算法工具错误地将黑人被告的再犯可能性预测为白人被告的近两倍。
瓦洛尔的主要论点是,人工智能对人类的最大威胁在于它能够让我们忘记真正的人性——我们的能动性、创造力、关爱的能力——因为它是“完全基于人类过去的综合数据构建的,并且依赖于那些在数学上注定会重复过去不可持续模式的优化算法。” 为了阐释这一观点,瓦洛尔引用了纳西索斯神话(myth of Narcissus)。纳西索斯是一位英俊的青年,当他弯腰凝视水中倒影时,发现自己被眼前的美少年所迷住。他如此迷恋自己所看到的那个人,以至于在等待其从水中出现时被活活饿死。瓦洛尔写道:“我们依赖这些镜子来认识自我,这可能让我们像纳西索斯一样,被过去俘虏而不愿意向前迈进,也不愿意抛开镜中所展示的幻象。就在气候变化加速、生物多样性崩溃和全球政治不稳定迫使我们发明全新的、更明智的共同生活方式之际,人工智能的出现却让我们停滞不前,沉溺于过去的无尽变化中。市场营销的‘魔力’将这些过去的反射伪装成未来,让我们误以为人工智能所展示的就是前进的方向。”
瓦洛尔断言,人类对人工智能的集体迷恋和全盘乐观,就像纳西索斯迷恋自己的倒影一样,使我们忽视了现实和局限性。与此同时,我们无法从人工智能这面镜子中认清自己,因为它只能提供一个扭曲的人性视角。通过让人工智能系统塑造我们的理想表达,人类“放弃了让自己变得更好的一切希望”,瓦洛尔指出,“因为这些工具正越来越多地被用来回答我们是谁,我们能做什么,以及我们将成为谁。”
通过“镜像隐喻”,瓦洛尔深刻阐述了人工智能系统的性质及其与人类关系的复杂性。她指出,当我们看向普通镜子时,它们会映照出我们的形象;而像人工智能这样的数字镜子,即使在我们不在场的情况下,也会继续呈现某种“倒影”——制造出人工智能具有感知能力的假象,这可能会误导我们,让我们相信机器和人类一样,甚至比人类更聪明。
“人工智能镜像体现在数据驱动的机器学习模型中,这些模型旨在收集、提取和投射最接近人类本质的形象,例如人类的语言、动作、信仰、判断、偏好和偏见、美德和恶习,”她说道。“正是这些工具正在越来越频繁地被用来回答我们是谁,我们能做什么,我们会成为谁。”
因此,人工智能系统被宣扬为比人类更优越——更高效、更准确、更令人满意,不仅在工作场所如此,在人际关系中也是如此。在瓦洛尔看来,对人工智能优越性日益增长的信念,将成为人类命运的丧钟。“这是人类对自己和彼此的道德和政治信心的逐渐侵蚀,”她写道。“在未来几年里,我们将一遍又一遍听到同样的呼声:人类比人工智能镜像更慢、更弱、更不可靠、更多偏见、更不理性、更无能且更没有价值。”
对于瓦洛尔来说,问题的根源也是答案所在。“我们是人类自身面临人工智能威胁的源头,这其实是一件好事——意味着我们拥有抵抗的能力和治愈的力量。” 如果人类想要重塑人工智能在未来的目的和用途,我们需要牢记“人类能动性始终优先于技术”。然而,如果人工智能继续成为反映人类过去的一面镜子,它将无法帮助我们设计出解决最紧迫问题的方案。“我们面临的是前所未有的星球和文明危机,”瓦洛尔进一步追问:“如果在攀登一座危险且未知的山峰,你会只通过一面你身后的镜子来规划你的路线吗?”
然而,瓦洛尔对人工智能并非持消极悲观态度——再次强调,这是因为人类既然创造了人工智能,就有能力改变它。她表示:“重塑人类与人工智能的关系需要价值观的转变,尤其是要‘改变我们对技术目的和作用的看法’。因此,我们必须摧毁人工智能与人类之间的等级制度。”瓦洛尔提醒我们,在个人层面上,技术并不是单纯的人造产物(artificial),而是人类创造过程中的固有成分(inherent to human creation)。在此,她引用了西班牙哲学家何塞·奥尔特加·加塞特(José Ortega y Gasset)的“自造”(autofabrication)概念,即 “创造自我的任务”(the task of creating ourselves)。其中,技术是我们塑造生活的物质影响因素之一。从这个意义上讲,自我塑造的伦理与社会层面所需的伦理相关联。瓦洛尔主张:“我们需要重塑人工智能以及更广泛的技术文化,以实现人类可持续的伦理愿景。我们需要一个共同的具有划时代意义的项目——一次集体“自造”行动,激发我们的创新精神和实用智慧,携手探索并开拓更新、更好的技术-伦理(techno-moral)发展路径。”
瓦洛尔在书中相应章节做出专门声明:本书不是一本关于如何管理和规范人工智能的书。她坦言自己的解决方案是理念而非基于证据的。因此,瓦洛尔认为,转变 “技术对人类的意义 ”的第一步,包含了一种理想化地呼吁,那就是“我们应当改变当前人工智能生态系统的经济激励机制,这种激励机制只与短期利润一致,而与人类可持续发展的未来互斥。”
本书中,瓦洛尔并没有将资本主义视作人工智能产业的主要推手,而是将焦点转向了她所认为存在误区的二元论(fallacious binary):监管与创新是不相容的。这种观念被政治家和企业家广泛接受,以阻挠公共部门对产业进行必要的监管,尤其是对碳排放等负外部性因素的监管。然而,瓦洛尔认为,“事实上,我们知道如何管理‘危险技术’。根本问题在于我们在很大程度上接受了一种说法,即监管是创新的敌人。因此,我们放弃了对‘危险技术’的管理。但以史为鉴,我们深知这种观点是错误的。”瓦洛尔以20 世纪对汽车、航空和航天工业的监管为例,指出安全工程实践、驾驶执照和交通安全法的存在并没有阻碍汽车行业的创新,反而见证了制造商们不断转型,生产更多混合动力和全电动汽车,以适应气候变暖和可持续发展的需求。
瓦洛尔认为,要积极利用人工智能,我们必须考虑该技术在提供关怀方面的潜力。例如,人工智能可用于发现和纠正医疗系统中的不公正现象,调查机构腐败或建立和维持互助网络。她认为,如果人工智能不再是效率的镜像,而是一种“丰富的实践”(act of generosity),那么它就可以被用作 “为他人生存提供必要服务;保护他人免受伤害;修复和疗愈;教育和培训;提供支持、培养能力和予以慰藉”等。
自我反思与分析的艰苦工作支撑着影响政策和改变社会规范所需的集体行动。这是一项艰巨的任务,但并未超出许多社区目前正在做或尝试做的事情的范畴。例如,一些原住民社区正在利用人工智能来恢复他们的母语体系,同时制定治理措施以确保他们能够控制数据的使用方式和对象。还有一些社区正在利用人工智能帮助保护生物多样性,或创建和管理自己的数据存储库,用以解决医疗保健中的不平等问题。
尽管《人工智能之镜》没有提出具体建议或分步说明如何避免人工智能带来的恐慌,但它成功粉碎了镜像本身,即对(人工智能)的幻觉、至高无上感与神化。瓦洛尔希望读者牢记,人工智能是一种人类创造的工具,我们应该思考如何利用这种工具为他人服务,这是我们对彼此和地球的集体责任。


茉莉·麦克尼利是美国佛罗里达大学(University of Florida)新闻与传播学院的教授。


来源:《斯坦福社会创新评论》2024年秋季刊
原标题:The Problem With AI Is Us


图片