1.人工智能技术迅速发展,带来诸多正面影响,如经济、金融、医疗、军事等领域的应用。
2.然而,人工智能技术也具有潜在威胁,如恶意行为者利用其制造混乱、动荡甚至灾难。
3.作者孙树强提出遏制人工智能负面效应的十个关键步骤,包括技术安全、审查、争取时间、开发者、“利润+使命”、政府监管、国际监管联盟、文化、公众的力量、整体协调等。
4.事实上,技术犹如一根诱人的“胡萝卜”,我们要关注技术是否会由“胡萝卜”变为“大棒”,确保技术能够造福人类和我们所居住的星球。
以上内容由腾讯混元大模型生成,仅供参考
观·察
人工智能的发展速度已经超乎了人类的想象,不断刷新我们对这一技术的认识。说是认识,实际上大多数人已经不太能很好地认识这一技术的发展了。这带来一种尴尬的情况,我们甚至还不太理解人工智能新的发展,更何谈遏制其负面效应。
——孙树强
图片来源:东方IC
浪潮已至:如何理性看待人工智能
在人类的口述传统和古代文献中弥漫着这样一种主题:一场巨浪或洪水席卷一切,随之而来的是世界的重塑和重生。这些巨浪的力量已经深深地烙印在我们的集体意识之中,它们似乎势不可挡、无法驾驭、难以遏制。技术的崛起与传播一直以改变世界的浪潮之姿出现。目前,人类社会正在经历着新一次的技术浪潮,这场浪潮由人工智能和合成生物学两大核心技术所定义。它们将共同开启人类的新黎明,创造出前所未有的繁荣和富足;但它们的迅速扩散带来了不可忽视的威胁,当技术的使用成本足够低时,可能会使得各种恶意行为者有能力在难以想象的范围和规模上制造混乱、动荡、甚至灾难。
任何事情都具有多面性,技术也不例外。微软人工智能CEO、DeepMind联合创始人穆斯塔法·苏莱曼(Mustafa Suleyman)和作家、数字出版人迈克尔·巴斯卡尔(Michael Bhaskar)合著的《浪潮将至:技术、权力与未来的冲击》深入探讨了人工智能为人类社会带来的巨大好处背后所隐藏的威胁与挑战。人工智能所带来的积极影响正在逐步凸显,但其潜在的破坏性也若隐若现,而且有些已经变为现实。作者认为,这是一本关于技术失败以及如何遏制技术失败的书,技术失败可以指普通意义上的技术故障,但在本书中,技术失败是指技术背离了初衷和承诺,对人类社会产生了非常严重的负面影响。例如,在人工智能和合成生物学的助力下,很快就可能有人制造出比自然界中的任何病原体都更具传染性和致命性的新型病原体,这些合成病原体可以规避人类已知的对策,以无症状的方式传播,或具有对抗治疗的内置能力。一个人就可能具有威胁很多人生命的能力,而他所需要的仅仅是一个动机。
人工智能并不是一个新概念,早在1956年由美国部分计算机科学家编撰的《达特茅斯人工智能夏季研究项目提案》就已经提出“人工智能”这一术语,这份提案呼吁举办一次非正式的研讨会,探讨如何通过计算机编程来完成类似人类的推理、感知和知识概括等活动。彼时,人工智能更像是一个遥远的愿景,而非一个可以马上实现的概念。以计算机视觉为例,尽管多年来人类一直努力让计算机识别物体和场景,但实际进步远未达到预期。在人工智能概念提出之后的半个世纪里,其发展进程更多是在蹒跚之中探索,在不断积累量变。直到以AlphGo和ChatGPT为代表的模型横空出世,才意味着人工智能发展实现了质的飞跃,也预示着人工智能走上了快车道。如果说在5年之前有人还对人工智能的发展前景持疑虑态度,那么现在这种态度应该烟消云散了,现在要思考的是如何赶上人工智能这趟高速列车。目前,人工智能技术的应用已经深入到了各个领域,我认真观察了一下,我现在写作所用的这款软件就有AI帮我写、帮我改等功能。
此次技术浪潮中另外一个核心技术就是合成生物学。在我们所生活和居住的这颗星球上,至少到现在为止,生命都是以缓慢、自主、无序的方式悄然进化。曾经,适者生存主导了生命的演化,但这种状况正在发生改变。生物学的神秘面纱逐渐被揭开,蜕变为一种强大的工具。生命的故事瞬间被重写,进化的步伐突然加速。在DNA测序和解码技术的加持下,科学家可以创造出全新的DNA链,从而实现对生命的改造。人类通过有针对性的干预,将生命数千万年的缓慢进化历程压缩并简化。
人工智能和合成生物学两股浪潮汹涌汇聚,形成前所未有的巨浪。在某种程度上,人工智能与合成生物学甚至可以互换概念。毕竟,迄今为止所有的智能都源于生命。称之为合成智能或人工生命,其本质并无二致,这两个领域都致力于重新创造、设计这些基础且相互关联的概念,它们是人类两大核心属性的体现。换个角度看,它们其实是一个整体。
每一次大的技术浪潮都具有独特的特征。以铁路为例,铁路缩小了空间距离,降低了运输成本,给经济社会发展带来了非常大的正面效应,但由于铁路投资巨大,所以铁路这种技术只有国家或大型企业才可以进行投资,普通人只能被动地享受铁路带来的便利。对于普通人来说,铁路的影响是对称的。人工智能浪潮也具有一些与以往技术浪潮不同的特性,作者在书中指出,人工智能浪潮具有四个固有特征:
首先是技术的高度非对称性。非对称性是指你与对方不必力量相当、规模相当,即使双方对比悬殊。技术使那些看似强大的势力暴露出以前难以想象的弱点和破绽。例如,大炮的出现意味着一小队力量就可以摧毁城堡,消灭整支军队;蒸汽动力的出现使得单个工厂的生产能力可以匹敌整个城镇。非对称性可能意味着权力或能力的大规模转移,从传统的国家或大型企业转向任何有能力且有意愿部署和使用这些技术的个体或组织。例如,一次病原体实验就能触发全球大流行病;一个人工智能程序就可以撰写出与人类所有文本作品规模相匹敌的巨量文字;上述两种情形并不需要多大的投入,较少的几个人甚至一个人就可以实现。
其次是技术的超级进化性。在之前的技术发展进程中,有些技术可以产生非常大的影响,但进化或改进速度较慢。以汽车为例,汽车发明至今已经超过一个世纪了,但汽车技术的进展较为缓慢,现在的汽车与100年前的汽车并没有本质的不同,只是在舒适性上有了很大进步。汽车较为缓慢的发展进程也给人们足够的时间来引入各种安全标准,控制其负面影响。人工智能技术的发展却具有超级进化性,近两年的经验显示,人工智能的发展速度已经超乎了人类的想象,不断刷新我们对这一技术的认识。说是认识,实际上大多数人已经不太能很好地认识这一技术的发展了。这带来一种尴尬的情况,我们甚至还不太理解人工智能新的发展,更何谈遏制其负面效应。
再次是技术的通用性。通用性是指一种技术可以在多个领域应用。电力、互联网就是通用技术的很好例子。人工智能也是一种通用技术,可以应用在经济、金融、医疗、军事等很多方面。这也意味着,相较于那些受限的、单一任务的技术,管控人工智能的难度将与日俱增。
最后是技术的自主性。迄今为止,持续的人类参与、监督与管理一直是技术运行的默认模式,技术在不同程度上始终受到人类的控制,而完全的自主性则在本质上与之前的技术截然不同。人工智能的一个突出特点就是自主性,持续的人为干预和监督将变得越发不必要,甚至人类并不理解人工智能的决策过程。实际上,人工智能技术的每一次进步,都实现了更大的自主性。人工智能的自主性正持续挑战人类的认知边界,也使得人类无法预测自主系统的后续发展轨迹。
虽然作者没有将另外一个特性,即快速扩散性,作为人工智能技术的第五个特征,但在书中对这个特点也进行了阐述。对于一般人来说,人工智能模型背后的技术较难理解,但其使用门槛并不高,尤其是以智能手机等设备作为媒介,很多人工智能程序在手机上就可以使用,这也决定了人工智能技术具有非常强的扩散性。实际上,正是扩散性导致了上面所说的高度非对称性。当技术不断扩散,越来越多的人能够使用、修改,并按自己的喜好来塑造它时,就会触及一连串错综复杂、难以预料的因果链条。
技术持续进步的驱动力来自那些原始的、与人性紧密相关的因素。只要人们有足够的动力去研发和应用技术,技术便会应运而生。作者认为,驱动人工智能技术浪潮的因素主要有三方面:一是大国竞争;二是源于现有的研究生态系统;三是巨大的经济利益。
从大国竞争来看,技术是“国之重器”,是某些国家能够领先于世界的关键因素,这几乎是每个国家都信奉的原则。谁拥有先进的技术,对国际秩序和国际竞争至关重要。当前,技术已经成为一个国家最重要的战略资产之一,21世纪的大国竞争本质上是关于技术优势的较量,谁能掌控这次人工智能技术浪潮,谁就能在未来的国际竞争中占据先机,这几乎是各国决策者公认的事实。
从现有的研究生态系统来看,纯粹的好奇心、对真理的追求、开放的精神,以及以证据为基础的同行评审,这些要素共同构成了科学技术研究的核心价值观。其中,人类对真理的追求或者说好奇心发挥着重要作用。以曼哈顿计划(即美国利用核裂变来研制原子弹的计划)的两位参与者为例,罗伯特·奥本海默曾说:“当你面对技术上十分美妙的东西时,你会义无反顾地研究它,只有在取得技术成功之后,你才会考虑拿它来做什么。”奥本海默的同事约翰·冯·诺伊曼也指出:“我们正在创造的东西是个怪物,它将改变历史——假如还有历史留存的话。但无论后果多么可怕,我们都不能不去探索它,这不仅是因为军事需要,更是因为从科学家的角度来看,知道某条路径可行却不去探索,是违背科学道德的。”
从经济利益来看,利润是人工智能浪潮最持久、最根深蒂固、最强大的驱动力。在技术发展史上,偶然性发挥着非常重要的作用,但抛开偶然性不谈,有目的的研发基本上都受利润动机驱使。人类需求、欲望的多样性和非餍足性,以及由此产生的无数商机,是推动人工智能技术进步的核心力量,利润动机也必将在未来持续推动人工智能技术的发展及走向。
任何一项技术都应该是为了放大人类的优点,而不是寻找人类的弱点并借此对其进行攻击。斯坦福大学计算机科学教授、著名人工智能专家李飞飞在其自传体著作《我看见的世界》一书中也提到了对于人工智能无序发展的担忧,她指出:“新一代人工智能所能做的一切,无论是好是坏,无论是在预期之内,还是在预期之外,都因其设计本身缺乏透明度而变得复杂……由此带来的后果特别令人担忧,即一种被称为‘对抗攻击’(adversarial attack)的新型威胁。在对抗攻击中,输入内容的唯一目的是迷惑机器学习算法,以达到反直觉甚至破坏性目的。”
实际上,可以从三个方面来看待人工智能的负面效应。首先,在利用人工智能积极作用时所带来的副作用,这个副作用只能由使用者做好自我控制,趋利避害。其次,人工智能对人类智能形成替代,导致特定人群失业,冲击现有就业秩序。再次,是从恶意的角度来使用人工智能,这就涉及如何推动技术向善,以及在技术发展中有效控制其脱离正轨的问题。
我们先来看一下第一个负面效应。以学术研究为例,人工智能技术在学术领域已经进行了广泛应用,人工智能就如之前的搜索引擎,可以极大地提高研究效率。但这里面也存在一个边界问题,利用人工智能协助研究在何种程度上是合适的?如果什么工作都让人工智能来完成,那么对于研究者来说,其存在的意义将逐渐削减。尤其是完全依靠人工智能来完成论文写作等任务,实际上就是学术造假。英国剑桥大学已经在2023年出台了一份关于学术性的指导文件,文件指出,学生可以利用AI帮助进行某项研究,但不能利用AI代替自主思考以及将AI生成的内容直接用于论文写作。包括我国很多高校在内的高等教育机构都已经对AI协助研究做出了类似的规定。这是人工智能带来副作用的一个非常实际的例子。
人工智能带来的另外一个负面效应就是对现有的就业秩序造成冲击。现在的人工智能模型已经能够在文字撰写、文案构思、视频生成、书籍翻译等很多方面做得非常好,甚至超越人类了。随着人工智能技术的进一步发展,可以想象,如果企业有意愿,上述几项工作都可以由人工智能来完成,这就很可能产生结构性失业问题。从社会发展的角度来说,并不是所有利用技术代替人工都会产生合意的结果。就如李飞飞在书中所说:“在科学和工业领域,推动人工智能发展的动机是什么,这个问题非常重要。我认为这个动机必须明确地以人的利益为中心。”
还有一个极大的危害就是使用人工智能的目的就是造成混乱。最明显的一个例子是将人工智能应用于军事领域,并制造出一系列致命的军事武器,这可能使恐怖分子的破坏力急剧提升。即使正常的国家将人工智能应用于军事上,对抗形势也会呈现出新的表现,并对世界带来新的安全威胁。
谈到“遏制”这个词,我们很容易想到1940年代美国的外交官乔治·凯南,他赋予了这个词独特的政治含义。1947年夏天,凯南在《外交》季刊发表了《苏联行为的根源》一文,文章指出,“美国对苏联的要旨在于,它必须是一种长期的、耐心而又坚定的、警觉地遏制苏联对外扩张的倾向。”
任何技术都有可能出错,而且往往是以一种与初衷背道而驰的方式出错。理解技术,在某种程度上就是要尝试理解其意料之外的后果。遏制技术发展主要是指我们可以控制技术的发展速度,以及其所产生的负面影响,这样社会就有足够的时间和空间来适应和理解它。“遏制”是一种至关重要的能力,涵盖了控制、限制以及必要时在技术的任何发展阶段暂停技术的能力。例如,在GPT-4发布几天后,鉴于人工智能研究和发展似乎陷入了失控状态,数千名人工智能科学家联名发表了一封公开信,呼吁最先进的人工智能模型研究暂停6个月;不久之后,意大利政府就决定禁止使用ChatGPT。
作者认为,技术遏制可以简单分为三个层次:首先,第一个层次是指在实验室或研发设施中进行的一系列操作,这个阶段主要涉及研究人员和开发者。其次,技术遏制还涉及围绕技术创造和传播所形成的价值观与文化,这些价值观和文化支持技术边界的设定、治理层级的构建,同时帮助我们警惕潜在的危害和意外后果。最后,技术遏制还包括国家和国际层面的法律机制,也就是对技术的监管。
在人类历史进程中,对于任何事物,如果有负面影响,我们首先想到的是政府是否可以对其进行有效监管,甚至会将不良后果的责任归咎于政府没有做好监管。作者认为,在人工智能领域仅靠监管是不够的。有几方面原因:首先,监管一般涉及在多方利益之间进行权衡,任何形式的监管都错综复杂、困难重重。其次,即使是人工智能领域的技术专家和研究人员,也难以跟上技术变革的步伐,那么,对资源更为有限的监管机构来说,它们又有多少胜算呢?再次,技术发展日新月异,但出台一部监管立法却需要数月甚至数年时间,可以说,技术进步的速度是在“奔跑”,而监管却在“蠕行”。从上述这几个角度看,遏制人工智能的负面效应,仅仅依靠监管是无法做到的,需要多方共同付出极大的努力才能取得效果。
我们有理由对科学的力量保持乐观,但要安全、公平、可持续地利用这一力量,需要多方位建立一个确保技术安全的体系。在书中,作者构建了遏制人工智能负面影响的十个步骤,或者说是十项举措,包括技术安全、审查、争取时间、开发者、“利润+使命”、政府监管、国际监管联盟、文化、公众的力量、整体协调等。
技术安全是指采取具体措施降低人工智能的潜在风险,并保持对技术走向的有效掌控。审核是指要确保技术的透明度和问责制,尤其是透明度,这是一个必选项,必须要有定义明确的途径来审查新技术在开发过程中、代码层面、实验室、工厂或各类实际应用场景的情况。争取时间是指利用技术命门(即关键的技术控制节点,如芯片生产者和关键企业)来放慢技术发展速度,从而为监管机构以及开发防御技术争取一定的反应时间。开发者是指从事技术工作的人需要更加努力地解决人工智能所面临的问题,构建正确的技术,掌握能够改变技术进程的实用手段,积极地展示如何做出改变。“利润+使命”是指企业在开发人工智能并获得利润的同时,也要关注社会责任和使命,企业在社会中生存和经营,除了追求利润,还要关注获得利润的过程给社会带来的影响。政府监管是指政府相关部门要投身于技术发展进程、技术标准制定以及内部能力的培养,在这次技术浪潮中,政府不能当旁观者,而是要作为有力量的引导者和监管者。国际联盟是指通过精心构建的联盟和国际合作,合力遏制人工智能技术的破坏性影响。文化是指人工智能领域要逐渐形成一种遏制风险的审慎文化氛围,特别是要坦诚一项新技术可能带来的风险。公众的力量是指需要公众在各个层面的积极参与,包括对某项技术以及技术发展的各个环节施加必要的压力,从而确保相关各方承担相应的责任;当公众共同要求变革,真正的改变就会发生。整体协调是确保上述九项措施能够切实发挥作用。“遏制”是一个各项措施相互强化、形成良性循环的过程。通过精心构建并彼此衔接的反制措施,“遏制”会更加有力有效。
当然,上述十项措施只是作者的一家之言,具体到实践之中,哪些措施可以实施、哪些措施有效还要具体观察。但毋庸置疑的是,人工智能浪潮在重塑人类社会发展进程的同时,也带来了迫在眉睫的挑战。能否有效应对挑战,决定了此次技术浪潮是否误入歧途。
虽然这本书的名字是“浪潮将至”,但实际上浪潮已至!我们正处于这浪潮之中,对于很多人来说,现在的感受似乎更多是这个浪潮所带来的心理冲击和新奇,尤其是人工智能带给我们非常大的便利,我们也倾向于忽略其缺陷。现阶段,技术犹如一根诱人的“胡萝卜”,我们要关注技术是否会由“胡萝卜”变为“大棒”。在发明、应用技术的同时,更要注意其破坏性力量,确保技术能够造福人类和我们所居住的星球。