刘永谋:国家治理人工智能(AI)不宜过急过严

全文4178字,阅读约需12分钟,帮我划重点

划重点

01中国人民大学教授刘永谋表示,国家治理人工智能(AI)不宜过急过严,应给AI发展留出足够发展空间。

02他指出,科技伦理治理、科技安全治理的目标不是阻碍新科技的发展,而是为新科技保驾护航。

03然而,AI恐惧在社会中弥散,导致人们对AI的发展产生过度的忧虑和焦虑。

04刘永谋认为,当前的AI技术并没有取得宣传术所吹嘘的成绩,存在唯名论困境。

05他建议,政策制定者和决策者需要仔细审度各种AI话语,准确恰当地定位AI的真实状况。

以上内容由腾讯混元大模型生成,仅供参考

*中国人民大学吴玉章讲席教授刘永谋首发于微信公众号,保留一切知识产权,侵犯必究。


图片


今天我们聚在一起,讨论人工智能治理问题。我总的看法是:目前社会对AI发展的关注过头了、忧虑过头了,政策、立法层面的安全治理、伦理治理有过度化的倾向,国家治理AI不宜过急过严,应该给AI发展留出足够发展空间。比如,ChatGPT爆火没有多久,我们就出台《生成式人工智能服务管理办法》,而且条款严格,很多大厂均表达《办法》过急过严的反馈。

有一个基本观念经常被理解错误:科技伦理治理、科技安全治理的目标决不是阻碍甚至叫停新科技的发展,而是为新科技保驾护航,使之在各种潜在的伦理风险、安全风险、社会风险中找到最为稳健的发展路径。比如,如果某种生产式AI产品输出的东西,总是与主流价值观相冲突,它是不可能生存下去的,更谈不上大的发展。因此,正是对AI进行治理使之能够“伦理软着陆”“安全软着陆”“社会软着陆”。

如此,AI圈子便不再闻治理而色变,而是乐于与政策部门、监管部门合作,真正将治理措施落到实处。毕竟,说一千道一万,AI企业、AI科研组织是落实AI伦理、AI安全的主体。

萝卜快跑为例,现在的情况还是有可以改进之处的。

1.萝卜快跑事件中AI恐惧


暑假时萝卜快跑走红,引发了公众对于无人驾驶车可能取代出租车、网约车的担忧,甚至有传言称部分地区将全面禁止无人驾驶出行服务。当然,该传言已被证实为谣传。可是,类似的言论在网上掀起轩然大波,一时间沸沸扬扬。

喧嚣了一两个月,的士司机、网约车司机并没有大面积失业,萝卜快跑也没有停运。这说明什么?大家对萝卜快跑的冲击忧虑过头了,说明社会上弥散着罗中的AI恐惧情绪。

AI恐惧即社会公众普遍存在的一种对AI的忧惧情绪、拒绝态度与攻击行为。AI恐惧存在于一般社会观念中,与长期存在的技术恐惧(technophobia)尤其机器恐惧一脉相承,是技术恐惧的新形态。

究其根源,AI拟人化是AI恐惧的深层社会心理文化诱因。AI拟人化在三个层面催生了AI恐惧:(1)人类在认知上对AI的拟人化引发“AI类人惑;(2)人类在情感上对AI的依赖性引发“AI非人恐慌;(3)人类在信仰上对AI的崇拜感引发“AI超人恐惧。萝卜快跑让大家失业的恐惧,便是第一种“AI类人惑。

我的意思并不是萝卜快跑不会造成失业与就业的问题,而是大家的恐慌过头了,结果让萝卜快跑的发展承受了过大的本不该承受的压力。这对AI的发展是非常不利的。很快各地为了表现出积极作为的姿态,表现出对公众关切的积极的回应,纷纷出台自动驾驶管理办法和条例。

新科技发展过程中,总是会遇到各种阻力。面对社会舆论的质疑,专家、政府和车企应该加强与社会公众的沟通和交流。在无人驾驶网约车推广和运行过程中,更要持续发挥技术民主化机制的作用,即时听取各利益相关方的反馈意见,妥善处理已经暴露出来的问题,为新科技应用、推广和落地保驾护航。但是,治理问题不能操之过急,责之过苛。

进一步而言,大家之所以被AI恐惧侵袭,与目前的AI宣传术有关。

2.AI恐惧背后的AI宣传术


总的来说,形塑AI公众印象的主要力量,是AI公司以及与之关系密切的大众传媒。显然,AI公司的目标不同于技术专家的求真,而主要是逐利,它们运用资本的力量,联合大众媒体尤其是各种形式的新媒体,对AGI进行夸张和扭曲的社会推广,以获得更多社会关注,从而吸引更多的资金投入到AI领域中。可以说,它们的AGI话语是某种“AGI宣传术”,或者说“AGI宣传话语”“AGI话术”。

大致来说,AI宣传术主要包括3种策略: 1)科幻叙事,即不仅叙事科幻色彩浓厚,也注重利用科幻文艺进行宣传;2)偶像叙事,即马斯克、奥特曼、李彦宏等企业主亲自代言,扮演“超级科技英雄”,为AI“圈粉”;3)话题叙事,即借助抓人眼球的热点话题提高传播效果,其中最重要的是“AI奇点正降临”“AI已有意识”“AI可能统治人类”等“AI觉醒”类话题。在AI宣传术中,AGI话语是宣传焦点之一:第一,流行科幻文艺中的AI形象均以AGI示人,多数甚至是作为AGI高级形式的超级人工智能SAI);第二,超级科技英雄们喜欢讨论与AGISAI相关的话题,喜欢以未来主义的有效加速主义(e/acc)——即主张技术加速带来人类解放,因而要不顾一切加速新科技的发展——者自居;第三,AGI是“AI觉醒”核心元素,觉醒后的AI必定通用而非专用,甚至是万能的超级AI

一方面,AI宣传术行之有效,推进了新科技和AI产业的发展。另一方面,AI宣传术言过其实的传播方式,自然也导致一些问题比如,过度宣传AGI马上会到来,AI很快会产生意识,甚至成为超级AI,而人类无法完全理解机器意识,无法预料AGI会如何行动,使得不少人产生不必要的焦虑,甚至要求国家和政府加以干预。

总之,大厂、资本和传媒都要反思目前的AI传播方式,对AI恐惧盛行负相当大部分的责任。

3.AGI技术的唯名论困境


实际上,当前的AI技术并没有取得AI宣传术所吹嘘的成绩。从1956AI概念提出之后,AI发展几经起落。有人说,AI发展经历典型的是一波吹牛然后大量资金涌入,然后很快大家发现目标都没有实现,AI热潮变成AI低谷,过一些年又如此操作一次。细究如今的AI技术水平,与宣传的情况差距很大。

举通用AI为例。大家知道,这两年AGI很热,最近ChatGPT-O1又被很多人宣布为AGI

从某种意义上说,早期的AI概念基本类似今天GAI概念,即发展AI目标是实现比肩人类的智能,而人类智能是一种“通用的”智能。但是,AI科技后来实际的进展基本都是“专门的”,即完成某种单一任务如下围棋,包括曾经备受推崇的智能决策支持系统(IDSS)也是如此。进入21世纪,一些AI技术专家深感技术理想被降级,于是重新提出AGI概念,并通过出版论文集和组织AGI会议的方式,形成了以戈尔策尔(Ben Goertzel)等人为核心的AGI研究圈子。但是,在计算机、AI领域的技术专家中,AGI概念的支持者并不多,并未得到广泛的、足够的承认,相反质疑的声音相当大。

通用人工智能中的“人工”比较清楚,困难在于澄清“通用智能”,据此很多人认为区别通用人工智能(AGI)与专用人工智能(ANI)值得商榷。对此,我最近在《哲学动态》上发表《通用人工智能的复杂面孔》一文,仔细进行了分析。

总的来说,技术专家们对AGI的定义不仅千差万别,而且存在重要的缺陷,或者很不清楚,或者自相矛盾。夸张地说,每个AGI专家都自有一套对AGI的理解,而这又导致迥然不同的AGI衡量标准。现实中AGI的技术研发,便是不知“何为AGI”的情况下进行的。存在着具体的AGI项目,却没有一致性的AGI定义,从某种意义上说,AGI技术话语陷入某种“唯名论困境”之中。必须要指出,“唯名论困境”并未阻止AGI的技术进步。作为AI研究的一种技术路线,各种AGI开发方案拓宽机器智能的实现途径,实实在在地推动智能技术的进步,如AGI的语言理解刺激了大语言模型(LLM)对出现。

不过,技术上讨论,社会公众知道得很少,也不关心,更是很难理解。Alphgo战胜李世石以来以深度学习的技术突破为基础的这一波AI热潮,主要由高科技公司而不是科技界所推动,因而在其中AI公司掌握了最大的话语权。比如,向如今崛起的ChatGPT、文心一言、通义千问等大模型工具询问“何为AGI”,大家意识不到它们本身是某种形式的宣传工具,即网上各种宣传报道的归纳而这些宣传报道又主要由资本和传媒控制,将大模型的回答当成真知识来接受,而大众传媒主要受资本控制,加之猎奇追新的本性,因而对AI宣传术趋之若鹜,缺乏足够的距离感和反思态度。更重要的是,互联网大厂、AI公司历来注重流量,基本都自办新媒体矩阵,花大气力宣传AI,在社会公众心目中塑造它们想要的AGI形相。最后,社会公众产生过头的AI恐惧和AI焦虑。

4.批判法:AGI人文形象


AIAGI热议中,人文学者、社会学家、艺术家和某些政策研究者的讨论与AGI技术、AGI话术不尽相同。总的来说,在人文社会学对AI的研究以及艺术圈对AI的想象中,学者和艺术家们多数无力深究AGI的技术细节,主要根据传媒宣传和普及读物来解读AGI

从历史维度看,人文社会科学界对AGI的态度存在着历史性的改变。一开始,对于AIAGI和超级AI等话题,人文话语中存在很多质疑的声音。比如在早期AI热潮中,德雷福斯从具身性出发认定AI不可能达到人类通用智能的水平。最近十年来,人文社会科学界总体上已成为AGI最有力的支持者。因此,相比于AGI宣传话语,当代AGI人文话语整体上更为激进、更为科幻,将未来愿景中AGI作为真实存在之物来进行研究和创作,常常将AIAGI等同起来,认为AGI正在或已经到来,甚至相信超级AI注定到来、数字永生也会实现等科幻式想象。在类似缺省理解之下,人文学界、社会学者和艺术家展开对AI/GAI的研究和创作,形成特点鲜明的“AGI学术”“AGI艺术”。

当然,其中的确不乏未来主义的为AI宣传术鼓与呼的人,有些甚至是欢迎硅基生命取代碳基生命的“机器人带路党”(艺术家评论家岳路平语),但大多数人文学界、社会学者和艺术家秉承批判性思维的传统,将AGI视为某种“批判法”。换言之,他们思考AI相关问题时,往往想到的是成熟的AGI甚至是超级AI,以它们的大规模应用来预测智能社会的各种风险和负面效应,在很大程度上忽视或脱离了AI发展的现实状况。有学者指出,过去十年间关于AGI相关风险的文献大幅度增加,强调但经过同行评议的论文有限,缺乏具体的、可见的风险研究。

AGI宣传话语的乐观主义情绪不同,AGI人文话语担忧智能革命和人类社会的未来,带有浓重的悲观主义技术决定论的基调。从某种意义上说,在AGI人文话语中,“AI亢奋”与“AI恐惧”并存。前者指的是,很多人夸大AI技术突破的速度,非常情绪化地认为根本性突破已经发生,强AIAI奇点正在出现,电子生命很快会产生,并迅速迭代为超级AI。后者指的是,很多人对生成式AIAI进展非常焦虑,对想象中的AGI、强AI、超级AI非常恐惧,相信AI加速进化,很快会主宰整个地球,对人类不利,结束人类世。因此,之所以说AI人文话语是批判法,很大程度上是因为AGI可能导致的巨大风险在现实中不大可能出现。

然而,AI的人文话语在某种极端的情况下反思AI可能导致的技术风险和社会风险,并非没有价值或多此一举,对AGI风险进行“宁可信其有,不可信其无”式全面而细致的分析,是未雨绸缪的万全态度,目的是尽早准备和部署应对。

5.结语


综上所述,在不同的文化领域,AI呈现出不同的形相。并且,随着AI领域不断的技术创新、社会应用以及社会传播,AI的基本面貌还会发生变化。

因此,尤其是相关政策的制定者和决策者,必须要对各种AI话语进行仔细的审度,分辨它们的言说者、言说场域、言说方式、言说动机以及主题流变等,准确而恰当地定位AI的真实状况,不要被各种宣传报道牵着鼻子走。

目前AI发展突破不小,但也不是那么神乎其神。治理者要关注AI发展,也不要关注过头,尤其是治理不宜过急过严。这在目前全球新科技发展竞争的态势下非常不利。

总之,AI的未来发展之路,必须要放弃非此即彼的极端思维,预先研究,逐步推进,努力规避,实时调整,在唯名与唯实、宣传与真相、愿景与现实之间不断寻找平衡,寻找适合中国国情的辩证发展之路。