1.中国人民大学教授刘永谋表示,AI对哲学的最大挑战在于人的自我理解之革命,而非AI是否具备成人能力和对人的取代。
2.他指出,AI技术如大数据智能已经对文科研究产生深刻影响,如文本阐释研究和浅表写作受到根本性质疑。
3.然而,刘永谋认为,哲学专业在AI时代生存面临合理性挑战,需要走精品路线,压缩人数,提高水平。
4.他建议,哲学反思应关注AI时代人的历史境遇,重新发现人和理解人,以同情同理而非宇宙情结去审视AI时代人的处境。
以上内容由腾讯混元大模型生成,仅供参考
在上海参加了王天恩教授领衔的社科重大项目“数字智能技术与哲学发展及知识生产范式变革研究”的开题会。
此题非常重要,直指一直萦绕在心中的一个问题,即“AI对哲学的最大挑战究竟何在”。天恩教授长期研究相关问题,功力深厚,课题设计非常全面,颇多创新,问题意识突出,水平非常高,引起我进一步的深思。无奈来去匆匆,当面交流的时间不到十分钟,这里笔谈一点想法。
首先,招标指南中“数字智能技术”让人混淆。
我想,它指的是数字技术和智能技术,两者加起来合称“数字智能技术”。基本没人用“数字智能”的说法,“数智时代”中“数智”指的是数据智能或大数据智能。也就是说,目前的AI尤其是最近风头正劲的生成式AI,本质上是以大数据为基础的,可以称之为数据智能。有人提出小数据智能,这也属于数据智能的范畴。
数字技术与AI技术什么关系?数字技术相当于计算机技术,处理所有转化为二进制数字的内容。AI技术内涵十分丰富,包含一部分的计算机技术内容,也涉及数字之外的东西如机器人。
从题目设计的背景来看,用“AI技术与哲学发展及知识生产范式变革研究”可能更清楚。数字技术产生很久了,但当下讨论的背景是智能革命的风起云涌,即AI技术对哲学的冲击有新的内容、新的问题,不止于之前信息社会发生的变化。
其次,AI对哲学的冲击,大家都有直观的感受。
这些问题如果均体现在研究内容中,并给予正面的回答,无论理论意义和实践意义都将非常重大。
近来AI对既有的文科发展套路的挑战是釜底抽薪式的。
以博学为基础的研究,不管是历史、文学还是哲学史,受到根本性质疑,因为AI记得比人多得多,以后不需要你背这背那了。
简单归纳的研究,今后全部要被AI取代,一点价值没有了。有学生告诉我,老师布置作业总结黑格尔自然观,自己搞了一周,不如DS几十秒生成的内容。她突然明白,文本阐释研究根本搞不下去了。
浅表写作,随便议论议论,绝大部分人完全不如AI那样又快又好。非常遗憾,人类世界绝大多数文字工作都很浅表,现在的AI已经够用了。什么策划文案、宣传文案、领导发言、工作总结、未来规划……为什么要让人来写呢?
中国哲学专业的主干是中西马,文本阐释是主要方法,极其缺乏问题意识和创新意识。西方哲学是典型,很多人相信“哲学就是哲学史”。中国哲学的研究对象,也多是古人的书。这样的研究讨论,怎么拼得过占据海量材料的AI呢?
马哲比较“活”,基本上什么都研究,现在的压力是水平如何超过AI。意识形态工作永远都要抓,但是产出成果比不上DS,对意识形态阵地占领不力,也是可能被AI取代的。想想现在越来越多AI水军,就知道我的担忧绝不是危言耸听。
AIGC生产各种内容,也包括哲学内容。现在网上很多哲学短视频,很多介绍哲学家思想、生平的东西,很多都是AI生成的,质量也还可以。当然,其中很多胡说八道的。不过,哲学老师经常也胡说八道。以后这样的东西越来越多,很多既有哲学研究水平和AIGC大差不差,怎么继续下去呢?
以上涉及的是AI对文科学术研究的冲击,涉及哲学知识生产范式的革新。除此之外,AI对大学哲学教学冲击也非常大。老师知道的不如AI多,学生不愿意听老师讲,或者怀疑老师的权威。很多哲学老师连电脑装机都困难,对于新科技完全手足无措,怎么个应对AI的冲击呢?要记要背的东西AI可以讲,哲学课究竟要给学生讲什么呢?现在哲学专业课的主干是各种哲学史,主要就是古人的书,让学生记住。这样上课完全可以让AI来干。显然,以后老师不能讲得这么浅了,得示范哲学反思精深的地方。
AI对哲学在内的文科专业学生就业冲击很大。很显然,文科生一个能写一个能说再一个会外语。AI来了,会外语不管用了,手机直接可以翻译;写和说呢,如果写得不如DS好,说得不如DS好听,你说怎么个就业法?对此,我的意见是:专业文科要走精品路线,压缩人数,提高水平。
总之,哲学专业在AI时代生存面临合理性挑战。技术时代,科学合理性被技术合理性取代。一种学问宣称自己追求真理就能让社会进行人财物支持时代一去不复返了,因为太多的学问了——我称之为知识的银屑病,只有那些能证明自身的技术目标和社会价值的学问才能生存下去。
再次,AI对哲学反思最大的冲击,在于人的自我理解之革命,而非AI是否“成人”及其对人的取代。
一些人可能质疑:刘老师,您对AI的哲学反思,太跨学科、太宽泛、太社会学了,咱们能不能思考一些AI的纯粹哲学问题?当然可以,但是得搞清楚什么是纯粹哲学问题。
在很多哲学从业人员看来,我所称的“AI觉醒”相关的系列问题才是纯粹的AI哲学问题。比如,AI是不是主体,AI有没有意识,AI有没有情感,AI会不会推理,AI有没有道德。在我看来,这些都是些传统思路下的老问题,聚焦于认识AI。这些问题不是不重要,但更重要的问题是:AI时代人的历史境遇,尤其是AI时代人对自身的定位和理解出现诸多困惑。
AI是不是主体?AI是主体,或者泛主体、拟主体、agent,又如何呢?有意思的是,为什么这么多人要给AI、给机器一个特殊的位置,着急让它和人平起平坐呢?AI主体化意味着人被拉低到机器的同一高度,使得越来越多人相信:人只是智能机器的一种。再发展下去,AI登上神坛,智人顶礼膜拜。
AI有没有情感?AI有情感又如何呢?更重要的是,为什么人会觉得AI有情感、觉得宠物有情感,甚至觉得山川河流万事万物都有情感?AI时代是一个无情的时代,还是一个滥情时代?
AI会不会取代人类?显然,AI如果取代人类,那是人让AI取代自己的。为什么企业主让AI取代自己的员工?因为减少人力成本。可是员工都失业了,没人消费,企业主生产东西出路何在?显然,这是人类自己的制度安排有问题,让赚钱逻辑支配一切,结果就是AI取代人类。归根结底,这是治理问题,不是哲学问题。
AI对人类最大的挑战,是让智人退化、失去灵性、失去进取心、失去自信,甚至失去自我。
比如,既然担心超级AI潜藏巨大风险,为什么现在还在搞超级AI呢?这违反常识。最常见的回答是:各种复杂全球性问题如气候变化,人类解决不了,有了超级AI就能解决了。第一,真的是这样吗?这些问题本质上是计算问题吗?第二,人类怎么就解决不了,这是不是人自己把自己看扁了呢?
智人是进取的物种,失去进取心之后还是智人吗?所以我说,未来智能社会最大的问题不是AI变成人,而是人变成机器。
哲学从根本上说就是人学。人是什么,是哲学最重要的问题。当我们说世界是什么这个本体论问题时,实际上说的是人眼中的世界是什么。对于AI哲学反思来说,最重要的是在与AI的关系中、与AI的对比中重新发现人,重新理解人,并且以同情同理而非所谓宇宙情结去审视AI时代人的历史境遇。
这便是我“AI时代三部曲”的最后一本《AI与人》要讨论的问题。
以上只是粗浅的想法,需要进一步研究。