*中国人民大学吴玉章讲席教授刘永谋联合签署发布,敬请转载和关注。该倡议由多家微信公号联合发布,时间或迟或早,签署人不断更新。
当前,超级人工智能(ASI)的研究正从理论探讨步入早期实践。海外科技界率先发起针对超大公司主导的ASI研究的安全倡议,国内也有头部企业亦开始布局相关探索。这一技术拐点不仅关乎智能突破,更伴随巨大的潜在风险,必将进一步深度重构人类文明,甚至通往令人担忧的纯粹机器文明。
2025年10月23日,科学界发起了ASI的声明Statement on Superintelligence,提出可能存在人类灭绝的风险。辛顿、本节奥等国内外著名科学家联合署名支持该份声明,详情请见:
https://superintelligence-statement.org/。
事关重大,人文社会科学界不应落后。我们呼吁学术界即刻启动跨学科协作研究,深入研究并向全社会阐明ASI的潜在风险及其可能的应对战略,为共同应对ASI可能带来的灾难性风险和存在论风险出一份力。
技术层面,需建立透明性的ASI,确保ASI智能系统与人类文明价值观的兼容性。
伦理层面,应努力构建社会公正、预防失控风险等相关制度设计,防范结构性失衡。
人文层面,亟需探讨ASI的人文关怀,帮助社会理解超级智能的文明冲击。
这不仅是技术和科研的攻关,更是对人类命运共同体的责任担当。
我们倡议成立跨学科研究联盟,汇聚哲学家、伦理学者、计算机科学家、AI工程师、传播学家、法律专家、科幻作家和媒体朋友等各方面力量,切实加强超级人工智能风险研究。
期待各位同仁签署联名,以学术共同体的智慧照亮技术前路,确保超级智能始终服务于人类文明的永续发展。
(附:此倡议通过学术机构、科技伦理委员会等多渠道征集签署,我们正同步筹备首届“ASI与未来人类”跨学科论坛,将于11月9日在中国人民大学召开。)
倡议发起日:2025年10月23日
联合签署人:
杨庆峰(复旦大学科技伦理与人类未来研究院教授研究员)
刘永谋(中国人民大学哲学院教授)
闫宏秀(上海交通大学马克思主义学院教授)
顾 超(北京大学政府管理学院助理教授)
黄柏恒(香港浸会大学宗哲系助理教授)
潘恩荣(中山大学哲学系(珠海)教授)
孙 强(西安理工大学自动化与信息工程学院副教授)
李恒威(浙江大学哲学学院教授)
陈声柏(兰州大学哲学社会学院教授)
程 林(广东外语外贸大学外国文学文化研究院教授)
吴璟薇(清华大学新闻与传播学院副教授)
邱 田(电子科技大学外国语学院副教授)
吴 静(南京师范大学哲学系教授)
邱德钧(兰州大学哲学社会学院教授)
李 石(中国人民大学国际关系学院教授)
李尉博(中国社会科学评价研究院助理研究员)
谭泰成(北京建筑大学马克思主义学院讲师)
刘 鹏(南京大学哲学学院教授)
史 晨(南京大学哲学学院助理教授)
吴雪梅(兰州大学哲学社会学院讲师)
陈永伟(《比较》研究部主管、研究员)
孟 强(中国社会科学院哲学所研究员)
冯睿洋(香港科技大学(广州)信息枢纽人工智能学域研究助理)
李继堂(苏州大学政治与公共管理学院教授)
艾志强(湖州师院马克思主义学院教授)
王奥平(厦门大学哲学系研究生)
臧艳雨(广东工业大学马克思主义学院教授)
刘童玮(上海师范大学哲学系研究生)
梁温婉(四川大学宗教研究所研究生)
赵 豆(深圳大学马克思主义学院助理教授)
屈昕雨(中国科学技术出版社编辑)
潘 霁(复旦大学新闻学院教授)
徐志宏(复旦大学哲学学院副教授)
…… …… ……
您可通过访问以下链接阅读简版报告全文:
https://fddi.fudan.edu.cn/fddien/1f/36/c19514a728886/page.htm