“机器可以思考吗?”
“潜水艇会游泳吗?”语言学家乔姆斯基反问。
无论如何,人类的主要思考工具是语言。哲学家维特根斯坦甚至说:“语言的边界就是世界的边界。”
机器会不会思考还不好说,但现在机器确实能说人话了。
1928年出生的乔姆斯基,作为现代语言学之父,他的理论影响了后来的自然语言处理( Natural Language Processing, NLP)的发展。什么是自然语言处理?大名鼎鼎的ChatGPT以及目前涌现的各种大语言模型AI工具,就是属于这一领域的发展成果,是人工智能的重要分支。
乔姆斯基的理论中提到了“通用语言习得装置”,这是一种假设的内在机制,使得人类能够学习任何一种自然语言,这对NLP领域中的机器学习模型,尤其是深度学习模型有着重要的启示。
如果机器能涌现出某种智能,那语言就是像海水一样的载体。如今,最新的人工智能,也几乎可以通过图灵测试——让真实的人类无法分辨,是否是机器在对话。
AI正在推动第四次工业革命。对普通人来说,了解这背后发生了什么,也许是必要的。本期推文,我们将会报道一次由中国计算机协会主办、西湖大学承办的自然语言处理(NLP)领域顶级国际会议——NLPCC2024。
但我们将把写稿的权力让给AI,让AI阅读我们的采访记录和会议议程,并解答学术背景问题,通过编辑的指令来生成报道段落,最终由人来组合完成。编辑增改的部分,我们将标注为灰色。
闲话少说,有请AI。
NLPCC2024大会合影
+ - × ÷
11月1日至3日,杭州云栖小镇迎来了一场自然语言处理领域的盛会——NLPCC 2024。作为中国计算机学会自然语言处理与中文计算国际会议的年度大典,这次大会吸引了来自学术界、工业界的科研精英。
本次会议特别邀请了多位知名研究者作为主旨演讲嘉宾,包括香港中文大学的黄锦辉教授、英国阿伯丁大学的Ehud Reiter教授、清华大学的黄民烈教授以及美国埃默里大学的刘飞副教授等。
大语言模型,成了全场讨论的焦点,几乎包揽了全部演讲主题。
大语言模型(Large Language Models,简称LLMs)是指那些经过大量数据训练,拥有数亿甚至数千亿参数的人工智能模型。这些模型通常基于深度学习技术,特别是变换器(Transformer)架构,能够更好地理解和生成自然语言文本。
想象一下,大语言模型就像是一座巨大的图书馆,里面收藏了从古至今的各种文献,是人类文本知识的总和。而Transformer架构,可以比作是图书馆中的智能检索系统。在传统的图书馆中,你可能会通过目录卡片来逐一查找,但这个过程可能既慢又复杂。Transformer架构不仅能够快速定位到你需要的书籍,还能够理解不同书籍之间的关联和上下文。
而所谓GPT——Generative Pre-Trained Transformer——翻译为生成式预训练转换器,Transformer就在这里起了关键作用。其本质上,依然是一种神经网络架构,它是在2017年由Vaswani等人在论文《Attention Is All You Need》中首次提出。Attention注意力机制,是Transformer的重要组成部分。
恰如其名,注意力机制,解决了大问题,它使得模型能够在处理序列数据时,直接捕捉序列中任意两个位置之间的依赖关系,而不需要像传统的循环神经网络(RNN)那样按顺序逐步处理。
你会发现,大语言模型虽然属于计算机科学,某种程度上也是仿生学。神经网络架构,正是模拟了视觉神经的工作机制,而人工智能,也如同生命演化一样,显现出强劲的势头。
ChatGPT首次向公众推出是在2022年11月30日,两年不到的时间里,AI变革席卷而来,不仅仅是自然语言处理,也在图像和视频生成、编程代码,甚至科学研究上,挑战着传统。
普通人如何理解这场变革?又应该如何应对?带着这样的疑问,我们和大会的嘉宾以及获奖者聊了聊,下面是AI的总结。
AI是工具,不是答案
黄锦辉
香港中文大学教授
AI的过度依赖可能让我们变得越来越“懒惰”,甚至放弃了独立思考的能力。在这个充满可能性的时代,我们必须保持清醒的头脑。
AI是工具,而非创造力的源泉。许多人将AI的“二手数据”误认为是创新的根源,这种依赖性的思维会限制真正的突破。科学的进步需要“原始的”数据和独立的思考,不能仅仅依赖现有的技术与信息。
AI在情感上还一塌糊涂
Ehud Reiter
英国阿伯丁大学教授
我们发现,AI在理解人类情感上,表现得非常糟糕,比如在AI辅助的医疗领域,AI常常让病人感到十分尴尬。
对人类而言,我们需要学会的是,未来如何和AI一起工作,比如在新闻报道中,让AI帮助我们查找错误。随着AI的发展,工作场所会变得更加多姿多彩,一些工作可能会消失,但新的职位也会像变魔术一样出现。
让AI与人类价值观对齐
黄民烈
清华大学教授
AI与人类的合作并非是单向的,而是通过智能模型与人类之间的互动,确保在模型执行任务时,能够避免偏离人类社会的普世价值。例如,AI是否能理解并正确处理“电车难题”这类经典伦理问题?目前的AI还无法独立做出伦理判断,尤其是在复杂的社会冲突和价值选择中。它可能能够通过数据推演给出一个“理性”的选择,但“理性”并不一定等于“伦理”。
AI的决策框架实际上是对人类价值观的一种映射,但它缺乏判断伦理复杂性的能力。当AI面对一个涉及生命伦理的决策时,它只能根据预定的算法进行计算,而不是站在人类情感和道德的角度做出判断。因此,如何在“人类难以决定”的时候进行人机协作,是目前技术发展的一个重要课题。
为语言“加眼睛”
赵海睿
吉林大学博士生
NLPCC2024最佳论文获奖者
在今年的NLPCC 2024大会上,我们的创新研究Visage荣获了“Best Paper”奖。这个项目的灵感来源于我们在垃圾邮件和应用商店评论中常见的特殊字符替代问题。例如,用户用“@”代替“a”,用“0”代替“o”,这些字符虽然看起来像字母,但对现有的神经网络模型却造成了识别上的困难。因此,我们决定采取一种新的方法:通过视觉的角度来处理这些“伪造”的字符。
尽管现在的NLP技术主要依赖文本数据和词向量,但人类在阅读时,除了逻辑思维的传递,视觉信息也占据着重要地位。人类看到的文字,不仅仅是逻辑和语法的传递,更包含了视觉上的识别和理解,我希望通过Visage的工作,探索这种视觉与语言的结合是否能够为NLP开辟新天地。
大会现场
左上黄民烈教授,左下黄锦辉教授。右边Ehud Reiter教授
编后感:两个故事
世界上第一个聊天机器人, 叫Eliza伊丽莎,它可以提供类似心理医生的咨询服务。那是20世纪60年代,在自然语言处理技术乏善可陈之时,这简直不可思议。
伊丽莎本是萧伯纳《卖花女》剧中的主角,是一个伦敦街头的卖花女,她被语言学家希金斯教授选中,通过训练她的语音和举止,试图将她变成一个上层社会的淑女。
如今,人类像训练伊丽莎一样,训练着大语言模型,期待着Ta能顿悟,展现出更深刻的智能。
其实,《卖花女》的英文剧名又叫Pygmalion,也就是皮格马利翁。皮格马利翁是希腊神话中塞浦路斯国王,他爱上了自己雕刻的少女。爱神被他的真诚所打动,赋予了雕像生命,使她变成了一个真正的女人,皮格马利翁与她结婚,故事圆满。
在萧伯纳对这个神话的改写中,尽管伊丽莎在社交场合取得了成功,但她和希金斯之间的关系却变得复杂。她拒绝了希金斯将她视为实验对象的态度,开始寻求自己的独立和尊严。
如果人类和AI也有故事,在这两种结局中,你觉得会是哪一种?对了,这段结尾,是人写的,还是AI写的?
特别感谢 西湖大学张岳实验室研究助理教授杨林易和曹路博士、吉林大学李洪亮副教授对本文的贡献和帮助。
更多内容可点击阅读原文浏览NLPCC2024官方新闻报道。
END
__________
策划 丨 俞熙娜
采访丨 冯晨希 沈是
编辑丨沈是
校对 丨 徐 珊
__________
转载、投稿、合作请联系
「 media@westlake.edu.cn 」