通用人工智能的现实困境

[摘要]一般而言,通用人工智能有三个基本特征:一是能够完成无限的任务,而非只能完成由人定义的有限的几个任务;二是能够在场景中自主发现任务;三是有自主的价值来驱动,而不是被动地由数据所驱动。当前,从技术手段看,通用人工智能的实现面临数理、物理工具的不完善,技术性、生物性和社会性等发展瓶颈,以及事实与价值的不一致这三重困境,其所依赖的数据、算法、算力以及知识只是智能的部分表现而已,本质上只能进行封闭环境下的形式化计算,无法像人那样实现开放环境下灵活使用上述元素的意向性谋算(算计)。而人—机—环境系统智能生态的构建才是通用人工智能的未来发展趋势。

[关键词]通用人工智能自主计算谋算人机环境系统智能

[中图分类号]B15;TP18

一般认为,通用人工智能(AGI)旨在开发能够模拟人类智能的系统,能够在多个不同领域进行学习和应用,其目标是构建一个能够像人类一样思考、学习和解决各种问题,且具有广泛的适用性和普适性的智能系统,因为目前的人工智能技术仍然局限于特定领域和任务的优化,远未达到类人智能的水平。然而虽然AGI是许多研究人员和公司的目标,但要实现真正的通用人工智能还需要克服诸多技术难题和伦理问题,因此,目前看来,AGI可能更像是一个理想化的概念,而非现实研究中能够实现的技术。

一、基本特征

AGI有三个基本特征:第一,能够完成无限的任务而非只能完成人定义的有限的几个任务;第二,能够在场景中自主发现任务,即做到我们通常所说的“眼里有活儿”;第三,有自主的价值来驱动而非被动地由数据驱动。

首先,AGI的目标是具备完成无限任务的能力,而不是仅仅局限于能够完成由人定义的有限任务。传统的人工智能系统往往是针对特定任务进行优化和训练的,例如图像分类、语音识别等。然而,AGI旨在模拟人类智能,具备处理和解决各种不同领域和类型的任务的能力。AGI需要具备广泛的知识、推理、学习和适应能力,以便在各种情境下灵活应对。它需要能够理解和处理自然语言、图像、声音等多种形式的数据,并能够根据新的任务进行学习和适应。此外,AGI还需要具备推理能力,能够运用先前学到的知识解决新问题。

其次,AGI还需要具备自主发现任务的能力。它应该能够主动地分析并理解当前场景中的信息,并识别出可能的任务或问题。一旦任务被识别出来,AGI应该能够根据任务的要求采取相应的行动。这可能涉及到使用各种技术和算法来解决问题、获取所需的信息或执行特定的操作。这种自主发现任务的能力对于AGI而言非常重要,因为它使得人工智能能够在更复杂和多样化的情境下展开应用,并且能够适应不断变化的环境和需求。这也是实现真正智能的关键之一。

最后,简单的数据驱动仅指人工智能系统通过分析和处理大量数据来得出结论和决策,而AGI则被期望具备类似人类的认知和思考能力,能够理解和解释数据,并且能够基于价值观和道德原则作出合乎逻辑的决策。自主的价值驱动能力意味着AGI能够根据事先设定的价值和目标,自主地判断何种行为是好的或是不好的,进而在实践中选择适当的行动。这种能力基于人工智能系统对伦理、道德和社会规范的理解,使其能够遵循人类的价值观,并在遇到道德困境时作出正确的判断。

通过赋予AGI自主的价值驱动能力,可以确保其在处理复杂问题时能考虑到伦理和道德因素,避免出现不良的决策和行为。这对于保证人工智能系统的安全性、公平性和可靠性而言至关重要,并且有助于构建一个人工智能与人类共同生活和合作的可持续发展的未来。因此,AGI应该不仅仅是简单的数据驱动,而是要具备自主的价值驱动能力。

二、工具困境

然而,就目前的技术发展而言,谈AGI的实现恐为时尚早。当前的数学和逻辑工具还很有限,无法完全满足实现AGI的要求。(参见刘伟)按一般理解,AGI应当具备类似人类智能的多功能能力,包括理解、学习、推理、决策等。虽然数学和逻辑工具能够在一定程度上帮助我们建立一些机器学习、推理和决策模型,但仍然存在以下挑战:首先,目前的数学和逻辑工具对于知识的表示和学习能力有限。人工智能需要具备学习新知识和从大量数据中提取模式的能力,而传统的数学和逻辑工具往往只能用于处理已知的规则和逻辑关系。其次,现实世界充满了不确定性和模糊性,而数学和逻辑往往是建立在确定性假设前提基础之上的,AGI需要能够处理不完全信息、模糊概念和不确定性推理,这完全超出了现有数学和逻辑的能力范围。再次,人类智能往往基于大量的前景知识和背景知识,而数学和逻辑工具难以对这些知识进行有效的表达和利用,AGI需要具备对各种领域知识的理解和应用能力,这需要更为丰富和灵活的知识表示和推理方式。最后,数学和逻辑工具通常是基于严谨的规则和推导方式,难以模拟人类的创造性思维和直觉判断能力,AGI需要能够生成新的创意和灵感,这要求更加灵活和非线性的计算与谋算(算计)模型。

因此,实现AGI必然要求我们进一步发展新的数学和逻辑工具,并结合其他学科如认知科学、心理学、哲学、社会学、人文艺术等的研究成果(参见Gilson,pp3-4),以实现更为全面和强大的智能系统。目前,存在着三个触及天花板的问题还远未得到解决。

其一,人类的谋算(算计)可以用多项式求解得出吗?人类的谋算(算计)通常是非常复杂的,涉及大量的因素和变量,往往不容易简单地用数学模型来描述。尤其是涉及人类行为、情感和社会因素的决策,更是难以简化为数学问题。虽然有些决策问题可以通过一些简单的数学模型来近似求解,但是考虑到人类的行为常常是非理性的,而且受到文化、历史、心理等多方面因素的影响,因此用多项式求解这类问题相当困难。在实际应用中,科学家通常会采用统计分析、机器学习等方法来尝试理解和预测人类的行为和决策,但即使如此,距离完全准确地模拟人类的复杂思维和行为模式还相差十万八千里。

其二,人类的谋算(算计)与计算是可逆的吗?人类的谋算和计算并不是完全可逆的。尽管人类在进行谋算和计算时可以考虑各种因素并作出相对准确的预测,但由于现实世界的复杂性和不确定性,我们无法预测所有可能的结果。谋算(算计)通常涉及更多的主观因素,包括情感、价值观和个人经验等,这些因素可能会影响决策和结果。而计算更加依赖客观的输入和算法,其结果可以通过逻辑推理和数学运算得出。然而,即使在计算中也存在一些不确定因素从而导致不可逆,例如计算机硬件故障,输入数据错误或不完整,以及算法的局限性,等等。这些因素可能导致计算结果的不准确或不完整。概括而言,人类的谋算(算计)和计算在一定程度上是可逆的,但由于各种主客观因素的干扰和不确定性,无法保证完全准确与可逆。

其三,机器智能能够产生谋算(算计)吗?众所周知,在某种意义上,机器智能已能够在特定条件下进行类人的“谋算(算计)”。例如使用算法分析和预测数据、制定决策或执行特定任务,人工智能已在国际象棋、围棋比赛,蛋白质结构分析等方面超过了人类。但是,机器智能的谋算能力仍受限于其程序和算法,无法完全模拟人类的思维和决策过程。在进行谋算时,机器智能还需要依赖大量的数据和输入,无法像人类一样具有小样本直觉、情感和创造性。因此,机器智能的谋算能力与人类的谋算能力仍存在根本上的差距。就目前而言,现有的机器智能还无法产生通用性。

尽管人工智能技术、数学、物理学、心理学等领域正在不断发展并取得重大进展,但目前的机器智能仍然存在较大的局限性。目前的机器智能依赖于大量的数据统计和规则模块来执行特定任务,通常只在特定领域中表现出色。然而,要达到真正的通用性,机器智能需要更多的创新和发展,以实现更深层次的学习和理解能力,如发展新的数学、新的物理学、新的信息论、新的控制论、新的系统论、新的协同论、新的科学技术、新的复杂论等。(参见刘伟、王赛涵等)因此,虽然机器智能已经在许多领域展现出了惊人的潜力,但要实现真正的通用智能,还有待人类更多的研究和创新。

三、现实瓶颈

没有与真实世界的交互,单纯数字化的AGI就不会有生命力。然而与此同时,通用智能的发展面临着技术性、生物性和社会性这三个方面的瓶颈。

当前,许多大型语言模型或多模态大模型是基于多内层神经网络的,而该网络内部有两个函数,一个叫线性函数,一个叫激活函数,这两个函数会造成Transformer架构出现瓶颈,这也是“机器幻觉”的由来——线性函数和激活函数相互作用产生了全程分配的不均匀、不透明与不可解释性。(参见马库斯)而这些技术性瓶颈具体表现为,AGI系统需要具备更高的计算能力、更先进的算法和更有效的数据处理方法,以实现更复杂、更智能的功能。而且,通用人工智能的“算”不仅包括计算能力,还应涉及算计(谋算)能力。算计(谋算)能力指的是通用智能系统在处理复杂问题、进行推理和决策时所需要的类人能力。目前的人工智能技术在处理各种现实世界的复杂问题时,往往受限于算法设计、数据质量、模型解释性等方面的制约,而克服这些瓶颈需要跨学科的合作和持续的创新努力。只有在逻辑学、数学、物理等方面取得更多突破,通用智能才能迈向更加成熟和全面的发展之路。

生物性瓶颈主要体现在我们对人类大脑的认知能力和运作机制的理解还非常有限,要实现类似人的智能水平,需要更深入的神经科学和认知研究。人类大脑是一个高度复杂的器官,大脑神经元之间的相互作用非常复杂,我们对其工作原理的理解还很有限。要开发出真正具有通用智能的人工智能系统,需要我们更深入地理解大脑的工作原理,并将这些原理应用到计算机系统中。人类大脑能够轻松地处理非结构化信息和模糊信息,但对于计算机来说这是很大的挑战。

社会性瓶颈则包括了人工智能系统与人类社会的融合问题,例如文化差异、伦理道德、隐私保护等,这些都是影响人工智能发展的重要因素。由于不同文化和社会背景下行为规范和价值观的差异,通用智能系统需要适应并尊重不同的文化。如用于全球市场的客服机器人需要理解并回应不同文化背景的用户,这是一种跨文化交流。同时,通用智能系统必须考虑伦理和道德问题,包括隐私保护、公平性、安全性等方面,以确保其发展和应用符合道德标准和社会期望。

客观而言,与纯技术性的人工智能不同,AGI背后反映的其实是文化。在AGI的开发、应用过程中,文化起着重要的作用。文化影响着人们对问题的定义和解决方法的选择。不同文化对于问题的认知和价值观有所不同,进而导致AI在不同文化背景下的表现和应用效果不同。文化对AI的数据和算法起着影响,AI的学习和训练过程需要大量的数据,而这些数据往往是在特定文化背景中获取的。因此,如果AI数据集主要来自某一文化,那么它的学习和表现必将受到该文化的影响。同样,算法的设计也会受到开发者的文化背景的影响,从而在算法的决策和推理过程中产生文化偏差。文化还会对AI的应用造成影响,如AI的应用往往会涉及一系列的价值判断和道德问题,而这些问题往往是与文化相关的。不同文化对于隐私、权利、道德规范等的理解和重视程度不同,因此会导致人工智能在不同文化环境下的应用存在差异。

为了实现人工智能的通用性目标,我们需要考虑和理解不同文化对人工智能的影响,并努力避免文化偏差、成见甚至歧视。这不仅要求在人工智能的开发、数据采集和算法设计中加入多样性和包容性的原则,同时也需要促进不同文化之间的对话和交流。

克服上述三大瓶颈需要跨学科的合作和持续的创新努力,以及与真实世界的交互。一方面,只有在技术、生物和社会方面取得全面突破,通用智能才能获得更加成熟和全面的发展。另一方面,只有通过与真实世界(包括物理、心理、生理、伦理、法理、文理、艺理等)的交互,通用人工智能的发展才可能具有生命力。(参见Chen, et al)交互是通用人工智能学习和改进的重要途径,通过与真实世界的交互,通用人工智能系统才能够不断获取新的信息和经验,逐渐提升自己的智能水平。没有与真实世界的交互,通用人工智能只是一个虚拟存在,并不能真正体现其潜在的能力和应用价值。因此,与真实世界的交互是通用人工智能发展的必由之路。

四、事实价值

AGI构建需要价值性的思维,而不仅仅是事实性思维,或许这亦是AGI发展所面临困境的一个极其重要的方面。AGI需要能够理解和应用人类的价值观和道德标准,而不仅仅是提供事实性的信息。这意味着人工智能系统不仅需要具备智能和学习能力,还需要具备道德和伦理判断能力。就像在医疗决策时,一个AGI系统需要考虑患者的健康和福祉,而不仅仅是提供一些医学事实;它需要权衡不同的价值观,如患者的痛苦程度、生命质量等因素,才能给出最合适的医疗建议。

事实是客观存在的,可以通过观察、实验证据来证实。而价值是主观的,是人们对事物的评价、看法、观点和立场。在对AGI之边界的讨论中,事实和价值常常交织在一起。既然AGI是一种能够像人类一样执行各种智力任务的智能系统,那么对于其边界我们就必须从事实和价值两个角度进行分析。

从事实角度看,AGI边界通常是指其能力和限制。即使在当下最先进的人工智能技术中也存在着许多局限,比如在对于复杂情境的理解、对于人类情感的识别、对于创造性思维的实现等方面。这些限制的存在导致了AGI人工智能目前还无法完全替代人类在各种智力任务上的表现。

从价值角度来看,AGI边界也涉及一系列道德、伦理、社会等方面的考量。比如,AGI能够取代人类在一些职业上的表现,这可能会导致大量人类工作岗位的消失,从而引发社会问题;AGI在决策过程中可能存在偏见,导致不公平的结果;等等。这些价值考量在讨论AGI边界时也至关重要。

AGI中的事实/价值发展需要在“智力”“智能”和“智慧”之间进行融合。“智力”涉及对信息的处理和学习能力,“智能”则指系统在特定任务上的表现和恰当使用知识的能力,而“智慧”则更多地关注系统的创造性、推理能力以及对情境的理解和有机协调各方的能力。将这三者进行有机融合可以使人工智能更加全面、灵活地应对各种复杂情境,并更好地服务于社会的发展和进步。

具体而言,“智力”指的是智能体在认知、思维和分析方面的能力,包括记忆、推理、解决问题等。它是智能体获取和理解知识的基础,也是有效学习知识的前提。(参见Wickens)有效学习知识的能力是指智能体通过合适的学习方法和策略,高效地获取和吸收知识的能力。这包括对信息进行筛选和整理,以及对所学知识进行巩固和应用的能力。举例来说,一个有着高智力的智能体在学习时能够迅速理解复杂的概念和问题,并能够运用逻辑和推理能力解决难题。 

“智能”是指智能体在适应环境、解决问题和进行创新等方面的能力。它是在智力和知识的基础上,通过合理的思考和决策以及灵活的行动,实现目标的能力。较之于通过思考和分析有效学习知识的智力能力。智能侧重于个体在面对具体问题时,能够恰当地运用所学知识和经验进行决策和行动的能力。比如,一个有智能的智能体在管理团队时能够根据各智能体的不同特点和能力,制定合适的工作安排和激励措施,从而提高团队的整体绩效。 

而“智慧”则是指智能体在面对各种情境和困境时,能够准确理解和评估局势,作出明智决策,并能够合理协调各方利益,找到最优解决方案的能力。智慧不仅依赖于智力和知识,还需要综合运用经验、洞察力和创造力。它涵盖了更广泛的能力,不仅包括智力和智能,还包括对于常识经验和智能体之间关系的洞察力和把握能力。举例来说,一个有智慧的智能体能够根据不同的情况,平衡各方利益,找到最佳的解决方案,同时也能够通过与其他智能体的交流和合作,达成共识和实现共同目标。

作为一种能够广泛适用于多种任务和情境的智能形式,AGI通常被用来指代一种能够在多种不同任务中表现出强大的学习和解决问题能力的智能系统。与专注于特定任务的人工智能(如下棋程序或语音识别系统)不同,通用智能更类似于人类的综合智能能力。在某种意义上,AGI可以被视为人—机—环境系统智能的一部分。人—机—环境系统智能涉及人类与各种智能系统(如计算机、机器人等)以及周围环境之间的事实交互和价值整合,AGI则是指具备一定程度上的智能和适应能力,能够在各种不同任务和环境中执行任务的智能系统。在人—机—环境系统中,通用智能可以与其他智能系统协作,共同完成特定任务或解决问题。这种集成和协作能力有助于提高整个系统的智能水平和效率。

目前的机器智能只能实现一些特定的任务,而不能像人类一样具备全面的感知、思考和行动能力。人类的具身智能包括了对环境的感知、运动控制、情感体验等多个方面,而机器目前只能通过传感器和执行器进行有限的感知和运动。虽然机器可以通过深度学习等技术进行自主学习和决策,但它们缺乏人类的情感和直觉,无法真正理解事物背后的含义和人类的意图——简单的数据库映射关系并不能反映出人类动机的源泉。因此,机器无法像人类一样具备真正的具身智能。

人工智能目前还远远做不到完全统一客观事实与主观价值。虽然所谓的通用智能可以处理大量的客观事实和数据,但要它具备同人类一样的主观意识和价值观,短期恐难以实现。毕竟,人类的价值观和情感是复杂而主观的,经常受到文化、背景、经验等因素的影响,而通用智能算法往往是基于大数据和模式识别,缺乏对主观价值的理解和判断能力。

结语

总之,实现通用人工智能的关键不仅仅是研发机器智能,还应包括人类智能、环境因素等方面的综合考量。AGI的实现需要考虑到人类的认知和学习能力,以及与环境的互动关系。此外,还需要考虑到伦理、道德、法律等方面,确保人工智能的发展不会对人类社会造成负面影响。因此,未来实现AGI的关键不仅在于技术上的突破,更在于综合考虑各方面因素,实现人类与人工智能的和谐共处。所以,本文认为,真正且真实的“通用”人工智能应该是一种人、机、环境三者结合的系统性智能生态,而不仅仅是一个孤立的机器智能产品或系统,如此方能够适应不同的环境和任务,具备学习能力和自我适应能力,与人类进行自然而有效的交互,并且能够在多种情况下作出合理的决策。(参见刘伟、谭文辉等)通过与人类共同工作,这种通用人工智能可以帮助人类更好地理解和解决复杂的问题,提高工作效率和生活质量。真正的通用人工智能将是人类智慧和机器智能的完美结合,为未来的社会和经济发展带来巨大的推动力量。

通用人工智能问题远比技术问题更加复杂和深远。了解智能的本质和机制是解决通用人工智能问题的前提。只有深入理解智能,才能更好地把握技术在其中的作用和价值。技术是实现智能的手段和工具,可以用来处理和分析大量的数据、构建模型、优化算法等,它可以帮助我们实现一部分智能的目标,提高智能系统的效率和性能。然而,当前的技术并非通用智能问题的解决之道。智能问题远不止于技术层面,还涉及伦理、社会、文化等多个维度,需要我们综合考虑不同层面的因素。

参考文献

刘伟,2021年:《人机融合:超越人工智能》,清华大学出版社。

刘伟、谭文辉、刘欣,2024年:《人机环境系统智能:超越人机融合》,科学出版社。

刘伟、王赛涵、辛益博、王小凤,2021年:《深度态势感知与智能化战争》,载《国防科技》第3期。

马库斯,2021年:《代数大脑:揭秘智能背后的逻辑》,刘伟、刘欣、于栖洋等译,机械工业出版社。

Gilson, R D,1995,“Special Issue Preface”,in Human Factors 37(1).

Wickens,CD,2002,“Situation Awareness and Workload in Aviation”,in Current Directions in Psychological Science 11(4).

图片

图片

本文摘自《哲学动态》2024.9