人工智能的瓶颈在于休谟与维特根斯坦,这涉及到哲学与人工智能之间深刻的关系,尤其是两位哲学家的思想如何影响我们对AI能力的理解。我们可以从休谟的“因果关系”理论和维特根斯坦的“语言游戏”理论来探讨人工智能的局限性。
休谟是18世纪的苏格兰哲学家,他提出了一个重要的哲学观点,即“因果关系”并不是通过理性推导得来的,而是通过经验的归纳。在《人类理解研究》中,休谟认为,我们通过重复的经验观察到事物之间的关系,但这种因果关系并不能通过理性证明,只能通过习惯性联想得出。
在人工智能领域,休谟的哲学观点揭示了一个深刻的问题:尽管AI可以通过大量的数据进行模式识别和推断,但它无法像人类一样“真正”理解因果关系。AI往往通过大量的训练数据来学习模式,而这些模式并不是基于因果推理的,而是通过数据之间的关联性获得的。AI的学习过程更多是归纳性的,而非推理性,这导致AI在面对一些新的、没有遇到过的数据时,往往缺乏足够的灵活性来应对新的因果关系。例如,当前的深度学习模型可以在给定大量图像数据的基础上进行物体识别,但它们往往无法理解物体之间的因果关系。比如,AI可能知道“当我看到一个物体从高处掉落时,它会掉到地面上”,但它并不真正理解“重力”这一概念,它只是通过数据中的模式来“猜测”结果。
做为18世纪英国著名的哲学家、经验主义者,休谟的这些观点主要基于他对人类认知和经验的深刻分析,远远超出了他的时代,也超越了图灵对智能的理解。
休谟认为我们所感知到的因果关系,是通过不断重复的经验而形成的联想。例如,当我们看到一个球撞击另一个球,随后被撞击的球开始运动,我们会将撞击和运动联系起来,认为前者是原因,后者是结果。然而,这种因果关系并不是从外部世界本身直接得到的。我们从未真正观察到“因果作用”这一过程,我们看到的只是两个事件的先后相继发生。
他强调,这种在心灵中形成的因果观念是一种习惯性的联想。就像当我们经常看到火与热相伴而生后,看到火就会习惯地联想到热。这种联想是心灵对经验的一种主动加工,而非外部世界客观存在的必然联系。
(2)对因果关系的不可知性论证
休谟质疑我们如何知道因果关系的普遍性和必然性。我们无法通过理性推理来证明因果关系,因为因果关系涉及到未来事件与过去事件的联系,而我们对未来的经验尚未获得。而且,我们无法观察到因果关系本身作为一种独立的实体存在于事物之间。所有的因果判断都是基于我们内心对先前经验的归纳和联想,所以因果关系只存在于心灵中。
2、逻辑有极限和经验不可靠
(1)逻辑的局限性
休谟认为逻辑推理本身有一定的局限。逻辑主要是在命题之间进行形式上的推理,它不能扩展我们对世界的实质性认识。比如,演绎逻辑的前提如果只是一些概念的定义或者简单的定义性判断,那么通过演绎推理得出的结论也不会超出这些定义的范围。而且,逻辑无法解决那些涉及外部世界实际情况的不确定性问题。
(2)经验的不可靠性
经验来源于我们的感官知觉,但感官本身就可能存在误差。例如,在视觉上,我们可能因为光线、距离等因素而产生错觉。而且,我们的经验是有限的,我们只能接触到世界的一部分。我们无法保证过去的经验能够在未来完全适用。比如,我们每天都看到太阳从东边升起,但这并不意味着太阳永远会在东边升起,我们所依据的只是过去的有限经验,这种经验在面对未知情况时是不可靠的。
3、不能通过归纳法得到真理
(1)归纳法的定义和问题
归纳法是从个别事实中推导出一般性结论的方法。休谟指出,归纳法缺乏合理的依据。我们之所以使用归纳法,是因为我们假设自然有其稳定的规律性。然而,这种假设本身并没有被证明是合理的。我们无法保证自然在未来会遵循过去同样的规律。例如,我们过去无数的经验都表明天鹅是白色的,但这并不能保证世界上不存在黑天鹅。
(2)对归纳法合理性的挑战
休谟认为,归纳法的有效性不能通过经验证明,因为用过去的经验证实归纳法的有效性,这本身就是一种归纳推理,陷入了循环论证。同时,也无法通过理性来证明归纳法的合理性,因为我们无法先验地知道自然规律的稳定性。所以,休谟得出了不能通过归纳法得到真理的结论。
维特根斯坦是20世纪的重要哲学家,他的后期哲学主要探讨语言的使用和意义。维特根斯坦提出,语言的意义来自于它在“语言游戏”中的使用,而不是通过抽象的定义。他在《哲学研究》中强调,意义并不是固定的,而是通过实际的社会互动和语境来决定的。
对人工智能而言,维特根斯坦的思想提出了另一个瓶颈:AI的语言理解是基于数据的统计规律和算法的模型,而不是基于实际的语言使用和社会互动。AI系统通常依赖于大规模的文本数据进行训练,学习如何生成或理解语言,但它并不“参与”真实的语言游戏。因此,AI缺乏真正的语言理解,它并不清楚话语背后的社会和文化背景,无法在复杂的语境中做出灵活的反应。举个例子,AI可能能够生成一篇文章或回答问题,但它并不理解文章的背景、文化含义或隐含的价值观。它只是在已知数据的基础上生成符合语法和常规的输出。维特根斯坦的理论揭示了这一点:语言的意义不仅仅是符号和规则的组合,它是在特定的情境中使用的方式,这正是AI在语义理解上所面临的困难。
从休谟和维特根斯坦的角度来看,人工智能面临的挑战可以总结为以下几个方面:
因果推理的缺失:AI可以基于大数据和模式识别进行预测和决策,但它缺乏休谟所说的因果推理能力。它不能像人类一样从经验中抽象出因果关系,也无法灵活地调整其推理方式来适应新的情境。
语言的局限性:AI的语言理解更多是基于统计模型和数据训练,而不是基于维特根斯坦所说的语言游戏中的实际使用。AI缺乏社会互动中的语境感知和语言的深层意义理解。
上下文与常识的缺失:人工智能在处理常识性问题时常常显得力不从心,因为它缺乏像人类那样的生活经验和背景知识。这种缺乏语境和常识的理解,正是维特根斯坦所强调的语言的“活动性”所缺失的一部分。
休谟和维特根斯坦的哲学对人工智能的局限性提供了深刻的启示。休谟提醒我们,AI无法像人类一样通过经验推导出因果关系,而只能通过归纳和统计模型进行推理;维特根斯坦则揭示了AI在语言理解中的困境,特别是在没有真实语境和互动的情况下,AI无法像人类一样真正理解语言的深层意义。这两个哲学思想结合起来,为我们理解人工智能目前的瓶颈提供了有力的理论框架。
(本文转自微信公众号:人机与认知实验室,作者:刘伟。转载仅供学习交流,图文如有侵权,请来函删除。)