人工智能基础评论.docx
人工智能基础评论程炼(北京大学哲学系)内容提要:人工智能的基础问题涉及人工智能的可能性和局限性问题。图灵的智能理论和机器思维的观点在本章中得到阐发。本章的主要内容是回应两种在哲学文献中反复出现的论证,一个应用哥德尔定理,一个运用现象学学说,两者都声称计算机能力与人类智能之间在原则上存在着不可填补的沟壑。本文试图证明,这两个论证都没有成功地证明这个沟壑的存在。什么是人工智能? 人工智能最初是作为计算机技术(尤其是软件技术)的一个分支而出现的,经过几十年的理论与实践活动,取得了巨大的成就。在其发展过程中,哲学、心理学、语言学、神经科学等领域的大量思想和方法不断地渗入进来,以至于今天询问“究竟什么是人工智能?”时,即使让有权威的专家们来回答,答案也是不尽相同的。根据某种普通的定义,人工智能是使计算机做聪明的事情的艺术。这个定义虽然看起来抓住了人工智能的精神,但它不够具体,还有一些别的看法:(1)作为软件工程的一个分支,人工智能仅仅是一些编制程序的技巧,它们使得计算机能够诊断疾病、理解自然语言等等。 (2)作为一门计算机科学理论,人工智能是关于编程的一种独特构想。 (3)作为哲学的分支,人工智能是一种实验认识论:知识是什么?在计算机或人的心灵中知识如何被表达?(4)作为一门心灵(mind)科学,人工智能体现了这样一个思想:心灵基本上是一种处理信息的机制。在最深的层次上,人工智能试图对这个伟大的未决问题做出贡献:心灵如何从非心灵中产生出来?站在不同的角度看人工智能,它就会呈现出不同的图像。在上面的前两个定义中,人工智能被当作一门技术,而后两个定义将人工智能看作一种思想。但在种种差异背后隐藏着一种原始的一致性,即人工智能作为一种科学探究,它正在或试图达到什么目的。一般说来,贯穿人工智能的全部历史,它的目标在两个方面:(1)建造强有力的装置以尽可能多地(或全部地)完成通常认为只有人类才能完成的工作;(2)提出精致的、基于实证的新理论以解释人类的精神生活。围绕这两个目标所进行的工作正好分别构成了人工智能的实践活动和理论活动。人工智能诞生的初期,在这两个方面都出现了令人瞩目的成果。许多研究者因此提出了更加雄心勃勃的设想,他们试图将人工智能看成是一门一般的智能科学,即看成是认知科学的核心。它的目标变成:提供能够解释(或许能够使我们复制)人类的全部心理现象的系统的理论。因此,在人工智能新定义中,“计算机”反而消失了。人们津津乐道的是一些抽象概念,如表达(representation)、计算(computation)、心理图像(mental image)等。 大多数研究者都承认,人工智能作为一门学科已经成熟,但是,那些乐观主义者的雄心勃勃的纲领能否实现,却不可能仅靠设计计算机系统、编写程序来解决。有一类问题深深地与我们的哲学探究相联系着,它们肯定伴随着人工智能的全部历史困惑着我们,这就是人工智能的基础问题。简单地说,“人工智能的可能性与局限性”是这些基础问题的核心。英国天才数学家阿兰·图灵(Alan M. Turing)于1950年发表的著名长文“计算机器与智能”,可以看作是人工智能基础研究的滥觞。 图灵,“计算机器与智能”(“Computing Machinery and Intelligence”, Mind, vol. 59, No. 236(1950),第433460页。 在这篇文章中,图灵明确地提出了这样的问题:“计算机能思维吗?”为了回答这个问题,图灵设计了一种“模仿游戏”。设想有三个人,一个男人甲、一个女人乙和一个提问者丙。丙可以是任何一种性别,与甲和乙隔离开来。这个游戏的目的是让丙通过交谈确定甲和乙哪一个是男人,哪一个是女人。为此,丙轮流向甲和乙提出问题,甲和乙依次给予回答(问答可借助打字机进行)。如果在一段时间内,丙无法分辨甲和乙的性别,那么就在游戏中失败了;反之,则获胜。图灵设想,现在如果用一台计算机代替甲和乙中的一个,游戏就变成让丙来识别两个回答者中哪一个是人,哪一个是机器。如果提问者无法识别,我们能说这台机器有智能吗?图灵的回答都是肯定的。图灵的论点后来引起了广泛的争议,这里作一些澄清的工作是有必要的。我们把用图灵游戏来测定智能时所涉及的问题分为两个方面,一个是技术方面,另一个是原则方面。从技术方面看,图灵的原始论文在许多细节上是不清晰的。首先,模仿游戏需要进行多长的时间才算分出胜负,三、五分钟还是数日?如果时间太短,提问者从回答中得不出足够的信息,太长,机器可能死机,人可能累趴下。其次,交谈的内容是否有限定?第三,智力多少是个程度上的事情,某些人智力超群,另一些人愚不可及,更多的人处于中间地带。一台机器可能骗过一个智力平平的提问者,但在一个专家面前却过不了几招。第四,提问者的主观因素显然能影响到游戏的结局。我们是随意指定提问者,还是需要做一定的选拔?所有这些问题都能引发人们思考图灵游戏是否是一个切实可行的方案。我无意在这里进一步讨论这类问题,因为解决它们依赖于更多经验探索。但是,我想指出的是,即使人们能够成功地就这些问题达成共识,还有另一类更理论性的问题没有触及,而这后一类问题是我更为关注的。许多人以及大量哲学文献都注意到,图灵提出的智能观念是行为主义的。哲学上的行为主义主张,在内部的心理状态和外部行为之间存在着概念上的联系,也就是说,我们在谈论心理状态时,只不过是谈论行为或行为的倾向。但是,图灵的设想并非简单地建立在行为主义预设上。图灵对一般意义上的行为并无太大兴趣,他并未主张,如果一台机器在行为模式上与真人无法区分,那么这台机器就像真人一样具有心理状态,或者更具体地讲,具有智能。在图灵的模仿游戏中,机器只需展示一种特殊的行为言语行为(verbal behavior),而在许多理论家看来,单有在语言方面与人类无法区分的表现,既不是一个东西具有智能的必要条件,也不是充分条件。实际上,图灵并没有主张,不能通过图灵试验的系统就是没有智能的。图灵的意思是,如果一个系统在一段合理的时间内可以像一个人一样进行日常交谈,这就足以让我们断定它是有智能的,也就是说,在模仿游戏中获胜是一个系统有智能的充分条件。根据我们的日常看法,智能可以用许许多多方式体现出来,演算习题、下棋、创作文艺作品等都是可以看作是智能的展现。为什么图灵对言语行为情有独钟呢?思索这个问题能够让我们领略图灵构想的优美和深刻。我们知道,今天的计算机能够执行和完成许多从前被认为只有聪明的人类才能从事的任务。但是,我们大多数人不愿承认迄今为止的计算机是有智能的。鉴于这种情况,美国耶鲁大学的人工智能专家德鲁·麦克德莫特(Drew McDermott)在1997年IBM计算机深蓝击败卡斯帕罗夫后评论道:“去年1996,在加里·卡斯帕罗夫象棋取胜IBM计算机深蓝后,我告诉我的人工智能导论课的学生说,计算机要挑战最好的人类,还需许多年。既然已经证明我和许多其他人都是错的,许多人一直急于要我们相信,深蓝并不真正具有智能,而且这场胜利与人工智能的未来无甚干系。尽管我同意这台计算机不是非常有智能,但是,说它根本不显示任何智能却是根本误解了它所做的事情和人工智能的目标和方法。的确,深蓝的能力非常狭窄。它不能认识、更不能拾起一枚棋子。它甚至也不能够谈谈它获胜的那局棋。既然智能的本质似乎是在种种情形下创造性的反应能力,我们难以在这一点上说这台机器有多少智能。” 德鲁·麦克德莫特(Drew McDermott),“对,计算机能思维”(Yes, Computers Can Think),纽约时报1997年5月14日。深蓝的能力是狭窄的,算题、写诗、作画的机器依然在能力上是狭窄的,我们不愿意将智力赋予它们,是因为我们认为智力是远为宽广的能力。图灵选择语言能力作为智能测试的标准,我们难道不能同样说这种能力是狭窄的吗?在图灵看来,回答是否定的。谈话的能力在所有智力中是独特的和涵盖性的。图灵试验并不限定交谈的话题,模仿游戏的参与者可以就任何题目展开语言上的交流。如果我们将两台机器做一个比较,这一点就更容易理解。假设有一台机器,深红,它在图灵的模仿游戏中胜出。我们可以比较一下深红与深蓝的智力。深蓝只能下棋,而深红可以谈论广泛的话题(包括象棋以及深蓝的获胜局)。实际上,如果深红根本不会下棋,它也不可能聪明地谈论下棋。当然,深红在某种程度上可以被认为是“夸夸其谈”或“纸上谈兵”,如果在棋盘上与深蓝较量会败得一塌糊涂。但这并不重要,世界上没什么人在棋上能与卡斯帕罗夫相比,但他们都可以是有智能的;甚至一个完全不会下棋的人,也可以是有智能的。图灵美妙的构想的背后隐藏着这个思想,即,交谈能力不仅仅是诸多智力的一种,更为重要的是,交谈能力是一种能够(至少在某个程度上)表现其他诸多能力的能力,是一种涵盖性的宽广的能力。套用一句话,“智能一枝花,全靠嘴当家”。图灵在他的经典论文中做过如下预言:“我相信,在大约50年的时间里,人类有可能用大约109的存储量给计算机编程,让其玩模仿游戏,它们玩得如此之好,致使一个平常提问者在5分钟的提问之后做出正确的辨别的机会不足70%。我相信本20世纪末,人们的说法以及一般有教育的观点将大大改观,人们将能够谈论机器思维而不感到抵触。” 图灵,“计算机器与智能”,第442页。今天看,这个预言即使不能说完全失灵,至少没有得到实践上的支持。有一些哲学家和人工智能研究者从其他角度论证人工智能的局限。我把这类论证分为两类:第一类:有一些先验证据表明,计算机系统依其本性,在模拟人类智能方面存在原则上的制约,因此,人类构造的任何计算机系统都不可能通过图灵试验;因此,人类的智能不能用计算机模型来解释;因此,机械论的智能观点是错误的。第二类:即使计算机系统能够通过图灵试验,依其本性,它们也不具有与人类一样的智能,因此试图用计算机模型来解释人类智能的努力是无法成功的。美国哲学家约翰·塞尔(John Searle)于1980年提出的“汉字屋”论证(Chinese Room Argument)是第二类论证的代表。 塞尔,“心灵、大脑与程序”(Minds, Brains, and Programs),首次发表在行为与大脑科学(Behavioral and Brain Science 1: 417-424,1980)上。这篇文章后来被许多文集收录。对塞尔论证的评论,参见第3章“论人是机器”。 对于这一类论证,我在这里不作讨论。我的主要兴趣集中在第一类论证上。这类论证试图从原则考察计算机具有的能力。这里有两点值得注意。首先,人工智能是一门具体的学科,有经验探究的一面。而科学是一种构造性的工作,它需要确立何为世界中的事实以及刻画事实之间的关系。作为一门科学,人工智能的理论目标是提出一种广义的智能理论或模型,以取代大众心理学中蕴含的昏暗不清的常识智能观。哲学,就其作为最一般的概念上的工作而言,不可能代替经验的观察断言经验世界中的事实,虽然它必须谈论这些事实。哲学探讨的是各种判断之如何可能的方式,亦即确立这些判断赖以成立于其中的框架和建立于其上的基础。因此,我们需要弄清人工智能的基本思想在多大程度上和何种意义上与我们拥有的其他信念和知识相协调或相抵触。其次,哲学对于人工智能有其独立的批判功能。人工智能中某些规范的变化常可以直接投射到哲学史上一些思潮的更替之上,而这些思潮的更替往往是先于人工智能的实践活动的。在此种意义上,哲学的启发对于人工智能实践变得重要起来。人工智能研究中存在着多种工作背景,它们各自拥有自己的哲学信条,多种的思想之间的竞争既是人工智能前进的动力,又是这个领域显得有些混乱的根源,对它们进行清理和评价也是很有必要的。下面我要面临的是两个哲学上反对人工智能可能性的论证,一个是从逻辑的角度上提出的,一个是形而上学的。我们的主要任务有两个:()计算机的能力来自何处?()计算机模拟人类心灵是否存在某些原则上的限制?对于这两个问题,我们不可能从哲学的各个方面进行分析,我们只是从两个主要的领域逻辑和形而上学中的某些论证中做出关于人工智能基础的评论。计算机的能力人工智能需要通过物理载体来实现,这些载体就是各种计算机系统。对人工智能基础的考察必定要涉及计算机系统的形式特性。这种特性对于人工智能的真正含义何在呢?让我们依次考察三个概念:形式系统、图灵机和物理实现。一个形式系统由四个要素构成:(1)字符,(2)构成合式公式的语法规则,(3)公理,(4)推理规则。字符指的是一堆形式标记(tokens),一个形式系统选择哪些符号,通常出于使用方便的考虑。人们通常从大小写英文和希腊文字母、标点符号、常用的逻辑符号、阿拉伯数字以及数学符号中挑选一个系统所需要的字符。语法规则指定哪些符号串构成简单的语句以及如何将简单与聚合成为复杂语句,按照语法规则合成的句子被称为“合式公式”(well-formed formula)。一个形式系统通常给出一组合式公式作为公理或者基本假设,推理规则则指定一些严格的步骤用公理去推导或“证明”该形式系统的定理。更确切地讲,一个公式F在某个系统中得到证明,当且仅当存在一个有限的证明系列,该系列终结于被F,而F之前的任一个公式要么是一个公理,要么是通过推理规则从上一个公式得出的。一个形式系统虽然本身可以被有限地描述,因为它的四要素在数量上都是有限的,但它可以证明无穷多条定理。例如,皮亚诺算术只有五条公理,但从它们可以推出无数算术定理。数学家们发现,ZF(策梅洛-弗兰克尔)集合论中的公理加上命题演算和谓词演算所构成的形式系统,能够证明全部古典数学的定理!由于公理是自明的,推理是严格的,从两者得到的定理就是有稳固基础的,因此,这种形式化方法催生了一门学科分支,被称为数学基础。科学家们还乐于将这种方法推广到其他学科,如概率论和某些物理学分支,这是题外话。形式系统的意义还不只限于这些,更有趣的是,它们可以通过纯粹机械的过程自动化。一个纯粹机械的过程可以称为一个算法。假定我们从一个形式系统的字符中任意合成一个符号串,一个算法对这个符号串做三件事:首先,通过一个有限的过程确定这个符号串是不是一个合式公式,其次,通过一个有限过程确定该符号串是不是一个公理;最后,通过一个有限过程将这个符号串与任何一组有限的合式公式结合起来,确定该符号串是否是根据推理规则从那组合式公式推导出来的。我们说一个算法是机械的,是指这里的“确定”、“推导”并不是心理学意义上的,机械过程完全依据语形(syntax)进行操作。当然,具有心理状态的人类也可以进行纯形式的符号操作,但单就形式符号操作而言,心理能力不是必需的。正是图灵在现代意义上将算法自动化,就是说,将算法用一种抽象的机器今天被称为“图灵机”来实现。图灵机是一台抽象的自动装置,一台图灵机具有: ()不定数量的存贮箱; ()有限数量的执行单元; ()一个指示单元。指示单元常常指示一个执行单元(行动单元)和两个存贮箱(分别是“内”箱和“外”箱)。每个存贮箱可以包含一个形式符号(可以是任何符号,但一次只有一个),每个执行单元都有自己特定的规则,当它成为一个行动单元时就遵守这个规则。此规则所限定依赖于当下内箱中的符号;在每种情况下它将指明两件事:第一,什么符号放在当下的外箱中(消除以前的内容,如果有的话),第二,指示单元接下来了出什么指示。机器一步步执行:行动单元检查内箱,然后根据它在那儿发现的符号及其规则,重新填充外箱和安排指示单元,然后开始下一步。通常有一个执行单元不做任何事,所以一旦它被启用,机器就停下来。 这是对图灵的原始定义的一个变动的简述,这种表述与现在的计算机工作方式极其相似,它与原始定义的差别并不重要,见约翰·郝格兰(John Haugeland),“语义引擎:心灵设计导论”(Semantic Engines: an Introduction to Mind Design),载于郝格兰编,心灵设计:哲学、心理学、人工智能(Mind Design: Philosophy, Psychology, Artificial Intelligence, Cambridge, Massachusetts: The MIT Press, 1981),第11页。 任何一个算法都可以用一台图灵机来实现。更令人惊奇的是,图灵证明,存在特殊的图灵机,被称为通用图灵机,它可以模拟任何别的图灵机。这就是图灵定理,是它构成了现代计算机科学的理论基石。借助于图灵定理,我们可以说一台通用图灵机可以将任何形式系统自动化。 图灵机只是纸上的抽象机器,还不是今天我们插上电源按下开关就自动运行的机器。后来发现,有一些不同种类的通用机,它们并不是严格意义上的图灵机。借助于某些限定,我们可以造出通用机,它们就是几年广泛使用的数字计算机,是通用图灵机在物理上的近似实现。其中一个限定是,真正的通用机必须具有不加限制的内存,而任何现实机器的内存都是固定规模的。所以,除开容量上的限制外,一台标准的数字计算机通过适当编程,可以模拟任何形式系统,也就是说,它可以模拟任何人类能行过程,这就是计算机为什么如此强有力的原因。计算机求解问题的过程是这样的:对于一个给定的问题,首先必须对它进行形式表达,指定使用的符号、建立合式符号串的规则(句法)以及对这些符号串的解释。然后确立对这些符号串进行处理的规则,经过一系列符号处理过程,最后得到新的符号串作为结果。这就是所谓的形式化方法,可以说,它是计算机工作的核心方式。哥德尔陷阱 20世纪30年代,正当计算机理论处于发展之中时,对于形式系统的深入研究引起了数学基础领域的革命,著名的哥德尔不完全性定理正是这场革命中的一项最深刻的成果。由于哥德尔定理是关于形式系统的一般性结论,因此直接影响了关于计算机器能力的讨论。哥德尔定理对于人的智能的真正含义,今天依旧是一个常见于哲学文献中的话题。 参见罗杰·彭罗斯(Roger Penrose),皇帝的新心(The Emperors New Mind, Penguin Books, 1989),第9章。20世纪中叶,计算机的出现和广泛使用引起了极大的关注,人们开始从各方面将人与计算机进行类比,关于人类心灵的机械论观点开始复活。与此同时,也出现了许多反驳机械论观点的论证。这些论证中最具威力、影响至今的论证是借助于哥德尔定理证明机器永远不可能完全模拟人类心灵。欧内斯特·内格尔(Ernest Nagel)和詹姆斯·纽曼(James R. Newman)的小册子哥德尔证明 Ernest Nagel & James R. Newman, Gödels Proof, New York: New York University Press, 1958.、卢卡斯(J. R. Lucas)的文章“心灵、机器与哥德尔”在这方面最有代表性。这类论证的核心想法是,设想有一台证明算术定理的机器,由于这台机器本身体现的了一个形式系统,它的能力就受限于一个它自身无法跳出的“哥德尔陷阱”,亦即,对于这台机器而言,它的哥德尔语句是它无法证明的,而我们人类能够看出这个语句是真语句。因此,这类论证总结说,人类心灵在本质上是优于任何将一个形式系统实例化的计算机的。卢卡斯在他的文章中写道:“给定任何一致的和能够做初等算术的机器,存在一个这台机器不能产生的为真的公式即这个公式在此系统内是不可证明的但我们能够看出这个公式为真。由此推出,任何机器都不可能是心灵的一个完全或充分的模型,心灵在本质上不同于机器。” 卢卡斯(J. R. Lucas),“心灵、机器与哥德尔”(Minds, Machines and Gödel),载于A. R. 安德森(A. R. Anderson)编,心灵与机器(Minds and Machines, Englewood Cliff, New Jersey: Prentice-Hall, 1964),第44页。卢卡斯(和后来的彭罗斯)声称,哥德尔定理可以用来证明人工智能是没有希望的。他们的论证经过重构和解释,可以表述如下:(1)对于任何一台计算机,假设它体现了一个可以列出初等算术定理的形式系统。(2)对于这台计算机而言,由于它是一致的,因此存在一个哥德尔语句,这个句子为真,但这台机器不能证明它为真。(3)因此,这台计算机不能认识到这个句子为真。(4)人类智能能够认识到这个句子为真。(5)因此,人类智能中至少有一部分不能被这台计算机所模拟。这个论证在直观上似乎很有力,但其实是过分简单地和错误地运用了哥德尔定理。哥德尔定理说的是,任何一个包含初等算术的形式系统,如果它是一致的,它就是不完全的,也就是说,一定存在为真的陈述,该陈述在这个系统内部是不可证明的。上面的论证中,只有在计算机是一致的这个条件下,哥德尔定理才适用。但是,在什么意义上,一台计算机是一致的?这里,我们要区分理想上的一致性和实践上的一致性。一个形式系统是一致的,仅当它的定理在逻辑上被其公理和推理规则所保证,这种一致性是理想的,与另一种实践上的一致性要区分开来。设想有一个人依照公理和推理规则“推导出”一条条定理,当我们问这组推导出的定理是否一致时,我们问的很可能是,这个人在推导的过程中有没有出错,比如说,他是否不知不觉地误用了规则、推演过程中是否出现笔误等?一台体现这个形式系统的计算机是由各种物理硬件和软件构成的,我们在什么意义上说它产生的算术定理集是可靠的(sound)?显然,说它们是可靠的,意味着这台机器的每个物理细节在功能上都是正常的,为它编写的程序是恰当的,等等。但是,在现实世界中,数不清的因素,既有硬件上的,也有软件上的,对一台机器的运行产生着影响,谁能有先验的理由保证一台现实的机器没有出现功能上的障碍呢?卢卡斯的论证显然有一个暗含的、关于机器的一致性的理想化预设,即计算机的运行是完美无缺的,一旦这个预设受到质疑,上面论证中的第二和第三个步骤也就受到质疑。这是因为,如果一个系统是不一致的,任何命题都可以在其中得到证明。即使理想化预设不受质疑,上面论证中的第四个步骤也是可疑的。假设用H代表人类智能,M代表该计算机,Gm代表M的哥德尔语句,那么(4)可以写成:H能看出Gm为真。凭什么说H有这个能力?答案似乎只有两种,一是,H根据哥德尔定理看出Gm为真,二是,H有一种先天能力,直接看出Gm为真。我们先看前者。哥德尔定理说,当M是一致时,Gm为真但M不能证明Gm为真。因此,只有H相信M是一致的,H就能运用哥德尔定理合理地相信Gm为真。但H何以相信M是一致的?因为H看出M列出的定理都是真定理。不过,这里需要说明的是,给定理想化预设,M是一致的是一回事,H能够看出M是一致的是另一回事,也就是说,即使M是一致的,H也不一定有能力看出M市一致的。一方面,由于人脑是有限的,当M足够复杂时,H没有理由相信自己能看出M的一致性;另一方面,H本身也可能是不一致的,数学史上的诸多实践表明,H并不总是一致的。因此,第一种对H看出Gm为真的能力的解释,表明步骤(4)是可疑的。再看看第二种解释,即H有一种先天能力看出Gm为真。这种解释似乎蕴含着这样一个想法:即使H不知道M是否一致,H也能看出Gm为真。这个想法非常奇怪,它似乎赋予了H一种神秘的觉察真理的能力。但显然这里要付出代价,那就是,H不确定M列出的定理集是否是可靠的,而H又同时相信Gm与这些定理是相容的。总之,即使理想上讲,机器是一致的,它的一致性是否是人类智能能够看出的,是一个未决的问题。如果我们看不出它是一致的,我们就无法称它的哥德尔语句为真。实际上,我们很难“看出”一个复杂的形式系统的一致性,我们只是从哥德尔定理知道,如果这个系统是一致的,那么一定有一个为真的公式是这个系统所不能证明的。这样,卢卡斯的论证只表明,如果人类心灵完全知道一台机器所遵守的所有规则,那么就可以构造一个哥德尔句子,人类心灵可以看出它为真,但机器不能证明它。但这只是一个假言的结论。卢卡斯论证的另一个失误是,它把哥德尔定理只描述成对机器的限制,而没有看到哥德尔定理同样适用于人类心灵。像给一台机器设计一个哥德尔语句一样,如果给卢卡斯设计一个哥德尔语句“卢卡斯不能一致地断言这个句子”,卢卡斯也无法判断其真值(假定他是一致的)。卢卡斯论证也没有正确地理解计算机的工作方式。在一台计算机中有不同的工作层次,从物理层次到机器码层次以及更高的信息(语义)层次,在较高的符号处理层次上,我们同样可以使机器像人一样,在一致性和完备性不可两全的情况下选择一方面放弃另一方,从而判断出哥德尔语句的真值,学习机器的出现也可以使机器学会应付新情况,从而跳出“哥德尔陷阱”。上面的讨论只是反驳了卢卡斯式的论证,下面我借助鲁迪·拉克(Rudy Rucker)的论述从更为技术的角度讨论人-机在数学能力上的等价的可能性。 见鲁迪·拉克,无限与心灵(Infinity and the Mind, Birkhäuser, 1982),第292294页。假定代表人类的数学直觉(亦即心灵的能力),H*是能够宣称为真的陈述的集合;M是一台图灵机,M*是M所列出的定理集。卢卡斯的论证是这样的:(1)M*Í*®H能够看出M体现了一个为真的形式系统。(2)知道M为真®知道M是一致的,并且Con(M)Î*。(3)但是Con(M)ÏM*(哥德尔第二定理),所以M*¹H*。因此,没有任何机器M等价于H。 我前面论证的重要的一点是,对于一台很复杂的机器来说,它的一致性在我们的直观之外,我们很难预言这样的机器的行为。这就是说,卢卡斯证明中的步骤()太强了,我们需要对它做更合理的处置。设有一个谓词Tr(e),Tr(e)机器Me列出了一个相信为真的语句集。e是一台带有指标的图灵机(的大小相当于代表Me的复杂程度)。这里有两个原则:()Me*ÍH*® Tr(e)Î H*;()Tr(e)Î H*®Con(e) Î H*。如前所述,()不必要这么强,我们都承认H*中的所有语句为真,如果M*Ì H*,那么M*实际上仅列出了为真的定理。但是,只有当H能够将Me看成是一个整体时,Tr(e)才真正在H*之中,而只有H能够命名一个很大的自然数e时,这才是可能的,因此,()应当改写成:(Me*ÍH*&是人类可命名的)® Tr(e)Î H*在贝里悖论中,我们知道,存在一个特殊的自然数uh(即人类贝里数),uh是第一个H不能为之找到一个名字的数(这需要我们是柏拉图主义者),因此,小于uh的数才可以看成是人类可命名的。这样,第一个原则就是:(Me*ÍH*&<uh)® Tr(e)Î H*。假定有一台机器Mh,当h> uh时,Tr(h)ÏH*,因此H*Mh*与哥德尔定理并不相悖。当然,这并不是说有一台机器与人类数学直觉等价,而是说,即使有一台机器与人类数学直觉等价,那也是与哥德尔定理不矛盾的。我以哥德尔的一段评论来结束这一部分对卢卡斯式的论证的考察。哥德尔认为,关于形式系统的可靠性(soundness)的知识,建立在充分数量的事例的基础上或者借助其他归纳推理,充其量只有经验上的确定性(empirical certainty)。哥德尔写道,“可以设想(尽管远远超出今天的科学的限制),大脑生理学发展到如此之远,以至于我们在经验上确定地知道,(1)大脑足以解释所有的心理现象,并且在图灵的意义上是一台机器;(2)大脑中从事数学思考的那部分的精确解剖结构和生理运行也是如此这般。当然,思维机制的物理运作是完全可以被理解的;然而看出这个特定机制一定总是导致正确(或仅仅一致)结论的那种洞察力,将超出人类理性的能力。” 哥德尔,库特·哥德尔文选第三卷(Kurt Gödel Collected Works Volume III: Unpublished Essays and Lectures, Oxford University Press, 1995),第309310页,脚注13和14。 从逻辑上考察人工智能的确是人工智能基础理论研究中最为重要的。哥德尔定理对于人工智能的真正含义是什么?这个问题是极其困扰人的。在卢卡斯等人看来,哥德尔定理表明了人类心灵与任何机器在计算能力上的一个差异,这种差异导致机器不可能充分模拟人类的心灵。我们上面的分析证明了这种看法是错误的。但是,这并不意味着我们证明了心灵和机器没有差异(如在数学能力上)。我的策略是辩护性的,我只是说哥德尔的结论并不是心灵能力优于机器的逻辑证据。在我看来,一个值得玩味的结论应该是,人工智能的极限是超越了我们的直觉的。实在的形式化 从计算机的工作原理我们得知,计算机求解问题需要三个前提: 第一,必须对问题进行形式化表达; 第二,必须能够构造出求解问题的算法,即问题必须是可计算的; 第三,必须在受到限制的时间和空间内得到问题的答案。 在这些前提当中,第三个前提属于计算机技术范畴。在图灵生活的年代,电子数字计算机刚刚研制出来,其容量和速度与今天的计算机不可同日而语。即使在高速度巨容量的计算机得到普遍使用的今天,在实际运算中也出现大量的所谓组合爆炸问题,即问题的复杂程度超出了计算机的运算能力,这也正是为什么需要人工智能的重要原因之一。对于这个前提我们不作具体讨论。 对于第二个前提,可计算理论已经提供了大部分说明。在前面中我已讨论过一些极端情形(如计算机能否计算本系统自身的哥德尔数的问题),并说明了计算机的巨大能力是由丘奇论题和图灵定理所保证的。 我们需要给予细致分析的是第一个前提。首先,很容易出现这样一个问题:每个问题都可以形式化吗?或者,更一般地讲,一切实在过程都可形式化吗?对一切实在过程给出形式化的表达的想法深深地扎根于西方科学传统中,科学知识的确定性和完备性是科学家们孜孜追求的目标。人工智能可以说是这种追求的自然产物。人工智能大致有新旧两种款式,老款式有一些称呼,如“古典人工智能”(classical AI)、“符号操作人工智能”(symbol-manipulation AI)、“思维语言人工智能”(language-of-thought AI)等。新派则打着一个共同的旗号“联结主义”(connectionism)。 约翰·卡斯蒂(John Casti)和维纳·德泡利(Werner DePauli)用“自上而下”(Top Down)和“自下而上”(Bottom Up)来刻画人工智能的这两派。自上而下派认为智能现象与大脑的物理硬件无关,人工智能的目标是将大脑使用的规则抽离出来,将它们编写进计算机的程序中,这样就足以复制人类智能。自下而上派则认为,人类大脑的特定物理构造在人的认知能力中起着至关重要的作用,如果不关注大脑的物理结构,我们将无法理解人的智能。见两人合著的哥德尔:逻辑的一生(Gödel: A Life of Logic, Cambridge, Massachusetts: Perseus Publishing, 2000),第129页。 说人工智能有新旧,并不是说旧的被新的所替代,或者说旧的式微、新的坐大。老派人工智能在20世纪50年代至80年代一直占据统治地位,即使在今天也是非常精致的、有吸引力的关于智能机制的理论。两派人工智能的分歧主要在于,前者将智能看作是抽象的、依据形式系统进行符号处理的功能现象,任何一个系统,只要展示特定的功能结构,就是可以认为是有智能的;后者则认为智能是具体的、依赖于人脑的特定物理构造的心理现象。从文献中可以看出,反对人工智能的大部分论证都是针对老派人工智能的。在余下的评论中,我将不触及联结主义人工智能,只考察另一个认为计算机能力无法与人类智能匹敌的论证。维特根斯坦1921年发表了他的第一部也是他生前发表的唯一一部著作逻辑哲学论,他在这本书中提出的哲学见解可以非常接近于一种真正的“计算机哲学”。它极其精致地探讨了关于心灵和世界的形式化定义,一般认为逻辑哲学论代表了他的早期思想。他的这一时期的思想,早期人工智能建筑于其上的形而上学基础基本上是吻合的。维特根斯坦借助命题演算和命题作为实在的图像这两个理论来完成他对世界结构的形式刻画。在他那里,一个基本假设就是存在着不可分解的逻辑上独立的原子语句,他称它们为基本命题(elementary propositions)。这些基本命题在事实上非真即假,“所有命题都是基本命题的真值演算的结果。” 维特根斯坦,逻辑哲学论(Tractatus Logico-philosophicus, translated by D. F. Pears & B. F. McGuinness, London: Routledge & Kegan Paul, 1961),第5.3节,第43页。 因此,在一种科学语言中,关于实在的合式图像的句法便是所有基本命题的合式逻辑组合的集合,而它的语义就是构成事实的那些组合的子集。只要找出所有的基本命题,然后逐个检查其所有的逻辑组合是真还是假,就可以构造出世界的完整的图像来。在原则上,维特根斯坦的算法是一个完善的算法。一旦我们执行这个算法,科学和技术将陆续推断出一个明晰性、确定性和控制都得到保证的世界,一个由数据结构、决策理论和自动化构成的世界。这个框架中的任何东西就变成自明的或是同义反复的,在此之外的任何东西是人们不能用哲学或科学的语言来谈论的。在这个框架背后可能会出现某些神秘的东西,它们只能向我们显示,但我们不能用语言谈论它们。 世界必须被表达成由初始元素构成的一组有结构的描述,这是人工智能工作的必要前提。在计算机所构造的世界中,一切东西都是静态的、中性的、自明的、非真即假的。首先定义最简单的基本元素,任何复杂的东西都是较简单一级的东西的真值逻辑组合。如果世界是这样的话,我们只要执行维特根斯坦的算法,就将产生出科学对实在的一个完善的描述或理解。如果这套概念系统不错的话,除了对“神秘的东西”保持一点敬畏之外,哲学实际上结束了。 维特根斯坦的尝试在对完善性和确定性的追求上达到了顶峰,然而哲学并没有结束。维特根斯坦后来认为,逻辑哲学论在某些方面出了问题,他的算法碰上了麻烦。逻辑哲学论所构造的世界是形式的和抽象的世界,这种世界图像与现实世界有着重大差别。首先,在前者中每一个原子语句的真值是独立于语境的、自明的,并且是不变的。但在现实世界中,具有这种性质的原子语句是找不出来的,我们甚至不知道如何什么样的句子才满足要求。在生活中,我们说出、写出的任何一个简单的语句其实都包含着复杂的结构,它的真值和意义会随着它被使用于其中的背景的不同而发生变化。离开了它的使用背景,孤立的语句无法取得明确的意义。其次,逻辑哲学论将生动的世界分割成静止的片断,破坏了现实世界中的事实、真理等的时间性和流动性。第三,逻辑哲学论将事实与价值绝然分开,认为“它(价值)必须在世界之外”,“世界是独立于我的意志的”, 同上,第6.41和 6.373节。 而从根本上讲,事实与价值的绝然划分使得自然秩序中出现无法弥合的裂痕。从上述三个方面进行反思,人们有理由怀疑哲学是否有能力提供关于自然世界的完备的逻辑图像。或许,想要理解人及其在世界中的位置,完备性的哲学并不是解决办法。即使在被视为确定性典范的数学领域,完备性也是无法达到的。 剑桥数学家哈代(G. H. Hardy)在评论希尔伯特的判定问题时,说过这样一句话,“当然不存在这样的定理,这是很幸运的,因为,如果有这样的定理,我们就有了一组机械的规则解决一切数学问题,我们数学家们就无活可干了。”转引自马丁·戴维斯(Martin Davis),逻辑引擎:数学家与计算机的出现(Engines of Log