回首页

 

《计算机仍然不能做什么——人工理性批判》MIT版导言


Hubert L. Dreyfus 陈自富 译

 


  《计算机不能做什么》的这个版本不仅仅是出版商的变化和书名的微小更改,也意味着形势的变化。现在这本书不是旨在提供持续进行的辩论中的一种异议性的立场,而是过去一段历史期间的观点。现在20世纪快要结束,而该世纪的伟大梦想之一显然也正在终结。差不多半个世纪以前,计算机的先驱阿伦·图灵曾经提出:使用规则和事实编程的高速数字计算机,可以显示出智能行为。这样在后来就诞生了人工智能。然而,经过了50年的努力,现在除少数顽固者外,显然产生通用智能的努力已告失败。这种失败并不意味着此类型的人工智能是不可能的,也无人能提出这样的否定性证据。但是至少在目前,或多或少已经证明:基于人类通过规则和事实产生智能的假设的研究纲领,已经走到了尽头,没有理由认为它会一直成功。事实上,对于约翰·豪奇兰德(John Haugeland)所称的好的旧AI(GOFAI:Good Old-fashioned AI),就是科学哲学家称为退化的研究纲领的一个典型例子。
  伊姆雷·拉卡托斯定义的退化的研究纲领,是指这样的科学计划:它以美好的前景而开始,在一个有限的领域内提供新的研究方法而产生印象深刻的成果。不可避免地几乎所有研究者都想在更大范围内应用新方法,开始时在某些方面也会有与旧研究方法下相同的一些问题。只要新的研究方法成功,研究纲领将会扩展并吸引后来者。然而,如果研究者一开始遇到了未预见到但又重要的现象,而它们始终与新技术相抵触,那么研究纲领将会停滞不前。只要更进步的备选方法出现,研究者将会尽快放弃此纲领。
  我们在GOFAI的历史中看到的正是这种模式。GOFAI的研究纲领因艾伦· 纽厄尔(Allen Newell)与赫尔伯特·西蒙(Herbert Simon)在兰德公司的工作而具有良好开端。50年代后期,纽厄尔和西蒙证实了计算机能完成比计算更多的任务。他们演示了能用于表示任何事物的计算机二进制位串,包括表示真实世界的各种特征,这样他们的研究纲领就能被用为把这些特征联系起来的规则。然后,计算机中的表达式结构表征了具有相同结构特征的世界的事务状态,而计算机作为物理符号系统存储和操作这些表征(Representations)。这样,纽厄尔和西蒙宣称:计算机能模拟智能的各个重要方面。心灵的信息加工模型由此诞生了。
  纽厄尔和西蒙的早期工作令人印象深刻,到60年代后期,由于一系列微世界的成功,例如:特瑞·温诺格拉德(Terry Winograd)的SHRDLU程序,它能通过移动模拟的理想方块来响应类英语的命令(参见第12-13页),人工智能已经成为一个欣欣向荣的研究纲领。这个领域拥有博士学位项目、专业团体、国际会议甚至大师。看上去所有要做的就是扩展、组合和提出更现实的微世界,它很快会拥有真正的人工智能。麻省理工学院的人工智能项目主管马文·明斯基(Marvin Minsky)宣布:“在一代人的时间内,将根本上解决创造’人工智能’的问题”。
  接下来,这个领域突然遇到了未预料到的困难。由于通过编程理解儿童故事的努力失败,麻烦出现了(参见第57-62页)。程序缺乏四岁儿童的常识,没人知道怎样赋予程序理解最简单的故事所必须的背景知识。一位熟悉的理性主义者的梦想成为问题的关键。GOFAI基于笛卡尔式的观念:所有的理解都是形式化的并使用恰当的符号表征。对笛卡尔而言,这些表征是原子观念(primitive ideas)或实体(elements)组成的复杂描述。康德增加了一个重要的观点:所有的概念是关联这些实体的规则。弗雷格指出这些规则可以形式化,这样无须本能和解释即可操作它们。考虑到计算机作为可能的形式符号处理机的性质,人工智能将这种理性主义者的愿景变成了它的研究纲领,并开始搜索能掌握日常常识的原语(primitives)和形式化规则。常识理解由巨大的数据结构表征,这个数据结构由事实以及关联和应用这些事实的规则组成。然而已经证明,这比任何一个人期望的形式化要难得多,更不用说对常识的理论的形式化了。这不是明斯基希望的仅仅是对1000万种事实编排目录的问题。明斯基的态度在十四年的过程中完全改变了。1982年他告诉记者:“人工智能问题是曾研究过的最困难的科学之一”。
  回想起来,我从1965年以来的工作,是不断变化地尝试对我的直觉进行辩护,这基于我对马丁·海德格尔,莫里斯·梅洛·庞蒂以及后来的维特根斯坦的研究,而GOFAI的研究计划最终失败了。对与我们相关联的心智的符号信息处理模型的内在困难,我首先认识到是我们的整体感,以及需要涉及持续进行的活动,而符号表征是原子论的并且总体上与这些活动分离开来。到1979年《计算机不能做什么》出版第二版时,我曾经含糊地称为整体上下文环境所指出的表征问题,已逐渐被人工智能研究者意识到是一个严重的障碍。因此我在新的导言中试图指出他们所称的常识问题,并不是真正关于如何表征知识的问题。某种程度上,当我们指涉事和人时,允许我们体验当下所与之相关的日常常识背景的理解似乎就是实践知识(know-how)。除了构成人类的所有兴趣、感觉、动机和身体上的能力之外,这种问题恰好是这种实践知识(know-how),即它会被作为理性知识(knowledge)转达给计算机——作为庞大和复杂的信念系统——在符号表征中,它组成我们仿佛明显成为人类的那些不可言喻的、前概念的背景理解,而这对我而言这是无望的任务。
  基于这个原因我质疑GOFAI技术能解决常识问题,但这不能证明我这样的怀疑:即组成常识背景的实践知识本身不能由事实和规则构成的数据结构表征。假设我们的背景知识主要由指涉事和人的技巧而不是由关于它们的事实组成,我所需要的就是反对那些假设这种技巧能以符号化形式表征的人们的观点。我的兄弟斯图阿特(Stuart)原已在技巧获取(skill acquisition)的现象学解释中提出过一个遗漏的观点。
  他指出,技巧获取通常以学生学习和运用规则开始,这些规则用来掌握上下文无关的原理。这在信息加工模型中有些是真的。这样象棋初学者学习遵循与诸如中心控制(center control)和子力平衡(material balance)等特性有关的规则。然而,在一个人开始理解某领域之后,他看到的是有意义的各个方面,而不是上下文无关的各种特性。于是更有经验的棋手看到的是诸如不平衡的兵卒结构或者王翼薄弱等上下文相关的特性。接着一个有能力的玩家学会设置目标,然后就基于目标达成所相关的角度来评判当前局势。接下来在积累大量经验后到了精通的阶段,玩家能够将局势视作具有趋于确定结局的确定意义(certain significance),而局势的某些方面主要与结局相关。例如,假设有一盘合适的棋盘局势(board position),几乎所有的高手在观察几秒钟后都会看到如果要赢白棋必须攻击王翼。
  最终,在积累更多经验之后,一个人达到了立即看出来必须如何走的水平。例如,一个国际象棋大师,不仅几乎能马上看出局势中的问题,而且脑海中也立刻想出了正确的应对。不用去猜想这是初学者的特性及规则,还是其他特性或规则在这种专家级的表现中发挥作用。如爱德华·费根鲍曼(Edward Feigenbaum)所表明的:我们在学习系鞋带时曾遵循的规则,并不表示任何时候我们系带子时仍然必须无意识地遵循同样的规则。这就象是声称因为我们在学习如何骑自行车时需要训练的轮子,那么现在我们骑车的任何时候都必须用一个看不见的轮子。没有理由认为获得技巧时起作用的规则也会在后来的应用中起作用。
  然而,当《机器心智》(《Mind Over Machine》)出版时,斯图阿特和我面对同样的反对意见:它针对我在《计算机不能做什么》中对整体论的呼吁。批评者说你可以描述如何感知专业技能,但我们解释智能行为产生的唯一途径是用符号表征,因此这必定有潜在的因果机制。纽厄尔和西蒙采取符号人工智能的这种类型的辩护:
  “符号系统假设的主要证据。。。是负面的:即关于智能活动如何通过人还是机器完成的特定假说的缺位。”
  为了回应物理符号系统研究计划的这种“余者可能是(what else could be)”的辩护,我们在《机器心智》中呼吁一种有点含糊和似乎不合情理的观念:即大脑可能存储与适当的应对相配对的局势的全息图像,从而可以用过去曾成功地应对相同局势的方法来应对局势。关键概念是在全息图像匹配时人们有一个相似性识别的模型,它不需要根据一组通用的特征来分析两个模式的相似性。但是这个模型是没有说服力的,没人发现在大脑中有任何类似全息图像的东西。
  这时候,就象《摩登时代》的查理斯·卓别林正好在革命者聚集时拿着红旗从检修孔出来一样,我们高兴地发现自己被迅速发展的不同类型的神经网络建模者包围。当常识知识问题继续阻碍在问题求解中如此有效的技术,而模式识别和学习已被证实比预想得要难解决得多时,在长时间休眠后使用计算机来产生智能的替代方法作为有吸引力的研究纲领重新浮现。神经网络革命者——也成为联结主义者的胜利到来,结束了GOFAI研究纲领的退化。
  我们通过对大脑学习能力而不是对世界的心灵符号表征建立模型的提议,不是从哲学中而是从很快被称为神经科学的领域获得灵感。这直接来自于赫布(D.O.Hebb)工作的启迪,他在1949年提出如果神经元A和神经元B的同时兴奋增加了两者之间的连接强度,大量神经元就能够学习。50年代后期弗兰克·罗森布莱特(Frank Rosenblatt)追随这种先知灼见,他考虑到由于可能难以形式化智能行为,人工智能应代之以试图对神经元网络学习区分模式和恰当响应的过程进行自动化。寻求符号表征的研究者希望获得能赋予计算机解决确定问题或区分确定类型模式能力的形式化结构。相反,罗森布莱特想建造一个物理装置,或者在数字计算机上模拟这样的装置,它能产生自己的能力。
  当符号人工智能似乎走入困境时,唐纳德·诺曼(Donald Norman)的平行分布式加工小组和其他人开始审查罗森布莱特项目的种种变化并获得了令人惊讶的成功。很快,受挫的人工智能研究者——他们疲于坚持杰瑞·莱特文(Jerry Lettvin)在80年代早期称为“仅有的救命稻草(the only straw afloat)”的研究纲领,开始投靠这个复活的范式。罗姆哈特(Rumelhart),麦克莱兰德(McClelland),以及平行分布式加工研究小组的两大卷作品,《平行分布式加工》,在1986年上市时有6000本延期交货,现在还有超过45000套在印刷中。就像苏联的解体一样,GOFAI研究纲领崩溃的速度使每个人,甚至是我们当中预测其或早或晚会发生的人都大吃一惊。
  对于斯图阿特和我,高兴地是神经网络建模者对问题有似乎可信得多的答案。如果不是符号和规则,还会是别的什么呢?他们的模式表明一个人根本不需要存储实例;相反,设计者能调整模拟的多层感知器神经网络,这种调整通过训练其响应特定局势,然后使它按照学到的合适的外推方式(是设计者希望的)响应其他局势而进行。事实上,在神经网络模型和GOFAI之间最显著的不同是:神经网络模型建立者不是提供与领域特性相关的规则,而是提供用于训练的输入-输出对(input-output pairs)的历史,然后为了将输入映射到输出,即从局势到响应,神经网络通过调整许多参数进行自我组织。于是运行着这些网络的仿真程序的计算机不被看成物理符号系统。鲍尔·斯莫兰斯开(Paul Smolensky),平行分布式加工(PDP:Parallel Distributed Processing)的一名研究者,总结如下观点:
  联结主义的系统是由大量相互连接、并行运行的简单处理器组成的大规模网络。每个处理器有一个数字式的触发值用于沿着不同强度(Strength)的链接与其他处理器通讯。每个处理器的触发值在响应与其相连的处理器的活动时经常变化。某些处理器的值形成了对系统的输入,而其他处理器的值形成了输出。处理器之间的连接确定了输入如何转化为输出。在联结主义的系统中,知识不是以符号结构而是以处理器之间连接的数值强度(numerical strength)模式(pattern)来编码。
  回想起来,我对于使用作为物理符号系统的计算机模仿智能的努力进行批评的各个阶段现在清楚了。我早期对整体论的呼吁,对于作为实践知识的常识理解的关注,斯图阿特的日常技巧的现象学,以及模拟神经网络的能力,这一切意味着前后一致的立场——一个预测和解释为什么GOFAI研究是退化的立场。
  现在到了我想说“余者皆史”的地方了,但在我把整个辩论取消之前,必须面临两个问题。首先,GOFAI研究计划拒绝得体地退化而且还正在战斗,我们不得不问为什么这还在发生。其次,这样的问题仍然存在:神经网络是否是智能的,或者神经网络研究者,象60年代的人工智能研究者那样,是否在不可推而广之的特定成功基础上建立希望。
  GOFAI未能如我所料到的那样消亡,它通过公共电视进入家庭。读者们可能看过一部令人印象深刻的名为“改变世界的机器”的五集连续剧,其中的一集针对人工智能。在那一集中,他们把我对符号人工智能的反对意见,尤其是我关于GOFAI试图表征常识而遇到了不能解决的问题的结论,与一个孤独的人工智能研究者:道格拉斯·莱勒特(Douglas Lenat)的主张进行了离间挑拨。1984年,莱勒特曾经分享过我对人工智能停滞不前的见解:
  到70年代中叶时,在20年令人难堪的缓慢进展后,人工智能新领域的工作者普遍达成了关于智能行为的基本结论:它需要大量人们认为理所当然但却要被灌输给计算机的知识……例如,即使为理解普通英语中最容易的段落,也需要上下文语境,即说话者和远超出当前计算机程序能力的总体世界的知识。
  而到了1991年,他的担忧更加清晰:我们了解的当前大多数人工智能研究正陷入停滞。然而,他并没有气馁。他在微电子和计算机技术公司(MCC)领导一个研究团队,以在10年的研究项目中形式化常识知识(consensus knowledge)为目标,即:“我们所有人都具有并假设其他人也有的数以百万计的抽象概念、模型、事实、经验原则(rules of thumb)、表征等”。
  这不是一本普通的百科全书中的那种知识,而是读者在理解百科全书条目以及更一般地在理解世界上所发生的一切时,所用到的理所当然的知识(take-for-granted knowledge)。常识知识的范围从“乔治·布什是美国总统”到“乔治·布什穿衬衣”,到“当乔治·布什在华盛顿时,他的左脚也在华盛顿”。莱勒特把自己表现成仅有的愿意把常识知识问题作为主要研究计划而不是轻易处理的人。由于他的研究而对此满怀信心:“人工智能在我们的掌握之中”。
  通过对采访的交叉剪接,我称之为人工智能的黑马,遭遇了符号信息加工的白马进行最后的战斗。莱勒特声称他的项目进展顺利并有60%的成功机会。我半信半疑地接受了但对之了解不多,并提出了一些没有说服力的反对意见。显而易见,如果我不捍卫对莱勒特的项目注定失败的信心,我对于退化中的GOFAI研究计划的主张就只会被当成报告了一个短暂的社会现象而不被理睬。
  为理解我对常识的GOFAI研究进路的批评,了解其来龙去脉(ancestry)是有帮助的。诸如笛卡尔和莱布尼兹这样的理性主义者认为心灵(mind)由其形成所有活动领域的表征的能力来定义。这些表征逐渐成为问题域的理论,意思是对领域中固定的、上下文无关的特性,以及支配他们之间交互作用的表征解释了问题域的可理解性。就此而言我们所知道的一切——即使是满世皆知和涉及事与人的一般性知识——也必须以命题的形式映射到心灵。我把这种关于心灵及其与世界的关系的观点称为:“表征主义”。表征主义假设基本的日常理解是隐式信念(implicit beliefs)的系统。
  诸如埃德蒙德·胡塞尔(Edmund Husserl)这样的意向主义哲学家,以及杰里·福多(Jerry Fodor)和GOFAI研究者这样的计算主义者,也持有这样的假设。只有在一个人已经假定常识来源于命题知识(propositional knowledge)的海量数据库(a vast data base)之后,才会出现以形式化规则及特性来表征所有这类知识的特定的人工智能问题。到那时,既不是发展如果心灵用于表征世界而必须持有的先验条件(transcendental conditions)的哲学理论,也不是提出命题知识的存储和检索如何工作的心理学模型,而是人工智能研究者试图形式化并组织日常共识知识(everyday consensus knowledge),他们遇到了被称为常识知识的问题。实际上至少存在按以下标题分类的三种问题:
1. 日常知识应如何组织而使人们能依此进行推理。
2. 技巧(skills)或者实践知识(know-how)如何被表征为是什么的知识(knowing-that)。
3. 在特定局势下如何运用关联知识。

  当表征主义者(representationalists)编写程序试图处理每个这样的问题时,既无可被广泛接受的方案,也无这些问题能被解决的证据。弄清楚的只是所有解决这些问题的努力都碰到了意外的困难,这转而意味着很可能是对表征主义原则上的限制。至少这些困难使我们质疑为什么人们会期待表征主义的项目成功。
  然而莱勒特认为他的前任只是对常识系统化所作的努力不够。他的目标是用不涉及到知识的特殊用法下的一般类(general categories)来组织常识知识:
  “所有程序当然建立在一些原语上(谓项、框架、存储槽、规则、函数、脚本)。但如果你选择与任务相关的原语,从短期来看会获胜(为一个狭小领域编写程序),但从长期来看会失败(当你试图增加程序规模时会发现自己陷入困境)。”
  莱勒特把他的工作与解决本体论——即对不同类型的上下文无关的实体及其关系的描述——这一传统哲学任务联系起来,他明白从传统的本体论转向研究计划不是一件小任务:
  “(对掌握共识知识的)认真尝试需要建立巨大的知识库,这比今天典型的专家系统要大1万到10万倍,并包括普遍事实(general facts)和探试法,也包括用于类推的特定事实与探试法的广泛示例。。。。。。此外,还会包括信念,我们掌握的意识到的其他知识(常常按照文化、年龄阶段或历史时代分类),表征事物的不同方法,在不同环境中合理的近似的知识等等”。
  数据结构必须表征对象及其属性,个体,集合,空间,时间,因果性,事件及其要素,机构,习俗,还有从传统哲学观点来看是奇怪的:即诸如餐馆或生日集会上的宴会等重复的社会场景。这种数据库式的本体论,象任何传统理性主义者的本体论一样,必须通过原语元素(primitive elements)走出低谷:
  “选择一套表征原语(谓项,对象、函数)被称作本体论工程——即定义领域的类别和关系(与哲学家千年来所做的本体论理论化比较而言,这是经验的、实验性的工程)。”
  莱勒特明白他的本体论必须表征我们的常识背景知识——我们认为理所当然的理解。他认为试图赋予计算机处理人和事所需要的技巧和感觉是不成熟的。人工智能界中再也无人相信到2001时我们将会有象HAL这样的人工智能电脑(译注:HAL即HAL 9000,它是1968年发行的科幻电影《2001太空漫游》中的大型人工智能电脑)。如果Cyc数据库能够理解书和文章,例如它能回答关于书籍和文章的内容的问题并能从中获得知识,莱勒特就满意了。事实上,即使制造一个能理解普通英语中简单句子的数据库也是一个困难的问题,因为这种理解需要海量的背景知识。莱勒特搜集了一些所涉及的困难中的典型例子。考虑下面的句子:
  “玛丽看见有只狗在窗口里,她想得到它。(Mary saw a dog in the window, she wanted it.)”。
  莱勒特问:
  “它”是指狗还是窗口?要是我们曾说过“她撞到了它(She smashed it),”或者“她把鼻子压到它上面(She pressed her nose up against it),”又会怎样呢?
  注意这样的句子好像是诉诸于我们想象在此场景中如何感受的能力,而不是需要我们咨询关于狗和窗户的事实以及典型的人类会如何反应。这也依赖于世上广泛的实用知识,例如在一个障碍物的另一边如何接近某物,这样更容易出现不考虑感觉和身体处理技巧而导致莱勒特的问题的情况。为了组织理解典型句子所需的知识,我们需要能够想象感觉和做事(doing things)。这也是所有“指示语(deixis)”的问题,即:就我们自身的位置来定位事物的方式,例如“在那儿(over there)”,“附近(nearby)”等等。所有这些问题都指向了身体的重要性。莱勒特没有告诉我们他主张如何用命题方式(in propositional term)来抓住我们的这些身体感受:内在和外在的,可接触的和不可接触的,我们抓住各种东西的最佳方式所需的距离。他只是武断地告诉我们这能够做到。
  “我们的回答——原则上以及在CYC中——是描述感知、情感、动机等等,细化到能使系统理解人类做那些事情的某种详细程度,以及/或者能简单地对它们加以考虑。”
  在我们被编排的电视辩论中,我关于智能需要身体的主张由于提到玛德琳(Madeleine)的案例而不被理睬,她是一个被奥利弗·塞克斯描述的坐轮椅的女人,由于一出生就失明,她不能用手阅读盲文,然而仍然从读给她听的书中获得了常识知识。但是这个案例事实上并不支持莱勒特。玛德琳当然不像计算机。她是谈吐和与人交互的专家,因此而具有常识性的社会技巧。再者,她有感觉,包括物理的和情感的,还有内在的、外在的和在世上走来走去的身体。这样她能与其他人产生共鸣,某种程度上还能分享他们遭遇其世界的熟练方式。她的技能可能完全来自于学习区分许多想象的情况以及在这些情况中典型发生的东西,而不是来自于莱勒特的意义上的世界模型。事实上,塞克斯说玛德琳具有:“填充的和持续的想象,可以说通过其他人的想象,想象通过语言表达。”这样尽管玛德琳不能看和移动,但那种她从书本中获得常识知识,并证明人们能基于被理性地灌输有序表征的符号计算机模型而获得和组织与世界有关的知识的主张,忽视了即使是从书本中,一个人的身体技巧和想象力是获得常识知识的必要条件的可能性。
  马克·约翰逊(Mark Johnson)即使在解决意识问题时也提出了关于想象重要性的真知灼见:
  “想象通过我们完成前后一致的、型式化的(patterned)和统一的表征的手段而成为无处不在的结构化的活动。它对于我们使经验具有意义及发现其有意义的能力是必不可少的。因此结论应该是,想象对人类理性,即发现联系、描绘推断和解决问题的能力极其重要。”
  假设玛德琳的身体和想象与事实的累积、组织、及运用无关,而她的技巧本身仅是更多地存储和组织事实的结果,这样就回避了问题的本质。为什么我们应该假设玛德琳用于任务学习和常识应用的想象及技巧,能够通过被赋予计算机事实及组织它们的规则而成为恰当的?
  一种看待这种难以置信的主张的方式就是问计算机怎样可能——用它数以百万计的未针对特定目的而组织的事实——来检索恰好与理解特定局势中说出的句子相关的信息。这个问题远比基于存储好的数据来回答提问困难得多,而后者似乎是莱勒特到目前为止所考虑到的全部。为了在特定局势下检索相关事实,计算机应对局势进行分类,然后遍历此局势中符合发现它们可能相关的规则的所有事实,最后推导出这些事实中的哪一个在此特定局势下确实是相关的。当增加更多事实和规则来引导时,这种类型的搜索显然会变得更加困难。事实上,人工智能研究者长期以来已经认识到系统对事务的特定状态知道得越多,就要花越长的时间来检索相关信息,这是涉及到规模放大的普遍问题。相反,人类对某个局势或个人知道得越多,检索其他相关信息就越容易。这意味着人类使用的是与表征主义哲学家和莱勒特假定的符号大不相同的存储和检索形式。
  莱勒特承认这里有问题:
  “任何搜索程序的天生倾向就是降低速度(经常称为组合爆炸),这是因为增加了额外的命题,所以搜索空间膨胀起来。。。。。。。保持增长中的程序的有效智能的关键在于明智地添加元知识。”
  问题是规则和元规则正是更没有意义的事实,因此只会使事情更糟糕。
  最后,莱勒特关于Cyc一定成功的信念既不是基于论据也不是基于事实上的成功,而是基于未经测试的传统假设,即人类拥有巨大的常识知识库,通过运用进一步的知识设法解决规模不断放大(scaling-up)的问题。
  “我们经常询问如何期望得到有效的‘索引’——发现相关的部分匹配——因为知识库变得越来越大。。。我们的回答。。。初看起来经常令人吃惊:一直等到我们的程序寻找许多漫长但是低效率的模拟,也就是说仅仅通过大规模的搜索。然后调查人们在那些情况下精简大部分搜索空间时所运用的额外知识。整理这些知识并加以抽取,再加入到系统中。”
  但是这种人们存储上下文无关的事实和使用元规则来精简搜索空间的信念恰恰是尚在讨论中的理性主义者的不可靠的假设。它必须通过审视日常知识(know-how)的现象学而加以检验。这样的解释已经由海德格尔以及他的追随者如梅洛-庞蒂及人类学家皮艾尔·布尔迪厄给出。他们发现那些被当做事实的东西取决于我们的日常技巧。在描述一个礼物交换的社会中这是很重要的,布尔迪厄告诉我们:
  “如果不想构成冒犯,回赠礼物必须被推迟而且要有所不同,因为立刻回赠完全同样的物品意味着拒绝。。。这是一个风格的问题,意味着在这种情况下机会的选择和时机把握,对于同样的行为——赠予,回赠,提供一个人的服务,访问等等——在不同的时间可能有完全不同的含义。”
  然而文化中的成员对理解要做什么却毫无困难。一旦某人获得必需的社交技巧,就不必有目的性的地认知局势,因为他已经了解合适地赠予礼物的种种特点,然后理性地决定赠予什么礼物。通常一个人的简单回应是在适当的环境中赠予适当的礼物。这种正常的回应就构成了礼物交换局势下的环境。当然拥有什么样的礼物是恰当的知识也如此。一个人不必弄明白什么是恰当的,或者至少不需弄明白什么是恰当的范围。每个人的技巧是协调的,因此通常某人只是被局势要求赠予某种类型的礼物,而接受者,被社会化到同样共享的实践中,认为这是合适的。布迪厄评论道:
  “过去经验的活跃存在…以感知、思想和行为的形式存储在每个有机体中,它倾向于保证实践的‘正确性’和与时俱进的稳定性,比形式规则和显式规范更加可靠。”
  这种经验意味着只有对尚未获得恰当技巧的陌生人或者旁观者,使知识结构化以表征所有礼物赠予的事实才是必要的。布迪厄坚持认为这是一个错误——一个经常被人类学家,哲学家以及我们还加上人工智能研究者所犯的错误——读取我们在正常局势的实例清单中需要诉诸的规则,然后诉诸通常情况下熟练响应如何产生的因果性解释这样的表征。
  这个例子的观点是知道在恰当的时间以恰当的方式如何赠予礼物需要文化上的应对技巧(savoir faire)。所以知道是什么礼物一点也不是事实上的知识,它和赠予礼物给某人的知识或技巧毫不相干。礼物是什么与什么被当做礼物的差别似乎把事实与技巧区分开来,但这只是不实用的本体论中的哲学信仰培育出来的幻象。由于礼物框架的组织和内容以礼物赠予的实践为先决条件,就不需要也无证据来阐明礼物和礼物赠予时假定的客观特征的框架。对甚至可能有这样彻底的解释也是存疑的。
  还有更深层次的问题掩藏其中等待着莱勒特。我们不仅能在匆忙和想象中处理变化的事件和动机;也能把理解投射到新的局势。如果某人是文化实践的大师,他有时候能做一些到目前为止尚未被视为恰当的事情,而后来却被当成恰好做了正确的事情。这样一个文化大师能够导入一种新的礼物或者新的礼物赠予时机。这不仅发生在私人和公共仪式方面,而且当然也发生在关于这些时候的故事和报告中。一个未分享文化的应对技巧的数据库,则不仅不能给出恰当的礼物——我们已经同意莱勒特不必建立技巧娴熟的机器人——而且作为存储礼物的共识知识的系统也是失败的,因为它不能理解礼物赠予中的创新。
  莱勒特明白扩展我们知识的能力对于应用知识和从经验中获得新知识都是很重要的。确实,他的程序的成功——根据他自己的标准,需要扩展已知知识,并从书籍和文章阅读中学习,而不是来自于“大脑的外科手术”。因此我们如何投射(project)和扩展已知知识的问题至关重要。
  “设计更熟练的学习程序部分依赖于找到开启人类智能的力量源泉的方法:通过类推来理解和思考的能力。。。这种力量源泉刚刚被智能软件利用,但无疑将成为未来研究的焦点。”
  假设一个有智能的人能看到他或她已经知道的类似性或相似性,那么有几种方法去考虑这种基本的人类能力。亚里斯多德以来的经典理性主义传统试图把类似性理解成比例。第二种传统把类似性追溯到我们身体的经验。第三种方法以外推的风格接近类似性来反对难以置信的经典传统。莱勒特当然属于第一阵营。马克·约翰逊和乔治·莱科夫(George Lakoff)属于第二阵营。而海德格尔,梅洛-庞蒂以及布迪厄属于第三阵营。
  庞蒂提到了在学习和推断礼物交换行为中风格的作用。很可能是不同的文化有不同的风格——侵略型的、被动型的,控制型的等等。婴儿学习的首先是这些无所不在的风格,接下来这些引导他们所注意和模仿的内容。如果是这样,我们会期待风格在所关注的类似性以及用于组织经验知识的隐喻中发挥重要作用。但是,风格在GOFAI中通常被忽视。唯一看到了它的重要性的人工智能研究者是道格拉斯·霍夫斯塔特(Douglas Hofstadter),但即便是他也未提出过任何涉及风格的有说服力的建议。
  考虑到这个问题的解决方案对于其系统的成功是必不可少的,莱勒特关于类似性的言论语焉不详。然而,他所说的确实得出了理性主义者的进路并足够详细地揭示了其难以置信性。莱勒特对隐喻和类似性的敏感是引人注意和有说服力的。
  “几乎每个句子都包括了隐喻和类似性。一个中性的例子:这是今天我们看过的第一篇文章(1987年4月7日),《华尔街日报》的头条新闻:‘德士古在与宾州石油的法律战斗中输掉了主要的判决,最高法院撤销了德士古对缴付120亿美元巨额债券上诉保结的保护,迫使德士古接近根据破产法第 11章申请破产的边缘。’输了?主要的?战斗?撤销?缴付?巨额的?迫使?边缘?这个例子讲清楚了(drives home)此点:即不但不是(far from)过度夸大(overinflating)对语言理解中真实世界知识的需要,而且通常关于消除歧义的观点也仅仅只是浅尝辄止(scratch the surface)。(驾驶?家?此点?遥远?过度膨胀?抓挠?表面?哦不,我不能叫它停止(call a halt to this)!(呼叫?停止?))”
  然而,莱勒特对于隐喻在原语上(in primitives)“探明(bottom out)”的信心,是没有说服力的,也不是可为之辩解的。他简单地声称:
  “这些类似性和隐喻的各个层次最后在物理—身体—原语层次上“探明”:上、下、前进、后退、痛、冷、在里面、看、睡觉、品尝、成长、包含、移动、发出噪音、听、出生、死亡、拉紧、筋疲力尽,。。。。。”
  而所有这些都是身体原语的事实似乎一点都不让他困扰。
  虽然如此,莱勒特仍问了一个正确的问题:“程序怎样自动发现良好的匹配?”但他给出了一个过分简化的理性主义者的回答:“如果A和B似乎有一些未解释的相似性,那么就值得花时间寻找另外共有的一些特性。”
  这就将问题想当然了。每件事物都与其他事物在无限多的方面上类似。为什么我们应假设去比较其中两项呢?纵使两个框架有许多共同的槽(slot),为什么我们还认为这些是重要的类似性呢?或许这些重要的类似性根本不能被符号化地表征。那些对我们具有内/外、前/后以及上/下维度的主动式身体(active body)感觉的基本作用的支持者,以及那些认为风格的类似性即定义了什么值得比较的人,都认为没有理由考虑关于能被符号化表征的类似性的约束。
  但约翰·塞尔(John Searles)试图把隐喻理解成比例时,他发现象“Sally是一大块冰”的隐喻不能通过列举Sally和一块大的、冰冷的立方体所共有的特征来分析。
  “如果我们确实枚举出冰块的各种不同的明显特征,那么没有一个适合Sally。即便我们另外还认为人们具有关于冰块的不同信念,他们确实仍然还不适合Sally……不诉诸情感不是冰块的特征,因为冰块根本不在这些事情的范围内,如果我们坚持认为冰块确实是不会应答的,那么只要指出这种特性仍然不足以解释隐喻表达的含义……因为在那种意义上篝火也是‘不应答’的。”
  塞尔总结道:
  “这是……所有各种隐喻都发挥作用,而无需任何相似性的内在原理。似乎这正是事实:即我们无需应用任何‘规则’或‘原理’而能够解释某些种类的隐喻的精神能力(mental capacity),而不是纯粹进行某些关联的能力。我不知道有比用‘非表征的精神能力(nonrepresentational mental capacity)’来描述这些能力的更好的说法。”
  迄今我们仅仅讨论了由我们的社会技巧构成的事实和隐喻。这些性质的事实怎么样呢?在事实领域与我们无关的地方,即物理对象的领域,我们需要该领域的理论吗?不太可能。人们处理这些事物的方式有时称为共识物理(commonsense physics)。这导致了令人安慰的假象,即行星不是随机地转动,但服从普遍原理,因此日常对象不会无原则地固定、滑动、掉落和弹回,而是遵循复杂和特别的法则。然而,试图为最简单的日常对象找出共识物理,会导致有很多例外的形式化原理,此原理复杂得让人难以置信它会在儿童的心智中存在。莱勒特由此总结出我们对日常对象如何表现的了解不可能是原理而必须是大量的事实和规则。
  [Cyc的]方法论会进行积累。例如:报纸文章假定他们的读者已经知道的关于“水”的所有事实和启发(heuristics)。这与诸如幼稚的物理学或其他设法找到所有不同形式的“水”的更深层次理论的方法形成对比。
  但是假定没有理由认为有共识物理学的理论,就象没有天国物理学的理论一样,也就没有理由认为我们处理物理对象的知识能够在关于物理对象及其属性的通用数据库中阐明。也许没有一整套上下文无关、足以掌握诸如水这样的日常事物的行为方式的事实。我们可能恰好不得不从大量经验中学习如何响应数以千计的典型情况。这解释了儿童为什么会发现多年来日复一日地玩积木和水是令人着迷的。他们可能学习区分在日常活动中不得不应付的多种典型局势。那么对于象水这样的自然物,也和礼物这样的社会物体一样,常识是建立在如何做(knowing-how)而不是知道(knowing-that)之上,这种技巧(know-how)很可能是存储我们世界经验的方式,而这种经验不涉及符号人工智能所需的对世界的表征。
  这仍未解决人类怎样设法达成目的性行为的重要问题。GOFAI接受的传统观点是用被考虑领域的理论来得出一份完成他们将要所做的任何事情的计划。但这并不暗示人们存储了海量事实然后再计划如何运用它们,直到心理学或神经科学给了我们一个不同想法的理由,我们才相信这样的现象,即当某人有关于领域问题的大量经验时,他完全明白需要做什么。这似乎是当一个人拥有足以使他或她成为领域专家的经验时,经验领域是结构化的,因此他可以直接经验相关的事件和事物,以及体会它们如何相关。海德格尔,梅洛·庞蒂以及格式塔心理学的拥护者会说对象似乎是涉及到的参与者而不是孤立和上下文无关的,但也是借由其自身意义征求响应的事物。
  在本书第一版我曾指出好的棋手似乎不会在每次走子时从头开始计算如何行棋。相反,他们会在当前位置的某些方面进行调整并从那儿开始计算如何走棋(第102页-106页)。在《机器心智》(Mind over Machine)中,斯图阿特走得更远,他指出只是象棋大师可能需要计算做什么,但象棋特级大师只是看作棋盘在要求某种走子方式。
  我们都是日常世界中的大师。考虑进入一个熟悉的类型的房间的经验,我们知道但不会诉诸于某些被房间结构所包含的事实,例如房间有地板、天花板和墙壁,墙壁上有窗户,以及地板上有家具。相反,我们关于房间通常如何呈现行为的感觉,以及处理我们通过慢步走过许多房间的经验的技巧,给予了我们相关性(relevance)的感觉。如果我们不是看门人,就不会熟练地处理灰尘,也不会注意到窗户是开着还是关着,除非感到闷热,那样我们就知道如何做才恰当。我们涉及关于房间的技能时时刻刻都在决定我们用什么来处理和用什么来忽略(但准备应用它时应该是一个合适的时机出现了)。这种全局性的熟悉(familiarity)把我们对房间的以往经验映射到当前动作,因此明显感性地经验到每个时点上什么是适合的,或者说简单地引导出需要做什么。
  通常,在自然和社会世界中拥有海量经验的人类具有事物如何完成以及可期待到什么的直感。因此,无需基于对上下文无关事实的无目的表征的规划,我们全局性的熟悉(familiarity)使我们能回答什么是相关的以及忽略掉无关的内容。这种熟悉完全不同于我们对不熟悉的房间的知识,例如17世纪贵族的房间。在那种房间中,我们的知识看上去象一个数据库可能具有的那类知识。但是即使詹姆士一世时期的客厅及其摆设都各在其位的话,我们仍然会找不到方向。我们不会知道应注意什么或者如何恰当行动。
  全局感性(或者其想象)决定了局势相关性,因为我们的世界是由那些前概念的意义组织的。就它们而言,对象和事件是作为某种事物被经验的。它们所产生的我们的日常应对技巧以及全局性的熟悉决定了什么被当作事实,以及所有事实的相关性,在GOFAI用于表征这些事实的框架和槽的组织中已经假定如此。这也是当人类学习区分局势更多的不同方面时,为什么处理得更容易和更熟练,但是,对于框架和规则的数据库而言,提到它们越多,检索所相关的内容将变得越来越困难。
  莱勒特似乎确实是正确的:即把Cyc项目看作产生广泛、灵活的人类智能的人工智能梦想的最后防卫。的确,Cyc项目正是因为其勇气和雄心,才比以往任何项目更多地面临基于符号表征的智能引起的问题。正如我们所看到的,针对符号人工智能以事实和规则的智能运用作为开端,我们预先假设了确定“什么可以看作类似于什么(what counts as similar to what)”的身体和风格背景上的敏感性,以及确定什么被显示为相关的背景应对的熟稔性(background coping familiarity)。对背景条件进行分析的希望,就有可能被隔离处理和认知的特征而言,表面上看来难以置信。曾经支持物理符号系统假说的唯一论点是理解等于分析的理性主义者假设,因此所有的经验必须是可分析的(即必须有一个对每个可理解领域的理论),或者是GOFAI对心智必须是一个符号操作器的回答,因为没有人知道可能会是别的什么。现在这两种观点均已丧失了可信性,仅保留了这样的实用主义观点:即GOFAI会通过产生智能机器来演示其可能性。迄今为止此类主张还未成功,而Cyc项目面临着原来所有最令人生畏的难题。这个项目还要继续5年多时间,但莱勒特没有让我们乐观的理由。看来很有可能到本世纪末表征主义人工智能的理性主义梦想将破灭。
  对于三类不同的人工智能研究者来说,现在他们的工作聚焦在非传统的研究方法,GOFAI已被放弃。这类研究方法中的一种与菲利普· 阿吉(Philip Arge)和大卫·查普曼(David Chapman)有关,即试图不使用上下文无关的符号表征或内置的基于模型的规划方法,生成与微世界智能交互的程序。由神经网络建模者代表的第二类,也完全放弃了符号表征。这种方法利用了常规特征,但通过从专家提供的示例中推断以及对输入的直接映射来产生输出。人工智能的第三类新研究方法,称为强化学习,其目标是开发无需专家的程序,并使用在技能领域中的实际表现来独立地找到成功的输入-输出变换规则。仔细考虑这些新方法的优点和限制是值得的。
  交互主义者对使用世界的符号模型的海德格尔式批评是敏感的,并试图把海德格尔的进行中的熟练应对技巧(ongoing skillful coping)的解释改写为一个备选的研究纲领。在麻省理工学院已开发了这种方法,有时被称为海德格尔式的人工智能。特瑞· 温诺格拉德(Terry Winograd),第一个把海德格尔引入到他的计算机科学课程中,他描述了这个令人惊奇的新发展:
  “对那些追随人工智能历史的人来说,具有讽刺意味的是[麻省理工学院的]实验室会成为‘海德格尔式的人工智能’的摇篮。正是在麻省理工学院德雷福斯首次明确表达了他的批评,而20年来人工智能实验室的智识氛围(intellectual atmosphere)对承认他言论中的含义明显是敌对的。尽管如此,该实验室现在完成的某些工作似乎受到了海德格尔和德雷福斯的影响。”
  温诺格拉德提到的人工智能实验室的工作是由阿吉(Arge)和查普曼(Chapman)提出的有影响力的活动理论(theory of activity),它在两个用于计算机游戏的程序:Pengi和Sonja中实现。阿吉和查普曼质疑世界需要内部符号模型来表征技能领域(skill domain)的上下文无关特性。追随海德格尔,他们指出在我们的日常应对(everyday coping)中,我们是在经验自己(experience ourselves),不是以在具有固定特性的物体之上的精神表征去经验主体(subject),而是沉浸于我们当下的局势之中,并直接响应其需求。
  交互式人工智能认真地采取了本书中我归功于海德格尔的观点——即通常在我们的心灵中无需世界的表征,因为发现事务当下状态的最佳途径就是当我们经验世界时去面对它。查普曼告诉我们:
  “如果你想发现关于影响我们应如何行动的世界的某些东西,你通常只可以看和观察。具体的行动主要与此时此地(here-and-now)相关。你多半不必担心之前和几乎在将来的事情,或者说物理上不是当下的事情。你不需要坚持一个世界模型;世界就是它自己最好的表征。”
  阿吉和查普曼也采纳了斯图亚特和我在《机器心智》中发展的另一种海德格尔的理论,即行为可以具有目的性,而无需在心智中拥有目标或目的的代理体(agent)。
  “在大量场景下,下一步做什么显然在手头已有的材料配置中(configuration of materials)给出。而一旦你那样做了,接下来要做的事情可能也是显而易见的。复杂的行动结果序列,并不需要一个复杂的控制结构来决定你所要做的事情。”
  阿吉和查普曼工作中原创性的和重要的部分是这些思路超越了空想的现象学王国,具体到足以通过程序实现。它所导致的是一个表征世界的系统,不是一组具有属性的对象,而是作为当前的功能(海德格尔称为“为….”)。例如,举一个海德格尔式的例子,我经验的我正在使用的锤子不是一个具有属性的对象,而是为了把钉子敲进去(in-order-to-drive-in-the-nail)。只要有一些干扰,有经验的执行者就会注意到我所声称的情形。在海德格尔的例子中,木匠注意到锤子太重。上述两种存在的方式,海德格尔称之为上手的(ready-to-hand)与不上手的(unready-to-hand),与他称为存在的在手(presnet-at-hand)模式区分开来,那是稳定性事物的存在方式。对象可以被辨识为相同的,即使它们在不同的上下文中使用或者它们的一些属性发生变化。这样具有变化特征或属性的可重新识别的对象是GOFAI模型中表征的存在的唯一模式。交互主义者寻求表征上手和不上手的模式。查普曼就“指称性表征(deictic representations)”说道:
  “我们所使用的这类表征是客观的:它们不应用表征代理体(representing agent)而表征世界。指称性表征依据它们与代理的关系来表征事物。指称性表征的单位是实体以及这些实体之间的关系视角,实体是与代理具有特定关系的事。例如,’我正在喝水的杯子(the-cup-I-am-drinking-from)’是实体的名称,而’我正在喝水的杯子几乎是空的’(the-cup-I-am-drinking-from-is-almost-empty)是它的关系的名称。’我正在喝水的杯子’是以代理的方式和关系视角的使用时机来定义的。”相同的指称指涉不同的杯子取决于这是谁的表征以及何时用此表征。它被功能性地定义,即根据代理的目的:喝(drinking)。”
  在交互式编程中另一个受海德格尔启发的重要创新是目的性动作(purposive action)的实现。GOFAI的规划者搜索可能的动作序列空间以确定如何从当前局势的符号表征到达指定目标。动作的交互性方法规定了从局势直接到动作的映射(mapping)。
  交互式人工智能已经实现了海德格尔的日常应对(everyday coping)的现象学,但没有试图在将确定装置(certain equipment)视为相关的,以及请求我的行动的确定过程的基础上,去实现他背景熟悉度(background familiarity)的解释。这个差距暴露了查普曼对相关性的解释不能令人满意。查普曼告诉我们:“代理体表征与局势最为相关的方面”。但此点证明了意味着在所有的GOFAI程序中,程序员要事先消化和理解领域知识,然后为系统确定在任意给定时刻中哪些是可能相关的特征。
  迄今为止看上去好象海德格尔式的人工智能适用于海德格尔的现象学,其现象学中遗漏了长程规划(long-range planning)和具备上下文无关特征、可重新识别的对象的内部表征,但是它也缺乏任何智能系统所需的东西,即在技能域(skill domain)中区分出相关差别和从经验中学习新的差异的能力。为了提供这种关键性的能力,越来越多的研究者指望仿真神经网络。因此我们转向这种网络是否能展示我称之为熟悉度或者全局感知(global sensitivity)的问题,如果不能的话,它们是否能以某些方式应对相关性和学习(这里我对“我们”的用法是不恰当的但是是确实的,因为我的兄弟斯图阿特对本导言的余下部分做出了必不可少的贡献)。
  我们已经提到过神经网络建模,它是对“可能是别的什么”(what-else-could-it-be )的问题的时髦答案,清除了GOFAI并给予人工智能研究者一种他们从60年代以来所没有的乐观主义。毕竟神经网络可以识别模式然后辨认出类似的情况,而且它们以并行方式去做从而避免了串行处理的瓶颈。但是神经网络提出了重大的哲学问题。似乎它们破坏了基本的理性主义者的假定,即一个人必须抽象出领域的理论以使其在该领域是有智能的。用最简单的话来说,从笛卡尔到早期的维特根斯坦的理解,发现一个理论就意味着发现了基于一个人把确定局势映射到适当响应而言的恒定特征。在物理符号系统中,表征中的符号应该对应这些特征,而程序则把这些特征映射到响应。如我们所见,莱勒特,GOFAI的最后一个传人,假定必然是在这样一个上下文无关的原语中他的本体论会走出低谷。当神经网络变得流行起来时,传统的人工智能研究者假设受训网络中的隐藏节点会检测和学习相关特征,减轻程序员通过试错发现它们的需要。但这已被证明是有问题的。
  神经网络的输入必须,也当然是以问题域中稳定、可识别特征的方式表示。例如,一个被训练成对弈的神经网络会把其输入当作为以棋子类型和位置来定义的棋盘局面。问题是一个学习对弈的神经网络是否检测了高阶(higher-order)特征,例如不平衡的兵卒结构,它把这些特征以此方式组织:将任何共享相同高阶特征的局面映射到相同的走法。如果一个给定的网络通过一组给定示例进行训练,它能在训练之前就能独立地表现出检测到其连接强度(connection strength)的此类高阶特征,那么就能说它能对领域理论进行抽象。例如:如果此类特征能被证明为是象棋大师考虑到的种种特征,那么神经网络就会发现象棋理论家和符号人工智能研究者长期寻找的象棋领域理论。如果这些高阶特征不是领域专家能识别的那类特征,人工智能系统程序员能基于象棋知识发明高阶特征的信念当然会动摇,但是必然有智能行为可能存于其中的领域理论的假定不会受到怀疑。
  然而,理性主义的含义可能要严肃得多。为了捍卫此理论,理性主义者很可能坚持:如果给定一组特别的连接强度作为采用示例训练神经网络的起始点,我们总能识别高阶特征,即使这些特征可能不被专家有意识地使用。考虑由前馈控制激活的二进制单元层次的简单情况,但没有侧向、反馈或者连接。为了从一个已学会某些关联(certain associations)的网络中建构这样的高阶特征,在其所接入的各种连接基础上,当检测任何某个可识别的输入模式何时呈现时(某些模式将会在训练中用到,某些则从未用到),我们能比输入节点高一个层次来解释(interpret)每个节点。如果一个特定节点检测到的一组输入模式被命名(几乎肯定不会有一个现成的),节点可能被解释成如其检测到的高度抽象特征那样。因此,比输入节点高一个层次的每个节点可能都被定性为特征检测者。同样,比那些节点高一级的每个节点可能被解释为检测一个高阶特征,该特征被定义为在第一层次的特征检测者中,一组规定模式的呈现(presence)。在层次结构中向上如此类推。可以为分级的神经元响应(连续的,非二进制)建构同样的故事。然后一个人会说某种程度上一个高阶特征出现了。
  智能被定义为适合于领域的某类关联(association)的知识,而知识总是能以许多技能领域的高度抽象特征中的关系来解释,然而这个事实不支持理性主义者那种获取领域基本结构的解释性特征的直觉。关键问题是:如果训练几个具有不同初始连接强度的神经网络生成一组给定的输入/输出映射,同样的高阶特征是否会从中被检测出,或者至少在某种抽象级别上,所有这些网络能被视为抽象的等价不变性。
  没有发现这样的不变性。最彻底的搜索涉及一个叫做NETtalk的神经网络,它把打印文本转换成语音。NETtalk被给予几页文本,加上文本中每7个字符串的中间字母的正确发音。神经网络开始时是随机的连接强度,对文本的阅读听起来象噪音。在使用反向传播算法 —— 一种反复改变连接强度的技术训练很多小时后,每一次带来的实际输出更加接近于正确输出,神经网络学会了以一种本地说话者容易理解的方式大声地阅读文本。但是当网络正在生成正确的响应时,采用不同初始连接强度的隐含节点活动的仔细分析,在尝试中不能发现一致的高阶特征。这样我们可以说迄今为止神经网络研究有助于证实应对(coping)无需对技能域理论(theory of skill domain )进行抽象的信念。对理性主义而言这是一个坏消息,但却给予神经网络超越GOFAI的巨大优势。
  然而,常识知识问题(commonsense-knowledge problem)再次出现在这个工作中,而且如同它在GOFAI中所作的那样威胁到神经网络的研究进展。所有的多层感知神经网络建模者都同意智能的神经网络必须能够泛化(generalization);例如,对一个给定的分类任务而言,只要给出与一个特定输出相关联的足够多的输入的示例,就可以把接下来的相同类型的输入关联到同样的输出。但是什么算是相同类型呢?神经网络设计者通常在心中有一个合理通用化所需的“类型”的特殊定义,并且如果神经网络能泛化其它的这类实例,就当作是成功的。但是当一个神经网络产生了未预料到的关联时,能够说它泛化失败了吗?一个人同样可能说神经网络始终对“类型”的不同定义起作用以及那种差别刚刚被揭示。
  作为一个有趣和生动的创新性但是非智能的泛化示例,考虑连接主义首批应用中的一个程序。在这项工作的早期,军方尝试训练神经网络识别森林中的坦克。他们先提供许多没有坦克的森林的图片,然后晚些时候取出带有在树木背后清晰突出来的坦克的森林图片。结果令人印象深刻,当证实神经网络能够泛化不属于训练集合中的图片的知识时,则给军方更加深刻的印象。然而,只是为了确保神经网络确实能识别局部被隐藏的坦克,研究者取出了相同森林的更多图片并出示给被训练的神经网络。他们沮丧地发现神经网络不能区分背后藏有坦克的树木的新图片和只有树木的新图片。在苦恼一阵子后,当某人注意到没有坦克的森林的原始图片是在阴天拍摄,而有坦克的森林图片是在晴天拍摄时,谜团终于解开了。神经网络显然学会了认识和泛化有阴影和无阴影森林的差异!这个例子说明了神经网络如果要分享我们对恰当泛化(appropriate generalization)的感觉的话,就必须共享我们对世界的常识性理解(commonsense understanding)的一般要点。
  我们可能仍然希望与大脑不同的神经网络会产生令人激动的新泛化并对我们的智能有所裨益。毕竟检测阴影就如检测坦克一样合理。然而通常一个不能学会我们的泛化和把我们的实践应用于新局势的装置应被称为是愚蠢的。例如,由于我们身体的原因,我们通常把对称的物体看作类似的。如果一个系统总是把其他都相同的物体的各种镜像区分为不同的,但把投射相同阴影或者在上面有红色的物体区分为相同的,我们就不会认为它增加我们的智能,而是当作不可教的,简而言之,就加入我们的社会或者给予我们所关心的洞见而言还是愚蠢的。对于有趣但是非智能的分类练习而言,考虑乔治·路易斯·波奇的“‘某种汉语百科全书’的故事,其中写道‘动物分为:(a)属于皇帝的;(b)有香味的;(c)驯化的;(d)吮吸的猪;(e)警报器;(f)寓言的;(g)迷途的狗;(h)包含在当前分类中的;(i)狂乱的;(j)数不清的;(k)用非常好的驼毛刷画出来的;(l)等等;(m)打破了水罐;(n)那个从远处看象苍蝇的’”。
  神经网络建模者一开始对他们的网络直到训练前是空白的石板(白板)很高兴,这样设计者就不必识别和提供象预先训练的智能的东西。然而近来他们也被生成合适的、类人的泛化的问题所迫,认识到如果不是可能的泛化类被合适的先验方式限制的话,就不能有信心地期待象人类那样的泛化。因此,在事先识别这类适合于问题(假设空间)的、可容许的类人泛化之后,这些建模者然后试图设计他们的网络结构,以致仅以处在假设空间内的方式来把输入转换成输出。泛化仅基于设计者的术语而言才会是可能的。当几个示例将不足以独一无二地识别假设空间中的合适成员时,在足够多的示例后,仅有一个假设会解释所有示例。然后神经网络将学会合适的泛化原则。也就是说,接下来的所有输入会产生从设计者的观点来看是正确的那些输出。
  这里的问题是设计者依靠神经网络的结构来确定某些可能的泛化从不会被发现。所有这一切适合于玩具问题,在其中不会质疑是什么组成了合理的泛化,但在真实世界的场景中,大部分的人类智能在于以适合于上下文的方式泛化。如果设计者把神经网络限制在那类预先定义的合适输出中,则网络将展现设计者为上下文环境而内置的智能,但不会拥有常识而使它能适应其他上下文环境,就如真正的人类智能那样。
  如果神经网络要共享我们合适泛化的感觉,可能它必须与人类大脑共享尺寸、结构和初始的连接配置。当然,缺乏泛化的原则性方法,但却偶然性地特定(ad hoc)成功的神经网络研究者,似乎仍处于当时我在60年代所写的GOFAI研究者的阶段。看上去很可能是被忽视后又复活的连接主义纲领仅仅只是正在获取一个应得的失败机会。
  为了以人类那样的方式进行泛化,神经网络结构不得不以这样的方式设计:即网络会以人类相关的特征那样去响应局势。这些特征必须基于已表明是重要的过去的经验,也基于决定了局势的观察视角(perspective)的新近经验。只有如此神经网络才能这样进入局势:采用基于视角的类人的期望,这种期望既允许识别不在当前局势中的有意义的期望输入,也允许识别非期望的输入(如树林中的坦克)。当前没有神经网络表现出这些能力,也无人知晓甚至推测出我们的大脑结构如何产生这些。
  通过对神经网络的监督训练来实现人工智能的途径还有另一个基本问题。在GOFAI中长期以来清楚的是无论系统展现出怎样的智能,它会被系统设计者明确识别并编程实现。系统没有独立的学习能力,该能力可以识别被传授的规则是不恰当的那种局势并构造新的规则。神经网络似乎确实拥有学习能力,但在监督训练的情形下,决定哪些情况是良好示例的人对智能有所裨益确实是真的。神经网络所学习的仅仅只是根据连接强度来如何捕获智能。因此神经网络象GOFAI系统一样,缺乏识别这样的局势的能力:即在局势中所学的是不合适的。相反,人类用户可以识别缺陷(failure),或者修正神经网络已被训练好的局势输出,或者提供新的案例来引导行为上的适当修正。当正在使用神经网络的环境经历结构性的变化时,会出现最困难的局势。例如,考虑1973年石油输出国组织(OPEC)挑起能源危机时这种局面就出现了。在这样的局势中,很可能发生人类培训师(human trainer)甚至不知道当前的响应是正确的并且应该用于重新训练神经网络。从这个角度来看,神经网络几乎象GOFAI系统那样依赖于人类智能,而他们炫耀的学习能力几近幻觉。我们真正所需要的是独立学习如何应对环境并在环境变化时修正其自身输出的系统。
  为满足这个需要,近来的研究已经转向有时被称为“强化学习(reinforcement learning)”的进路。这种进路有两点优于监督学习(supervised learning)。首先,监督学习需要被告知对每种局势的正确反应的策略(device)。强化学习仅假定世界提供度量行动的即时成本(immediate cost)或受益(benefit)的强化信号(reinforcement signal),然后当求解任何问题时,寻求对接受的总体强化(total reinforcement)进行最小化或者最大化。用这种方式逐渐从经验中学习在不同局势下采取的最佳行动以便完成长期目标。为了学习熟练的应对技巧(skillful coping),策略(device)不需要全能教师而只需世界的反馈。其次,在监督学习中,技能环境的任何变化需要知道在新环境中做什么的专家的新的监督,新环境自动导致使策略适当地适应的强化改变(changes in reinforcement)。
  一个例子将彻底澄清最基本形式的强化学习是什么。设想一个策略(device)是从重复的经验里学习城市中从A点到B点的最短路径。策略知道身在何处(当前状态)和可能的行进方向(容许的当前行动空间)。在它选择一个行动(方向)后,观察到达下一个交叉点(下一个决策点)的距离。这个成本是它的即时强化,它也观察下一个交叉点的位置(新局势)。标准的人工智能进路将基于经验使策略创建城市的内部地图,然后使用地图和一些计算算法来确定最短路径。象海德格尔式人工智能的新进路,无需模型和长程规划(long-range planning)。策略改为反复地取从A到B的不同路径,学习在每个交叉路口应往哪个方向走,以建立从给定交叉路口到达B的最短路径。它并不是尝试多个可选路径并记住其中的最佳路径,而只是逐渐学习在每个交叉路口最佳决策之外的信息片段,也就是从交叉路口到B的最短距离。这就是对交叉路口的“评值(value)”。在对到达下一个交叉路口距离的每一次观察和决定之后,强化算法根据所处交叉路口分值的当前估算以及要前往的下一个路口来评估决策。如果看上去这是一个好决策,则导致在未来再次碰到路径问题且发现自己身处同一路口时,更可能选择该决策。
  迄今为止我们已经描述了在给定局势给定行动中的问题总是导致相同的下一个局势和同样的即时强化(immediate reinforcement),但该方法(approach)同样适用于概率环境,策略在此环境中搜寻使长期强化期望值最小化或最大化的行动。然后从局势中学到的评值是最小或最大的期望值。我们引用一个示例,强化学习的概念(与其它不太象大脑那样工作但又加快了学习效率的机制一起)被试用在十五子棋的随机游戏中。一个运行数万个游戏与自己对弈的程序,没有游戏专家的原理或专家提供的位置价值或正确走子方式的指导,很好地学会了位置的期望值,足以按照一流的人类参赛选手的水平对弈。它与任何采用更多传统人工智能或者监督学习方法(supervised learning methods)的电脑程序一样熟练。
  所有这些都与现象吻合。我们人类的大多数技能都涉及到进化环境中的行为,无师自通地借助环境反馈,从试错中学会(或者有时从初始的传授中所习得的经验微调中学会)。此外,通常当专家不能获得解释他们能力的信息时,会轻易和快速地评估局面的价值或吸引力并推荐合适的行动。
  倘若强化学习的概念正确地抓住了技能学习中人类智能的本质,问题自然就产生了,个人能建立这样的策略吗?——至少在特定领域内,这个策略与专家所用到的表面上可信的强化学习最小本质的策略做得一样好。在目前的实践中至少需要两项改进,就当前知识而言它们看来都不能完成。首先,如果强化学习用于这样的问题:其可能遭遇的局势数量远远超过在训练中实际遭遇的数量,因此需要一些针对新局势指派相当精确的行动和评分的方法。其次,如果强化学习用来提供象人类智能的东西,那么强化学习策略必须在遭遇某个视角下的局势并主动寻求相关输入时表现出全局敏感性。
  首先考虑单一局势下的行为问题。这个问题由两个过程处理。第一个是基于从其它局势中学到的行动或评分,对原来较少遭遇的局面生成行动或评分值的自动泛化过程。第二个是把某人的行动建立在仅是局势特性总体的一个子集上,并把评分值附加到仅以这些相关特性为基础的局势;这样我们就通过对所有局势共享相同的特性值而不用管那些不相关的特性来概括经验。行动的选择或者评分从共享这些相关特性局势的经验来学习。这两种方法还不令人满意。关于自动泛化过程,在需要泛化的位置点上,局势与监督学习面临的局势完全一样。无人具备如何获得这个以类人智能所需的方式来泛化的网络或任何其它机制的概念。
  上面提到的第二个问题——学会局势中哪些特性应被作为相关子集并用于决定行动和评分——同样困难。仅仅只在确定了事务的这种状态是哪类局势时,一个人才能发现事务当前状态的哪些特征是相关的。但是这需要检索先前的相关局势。这个问题可以被称为“相关性循环”(circularity of relevance)。为评估它的含义,想象一个棒球队老板给球队经理一台电脑,该台电脑加载了有关每名队员在不同条件下的表现的事实。某一天,在最后一局末咨询电脑后,经理决定用替补投手B换下场上的投手A。替补投手打出一记全垒打,球队赢得了比赛。但是球队老板感到苦恼并指责经理误用了电脑,因为它清晰地表明B的击球率比A要低。然而经理会说,电脑也指出B在日场比赛中有较高的击球率,而这正是日场比赛。老板回应是的,但电脑也表明他对左撇子投手的击中率要低,而今天的投手中正好有左撇子……等等,诸如此类。要点在于经理的专业经验,而一般来说这种专业经验在于能对相关事实做出响应。电脑通过提供比经理能记住的更多事实来提供帮助,但是只有专业经验使经理能把事务的当前状态看作特定局势从而了解哪些特性是相关的。那种专家级的诀窍(expert know- how)不能藉由添加更多事实来装入电脑,因为问题是哪一个才是当前正确的视角,从此视角可确定哪类事实是相关的。
  目前的过程企图通过试错学习中对某些统计数据的跟踪来了解相关性。查普曼(Chapman)和克尔泊林(Kaelbling)提出的过程是以没有特征与行动或价值评估相关而开始的,也就是说,无论局势是什么,都采取同样的行动,而且所有的局势应附加同样的评分值。然后,对局面每个可能相关的特征,过程跟踪并记录当特征取每个可能值时(经常恰好是“当前值”或“非当前值”)事情如何推进的统计数据。如果在当前统计数据的基础上,特征取值似乎足以影响行动或者评分,就会被宣称为相关的。由于发现的相关特征集合的增长,局势会收到逐步更好的描述。
  这类含糊的东西可能就是大脑所做的。但是,存在带有如上所述特定过程及其变化的严肃问题。首先,一个特征就其自身而言可能与行为无关,但当它与另一个或者更多的特征组合在一起时可能是相关的。为了消除这个问题,我们需要搜集关于特征组合相关性的统计数据,而这将导致可能重要的统计数据的指数爆炸。
  其次,这个进路假定特征的相关性是问题域的属性;所测量的是所有遭遇的局势中的特征的相关性。但是一个特征可能在某些局势下是相关的,其他局势下不是。因此我们会针对每个局势分别搜集相关性数据,这又导致搜集的统计数据数量的指数增长。因此搜集统计数据,对于当前计算机过程处理智能行为中的相关性的确定(relevance-determination)而言,看来不是一个切合实际的方法。如我们所了解的,如果给出大脑的大小和结构,很可能并不令人意外的是:如果不搜集不切实际的数量的统计数据,当前没人知道怎样处理这个问题。
  相关的第三个问题是某些局势中有可能想到的相关特征的数量没有限制。我们不能简单地从所有可能相关的特征开始,针对每个特征搜集数据,然后省去那些根据经验能有把握忽略的特征。但是如果我们从一个可能相关的特征的有限集合开始,则在当前集合证明不足以解释关于强化的已学习事实和局势演变时,没有已知的方法来添加新特征。
  因此大脑怎么做的?没人知道。但是某些事实可能相关。首先,看来是经验从统计意义上确定了单个神经突触连接,因此,大脑用数十万亿的可调节突触,确实能在一个远超当前和可预见的计算机的规模上积累统计信息。其次,当前研究的强化学习过程一般生成的是这种含义的简单刺激-响应行为(stimulus-response behavior),即把局势描述的输入,直接映射转发(forward into)为一个行为或者局势评分值的输出。大脑显然具有内部状态,即当输入到达时,我们经验的与隐藏神经元的当前活动相互关联的情绪、预感和亲密。这些由大脑最近的输入和在较久过去经验基础上发展的突触链接强度确定,而且这些输入也确定了输出。原则上某人能通过把策略(device)的当前内部状态加到局势描述中,从而在强化学习过程内包括了这样的内部状态,一些研究者业已转到此方向。实际上,这样一个扩展过程:其内部状态基于近期事件被视为处理问题的视角,会允许把这个视角结合进神经模型中。但由于无人知道如何恰当地结合这些内部状态,因此在成功模仿人类行为之前需要突破。
  最重要的是,已经有证据表明内部的大脑状态与输入交互,然后反馈它的输出到运动控制神经元(motor-control neurons),并返回到输入路径,通过运动控制来影响接收器(receptors)因此它们能主动搜寻信息,同时藉由进入输入路径的反馈来影响已感知到的相关性。这是能使一个有经验的人在他或她的技能领域内直接明了何者是相关的全局感(global sensitivity)现象的大脑基础。这种基于知觉输入交互和内部大脑状态的反馈会是处理信息拾取(information pickup)和相关性问题的强大机制,但是目前尚不理解这种机制的细节,哪怕是假设以某种方式引导人工智能研究。这样似乎是合理的:相信此机制存在大脑中并且原则上可理解,且硬件上可复制,以此在受限领域(restricted domains)内生成人工智能,强化学习只是往这个正确方向的一小步,而同时认为我们当前对大脑的忽视和计算机内存容量的实际限制,使得在可预见的将来,对这种大脑启发式的人工智能(brain-inspired AI)的重大进展变得极不可能。
  即使解决了上述实际问题,仍有一个问题存在。在强化学习的所有应用中,程序员必须使用他或者她关于问题的知识,对指定每一步骤所接收的即时强化的规则进行形式化。对于路径问题和游戏,问题的客观属性(objective nature)确定了规则。但是,如果问题涉及人类应对(human coping),那么没有关于何者构成即时强化的客观答案。即使为了最大化总体的满意感,我们对人类行为做出过于简单的观点假设,产生如此行为的强化学习路径也会需要规则来确定源于每个可能局势的每个可能行动中的即时满足(immediate satisfaction)。但是人类没有或不需要这样的规则。我们的需要、渴望和情感藉由关于我们行为适当性的感觉直接呈现给我们。如果这些需要、渴望和情感轮流依赖于被社会化到文化中的生物躯体的能力和弱点,那么即使强化学习策略仍有很长的路要走。
  那么……,人工智能中的所有工作,都面临深深的困境。如果某人试图建立一个GOFAI系统,他发现不得不在一个信念系统中,来表征人类仅仅只需要成为有技巧(skilled)的“人”就能理解的一切。在这本书第二版我写的导言中,简单地通过具备具身性(embodied)和有技巧性来使人类所理解的事物足够显著,以成功地对计算机进行编程来显示常识(common sense)的极度不可能性,导致我转向与GOFAI研究纲领相关的怀疑主义。高兴地是,机器学习的近期研究,不需要表征仅仅作为一个“人”就理解的所有一切。然而,如我们刚才所看到的,又会遭遇困境的另一个棘手问题。某人需要足以分享人类关注和结构的学习策略来学会泛化人类的行事方式。

译者附注
  
  《计算机仍然不能做什么——人工理性批判》是著名哲学家Hubert L.Dreyfus于1972年出版的《计算机不能做什么——人工智能的极限》的第三版,虽说是第三版,其实这本书1972,1979,1992年的三个版本的正文几乎完全一样,不同的主要是每一个版本中正文之前很长的一段序言,1972年出第二版时,书名没有更改,仅仅增加了一个修订版序言,1992年出第三版时,出版商从Harper & Row换成了麻省理工学院出版社,书名也换成了《计算机仍然不能做什么——人工理性批判》。
  这本书在Wikimedia和相关计算机或人工智能史的材料上都能找到介绍,是研究人工智能和认知科学史的重要文献。但这三个版本的奇怪之处,却要做一下交代。
  作者的第一版主要是批判人工智能学科诞生以来头10年(即1957-1967)的不切实际的研究纲领,其内容主要分为四个部分。
  第一部分的标题是:人工智能研究十年,主要回顾了1957-1967年人工智能研究的成果——但更多地是将其中出现的重大方法论问题。
  第二部分的标题是:坚定的乐观主义后面的假想,主要讨论了早期人工智能研究纲领中的一些假设,包括生物学、心理学、认识论、本体论,Dreyfus完全以一个哲学家的眼光来看待作为工程技术的人工智能后面的科学或形而上学假设。
  第三部分的标题是:传统假想的更换,主要提出了人工智能应该从哪些方面来调整其假设,才能避免重大的方法论问题和走入死胡同。
  第四部分的标题是:人工智能的范围和极限。主要提出了人工智能在哪些认识和实践领域可以发挥作用,哪些领域是受限制的以及人工智能的未来。Dreyfus认为在新的科学原理发展起来以前,人工智能就像炼金术一样。
  第一版中把人工智能比喻成炼金术,在当时引起了激烈的论战,影响深远。1975年认知科学作为一门横断学科(按钱学森术语:即指思维科学)独立出来,而人工智能逐渐成为一门工程实践性很强的技术学科。现在在各个大学里,认知科学研究中心或者设在心理学系,或者设在哲学系,个别实力强的大学设立单独的跨学科的认知科学研究中心,但人工智能专业毫无例外,一般都设立在计算机系。可以这么说,人工智能和认知科学任务的清晰化和分裂,与哲学家,尤其是Dreyfus(还有John Searles)的哲学批判密不可分。
  
  Dreyfus自始自终没有改变过他对人工智能的批判观点,因此1979年当此书出修订版时,他仅仅增加了一个长达70余页(中译本)的修订版序言,用来对1967-1977年人工智能的新进展进行批判,正文几乎没有改动。
  同样,在1992年出第三版时,Dreyfus增加了一个50余页(英文版)的麻省理工学院版序言,对1977到90年代初人工智能的进展进行批判,正文仍无修改。
  因此,Dreyfus的这本书可以称得上与人工智能的发展与时俱进,看三个序言,就可以知道哲学家心目中人工智能研究纲领的第一个十年、第二个十年及接下来15年的发展与变化。
  三联书店1986年出版了此书的第二版,译者为宁春岩,后来成为著名语言学家、超级左派的公知乔姆斯基的再传弟子,由我国著名的数学家、计算机科学家、语言学家和教育家:北京大学马希文教授作序(马先生已于2000年仙逝,其学生建立的纪念网址为http://www.math.pku.edu.cn/teachers/mxw/)。此中文译本除某些专业词汇或转引的哲学著作读来略觉生硬外,总的来说还算流畅。
  但接下来出现了一个大问题:国内图书馆找不到这本书的第三版,因此对于最重要的第三版的序言,不要说中文译本,就连英文版也几乎找不到,包括上海图书馆和国家图书馆。似乎华南师范大学图书馆有一本,但我却借不到。
  幸好Google数字图书馆已与麻省理工学院出版社达成了版权协议,这样在Google上我找到了这本书英文版的绝大部分内容(个别章节Google上也没有,但碰巧这些没有的章节在第二版中文译本中全有),并通过当时在宾夕法利亚大学的师弟李辉帮助下,获得了部分Google图书馆该书所缺页面的影印扫描件(感谢李辉每次花大量时间给我发如此大的扫描文件)。
  由于近几年工作的繁忙,这个第三版的序言翻译时断时续,最终在2012年初才完成,4月份自己初步校对了一下,对于这个序言的严肃评论,笔者拟近期专题撰文讨论。
  当然在1992年之后,Dreyfus还有一些论文与人工智能界交锋,但限于年龄和精力,已经很难像此书一样系统而完整。1992年之后,最重要的批判应来自于量子物理学家彭罗斯的《皇帝心脑》。但是人工智能学界从上世纪70年代初,一直到本世纪初,始终有人认真地对此书进行一些讨论,确实不多见。而明天,2012年5月11日,北京大学智能科学系组织的一场学术研讨会,主题仍然是“计算机到底能做什么?--人工智能的理论限度”,德雷弗斯此书中译本导言作者马希文教授的高足,厦门大学艺术认知与计算实验室主任周昌乐教授也将参加此次会议,也许这不仅仅是巧合。人类理性智能的极限问题,不仅困扰着哲学家,也困扰着最终目的是完全复制人类智能的计算机科学家。




1



                                                                                                              加入日期 20120701