人工智能:当前的挑战和未来的方向
- 来源:信息化文摘 smarty:if $article.tag?>
- 关键字:人工智能,挑战,未来 smarty:/if?>
- 发布时间:2015-06-29 13:41
如同一位几何学家倾注全部心血,来把那圆形测定,他百般思忖,也无法把他所需要的那个原理探寻,我此刻面对那新奇的景象也是这种情形….
——但丁,《神曲·天堂篇》
虽然使用人工智能技术来解决实际问题说明了它的实用性,但使用这些技术来建立智能的通用科学仍是一个困难的、需要继续研究的问题。在本节,我们将回到把我们引入到人工智能领域并写了本书的那个问题:能否对可以导致智能的过程给出一个形式化的、可计算的说明?
智能的计算特性开始于对计算设备的抽象规范说明。20世纪30年代到50年代的研究开启了这一探索,图灵、波斯特、马尔可夫、丘奇等人在对计算的形式化描述方面做出了极大贡献。
这些研究的目的不是仅仅指出计算的含义,而是还指出有关什么可以被计算方面的限制。通用图灵机(Turing 1950)是研究得最为普遍的规范说明,但是作为产生式系统计算(Post 1943)基础的波斯特重写规则也有很大的贡献。基于部分递归函数的丘奇模型(1941)是一个重要的成果,支持了现代高级函数式语言,例如Scheme、Ocaml和Standard ML。
理论学家们已经证明,所有这些形式方法都具有等价的计算能力,即一种形式方法可计算的任意函数也能被其他形式方法所计算。事实上,可以说通用图灵机等价于现代的任意计算设备。基于这些结果,丘奇一图灵命题给出了更为有力的论据,即没有哪个计算模型能够定义得比这些已知模型更强。一旦我们建立了计算规范的等价性,我们就从这些规范的机械化工具中解放出来:我们可以用电子管、硅芯片、细胞质或者普通玩具实现我们的算法。在一种媒介上的自动设计机制等价于在另外一种媒介上设计的机制。因此当我们在一种媒介上来测试在另一种媒介上实现的机制时,这就使得经验式探索的方法变得更加重要。
有一种可能就是图灵和波斯特的通用机器也许太泛化、太通用了。这里矛盾的是,智能可能并不需要很强的带集中控制的计算机制。Levesque和Brachman(1985)建议人的智能可能需要更多的计算性的有效的表示(比如用于推理的Horn子句)、对基础文字(ground literal)的实际知识的约束以及可计算跟踪的真值维护系统的使用。智能的基于主体的模型和涌现模型似乎也支持这种哲学。
由我们的机制模型的形式化等价性所引出的另一个论点是,二元性问题和心身( mind-body)问题。从笛卡儿时代(见1.1节)以后,哲学家们就提出了智能、意识和身体之间的交互和整合问题。他们给出了每种可能的反映,从完全的唯物主义到对物质存在的否定,甚至到支持上帝的介入!人工智能和认知科学的研究否认了笛卡儿的二元论,而支持基于物理实现或者符号实例的智能的物质模型,支持管理这些符号的计算机制的形式化规范,支持表示范例的等价性,支持在具体模型中知识和技能的机械化。这种研究的成功表明了这种模型的有效性( Johnson-Laird1988, Dennett 1987, Luger et al.2002).
关于物理系统中智能的认识论基础,仍然还有许多问题。我们再次总结了以下几个重要问题:
1)表示问题。纽维尔和西蒙假定物理符号系统和搜索对于智能的特性是充分必要的(见
16.1节)。神经模型或子符号模型的成功、智能的遗传和涌现方法的成功是否是对物理符号假设的一种驳斥,或者它们是这种假设的简单实例吗?
连这种假设的弱解释——物理符号系统是智能的一个充分模型——在现代认知科学领域中也产生了许多强大的、有用的结果。这种观点认为,我们可以实现那些能说明智能行为的物理符号系统。充分性使得我们能够为人所具有的许多方面的性能创建和测试基于符号的模型( Pyly-shyn 1984,Posner 1989)。但是这个假设的强解释——物理符号系统和搜索对于智能活动是必要的——仍然是个有待研究和解决的问题(Searle 1980,Weizenbaum 1976,Winograd and Flores1986, Dreyfus 1985, Penrose 1989).
2)认知中具体化的作用。物理符号系统假设的主要假定之一就是,物理符号系统的特定实例化是与其性能无关的;其主要内容是其形式化结构。许多研究者都对这一点提出了挑战(Searle 1980,Johnson 1987,Agre and Chapman 1987,Brooks 1989,Varela et al.1993),他们指出智能行为的需求要求一种允许主体整合到世界中的物理具体化。现代计算机的结构并不允许这种程度的情形,而是要求一个人工智能通过极端有限的窗口(同时代的输入输出设备)来同世界进行交互。如果这种挑战是正确的,则尽管出现机器智能,它仍需要同时代的计算机提供一个非常相同的接口(对这个主题的更多解释见15.0节自然语言理解中的问题和16.2.2节认识论约束)。
3)文化与智能。传统上,人工智能侧重于把个体智能作为智能的来源;我们的行动好像在说,对于大脑编码和怎样管理知识的方法的解释可能是原始智能的一种完整解释。然而,我们也会认为知识最好被看作是基于社会的,而不是一个个体所构造的。在基于记忆的智能理论中( Edelman 1992),社会本身也带有智能的本质组件。对于智能理论来说,对知识的社会环境和人类行为的理解,同对个体智能/大脑的理解,是同等重要的。
4)刻画解释的本质。在表示传统研究中,大多数模型_二般工作在已经解释好的领域中:即对于解释的上下文,系统设计者通常都会给出一些隐含的、先验约定,在这种约定下,很难随着问题求解过程的进展而将上下文、目标或表示进行转换。目前还很少有成果能够阐明人类构造解释的过程。
Tarskian的观点,即将语义作为符号和对象之间的映射,还是太弱并不能解释一些事实,如一个领域在不同实践目标的指引下可能会有不同的解释。语言学家试图通过语用理论( Austin1962)来弥补Tarskian语义的局限性。论述分析,基本依赖于上下文中符号的使用,已经在近几年中广泛地讨论了这些问题,但是这个问题涉及的内容事实上还要更加广泛,因为它通常还要处理参考工具的失败(Lave 1988,Grosz and Sidner 1990)。
C.S.Peirce (1958)最先倡导符号语言学的传统,后续的研究者还有Eco、Seboek以及其他学者(Ec0 1976,Grice 1975,Sebeok 1985),他们对于语言采用了更为激进的方法。这种符号语言学的传统把符号表达式放在广泛的记号和记号解释中,它表明,符号的含义只有在它用做解释的上下文中才能够被理解,即在解释的上下文中或在与环境的交互中才能被理解(见16.2.2节)。
5)表示的不确定性。Anderson的表示不确定性猜想(Anderson 1978)指出,在熟练性能的特定动作这种环境下,确定哪种表示模式最接近于人的问题求解器在理论上是不可能的。这种猜想是基于这样的事实,即每个表示模式不可避免地被连接到一个大型的计算结构,就像搜索策略一样。在对人类技能的详细分析中,我们不太可能充分地控制这个过程,使得我们能决定这个表示;也不可能为过程被惟一确定的那些点建立一个表示。由物理的不确定原理,现象可以通过检验这个现象的过程来加以改变,因此,构造智能模型是需要重点关注的,但没有必要限制它们的利用。
但更为重要地,计算模型本身也受到同样的批评,其中符号的归纳偏置和丘奇/图灵假设中的搜索仍未约束一个系统。当科学家简单地要求足够健壮的模型来约束经验问题时,一些优化的表示模式的感知需要可能是理性主义梦想的残留物。一个模型能给出其解释、能预言和能被修改,同样也能够对模型的质量进行证明。
6)设计可以反证的计算模型的必要性。Popper (1959)等人指出科学理论必定是可以反证的,这就是说,必定存在一种环境,,使得在此环境下的这个理论模型并不是对这种现象的成功的近似。明显的原因是,任何数目的确定性实验实例都不能充分地确定一个模型。许多研究是在已有理论的失败的基础上进行的。
物理符号系统假设的一般本质正如智能的情景模型和涌现模型一样,可能会使它们不可能被歪曲,并作为一种模型在使用上受到限制。同样地,可以对关于现象学传统的假设进行批评(见第7点)。一些人工智能数据结构(比如语义网)还是很普通的,使得它们可以建模几乎所有能够描述出的东西,或者正像通用图灵机一样,使得它们可以建模任意的可计算函数。因此,一个人工智能研究者或者认知科学家被问到在什么条件下他们的智能模型不能用时,给出答案经常是很难的。
7)科学方法的局限性。许多研究者们( Winograd and Flores 1986,Weizenbaum 1976)宣称智能的最重要方面就是没有被模型化,并且原则上不可能被模型化,且特别是不能使用任意的符号表示来模型化。这些领域包括学习、自然语言理解、说话动作的产生等。这些问题已经深深地植根于我们的哲学理念中。例如,Winograd和Flores的批评是基于现象学方面的问题(Husserl1970,Heidegger 1962)。
现代人工智能的大部分假设追其根源,可以回溯到Carnap、Frege和Leibniz,再远回溯到Hobbes、Locke和Hume,直至回溯到亚里士多德。这种传统观点认为:智能的处理过程符合通用法则,并且在原则上是可以理解的。
Heidegger和他的追随者们描述了一种可选择的方法来理解智能。对于Heidegger来说,思考的意识是源于具体经验的世界(一种生命世界)。Winograd、Flores和Dreyfus等人认为一个人对事物的理解是扎根于在每天的世界中“使用”这些理解的实际活动中。这种世界在本质上是一种环境,其中包括按社会方式组织的各种作用和目的。而这种环境以及其中的人的功能不是通过命题解释的,也不是能够被定理所理解的。它更像是一种不断形成的流程。在基本意义上,人类专家并不知道“是什么”,而只是知道在进化的社会标准和隐含的目的不断发展的世界中,它是怎么样的。我们不能自然地就把我们的知识和大多数智能行为放入语言中,不管是形式的,还是自然的。
现在让我们来考虑上述这种观点。首先,作为对纯理性主义传统的批判,这种观点是正确的。理性主义者断言,所有的人类活动、智能和责任,至少原则上能够被表示、形式化和理解。大多数喜欢思考的人们并不相信这种情形,他们认为情感、自我主张和有责任的承诺等(至少)也是很重要的。亚里士多德在他的《论理性行为》(Essay on Rational Action) 一书中说,“为什么我并没有觉得我是被迫执行那些必须做的事情呢?”在科学方法的领域之外,还有很多人类活动在可靠的人类交互中起着本质的作用。这些不可能被机器再生或者取消。
然而,检查数据、构造模型、运行实验以及为了进一步实验而使用模型精炼来检查结果等这些科学传统已经进入了理解、解释和预言人类社会能力这样的一个重要的水平。科学方法是提高人类理解能力的一个有力工具。尽管如此,对于这种方法,这里仍然宥许多的告诫是科学家们必须理解的。
首先,科学家们不要把这个模型与被建模的现象相混淆。模型能允许我们不断地逼近这种现象;通常这里必然有一些不能使用经验解释的“残留物”。在这种意义上,表示不确定性并不是一个问题。一个模型是用来探索、解释和预言的;如果它允许科学家来完成这些任务,则它就是成功的( Kuhn 1962)。确实,对于一个简单的现象,不同的模型可以用来解释这种现象的不同方面,例如光的波动理论和粒子理论(光的波粒二相性)。
此外,当研究者们主张智能现象的各个方面已经在科学传统的范围和方法之外时,这种说法本身也只能用那些科学传统来验证。科学方法只是一种工具,它可以用来解释在什么意义上问题仍然是在我们当前的理解之外。每种观点,甚至是来自于现象学传统的观点,如果它是有一定含意的,那么它一定跟我们当前某些解释的概念相关,甚至它是与那些不能解释的现象相关联的。
人工智能研究中最让人振奋的方面是对我们必须解决的这些问题做出不懈的努力和贡献。为了理解问题求解、学习和语言,我们必须领会表示和知识的哲学层面含义。我们被要求用一种谦卑的方式来解决亚里士多德的理论和实践之间的关系问题,以形成理解和实践的统一、理论和实践的统一,在科学与艺术中生活。
人工智能工作者是工具的制造者。我们的表示、算法和语言都是一些工具,用来设计和建立那些展现智能行为的机制。通过实验,我们同时检验了它们解决问题的计算适合性,也检验了我们自己对智能现象的理解。
确实,我们有这些传统:笛卡儿、莱布尼兹、培根、帕斯卡、霍布斯、巴贝奇、图灵等都是做出重要贡献的人,见第1章。工程、科学和哲学,思想、知识和技能的本质,形式方法与机制的能力和局限性等,这些课题都是我们所经历的,也是我们需要继续探索和研究的。
摘自:《人工智能:复杂问题求解的结构和策略》
■(美)George F.Luger
