(法国版) 法国 英国 中国

分类: 工业

为什么“阿尔法狗”不是人工智能?

让-克里斯托夫·贝利 / Novaquark创始人兼总裁 / 2016-03-28

文化是智能的必要催化剂,而没有文化交流能力的人工智能只是一种对学术的好奇罢了。然而,文化是不能手工编程入机器的,文化必须是学习过程的结果。


Read this article in English

从某种程度上说,AI是什么和AI不是什么,只是如何定义的问题。无法否认的是,AlphaGo和类似的深度学习方法在近年来已经能够做到解决一些复杂问题。但是我们是否真正达到了强人工智能(Artificial General Intelligence,AGI)的层次?答案是否定的,让我们来看看为什么。

评价强人工智能的关键点之一就是看它能否独自理解并且开拓自己周围的世界,抓住所遇见、听见、看见和做的事物的意义。如果未能成功做到这些,那么你只能停在现今人工智能的层次:对周围环境缺乏了解,只能依靠设计者命令做出反应,自行判断的范围很窄。

认知问题可能是现在人工智能领域尚未得到解决的最基本问题。普林斯顿大学心理学系的Stevan Harnad是最早阐述这个问题的人之一,1990年发表论文《符号基础问题》(The symbol Grounding Problem)。即使你并不相信我们确实是在操纵符号,这听起来也的确很可疑,然而问题依旧存在:任何系统内部的符号表征,其基础都存在于外部的真实世界。

更明确的说,认知问题涉及到下面四个小问题:

  1. 如何结构实体(人或者人工智能)从外界接收到的信息?
  1. 如何将结构化的信息与对应的外部世界建立联系,或者按照上面的话说,如何为人工智能建构“意义”?
  1. 如何与其他实体进行意义同步?(否则就不可能沟通,也只能是一种绝对孤立状态的智能)
  1. 如何设计实体的决策(做什么和不做什么)机制?

第一个问题就是如何组织信息,这一问题已经被深度学习和类似的非人工监控性学习算法很好地解决,比如AlphaGo项目。由于近来计算效率的提高以及对擅长并行信息处理的GPU(图形处理单元)的使用,我们在信息结构化这个领域已经取得了巨大的进步。这些算法真正做的是将表达在高维度空间的极其复杂的信号降维,并在此过程中尽量减少信息损失。从信息处理的角度来看,这些算法可以“抓住”信息中最为关键的部分。

第二个问题是如何将信息联系到现实世界,或者如何创造“意义”,这个问题与机器人学紧紧相连。因为你需要躯体与世界互动,并且通过与世界互动构建这样的联系。这就是我为什么经常说没有不依靠机器人科学的人工智能的原因,(尽管已经存在相当完善的不具备人工智能的机器人,但那又是另外一件事了)。这一点通常被称为“拟人化问题”而且如今大多数人工智能的研究者都同意理解力和化身是紧密耦合的问题。每个各异的主体都有不同形式的理解力,这一点在动物王国中有非常明显的体现。主体往往从简单的事物入手比如感知自身的每个部分,在可观察的周围世界中控制身体这些部分取得预期效果,以及建立距离、颜色等空间概念。这已被研究人员广泛研究比如Kevin O’Regan和他的“感觉运动理论”。但这仅仅是第一步,因为接下来你还要在基础的感觉运动结构上建立越来越多的抽象概念。我们还没有达到这一步,但这正是这个问题的研究现状。

第三个问题从根本上说,是文化来源的问题。在某些动物身上体现了一些简单的文化形式,甚至是隔代获得的能力,但这是十分有限的。只有人类能够达到对文化知识呈指数增长的获取。文化是智能的必要催化剂,而没有文化交流能力的人工智能只是一种对学术的好奇罢了。然而,文化是不能手工编程入机器的,文化必须是学习过程的结果。想要尝试理解这种过程,最好的方法在于发展心理学。这是Jean PiageMichael Tomasello的成果,研究孩子们如何获取文化技能。在机器人科学中诞生了一种新的准则,叫做“可发展机器人”。该机器人以孩童为模板(例如上图中的iCub机器人)。它也与语言学习的研究紧密关联。像Luc Steels 和许多其他人的研究已经表明我们可以将语言的获取看成一个进化过程:实体(人或机器人)通过与世界互动建立新的意义,利用互动和其他实体建立联系,选择其中最成功的结构来帮助沟通(在大多数时候,主要是用来达成共同意图)。在成百上千次的试错后,就像生物的进化一样,系统进化出了最好的意义和句法、语法转化结构。这一过程已经过检验,表现出了和自然语言的进化发展惊人的相似之处。有趣的是,这解释了瞬时学习,即一个概念被一下子获取到的现象,而一些复杂的统计模型比如深度学习却无法解释这种现象。一些研究实验室正在尝试以这种方式在获取语法、手势和更复杂的文化习俗上深入研究,包括我在Aldebaran Robotics创建的AI Lab。

最后,第四个问题应对的是“内在动机”(intrinsic motivation)。为什么主体会“做”,而非“不做”。生存需要不足以解释所有的人类行为。即使是被极好地喂养和保护,人类也不会只是坐着,什么也不做,等到自己再次饥饿。他们除了吃还会做更多,他们探索,他们尝试,这看起来像是出于人类本性中的好奇。Pierre-Yves Oudeyer等研究者已经发现,一个简单的表示好奇的数学公式,表达了实体最大化其学习速率的趋势,已足够用来解释令人难以置信的复杂和奇特行为(看看索尼CSL的各种趣味实验吧)。在系统内部,似乎需要这样的东西存在来驱动其经历前三个阶段:组织信息、将其与实体连接并创造意义,然后选择最具有沟通效率的方式来建立共同的文化,促进合作。在我看来,这才是一种强人工智能。

还是要说,深度学习的发展和围棋人机大战中,“这种”人工智能的成功是非常好的消息,许多应用因此就有了想象空间,用以帮助医学研究、工业、环境保护等事业。但正如我努力想说的,这只是问题的一部分。我不认为深度学习会是带领我们达到真正人工智能的杀手锏。真正的人工智能,从机器的角度来说,可以学会在这个世界上生活,自然地和我们交流,能够深层次理解情感的复杂性、文化偏见,并且最终帮助我们建立一个更好的世界。(本文最初见于让-克里斯托夫的LinkedIn主页,经作者授权转载。章梦雪、谷达京/译)



您可能也喜欢