最近,著名英国物理学家史蒂芬·霍金警告人们,真正意义上人工智能的诞生,或将导致人类的灭亡。但也有其他的业界人士,例如工程师雷·库兹韦尔(Raymond Kurzweil),认为未来并非一片黑暗,并相信在不久的将来,人类甚至可将自己的意识和思维上传到电脑里。知名学者让-加布里埃·加纳夏(Jean-Gabriel Ganascia)在其所著《奇点的迷思》(Le Mythe de la Singularité, 2017, 法国瑟伊出版社)一书中否认了“技术奇点”这一概念。技术奇点指的是由于技术发展速度呈指数增加,故在未来某个时刻速度将接近于无限大,以至于让人类社会发生颠覆性的变化。加纳夏称,人工智能的真正威胁不在于在未来的某一时刻危及人类存亡,而来自当今社会对其的应用。
Read this article in English | Français
巴黎创新评论:在《奇点的迷思》一书中,您提出人工智能作为一种科学学科,有别于技术奇点支持者所谈的强人工智能。为什么有必要做出这样的区分?
让-加布里埃·加纳夏:“人工智能”一词于1955年提出。当时的科学家想要利用电脑来探索“智能”的奥秘(那时候电脑算是十分神奇的东西;第一台电子计算机问世于1946年)。而就在此过程中“人工智能”这一新词被创造了出来。科学家试图将思维分解为多个基本步骤,然后将每一个步骤用计算机模拟。这门学科的最终目标是用机器模拟人类的思维活动,以加深对“智能”的认识,并将模拟思维活动利用于实践(例如用于面部识别、一般性图形识别、语言理解、定理自动证明、模拟推理等),但并不希望通过任何手段创造一个有智慧的完整个体。
而强人工智能是一个哲学概念,它所对应的是人工创造出的,具备执行智能行为能力的个体。这一概念反映了一直以来存在于人类集体意识中的一个念头:有一天人类会利用科学技术创造出另一个自我:它也许是正义的,帮助我们完成各种事情,但也有可能是邪恶的,篡夺人类在世界上的地位。
人工智能的一些相关观念是否缺乏科学依据?
我认为的确缺乏科学依据。强人工智能背后的许多论点来自科幻,具有误导性。支持技术奇点者将摩尔定律作为依据,但摩尔定律并不一定适用于较长的时间段。而且支持技术奇点者对于机器学习抱有一种夸张的认识。他们认为机器会通过学习逐渐达到自主,不光是技术层面上,还包括哲学意义上——也就是说,有学习能力的机器有一天会根据自身利益自主选择目标;技术层面的自主最终会带来哲学意义的自主,机器人有朝一日会独立于人类,拥有自己的意志。我作为科学家不敢说这种情形一定不会发生,但是就人类现在的科技水平来看恐怕还早得很。
智能是不是常常被人们与意识混为一谈?
的确如此。但是“意识”的定义很复杂,可以至少从三个特点来描述:首先,一个具有意识的人拥有目的,以指导行为。现在我们可以人为地给电脑赋予执行任务的目的,这样的系统称之为“目的性系统”。目的性系统一般是应用于机器界面的人工智能。构建者不试图赋予系统真正意义上的情感,而是让它在行为中体现出某些特点或性质,给用户造成系统具备情感的印象。这就是所谓的情感计算。
其次,一个具有意识的人会反思自己的行为。我们能让机器也做到这点吗?行是行,但很难。现在有部分机器可以在一定程度上实现行为的自我监控和调整。第三,有意识意味着可以感知痛苦,体会各种行为带来的感受,比如写作。如何模拟这些感知,我们没有任何头绪。在认知科学方面有一定的研究,但是“感知”究竟是什么,依旧是个谜。我们知道意识和生命、生存有密切的关系。在理解意识的这个方面,电脑的计算能力无论怎么提高,恐怕都无济于事。
你认为摩尔定律并非永久适用,有一天会失效,为什么?
摩尔定律属于经验定律,其内容为:计算机的计算能力和信息存储能力每隔一段固定的时间便会增加一倍,一般是18至24个月。该现象自1959年便为人所知,由戈登·摩尔(著名工程师,英特尔创始人之一)在1964年正式提出。根据这一定律,电子元件体积会不断缩小,因为每隔一段固定时间,集成电路上可容纳的元器件的数目就会翻倍。技术奇点的支持者认为只要利用摩尔定律进行推论,就能验证奇点必然出现。但是他们忽略了一点:在现实世界中,无穷极限是不可能达到的。现在的处理器使用的材料是硅,也许元件尺寸未来还会不断缩小,但是有一天我们会达到所谓的“硅壁垒”——元件尺寸再小也不能突破硅原子本身尺寸的限制。当然,除了硅之外,也许还有其他的材料可以使用,从而进一步提升处理器的计算能力,但就现在而言,替代硅的材料还没有开发出来。有人说未来发展的方向是量子计算机,但距离量子计算机大规模使用恐怕还有很远。
支持技术奇点的人称,机器学习有一天会让机器的智慧比人还要强大,但您认为机器学习不是无穷尽的…?
机器学习有两个瓶颈:首先,学习的前提是要给机器提供海量例子,而且每个例子都得配有注释。这样的大工程可需要大量的教授级专家来完成!比如说,如果想让电脑识别人脸,首先得给它提供上百万张照片,且每张照片都要标明姓名。第二:电脑不会自主学习新概念,调整知识体系,构建世界观。人类知识体系就是通过这种学习和调整建立起来的,但现在的机器还做不到。
我并不想否认人工智能领域取得的诸多成就及其现实意义。有了互联网之后,人与人之间的各种交互都在数字世界进行。各类传感器将对现实世界的观测转化为数据。整个现代经济体都建立在大数据的应用上,也就是说肯定要继续开发预测系统,以基于大数据做出决策,但这同时会带来负面影响,而且未必显而易见。
我们应该如何看待日常生活中频繁使用的人工智能技术?
我认为有两个伦理问题值得重点关注:首先是问责制。一个机器如果实现了技术层面的自主(即可独立做决定无需人类参与,并会利用大量数据进行学习),那其行为必然会包含不确定性。欧洲议会最近通过了一项决议,确认了机器人的法律人格,但我认为此举并没有真正解决问题。也许这项决议可以保证人工智能使用意外的受害者得到相应的赔偿,可这样的举措实质上是通过民事赔偿来逃避进行事故调查的责任。一旦发生意外,真正该做的是探究其背后的原因,改善设备性能,避免意外重演。而且我们有必要对于人工智能系统的行为设定界限,制定绝不可逾越的底线指令。因此,在编程时,必须结合人类社会的道德价值观。
还有一个问题,就是预测系统在人类社会中的大规模使用,或者说滥用。我强烈推荐凯西.奥尼尔在2016年出版的《数学杀伤性武器》(Weapons of Math Destruction)。作者在书中指出,尽管机器学习给人类带来了巨大利益,但不恰当使用必将带来负面后果。就比如说,在美国部分州司法部门利用预测系统,测算犯人的累犯率,作为量刑的依据,但他们所使用的许多计算参数是很不合理的。社会必须意识到不能把所有决定都抛给电脑做。如果认为电脑做出的决定一定是中立的,那就大错特错了。
当然人工智能的应用牵涉到的伦理问题不止这些,还有一个就是对于个人信息的保护。很多人对于政府使用个人数据的方式感到担心,但我认为在民主国家政府对于此类信息的基本态度仍然是保护而非利用。真正值得担心的应该是大互联网企业对个人数据究竟如何使用。
我们看到,正是这些大互联网企业在不断宣传“技术奇点”观点。您在书中将他们戏称为“爱放火的救火员”。为什么大企业采取这样的态度呢?
大公司为什么要鼓吹这些没有理论依据的概念,的确让人十分迷惑。这背后有诸多原因,但我觉得最主要的一点是他们想要通过散布非理性恐惧转移人们的注意力,从而使人们忽略真正的威胁。今天我们面对的威胁不再是信息不公开不透明,而是真假信息鱼龙混杂,别有用心者利用虚假信息转移视线。人们担心机器人有一天会统治世界,但在我看来,现代科技使用的真正意义在于改变了社会现实和政治现实——在互联网空间,政府权力无法有效施展,甚至可以说互联网从根本上动摇了政府和所有政治组织的基本原则。我认为,其实是这些大互联网企业怀有某种政治意图,正在和政府进行某种权力的争夺。