(法国版) 法国 英国 中国

分类: 科技

人工智能的监管起点:真正的挑战是什么?

贾开&童瑫 / 清华大学公共管理学院博士生、富布莱特学者、加州大学戴维斯分校访问学者,哈佛大学电子与计算机工程专业博士 / 2017-05-05

2016年,科技界最引人注目的事情或许莫过于谷歌的人工智能机器AlphaGo在围棋对弈中以4:1的绝对优势打败了世界冠军李世石。以此为标志,人工智能在其60余年起起伏伏的发展史中,再次迎来了高潮。但伴随此轮热情的,同样还有社会中普遍存在的担忧与疑虑:机器是否会取代人类,人工智能是否会成为人类文明史的终结?[1]

Read this article in English

这样的担忧自有其合理性所在,而也正是基于此,要求政府涉入并对人工智能的发展进行监管的呼声不绝于耳——就像十余年前人们呼吁对基因技术的发展加强监管一样。可问题在于:对于一个尚未成为现实而仅存在于想象中的“威胁”,究竟应该如何施以监管,以避免“孩子跟洗脚水一起倒掉”?

事实上,监管的难题并不在于如何平衡技术发展的利弊两端,而是如何准确定位技术的潜在威胁并有针对性的施以监管。换句话说,人工智能的危害真的是“取代人类”么?若如此,唯一合理的监管方式可能就是完全禁止该项技术的研发。考虑到即使基因工程这样颠覆伦理道德的技术都未遭此厄运,遑论人工智能;更何况人工智能技术的应用已经遍及生活的方方面面,从搜索引擎到社交网络再到定制新闻,不一而足。也正因为此,我们可能需要重新反思当前对于人工智能的担忧是否成立;如果不成立,其真正的威胁又是什么?也正是在回答这些问题的基础上,我们才有可能找到监管人工智能的合理路径,并使之更有效的服务于人类、服务于未来。这便是本篇短文的主旨所在。

人工智能:究竟应该担心什么?

2016年10月19日,霍金在剑桥大学Leverhulme未来智能中心(Leverhulme Centre for the Future of Intelligence)的开幕仪式上发表演讲,声称“人工智能可能是人类文明史的终结…其在人类历史上,可能是最好的,也可能是最糟糕的”。[2]这并不是霍金第一次对人工智能的发展发出警告。2014年在接受BBC的采访中,他也表达了类似的观点。自那之后,霍金也积极投入到宣传、推动对人工智能研究进行合理规范的行动当中。事实上,Leverhulme未来智能中心成立的重要使命之一便是化解AI可能带来的风险。

霍金并非“杞人忧天”的唯一一人,特斯拉、SpaceX的创始人埃隆·马斯克同样屡次警告人工智能潜藏的巨大风险。2014年在参加麻省理工学院航空与航天学院百年研讨会的时候,马斯克就曾语出惊人,认为“人工智能可能是人类最大的生存威胁”;[3]而在2016年6月举行的“全球代码大会(Code Conference)”上,马斯克又称:“人类可能沦为人工智能的宠物(“家里的猫”)”。[4]在霍金、马斯克等人的推动下,超过892名人工智能研究人员以及另外1445名专家共同签署并发布了《人工智能23条原则》,以确保人工智能的发展行进在正确轨道上。[5]

IMG_2370

人工智能是否会取代甚至“奴役”人类的可能性并非是针对其的唯一担忧,其对于就业的冲击、不平等状况的加剧同样是引起人们焦虑的重要原因。2016年畅销全球的《未来简史》作者尤瓦尔•赫拉利就直接指出:人工智能的发展将导致大量失业等社会问题的出现,并使得少数个体成为“超人”中的新精英而大部分人类都将沦为在经济、政治意义上毫无价值的个体,由此人类将进入最不平等的时代。

我们是否应该相信霍金、马斯克和赫拉利等人对于人工智能的担忧呢?不同的人有不同的观点。扎克伯格就曾批评过马斯克,他认为“现在对于人工智能安全性的担忧,就如同两百年前担心飞机坠毁怎么办一样。如果我们总是过度担心安全性,我们就不可能造出飞机。”[6]事实上,历史上任何一项颠覆性的技术进步都伴随着诸多质疑,无论是原子能技术的发明,抑或是基因工程的突破,无不如此;但历史最终证明,人类社会的发展并未陷入混乱或终结,这也说明当前对于人工智能的担忧或许存在一定的夸大成分。

不过另一方面,人工智能的发展又的确潜藏了巨大风险,放任自流的监管态度明显不是最优选择。正如本文开头所提到的,正是因为十余年前国际社会达成了对于基因工程进行合理监管的共识,基因技术才在风险可控的限度内稳步发展。同样需要指出的是,自1960s年代OECD提出“知识社会”的概念之后,技术发展就成为了与土地、人口并重的国家竞争力的重要体现之一。[7]如何通过合理监管以有效引导本国人工智能技术的发展,自然成为各国政府绕不开的难题。也正因为此,当前争议的核心并非“是否应该对人工智能的发展进行监管”,真正的挑战还在于“监管什么”,以及“如何监管”。

就此方面而言,霍金、马斯克、赫拉利的担忧并不能为未来的监管政策制定提供太多有益的建议,因为他们都只是在“设想”人工智能所可能带来的威胁,而没有指出其为何会带来上述威胁,由此也自然不能对“监管什么、如何监管”做出回答。事实上,只有回到人工智能技术本身并从其基本原理出发,才能正确理解什么是人工智能,其能干什么、不能干什么,其潜藏的价值和风险又是什么。也正是在这些正确理解的基础上,我们才能为未来的监管政策提出有益建议——而这便是本文接下来所试图完成的工作。

算法背后的基石:数据与规则

在经历了2016年的火热之后,许多人已经可以感知到人工智能,以及支撑其运行的机器学习算法的普遍存在。视频网站为你推荐的电影可能正是你所偏好的类型,火车站入口处的人脸识别系统已经在自动检查你是否购买了当天的车票,你正在与手机进行直接的语言沟通并让它帮你在医院挂号,你的基因信息正在传送给医疗辅助系统以定制专门针对你所患疾病的新药。更不用提你每天都在使用的搜索引擎、社交网络、聊天软件,无处不在的人工智能已经开始逐渐影响我们的日常生活,计算设备在“吞入”海量数据的同时,神奇地产生着与你相关的各种信息、产品与服务。

但这个过程究竟是如何发生的?建立在机器学习算法基础上的人工智能是否会不断进步乃至最终超越人类的控制?要想对这一问题做出回答,我们便不得不回到机器学习的算法本身上来。

人工智能的目标是使机器具备类似于人的思维能力,而其中最重要的便是学习能力。也正因为此,尽管“机器学习”是“人工智能”的子域,但很多时候我们都将这两个概念等同起来。[8]就实现过程而言,机器学习是指利用某些算法指导计算机利用已知数据得出适当的模型,并利用此模型对新的情境给出判断。此处需要指出的是机器学习算法与传统算法的差异。算法本质上就是一系列指令,告诉计算机该做什么。对于传统算法而言,其往往事无巨细地规定好了机器在既定条件下的既定动作;机器学习算法却是通过对已有数据的“学习”,使机器能够在与历史数据不同的新情境下做出判断。以机器人行走的实现为例,传统算法下,程序员要仔细规定好机器人在既定环境下每一个动作的实现流程;而机器学习算法下,程序员要做的则是使计算机分析并模拟人类的行走动作,以使其即使在陌生环境中也能实现行走。

上述解释粗略地阐述了机器学习的概念,但却仍然没有完全打开其实现过程的黑箱,而唯有后者才能使我们真正理解机器学习过程中的何种因素会对社会产生实际的影响。具体而言,机器学习算法的实现方式多种多样,但就当前的技术发展而言,其主要可被划分为5个类别:符号学派、联接学派、进化学派、类推学派和贝叶斯学派。每个学派都遵循不同的逻辑、以不同的理念实现机器学习的过程。

对于“符号学派”而言,所有的信息处理都可被简化为对符号的操纵,由此学习过程被简化(抽象)为基于数据和假设的规则归纳过程。在数据(即当前事实)和已有知识(即预先设定的条件)的基础上,符号学派通过“提出假设-数据验证-进一步提出新假设-归纳新规则”的过程训练机器的学习能力,并由此实现在新环境下的决策判断。符号学派固然符合经验主义的哲学认知,但通过其概念模型我们亦可以发现,其成功的关键在于数据的完整性和人为预设条件的可靠性。换言之,数据的缺失和预设条件的不合理将直接影响机器学习的输出(即决策规则的归纳)。最明显体现这一问题的例子便是罗素的“归纳主义者火鸡”[9]:火鸡在观察10天(数据集不完整)之后得出结论(代表预设条件不合理,超过10个确认数据即接受规则),主人会在每天早上9点给它喂食;但接下来是平安夜的早餐,主人没有喂它而是宰了它。

数据和预设条件的问题不仅存在于符号学派,这同样是机器学习其他学派的共性。“联接学派”试图模拟人脑的学习过程,通过仿真神经元的联接结构,并借助反向传播算法(反馈输出与输入的对比,并以误差为基准调整参数)自动调整各个联接的权值,以最终实现学习能力。此处的关键仍然是输入数据集的完整性,以及预设条件的可靠性(例如停止反馈调节的阈值设定)。“进化学派”试图模拟人类的进化过程,在预先设定的适应度目标(例如过滤垃圾邮件算法的设计中,某个规则正确分类邮件的百分比就是适应度目标)指引下,通过交叉、实验不同的规则集合以找出与测试数据适应度最高的规则集(也即形成学习能力)。由此仍然可以看出数据与预设条件(适应度目标的设定)的重要性。“类推学派”亦是如此,其基本思想是通过判别不同场景的相似程度,来推导新场景中的合理决策。就此而言,参考数据集的完整性和不同场景相似程度的阈值设定(预设条件)依然是影响机器学习结果的关键所在。相比于前四个学派,贝叶斯学派对于数据集的规模没有太高要求,因其优势正是对于未来不确定性的学习与探索。贝叶斯算法将根据收到的新数据来持续检验既有假设成立的概率可能性,并对其进行实时调整。不过即使如此,贝叶斯算法依然受制于输入数据和调整规则。换言之,数据与人为预设条件依然是控制贝叶斯算法的关键。

事实上,如果跳出具体学派的思维束缚,每种机器学习算法都可被概括为由“表示方法、评估、优化”这三部分组成。[10]尽管机器可以不断的自我优化以提升学习能力,且原则上可以学习任何东西,但用以评估的数据以及评估的方法和原则都是由人为决定的。也正是从这个角度讲,本文开始所提到的“机器取代人类”的可能性其实为零——尽管机器可能会变得异常复杂以致人类难以理解。

监管人工智能:真正的挑战是什么?

奥巴马在接受《连线》杂志专访时曾提到,“目前人工智能发展还处在初期阶段,这一阶段政府应当施加相对较少的监管,更多地投资于科研以确保基础研究和应用研究之间的转化。”[11]这一观点固然代表了相当一部分人的观点,因为政府监管总是被诟病于低效和寻租。但如果抛开意识形态的抵触情绪而言,人工智能技术的发展又确有监管的必要性。正如霍金、马斯克等人发起倡议的《人工智能23条原则》一样,人工智能的发展确需被纳入到正确的轨道上来——尽管原因并不在于耸人听闻的“机器取代论”。

那究竟应该“监管什么”且又“如何监管”呢?问题的答案或许就在于本文第二部分对于机器学习算法的概念性描述上:既然数据和预设规则是所有算法的基石,那么数据治理和规则治理便自然成为监管人工智能的关键。

一方面,我们给机器什么样的数据,机器就会形成什么样的学习能力并随之反馈给我们相应的学习结果。这一过程首先要解决的问题便是数据从何而来,机器又将如何利用数据?正如前文所反复阐述的,不完整的数据集必然导致人工智能学习过程的错误——就像罗素笔下的“归纳主义者火鸡”一样;但大规模的数据收集又必然带来隐私保护、利益分配等诸多问题,由此形成的对于数据治理的监管要求便成为了监管人工智能的第一步。在保护个体数据权利的基础上,鼓励并规范数据的分享与应用,以最终促进人工智能朝着更好的方向发展。

另一方面,机器优化的规则(条件)又是由谁、通过何种程序来制定。尽管我们认为没有必要过多的担忧人工智能的发展,但真实的威胁依然存在。事实上,人工智能正在以不被察觉的方式潜移默化的影响人类日常生活,如果机器优化的规则不是以正当的程序受到监管和制约,那么很难保证其不被不法之徒所利用。正如长久以来对于脸书的质疑一样:公众如何相信其向用户推荐的新闻内容不会掺杂特殊利益的取向?[12]当越来越多的人依赖定制化的新闻推送时,人工智能甚至会影响到总统选举。也正因为此,包括透明、开源在内的诸多治理原则,应当成为人工智能监管政策制定过程中被纳入的合理议题。

*

在经历了60余年的发展之后,人工智能终于在互联网、大数据、机器学习等诸多技术取得突破的基础上实现了腾飞。在未来的人类生活中,人工智能也必将扮演越来越重要的角色。对于这样的图景,我们自不必惊慌,但却也不可忽视。监管人工智能,找到正确的方向并采取合理的措施,正是当下所应该重视的政策议题,而本文的主旨也正在与此:打破长久以来人们对于人工智能的 “笼统”式担忧,指出人工智能监管的重点方向所在。更具体的监管建议已经超出了本文的讨论范围,笔者也将在未来的系列文章中做更进一步的讨论,同时也期待学者、从业者的更多关注与思考。

[1]《霍金剑桥最新演讲:AI可能成就或者终结人类文明》,见http://www.aiweibang.com/yuedu/159796677.html

[2] 霍金剑桥最新演讲:AI可能成就或者终结人类文明. http://www.raincent.com/content-10-7672-1.html

[3] Elon Musk: artificial intelligence is our biggest existential threat. https://www.theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat

[4] The 3 craziest things Elon Musk said at Code conference. http://www.usatoday.com/story/tech/news/2016/06/02/3-most-interesting-things-elon-musk-said-code-conference/85285470/

[5] http://gizmodo.com/these-23-principles-could-help-us-avoid-an-ai-apocalyps-1791920321

[6] http://help.3g.163.com/16/0303/02/BH6SMHJI00964L9E.html

[7] Singleton, R. (2008). Knowledge and technology: The basis of wealth and power. Introduction to international political economy (4th ed., pp. 196–214). Upper Saddle River, NJ: Prentice Hall.

[8] [美]佩德罗-多明戈斯 著,黄芳萍 译《终极算法:机器学习和人工智能如何重塑世界》,中信出版社,2016. P12

[9] Russell, B. (2001). The problems of philosophy. OUP Oxford. Chapter VI: On Induction. See also http://www.ditext.com/russell/rus6.html

[10] [美]佩德罗-多明戈斯 著,黄芳萍 译《终极算法:机器学习和人工智能如何重塑世界》,中信出版社,2016. P361

[11] The President in Conversation With MIT’s Joi Ito and WIRED’s Scott Dadich. https://www.wired.com/2016/10/president-obama-mit-joi-ito-interview/

[12] Former Facebook Workers: We Routinely Suppressed Conservative News. http://gizmodo.com/former-facebook-workers-we-routinely-suppressed-conser-1775461006



标签

您可能也喜欢