(法国版) 法国 英国 中国

分类: 工业

“那些将改变世界的机器人”系列之四:军用机器人的道德困境

巴黎高科评论 / 编辑 / 2014-10-23

近年,美军对伊拉克与阿富汗进行了大规模空袭,这一颇具争议的军事行动引发了一场激烈的讨论。但这种争议事实上仅揭露了冰山一角:接受远程控制且具备独立作战能力的机器得到发展,仅仅是军用机器人崛起壮大的序曲而已。这一行业涉及到各个领域。军用机器人已经在作战后勤、通讯以及训练当中广泛使用,在作战人员数量和生产率的提升方面都取得了显著的效果。机器人逐渐发展为集多功能为一身,将对前线战场上的作战部队产生很多安全上的影响。同时,它也不可避免地带来了许多道德问题。

Read this article in English | Français


美国在研究军用机器人领域是不二的全球领跑者。研究原因无外乎是可以减少军事行动中的艰苦与危险。1990年代早期人们提出了“干净战争”的理念。除了通过“外科手术式”的精准打击做到尽量减少平民伤亡,或者是更广义的人身伤害,“干净战争”的理念也反映了公众不愿让前线士兵冒着生命危险冲锋陷阵,遭受可能来自生理和心理(创伤后精神紧张性障碍)的双重打击。在与无视战争规则的非正规军交战时,囚犯待遇也是十分敏感的问题。

正因如此,过去二十年机器人在军事领域与作战中的地位不断提升,军工行业在研发机器人过程中取得的长足进步,这在一定程度上也导致了民用机器人的进步。

所谓“军用机器人”,并非单指严格意义上的机器人(由算法操作的单一机器)。军用机器人还包括其他可远程控制的仪器。每种机器人都有许多实地优势。它们的表现不受天气环境(寒冷、雨水、黑暗)的影响;不会疲惫和分心,也无所畏惧。“受伤”之后简单将其维修或损毁即可。

但是,大规模使用军用机器人会影响人力资源及收入问题。不论是在服役或退伍期间,要支付给士兵的开支都不菲。2012年,美国政府拨出1500亿美元,用于支付服役和退伍士兵薪酬、社保与医疗服务,占当年国防预算的四分之一。军用机器人的兴起一部分也是因为减支的需求。美国政府目标于2015年底先裁军6万人,2019年底再缩减6万人,最终将士兵总数裁减至42万。

五角大楼一边努力减少作战单元的数量,一边还要确保军队的整体效率。2014年初,美国陆军训练及战略思想司令部司令Robert Cole将军表示,在2030-2040年底,要将旅级作战部队(美国军队编制中可单独作战的最小单位)从4000人的规模缩减至3000人。此举也将改组九人制的班——美军编制中的最小单位。军事原则也是部分根据运载一个班组的交通工具形式决定的。五角大楼最大的技术实验室国防高等研究计划署宣称,其目标简单来说就是:发明机器人,精简班组,节省交通开支。

专才机器人

机器人长久以来就是一种军用仪器。比如说,要操作战斗机,机载计算机就是不可或缺的一部分。在陆地作战时,机器人可以完成无聊、肮脏或者危险的任务。有些机器人具有多栖才能,有些则术业有专攻。

在完成拆除简易爆炸装置的任务中,机器人也起到了不可或缺的作用。这种做法是有其历史原因的。在伊拉克,战斗多见于路边,汽车就成了最常受打击的目标。而在阿富汗,地面部队也时常受到土制炸弹的威胁。扫雷设备运作很慢,士兵需要等待扫雷部队清查现场之后才能极为缓慢地前行。工程师很快发现,37至53磅力每平方英寸的压力足以引爆简易爆炸装置,远小于一个全装备士兵所载的88磅力每平方英寸压力。因此,他们发明了一台由一个简易机器人操控的迷你推土机。自此,人们又发明了各种不同的扫雷机器人。大多数的体积都非常小:由法国ECA机器人公司生产的Miniroge仅重13磅。紧凑的设计允许其深入诸如水管或汽车底部等困难区域侦测。

ECA机器人公司生产的Minirogen机器人

美军目前拥有7000架无人机与5000个地面机器人。其中最复杂的一款当属iRobot公司生产的Packbot 510型机器人。该款机器人能够在跌倒后起身继续作业、穿越崎岖地形、修复损坏的无线电、传回高清画面。另外还有一种“机器骡马”机器人,可负责驮运武器与补给,减少后勤运输的压力。波士顿动力公司推出了一款行动快速敏捷的机器狗,名叫“Big Dog”,可以驮运400磅的重物,在24小时内行进20 英里。国防高等研究计划署也在研发一种新型的自主机器人(与之前型号有所不同),搭载二冲程发动机与液压泵。这个金属的四足装置目前仍处模型阶段,平地上的运行速度可达到16 英里每小时。国防高等研究计划署也举办了一场名为“机器人挑战大赛”的活动,比赛项目包括开门、开车或移开一堆石子,让各路机器人一比高低。

iRobot公司生产的Packbot机器人

军用机器人的核心理念就是“人造士兵”。其中一个研究重点就是如何将人和机器与一个外骨骼无缝接合——此高科技因电影《钢铁侠》一炮走红。有此技术,步兵团的战斗速度、实力与打击精度都会因此大幅提高。于2012年问世的XOS2型机器人,机身仅重22磅,却可让一名士兵背负超过200磅的重物!

自主性:有多自主?

机会不言自明,挑战也不可小觑。对那些由算法系统而非人类操作的自主机器而言尤为如此。而要制造各行业中流水线上操作的机器人,难度来自于如何让它们在人类之间保持同样高效率以及形体和精神上的独立完整。另外,法律上的不确定性或许也无可避免。机器人的行动由程序员、制造商和操作员所决定。一旦发生事故,三方中的哪方应承担责任?

更甚的是,这些半自动或远程控制的机器的操作员也是机器行为的一部分,心理上难免会受到影响。有证据显示,远程操作无人机的技术人员可能产生的紊乱,是由日常生活与他们所做决定之间的脱节所至。他们所做的都是数千英里之外夺人性命的决定。来自华盛顿大学的茱莉·卡彭特曾进行过一项研究,发现在战场上,士兵与扫雷机器人所建立起来的感情远超一般用户和工具之间的关系。特别是在士兵与扫雷机的例子中,士兵与机器建立起强烈的情感纽带,很有可能会影响士兵的作战效率。

但是,最大的隐患还是来自于自主机器本身。随着人工智能与学习机的发展,人们开始担心如何控制管理机器人的自主权。对于在战地上冲锋的军用机器人,尤其是在城市区域(士兵最危险的作战环境),问题在于能否将做决定开枪射击的权力下放到机器。许多强硬派人士已经开始质疑,人类究竟是否还能拥有投反对票的权力。美国空军近期发布的一份报告显示:“到2030年,机器性能的提升将使人类成为多数体系与进程中最薄弱的一个环节。”

准自动机器人已经问世。以色列的哈比无人机可以自动飞入巡逻区域,侦查周围是否存在敌军的雷达信号,一旦发现信号源,便立即开火摧毁。诸如美国密集阵近程防御武器系统或以色列的“铁穹”反火箭弹系统会自动延迟发射导弹,人类根本无法进行干预。三星Techwin所出品的SGR-A1机器人系统可以替代朝鲜半岛边界纷争的前线士兵,它可以侦查到人类进入设定区域的痕迹,并向其索取密码获得准入权。理论上来说,SGR-A1在经过设置也可以进行自动射击。

那么,底线何在? 就职于佐治亚理工学院的罗恩·阿尔金是一名机器人专家与伦理学家。他曾参与五角大楼下属机构数个机器人系统的相关工作。他提出要让机器人具备一套道德准则——也就是一套体现人为意识的规则——将这些规则直接植入机器内,确保其所作所为完全符合国际人道主义法。

和机器人谈道德?

军用机器人有能力选择并摧毁打击目标,因此不能将它们与安全和责任的概念脱钩。编程中必须明确,对于包括“友方”目标、平民与休战状态的敌军等“值得道德考虑”的目标需要手下留情。也可以在机器人中设置一张对手清单,在清单范围内,如果能卸去对方武装就不要赶尽杀绝。机器人必须选择一个行动模式,在不同模式下遵守相应的道德规则。工程师将其称为“人工道德代理”。不过问题就在于机器人的灵活性到底有多强。当机器人仅在一定的地理范围内活动时,其行为完全受程序员与设计师的控制,他们可以提早预判各种情况,将相关应对措施写入机器人的程序内。这种机器人属于在“操作上道德”。机器人本身是无需对自己进行道德评估的,不用判断行动所产生的后果。该类机器人不需要在毫秒之内就要为某个情况挑选道德规则,也不会面临数条相抵牾的规则。

来自圣路易斯·奥比斯保加州理工州立大学的“道德与新兴科学”组织向美国海军提交了一份报告,当中写到,单靠达到“操作上道德”是远远不够的。在复杂环境下,机器人系统可能会因为内部过于简单的结构而在不可预知环境的影响下崩溃。研究人员指出,机器必须内置“功能性道德”,它们需要拥有自主能力进行道德判断。但是,该类项目研发也引发了不小的难题。该学术团体从美国著名流行科学书籍与科幻小说作家艾萨克·阿西莫夫处寻找灵感,着力将最简单的“道德”规则——机器人三定律写入机器人程序内。机器人三定律指:1.机器人不得伤害人类,或因不作为使人类受到伤害;2.除非违背第一法则,机器人必须服从人类的命令;3.在不违背第一及第二法则下,机器人必须保护自己。很明显,机器本身不清楚什么行为会伤害人类,因此这些规则的效力是有限的。

有人提出了另一方案:抛弃康德所谓的“定言命令”,使用所谓“自动道德观”。但是,这一概念放在机器人的例子当中行不通。机器人既无意志也无意愿,好坏也无从谈起。其他研究团队建议索性放弃将道德植入机器人软件的想法,而是要使用“奴隶道德”将军用机器人定性为完全服从的机器。这种看似保险的做法实际上会影响机器人的工作效率:军用机器人的价值在于其快速的行动和反应能力。

有些哲学家提出了另行方案。他们指出,程序员所开发的独立子系统有可能会提高“人工道德代理”的表现。但其实开发这些子系统并非时出于道德初衷。相反,他们认为通过学习算法、使用情感探测器和了解社会机制能够帮助提高机器人的道德感。但是,计算机科学家尚不清楚这一体系能否进一步提高机器人的情商、认知水平、道德判断与意识。

不论最终采取怎样的预防措施,具有杀伤力的自主机器仍给世界带来不安。成立于2009年的非政府组织国际机器人武器控制委员会由专门研究机器人、道德、国际关系与人权的专家们组成,这一组织代表了世界人民对机器人问题的担忧,反对一个充斥着武装机器人的“反乌托邦”世界。委员会还推出相关宣传活动,目标是防止机器人军备竞赛的发生,活动已经取得了一些进展。2013年5月,联合国在一份报告中呼吁,要对具有致命杀伤性的自主系统施加暂用禁令,直到成员国制定出使用规则为止。(素雯/译)