当前位置: 首页 机器人 美退役少将谈“杀人机器人”

美退役少将谈“杀人机器人”




拉提夫认为战争技术中的人工智能和自动化争议最大


“自动化武器会不知不觉地来到我们身旁”


对埃隆·马斯克(Elon Musk)来说,2017年又是忙碌的一年。特斯拉(Tesla)的市值超过福特(Ford)和通用汽车公司(General Motors),巨型锂电池工厂开始源源不断地生产出锂电池,旗下的安装公司开始在居民房屋的屋顶安装不破坏建筑美感的太阳能电池板。他正准备向火星发射两枚火箭,在洛杉矶地下挖掘巨型隧道,并且在百忙之中还不忘批评特朗普在《巴黎气候协定》上的所作所为(当然,他并没有做到面面俱到,问问Model 3轿车等候名单的车主就清楚了)。


禁止杀人机器人


有鉴于此,大家很容易忽视掉马斯克2017年心愿名单中的另外一项:拯救人类。2016年夏天,他联合包括谷歌人工智能权威穆斯塔法·苏莱曼(Mustafa Suleyman)等其他一些科技业大佬联名致信联合国,敦促严格禁止机器人杀人武器。在他们看来,这种机器人大杀器的诞生将意味着人类噩梦的开始,他们在信中写道:


致命性自动武器的诞生有可能演变成为“第三次战争革命”。这种武器一旦开发出来,会导致武装冲突的规模之大超出以往,蔓延速度之快超出想象。这类武器既可以成为被暴君和恐怖分子用来对付无辜平民的恐怖杀器,在被黑客入侵后,其用途也可能会适得其反。人类没有太多时间阻止这类武器,潘多拉盒子一旦打开,再想关上谈何容易。


与此同时,五角大楼也在撰写另一封信:其2018国防预算报告中要求国会拨款130亿美元的科技研发资金,另外100亿美元用于开发空间作战系统。我不想惹马斯克先生不快,但他会发现,作为对手,美国的军工产业可要比底特律那些老掉牙的汽车公司难对付得多。


然而,就像任何一个与亚马逊智能助理Alexa独居一室时略感紧张的人一样,我相信那些参与自动武器研发的人中间一定有人像马斯克一样感到担忧。我在本周就找到了这么一位:《未来战争:为全球新战场做准备》(Future War: Preparing for the New Global Battlefield)一书的作者,前空军少将罗伯特·拉提夫(Robert Latiff).


拉提夫将军与其新作《未来战争:为全球新战场做准备》


退役少将访谈


拉提夫将军在2006年从美国空军退役,退役前曾担任美国国家侦察局(National Reconnaissance Office)先进系统和技术部门主任。退役后,他一直在国防工业领域任职,并在圣母大学(Notre Dame)和乔治梅森大学担任讲师。以下是节选的访谈记录:


记者:将军,您十多年前就已经退役,为什么现在才出这本书?您在私营和学术领域的经历对于您对“全球新战场”的观点有哪些启发?


拉提夫:事实上,我从伊拉克战争时起就开始思考这个问题。当我目睹战场上所发生的一些情况(不仅仅是阿布格莱布监狱),这着实让我感到困扰。退役后,你能想象得到,我进入了国防承包商行业工作,这份差事不算坏。但无论在军中,还是退役之后,我都没听说有谁质疑我们的某些研究是否应该进行。你要知道,这类研究有的真是挺吓人,我不知道这样的研究算不算不道德,但没人提出过这方面质疑。


记者:能否举一两个例子?


拉提夫:一般来说,与生物学有关的一些研究会有点恐怖,像合成生物学这样的研究你不知道最终会有什么样的后果。一些电磁学方面的研究也有点吓人,特别是与人类和杀伤力有关时。


记者:明白了,所以你花了些时间在私营领域,而……


拉提夫:在我最终退役并闲下来从事教学和咨询工作时,这些问题还在困扰着我。我和圣母大学取得了联系,借助这样一个机会,我开了一门课程,深受学生欢迎,最终,有人请我围绕这个话题出一本书,内容与这门课相关,但不完全基于授课的内容。


拉提夫将军在圣母大学讲授课程


记者:圣母大学的学生反响如何?


拉提夫:刚一开始,他们有些吓着了,或许用吃惊来形容更合适。他们中很多人从未接触过这类军事话题。刚开始给他们讲这些新式武器时,学生们的反应都很兴奋,他们中很多人的第一反应是:“没错,我们就得这么干。”但当我让他们思考这么做在道德上会有哪些影响时,他们似乎陷入了沉思,我觉得他们在其中学到了很多东西。


记者:只要战争还存在一天,围绕战争伦理的争论就不会停止。就战争的正义与否而言,中世纪意大利神学家托马斯·阿奎纳(Thomas Aquinas)的“战争论”可能最为知名。当我们以传统视角来审视今天的战争技术时,有哪些你认为会引发最大的争议?


拉提夫:我认为人工智能和自动化的争议最大,很大程度是因为这些并没有人类参与。在阿奎纳和圣奥古斯丁的时代,他们争论的是“战争的意图”是否正确。杀戮的意图是否正确?杀人者是否获准这样做?我们现在做的事情是在保护无辜者吗?我们是在避免不必要的痛苦吗?而在自动化和人工智能时代,我不觉得军工行业有谁可以证明,我们能够放心地任由这些系统去做该做的事。


记者:是啊,我们知道很多人担心这个问题。2016年有一大群科技行业大佬写信给联合国,要求禁止机器人大杀器。2016年11月还以《常规武器公约》的名义举办了会议,希望将相关禁令扩大至全球范围。我个人认为这只是痴人说梦。在限制人们所担心的这种毁灭性武器方面,国际社会能形成一致的努力吗?


拉提夫:我认为可以,也应该如此。很凑巧,支持禁用这类武器的那些人中间有人联系到我。我对他们的答复是我不认为这么做是痴人说梦。我只是觉得他们的出发点是好的,但方法有问题。首先,我不觉得禁用会有效。其次,我不认为发达国家会参与到这类武器的禁用中。但你禁用某些东西时,大多数时候这类东西会转入地下,你无法对此进行监督,国际法中没有监督这条。


我是武器控制和不扩散条约的坚定支持者。无论是美国、俄罗斯还是中国,他们无论如何都会遵守这类条约。如果我们能够制定某种合约,可以限制那些我们可以集体限制、且具有某种核实机制的东西,更重要的是,各方一致同意防止这类武器的扩散,那就可以说是向前迈进了一步。的确,一些流氓国家到头来会得到一些这类武器。但是对这些军控条约进行监督和核查要比禁用这类武器更容易实现。


科技大佬去信联合国要求禁止杀人机器人


记者:我也是核不扩散条约的坚定支持者。但要生产这类武器,你需要具备强大的工业基础。此外,核原料的生产和藏匿也很难不被人发现。但说到人工智能和网络武器,这些东西可以很容易被隐藏起来,这怎么核查?


拉提夫:在今天,这的确是个问题,除了在武器核查条约的范围上做文章,我不觉着有什么简洁的答案。超级大国在这方面非常在行。就算有种种条约的限制,我们依然可以飞越俄罗斯的领空,俄罗斯也可以飞越我们的,我们的卫星在盯着他们,他们的卫星也盯着我们。


所以说,对于那些新的技术,我们应该给机会进行试验,看看这些技术最终的效果,我们在预测武器性能方面很在行。我不知道最终的核查机制会是什么样子,但是有这样一个核查机制总比下一道禁令,然后再去大海里捞针要强。


记者:几个月前,我采访了曾主抓奥巴马政府尖端国防现代化的前国防部副部长鲍勃·沃克(Bob Work)。他称这一举措为“第三次抵消战略”,因为俄罗斯和中国这些超级大国对手在制导武器和一体化联合作战网络这些“第二次抵消战略”方面已经和我们齐头并进。你是否也这样看待未来的挑战呢?


拉提夫:我也是,而且我赞同副部长关于中、俄已经迎头赶上的观点。你看看近来俄罗斯在叙利亚战场上巡航导弹的攻击,那些导弹先进极了。至于自动化、人工智能、超音速和电磁武器,即使他们眼下还在落后,也会很快赶超上来。所以说,“第三次抵消战略”的领先时间不会比“第二次抵消战略”长多少。


记者:的确,前两次抵消战略(第一次核技术、第二次精确制导)的领先时间只有几十年,第三次可能更短。有鉴于此,对于这些新技术,五角大楼应该重点关注哪些?


拉提夫:我认为我们在自动化和网络空间里仍占据优势。我认为最让我担忧的、也是我最不确定我们是否占据优势的是电子战。我所指的不一定是那些核电磁脉冲武器,我是泛指从小型电子战到大范围电子战涉及的一切问题。


未来战争会涉及网络战、外太空战


记者:比如说干扰系统?


拉提夫:干扰系统是其中之一。或者说能够摧毁或干扰我方电子系统的电子脉冲,有些类似网络战,但使用的是电磁脉冲。还有集成了微波和定向能量束等的战地武器。


记者:所以说不止有杀人机器人,还有“星际迷航”里面的相位枪。说到这一点,我们知道,根据联合国条约,外太空不应该部署武器。但我觉得外太空距离武器化只是一步之遥。俄罗斯甚至印度等在这方面投入了大笔资金,你认为是否有必要在太空武器不扩散方面做些工作?


拉提夫:我本人非常欢迎这方面的举措。但我也认为超级大国可能还不想这么做。说到“星球大战”或“星际迷航”,我并不为外太空的战争而感到非常担心。我甚至不担心在太空部署可有效攻击地球的武器。如果了解一些物理学和轨道力学原理,你就知道这类武器的成本有多高。


让我感到担心的是美国对空间系统的极端依赖,俄罗斯也日渐如此。对此每个人都心知肚明。所以,地基反导系统,无论是可以干扰重要空间系统正常运行的激光、电磁,还是可能干扰或摧毁轨道卫星的在轨武器系统,都令人感到极端的担忧。


记者:还有什么让你睡不着觉?


拉提夫:五角大楼围绕自动化武器的整体思路都让我感到不安。我来解释一下,五角大楼在2012年制定的政策中要求真人必须参与其中,这一点是好的。我反对的是致命自动化武器。但是和大多数这类政策不同的是,国防部并未制定实施指导原则。后续工作一直没有跟进。近期发布的一项国防科学委员会报告不建议杀伤性武器自动化。总的来说,官方在这个问题上异常低调。坦白的说,我认为任何有思想的人都认识到,自动化武器会不知不觉地来到我们身旁,无论我们同意与否,这一天都会到来,我认为目前有关自动化杀伤性武器的政策是掩耳盗铃,我们需要对这些政策做出澄清。


撰文:Tobin Harshaw



【延伸阅读】

杀人机器人横空出世 小如蜜蜂杀人于无形


2017年11日,在日内瓦举办的联合国武器公约会议上,一段可怕的视频公诸于众……美国慌了,伦敦巴黎彻夜无眠,中国虽然暂时无忧,但恐怕今后也要提起十二分精神过日子了!

这段视频发布在上周联合国早会上,有超过七十个国家的代表出席。普通的一个会议为什么会引起世界恐慌?因为它曝光了人类史上一个恐怖武器——杀手机器人!杀手机器人并不是人们想象中的人形机器,但它远比《攻壳机动队》中的约翰逊·斯嘉丽更可怕!

首先,它是一架体型很小的智能无人机,就跟蜜蜂一样大,但它的处理器比人类快100倍,可以躲避人类各种追踪。其次,蜜蜂虽小,五脏俱全,尤其是它全身的黑科技:广角摄像头、传感器、面部识别,应有尽有。只要把目标图像信息输入它身上,它就能手术刀般精准找到打击对象,戴口罩、伪装统统没用,它的识别率高达99.99!

再次,每个杀手机器人配有3克浓缩炸药,确定目标后,一次撞击可以毫无压力爆头,摧毁整个大脑。而且它还能穿透建筑物、汽车、火车,躲避人类子弹,应对几乎所有防御手段。总之,这个杀手机器人目前是bug般的存在!毫无疑问,杀手机器人就是属于这种致命性自主武器!首先,它成本低;其次,千万不要小看它,它杀伤力大得超乎你想象,能颠覆很多核武器实现不了的功能。比如把一个造价仅2500万美元的杀人机器蜂群释放出去,就可以杀死半个城市的人。只要你把敌人挑出来,定义每一个人的面部信息,蜂群就能发起针对性打击了!

杀手机器人只是其中一个分支,这种技术一旦广泛运用,就会把战争冲突升级至前所未有的规模,而且人类将很难控制住局面。作为第三次武器革命的主角,致命性自主武器对人类来说就是灾难!天大的灾难!


    英国《明星日报》网站2017年11月17日发表了题为《杀人机器人军备竞赛》的报道。

一名人工智能专家透露,美国、英国、俄罗斯、以色列等国正卷入一场打造杀人机器人军团的竞赛。

从自主射击枪械和无人机到遥控超级坦克,美国和俄罗斯的原型机器人已经打造成功并整装待发。而人形机器人上战场也不过是几十年内就会出现的事情——并为这个世界勾勒出可怕的前景。

英国设菲尔德大学的人工智能与机器人学荣誉教授诺埃尔·沙尔基对本网站记者说:“一场军备竞赛已经拉开序幕。”

沙尔基说:“我们现在看到,美国、以色列和俄罗斯(的杀人机器人军备竞赛)已经开始了。如果这些东西登场,那么它们随时可能意外触发战争。”

他还说:“怎样才能取缔它们?你完全可以把这些东西永远搁置起来,可它们只需再充一次电就能再次启动。”

如今,人工智能机器人正在全球掀起一股热潮。沙尔基教授担心,杀人机器人的研发可能也有着如此惊人的速度。因此,他正在领导一场禁止杀人机器人的全球运动。

在本网站披露了相关的最新进展——美国机器人做后空翻——后,这名专家警告说,俄罗斯的最新项目“绝对令人害怕”。

沙尔基表示:“还有很可怕的东西……俄罗斯人研发出了这个被称为‘超级坦克’的东西,而它是世界上最先进的坦克,领先很多。它绝对是一个拥有巨大破坏力的庞然大物,而且他们可以远程遥控它。他们还在努力以最快速度把它变成一种全自动的机器人。”

虽然自主武装机器人比人形机器人领先很多年,但沙尔基教授担心,可能出现的人形机器人也许会给世界带来灾难——导致对平民的大屠杀。


在警告杀人机器人的可怕后果时,沙尔基教授说:“这不可能符合战争法,它们能区分某个目标是军事目标还是民用目标吗?这是战争法的关键。”

他说:“杀死试图投降的人也是不允许的。我知道很多人以为投降就是举白旗,其实投降是指任何表明不再战斗的姿态,比如手无寸铁地躺在地上……但机器人无法对此加以区分。我个人最大的担心是,这会对全球安全造成怎样的破坏——因为一场此类武器的军备竞赛已经拉开序幕。”


长按二维码 关注分享

Hi tech+     科技内容优选专家


推荐热文



版权属于:科技周

原文地址:http://78soft.com/article/14077.html

转载时必须以链接形式注明原始出处及本声明。

猜你喜欢

最热文章

热门标签