“杀人机器人”离我们有多近?

无人机和机器人取代军人作战的现实离我们有多近,有多可怕?现在人权活动人士和许多专家都呼吁尽早采取行动,阻止”杀人机器”战争成为现实。

非政府组织联合报告说,禁止使用完全自主武器的禁令的呼声越来越高。人权组织”人权观察”发表报告说,能自主杀人的武器系统违反确立了长达百年的国际法。

活动人士和专家说,在战场上使用完全自主的武器违反国际法,对于长期以来要求禁止”杀人机器人”的呼声也愈演愈烈。

随着高科技发达国家则武器研发中加大投入,武器自主程度不断提高的情况下,在未来战争中,可能会有不需要人控制的人工智能大炮,飞机,舰船和坦克投入战斗。

《卫报》报道说,26个国家明确表示支持禁止全面自主性武器,包括奥地利,比利时和中国在内的国家最近加入了成千上万科学家和人工智能专家的呼吁,其中还有20位诺贝尔和平奖得主。

全球性非政府组织联合发起的”禁止杀人机器人运动”发布新报告说,全面自主的武器违反了马尔顿斯条款(Martens clause),这是国际人道法律被广为接受的条款。

该法要求要按照”人道原则”评判新出现的技术,如果再没有其他条约规定的情况下,由”公共良知决定”,令武装冲突行为不仅受条约和习惯法约束,而且还要受该条款涉国际法原则约束。

前景可怕

《卫报》报道,”人权观察”机构武器部的高级研究员邦妮・杜克蒂(Bonnie Docherty)说,允许开发并使用”杀人机器人”会破坏已经确立的道德和法律标准,不同国家应该共同努力,在这种武器全球扩散前就杜绝这种武器。”禁止杀人机器人运动”由”人权观察”机构协调进行。

邦妮・杜克蒂说,”越来越多来自科学家,宗教领袖,高科技公司,非政府组织,普通公民的反对说明公众明白了 “杀人机器人”超越了道德界限。他们对此很担心,许多国家政府也很担心,这都需要立即采取应对措施。”

8月27日70多个国家的政府将在日内瓦参加联合国的第六次有关会议,讨论完全自主武器带来挑战。虽然会议并没有达成特定目标,但是讨论按照2018年一个主要的裁军协议的模式进行。

《卫报》提到英国谢菲尔德大学人工智能和机器人专业教授诺尔·沙吉(Noel Sharkey),说他早在2007年就描述过机器人战争的现实。诺尔·沙吉说”把生死决定交给没有同情心和理解力的冰冷机器,不符合马尔顿斯条款,让我不寒而栗。”

这位给”禁止杀人机器人运动”代言的机器人专家说,他们期望更多欧洲国家参加这项努力,更强烈的呼吁将能促成明年进行谈判,因为越来越多人认为,在冲突中由人控制武器系统至关重要。

部分实现

虽然完全自主的武器系统还没有成为现实,但是一些高级军队将领已经表示使用这类武器,即不经人控制就选择并且打击目标的武器,只需几年时间就会被广泛使用。

《卫报》报道说,至少381种部分自主的武器和军用机器人系统在12个国家中被部署或尚处研发阶段,这些国家包括法国,以色列,俄罗斯,英国和美国。

一些自动武器系统已经进入部署阶段,诸如在朝鲜半岛三八线非军事区有机械化的哨兵,以色列部署的”铁穹”(Iron Dome)导弹防御系统。不过这些系统还不是完全自主的武器系统。

英国的《新闻邮报》报道说,俄罗斯在太空已经部署了4个所谓的”杀人机器人”。上周许多英语媒体报道说,俄罗斯在去年10月部署的一个卫星”行为古怪”,令美国专家捉摸不透,引发对莫斯科开发太空武器意图的担心。

有报道说,俄罗斯反对禁止全面自主的武器系统,其后美国等国家也加入反对行列。他们会寻求阻挠未来就禁止这类武器举行谈判。

国际数据公司(IDC)的资料显示,全球投入机器人的研究经费在2016年为915亿美元,这个数字在2020年将增加到1880亿美元,届时全面自主武器将成为现实。

发表评论

电子邮件地址不会被公开。 必填项已用*标注

Sections

Shows

Local News

Tools

About Us

Follow Us

跳至工具栏