9CaKrnK7ERE作者:实习编译:汪雄飞 审稿:李宗泽smart.huanqiu.comarticle专家:杀手机器人一年内将上战场 而且敌友不分/e3pmh140m/e3pmh2jgm【环球网智能综合报道】据英国《每日邮报》报道,英国谢菲尔德大学诺埃尔•夏基博士近日预言,无法分清无辜民众和敌人的杀人机器人一年内即会踏上战场。一些国家正在开发AI武器,这些机器人完全自主,无需人类监管。专家认为,根据联合国公约,应该禁止这种机器人。本周的日内瓦联合国大会上,专家和官员聚集起来讨论在全球范围内禁止研发杀人机器人。 如果联合国限制开发杀人机器人的国际公约未通过,杀人机器人一年内即会踏上战场。诺埃尔•夏基博士认为,早期战争机器会导致大规模伤亡,而且它们没法分清敌人和民众。作为谢菲尔德大学AI和机器人学教授,夏基博士对《每日邮报》网站说,“迫切需要”国际公约来禁止使用全自动杀人机器人。这位AI专家具有丰富的机器人学领域经验,曾任流行电视节目“机器人战争”裁判长。夏基教授说:“大部分(国家)说过有意义的人类掌控武器是至关重要的。我相信公约会通过的,但担心是哪种公约?如果没有公约禁止,一年内杀人机器人就会上战场。”目前,机器人系统能使用AI开发致命的武器,但必须“有人监管”。专家强调,所有机器人武器必须有一定程度的“有意义的人类控制”。夏基教授说,“‘人类监管’这样的术语就和按下按钮发射导弹一样简单。‘有意义’这个词非常重要,它意味着在决定交火和决定目标时有人参与。”夏基教授认为,这是军人和武器制造商争论的关键点。与其他专家一起,夏基教授认为杀人机器人的主要缺点是技术无法实现像人一样做决定。在生死的抉择中,会有毁灭性的后果。本周,来自90个不同成员国的专家和官员聚集到日内瓦参加联合国大会,将要讨论这一话题。10日是他们讨论“致命自主武器系统(LAWS)”的第一天。11日的主要话题是“考虑致命机器人力量中的人类因素”。(实习编译:汪雄飞 审稿:李宗泽)1523499540000环球网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。责编:陶宗瑶环球网152349954000011["9CaKrnK7CgS","9CaKrnK7ApA","9CaKrnK7yT0","9CaKrnK6P8h","9CaKrnK7v8s"]//himg2.huanqiucdn.cn/attachment2010/2018/0412/10/21/20180412102108276.jpg
【环球网智能综合报道】据英国《每日邮报》报道,英国谢菲尔德大学诺埃尔•夏基博士近日预言,无法分清无辜民众和敌人的杀人机器人一年内即会踏上战场。一些国家正在开发AI武器,这些机器人完全自主,无需人类监管。专家认为,根据联合国公约,应该禁止这种机器人。本周的日内瓦联合国大会上,专家和官员聚集起来讨论在全球范围内禁止研发杀人机器人。 如果联合国限制开发杀人机器人的国际公约未通过,杀人机器人一年内即会踏上战场。诺埃尔•夏基博士认为,早期战争机器会导致大规模伤亡,而且它们没法分清敌人和民众。作为谢菲尔德大学AI和机器人学教授,夏基博士对《每日邮报》网站说,“迫切需要”国际公约来禁止使用全自动杀人机器人。这位AI专家具有丰富的机器人学领域经验,曾任流行电视节目“机器人战争”裁判长。夏基教授说:“大部分(国家)说过有意义的人类掌控武器是至关重要的。我相信公约会通过的,但担心是哪种公约?如果没有公约禁止,一年内杀人机器人就会上战场。”目前,机器人系统能使用AI开发致命的武器,但必须“有人监管”。专家强调,所有机器人武器必须有一定程度的“有意义的人类控制”。夏基教授说,“‘人类监管’这样的术语就和按下按钮发射导弹一样简单。‘有意义’这个词非常重要,它意味着在决定交火和决定目标时有人参与。”夏基教授认为,这是军人和武器制造商争论的关键点。与其他专家一起,夏基教授认为杀人机器人的主要缺点是技术无法实现像人一样做决定。在生死的抉择中,会有毁灭性的后果。本周,来自90个不同成员国的专家和官员聚集到日内瓦参加联合国大会,将要讨论这一话题。10日是他们讨论“致命自主武器系统(LAWS)”的第一天。11日的主要话题是“考虑致命机器人力量中的人类因素”。(实习编译:汪雄飞 审稿:李宗泽)