机器人杀手真来了?韩国研究AI武器遭多国抵制

2018-04-08 08:46 网易智能

  据外媒报道,韩国科学技术院与韩国十大财团之一韩华集团旗下韩华系统公司合作,于近期开设了人工智能研发中心,目的是研发适用于作战指挥、目标追踪和无人水下交通等领域的人工智能技术。

  这引起业内专家的广泛担忧,目前,30个国家和地区的人工智能及机器人专家宣布将抵制研究人工智能武器的韩国科学技术院(KAIST),这由澳大利亚新南威尔士大学人工智能教授托比⋅沃尔什发起,美国和日本等30个国家和地区的研究人员4日签署了一封公开信,敦促韩国科学技术院停止人工智能武器研发,他们称这是加速机器人武器开发竞争的动向,令人遗憾,并表示如果该大学不承诺停止研发,将与之断绝关系,而且将拒绝访问韩国科学技术院、接待对方访客或与对方合作研究项目,直至这所韩国顶尖大学承诺放弃研发缺少“有效人工控制”的武器。

  我们注意到,这封联名信中写道:“自动武器一旦成熟,战争发展速度和规模将前所未有,它们可能会被恐怖分子利用。”发起联名抵制的人工智能教授沃尔什告诉路透社记者,机器人和人工智能技术实际可以在军事领域发挥有利作用,比如完成扫雷等威胁人类安全的任务,但我们不能将决定生死的权力交给机器,这就越过道德底线。

  无独有偶,Google内部流传着一封联名信,有3100多人在上面签名,抗议谷歌为五角大楼提供人工智能力量,谷歌的员工希望谷歌CEO退出五角大楼的代号为Maven的项目,并宣布“永不开发战争技术”的政策。

  业界评论认为,这家硅谷巨头和美国政府之间的文化冲突将就此凸显出来。

  不仅仅只有联名抵制韩国和抵制美国五角大楼,其实,早在今年3月,来自14个组织的26名研究人员对恶意AI所造成的危险进行了全面的报告。

  他们为期两天的会议产出了一份长达100页的报告,内容是关于人工智能不良应用所带来的风险以及降低这些风险的策略,工作组提出的四项建议中,有一项是“人工智能的研究人员和工程师应当谨慎对待其工作的双重使用特性,在研究的优先级和规范中考虑相关使用不当所产生的影响,并在有害应用程序可预见时主动联系相关的参与者。”

  这一建议尤其适用于最近兴起的“deepfakes”,主要把机器学习用于将好莱坞女演员的脸换接到色情演员的身体上(制作人工合成的假色情片),由Motherboard的Sam Cole最先报道,这些deepfakes是通过改编一个名为TensorFlow的开源机器学习库来实现的,该库最初由谷歌工程师开发,Deepfakes强调了机器学习工具的双重使用特性,同时也提出了一个问题:谁应该使用这些工具?

  尽管报告中特别提到了Deepfakes,研究人员还强调了将这种类似的技术用于处理世界领导人视频所产生的危害,这会对政治安全构成威胁,这是研究人员考虑到的三大威胁领域之一,人们只需想象出一段虚假的视频,比如特朗普宣战以及由此引发的后果,就会明白这种情况的危险性。此外,研究人员还发现,通过数据分析和大规模有针对性的宣传,利用人工智能技术,能实现前所未有的大规模监控,这是对政治领域考量的另一个侧面。

  另外两个被认为是恶意人工智能的主要风险领域是数字和物质安全(physical AI?security)。

  在数字安全方面,使用人工智能进行网络攻击将“缓解现有的攻击规模和效率之间的权衡。”大规模的网络攻击可能会以人工智能的形式进行,比如大规模的网络钓鱼,或者更复杂的攻击形式,比如使用语音合成来模拟受害者。

  在物质AI威胁方面,研究人员观察到物质世界对自动化系统越来越依赖,随着更多智能家居和自动驾驶汽车上线,人工智能可能被用来颠覆这些系统,并造成灾难性的破坏。此外,还有故意制造恶意人工智能系统所带来的威胁,比如自动化武器或微型无人机。

  其中一些场景,比如微型无人机所带来的灾难,似乎还很遥远,而其他的一些,比如大规模网络攻击、自动化武器和视频操控等,已经引发了一些问题。为了应对这些威胁,并确保人工智能被用于造福人类,研究人员建议开发新的政策解决方案,并探索不同的“开放模式”以降低人工智能的风险。例如,研究人员认为,中央访问许可模式(central access licensing models)可以确保人工智能技术不会落入坏人之手,或者建立某种监控程序来密切记录人工智能资源的应用途径。

  报告写道:“目前的趋势强调了对前沿研究和发展成果的广泛开放,如果这些趋势在未来5年持续下去,我们预期攻击者用数字和机器人系统造成危害的能力会显著提高。”另一方面,研究人员认识到,开源人工智能技术的扩散也将越来越多地吸引决策者和监管机构的注意,他们将对这些技术施加更多限制,至于这些政策应该具体采取何种形式,必须从地方、国家和国际层面上加以考量。

  报告总结说:“这份报告的合著者之间仍然存在许多分歧,更不用说世界上不同的专家群体了,随着各种威胁和反馈被发现,在我们得到更多的数据之前,这些分歧不会得到解决,但这种不确定性和专家分歧不应阻止我们在今天尽早采取预防措施。”

  所以,马斯克们所代表的AI威胁论是占据上风了吗?对此,你怎么看?

责编:陶宗瑶(实习生)
分享:

推荐阅读