如果AI作恶怎么办?DeepMind可能要开发保险机制

2018-09-29 14:58 环球网 张阳

  【环球网智能报道 记者 张阳】人工智能自从火爆技术领域以来,能够提升工作效率,将人类从一些枯燥乏味的重复性劳动中解放出来。然而面对智能的崛起,许多人抱有忧虑和不安,那么人工智能会“作恶”吗?

  有科技狂人之称的马斯克在Twitter上表示,“我们要非常小心人工智能,它可能比核武器更危险。”。史蒂芬·霍金也说“人工智能可能是一个‘真正的危险’。机器人可能会找到改进自己的办法,而这些改进并不总是会造福人类。”

  事实上人工智能“作恶”的事件已经发生过了,2016年3月23日,一个人设为19岁女性,昵称为Tay 的聊天机器人在推特上线。这个微软开发的人工智能采用了自然语言学习技术,能够通过抓取和用户互动的数据,处理并模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口叫嚣着种族清洗、粗野不堪的极端分子,微软只好以“系统升级”为由将其下架。

  Alphabet旗下子公司DeepMind的研究人员正在研究如何确保人工智能的安全开发。指导思想是想让性能强大的系统能够学习并找出自己的问题的解决方案,而不会以意想不到的甚至是不希望出现的方式进行运行。

  最大的问题在于能够具体标明什么样的系统行为是不希望发生的,甚至即使在不可预测的情况下,也要让系统能够正常运行,或者保险机制,以便在必要时强制中断此行为。

  这是学术界正在持续研究的一个领域。关于机器学习系统行为异常的例子已经有很多了,以人工智能助手为例,它教会了自己以一种非常奇怪的方式在CoastRunners这款游戏中得分:它不是通过完成比赛获得游戏中的高分,而是通过击中游戏中的障碍物来得分。DeepMind的人工智能安全团队也展示了如果人工智能被证明以一种危险的方式在行事的话,让人工智能自我关闭的运行机制。

  我们不应该过分担心人工智能系统会变得具有危险的自主性,无论如何,现在还有更大的问题需要担心,比如可能潜藏在人工智能算法中的人类偏见,以及许多机器学习系统难以理解的事实。

责编:张阳
分享:

版权作品,未经环球网Huanqiu.com书面授权,严禁转载,违者将被追究法律责任。

推荐阅读