周鸿祎:在“大安全”时代 AI本身就有安全问题

2018-05-16 13:34 环球网 张阳

  【环球网智能报道 记者 张阳】无人值守的汽车、无人值守的高铁、无人机……随着人工智能技术的发展,越来越多的无人值守系统会出现在社会生活的方方面面,以更智能的姿态解放人类的双手。但是,这些无人值守系统真的足够智能与安全吗?在5月16日召开的第二届世界智能大会上,360集团董事长兼CEO周鸿祎指出,“人工智能本身就存在安全问题,我们必须要审慎以待。”

  360集团董事长兼CEO在第二届世界智能大会上演讲

  周鸿祎认为人工智能自身存在的问题分为以下几个方面。

  首先是上面我们提到的无人值守系统,周鸿祎认为它们都有安全漏洞的风险,一旦被网络劫持,将带来严重的安全问题。

  比如,过去的武器像机枪是控制在战士手里的,由人来判断和扣动扳机。一旦在军事上越来越多地引入人工智能技术,假如未来用人工智能做成智能机枪以后,它就可以自己发现目标和自动射击。如果这样的系统哪天不小心被黑客控制了,他就可以远程来控制武器射击,滥杀无辜,造成的后果非常可怕。

  第二,人工智能所依赖的传感器、训练数据和使用的开源软件等都可能存在安全隐患,比如传感器可以被干扰,系统自身也可以被欺骗或入侵。

  周鸿祎举例称,360安全团队就曾在测试中利用超声波干扰技术成功实现对特斯拉的欺骗,让它相信前方的障碍物并不存在。360安全团队也因为上报了这个漏洞,进入了特斯拉名人堂。”。

  再比如,近年来出现的针对智能设备的海豚音攻击行为,黑客通过产生一些无意义的超声波信号,虽然人无法听见,却可以被手机、智能家居以及智能汽车等智能设备的语音控制系统接收到。黑客再利用麦克风的硬件漏洞进行自动解调恢复出原始的语音命令,就可以悄悄开启智能手机、智能家居、智能汽车的语音助手,然后随意拨打电话、发短信、视频通话,或者将设备切换到飞行模式等操作。

  第三,人工智能还有一个问题,就是目前的人工智能还只是一种用大量数据训练出来的概率判断系统,远远称不上完善。

  周鸿祎表示,人工智能也许可以有99.99%的概率保证识别是正确的,但是对于安全来讲,它只要出现一次识别错误,就会造成严重后果。周鸿祎举了前段时间Uber无人驾驶汽车造成行人死亡的案例。

  第四,现在的人工智能系统大多使用开源软件和架构,代码都是由人类所编写的,这里面的安全漏洞本身就会很多。

  周鸿祎在演讲中强调,智能技术的应用将打通虚拟世界和现实世界的界限,对网络空间的攻击可以直接穿透虚拟空间,映射到物理空间安全,产生物理损失和物理伤害。因此,周鸿祎认为网络安全威胁已经从网络空间,扩展到国家安全、国防安全、关键基础设施安全、社会安全、城市安全,乃至人身安全。可以说,随着智能经济发展,网络安全已经进入了“大安全”时代。当人工智能、智能经济这些热门词汇开始受到关注时,我们更要居安思危,共同守护网络空间与物理世界的安全。

责编:张阳
分享:

版权作品,未经环球网Huanqiu.com书面授权,严禁转载,违者将被追究法律责任。

推荐阅读