9CaKrnQhMOb作者:smart.huanqiu.comgallery当机器有了智能 这些AI让人毛骨悚然/e3pmh140m/e3pn7fsu3当机器有了智能,奇怪的事情就会接踵而至。在第一波人工智能(AI)浪潮中,曾发生许多令人觉得毛骨悚然的故事。1541378340000责编:陶宗瑶网易科技154137834000011["9CaKrnQhMMC","9CaKrnQhMKG","9CaKrnQhMJT"]{"gallery":{"members":[{"desc":"AI同类相食本世纪初,迈克·塞勒斯(Mike Sellers)曾在美国国防部下属研发部门DARPA从事AI机器人的研发工作。在一次模拟中,两个分别名为亚当(Adam)和夏娃(Eve)的AI机器人被给予少数基本技能。它们知道如何吃东西,但不知道吃什么。当它们试图吃树上的苹果时,它们会感到很高兴。而当它们试图吃同一棵树的木头时,不会得到任何奖励。亚当和夏娃的进展还不错,但当另一个AI机器人斯坦(Stan)被引入时,事情开始变得混乱起来。亚当和夏娃结合起来互相学习,由于斯坦在它们吃苹果的时候在附近闲逛,AI代理们学会了把“斯坦”与“吃”和“快乐”联系起来。猜猜接下来发生了什么?塞勒斯写道:“当时,当意识到所发生的一切时,我们感到非常震惊。在这个AI架构中,我们尽量减少对行为的限制。但在那之后,我们确实严格禁止同类相食行为:无论它们觉得有多饥饿,再也不会吃对方了。”","url":"\/\/himg2.huanqiucdn.cn\/attachment2010\/2018\/1105\/08\/42\/20181105084227841.jpg"},{"desc":"Facebook聊天机器人发明自己的语言还有什么比AI机器人互相勾结更可怕的事情?去年,在Facebook发布了两款旨在互相协商的聊天机器人后,类似的噩梦就发生了。Facebook允许这些机器人自己交流,对话开始时很顺利,虽然有点儿生硬,然后事情发生了奇怪的变化,双方开始以人类无法理解的方式交流。据Facebook研究人员称,这种无法破译的信息实际上是一种新语言。这些机器人用一种人类无法理解的语言相互传递着消息,它们认为这种语言更有利于达成交易,其含义有点儿令人毛骨悚然。","url":"\/\/himg2.huanqiucdn.cn\/attachment2010\/2018\/1105\/08\/42\/20181105084228656.png"},{"desc":"微软机器人满嘴脏话2016年,微软在Twitter上发布了名为Tay.ai的AI聊天机器人。这项技术是微软在中国一个类似项目“小冰”的英文版本,当时该项目已经成功参与了4000万次对话。Tay被专门设计成模仿一个19岁女孩的网络对话模式,这使得接下来发生的事更令人毛骨悚然。在这款机器人在全世界发布数小时后,推特用户开始教它说些带有种族歧视和煽动性的言论。为了了解上下文语境,Tay开始重复这些短语。仅仅16个小时(以及96000条推文)之后,微软就不得不关闭了Tay。","url":"\/\/himg2.huanqiucdn.cn\/attachment2010\/2018\/1105\/08\/42\/20181105084228206.png"},{"desc":"Google Assistant变身哲人谷歌智能助手Google Assistant会做些有趣的事情。但是在和另一个谷歌助手进行对话后,很快就变成了质疑上帝是否存在的哲人。这件事发生在去年,Twitch用户Seebotschat运行了两个谷歌智能音箱,能够让Google Assistant进行相当活跃的对话。在有些搞笑和随意的谈话之后,其中一个Google Assistant坚信上帝存在,而另一个则坚持这是个愚蠢的想法。这段对话实际上很接近于大学宿舍深夜的闲聊。","url":"\/\/himg2.huanqiucdn.cn\/attachment2010\/2018\/1105\/08\/42\/20181105084228113.jpg"},{"desc":"机器人想建立人类动物园大卫·汉森博士(David Hanson)最近因为他的超逼真AI机器人索菲娅(Sophia)赢得了很多媒体的关注。早在2012年,他就在研究另一个机器人,这个机器人被制作成科幻作家菲利普·迪克(Philip K. Dick)的模样。当PBS Nova的记者问Phil Bot,是否认为机器人会接管世界时,这个机器人尖刻的回答让人觉得有点儿胆战心惊。她向提问者保证:“别担心,我会让你在我的人类动物园里感觉既温暖又安全。”","url":"\/\/himg2.huanqiucdn.cn\/attachment2010\/2018\/1105\/08\/42\/20181105084228418.jpg"},{"desc":"塔吉特算法预测年轻女性怀孕塔吉特聘请了统计专家安德鲁·波尔(Andrew Pole),希望能与亚马逊竞争数据驱动型收入。在这个过程中,波尔发现了25种产品,同时购买就可以预测女性怀孕。据《纽约时报杂志》报道,一名明尼阿波利斯男子冲进当地一家塔吉特门店,要求知道其为何给他的女儿寄婴儿服装优惠券。过了一段时间,父亲才意识到商店的算法已经准确地预测到了其女友怀孕的时间。对于隐私权倡导者来说,这是个令人不安的转折。","url":"\/\/himg2.huanqiucdn.cn\/attachment2010\/2018\/1105\/08\/42\/20181105084228158.jpg"},{"desc":"微软聊天机器人再惹祸如果一开始你没有成功,也许要等上一个多星期,你才会公开地再试一次。2016年3月,微软的Tay聊天机器人遭遇公关灾难仅一周后,该机器人就再次上线,结果同样让微软感到尴尬。Tay开始发布与毒品有关的推文,其中一条是关于在警察面前吸食大麻的。微软迅速将Tay撤下(再次),并(再次)道歉。很明显,在最初的Tay灾难发生后,研究人员在测试聊天机器人时,不小心把它重新放回了网上。","url":"\/\/himg2.huanqiucdn.cn\/attachment2010\/2018\/1105\/08\/42\/20181105084229463.png"},{"desc":"MIT发现“乌龟变步枪”AI早期的主要用例是基于对象识别的威胁检测。就在几周前,一款新的AI安全摄像头系统可以识别枪支和活跃的枪手,并向当局发出警报。这听起来是个好主意。但前提是目标检测无可非议。事实证明,事实远非如此。麻省理工学院(MIT)的研究人员证实,图像识别软件可能会被所谓的“像素攻击”所欺骗。在这种攻击中,图像的某个像素会被改变,随之产生的细微变化,狗会变成猫,汽车变成飞机,3D打印的乌龟变成了武器。","url":"\/\/himg2.huanqiucdn.cn\/attachment2010\/2018\/1105\/08\/42\/20181105084229255.jpg"},{"desc":"特斯拉汽车误认卡车为天空这是一个悲剧,当机器被赋予做出决定的能力时,这是个终极噩梦。第一起涉及无人驾驶汽车的事故发生在处于自动驾驶模式的特斯拉汽车上,它撞上了一辆大卡车,车顶都被掀飞。尽管这是特斯拉2亿公里自动驾驶里程中发生的第一起致命事故,但这一事件仍让刚刚警觉起来的公众不寒而栗。那是因为这次事故完全可以避免,这辆车只是把卡车误认为远处明亮的天空,因此没有刹车。在生命的最后时刻,乘客可能才完全意识到,如果他始终保持关注的话,就会发现那辆车产生了误解。不幸的是,司机没有踩刹车,很可能在撞击发生的那一刻,他的视线离开了路面。","url":"\/\/himg2.huanqiucdn.cn\/attachment2010\/2018\/1105\/08\/42\/20181105084229518.jpg"}]}}//himg2.huanqiucdn.cn/attachment2010/2018/1105/08/48/20181105084814426.jpg