令人恐惧的AI”吸血鬼“时代 人类需要刀锋战士

2018-01-29 08:59:00 网易智能 分享
参与

  最近世界上有这样一个热门话题:人工智能是否能够拥有做出符合伦理的决策能力。在讨论自动驾驶汽车的未来时,这个问题便自然而然地浮出水面,但是它同时也包含了类似于“刀锋战士”这样的科幻电影所描绘的道德难题。

  这些高层次的问题辩论围绕着关于一个未来几年的世界,在那时,人工智能已经成为我们生活中不可或缺的一部分。想想Siri,亚马逊的Alexa,以及许多智能手机上的照片分类功能,像这些技术的普及已经影响了人们对机器人工智能的看法。在最近的一项调查中,61%的受访者表示社会将会因自动化和人工智能技术的提高而变得更优秀或者说将得到极大的进步。

  但真正人性化的人工智能需要时间去开发,而且科学必须同时考虑创造智能机器的意义。这个问题可能涉及到对于如何看待给予机器人权利和意识的考虑。随着人工智能创新的不断推进,围绕技术发展的有关伦理方面的讨论也非常需要紧跟其发展的步伐。

  复杂的人工智能问题很难去得到准确的答案,但有关对它的思考和辩论不会停止。目前人类正在开发许多类似刀锋战士中所描述的复制品所需的技术。机器学习是人工智能其中的一个部分,并且该技术已经让早期的机器人能够通过触摸和语言识别与人类进行交互活动,这些能力对仿生技术至关重要。自然语言处理技术也得到了改善,这使得一些机器人能够通过响应复杂的语音命令来识别扬声器中发出的声音,即使在嘈杂的房间中,它们也能做到准确识别。

  然而,为了达到更高的水平,由于设备的相关智能系统还相对不成熟,当今的人工智能技术仍需进步来提供更先进的处理方式。这种处理将需要对有关工程进行升级改造,特别是关于高效的计算能力,数据存储和云端独立技术(复制品不能依赖互联网连接进行思考)等,而我们面临的主要挑战是使机器能够“紧密学习”,这也与人类从经验中学习的方式类似。

  这个概念可以从分布式计算的思想开始说明。事实上,人工智能算法主要依靠庞大的数据运行。例如,一个智能音箱可能会通过识别关键字来进行相对的反应,但是真正的脑力劳动发生在距离数千英里的数据中心。将来,随着研究人员加强人工智能算法在设备上本地运行的能力,这种情况将会发生改变。离散式学习加速器可以在必要时支持这些算法,使机器达到具有独立思考和学习能力的水平,并使其能在遇到互联网上的任何中断问题时处理起来更有弹性。这也意味着一台机器可能不需要通过与云数据来共享敏感信息来做出行为。

  许多科技公司都相信这一愿景,并正在推动设备的自主机器学习能力,以便有一天能够在所有设备上实现高级智能,实现从微型传感器到超级计算机的转变。这是一种分布式人工智能计算,这个过程与人脑中发现的过程类似,拥有该技术的设备能够基于超高效计算,形成了独立的认知能力。虽然人类大脑的效率仍然比现在我们拥有的任何芯片都高出数万倍,但是我们可以看到人工智能是如何跟随进化路径进入紧密学习状态来缩小与我们大脑的差距。

  在最近的进展中,研究人员已经应用分布式计算概念来创建双向脑计算接口(BBCI),它是一种计算机芯片网络,其目标是将内部网络植入人脑。这个过程的目的是帮助改善患有神经系统疾病或脑损伤的人的大脑功能,但是这项技术也对先进的人工智能有着更多含义。

  和人脑一样,分布式网络中的每个节点都可以存储和消耗自己的能量。这些迷你电脑可以通过从环境中提取电磁辐射来运行,就像手机和Wi-Fi信号的原理一样。由于计算能力强大,采用小型自充电封装,理论上讲,分布式计算网络可以执行高级人工智能处理,而不依赖庞大的电池组或远程服务器连接。

  分布式计算的出现有一天会导致人工智能与人类智能的竞争。但是,我们如何确保有生命的复制体拥有与我们类似的复杂决策和道德推理能力呢?他们需要在具有挑战性的现实环境中如何安全地与人类进行交互?

  来自利物浦大学的博士后研究员路易斯⋅丹尼斯(Louise Dennis)看到了一种解决方案。在她看来,所有这些都是关于对人工智能进行编程的问题,对其存在价值的定位要足够严格,以确保人身安全,但它们也应该足够灵活以适应周围复杂的情况,有时也会出现相互矛盾的道德原则问题等等。

  虽然我们远没有遇到像如何对待复制品,如刀锋战士电影里描述的2049年的情况那样复杂,但人工智能伦理学家们已经在努力开始考虑和尝试解决一些棘手的问题。

  举个例子,英国已经在围绕无人驾驶飞机的规定问题上进行辩论。丹尼斯小组建议,公司需要让无人驾驶智能飞机遵循民航局的空中管制。但民航局担忧的是,虽然民航局训练飞行员严格遵守条例,但在有必要保全人类性命时,他们往往会选择打破这些规则。所以,如何编程一个机器人让它知道什么时候需要遵守规则,什么时候需要打破这些规则,并不是一件容易的事情。

  如果我们想让事情变得更加复杂,我们可以考虑到,价值观并不只有一种。我们的许多道德优先事项取决于我们周围的社区环境。人工智能的伦理必须具有在一些情况下保持稳定的价值观,并且与不能被其他人所干扰,从而能使它们像人一样运作。

  人工智能发生决策错误是不可避免的,其中一些会有需要承担的后果。丹尼斯说,尽管如此,A人工智能承诺会提高安全性,所以我们最终必须决定什么是可接受的风险水平。

  “这永远不会是完美的结局,”丹尼斯说。 “我认为这只是人们如何看待尽职调查或者去接受将来可能会发生的事故的问题。”

  大众文化充斥着对人类的技术创新的警示,总会有反对者想把灵感精灵永远装在瓶子里,但在人工智能这项问题上为时已晚。我们中的很多人已经在我们的日常生活中与人工智能进行互动,而将人工智能打造成与人类行为进行融合的方式无疑将使互相之间的关系变得更加稳固,像丹尼斯这样的专家在仿生技术革命中也并没有表现出太大的担忧。事实上,她认为这样的担忧往往会让人们对正确的人工智能的发展方向分散注意力。

  丹尼斯说:“我们不应该担心机器人是一种潜在的威胁,而是应该开始担心社会将如何适应信息革命,如果不能与它同舟共济,后果很可能是相当难以接受的。”

  开发能够做出道德决策的机器人将是这一适应过程的关键部分。虽然分布式计算可能使现实生活中的复制品K拥有与人类类似的能力,但未来的复制者不会去伤害人类。而且,如果人工智能的伦理学领域的进步速度与人工智能发展速度本身一样快,那么未来的机器人可能会被设计成为严格遵守我们人类制定的严格的道德准则的模范好公民。

责编:陶宗瑶(实习生)