MIT CSAIL开发新式AI可随时间推移追踪目标变化

2018-09-15 15:55 环球网

  【环球网科技 综合报道】据VentureBeat报道,人类利用对物理世界的隐含理解来预测物体的运动,并推断它们之间的相互作用,但机器人很难实现这些逻辑上的飞跃。不过,在麻省理工学院(MIT)下属计算机科学与人工智能实验室(CSAIL)发布的最新论文中,研究人员描述了一个被称为“时间关系网络”(TRN)的人工智能系统,它本质上可以了解物体随时间如何变化。

  MIT CSAIL并不是第一个开发类似技术的公司,百度和谷歌也正在研究人工智能辅助时空建模技术。但是MIT的团队声称,他们的方法在之前方法的准确性和效率之间取得了很好的平衡。论文的第一作者周伯磊(Bolei Zhou)解释称:“我们建立的AI系统可识别物体的变化,而不是物体的外观。这套系统不会检查所有的帧,它会挑选关键帧,然后利用帧的时间关系来识别发生了什么。这提高了系统的效率,并使其实时准确运行。”

  研究人员在三个数据集上训练了一个卷积神经网络——这是一种机器学习模型,它非常擅长分析视觉图像。这些数据集包括TwentyBN的Something-Something(包括174个动作类别的20000多个视频)、Jester(包含27个手势的15万个视频)以及卡内基梅隆大学的Charades(包含157个分类活动的10000个视频)。

  随后,研究人员将这个卷积神经网络松散地放在视频文件中,通过对帧进行分组排序,并确定屏幕上的对象与学习活动相匹配的概率,比如撕下一张纸,或者举起一只手。那么结果如何呢?该模型对Jester数据集实现了95%的准确识别,并且在有限信息量情况下超过了现有的预测活动模型。

  在只处理了25%的视频帧后,它打破了基准,甚至能够区分“假装打开一本书”和“真正打开一本书”等动作。在未来的研究中,研究团队计划通过实现对象识别和添加“直观物理”(即了解对象的真实世界属性),来改进模型的复杂性。

  周伯磊表示:“因为我们知道这些视频里的很多物理知识,所以我们可以训练模型来学习这些物理定律,并利用它们来识别新的视频。我们也开源了所有的代码和模型。‘活动理解’现在是人工智能的一个令人兴奋的领域。”

责编:樊俊卿
分享:

版权作品,未经环球网Huanqiu.com书面授权,严禁转载,违者将被追究法律责任。

推荐阅读