9CaKrnKdwzf作者:张阳smart.huanqiu.comarticle亚马逊AI招聘工具被曝歧视女性 官方宣布解散团队/e3pmh140m/e3pmh2jgm【环球网智能报道 记者 张阳】据路透社消息,亚马逊机器学习专家发现其设计的AI招聘引擎存在性别歧视行为,尤其是歧视女性,最终决定放弃其秘密AI招聘工具。据报道,自2014年以来,这个团队始终在开发电脑程序以审查求职者的简历,目的是将寻找顶尖人才的任务自动化。亚马逊的人工智能模型通过观察10年来提交给公司的简历中的模式来审查应聘者,并给求职者打分,打分从一到五星不等。然而众所周知,在科技领域中男性占据了主导地位,导致了亚马逊的招聘A根据这些数据模型,“重男轻女”。在实际的过程中会对“女性”标识自动降级,比如简历中有“女子国际象棋俱乐部队长”的介绍,那么该求职者被认定为女性,就会被自动降级,甚至于据知情人透露,它还下调了两所女子学院的毕业生评级。得知这一情况后,亚马逊迅速对程序进行了调整,使它对这些特定的性别词汇保持中立。但这并不能保证其AI系统不会自行设计出其他可能被证明具有歧视性的筛选求职者的方法。据不愿透露姓名的知情人士说,亚马逊最终在去年年初解散了团队,因为高管们对这个项目感到失望。性别偏见不是这种招聘工具唯一的问题。这些知情人士说,支撑模型判断的数据也存在问题,这意味着不合格的求职者通常会被推荐到各种工作岗位上。机器学习是人工智能领域的核心技术之一,它通过向自动化系统提供大量与主题相关的数据,来帮助自动化系统设计出新的解决事情的手段。最大的担忧在于,数据中的一些偏见会在人工智能系统中被错误的强化,亚马逊的这一案例就是最好的证明。事实上这也不是AI第一次因为数据的问题产生歧视行为,早在2016年微软在Twitter上测试聊天机器人Tay然后仅不到24小时之后,这个聊天机器人就开始在Twitter上发布一些严重的种族歧视言论,而被微软紧急下架。1539245280000环球网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。责编:张阳环球网153924528000011["9CaKrnKdtbY","9CaKrnKdt4E","9CaKrnKdo4Q","9CaKrnKdqPO","9CaKrnKdaTp","9CaKrnKdawa"]//himg2.huanqiucdn.cn/attachment2010/2018/1011/16/12/20181011041244527.png{"email":"zhangyang@huanqiu.com","name":"张阳"}
【环球网智能报道 记者 张阳】据路透社消息,亚马逊机器学习专家发现其设计的AI招聘引擎存在性别歧视行为,尤其是歧视女性,最终决定放弃其秘密AI招聘工具。据报道,自2014年以来,这个团队始终在开发电脑程序以审查求职者的简历,目的是将寻找顶尖人才的任务自动化。亚马逊的人工智能模型通过观察10年来提交给公司的简历中的模式来审查应聘者,并给求职者打分,打分从一到五星不等。然而众所周知,在科技领域中男性占据了主导地位,导致了亚马逊的招聘A根据这些数据模型,“重男轻女”。在实际的过程中会对“女性”标识自动降级,比如简历中有“女子国际象棋俱乐部队长”的介绍,那么该求职者被认定为女性,就会被自动降级,甚至于据知情人透露,它还下调了两所女子学院的毕业生评级。得知这一情况后,亚马逊迅速对程序进行了调整,使它对这些特定的性别词汇保持中立。但这并不能保证其AI系统不会自行设计出其他可能被证明具有歧视性的筛选求职者的方法。据不愿透露姓名的知情人士说,亚马逊最终在去年年初解散了团队,因为高管们对这个项目感到失望。性别偏见不是这种招聘工具唯一的问题。这些知情人士说,支撑模型判断的数据也存在问题,这意味着不合格的求职者通常会被推荐到各种工作岗位上。机器学习是人工智能领域的核心技术之一,它通过向自动化系统提供大量与主题相关的数据,来帮助自动化系统设计出新的解决事情的手段。最大的担忧在于,数据中的一些偏见会在人工智能系统中被错误的强化,亚马逊的这一案例就是最好的证明。事实上这也不是AI第一次因为数据的问题产生歧视行为,早在2016年微软在Twitter上测试聊天机器人Tay然后仅不到24小时之后,这个聊天机器人就开始在Twitter上发布一些严重的种族歧视言论,而被微软紧急下架。