电子新闻网

联想徐飞玉:探讨“可解释的人工智能”展示人

  9月25日,全球最具规模的人工智能盛会——2019年The AI Summit旧金山站正式开幕。联想集团携其领先的人工智能技术和解决方案亮相展区。联想集团副总裁、联想研究院人工智能实验室负责人徐飞玉博士作为受邀嘉宾参加了此次峰会并做了题为“可解释的人工智能:历史、挑战、方法和展望”的主题演讲。

  徐飞玉博士认为,可解释的AI并不是一个新话题,在人工智能诞生时就有专家进行过讨论。但是随着深度神经网络和机械学习在近一段时期的快速发展,这个话题又重新受到了关注。这其中的主要原因,是现在没有可行的解释机制可以对现在的神经网络和机械学习的决策过程给出人类可以理解的解释,就算是人工智能的开发者也无能为力。同时,当代社会对科技对人类生活的影响也越来越警惕。欧盟一般数据保护条例(GDPR)也规定,如果人工智能算法在涉及个人数据的事务中有决定权,这个算法必须能够被解释。随着人工智能被应用在社会的方方面面,人们需要对AI的决策机制有一个清晰透彻的认识,才能放心地将决定权交给人工智能。

  徐飞玉博士表示,现在全球在研发可解释的AI的工作上主要有三个重要领域。第一是使深度神经网络的组件变得更加透明,第二是从现有的深度神经网络里面学习到语义图,第三是生可以理解的解释。联想的人工智能实验室也在这个领域进行了不懈的努力。目前,联想正在全球的服务供应链系统中应用可解释的人工智能,系统中由AI做出的需求预测都力求实现人类可以理解的决策过程。

  可解释的AI这一概念在国外已得到广泛关注,近几年,随着人工智能落地前景的升级讨论,中国业界也开始对其进行积极探讨。徐飞玉博士作为长期关注这一话题领域的专家,已在国内做过多次相关的报告和演讲。她表示,当前国内的一些院校,比如清华大学,对此也开始给予更多关注。而联想一直在可解释的人工智能方面具有领先水平。从布局来看,联想人工智能实验室在各个领域都在布局可解释的人工智能,特别是医疗方面。相信未来在徐飞玉博士和联想这样的科学家和领先企业的努力下,我国在可解释的AI这一领域的研究也将跃居世界前列。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

相关文章阅读