电子新闻网

戴尔技术首席技术官解释为何人工智能需要同理

  奥斯汀戴尔技术公司产品与运营总裁兼首席技术官约翰罗斯(John Roese)表示,如果我们希望人类信任人工智能(AI),那么就需要教会机器同理心。

  罗斯在上周的戴尔技术峰会上与另外两个戴尔技术公司的CTO组成了小组:戴尔Boomi的Michael Morton和RSA的Zulfikar Ramzan。Boomi是一家数据管理公司,它使企业可以在云和本地应用程序之间集成和传输数据。RSA是一家安全公司,其创始人开创了公共密钥加密技术。

  这三个CTO讨论了数据时代的三个主要问题:在人工智能(AI)驱动的实时数据环境中,基础架构是什么样的?人类将在AI驱动的实时数据管道中扮演什么角色?在这个勇敢的新AI世界中,安全风险模型将是什么样?

  这是三个非常聪明的家伙(没有那么多喜剧演员,因为他们很快就承认了)。因此,他们都对AI有一些非常有趣的想法。但是特别引起我注意的一个是善解人意的AI。罗斯(Roese)说过,这个话题他“在AI界颇有说服力”。实际上,他参加了2020年3月在SWSX上与此主题相关的小组讨论。

  罗斯说:“对于大多数人来说,人工智能是一个黑匣子,我们不信任它,因为我们不了解它内部正在发生什么。”他补充说,“您的怀疑已经得到了全面的解决。AI正在根据给定的数据工作。它并没有考虑到您的情绪和幸福。它基本上是在获取数据集,并在没有上下文的情况下给出最佳答案。”

  另一方面,人类通常具有这种背景。因此,我们的决策可能并不总是反映最快,最线性的解决问题的方法。但是他们确实-或至少应该-考虑给定的决定将如何影响其他人。换句话说:人类具有同理心。这意味着我们需要将伦理考虑因素整合到机器学习数据集中,以确保AI最终以取悦人类的学习同理心做出决策。

  罗斯说:“人工智能系统基于额外的刺激而工作。”“您提供这些数据流,而这些数据流从根本上影响模型。”但是,这也意味着人们可以感觉到AI系统的不良数据,例如偏差。

  Roese建议将传感器和生物反馈整合到机器学习模型中,以便AI可以了解与之交互的人类的情绪状态。“如果我能够测量您的生物反馈该怎么办?我知道您的压力水平,心脏呼吸频率或出汗率吗?如果这是模型工作方式的一个因素?因此,它了解到,即使我选择了选项A,即使它给我带来了不错的结果,也可能会激怒人类。”

  显然,那些试图与与这些AI系统进行交互的客户,合作伙伴和员工赢得信任的企业。这些公司不想让人类生气,这就是为什么善解人意的AI如此重要的原因。

  因此,我们教机器选择选项B。罗斯说:“这可能会更加令人费解,但是会有更好的结果。”“人类将减轻压力,并且会更快乐。一旦您了解到AI代表您思考,就在考虑您的环境,您就会开始更加信任它。”

  郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

  教育新闻网 所刊载内容之知识产权为界限网络及/或相关权利人专属所有或持有。未经许可,禁止进行转载、摘编、复制及建立镜像等任何使用。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。