首页 科技 > 正文

戴尔科技首席技术官解释为什么人工智能需要同理心

戴尔技术公司(Dell Technologies)总裁兼产品和运营首席技术官奥斯汀-约翰罗斯(Austin-John Roese)表示,如果我们希望人类信任人工智能(AI),我们需要教会机器移情。

在上周的戴尔技术峰会上,罗斯与另外两家戴尔技术公司的首席技术官组成了一个小组:戴尔Boomi的迈克尔莫顿(Michael Morton)和RSA的佐勒菲卡尔拉姆赞(Zulfikar Ramzan)。Boomi是一家数据管理公司,使企业能够在云和本地应用程序之间集成和传输数据。RSA是一家安全公司,其创始人开创了公钥加密技术。

这三位CTO讨论了数据时代的三大问题:在人工智能(AI)驱动的实时数据环境中,基础设施是什么样的?人类将在AI驱动的实时数据管道中扮演什么角色?在这个勇敢的新人工智能世界中,安全风险模型将会是什么样子?

这是三个非常聪明的家伙(没有那么多喜剧演员,因为他们很快就承认了)。因此,他们都对AI有一些非常有趣的想法。但特别引起我注意的是考虑周到的人工智能。Roese曾经说过,他在这个话题上“在AI界相当有说服力”。事实上,他在2020年3月参加了SWSX上与此主题相关的小组讨论。

罗斯说,除非人类可以信任机器学习,否则人工智能的进步不会发生。现在,有一个巨大的信任鸿沟。

罗斯说,“对大多数人来说,人工智能是一个黑匣子。我们不信任它,因为我们不知道里面发生了什么。”他补充道,“你的疑惑已经完全解决了。AI正在根据给定的数据工作。它没有考虑到你的情绪和快乐。它基本上是获得一个数据集,并在没有上下文的情况下给出最佳答案。”

学会了人工智能移情

另一方面,人类通常有这种背景。因此,我们的决定可能不总是反映问题的最快和最线性的解决方案。但是他们确实——或者至少应该——考虑一个特定的决定会如何影响其他人。换句话说:人类有同理心。这意味着我们需要将伦理考虑融入机器学习数据集,以确保AI最终以取悦人类的学习同理心做出决策。

罗斯说,“人工智能系统的工作基于额外的刺激。”"你提供这些数据流,这些数据流从根本上影响模型."但是,这也意味着人们可以感受到AI系统的坏数据,比如偏差。

Roese建议,应该将传感器和生物反馈集成到机器学习模型中,以便AI可以理解与之交互的人类的情绪状态。“如果我能测量你的生物反馈呢?我知道你的压力水平、心率或出汗率吗?如果这是模型工作方式中的一个因素呢?因此,它了解到,即使我选择了选项A,即使它给我带来了好的结果,也可能激怒人类。”

显然,那些试图获得与这些人工智能系统互动的客户、合作伙伴和员工信任的公司。这些公司不想让人生气,这也是理解AI如此重要的原因。

因此,我们教机器选择选项b,罗斯说,“这可能更令人费解,但会有更好的结果。”“人类会更少压力,更快乐。一旦你知道AI在代表你思考,你在考虑你的环境,你就会开始更加信任它。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。