首页 手机 > 正文

Pegasystems的苏曼·雷迪说 组织必须允许人类超越AI的推理能力

``人工智能模型需要调整以更贴近客户需求'

Pegasystems India董事总经理苏曼雷迪表示,如果我们希望人类信任人工智能(AI),那么我们需要融入同情心,这是与AI系统相关的道德问题的核心。

随着企业试图改善客户服务,许多企业使用人工智能来帮助客户更快、更便宜、更智能地做出决策。Reddy告诉Business Line:“他们还使用聊天机器人或智能虚拟助理来简化对话,接管常规的客户咨询。但在寻求个性化交互、减少交互时间的过程中,人性化的方式正在被淘汰。”

他指出,最终,客户服务变得没有人情味,效率低下,无法适应客户环境。

Pegasystems最近进行的一项调查证实了这一概念,其中70%的受访者表示,他们宁愿与另一端的人交谈,而不是聊天机器人。

人工智能的本质意味着,尽管它的效率很高,但有时它的运作方式缺乏人类可以描述的同理心,或者用实际上可能有害于客户忠诚度的建议轰炸客户。

客户服务决策

Reddy坚持认为,除了AI的推理能力,客户参与场景更加复杂,组织必须允许人来接手。

“他们可以利用自己天生的判断和推理能力来解决案件。通过将人工智能与真实的人类客户代理结合起来,客户可以从人工智能中获得人工判断的好处,允许代理在决定采取哪种方式之前审查人工智能的建议,”他补充道。

他继续说,这种全面的方法可以帮助管理不适合预先定义的答案或需要大量微妙判断的困难对话。

他说,例如,一家银行的销售团队可能会通过其人工智能使用数据分析和模式识别来增加季度数据。“虽然人工智能算法可能会满足强制性规定,但它可能会向那些几乎无法负担的家庭提供高息贷款或保险费。该计划对他们或银行来说可能是不可持续的。在这种情况下,AI将被配置为实现银行利润最大化的意愿,即使以牺牲客户利益(过高定价的索赔)为代价,它也不会保留该建议。"

在这种情况下,人工智能应该有办法“做出更具同情心的决定,平衡商业需求和客户需求,最终赢得所有人的支持。互利交易有助于商业底线,赢得客户的信任。从长远来看,这将转化为客户忠诚度。”他补充道。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。