首页 科技 > 正文

Google的Explainable AI服务阐明了机器学习模型如何做出决策

很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于Google的Explainable AI服务阐明了机器学习模型如何做出决策的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对Google的Explainable AI服务阐明了机器学习模型如何做出决策这篇文章感兴趣的小伙伴可以一起来看看

Google LLC 在其云平台上推出了一项新的“ 可解释AI ”服务,旨在使机器学习模型做出决策的过程更加透明。 Google的Explainable AI服务阐明了机器学习模型如何做出决策

谷歌表示,这样做的想法是,这将有助于建立对这些模型的更大信任。这很重要,因为大多数现有模型往往相当不透明。只是不清晰他们如何做出决定。

Google Cloud AI战略总监Tracy Frey在 今天的博客中解释说,Explainable AI旨在提高机器学习模型的可解释性。她说,这项新服务的工作原理是量化每个数据因素对模型产生的结果的贡献,帮助用户了解其做出决定的原因。 Google的Explainable AI服务阐明了机器学习模型如何做出决策

换句话说,它不会以通俗易懂的方式来解释事物,但是该分析对于首先构建机器学习模型的数据科学家和开辟人员仍然实用。

可解释的AI有进一步的局限性,因为它提出的任何解释都将取决于机器学习模型的性质以及用于训练它的数据。

她写道:“任何解释方法都有局限性。” “一方面,AI解释反映了数据中发现的模型的模式,但它们并未揭示数据样本,总体或应用程序中的任何基本关系。我们正在努力为客户提供最直接,最实用的解释方法,同时保持其局限性透明。” Google的Explainable AI服务阐明了机器学习模型如何做出决策

但是,可解释的AI可能很重要,因为准确解释特定机器学习模型为何得出结论的原因对于组织内的高级治理人员很实用,他们最终负责这些决策。对于高度严格的行业来说,这尤其重要,而信心绝对至关重要。谷歌表示,对于处于这一位置的许多组织而言,目前没有任何可解释性的人工智能已经超出范围。

在相关新闻中,Google还公布了所谓的“模型卡”,作为其Cloud Vision应用程序编程界面的面部检测和对象检测功能的文档。

这些模型卡详细说明了这些预先训练的机器学习模型的性能特征,并提供了有关其性能和限制的有用信息。谷歌表示,其目的是帮助开辟人员就使用哪种模型以及如何负责任地部署它们做出更明智的决定。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。