首页 科技 > 正文

我们研究和评估了两种使AI系统符合道德原则的方法

很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于我们研究和评估了两种使AI系统符合道德原则的方法 的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对我们研究和评估了两种使AI系统符合道德原则的方法 这篇文章感兴趣的小伙伴可以一起来看看

在可能发生意外情况的场景中部署的AI代理越多,则实现目标就需要更多的灵便性,适应性和制造性。因此,为了使AI足够茁壮和灵便到可以在实际场景中成功部署,必须有一定程度的自由选择特定目标的最佳路径。

当AI系统解决难以解决的问题时,传统的基于规则的方法无法准确地定义解决方案,而AI中越来越多地使用数据驱动和/或学习方法时,尤其如此。实际上,数据驱动的AI系统(例如使用机器学习的 AI系统)在准确性和灵便性方面非常成功,并且它们在解决问题,追寻可能给人类带来惊喜的解决方案方面非常“有创意”,并可以教给他们创新的方法解决挑战。

我们研究和评估了两种使AI系统符合道德原则的方法

但是,无国界的制造力和自由有时会导致不期望的行动:人工智能系统可能会以受灾社区的价值观和规范认为不可接受的方式实现其目标。因此,越来越需要了解如何通过提供系统必须在其中操作的边界来约束AI系统的动作。这通常称为“值对齐”问题,因为此类边界应为特定AI应用程序场景所需的值和原理建模。

在IBM Research,我们研究和评估了两种使AI系统符合道德原则的方法:

第一种使用相同的形式主义来建模和组合主观偏好(以实现服务个性化)和道德优先级(以实现价值一致)。偏好与道德优先级之间的距离的概念用于决定是否可以仅由偏好来决定行动,或者当偏好与这些优先级过于不同时,是否需要考虑其他道德优先级。

我们研究和评估了两种使AI系统符合道德原则的方法

第二种方法采纳强化学习方法(在匪徒问题范围内)以实现酬劳最大化,并从正面和负面的例子中学习道德准则。我们在父母的指导下在电影推举中测试了这种方法,并从生活质量的角度选择了药物剂量。

描述我们的整体方法以及解决价值一致性问题的两种可能方法的论文将在马上举行的AAAI 2019大会上发表,并将获得AAAI 2019蓝天创意奖。在这里能找到它。

我们研究和评估了两种使AI系统符合道德原则的方法

这项工作是长期工作的一部分,旨在了解如何与MIT合作将道德原则嵌入到AI系统中。尽管在研究中将伦理优先事项建模为义务论约束,但IBM-MIT团队目前正在收集人类偏好数据,以模拟人类如何遵循并在不同的伦理学理论(如功利主义,义务论和契约论)之间切换。然后将伦理学理论和适当适应的转换机制设计到AI系统中。这样,这样的系统将能够更好地与人们推理和遵循道德行为的方式保持一致 同时做出决策,从而可以更好地适应以增强的人工智能方法与人类自然而紧凑地互动。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。