您的位置: 首页 >科技 >

我们研究和评估了两种使AI系统符合道德原则的方法

2022-08-25 07:44:00 编辑:阎时厚 来源:
导读 在可能发生意外情况的场景中部署的AI代理越多,则实现目标就需要更多的灵活性,适应性和创造性。因此,为了使AI足够健壮和灵活到可以在实际...

在可能发生意外情况的场景中部署的AI代理越多,则实现目标就需要更多的灵活性,适应性和创造性。因此,为了使AI足够健壮和灵活到可以在实际场景中成功部署,必须有一定程度的自由选择特定目标的最佳路径。

当AI系统解决难以解决的问题时,传统的基于规则的方法无法准确地定义解决方案,而AI中越来越多地使用数据驱动和/或学习方法时,尤其如此。实际上,数据驱动的AI系统(例如使用机器学习的 AI系统)在准确性和灵活性方面非常成功,并且它们在解决问题,寻找可能给人类带来惊喜的解决方案方面非常“有创意”,并可以教给他们创新的方法解决挑战。

但是,无国界的创造力和自由有时会导致不期望的行动:人工智能系统可能会以受灾社区的价值观和规范认为不可接受的方式实现其目标。因此,越来越需要了解如何通过提供系统必须在其中操作的边界来约束AI系统的动作。这通常称为“值对齐”问题,因为此类边界应为特定AI应用程序场景所需的值和原理建模。

在IBM Research,我们研究和评估了两种使AI系统符合道德原则的方法:

第一种使用相同的形式主义来建模和组合主观偏好(以实现服务个性化)和道德优先级(以实现价值一致)。偏好与道德优先级之间的距离的概念用于决定是否可以仅由偏好来决定行动,或者当偏好与这些优先级过于不同时,是否需要考虑其他道德优先级。

第二种方法采用强化学习方法(在匪徒问题范围内)以实现报酬最大化,并从正面和负面的例子中学习道德准则。我们在父母的指导下在电影推荐中测试了这种方法,并从生活质量的角度选择了药物剂量。

描述我们的整体方法以及解决价值一致性问题的两种可能方法的论文将在即将举行的AAAI 2019大会上发表,并将获得AAAI 2019蓝天创意奖。在这里能找到它。

这项工作是长期工作的一部分,旨在了解如何与MIT合作将道德原则嵌入到AI系统中。尽管在研究中将伦理优先事项建模为义务论约束,但IBM-MIT团队目前正在收集人类偏好数据,以模拟人类如何遵循并在不同的伦理学理论(如功利主义,义务论和契约论)之间切换。然后将伦理学理论和适当适应的转换机制设计到AI系统中。这样,这样的系统将能够更好地与人们推理和遵循道德行为的方式保持一致 同时做出决策,从而可以更好地适应以增强的人工智能方法与人类自然而紧凑地互动。


免责声明:本文由用户上传,如有侵权请联系删除!

2016-2022 All Rights Reserved.平安财经网.复制必究 联系QQ280 715 8082   备案号:闽ICP备19027007号-6

本站除标明“本站原创”外所有信息均转载自互联网 版权归原作者所有。