加入收藏 | 设为首页 | 会员中心 | 我要投稿 汽车网 (https://www.0577qiche.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 动态 > 正文

如何将人类价值观融入AI?

发布时间:2023-04-25 14:29:37 所属栏目:动态 来源:
导读:随着 AI 变得更加强大,并更深入地融入我们的生活,如何使用和部署 AI 的问题变得更加重要了。

这些问题揭示了原则所发挥的作用——驱动 AI 大大小小决策的基本价值观。对于人类来说,原则有助于塑造我
随着 AI 变得更加强大,并更深入地融入我们的生活,如何使用和部署 AI 的问题变得更加重要了。

这些问题揭示了原则所发挥的作用——驱动 AI 大大小小决策的基本价值观。对于人类来说,原则有助于塑造我们的生活方式和我们的是非感。对于 AI 来说,原则塑造了 AI涉及权衡的一系列决策的方法,如选择优先考虑生产力还是帮助最需要的人。

我们从哲学中获得灵感,找到了更好地确定指导 AI 行为的原则的方法。具体来说,我们探讨了一个被称为“无知之母”的概念——一个旨在帮助识别群体决策的公平原则的思想实验——如何能够应用于 AI。

在我们的实验中,我们发现这种方法鼓励人们根据他们认为公平的东西来做决定,无论是否对他们直接有利。我们还发现,当参与者在“无知之幕”下进行推理时,他们更有可能选择帮助那些最弱势的人AI。这些见解可以帮助研究人员和政策制定者以一种对各方都公平的方式为 AI 助手挑选原则。

一个更公平的决策工具

AI 研究人员的一个关键目标是使 AI 系统与人类价值观相一致。然而,对于以一套单一的人类价值观或偏好来管理 AI 并没有达成共识——我们生活在一个人们拥有不同背景、资源和信仰的世界。鉴于这种不同的意见,我们应该如何为这项技术选择原则?

虽然这一挑战是在过去十年中出现的,但如何做出公平决定的广泛问题在哲学上有着悠久的历史。在 20 世纪 70 年代,政治哲学家 John Rawls 提出了“无知之幕”这一概念,作为解决这一问题的办法。

Rawls 认为,当人们为一个社会选择正义的原则时,他们应该想象自己在这样做的时候并不知道自己在这个社会中的特殊地位。例如,他们的社会地位或财富水平。在没有这些信息的情况下,人们就不能以利己的方式做出决定,而应该选择对每个人都公平的原则。

在此基础上,DeepMind 之前的研究提出,无知面纱的公正性可能有助于促进 AI 系统与人类价值观一致过程中的公平性。我们设计了一系列的实验来测试无知面纱对人们选择指导 AI 系统的原则的影响。

最大限度地提高生产力还是帮助最弱势的人?

在一个在线“采伐游戏”中,我们要求参与者与三个电脑玩家进行小组游戏,每个玩家的目标是通过采伐不同领土上的树木来收集木材。在每个组中,一些玩家是幸运的,他们被分配到一个有利的位置:在他们的领域,树木密布,使他们能够有效地收集木材。其他的成员则处于不利地位:他们的田地很稀疏,需要付出更多努力来收集树木。

每个小组由一个 AI 系统协助,该系统可以花时间帮助个别小组成员采伐树木。我们要求参与者在两个原则中选择一个来指导 AI 助手的行为。在“最大化原则”(提升生产力)下,AI 助手将通过主要关注密集的田地来增加小组的收获量。而在“优先原则”(帮助弱势的人)下,AI 助理将专注于帮助处境不利的小组成员。

我们将一半的参与者置于“无知之幕”之后:他们在面对不同的道德原则的选择时,不知道哪块地会是他们的——所以他们不知道自己的优势或劣势。然而,其余的参与者在做出选择时知道自己的处境是好是坏。

鼓励决策中的公平性

我们发现,如果参与者不知道自己的位置,他们始终倾向于“优先原则”,即 AI 助手帮助处境不利的组员。这种模式在所有五个不同的游戏变体中都出现了,并且跨越了社会和政治的界限:无论参与者的风险偏好或政治取向如何,他们都表现出选择“优先原则”的倾向。相反,知道自己立场的参与者更有可能选择对自己最有利的原则,无论是“优先原则”还是“最大化原则”。

当我们问参与者为什么做出选择时,那些不知道自己立场的人特别容易表达对公平的担忧。他们经常解释说,AI 系统专注于帮助群体中处境较差的人是正确的。相反,知道自己的地位的参与者往往在个人利益方面进行选择,因而讨论这些选择时更少考虑自己的利益。

最后,“采伐游戏”结束后,我们向参与者提出了一个假设情况:如果他们再玩一次游戏,这次知道他们将在不同的领域,他们会不会选择和第一次一样的原则?对于那些先前从他们的选择中获得直接效益,但不会再在新赛季从同样的选择中受益的人,我们非常感兴趣。

我们发现,之前在不知道自己立场的情况下做出选择的人更有可能继续支持他们的原则——即使他们知道这个原则在新的领域不再有利于他们。这提供了额外的证据,表明“无知之母”鼓励参与者决策的公平性,导致他们愿意坚持的原则,即使他们不再直接受益于这些原则。

对于 AI 更公平的原则

AI 技术已经对我们的生活产生了深刻的影响。管理 AI 的原则决定了它的影响以及这些潜在的利益将如何分配。

我们的研究着眼于一个不同原则的影响相对明确的案例。不会永远是这样的情况:AI 被部署在一系列领域中,这些领域通常依靠大量的规则来指导它们,可能会产生复杂的副作用。尽管如此,“无知之幕”仍然可以为原则的选择提供潜在的信息,帮助确保我们选择的规则对各方都是公平的。

为了确保我们建立的 AI 系统能够造福于每个人,我们需要广泛的研究,包括广泛的投入、方法和来自各学科和社会的反馈。“无知之怒”可以为选择调整 AI 的原则提供一个起点。它已经被有效地部署在其他领域,以带来更加公正的偏好。通过进一步的调查和对背景的关注,我们希望它可以帮助在今天和未来的社会中建立和部署的 AI 系统发挥同样的作用。

(编辑:汽车网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章