首页 >人工智能 > 内容

人类已准备好利用仁慈的人工智能

人工智能 2021-06-09 14:49:54

人类期望人工智能是仁慈的、值得信赖的。一项新研究表明,与此同时,人类不愿意与机器合作和妥协。他们甚至剥削他们。想象一下自己在不久的将来在狭窄的道路上行驶,突然另一辆车从前方的弯道中出现。这是一辆无人驾驶汽车,里面没有乘客。你会推进并维护你的通行权,还是让路让它通过?目前,我们大多数人在涉及其他人的情况下表现得很好。我们会对自动驾驶汽车表现出同样的善意吗?

使用行为博弈论的方法,慕尼黑大学和伦敦大学的一个国际研究团队进行了大规模的在线研究,看看人们是否会像对待人类一样与人工智能 (AI) 系统合作。

合作将社会凝聚在一起。它通常要求我们与他人妥协并接受他们让我们失望的风险。交通就是一个很好的例子。当我们让其他人从我们面前经过时,我们会失去一点时间,而当其他人没有回报我们的善意时,我们会感到愤怒。我们会对机器做同样的事情吗?

发表在iScience杂志上的研究发现,在第一次遇到人工智能时,人们对人工智能的信任程度与对人类相同:大多数人都希望遇到愿意合作的人。区别在后面。人们不太愿意用人工智能来回报,而是利用它的仁慈为自己谋取利益。回到交通的例子,人类司机会让路给另一个人,但不会让路给自动驾驶汽车。该研究将这种不愿与机器妥协的态度视为对未来人机交互的新挑战。

“我们让人们站在第一次与人工智能交互的人的角度,因为它可能发生在路上,”行为博弈理论家、慕尼黑大学和慕尼黑大学的哲学家 Jurgis Karpus 博士解释说。该研究的第一作者。“我们模拟了不同类型的社会交往,并发现了一个一致的模式。人们希望人工智能能像人类一样合作。然而,他们并没有像人类一样回报他们的仁慈,并且比人类更多地利用人工智能。”

从博弈论、认知科学和哲学的角度来看,研究人员发现“算法开发”是一个强大的现象。他们在近 2,000 名人类参与者的九个实验中复制了他们的发现。每个实验都检查不同类型的社交互动,并允许人类决定是妥协合作还是自私行动。其他球员的期望也被衡量。在著名的囚徒困境游戏中,人们必须相信其他角色不会让他们失望。他们接受了人类和人工智能的风险,但更频繁地背叛了人工智能的信任,以获得更多的钱。

“合作是靠相互打赌来维持的:我相信你会善待我,你相信我会善待你。我们这个领域最大的担忧是人们不会相信机器。但我们表明他们相信!” LMU 的社会神经科学家、该研究的高级研究人员之一 Bahador Bahrami 博士指出。“不过,他们可以让机器停机,这是很大的不同。当他们这样做时,人们甚至不会报告多少内疚,”他补充道。

有偏见和不道德的人工智能已经成为许多头条新闻——从 2020 年英国的考试惨败到司法系统——但这项新研究提出了一种新的警告。行业和立法者努力确保人工智能是仁慈的。但仁慈可能适得其反。如果人们认为人工智能被编程为对他们仁慈,他们就会不太愿意合作。一些涉及自动驾驶汽车的事故可能已经展示了现实生活中的例子:司机在路上认出了一辆自动驾驶汽车,并期望它让路。同时,自动驾驶汽车希望驾驶员之间保持正常的妥协。”

算法利用会产生进一步的后果。“如果人类不愿意让礼貌的自动驾驶汽车从小路加入,那么自动驾驶汽车是否应该不那么礼貌而更具侵略性才能有用?” 尤尔吉斯·卡普斯问道。

“仁慈和值得信赖的人工智能是一个每个人都兴奋的流行语。但修复人工智能并不是全部。如果我们意识到我们面前的机器人无论如何都会合作,我们就会利用它来谋取私利, ” 该研究的哲学家和资深作者 Ophelia Deroy 教授说,她还与挪威奥斯陆和平研究所合作,研究将自主机器人士兵与人类士兵结合在一起的伦理影响。

“妥协是让社会运转的石油。对我们每个人来说,这看起来只是一种小小的利己行为。对整个社会来说,它可能会产生更大的影响。如果没有人让自动驾驶汽车加入交通,他们会在旁边制造自己的交通拥堵,而不是使运输更容易”。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。