图片来源:Pixabay
来源 University of Southern California
翻译 张滢
审校 戚译引
心理学家早就发现,人们在了解同伴们行为后会改变自身的行为。计算机科学家最新研究发现,在一项自动驾驶汽车的实验中,当编程自动驾驶汽车的人了解到其他编程者更愿意牺牲自己,让编程的汽车撞到墙上,而不是撞向有危险的行人时,愿意牺牲自己的人比例增加了约三分之二。
研究人员指出,计算机科学家训练机器人在不同情况下担任人类的代理(agent)时,决策的社会成分往往被忽视。该研究证明,道德心理学家们长期使用的“电车实验”情形存在问题,它无法展现出人类决策的复杂性。这可能会产生严重后果。
论文作者之一,该项目的首席研究员,南加州大学(USC)创新技术研究所(Institute for Creative Technologies)的计算机科学家 Jonathan Gratch 说,现有假设模型表明,人们在面对重大的生死抉择时,想法与实际行动往往不同。人类的决策并没有道德上的绝对性,而是“更加模糊”。
研究人员进行了 4 个独立的模拟实验,以了解人们作为无人驾驶车辆的操纵者,在面对生死抉择时如何处理这种道德困境。前三个实验重点研究人在自己和其他人遇到危险时的行为,在这种条件下,汽车被提前编程为撞墙或者撞向5个行人。研究者证明,被试会将自己受伤的严重程度和行人面对的风险大小作为决策的指标。行人受伤的风险越大,操纵者就越倾向于牺牲自己。此外,行人受伤的危险程度不必和操纵者一样高,也能让操纵者作出自我牺牲的选择。
在第四个实验中,研究人员增加了一个社会层面的影响因素,告诉被试在同样的情况下,其他人会怎么选择。在这种模拟情景下,知晓其他人更倾向于牺牲自己会影响被试的选择,这一因素使更倾向于牺牲自己的被试比例从 30% 上升到了 50%。但这种影响可能是双向的, Gratch 指出:“从专业角度来讲,可能有两种力量在拉扯。当人们意识到其他人不在意时,就会变得自私。而如果人们意识到其他人在意,这会让他们做出不同的选择。”
这项研究对包括飞机、船只在内的自动驾驶交通工具以及人类编程的机器人都可能会产生影响。研究者认为,制造商必须了解人在生死攸关的情况下会如何做出决策。另外,自动驾驶的程序应公开透明,并且应该设计成在紧要关头下可以将驾驶操纵权转交给人类驾驶员,以供他们在危险发生前改变设置,这对公众来说很重要。研究者还强调,立法者必须知道车辆是如何编程的。最后,鉴于人类倾向于遵守社会规范,研究者相信,与如何为自动驾驶汽车编程有关的公共卫生运动可能会影响未来的车主改变他们的车辆设置,使其更倾向于选择自我牺牲,保护他人免受伤害。
参考来源:
https://www.eurekalert.org/pub_releases/2021-02/uosc-wms022521.php
内容来源:环球科学
来源:环球科学
原文链接:http://www.huanqiukexue.com/a/qianyan/xinxi__nenyuan/2021/0319/31306.html
版权声明:除非特别注明,本站所载内容来源于互联网、微信公众号等公开渠道,不代表本站观点,仅供参考、交流、公益传播之目的。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。
电话:(010)86409582
邮箱:kejie@scimall.org.cn