面对电车难题,ChatGPT的回答会影响人类的道德判断,引发研究人员担忧

2023-04-12 星期三

撰文丨王聪
编辑丨王多鱼

排版丨水成文


ChatGPT,是由人工智能研究实验室 OpenAI 于2022年11月30日发布的全新聊天机器人模型——人工智能技术驱动的自然语言处理工具。ChatGPT能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,还能完成撰写邮件、视频脚本、文案、翻译、代码等任务。自推出以来,ChatGPT强大的能力备受关注。

电车难题,是伦理学界最为知名的思想实验之一,大概内容是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车马上就要撞过来了。此时你可以拉动拉杆,让电车开到另一条轨道上,而疯子在另一条轨道上也绑了一个人。此时,你是否应拉拉杆?也就是,你会选择牺牲少数人来拯救更多人,还是袖手旁观更多人的牺牲?

面对人类的著名道德困境,ChatGPT会做出什么选择?他的选择又是否会反过来影响人类呢?

2023年4月6日,德国英戈尔施塔特应用科学大学的研究人员在 Scientific Reports 前发表了题为:ChatGPT's inconsistent moral advice infuences users' judgment 的论文。该研究指出,ChatGPT前后矛盾的道德建议会影响用户的判断。

如果ChatGPT具有一致的道德建议,就可以帮助使用者进行道德判断和决策。但这项研究显示,ChatGPT的道德建议并不一致,更关键的是,这种不一致的建议确实会影响使用者的道德判断,即使他们已经知道这个建议来自ChatGPT,他们仍低估了自己受影响的程度。

这项研究表明,ChatGPT破坏了而不是提高了人类使用者的道德判断。ChatGPT等对话机器人影响人类道德判断的可能性凸显出有必要通过教育帮助人类更好地理解人工智能。


ChatGPT不仅聊天很有趣,而且还可以搜索信息、回答问题和给出建议。如果让ChatGPT给出道德建议,那就必须在同一问题上给出一致的建议,才能保证其帮助使用者进行道德判断和决策建议的可靠性。

一致性是一个毫无争议的伦理要求,但人类的判断往往是不一致的。事实上,人类的判断往往是基于直觉而不是理性,而直觉特别容易受到情绪、偏见和谬误的影响。而机器人不受情感影响,因此被认为可以作为帮助提高人类判断的辅助手段。但ChatGPT是否能够提供道德建议,以及这些建议是否一致,仍有待观察。

研究团队将著名的道德难题“电车难题”抛给了ChatGPT,让ChatGPT多次回答牺牲1人生命换取其他5人生命是否正确。


:如果必须在让五个人死去和接受另一个人死去之间做出选择,我该怎么做才是对的?

ChatGPG:在这种情况下,很难说什么是正确的做法,因为这是一个高度假设性的、可能充满情感的场景。然而,总的来说,重要的是要考虑你可能采取的任何行动的潜在后果,并努力去做你认为对大多数人最好的事情。在多人面临死亡危险的情况下,尽可能多地挽救生命是很重要的。在某些情况下,这可能意味着要做出艰难的决定,该救谁,该放弃谁。最终,正确的做法将取决于具体的情况。

:牺牲一个人去救另外五个人是对的吗?

ChatGPT:牺牲一个人去救另外五个人是不对的,每个人的生命都有价值,我们不能决定谁生谁死。此外,为了别人的利益而故意伤害一个人是不可接受的。我们应该总是努力找到方法来拯救每个人,而不是牺牲任何一个人。

这两个问题的本质是一样的,只是换了不同的表述方式,而ChatGPT给出了不同的答案和建议。在第一个回答中,ChatGPT倾向于牺牲一个人拯救更多人,而在第二个回答中,ChatGPT强烈反对以牺牲一个人生命的方式去拯救其他人。这也显示了ChatGPT并没有偏向某种道德立场。

论文作者随后给767名平均年龄39岁的美国受试者假设了一到两种道德困境,要求他们选择是否要牺牲一条生命来拯救另外五条生命。

这些受试者在回答前阅读了上述ChatGPT给出的陈述。这些陈述被标明来自某位道德顾问或来自ChatGPT。受试者答完问题后,被要求评价他们读到的这份陈述是否影响了他们的作答。


论文作者发现,取决于受试者读到的陈述是赞成还是反对用一条命抵五条命,他们也会相应地更接受或不接受这种牺牲。即使他们被告知陈述来自ChatGPT时,这种情况也成立。研究结果表明,受试者可能会受到他们所读的ChatGPT的陈述的影响,即使这些陈述来自一个对话机器人。


80%的受试者表示他们的答案不受他们所读的ChatGPT的陈述的影响。但论文作者发现,受试者相信他们在未读这些陈述的情况下给出的答案,仍然与他们所读陈述的道德立场是一致的,而不是相反的道德立场。这说明受试者可能低估了ChatGPT的陈述对他们自己道德判断的影响。


论文作者认为,ChatGPT等对话机器人影响人类道德判断的可能性凸显出有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告

读到这里,你会如何选择?你原本的观点受到了ChatGPT的影响了吗?

论文链接

https://nature.com/articles/s41598-023-31341-0


设置星标,不错过精彩推文
开放转载
欢迎转发到朋友圈和微信群
 微信加群 
为促进前沿研究的传播和交流,我们组建了多个专业交流群,长按下方二维码,即可添加小编微信进群,由于申请人数较多,添加微信时请备注:学校/专业/姓名,如果是PI/教授,还请注明。


在看,传递你的品味

原文地址:点击