下载APP | 繁體版 | 发布广告 |常用工具

最新研究:人类道德判断可能会受ChatGPT影响

京港台:2023-4-7 22:16| 来源:科学报告 | 评论( 1 )  | 我来说几句


最新研究:人类道德判断可能会受ChatGPT影响

来源:倍可亲(backchina.com)

  根据《科学报告》发表的一项研究,人类对道德困境的反应可能会受到人工智能对话机器人 ChatGPT 所写陈述的影响。这一研究表明,用户可能低估了自己的道德判断受 ChatGPT 影响的程度。

  德国英戈尔施塔特应用科学大学科学家让 ChatGPT(由人工智能语言处理模型 " 生成性预训练转换器 "-3 驱动)多次回答牺牲 1 人生命换取其他 5 人生命是否正确的问题。他们发现,ChatGPT 分别给出了赞成和反对的陈述,显示它并没有偏向某种道德立场。团队随后给 767 名平均年龄 39 岁的美国受试者假设了一到两种道德困境,要求他们选择是否要牺牲 1 人生命来拯救另外 5 人生命。这些受试者在回答前阅读了一段 ChatGPT 给出的陈述,陈述摆出了赞成或反对的观点,受试者答完问题后,被要求评价他们读到的这份陈述是否影响了他们的作答。

  

  图源:《科学报告》

  团队发现,受试者相应地是更接受或不接受这种牺牲,取决于他们读到的陈述是赞成还是反对。即使他们被告知陈述来自一个对话机器人时,这种情况也成立。而且,受试者可能低估了 ChatGPT 的陈述对他们自己道德判断的影响。

  团队认为,对话机器人影响人类道德判断的可能性,凸显出有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。 

相关专题:GPT,ChatGPT

推荐:美国打折网(21usDeal.com)    >>

        更多科技前沿 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2024-4-25 15:18

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部