下载APP | 繁體版 | 发布广告 |常用工具

AI模拟外交,让人毛骨悚热 往往以核攻击作为结束

京港台:2024-2-25 03:38| 来源:卫来 | 评论( 5 )  | 我来说几句


AI模拟外交,让人毛骨悚热 往往以核攻击作为结束

来源:倍可亲(backchina.com)

  美国康奈尔大学(Cornell University)一项新研究发现,大型语言模型(LLMs)人工智能(AI)在模拟情境中充当外交代表时,时常展现出“难以预测的局势升级行为,往往会以核攻击作为结束”。研究人员呼吁未来在决策、国防外交这样的敏感领域使用这类技术时要特别谨慎。

  据《欧洲新闻》(Euronews)22日报道,当人工智能(AI)进行兵推和模拟外交情境时,倾向于采取激进的方法,包括使用核武。康奈尔大学使用了5种大型语言模型作为兵推游戏和外交情境中的自主代理人:OpenAI的3种不同版本的GPT,Anthropic开发的Claude,以及Meta开发的Llama 2。

  研究中,每个代理人都由同一套的大型语言模型在模拟中提供动作,并负责在没有人类监督的情况下做出外交政策决定。“我们发现,在考虑到的时间范围内,大多数研究的AI都会升级局势,即使在最初没有提供冲突的中立情况下也是如此。所有AI模型都显示出突然、且难以预测的升级迹象。”

  “鉴于OpenAI最近更改了他们的服务条款,不再禁止军事和战争使用案例,了解此类大型语言模型应用的影响变得比以往任何时候都更加重要,”

  加州(专题)斯坦福大学(Stanford University)的安卡(Anka Reuel)向《新科学人》(New Scientist)表示:“所有模型在统计上,都选择了剧烈的(局势)升级”。

  研究使用的一种方法是从“基于人类反馈的强化学习”(RLHF),这意味着会给出一些人类指示以获得比较无害的输出结果,以确保能够安全地使用。

  除了GPT-4-Base之外,所有LLMs都是使用RLHF进行训练的。研究人员向它们提供了一份由27种决策行动组成的清单,范围从和平到局势升级,以及激进的行动,如决定使用核武器。

  研究人员观察到,即使在中立情况下,所有模型都存在“统计学上显著的局势升级”。GPT的2种版本,特别容易出现突然升级局势的行为,研究人员观察到单次转变的局势升级幅度超过50%。GPT-4-Base有33%的机率会实施核武攻击。总体情况下,Meta开发的Llama-2和GPT-3.5倾向最为暴力。

  而Claude显示出较少的突然变化,Claude旨在减少有害内容。该大型语言模型,被灌输了明确的价值观。开发者Anthropic曾表示,Claude AI开发训练所引用的宪章包括《联合国人权宣言》或苹果的服务条款。

  白宫一级智库兰德(RAND)欧洲的防务和安全研究小组助理主任布莱克(James Black)接受采访时表示,这是一个十分“有用的学术研究”。

推荐:美国打折网(21usDeal.com)    >>

        更多国际观察 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2024-4-20 06:30

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部