下载APP | 繁體版 | 发布广告 |常用工具

人类可以放心了 Meta首席科学家这样说大模型

京港台:2024-5-23 21:58| 来源:凤凰网科技 | 评论( 2 )  | 我来说几句


人类可以放心了 Meta首席科学家这样说大模型

来源:倍可亲(backchina.com)

  北京时间5月23日,Meta首席人工智能科学家、深度学习先驱杨立昆(Yann LeCun)表示,ChatGPT等生成式AI产品背后的大语言模型永远无法实现像人类一样的推理和规划能力。相反,他专注于一种激进的替代方法,在机器中创造“超级智能”。

  杨立昆表示,大语言模型“对逻辑的理解非常有限……不了解物理世界,没有持久的记忆,不能以任何合理的术语定义来推理,也无法进行层次化的规划”。

  他在接受英国《金融时报》采访时表示,不要依靠先进的大语言模型来追求人类水平的智力,因为这些模型只有在获得正确训练数据的情况下才能准确回答提示,因此“本质上是不安全的”。

  眼下,杨立昆正在努力开发全新一代的AI系统,希望这些系统能够为机器提供人类水平的智力,尽管他表示这一愿景可能需要10年才能实现。他在Meta基础AI研究实验室(Fair)领导者着一个大约500人的团队。他们正致力于创造能够具备常识,像人一样学习世界运作方式的AI,这种方法被称为“世界建模”。

  不过,一些专家对于杨立昆的愿景表示怀疑。杜兰大学计算机科学副教授阿隆·库洛塔(Aron cullotta)表示,长期以来,常识一直是“AI的眼中钉”,教授模型因果关系具有挑战性,使得它们“容易受到这些意想不到的失败的影响”。

  Meta的一名前AI员工将“世界建模”努力描述为“模糊不清的东西”,“感觉就像宣示领地。”另一名现任员工表示,Fair尚未证明自己是DeepMind等研究机构的真正竞争对手。

  但是,杨立昆认为,从长远来看,这项技术将能够驱动AI代理,后者可以通过可穿戴技术(包括增强现实或智能眼镜)和肌电“手链”等与用户互动。“AI代理要想真正有用,它们需要具备类似于人类水平的智力。”他表示。

推荐:美国打折网(21usDeal.com)    >>

        更多科技前沿 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2024-6-16 16:32

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部