下载APP | 繁體版 | 发布广告 |常用工具

给机器人配AI大脑!谷歌发布视觉语言行动模型

京港台:2023-7-29 12:04| 来源:全天候科技 | 我来说几句


给机器人配AI大脑!谷歌发布视觉语言行动模型

来源:倍可亲(backchina.com)

  谷歌正在把先进的人工智能(AI)模型植入机器人,给机器人配一个 AI 大脑。

  美东时间 7 月 28 日周五,谷歌公司宣布推出应用于机器人领域的新产品——名为 Robotics Transformer 2(RT-2)的 AI 模型。它是一种全新的 " 视觉 - 语言 - 行动 "(VLA)模型,可以帮助训练机器人理解扔垃圾等任务。

  谷歌介绍,RT-2 基于 Transformer 模型,根据互联网上的文本和图像进行训练,直接指示机器人执行动作。就像用语言模型通过网络文本训练 AI 学习人类社会的思想和概念一样,RT-2 也可以通过网络数据,将相关知识告知机器人,指导机器人的行为。

  

  谷歌举例称,如果我们要让以前的机器人系统做出扔垃圾的动作,就必须明确训练机器人懂得区分何为垃圾,以及捡起垃圾、扔掉它这些动作。而 RT-2 能将网上的相关知识传给机器人,让机器人无需明确的训练,就懂得垃圾是什么,甚至即便从未受过如何扔垃圾的训练,也知道怎么扔垃圾。

  谷歌表示,RT-2 具有将信息转化动作的能力,借助它,机器人有望更快适应全新的情形和环境。

  因为在 6000 多次测试 RT-2 模型的机器人试验后,谷歌的团队发现,面对训练数据中已有的任务、或者说 " 见过 " 的任务,RT-2 和它的前代 RT-1 一样发挥功能,没有差别。而在新颖的、之前从未见过的任务情形中,RT-2 的性能几乎提高一倍,成功率达到 62%,远超 RT-1 的 32%。

  换句话说,通过 RT-2,机器人能像人类一样学习更多内容,将学到的概念应用于全新的情境中。

  谷歌称,RT-2 显示出超越其所接触机器人数据的推广应用能力和语义、视觉理解能力,包括解释新的命令,并通过基本的推理响应用户的指令,比如关于物体的类别和高层次描述的推理。

  谷歌的研究还表明,通过结合思维链的推理,RT-2 能执行多阶段的语义推理,比如判断哪种物体可以临时用作锤子,哪一类饮料最适合疲劳的人。

  有媒体周五称,谷歌目前没有立即计划大规模发布或者出售应用 RT-2 的机器人,但最终,这些机器人可能用在仓库或者用作家庭助理。

相关专题:Google

推荐:美国打折网(21usDeal.com)    >>

        更多科技前沿 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2025 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2025-11-23 21:52

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部