给机器人配AI大脑!谷歌发布视觉语言行动模型

文章来源: - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

谷歌正在把先进的人工智能(AI)模型植入机器人,给机器人配一个 AI 大脑。

美东时间 7 月 28 日周五,谷歌公司宣布推出应用于机器人领域的新产品——名为 Robotics Transformer 2(RT-2)的 AI 模型。它是一种全新的 " 视觉 - 语言 - 行动 "(VLA)模型,可以帮助训练机器人理解扔垃圾等任务。

谷歌介绍,RT-2 基于 Transformer 模型,根据互联网上的文本和图像进行训练,直接指示机器人执行动作。就像用语言模型通过网络文本训练 AI 学习人类社会的思想和概念一样,RT-2 也可以通过网络数据,将相关知识告知机器人,指导机器人的行为。

谷歌举例称,如果我们要让以前的机器人系统做出扔垃圾的动作,就必须明确训练机器人懂得区分何为垃圾,以及捡起垃圾、扔掉它这些动作。而 RT-2 能将网上的相关知识传给机器人,让机器人无需明确的训练,就懂得垃圾是什么,甚至即便从未受过如何扔垃圾的训练,也知道怎么扔垃圾。

谷歌表示,RT-2 具有将信息转化动作的能力,借助它,机器人有望更快适应全新的情形和环境。

因为在 6000 多次测试 RT-2 模型的机器人试验后,谷歌的团队发现,面对训练数据中已有的任务、或者说 " 见过 " 的任务,RT-2 和它的前代 RT-1 一样发挥功能,没有差别。而在新颖的、之前从未见过的任务情形中,RT-2 的性能几乎提高一倍,成功率达到 62%,远超 RT-1 的 32%。

换句话说,通过 RT-2,机器人能像人类一样学习更多内容,将学到的概念应用于全新的情境中。

谷歌称,RT-2 显示出超越其所接触机器人数据的推广应用能力和语义、视觉理解能力,包括解释新的命令,并通过基本的推理响应用户的指令,比如关于物体的类别和高层次描述的推理。

谷歌的研究还表明,通过结合思维链的推理,RT-2 能执行多阶段的语义推理,比如判断哪种物体可以临时用作锤子,哪一类饮料最适合疲劳的人。

有媒体周五称,谷歌目前没有立即计划大规模发布或者出售应用 RT-2 的机器人,但最终,这些机器人可能用在仓库或者用作家庭助理。

查看评论(0)