[视频]家务机器人更进一步:Google让其更理解你的自然语言命令

Google 母公司 Alphabet 正尝试将机器人和 AI 语言理解两个方面的研究整合起来,从而让“Helper Robot”更能理解人类的自然语言命令。早在 2019 年,Alphabet 就开始研发机器人,让其执行诸如拿起饮料和清洁台面这样简单的任务。

不过,Everyday Robots 项目仍处于起步阶段,机器人的反应缓慢且没有准确执行人类的命令。但机器人现在通过 Google 的大型语言模型 (LLM) PaLM 提高了语言理解能力。目前,大部分机器人只能对一些简短的话语做出响应,例如“给我一杯水”。不过像 GPT-3 和 Google 的 MuM 这样的 LLM 模型能够更好解析命令背后的意图。

2rs5dtui.webp

Google 的示例中,你可以向一台 Everyday Robots 原型提问:“我的饮料洒了,你能帮忙吗?”机器人通过可能动作的内部列表过滤此指令,并将其解释为“从厨房拿来抹布”。

Google 将由此产生的系统命名为 PaLM-SayCan,这个名称捕捉了该模型如何将 LLM 的语言理解技能(“Say”)与其机器人的“能力基础”(即“Can”——通过可能的动作过滤指令)结合起来。

Google 表示,机器人在整合 PaLM-SayCan 后,在对 101 条用户指令的测试中正确响应率为 84%,正确执行率为 74%。虽然这个数字看起来很高,但是目前我们并不知道这 101 条指令的列表,因此不清楚这些指令的限制程度。


手机扫码阅读