谷歌的母公司 Alphabet 正在将其最雄心勃勃的两个研究项目——机器人技术和人工智能语言理解——结合在一起,以制造一个能够理解自然语言命令的“辅助机器人”。
据 The Verge 报道,自 2019 年以来,Alphabet 一直在开发可以执行简单任务的机器人,例如取饮料和清洁表面。
这个 Everyday Robots 项目仍处于起步阶段 – 机器人速度缓慢且犹豫不决 – 但机器人现在已经升级:谷歌的大型语言模型 (LLM) PaLM 改进了语言理解。
大多数机器人只响应简短的指令,比如“给我拿一瓶水”。但是像 GPT-3 和谷歌的 MuM 这样的 LLM 可以更好地解析更多倾斜命令背后的意图。
在 Google 的示例中,您可能会告诉 Everyday Robots 原型之一,“我把饮料洒了,你能帮忙吗?”机器人通过可能动作的内部列表过滤此指令,并将其解释为“从厨房给我拿海绵”。
谷歌将由此产生的系统命名为 PaLM-SayCan,这个名称捕捉了该模型如何将 LLM 的语言理解技能(“Say”)与其机器人的“可供性基础”相结合。
谷歌表示,通过将 PaLM-SayCan 集成到其机器人中,机器人能够在 84% 的时间内计划对 101 条用户指令的正确响应,并在 74% 的时间内成功执行这些指令。