谷歌DeepMind机器人升级搭载Gemini语言模型

谷歌DeepMind机器人升级搭载Gemini语言模型

作者
Nikolai M
4 分钟阅读

谷歌DeepMind借助Gemini语言模型提升机器人能力

在加利福尼亚山景城,谷歌DeepMind将其最新的Gemini大型语言模型集成到一款轮式机器人中,使其变身为导游和办公室助手。这一创新大大增强了机器人理解和执行指令的能力,包括在办公室内导航以及协助完成诸如寻找遗失物品和引导人们到达特定区域等任务。

谷歌DeepMind的CEO Demis Hassabis强调了Gemini模型在提升机器人能力方面的潜力,指出其在导航方面的可靠性高达90%,即便面对复杂指令。这一进步标志着人机交互的自然度有了显著飞跃,从而提高了机器人在各种环境中的可用性和适应性。

通过集成包括视频和文本处理在内的多模态能力,机器人对环境的理解更加全面,为与用户的无缝交互和高效任务执行铺平了道路。值得注意的是,这一发展引起了学术界和工业界的广泛兴趣,初创公司如Physical Intelligence和Skild AI获得了显著的资金支持,以利用大型语言模型推动机器人发展。

过去,机器人需要明确的指令和详细的地图进行导航,但随着Gemini等模型的引入,它们现在能够理解视觉和口头指令,为人机交互提供了一种更灵活和直观的方法。研究人员有意将Gemini的测试扩展到更多类型的机器人,最终目标是提升系统处理复杂查询的能力。

关键要点

  • 谷歌DeepMind的机器人利用强大的Gemini模型进行高效的办公室协助和导航,执行复杂指令的可靠性达到90%。
  • Gemini集成的视频和文本处理功能增强了机器人对环境的理解和问题解决能力。
  • 初创公司如Physical Intelligence和Skild AI正在利用大型语言模型推动AI驱动的机器人技术进步。
  • 未来的计划包括扩展Gemini的能力,以涵盖更复杂的查询和更多类型的机器人。

分析

谷歌DeepMind在机器人中集成Gemini模型不仅提升了导航和任务执行能力,还影响了投资者的兴趣和技术进步,短期内显著提升了办公室生产力和用户体验,长期来看有望在全球范围内重塑人机协作。

你知道吗?

  • Gemini大型语言模型
    • Gemini模型是谷歌DeepMind的尖端创造,通过文本和视频输入处理复杂指令,增强了机器人的导航和任务执行能力。
  • 多模态能力
    • 这些能力使机器人能够通过整合视觉和文本数据分析并响应复杂指令,建立了一种更直观和适应性强的交互机制。
  • Physical Intelligence和Skild AI
    • 这些创新型初创公司专注于利用大型语言模型提升机器人技术,标志着对AI驱动机器人技术进步和自主性的日益增长兴趣。

您可能也喜欢

本文是根据我们的用户在 新闻提交规则和指南下提交的。封面照片是计算机生成的艺术作品,仅用于说明目的;不表明实际内容。如果您认为本文侵犯了版权,请毫不犹豫地通过 发送电子邮件给我们来举报。您的警惕和合作对帮助我们维护尊重和合法合规的社区至关重要。

订阅我们的通讯

通过独家预览了解我们的新产品,获取企业业务和技术的最新资讯