谷歌DeepMind推出新一代机器人智能模型 赋予机器人思考后行动能力

来源: 星品数码网

近日,谷歌的子公司DeepMind宣布推出一系列新型智能模型,旨在提升机器人在复杂环境中的自主性和智能性。这些模型不仅是对机器人系统能力的重大升级,更被广泛认为是未来通用机器人的发展关键一步。此次发布的“Gemini”系列模型,深刻改变了机器人与人类互动的方式,使得机器人在执行任务时具备更为高效和精准的思考能力。

赋予机器人思考能力

DeepMind的这次发布引入了两款主要的智能模型,分别是针对视觉-语言-行动的模型以及视觉-语言模型。前者专注于将视觉信息和指令转化为机器人的具体运动指令,能够高效执行一系列任务;而后者则专注于让机器人能够对物理世界进行推理、使用数字工具并制定多步骤执行计划。这两款模型的结合,为机器人提供了一个更为强大的智能框架,极大增强了它们在现实生活中的应用潜力。

例如,在一段展示视频中,科学家通过让两个机器完成不同的任务,成功展示了新模型的能力。第一个任务涉及垃圾分类,机器人Aloha被要求根据旧金山的环保标准,将各种垃圾分类放入不同的桶中。这个过程中,Aloha不仅查阅了相关规则,还通过观察物品的特点,成功完成了分类任务。另一名机器人Apollo则参与了行李打包的任务,在帮助打包去伦敦的行李时,Apollo不仅能将特定物品如针织帽装入行李中,还智能地查询了天气,主动加入了雨具,展现出超越以往的智能高度。

机器人的“思考后行动”

这一系列新模型的亮点在于它们赋予机器人“思考后行动”的能力,使得机器人能够在复杂环境中模拟人类的理解能力与推理能力。这意味着,机器人不再仅仅是机械地执行命令,而能在行动之前进行思考与规划。例如,当面临多步骤的任务时,机器人能够利用自身的视觉识别能力、语言理解能力以及逻辑推理能力,进行深入的任务分析,并提出相应的行动计划。这种能力的提升,不仅让机器人能够更好地适应不同的环境和任务,还为通用机器人的发展打开了新的可能。

多任务执行与反思学习

新一代智能模型在多任务执行能力上也取得了显著进展。在一个更为复杂的示例中,科学家展示了一个机器人在分类不同颜色水果的过程中,是如何逐步分析环境、感知颜色,并执行具体操作的。这项展示充分显示了机器人在处理复杂信息时的自我调节和反应能力。例如,当Apollo被要求收拾杂物时,它能够自主思考,并建立起一系列的任务链,甚至能即时调整策略应对新出现的情况。

DeepMind的这一系列模型还具备自我反思的能力,这一点在机器人执行多步骤任务时尤其重要。机器人能够对自身的行为进行评估与反思,从而更好地理解和解决复杂的语言和行为任务。这一方面的创新,不仅使得机器人的学习过程更加透明,也为其未来的开发带来了更多可能性。

跨具身学习的潜力

除了上述能力,新模型还展现出优越的跨具身学习能力。这意味着机器人能够在不需要专门调整模型的情况下,将所学的技能迁移到其他形态的机器人上。这种跨具身能力的实现,加速了机器人行为的学习空进程,让机器人变得更加智能和实用。

例如,在一项演示中,科研人员展示了不同“物种”的机器人之间是如何互相学习的。Aloha在某一场景中掌握了开门的技能后,Apollo则能通过迁移学习快速适应并执行此操作,尽管Apollo并未事先接触过该场景。这样的跨具身学习能力,展现了未来机器人研发的无限潜力,不同场景中的机器人能够相互合作并学习,从而加速整体智能机器人的发展。

谷歌DeepMind推出的这一系列机器人智能模型,标志着人工智能与机器人技术交汇的新阶段。在“思考后行动”能力的加持下,未来的机器人不再仅仅是执行器,它们能够在真实世界中理解、推理并采取行动。这一变革,必将为我们日常生活带来前所未有的便捷,推动人机协作向更高层次进化。随着技术的不断进步,这些智能模型不仅能满足当前的需求,更将成为未来通用机器人发展的基石。

相关阅读
精品推荐