视频
加载播放器…
  • 提供配置文件

  • 感知机器人实验室用灵活的、适应性强的系统进行计算原理实验。我们关注的是在非平稳环境中必须产生多种行为的机器人系统。这意味着行为目标是不断变化的,例如,当电池电量变化时,或者当环境中的不确定性导致危险情况(或机会)发生时。我们把这类问题域称为开放系统——它们只有部分可观察和部分可控。为了估计隐藏状态和扩展可实现的控制转换集,我们分别实现了时间扩展的观察和操作。在这类系统中形成的世界模式是原生结构、奖励、环境刺激和经验的产物。

    我们还考虑了冗余机器人系统,即那些有多种方式感知重要事件和多种方式操纵世界以影响变化的机器人系统。我们采用分布式解决方案来解决多目标问题,并提出分层机器人程序应该以一种受人类婴儿感觉运动发展启发的方式逐步获得。我们建议通过观察机器人系统拥有大量的内在结构(运动学、动态、感知、运动)来发展一个功能良好的机器机构,我们在与世界的持续互动中发现和利用这些结构。

    最后,我们研究了与人类和其他机器人合作的机器人系统。混合主动性系统可以从相互竞争的内部目标以及外部同行和主管那里采取行动。我们的部分目标涉及这样一个机器人系统如何解释为什么它以特定的方式表现,以及如何与他人有效沟通。
产品组合
  • 机器人

  • 研究机器人

    • 德克斯特

    • Dexter是一个研究双手灵巧度的平台,旨在帮助我们从与世界的互动中学习概念和认知表征的习得。
    • ubot -0,5 - uBot-5

    • 2005年NSF/NASA自主移动操作研讨会的最终报告指出,移动操作技术对下一代机器人应用至关重要。它还确定需要适当的移动操作研究平台。我们预测,绝大多数有趣和有用的移动操作应用程序将需要获取、传输和放置对象——所谓的“拾取-放置”任务。为了满足这一需求,uBot-5应运而生。
    • ATRV

    • 由iRobot公司生产的ATRV系列机器人是配备声纳传感器和无线以太网通信的四轮移动平台。LPR目前有一个ATRV-Jr。和ATRV-mini。我们在ATRV-Jr上安装了一个全景相机,以及一台戴尔Inspiron 8200笔记本电脑进行控制。
  • 研究目标

    • 控制基础

    • 控制基础中的学习

      基于马尔可夫决策过程(MDPs?)的机器学习技术,如强化学习(RL),被用于学习排序控制决策的策略,以优化奖励。学习算法通过将信用与导致奖励的行为序列元素相关联来解决时间信用分配问题。然而,RL依赖于随机探索,我们的状态空间对于有趣的机器人来说可能是巨大的。此外,任何依赖于完全随机探索的算法都将花费很长时间,并且偶尔会做一些非常不幸的事情来了解后果。下面是Control Basis框架中的一些学习示例。

    • 把握与操纵

    • 多手指操纵器的抓取规划是一个非常具有挑战性的问题。传统的方法依赖于接触规划模型,这导致难以计算的解决方案,往往不能扩展到三维物体或任意数量的接触。我们构造了一种闭环抓握控制方法,该方法可被证明对规则凸物体上的两次和三次接触是正确的。这种方法使用“n”个异步控制器(每个触点一个)来实现抓取几何,这些抓取几何来自等价类的抓取解决方案。这种方法生成一个抓取控制器——一个闭环的、对触觉反馈的差分响应——以消除抓取配置中的扳手残留物。平衡建立必要的条件,扳手关闭规则,凸对象,并确定良好的抓地力,一般来说,任意对象。利用抓握控制器的序列、接触资源的序列,可以优化抓握性能并生成操作步态。结果是一个非常独特的,基于传感器的抓取控制器,不需要先验的物体几何。
    • 演示编程

    • 机器人的远程遥控操作是机器人在包括太空在内的危险环境应用中的主要控制模式之一。在这里,用户配备了一个界面,传达机器人收集的感官信息,并允许用户指挥机器人的行动。这种界面形式的难点在于用户在短时间内所经历的疲劳程度。为了缓解这一问题,我们正在与NASA约翰逊航天中心的同事合作,开发能够预测用户行为的用户界面,让机器人帮助完成部分任务,甚至学习如何自主执行整个任务。
    • 知识获取

    • 了解形状

      德克斯特从他的选位策略中学到的一个修饰就是如何预握。利用前景斑点的第一和第二矩,从概率上学习物体中心的接近角和偏移量。这张照片显示了德克斯特对放在桌子上的物体的视觉表现。