视频
载入播放器…
  • 提供配置文件

  • 感知机器人实验室对柔性、适应性系统的计算原理进行实验。我们关注的是在非平稳环境中必须产生多种行为的机器人系统。这意味着行为的目标是不断变化的,例如,当电池水平变化时,或当环境中的不确定性导致危险情况(或机会)发生时。我们把这类问题域称为开放系统——它们只有部分可观察和部分可控制。为了估计隐藏状态和扩展可实现的控制转换集,我们分别实现了时间扩展的观察和操作。在这种系统中开发的世界模型是原生结构、奖励、环境刺激和经验的产物。

    我们还考虑了冗余机器人系统——即那些有多种方式感知重要事件和多种方式操纵世界以产生变化的机器人系统。我们采用分布式解决方案来解决多目标问题,并提出分层机器人程序应该以一种受人类婴儿感觉运动发展启发的方式逐步获得。我们建议通过观察机器人系统拥有大量的内在结构(运动学,动态,知觉,马达)来发展一个功能机器机构,我们在与世界的持续互动中发现和利用这些结构。

    最后,我们研究与人类和其他机器人合作的机器人系统。混合主动性系统可以采取来自相互竞争的内部目标以及来自外部同行和主管的行动。我们的部分目标是关注这样一个机器人系统如何解释为什么它会以一种特定的方式行为,以及如何与他人有效沟通。
产品组合
  • 机器人

  • 研究机器人

    • 德克斯特

    • Dexter是一个研究双手灵巧的平台,旨在帮助我们研究从与世界的互动中获得概念和认知表征。
    • uBot-0, 5 - uBot-5

    • 美国国家科学基金会/美国国家航空航天局自主移动操作研讨会2005年的最终报告指出,移动操作技术是下一代机器人应用的关键。它还指出需要适当的移动操作研究平台。我们预测,绝大多数有趣和有用的移动操作应用程序将需要获取、运输和放置对象——所谓的“选择和放置”任务。为了满足这一需求,uBot-5应运而生。
    • ATRV

    • ATRV系列机器人由iRobot公司生产,是一种配备声纳传感器和无线以太网通信的四轮移动平台。LPR目前有一个ATRV-Jr。和一个ATRV-mini。我们在ATRV-Jr上安装了一个全景相机,以及一台戴尔Inspiron 8200笔记本电脑进行控制。
  • 研究目标

    • 控制基础

    • 在控制基础上学习

      基于马尔可夫决策过程(MDPs?)的机器学习技术,如强化学习(RL)被用于学习排序控制决策的策略,以优化奖励。该学习算法通过将信用与导致奖励的行为序列元素相关联来解决时间信用分配问题。然而,RL依赖于随机探索,我们的状态空间对于有趣的机器人来说可能是巨大的。此外,任何依赖于完全随机探索的算法都将花费很长时间,并且偶尔会做一些非常不幸的事情来了解结果。下面是控制基础框架中的一些学习示例。

    • 掌握和操作

    • 多手指操纵器的抓取规划已被证明是一个非常具有挑战性的问题。传统的方法依赖于接触规划的模型,这导致计算上难以解决的解决方案,通常不能扩展到三维对象或任意数量的接触。我们构造了一种闭环抓握控制方法,该方法对规则凸物体上的两接触和三接触都是正确的。这种方法使用“n”个异步控制器(每个接触一个)来从一个等价类的抓取解决方案中实现抓取几何图形。这种方法生成一个抓握控制器——一个闭环的、对触觉反馈的差分响应——以消除抓握配置中的扳手残留。平衡建立了扳手在规则凸物体上闭合的必要条件,并确定了良好的抓握,一般来说,对于任意物体。抓握控制器的序列,接触资源的参与序列可以用来优化抓握性能和产生操作步态。结果是一个非常独特的,基于传感器的抓取控制器,不需要先验的物体几何。
    • 编程的示范

    • 在涉及危险环境的应用中,机器人的远程操作是机器人控制的主要模式之一,包括太空。在这里,为用户配备了一个界面,可以传递机器人收集到的感官信息,并允许用户指挥机器人的行动。这种界面形式的难点在于用户在短时间内体验到的疲劳程度。为了缓解这一问题,我们正在与美国宇航局约翰逊航天中心的同事合作,开发能够预测用户动作的用户界面,允许机器人协助完成部分任务,甚至学习如何自主执行整个任务。
    • 知识获取

    • 学习形状

      德克斯特为他的选择和地点政策学到的一个修饰是如何预握。利用前景斑点的第一和第二矩来通知和概率学习物体中心的接近角和偏移量。这张照片展示了Dexter对放在桌子上的一个物体的视觉表现。