导航:EXPO21XX>机器人21 xx>H21:人形和机器人研究>加州大学圣地亚哥分校
加州大学圣地亚哥分校
视频
加载播放器…
  • 提供配置文件
  • MPLab的目标是开发利用自然通信渠道实时感知人类并与人类互动的系统。为此,我们正在开发感知原语来检测和跟踪人脸,并识别面部表情。我们还在为机器人开发算法,使其能够自行开发和学习与人互动。应用包括个人机器人、感知辅导系统和临床评估、监测和干预系统。
产品组合
  • 学习面部表情:机器人学会微笑和皱眉

  • 学习做面部表情
  • 爱因斯坦人脸机器人
  • 加州大学圣地亚哥分校的一个超级逼真的爱因斯坦机器人通过自主学习的过程学会了微笑和做出面部表情。加州大学圣地亚哥分校的研究人员使用机器学习“授权”他们的机器人学习做出逼真的面部表情。

    精心设计的机器人面孔可以做出逼真的面部表情。然而,即使是专家,手动调整面部马达配置也需要花费数小时的工作时间。
    机器人有没有可能通过观察自己来学会自动做出面部表情?

    在MPLab,研究人员开发了基于计算机视觉的面部表情识别系统,使机器人能够理解面部表情的定义。特别地,我们在面部动作编码系统(FACS)中使用了动作单元(AU)的定义。然后,“爱因斯坦”可以通过在镜子中看到自己的脸来调整他的“面部肌肉”来做出面部表情。

    手动设计的表达式:

    机器人的脸越来越逼真,控制它们的人造肌肉的数量也在增加。鉴于这一趋势,加州大学圣地亚哥分校机器感知实验室的研究人员正在研究他们的机器人爱因斯坦的面部和头部,以便找到方法,使教机器人做出逼真面部表情的过程自动化。
    这个爱因斯坦机器人的头部有大约30块面部肌肉,每一块肌肉都由一个微小的伺服电机通过一根绳子连接到肌肉上。如今,一个训练有素的人必须手动设置这些逼真的机器人,以便伺服系统进行正确的组合,做出特定的面部表情。为了使这一过程自动化,加州大学圣地亚哥分校的研究人员同时研究了发展心理学和机器学习。
    发展心理学家推测,婴儿通过系统的探索动作来学习控制自己的身体,包括通过咿呀学语来学习说话。起初,这些动作似乎是随机执行的,因为婴儿学会了控制自己的身体和拿东西。