精心设计的机器人面孔可以做出逼真的面部表情。然而,即使是专家,手动调整面部马达配置也需要花费数小时的工作时间。
机器人有没有可能通过观察自己来学会自动做出面部表情?
在MPLab,研究人员开发了基于计算机视觉的面部表情识别系统,使机器人能够理解面部表情的定义。特别地,我们在面部动作编码系统(FACS)中使用了动作单元(AU)的定义。然后,“爱因斯坦”可以通过在镜子中看到自己的脸来调整他的“面部肌肉”来做出面部表情。
手动设计的表达式:
机器人的脸越来越逼真,控制它们的人造肌肉的数量也在增加。鉴于这一趋势,加州大学圣地亚哥分校机器感知实验室的研究人员正在研究他们的机器人爱因斯坦的面部和头部,以便找到方法,使教机器人做出逼真面部表情的过程自动化。
这个爱因斯坦机器人的头部有大约30块面部肌肉,每一块肌肉都由一个微小的伺服电机通过一根绳子连接到肌肉上。如今,一个训练有素的人必须手动设置这些逼真的机器人,以便伺服系统进行正确的组合,做出特定的面部表情。为了使这一过程自动化,加州大学圣地亚哥分校的研究人员同时研究了发展心理学和机器学习。
发展心理学家推测,婴儿通过系统的探索动作来学习控制自己的身体,包括通过咿呀学语来学习说话。起初,这些动作似乎是随机执行的,因为婴儿学会了控制自己的身体和拿东西。