哥伦比亚工程学院研究团队开发出能够预测人类表情的智能机器人

当你走近一个带有人类头部的机器人,并且它先对你微笑时,你可能会回以微笑,甚至觉得你们正在真正地互动。但是,这个机器人是如何知道如何做到这一点的呢?或者更好的问题是,它是如何知道让你回以微笑的呢?

虽然我们正在逐渐适应那些擅长语言交流的机器人,部分归功于大型语言模型如ChatGPT的进步,但它们的非语言交流技能,特别是面部表情,远远落后。设计一个不仅可以做出各种面部表情,而且知道何时使用它们的机器人一直是一个艰巨的任务。

解决这一挑战

哥伦比亚工程学院的创意机器人实验室已经致力于解决这一挑战已经超过五年了。在一项今天发布的新研究中,该团队展示了Emo,一个能够预测人类面部表情并与人类同时执行这些表情的机器人。它甚至学会了在人类微笑前约840毫秒预测到即将到来的微笑,并与人类同时表达微笑。

该团队由人工智能(AI)和机器人领域的领先研究者霍德·利普森(Hod Lipson)领导,面临两个挑战:如何机械设计一个表现力丰富的机器人面部,涉及复杂的硬件和执行机制;以及知道生成哪种表情,使其看起来自然、及时且真实。该团队提出训练机器人预测人类未来的面部表情,并与人类同时执行这些表情。这些表情的时机至关重要——延迟的面部模仿看起来不真诚,但面部共同表达更真实,因为它需要准确推断人类的情感状态以便及时执行。

Emo如何与你互动

Emo是一个类似人类头部的机器人,其面部配有26个执行器,能够产生广泛的微妙面部表情。头部覆盖着软硅胶皮肤,带有磁性附件系统,可以方便地定制和快速维护。为了更生动地互动,研究人员在每只眼睛的瞳孔内集成了高分辨率摄像头,使Emo能够进行眼神交流,这对于非语言交流至关重要。

该团队开发了两个AI模型:一个通过分析目标面部的微妙变化来预测人类的面部表情,另一个则使用相应的面部表情生成电机命令。

为了训练机器人如何做出面部表情,研究人员让Emo站在摄像头前进行随机动作。几个小时后,机器人学会了他们的面部表情和电机命令之间的关系——这与人类通过照镜子练习面部表情的方式类似。这就是该团队所称的“自我建模”——类似于我们人类能够想象我们做某些表情时的样子。

然后,该团队为Emo播放了人类面部表情的视频,让它逐帧观察。经过几个小时的训练,Emo可以通过观察人们面部微小的变化来预测人类的面部表情,因为他们

开始形成微笑的意图。

哥伦比亚工程学院机器人团队的博士生胡宇航说:“我认为准确预测人类面部表情在人机交互中是一场革命。传统上,机器人并未设计考虑到人类在交互过程中的表情。现在,机器人可以将人类的面部表情整合为反馈。”他说,“当机器人能够实时与人类共同表达时,不仅可以提高交互质量,还有助于建立人与机器人之间的信任。未来,当与机器人交互时,它将观察和解释你的面部表情,就像与真人交流一样。”

下一步

研究人员现在正在努力将语言交流整合到Emo中,使用类似ChatGPT这样的大型语言模型。随着机器人越来越能够像人类一样行为,利普森非常清楚这项新技术所涉及的伦理考虑。

哥伦比亚工程学院机械工程系詹姆斯和莎莉·斯卡帕创新教授、哥伦比亚大学Makerspace联合主任,以及数据科学研究所成员霍德·利普森教授说:“虽然这一能力预示着一系列积极的应用,从家庭助手到教育辅助工具,但开发者和用户必须谨慎考虑伦理问题。”他说,“但这也是非常令人兴奋的——通过提高机器人准确解释和模仿人类表情的能力,我们正在向一个未来迈进,机器人可以无缝地融入我们的日常生活,提供陪伴、帮助,甚至是同情。想象一下,与机器人的交流感觉与与朋友交谈一样自然舒适。”

这项研究的成果标志着人机交互领域的一次重大进步,为实现更加人性化和智能化的机器人交互奠定了基础。随着这一技术的不断发展,我们可以期待看到更多能够与人类进行真实互动的智能机器人的出现,这将对我们的日常生活产生深远的影响。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注