解决VR社交痛点!谷歌AI识别重现人类表情
前段时间,谷歌机器感知(GoogleMachinePerception)团队与DaydreamLabs和YouTubeSpaces合作,可以借助AI领域大热的机器学习技术识别头显背后的用户表情,有助于VR社交和混合现实视频聊天。这项研究使用集成了眼球追踪技术的头戴显示器,可以展现一个玩家丰富的面部表情。脸部表情是理解一个人在体验情绪的关键,它传达着重要的社交活动线索。
以下是GoogleResearch的研究成果:今天,我们提出了一种方法,通过分析脸部一小块区域来推断整个面部表情。具体来说,我们在头显中装入红外摄像头,用于捕捉用户眼睛区域,这足以推断至少一部分面部表情,而无需使用任何外部摄像头或额外的传感器。左边:一个用户戴着虚拟现实头显,使用眼球追踪来进行表情分类右边:从监测到的眼睛图像匹配我们的模型,从而推断表情的表达我们使用深度学习来区分眼睛和周围区域的面部表情,这些区域通常包括虹膜、巩膜和眼睑,还可能包括眉毛和脸颊部分。
从这样的新型传感器中获取大量的数据是一项具有挑战性的任务,因此我们收集了46个实验对象的一系列面部表情训练数据。为了达成脸部表情分类,我们微调了TensorFlow的Inception变体,并在Imagenet上训练了模型的权重。由于参与者的外貌差异,我们试图在一定程度上消除这些差异。
我们已经证明了,这种方式对于各种面部表情的识别是可靠的,而且捕获眼睛区域的这些信息可以通过使用基于CNN的方式进行解码,即使对人类来说,仅从眼睛区域识别面部表情也是十分重要的。我们的模型可以实时进行推断,并可以实时生成带有面部表情的头像,它可以用作虚拟现实用户的社交表达的替代。这种交互机制还能产生一种更直观的界面,例如在虚拟现实中分享表情,取代以前的手势或键盘输入。
目前的眼球追踪技术可完全嵌入到消费者VR头显中,而无需额外的外部摄像头,这种方式捕捉用户面部表情是一个可以移动的解决方案。这种技术的发展超越了动画卡通头像,它可以用来提供更丰富的VR社交体验,通过更真实和更丰富的情感信息来增强虚拟现实的交流和社交活动。虚拟现实和增强现实或许会成为人机交互的下一个通用界面。
2017年我们仍然能看到不少相关方面的技术进步和内容。尽管目前阶段最有可能赚钱的是一些垂直行业领域,例如教育、地产、医疗和电商等,但大众最熟知的V...。
- 5星
- 4星
- 3星
- 2星
- 1星
- 暂无评论信息
