摘要: 在本文中,我们提出了一种基于分解表示转换网络,该网络能够在无约束环境下恢复细节丰富的三维人脸,并能更精确地进行密集对齐。传统的3DMM参数回归的方法由于目标参数,即形状、表情、姿态参数都是单独估计的,没有考虑它们之间的直接影响,虽然它们是联合优化的,我们的DRTN方法目的在于通过学习不同3D人脸属性参数的相关性来强化语义上有意义的人脸属性表示。为此,我们提出并设计了一种新颖的分解三维人脸属性表示策略,它将给定的人脸属性分解为身份,表情和姿态部分。具体来说,回归网络中三维人脸参数的估计并不是独立的,还取决于其他人脸属性参数的关联性。身份部分的分支旨在通过保留整体的人脸几何形状结构并在身份不变的基础上强化表情和姿态属性的学习。相应的,表情和姿态部分的分支分别在保留表情和姿态属性一致性的前提下,耦合其他各个参数,以帮助细化人脸细节重建及大姿态下的人脸关键点对齐。在广泛评估的基准数据集上的大量定性和定量实验结果表明,与最先进的方法相比,我们的方法获得了具有竞争力的性能。