Constrained Joint CRF for Simultaneous FAUR and FLD
\documentclass{article} %article文章
%\documentclass[journal]{IEEEtran}
\usepackage{cTex} %使用中文字符
\usepackage{amsmath} %使用数学公式
\usepackage{amssymb}
%\usepackage[colorlinks]{hyperref} %超级链接宏包
\usepackage[pagebackref,colorlinks]{hyperref} %超级链接宏包
\usepackage[top=1in,bottom=1in,left=1.25in,right=1.25in]{geometry} %设置也边距
\usepackage{caption}
\usepackage[ruled,vlined]{algorithm2e}%算法
\renewcommand{\algorithmcfname}{算法} %%将算法的标题:从Algorithm 1 到 算法1.
%%===设置参考文献===
\renewcommand{\refname}{参考文献}
%%==图片序号与标题之间的冒号改为空格,将图片序号中的”Fig”改为”图“
\captionsetup[figure]{labelsep=space}
%%==设置字体===
\newcommand{\wuhao}{\fontsize{10.5pt}{\baselineskip}\selectfont} %五号
\newcommand{\liuhao}{\fontsize{7.875pt}{\baselineskip}\selectfont} %六号
\setmainfont{Times New Roman} % 全局西文用 Times New Roman 字体
\setCJKmainfont{SimSun} % 全局中文用 Adobe Song Std 字体
\title{Constrained Joint CRF for Simultaneous FAUR and FLD}
\date{}
\renewcommand \figurename {\liuhao 图}
\begin{document}
\maketitle
\section*{摘要}
我们提出了一个有约束的联合级联框架,其可以同时实现面部运动单元的检测和面部基准点的定位。这两个是相互关联的人脸分析任务,但是很少利用在一起。\
思路:我们先学习面部运动单元和人脸形状的关系,作为一个约束。然后,在提出的有约束的联合级联框架中,利用这个约束,我们迭代的更新基准点的位置和运动单元活动的概率,直到收敛。
\section{简介}
FACS系统和面部单元提供了面部肌肉运动和面部运动的客观度量。
级联回归框架已经表明是一种有效的人脸对齐方法。算法开始一个初始的形状模型(例如平均人脸),基于局部表观特征,迭代地更新基准点的位置,直到收敛。
\begin{figure}[htbp]
\centering
\includegraphics[width=0.5\textwidth]{figure1.png}
\caption{\liuhao flow chart} %captions不采用自动编号
\label{fg:001}
\end{figure}
图\ref{fg:001}:首先,在级联回归训练之前,我们学习面部形状和面部单元作为一个约束。其次,在由约束的级联回归框架中,利用这个约束,我们迭代更新基准点的位置和运动单位活动的概率。当更新基准点的位置时,我们使用局部表观信息和当前估计的运动单元活动的概率,和预先训练的约束(捕捉AUs和人脸形状的相互关系)。当更新运动单元活动的概率时,我们使用局部表观信息,当前估计的基准点的位置和预先训练的约束(捕捉AUs和人脸形状的相互关系)。这样基准点的检测和AU 估计相互作用达到收敛。\
{\color{red}{提出方法的主要贡献如下}}:
\begin{itemize}
\item{} \textbf{联合级联回归框架:}我们改进了有效的级联回归框架,并且提出了有约束的联合级联回归框架(CJCRF,Constrianed jointly performs facial landmark detection).CJCRF 同时执行人脸基准点定位和面部运动单元的识别,与现有的方法(即分开的估计基准点和面部运动单元)相比较,该方法是新奇的。
\item{} \textbf{约束:}CJCRF明确地利用了面部运动单元和人脸形状之间的关系,作为一个约束,来提升人脸运动单元识别和面部基准点检测的性能。此外,AU关系和人脸形状模式嵌入在了这个约束中。
\item{}\textbf{实验:}实验表明,与最高水平的工作相比,联合级联回归框架同时促进人脸运动单元识别和面部基准点定位的性能。
\end{itemize}
\section{相关工作}
\subsection{人脸基准点检测}
面部基准点检测算法可以分为三种类型:整体方法,局部有约束的方法,基于回归的方法。基于回归的方法又可分为:直接映射的方法和级联回归方法。直接映射的方法是将图像的表观映射到绝对基准点位置。级联回归方法从初始形状出发,利用当前预测的基准点位置处的表观信息迭代的更新形状,直到收敛。基于回归的方法一般不同之处在于选择的特征和回归的模型。例如{\cite{ref-01}}中,使用SIFT特征和线性回归模型。\cite{ref-02} 中使用回归树模型学习的LBF和线性回归模型来预测基准点的位置。
\subsection{人脸运动单元的识别}
面部运动单元识别算法通常在于\textcolor[rgb]{0.00,0.00,1.00}{特征}或者\textcolor[rgb]{0.00,0.00,1.00}{分类器设计}的改进。特征可以分为表观特征和形状特征。流行的表观特征有:LBP,LGBP(Local Gabor Binary Pattern),DCT(Discrete Cosine Transform)。形状的特征如:基准点的绝对位置,两个基准点之间的距离,和三个点定义的角度。与独立的AU识别方法相比,带有AU关系或者动态依赖的方法通常达到更好的性能。例如:文献\cite{ref-03} 中,将AU 关系嵌入到Multi-conditional Latent Variable Model(MC-LVM). 文献\cite{ref-04},通过Hierarchical Restricted Boltzmann Machine(HRBM)模型对全局的AU关系进行建模。文献\cite{ref-05}中,将联合的AU 识别任务表示为Multi-Task Multiple Kernel learning(MTMKL)问题。文献\cite{ref-06}中,学习两两的AU关系。文献\cite{ref-07} 从先验知识中学习AU关系。文献\cite{ref-08},将时间信息整合到AU识别中。
\AlgoDisplayBlockMarkers\SetAlgoBlockMarkers{begin}{end}%
\SetAlgoNoEnd
使用平均人脸初始化基准点的位置$\mathbf{x}^0$ \\
\For{\emph{t=1,2,...,T,or convergence} \textbf{do}}
{给定图像和当前基准点的位置,更新基准点的位置.\\
$f_t:\mathbf{I},\mathbf{x}^{t-1}\rightarrow \triangle \mathbf{x}^t$\\
$\mathbf{x}^t=\mathbf{x}^{t-1}+\triangle \mathbf {x}^t$\\
}
输出估计的基准点的位置$\mathbf{x}^T$
\caption{一般的级联回归框架}
\end{algorithm}
\section{有约束的联合级联回归}
\subsection{一般的级联约束框架}
假定基准点的位置表示为:
现有的方法在级联回归框架中,使用不同的图像特征和回归函数。例如,有监督的下降方法[SDM],线性回归模型用于学习预测。
其中
对于训练,给定训练数据集
\subsection{有约束的联合级联回归框架}
假定二值人脸运动单元标签标示为
\AlgoDisplayBlockMarkers\SetAlgoBlockMarkers{begin}{end}%
\SetAlgoNoEnd
\textbf{学习约束:}\\
学习基准点位置和运动单元标签,AU关系,人脸形状模式的关系,作为一个约束表示为$C(.)$\\
\textbf{有约束的联合级联回归框架:}\\
使用平均人脸形状初始化基准点的位置$\mathbf x^0$。\\
初始化AU活动的概率为0.5,$p_i^0=0.5,for \forall i$,\\
\For{\emph{t=1,2,...,T,or convergence} \textbf{do}}
{给定图像和当前基准点的位置,当前的AU单元活动的概率以及约束$C(.)$。.\\
$$f_t:\mathbf I,\mathbf X^{t-1},\mathbf p^{t-1},C(.)\rightarrow \triangle \mathbf x^t$$
$$\mathbf x^t=\mathbf x^{t-1}+\triangle \mathbf x^t$$
给定图像和当前基准点的位置以及约束$C(.)$,更新AU活动的概率,
$$g_t:\mathbf I,\mathbf x^t,C(.)\rightarrow \triangle \mathbf p^t$$
$$\mathbf p^t=\mathbf p^{t-1}+\triangle \mathbf p^t$$
}
输出估计的基准点的位置$\mathbf{x}^T$和AU活动的概率$\mathbf p^T$ \\
\caption{有约束的联合级联回归框架(CJCRF)}
\end{algorithm}
一般的框架如图1和算法1.首先,我们学习基准点位置
\subsubsection{AU和人脸基准点的关系约束}\label{sec-321}
我们使用Restricted Boltzmann Machine model(RBM)学习人脸形状和二值运动单元标签之间的关系。如图
其中:
其中
其中包括成对参数
以及偏见:
\centering
\includegraphics[width=0.5\textwidth]{figure2.png}
\caption{\liuhao 有约束的玻尔兹曼机融入了AU和人脸基准点的关系,以及AU关系(各个AU单元的联合关系)和人脸形状模式(即所有的基准点构成的组态的模式)} %captions 不采用自动编号
\label{fg:002}
\end{figure}
模型捕捉三层关系。首先,联合概率
AU依赖的形状(即依赖AU的形状)具有人脸形状(拥有活动的特定AU)的属性,并且随着不同的AU变换。例如,就像图
\centering
\includegraphics[width=0.5\textwidth]{figure3.png}
\caption{\liuhao 蓝色实线形状:AU依赖的期望的人脸形状.红色虚线形状:平均形状 } %captions 不采用自动编号
\label{fg:003}
\end{figure}
\centering
\includegraphics[width=0.5\textwidth]{figure4.png}
\caption{\liuhao 给定人脸形状(左),估计的AU活动概率(右).蓝色:当前人脸形状.红色:平均人脸 } %captions 不采用自动编号
\label{fg:004}
\end{figure}
\subsubsection{使用约束更新基准点位置(预测阶段)}
给定学习的人脸基准点位置和面部运动单元标签的之间的关系,作为一个约束。有约束的级联回归方法迭代的预测人脸基准点位置和面部运动单元活动的概率。当更新基准点位置时,该方法基于当前估计的基准点位置
注释:
关于
其中
这里,
\indent 通过推理,使用拉格朗日松弛,等式
\subsubsection{使用约束更新运动单元活动概率}
我们使用当前基准点的位置
\label{eq-07}
\begin{gathered}
\underset{\triangle \mathbf p^t}{\text {minimize}} ||\triangle \mathbf p^t-\mathbf T^t \Phi (\mathbf x^{t},\mathbf I)||_2^2\\
\text{subject to } p_i^t=P(\alpha_i=1|\mathbf x^t;\theta),\forall i\\
\mathbf 0 \leq \mathbf p^t \leq \mathbf 1
\end{gathered}
\end{equation}
其中
\section{实验结果}
\subsection{实现细节}
\textbf{数据集:}含有姿态的数据集,CK+,210个个体,593张人脸活动的视频,使用30个面部运动单元和28个基准点。
自发的数据集:SEMAINE和FERA。50个AU,28个面部特征点,260帧图像作为实验。\par
\textbf{建模:}RBM模型学习AUs和基准点之间的联合关系,包含了150个隐含节点,我们训练模型800echos。为了计算局部表观特征,我们使用SIFT,并且设置局部区域的半径为人脸大小的0.166.和先前的级联回归方法一样,我们通过随机的缩放,选择和平移扰动初始的人脸形状来增加训练图像。\textcolor{blue}{当计算公式
\textbf{评价标准:}为了计算人脸基准点检测器,我们使用检测点和真实点之间的距离除以瞳孔距离来衡量。我们通过在所有可利用的点和测试图像上计算平均误差。为了评估面部运动单元识别的精度,我们使用
\centering
\includegraphics[width=0.5\textwidth]{figure5.png}
\caption{\liuhao 左面两个图像:不带AU信息的基准点检测.右边两个图像:带有AU信息的提出的方法 }
\label{fg:005}
\end{figure}
\noindent \textbf{理解:}\
1.有两个条件概率:
其中第一个条件概率应用在
条件概率1的计算是通过训练样本集计算的,例如对于某个
条件概率2的计算是通过学习的模型计算得到。\
如果能想
2.在公式
3.思路就是学习先验约束模型,在迭代的过程中,使得迭代的过程一直受到先验的约束。
\bibitem[1]{ref-01}X. Xiong and F. De la Torre Frade. Supervised descent method and its applications to face alignment. In IEEE International Conference on Computer Vision and Pattern Recognition (CVPR), May 2013.\par
\bibitem[2]{ref-02}S. Ren, X. Cao, Y. Wei, and J. Sun. Face alignment at 3000 fps via regressing local binary features. In Computer Vision and Pattern Recognition (CVPR), 2014 IEEE Conference on,pages 1685–1692, June 2014.\par
\bibitem[3]{ref-03}S. Eleftheriadis, O. Rudovic, and M. Pantic. Multiconditional latent variable model for joint facial action unit detection. In Computer Vision (ICCV), 2015 IEEE International Conference on, Dec 2015.\par
\bibitem[4]{ref-04}Z. Wang, Y. Li, S. Wang, and Q. Ji. Capturing global semantic relationships for facial action unit recognition. In Computer Vision (ICCV), 2013 IEEE International Conference on, pages 3304–3311, Dec 2013.\par
\bibitem[5]{ref-05}X. Zhang, M. Mahoor, S. Mavadati, and J. Cohn. A lpnorm mtmkl framework for simultaneous detection of multiple facial action units. In Applications of Computer Vision (WACV), 2014 IEEE Winter Conference on, pages 1104–1111, March 2014.\par
\bibitem[6]{ref-06}K. Zhao, W.-S. Chu, F. De la Torre, J. F. Cohn, and H. Zhang.Joint patch and multi-label learning for facial action unit detection. In The IEEE Conference on Computer Vision and Pattern Recognition (CVPR),June 2015.\par
\bibitem[7]{ref-07}Y. Li, J. Chen, Y. Zhao, and Q. Ji. Data-free prior model for facial action unit recognition. IEEE Transactions on affective computing, 4(2):127–141, 2013.\par
\bibitem[8]{ref-08}M. Valstar and M. Pantic. Fully automatic recognition of the temporal phases of facial actions. Systems, Man, andCybernetics, Part B: Cybernetics, IEEE Transactions on,42(1):28–43, Feb 2012.\par
\bibitem[9]{ref-09}G. E. Hinton. Training products of experts by minimizing contrastive divergence. Neural Comput., 14(8):1771–1800,Aug. 2002.\par
\end{thebibliography}
\end{document}
Tex and pdf:
http://download.csdn.net/detail/xuluhui123/9621066
posted on 2016-09-03 21:09 Raby_Draby 阅读(350) 评论(0) 收藏 举报
浙公网安备 33010602011771号