Latex Word 模板

\documentclass[UTF8]{ctexart}

\usepackage{indentfirst} %首行缩进

\usepackage{amsmath} %\mathcal{}花体

\usepackage{amsfonts,amssymb}

\usepackage{lmodern}

\usepackage{color}

\usepackage{graphicx} %导入图片

\usepackage{caption} %图片标题居中

\usepackage{stfloats} %自定义图片位置

\usepackage{epstopdf}

\usepackage{mathrsfs}

 

\setlength{\parindent}{2em} %设置缩进命令

 

\title{一种无监督学习模型可变形医学图像配准}

 

\begin{document}

 

\section{Abstract}

基于快速学习的可变形的、成对的三维医学图像配准。将配准定义为一个参数函数,使用一组感兴趣的图像进行参数优化。

 

\section{介绍与背景}

 

\subsection{介绍}

 

大多数配准方法解决了每个体素对的优化问题,即体素对齐,对配准映射执行平滑约束。计算复杂密集,在实践中非常慢。\\

该设计从体积集合中学习参数优化配准函数,输入两个n维的体积(图像)输出一个图像所有体素到到另一个图像的映射。网络的参数(卷积核的权重)使用来自感兴趣数据集,对训练集进行优化。通过权值共享学习一种通用表述,对齐同一分布上新的成对的volume(体积)。\\优点:\\1.无监督配准,不需要金标准和标注的信息;\\2.使用权值共享,通过功能评估进行配准;\\3.实现了各种代价函数的参数优化。

\subsection{背景}

 

传统的体积配准,将一个体积扭转到与第二个体积对齐。可变性配准策略将用于全局对准的初始仿射变换与通常具有较高自由度且慢得多的传统可变形变换分开。本文关注后一步,计算所有体素的密度(集)非线性关系。可变形配准支持跨扫描(多模态)和不同种族人群的结构比较。有利于理解不同人种之间的变异性,或者患病个体大脑解剖(anatomy)结构随时间的演变。

$$\hat{\phi} = arg_{\phi}min{\mathcal{L}}(F,M,\phi) \eqno (1.1) $$

 

其中,F和M分别是固定图像和运动图像,$\phi$为配准变换场(位移矢量场DVF),上式表示配准优化问题。

$$\mathcal{L}(F,M,\phi) = \mathcal{L}_{min}(F,M(\phi)) + {\lambda}\mathcal{L}_{smooth}(\phi)\eqno (1.2) $$

$M(\phi)$表示被配准场扭曲的的运动图像,$\mathcal{L}_{min}(F,M(\phi))$则表示固定图像与配准后的运动图像之间的图像相似性损失,$\lambda$是$\mathcal{L}_{smooth}$对$(\phi)$施加的正则化参数,$\mathcal{L}_{smooth}$是形变场的平滑损失。$\phi$是位移矢量场即F到M的矢量偏移。微分同胚(diffeomorphic)变换(包括大微分同胚距离度量映射,LDDMM;DARTEL;标准化对称归一化,SyN),是流行的替代方法,它将$\phi$建模为速度矢量场(VVF),因此可以保持拓扑结构并强制$\phi$可逆。\\

 

常用的相似性度量方法包括:均方根(MSD)、互信息(MI)、互相关(CC)。后两种方法适用于体素具有不同强度分布和对比度的情况。\\

 

$\mathcal{L}_{smooth}$强制执行空间变换上的平滑操作,常建模为$\phi$空间梯度上的线性算子。本文使用体素对\textcolor[rgb]{1,0,0}{数据集}进行参数优化来最小化\textcolor[rgb]{1,0,0}{$\phi$}的预期能量。

 

\section{相关文献调研}

 

\subsection{非学习}

 

$$\text{位移矢量场的优化}

\begin{cases}

\text{1.弹性模型(elstic-type models)}\\

\text{2.统计参数映射(statistical paramteric mapping)}\\

\text{3.B样条自由形变(free-form deformations with B-splines) (参数化可变形配准方法)}\\

\text{4.Demons(一种非参数化可变形配准方法)}

\end{cases}

$$

 

\subsection{学习}

 

需要金标准的有监督变换$\Rightarrow$初步无监督神经网络(CNN和空间变换函数组成),将图像扭曲。\textcolor[rgb]{1,0,0}{缺点:仅在有限体素或更小单位上演示}$\Rightarrow$采用插值方法隐式确定正则化$\Rightarrow$实现任何可微分的代价函数。\\

Loss function(损失函数):衡量误差的函数,计算的是一个样本之间的误差,也就是目标函数和真实值之间的差,一个训练集内。\\

Cost function(代价函数):衡量的是所有的训练集的误差总和的平均值,cost的存在与否和目标函数的的参数结果没有较大的关系。\\

 

\subsection{2D图像对齐}

 

光流估计:2D图像3D配准的,返回一个描述2D图像对之间的小位移的密集矢量场。 传统的光流法,使用变分解决优化问题,更好的处理大位移或外观剧烈变化的扩展(基于特征的匹配,最邻近字段)。\\

使用主成分分析(PCA)学习图像光流的低维基础$\Rightarrow$CNN学习参数,需要金标准进行训练,空间变换层需要使CNN执行全局2D对齐,不需要监督标签,该层用于密集的空间变换$\Rightarrow$将空间转换器变换到三维

 

\section{实验方法}

 

F,M是两个三维的图像,且是单通道的灰度图像。预处理阶段二者是仿射对齐的,未对齐部分是由非线性引起的。使用CNN建模$g_{\theta }(F,M) = {\phi}$,其中${\phi}$是配准场,${\theta}$是学习到的参数。$\mathscr{P}$是图像上的一个体素,$\phi(\mathscr{P})$是配准后图像上的一个体素,可以满足$F(\mathscr{P})$与$M(\phi(\mathscr{P}))$表示同一个解剖位置。流程图如下:\\

\begin{figure}[ht]

\centering

\includegraphics[scale=0.4]{process.jpg}

\caption{\text{设计流程图}}

\label{fig1}

\end{figure}

 

以F、M为输入,基于一组参数$\theta$(卷积核),计算$\phi$。使模型可以评估F和M($\phi$)的相似性并更新$\theta$。使用随机梯度下降最小化预期损失函数$\mathcal{L}(...)$寻找最优参数,与式(1.2)类似。$$\hat{\theta} = arg_{\theta}min[\mathbb{E}_{(F,M){\sim}D}[\mathcal{L}(F,M,g_{\theta }(F,M))]] \eqno (2.4.1) $$\\

用上式训练数据集,其中D是数据集的分布,通过对齐D中采样的体素来学习$\hat{\theta}$。优点:不需要金标准或解剖标志。在测试阶段给训练模型输入一个它没有见过的F,M对通过评估g得到一个配准场。构造的模型称为:VoxelMorph

 

 

\subsection{VoxelMorph CNN 框架}

 

g(构建的网络框架)的参数化是类似于UNet的卷积神经网络结构,由跳跃的编码器和解码器组成,负责生成$\phi$(配准场)。 UNet结构如下:\\

\begin{figure}[ht]

\centering

\includegraphics[scale=0.4]{UNET.png}

\caption{\text{UNet结构图}}

\label{fig2}

\end{figure}

图二下方的数字表示当前层于输入三维图像的大小关系。 \\

 

图三显示了提出的框架的两种变体形式,在配准精度和计算速度两方面进行权衡。两者都是将两个(F,M)单通道输入合并成双通道的三维图像。本文使用的图像张量为$160*192*224*2$,在编码器和解码器阶段应用三维卷积和LeakyReLU激活函数(负半轴斜率固定),卷积核为$3*3*3$。\textcolor[rgb]{1,0,0}{卷积层得到形变场$\phi$的输入层次特征},编码阶段,控制卷积步长使空间维度减半,直至达到最小层。(连续的编码层对输入进行粗提取。?)最小卷积层的感受野至少应该和F,M对应体素的最大期望位移一样。最小层的体素大小为$(1/16)^3$(三维图像)。解码阶段,交替使用上采样、卷积(与LeakyReLU激活函数一起)和跳跃连接\textcolor[rgb]{0,1,0}{常用于残差网络中,解决训练的梯度消失和梯度爆炸问题}。

跳跃连接直接将编码阶段学到的特征值传送至生成配准层。解码器输出的配准场$\phi$大小为$160*192*224*3$.连续的解码器可以精确对齐解剖结构,但需要付出大量的计算代价。图三两中方法使用更少的层和后三层中更少的通道数。

 

\begin{figure}[htbp]

\centering

\includegraphics[scale=0.4]{Unet variation.jpg}

\caption{\text{两种UNet变体结构图}}

\label{fig3}

\end{figure}

 

\subsection{空间变换函数}

 

空间变换函数是最小化$M(\phi)$和F间的差异来学习最优参数值,为了使用基于标准梯度方法,采用基于空间变形网络的可微运算计算$M(\phi)$。\\

计算每个体素p对应的$\phi(p)$,对相邻8个体素的值进行插值,按公式(4.1)进行插值:

$$M(\phi(p)) = \sum\limits_{q\in{\mathcal{Z}(\phi(p))}}M(q)\prod_{d\in{\{x,y,z\}}}(1-\mid{\phi_{d}(p)-q_d}\mid)\eqno{(4.1)}$$

式中$\mathcal{Z}(\phi(p))$为$\phi(p)$相邻的像素,运算任何地方均可微,可以反向传播错误(进行修改)。

 

\subsection{损失函数}

 

以(1.2)为例,损失函数由,$\mathcal{L}_{min}$惩罚外观差异和$\mathcal{L}_{smooth}$惩罚配准场的局部空间变化。将$\mathcal{L}_{min}$设置为$M(\phi)$和F的负的局部互相关,对扫描和数据集出现的强度变化具有鲁棒性。\\

$\hat{f}(p)$与$\hat{M}(\phi(p))$分别表示减去局部平均强度的图像,计算$n^3$体积上的局部平均值,F与M$(\phi)$的\textcolor[rgb]{0,0,1}{局部互相关}可写为式(4.2):

$$CC(F,M(\phi))=\sum\limits_{q\in{\Omega}}\frac{\Bigl(\sum\limits_{p_i}(F(p_i)-\hat{F}(p))(M(\phi(p_i))-\hat{M}(\phi(p))))\Bigr)^2}{\Bigl((\sum\limits_{p_i}(F(p_i)-\hat{F}(p))\Bigr)\Bigl(\sum\limits_{p_i}(M(\phi(p_i))-\hat{M}(\phi(p)))\Bigr)} \eqno{(4.2)}$$

其中,$p_i$在p的$n^3$体积中迭代。互相关值越大对准效果越好。损失函数为负的局部相关系数,只使用配准图像和固定图像的卷积运算计算CC。\\

最小化的$\mathcal{L}_{smooth}$促使配准图像逼近固定图像,但同时可能会产生不连续的形变场,在空间梯度上使用扩散正则化来平滑形变场如式(4.3):

$$\mathcal{L}_{smooth}(\phi) = \sum\limits_{p\in{\Omega}}{\|\nabla{\phi(p)}\|}^2 \eqno{(4.3)} $$

由相邻体素间的差异来近似空间梯度,全部损失函数为式(4.4),其中$\lambda$是正则化参数:

$$\mathcal{L}(F,M,\phi) = -CC(F,M(\phi)) + \lambda\sum\limits_{p\in{\Omega}}{\|\nabla{\phi(p)}\|}^2 \eqno{(4.4)} $$

 

\section{实验}

 

\subsection{数据集}

 

使用大规模、多标记点、多研究的数据集,8个公开数据集(ADNI,OASIS,\\ABIDE,ADHD200,MCIC,PPMI,HABS,Harvard GSP)共计7829个T1加权脑部MRI扫描图,全部图像重采样为$256\times256\times256$,具有1mm的各向同性体素。预处理:使用FreeSurfer进行仿射空间归一化和大脑提取,并将结果裁剪为输入大小;用质量控制使用视觉检查来捕捉分割结果中的错误,用分割图进行评估。\\

\hspace{2.0em} Atlas-based,地图集,Atlas 就是人工标记完备的数据库。用8个数据库以外的地图集作为F,8个数据集作为M,随机配对进行实验。

 

\subsection{Dice系数}

 

设$\mathcal{S}_{F}^s$与$\mathcal{S}_{M(\phi)}^s$分别表示某一结构的体素集合Dice系数为式(5.1):

$$Dice(\mathcal{S}_{M(\phi)}^s,\mathcal{S}_{F}^s) = 2 *\frac{\mathcal{S}_{M(\phi)}^s \bigcap \mathcal{S}_{F}^s}{|\mathcal{S}_{M(\phi)}^s| + |\mathcal{S}_{F}^s|} \eqno{(5.1)}$$

 

\subsection{基于样条的方法}

 

采用跨多个数据集的宽参数训练获得改进参数,进行实验。

 

\subsection{实现}

 

使用Tensorflow的Keras构建网络,每轮次训练使用一对F,M,使用不同的正则化参数进行训练,直到收敛。在验证集上优化参数。实验结果如下图4:

\begin{figure}[htbp]

\centering

\includegraphics[scale=0.7]{result.jpg}

\caption{\text{训练结果}}

\label{fig4}

\end{figure}

表中,括号里的为标准差。显示的结果。该实验的效果与ANTs算法包相当,计算速度有较大提升。将各个组织结构的结果可视化,作出如下箱线图,图5:

\begin{figure}[htbp]

\centering

\includegraphics[scale=0.4]{boxplot.jpg}

\caption{\text{各结构结果对比箱线图}}

\label{fig5}

\end{figure}

 

 

对所有训练集训练结果和一类训练集训练结果对比,结果显示,使用单独一类数据的结果提高了$1.5\%$如图6:

\begin{figure}[htbp]

\centering

\includegraphics[scale=0.7]{all-one.jpg}

\caption{\text{用全部训练集训练结果和单独一类数据集训练结果}}

\label{fig6}

\end{figure}

 

\subsubsection{正则化分析}

 

如图7所示,当$\lambda$=1(对于voxelmorf-1)和$\lambda$=1.5(对于voxelmorf-2)时,出现最佳Dice分数。当$\lambda$变化时系数变化也不大,表示模型对正则化系数有很强的鲁棒性。即使$\lambda$=0,也有较好的配准效果,说明最优网络参数给出了一个隐式正则化。图8为不同$\lambda$情况下的配准场,$\lambda$较小时,配准场的边缘和结构边界发生显著变化。

 

\begin{figure}[htbp]

\centering

\includegraphics[scale=0.7]{Regularization.jpg}

\caption{\text{正则化系数与Dice系数的关系}}

\label{fig7}

\end{figure}

 

\begin{figure}[htbp]

\centering

\includegraphics[scale=0.7]{regitration filed.jpg}

\caption{\text{具有不同正则化参数的配准场}}

\label{fig8}

\end{figure}

 

\section{总结}

 

通过改变网络的卷积层和信道的数量来探索训练速度和Dice系数的权衡,可以认为这些是超参数。通过实验获取超参数,获得的超参数可以推广使用。\\

ANTs产生不同的配准场,\textcolor[rgb]{1,0,0}{微分同胚具有可逆性和拓扑保持},本文并未不能产生不同配准场。\\

提出了一种基于无监督学习的医学图像配准方法,该方法在大规模、多研究磁共振脑数据集上获得与最先进的3D图像配准相似的配准精度,同时操作速度快几个数量级。模型分析表明,我们的模型对\textcolor[rgb]{1,0,0}{正则化参数具有鲁棒性},可以针对不同的数据群体进行定制,并且可以很容易地进行修改在准确性和运行时间进行权衡。

 

 

 

\end{document} 

posted @ 2021-12-21 21:45  今天记笔记了吗  阅读(400)  评论(0)    收藏  举报