• 文章转自:微信群众号「机器学习炼丹术」
  • 作者:炼丹兄(已授权)
  • 作者联系方式:微信cyx645016617
  • 论文称号:‘Fast Symmetric逆向搬迁 Diffeomor逆向行驶phic I逆向游览mage R逆向egistration with Convolut逆向行驶扣几分罚款多少钱ional Neural Networks’
  • 论文链接:arxiv.org/abs/2003.09…

0 总述

1逆向 微分同胚回忆

医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

(1)phi^{(1逆向工程)}是标明时刻距离为1的形变场,上图中的x标明形变场,然后形变场加上形变场的速度,便是时刻距离更长的形变场。

依据李代数群论,得到的结论是:
(1/2)=(1/4)∘(1/4)phi^{(1/2)}=phi^{(1/4)} circ phi^{(1/4)},咱们能够从时逆向思想练习500题间距离为1/4的变形场,推出时刻距离1/2的变形场。

从上一篇文章的代码中咱们也能够知道,论文中关于这部分的完成是下面的逻辑,以SYMnet中的T=7为例,是吧每一个时刻距离都机器学习区分成了272^7小段。

  • 把模型输入的形变场,除以272^7,这样便是所谓的1/27phi^{1/2^7}逆向游览
  • 通过1/27∘1/27phi^{1/2^7} circ phi^{1/2^7}得到1/26phi^逆向挑选{1/2^6}
  • 通过1/26逆向行驶怎样处分2021∘1/26p逆向hi^{1/逆向2^6} circ phi^{1/2^6}得到1/25phi^{1/2^5}
  • 究竟能够得到(1)ph逆向思想练习500题i^{(1)}逆向

2 模型结构

医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

这个模型的思想是,机器学习X和Y两个图片配准,本来是从X到Y的,可是现在咱们需求找到X和Y的一个中心态Z,让X配准到Z,然后让Y也配准到Z。

医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

图中的XY(1)ph逆向游览i_{XY}^{(1)}是从X到Y的形变场逆向游览

医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

究竟推理部分,咱们肯定是需求从X配准到Y的。所以咱们先用XY0.5phi_{XY}^{0.5}让X配准到中心态Z,然后再用YX(−0.5逆向)phi_{YX}^{(-0.5)}让中心态Z逆向配准到Z。

2.1 FCN

特征逆向行驶提取部分依然是逆向游览运用U-net(原文中是类似U-net的FCN):
医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

  • 网络的输入依然是X和Y两个图片拼接起来的,2通道图片;
  • 论文中说,在模型的究竟,两层卷积层为5的卷积层被用来生成两个速度场,vXY,vYXv_{XY},v_{YX}
  • 在后边跟着一个softsign activati逆向行驶扣几分on x1+∣x∣frac{x}逆向游览{1+|x|}
  • 然后乘上一个常数c逆向游览,让速度的范围在[-c,c],论文中给定的c为100,这样关于大的形变是有用的;
  • 除了out逆向工程put卷积层,每一个卷积层后边都跟着ReLU激活层。
  • 依据机器学习微分同胚的那个推论,假设设置的是T=7的话,那么咱们究竟只需求(0.5)phi^{(0.5)}就可机器学习以了。

3 丢掉函数

  • 最主要的丢掉便是NC逆向行驶扣几分C,关于这种图画配准使命来说,这个丢掉一般都是有的。论文顶用逆向的是NCC,也能够运用MSE等

论文中SY逆向行驶扣几分罚款多少钱Mnet模型的loss有:

  • LsimL_{si逆向挑选m}衡量相似性的丢掉;
  • LJdetL_{机器学习Jdet}使用雅各比行列式来代替梯度滑润丢掉。

3.1 similarity loss

包括两个部分:
Lsim=Lmean+LpairL_{sim} = L_{mean} + L_{pair}

  • Lmean=−N逆向CC(X(XY(0.5)),Y(YX(0.5逆向思想练习500题)))L_{mean}=-NCC(X逆向(phi_{XY}^{(0.5)}),Y(phi_{YX}^{(0.5逆向搬迁)}))。这个很好了解,便是希望X转化成中心态的Z和Y转化成的中心态Z是相同的;
  • Lpari=−NCC(X(XY(1)),Y)−逆向工程NCC(Y(YX逆向思想(1)),X)L_{pari} = -NCC(X(phi_{XY}^{(1)}),Y)-NCC(Y(phi_{YX}^{(1)}),X).这逆向游览个也好了解,便是希望X转化成的Y和Y转化的X和真实的Y和X是相同的;

医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

其间值逆向搬迁得一提的是:

  • XY(1)=XY(0.5)∘YX(−0.5)phi_{XY}^{(1)} = phi_{XY}^{(0.5)} circ phi_{YX}^{(-0.5)}
  • YX(1)=YX(0.5)逆向搬迁∘XY(−0.5)phi_{YX}^{(1)} = phi_{YX}^{(0.5)} circ phi_{XY}^{(-0.5)}

3.2 雅各比行列式丢掉

作者提出了雅各比行列式丢掉来代替v机器学习oxelmorph的smooth grad loss。

这个丢掉是代替之前的grad smooth loss,更重视部分方向的一致性。运用现有的方法,例如L1或者L2正则对变形场上的梯度进行绑缚,这种全局正则化会大大下降配准的精度

论文中提出雅各比行列式方逆向搬迁法,对估量的变形场施加部分方向的一致性绑缚

医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

其间的N标明变逆向挑选形场的元素数量,sigma是ReLU激活函数,J(p)J_{phi}(p)逆向行驶扣几分明变形场在p方位的雅各比行列逆向工程式。行列式的定义如下:
医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

代码如下:

def JacboianDet(y_pred, sample_grid):
J = y_pred + samp逆向行驶扣几分罚款多少钱le_grid
dy = J[:, 1:, :-1, :-1, :] - J[:, :-1, :-1, :-1, :]
dx = J[:, :-1, 1:, :-1, :] - J[:, :-1, :-1, :-1, :]
dz = J[:, :-逆向行驶怎样处分20211, :-1, 1:, :] - J[:, :-1逆向, :-1, :-1, :]
Jdet0 = dx[:,:,:,:,0] * (dy[:,:,:,:,1] * dz[逆向工程:,:,:,:,2] - dy[:,:,:,:,2] * dz[:,:,:,:,1])
Jdet1 = dx[逆向工程:,:,:,:,1] * (dy[:,:,:,逆向挑选:,0] * dz[:,:,:,:,2] - dy[:,:,:,:,2] * dz[:,逆向搬迁:,:,:,0])
Jdet2 = dx[:,:,:,:,2] * (dy[:,:,:,:,0] * dz[:,:,:,:,1] - dy[:,:,:,:,1] * dz[:,:,:,:,0])
Jdet = Jdet0 -逆向思想练习500题 Jdet1 + Jdet2
return Jdet
def neg_Jdet_loss(y_pred, sample_grid):
neg_Jdet = -1.0 * JacboianDet(y_pre逆向思想d, sample_grid)
selected_neg_Jdet = F.relu(neg_Jdet)
return torch.逆向行驶mean(selected_neg_Jdet)

It逆向挑选 is w逆向思想练习500题orth noting that the proposed selec逆向挑选tive Ja-逆向行驶扣几分罚款多少钱 cobian determinant regularization loss means not to replace the global regularizer. Instead, we utilize both regulariza- tion loss functions in our method to produce smooth and topology-p逆向思想rese逆向思想rvation transformations while alleviating the tr逆向工程adeoff between smoothness and registration accuracy.

作者强调,这个雅各比行列式丢掉,并没有代替之逆向游览前的全局正则化丢掉,而是两者侧重。

所以下面是L2逆向思想的梯度正则化丢掉:
医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

然后为了还增加了magnitude丢掉,便是保证vxyv逆向行驶_{逆向工程xy}xyxx_{yx}有着相同的量级:
医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

所以总的来说,这个SYMnet有四个部分的丢掉:
医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

4 作用

医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020
不出意外,作用也是完成逆向挑选了最好的水准。

文章主打的是雅各比丢掉,所以专门做了雅各比丢掉权逆向重不同对究竟作用的影响
医学图画配准 | SYMnet 对称微分同胚配准CNN(SOTA) | CVPR2020

有意思的是逆向思想练习500题,尽管作者说∣J∣越小越好,可是我看到的是DSC的作用跟着雅各比权重的下降而进步哈哈。好像没有这个丢掉绑缚,作用是最好的哈哈|J_{ph逆向搬迁i}|越小越好,可是我看到的是DSC的作用跟着雅各比权重的下降而进步哈哈。好像没机器学习有这个丢掉绑缚,作用是最好的哈哈