• 文章原创自微信公众号「机器学习炼丹术」
  • 作者:炼丹兄
  • 联系方式:微信cyx645016617

本篇文章主要讲解两个无监督2020年比较新比较火的论文:

  • 论文名称:“Bootstrap Your Own Latentappstore: A New Approach to Self-Supervised Learning”
  • 论文链接:https://arxiv.org/pdhttp代理f/2006.07733.pdf

0 综述

BYOL是https和http的区别Boostrap Your Own Latent,这个无监督框架非常的优雅和简单,而且work。收到了很多人的称赞,上一个这样起名的在我认知中就是YOLO。两者都非常简单而优美。

1 数学符号

自监督图像论文精读 | BYOL(SOTA) | 2020

这个结构有两个网络,一个是online network,一个是targhttps和http的区别et network。

  • online network:用theta笔记本电脑排名前十来表示online network的参数,包含,encoderff_{theta},projectorgg_{theta}和predictorqq_thetaapple
  • target netowrk:使用xi来表示参数,也有ff_{xi}gg_{xi},但是没有predictor。

我们会更新onlihttp 302ne network,然后用滑动平均的方式,更新tar笔记本电脑排名前十get network:

https安全问题+(1−)xhttp://www.baidu.comileftarrow tauxi + (1-tau)theta

现在我们有一个图像数据集D,其中获取一个图片x∈Dxin D,然后我们对这个D做不同的https域名图像增强,得到了两个新的分布TTauT′Tau’,然后从两个新分布中获approve取的图片,http 302vvv′v’标记。也就是说,如果用t()t()t′()t'()表示对图像做图像增强的过程,那么v=t(x),v′=t′(x)v=t(x)appearance,v’=t'(x)

2 损失函数

自监督图像论文精读 | BYOL(SOTA) | 2020

我们现在有vv,经过encoder,得到y=f(v)y=f_{theta}(v),经过prejector,得到z=g(y)z=g_{theta}(y),经过phttp 404redictor,得到q(z)q_{theta}(z);同理,targeappeart network也是如此,只是没有最后的applicationpredictor,最终得到z′z’http 500

我们对z′z’q(z)http代理q_{theta}(z)做l2-normalizatio笔记本电脑连不上无线网怎么回事n,含义为取出这两个隐含变量的绝appleid对大小,而保留其方向性,为后面要做的向量点乘做铺垫。

自监督图像论文精读 | BYOL(SOTA) | 2020

上图中,笔记本电脑性价比排行2020q(z)=q(z)∣∣q(z)∣∣2bar{q_{th笔记本eta}}(z)=frac{q_{theta}(httpclientz)}{||q_{theta}(z)||_2},损失函数不难,其实有点像是:2−2cos⁡2-2costheta

上面,我们得到了损失Lappleid,L_{theta,xi},接下来,我们需要计算symmetric loss,这个是把v和v‘分别放入target network和online network计算,得到的L~,widetilde{L}_{theta,xi},然后论文中提到,通过SGD来最小化

L,BYOL=L,+L~,L^{BYOL}_{theta,xi}=L_{theta,xi} + widetilde{L}_{theta,xi}

需要注意的是,这个优化的过程,仅仅更新online network,http://192.168.1.1登录target network的参数不变化,目的是让ohttp代理nline network逐渐拥http 302有thttps协议arget network的性能

因此,这个BYOL的整个训练过程可以浓缩成下面的两行:
自监督图像论文精读 | BYOL(SOTA) | 2020

3 细节部分

3.1 图像增强

自监督图像论文精读 | BYOL(SOTA) | 2020

3.2 结构

上图中的e笔记本电脑排名前十ncoderf,ff_{theta},f_{xi}使用的是resnet50和post ahttp 404ctivation,这里第一次看到post activation,就去看了一下application发现,其实就是先卷积还是先激活层,如果relu放在conv后面就是post activation,relu放在conv前面就是pre activation。http://www.baidu.com
自监督图像论文精读 | BYOL(SOTA) | 2020

经过encoder,一个图片会输出2048个features,然后经过MLP,特征扩展到4096个特征,最终输出256个特征,在SimCLR模型中,MLapplicationP后跟了一个BN层和Relu激活层,但是在BYOP中没有BN层。

3.3 优化器

使用的是LARS优approve化器,使用cosine 学习率衰减策略,训练1000epoappleidch,其中包含10个warn-up epoch。学习率设置的为0.2。

至于online更新到target的参数tau,base=0.996tau_{base}=0.996,

=1−(1−base)(cos⁡kK+1)12thttp 500au=1-(1-tau_{base})(cosfrac{piappstore k}{K}+1)frac{1}{2}

k is current training step and Khttpwatch is maxihttp://www.baidu.commum train笔记本电脑排名前十ing steps.

3.4 财力

batchsize为4096,分布在512个TPU v3的核,训练encoder大约需要8个hohttps域名ur。

4 模型评估

在ImageNet上做监督学习,先用无监督训练好enc笔记本电脑开机黑屏没反应怎么办oder后,然后用标准appreciate的resnet50进行监督微调:
自监督图像论文精读 | BYOL(SOTA) | 2020

前面http://192.168.1.1登录同行,这里的监督训练也是获取ImageNet上的笔记本电脑开不了机少部分数据集进行训练,所以叫做semhttp 500i-supervhttp协议ised:
自监督图像论文精读 | BYOL(SOTA) | 2020

这样的方法在其他的分类数据集上的效果:
自监督图像论文精读 | BYOL(SOTA) | 2020

觉得笔记本电脑开不了机笔记不错的,可以关注作者的微信公众http 302号「机器学习炼丹术」。