一种具有混合精度的高度可扩展的深度学习训练系统

编者按:昨天,腾讯和香港浸会大学的研究人员在arxiv上发表了一篇文章,介绍了一种具有混合精度的高度可扩展的深度学习训练系统。或许是觉得这个名字不够吸引人,他们又在后面加了一个颇具标题党意味的后缀——“4分钟训练imagenet”。那么这样的措辞是否夸大其词了呢?让我们来读读他们的论文。
现状
现如今,随着数据集和大型深度神经网络规模不断扩大,研究人员训练模型使用的时间也在不断延长,短则几天,长则几周,但过长的训练时间会给研发进度带来阻碍。由于计算资源有限,针对这个问题,现在一种常见解决方案是使用分布式同步随机梯度下降(sgd),它可以跨硬件作业,前提是必须给每个gpu分配合理的样本数量。
虽然这种做法可以利用系统的总吞吐量和较少的模型更新来加速训练,但它也存在两个不可忽视的问题:
较大的mini-batch由于存在泛化误差,会导致较低的测试精度:
如果增加mini-batch里的样本个数,我们确实可以通过计算平均值来减少梯度变化,从而提供更准确的梯度估计,此时模型采用的步长更大,优化算法速度也更快。但正如imagenet training in minutes这篇论文所论证的,一旦mini-batch的大小增加到64k,resnet-50在测试集上的准确率会从75.4%下降到73.2%,这达不到基线模型的精度要求。
当使用大型gpu集群时,训练速度并不会随着gpu数量的增加而呈线性上升趋势,尤其是对于计算通信比较高的模型:
训练模型时,分布式训练系统会为每个gpu分配训练任务,然后在每个训练步之间插入一个梯度聚合步骤,gpu数量越多,这个梯度聚合步就越容易成为系统瓶颈。假设gpu数量n固定,如果要提升系统总吞吐量t,我们就要同时提高单个gpu的吞吐量s和它的缩放效率e,但这两者提升需要额外的算力资源,这就和n固定有矛盾。
实验结果
在介绍研究成果前,我们先来看看最引人注意的“4分钟训练imagenet”。
根据论文实验部分的内容,研究人员选取的模型是alexnet和resnet-50,它们各自代表一种典型的cnn。alexnet的参数数量是resnet-50的2.5倍,而resnet-50的计算却是前者的5.6倍。因此它们的瓶颈分别是通信和计算,这正代表上节提出的两个问题。
上表是两个模型的训练结果和对比,可以发现,在imagenet数据集上,研究人员用4分钟训练好alexnet,又用6.6分钟训练好resnet-50,batch size非常大,但精度却和其他模型没什么区别。从数据角度看,这确实是个历史性的突破。
而根据腾讯机智团队自己的介绍,在这之前,业界最好的水平来自:日本perferred network公司chainer团队,他们用15分钟就训练好了resnet-50;uc berkely等高校的团队,他们用11分钟训练好alexnet。相较之下,腾讯和香港浸会大学的这个成果创造了ai训练的世界新纪录。
但显然,他们在写论文标题的时候也漏掉了重要内容,就是这个速度背后是2000多块gpu,相信这个真相会让一些研究人员兴奋,也会让大批学者和实验室感到内心拔凉。
研究成果概述
关于论文技术的详细细节,腾讯技术工程官方已经有长文分析,所以这里只根据论文内容的一点简介(才不说是写完才发现人家已经发了呢)。
这篇论文为为密集gpu集群构建了一个高度可扩展的深度学习训练系统,它很好地解决了上述两个问题,下图是它结构概览:
从图中我们可以看到,这个系统可以大致分为三个模块:输入管道模块、训练模块和通信模块。
输入管道负责在当前步骤完成之前就为下一步提供数据,它使用pipelining来最小化cpu和gpu的闲置时间。
训练模块包括模型构建和变量管理。在这个模块中,研究人员结合了各类优化方法,如使用混合精度训练前向/反向传播和用lars更新模型。
通信模块使用tensor fusion和论文提出的混合allreduce,根据张量大小和gpu集群大小优化缩放效率。
1. 提出了一种混合精度训练方法,可以显着提高单个gpu的训练吞吐量而不会降低精度。
之前,micikevicius等人已经在研究中提出过在训练阶段使用半精度(fp16)有助于降低内存压力并增加计算吞吐量的想法,前者可以通过把相同数量的值储存进更少的bit来实现,后者则可以降低数学精度,让处理器提供更高的吞吐量。
而yang you等人提出了一种为分布式培训提供更大mini-batch的算法——lars(自适应速率缩放),它会为每一层引入局部学习率,也就是用系数η加权的l2正则化权重和梯度权重的比率,能大幅度提高大batch size场景下的训练精度。
这两个成果非常互补,但它们不能直接结合使用,因为会导致梯度消失。为了融合两种思想,研究人员做出的改进是用lars进行混合精确训练,如下图所示,当进行前向传播和反向传播时,系统先把参数和数据转成半精度浮点数,然后再做训练,而训练权重和梯度时,参数和数据则是单精度浮点数。
2. 提出了一种针对超大型mini-batch(最大64k)的优化方法,可以在imagenet数据集上训练cnn模型而不会降低精度。
模型架构改进是提高模型性能的一种常见手段,在论文中,研究人员从以下两个方面改进了模型架构:1)消除偏差和batch normalization的权重衰减;2)为alexnet增加了一个batch normalization层。
除了这一点,深度学习中耗时占比较重的还有超参数调整。为了优化这一过程,研究人员的思路是:
参数步长由粗到细:调优参数值先以较大步长进行划分,可以减少参数组合数量,当确定大的最优范围之后再逐渐细化调整。
低精度调参:分析相关数据,放大低精度表示边缘数值,保证参数的有效性。
初始化数据的调参:根据输入输出通道数的范围来初始化初始值,一般以输入通道数较为常见;对于全连接网络层则采用高斯分布即可;对于shortcut的batch norm,参数gamma初始化为零(也可以先训练一个浅层网络,再通过参数递进初始化深层网络参数)。
3. 提出了一种高度优化的allreduce算法,使用这种算法后,相比nccl计算框架,alexnet和resnet-50在包含1024个tesla p40 gpu的集群上的训练速度分别提高了3倍和11倍。
在张量足够多的情况下,ring allreduce可以最大化利用网络,但工作效率和速度都不如张量少的情况。针对这种现象,研究人员利用分层同步和梯度分段融合优化ring allreduce
分层同步与ring allreduce有机结合:对集群内gpu节点进行分组,减少gpu数量对整体训练用时的影响。
梯度融合,多次梯度传输合并为一次:根据具体模型设置合适的tensor size阈值,将多次梯度传输合并为一次,同时超过阈值大小的tensor不再参与融合;这样可以防止tensor过度碎片化,从而提升了带宽利用率,降低了传输耗时。
gdr技术加速ring allreduce:在前述方案的基础上,将gdr技术应用于跨节点ring,这减少了主存和显存之间的copy操作,同时为gpu执行规约计算提供了便利。
这三大成果的直接效果是在不降低分类准确率的同时,把alexnet和resnet-50训练时所用的mini-batch size扩大至64k。同时,通过优化all-reduce算法,并让系统支持半精度训练,研究人员最后构建了一个高吞吐量分布式深度学习训练系统,可以在gpu数量n不变的情况下,提高单个gpu性能s和缩放效率e。

新西兰利用无人机治理鼠害,成本大幅度降低
向800V平台挺进!
公益诉讼土壤重金属元素分析仪的检测原理
华为平板M3体验 娱乐平板标杆仍有提升空间
我国电信业务1-11月已完成了累计收入12039亿元同比增长0.5%
一种具有混合精度的高度可扩展的深度学习训练系统
小鹏汽车质量如何?LNG跃迁之骑,小鹏汽车G3携手战队出征LPL
Linxu系统中文件系统的挂载方法和应用实例
大陆集团与硅谷公司Leia公司合作开发“光场显示器”
五大激光雷达技术路线分析:齐聚美股 车载激光雷达将走向何方?
时间继电器的使用和接线方法
小米6再曝光:内置高通骁龙835将配备两个版本
脱颖而出的MEMS技术设计
2019中国产业互联网领袖峰会上揭晓了百强榜单
三极管和MOS管的区别
LT8331 36V~72V 输入、48V SEPIC 转换器
浅谈机运输送线的电控系统
指纹锁该如何选择,我们应该注意些什么
双路12位数模转换器AD7237A的结构、功能特点和应用分析
大幅面打印机的内存/字体