英伟达:5nm实验芯片用INT4达到INT8的精度

ieee计算机运算研讨会。
32位与16位格式的混合精度训练,正是当前深度学习的主流。
最新的英伟达核弹gpu h100,刚刚添加上对8位浮点数格式fp8的支持。
英伟达首席科学家bill dally现在又表示,他们还有一个“秘密武器”:
在ieee计算机运算研讨会上,他介绍了一种实验性5nm芯片,可以混合使用8位与4位格式,并且在4位上得到近似8位的精度。
目前这种芯片还在开发中,主要用于深度学习推理所用的int4和int8格式,对于如何应用在训练中也在研究了。
相关论文已发表在2022 ieee symposium on vlsi technology上。
新的量化技术
降低数字格式而不造成重大精度损失,要归功于按矢量缩放量化(per-vector scaled quantization,vsq)的技术。
具体来说,一个int4数字只能精确表示从-8到7的16个整数。
其他数字都会四舍五入到这16个值上,中间产生的精度损失被称为量化噪声。
传统的量化方法给每个矩阵添加一个缩放因子来减少噪声,vsq则在这基础之上给每个向量都添加缩放因子,进一步减少噪声。
关键之处在于,缩放因子的值要匹配在神经网络中实际需要表示的数字范围。
英伟达研究人员发现,每64个数字为一组赋予独立调整过的缩放因子可以最小化量化误差。
计算缩放因子的开销可以忽略不计,从int8降为int4则让能量效率增加了一倍。
bill dally认为,结合上int4计算、vsq技术和其他优化方法后,新型芯片可以达到hopper架构每瓦运算速度的10倍。
还有哪些降低计算量的努力
除了英伟达之外,业界还有更多降低计算量的工作也在这次ieee研讨会上亮相。
马德里康普顿斯大学的一组研究人员设计出基于posits格式的处理器核心,与float浮点数相比准确性提高了多达4个数量级。
posits与float相比,增加了一个可变长度的regime区域,用来表示指数的指数。
对于0附近的较小数字只需要占用两个位,而这类数字正是在神经网络中大量使用的。
适用posits格式的新硬件基于fpga开发,研究人员发现可以用芯片的面积和功耗来提高精度,而不用增加计算时间。
eth zurich一个团队的研究基于risc-v,他们把两次混合精度的积和熔加计算(fused multiply-add,fma)放在一起平行计算。
这样可以防止两次计算之间的精度损失,还可以提高内存利用率。
fma指的是d = a * b + c这样的操作,一般情况下输入中的a和b会使用较低精度,而c和输出的d使用较高精度。
研究人员模拟了新方法可以使计算时间减少几乎一半,同时输出精度有所提高,特别是对于大矢量的计算。
相应的硬件实现正在开发中。
巴塞罗那超算中心和英特尔团队的研究也和fma相关,致力于神经网络训练可以完全使用bf16格式完成。
bf16格式已在dall·e 2等大型网络训练中得到应用,不过还需要与更高精度的fp32结合,并且在两者之间来回转换。
这是因为神经网络训练中只有一部分计算不会因bf16而降低精度。
最新解决办法开发了一个扩展的格式bf16-n,将几个bf16数字组合起来表示一个数,可以在不显著牺牲精度的情况下更有效进行fma计算
关键之处在于,fma计算单元的面积只受尾数位影响。
比如fp32有23个尾数位,需要576个单位的面积,而bf16-2只需要192个,减少了2/3。
另外这项工作的论文题目也很有意思,bf16 is all you need。


深圳智慧校园热成像系统怎么检测体温异常情况
加热连帽衫DIY图解
晶闸管式弧焊电源常见故障及排除方法
电子芯闻早报:高通推出骁龙821 荣耀8惊喜发布
十分钟让你看懂物联网
英伟达:5nm实验芯片用INT4达到INT8的精度
微雪电子AIO-3128C主板SPI使用介绍
芯片困局待解,华为发力非手机业务
电动车控制器功率小于电机功率会怎样
国产智能手表什么时候才能反超AppleWatch
16位运算对比较值S1和比较源S2内容进行比较
锤子空气净化器宣称可达800+CADR 是真的吗
智能语音助手的市场环境差,其发展道路艰难
揭秘凯迪拉克上海金桥工厂
用导热塑料灯壳来解决LED芯片工作温度的散热难题
“脚踩两只船”,英伟达下代7nm GPU同时由台积电、三星代工
物联网设备为何容易受到攻击?
诺西推出智能型Wi-Fi 实现WLAN与行动通讯无缝结合
Linux的发展前景怎么样
戴姆勒斥资5亿欧元研发自动驾驶卡车