Transformer压缩部署的前沿技术:RPTQ与PB-LLM

随着人工智能技术的迅速发展,transformer在自然语言处理、机器翻译、问答系统等领域取得了显著的性能提升。然而,这些模型的部署面临着巨大的挑战,主要源于其庞大的模型尺寸和内存消耗。
在部署过程中,网络压缩是一种常用的解决方案,可以有效减小模型的体积,提高模型在移动设备等资源受限环境下的部署效率。其中,量化技术是将大模型中的浮点数参数转换为整数,并进行存储和计算的方法。由于transformer的网络参数越来越多、计算量越来越大,对于存储和计算资源有限的边缘设备来说,模型部署带来了很大的挑战。
网络量化是一种常见的解决方案,通过将模型参数量化为整数,可以大幅度减少模型的存储空间和计算量,从而实现在边缘设备上高效部署transformer。
后摩智能也在transformer量化提出了一些领先的算法方案。在本文中,我们将重点介绍两种针对transformer的量化方案:
rptq(reorder-based post-training quantization) 
pb-llm(partially binarized large language models)
这两种方法分别针对激活量化和权重量化,旨在实现极端低位量化,同时保持语言推理能力。
rptq:
量化激活通道的新思路
rptq(reorder-based post-training quantization)是后摩智能团队与华中科技大学等合作单位提出的一种全新的量化方法,旨在解决量化transformer时激活通道之间的数值范围差异问题。
相较于以往的研究,rptq首次将3位激活引入了llms,实现了显著的内存节省,例如在量化opt-175b模型方面,内存消耗降低了高达80%。rptq的关键思想是通过重新排列激活通道并按簇量化,从而减少通道范围差异的影响。同时,通过操作融合,避免了显式重新排序的操作,使得rptq的开销几乎为零。通过这种方法,rptq有效地解决了激活通道数值范围差异导致的量化误差问题。
pb-llm:
实现极端低位量化的新突破
pb-llm(partially binarized large language models)是后摩智能团队与伊利诺伊理工和伯克利大学等单位合作提出的另一种创新性量化方法,主要针对权重量化。目前该篇论文已被接收至iclr 2024,iclr 以介绍和发布人工智能、统计学和数据科学领域深度学习的尖端研究而闻名,被认为是“深度学习的顶级会议”。
相较于传统的二值化方法,pb-llm采用了部分二值化的策略,即将一部分显著权重分配到高位存储,从而在实现极端低位量化的同时,保持了transformer的语言推理能力。通过对显著权重的充分利用,pb-llm取得了显著的性能提升,为transformer的内存消耗和计算复杂度提供了有效的解决方案。这是学术界首次探索对transformer权重数值二值化的工作。
后摩智能的技术优势:突破性内存计算技术驱动ai发展
后摩智能作为大算力存算一体领域的先行者,凭借着rptq和pb-llm等创新性量化方法的提出,取得了在大型语言模型中实现极端低位量化的突破。同时,后摩智能团队在内存计算领域拥有深厚的研究实力和丰富的实践经验,与行业内多家顶尖机构展开了广泛的合作。这使得后摩智能得以不断推动内存计算技术的发展,为人工智能技术的应用提供了更多创新性解决方案。
总的来说,后摩智能的rptq和pb-llm等突破性量化方法为解决大型语言模型部署中的内存消耗和计算复杂度问题提供了有效的解决方案。随着内存计算技术的不断演进,后摩智能将继续致力于推动人工智能技术的发展,实现万物智能的愿景。


地平线征程5芯片通过ISO 26262 ASIL-B 功能安全产品认证
高端品牌中,卡萨帝为何能够屡次斩获中国专利奖
苹果停止英特尔5G芯片供货?纯属乌龙
基于51单片机的智能温控系统
运营商纷纷布局工业互联网
Transformer压缩部署的前沿技术:RPTQ与PB-LLM
测试机器中的不规则PCB是怎样设计的
新唐科技N32903R1DN简介
街道照明的发展历史是怎么样的
诺基亚的倒下将带来芬兰科技业的春天
技术知识查漏补缺!这可能是最全的图像相关知识总结
苹果新MacBook Pro修复续航Bug,iPhone7必备神器开卖 又没货了
小米8屏幕指纹版体验 全方位优化体验最佳
凭呼吸检测疾病?这个传感器就能做到
万物向新 聚力前行——川土微电子新品首发盛典暨代理商大会圆满举办
空气质量监测仪:了解您周围空气质量的最佳选择
火爆SPS展会现场的传感器,都有哪些经典用途?
如何制作一条MIDI电缆以将数据发送到操纵杆/MIDI端口
鸿蒙系统之于智能手机,是否能替代安卓系统?
微型逆变器的电源转换集成方案