CERN如何使用深度学习和英特尔oneAPI加速蒙特卡洛模拟介绍

独立顾问 james reinders 刚刚在 nextplatform.com 网站上发表了题为“cern 采用英特尔深度学习加速技术和 oneapi 在不影响准确度的情况下加快推理速度”的文章,详细介绍了 cern 如何使用深度学习和英特尔 oneapi 加速蒙特卡洛模拟 (monte carlo simulation),推动大型强子对撞机研究。
为了帮助满足全球最大的粒子加速器cern的lhc(大型强子对撞机)的未来需求,cern,surfsara和英特尔的研究人员一直在研究提供全新高水平仿真的方法。
reinders 写到,cern 研究人员“业已证明在不影响准确度的情况下,通过降低精度,成功将推理速度提升了近两倍。”此项工作是英特尔通过 cern openlab 与 cern 长期合作的一部分。
cern 研究人员发现,在名为“生成式对抗网络 (gan)”的特定神经网络 (nn) 中,约一半的计算可以从 fp32 切换至 int8 数值精度,英特尔 深度学习加速技术可以在不影响准确度的情况下直接支持这种切换。最终,gan 性能提升了两倍,且准确度丝毫不受影响。虽然这项工作由直接支持 int8 的英特尔 至强 可扩展处理器完成,但 reinders 还在文章中提出了下一个逻辑跳跃:
“int 8 的广泛支持得益于英特尔至强可扩展处理器,英特尔 xe gpu 也支持 int 8。fpga 支持 int8 和其他较低的精度格式。”
通过完全控制精度权衡来实现量化,从而为推理带来了显着的性能提升
此外,reinders 还表示:
“执行并大幅改进此项工作的秘密武器是,oneapi 支持轻松访问英特尔深度学习加速和其他加速技术,无需将应用锁定到单个厂商或设备中。”
值得一提的是,oneapi 如何让此类工作更具价值。所用工具的关键部分,包括 tensorflow 和 python 中隐藏的加速,都利用了支持 oneapi 的库。这意味着,它们是公开的,可随时用于异构系统,不只针对于一家厂商或一种产品(比如 gpu)。
oneapi 是跨行业、开放式、基于标准的统一编程模型,可在所有加速器架构中提供统一的开发体验。英特尔帮助创建了 oneapi,并为其提供各种开源编译器、库和其他工具的支持。编程后通过 oneapi 使用 int8,这样文章所述的 cern 执行的此类工作可以使用英特尔 xe gpu、fpga 或其他支持 int8 或其他数值格式(可以量化)的设备来完成。
原文标题:神经网络性能提升两倍,英特尔®深度学习加速技术和oneapi推动大型强子对撞机研究
文章出处:【微信公众号:fpga之家】欢迎添加关注!文章转载请注明出处。


首个中文医学知识LLM:真正的赛华佗—华驼(HuaTuo)
在windows CE系统中sDRAM硬件连接方案的介绍
BigDecimal实际开发的三坑是什么
三星拿到美方的许可令,获准继续向华为出货OLED显示面板
利用Learn Git Branching轻松学习Git
CERN如何使用深度学习和英特尔oneAPI加速蒙特卡洛模拟介绍
红米K40 Pro真机曝光
测量仪表的准确度等级
采用PSoC芯片CY29666-24PVXI进行光纤陀螺脉冲输出的采集设计
天嵌科技TQiMX6UL_BASEB开发板套装-NXP系列规格
Mobvoi推出新品智能手表,搭载高通骁龙新品和血氧监测功能
零度重回无人机市场 打造复合翼无人机
中伟视界&矿山安全生产:煤矿智慧矿山ai平台建设方案,ai平台由哪几部分组成
基于sopc嵌入式文字识别系统设计
山寨与专业的区别
巴特沃斯滤波器的原理_巴特沃斯滤波器优点介绍
群英荟萃!物联网大咖们聚会是为了啥?
KEGV-P-002开发板雷卯防雷防静电推荐图
汽车电子供应链称明年新项目需求旺盛
新型物联网安全成熟度模型(SMM)的目的