对比 nvidia gpu 上的 tensorflow,该集成使深度学习推理速度快 5 倍。
中国北京 – 2018 年 4 月 11 日 – mathworks 今日宣布 ,matlab 现在可通过 gpu coder 实现与 nvidia tensorrt 集成。这可以帮助工程师和科学家们在 matlab 中开发新的人工智能和深度学习模型,且可确保性能和效率满足数据中心、嵌入式应用和汽车应用不断增长的需求。
matlab 提供了一个完整的工作流程来快速训练、验证和部署深度学习模型。工程师可以使用 gpu 资源,而无需额外编程操作,因此可以专注于应用本身而不是性能调优。nvidia tensorrt 与 gpu coder 的全新集成使得可以在 matlab 中开发深度学习模型,然后以高吞吐量低延迟的方式部署在 nvidia gpu 上运行。内部基准测试显示,matlab 生成的cuda代码与 tensorrt 结合,在部署 alexnet模型进行深度学习推理时,性能比 tensorflow 高 5 倍;在部署 vgg-16 模型进行深度学习推理时,性能比 tensorflow 高 1.25 倍。*
“不断发展的图像、语音、传感器和物联网 (iot) 技术促使团队以更好的性能和效率研究人工智能解决方案。此外,深度学习模型变得越来越复杂。所有这些都给工程师们带来了巨大的压力,” mathworks 总监 david rich 说。“现在,团队可以使用 matlab 训练深度学习模型,nvidia gpu 可以将实时推理部署到从云端到数据中心到嵌入式边界设备等各种环境中。”
* 所有基准测试均在一台使用 nvidia titan xp gpu、64gb ram 的 linux 12 core intel® xeon® e5-1650 v3 电脑上运行,使用的软件包括带 gpu coder 的 matlab r2018a、tensorrt 3.0.1、tensorflow 1.6.0、cuda 9.0 和 cudnn 7
关于 mathworks
mathworks 公司是数学计算软件领域世界领先的开发商。它所推出的 matlab 是一种用于算法开发、数据分析、可视化和数值计算的程序设计环境,称为“科学计算的语言”。simulink 是一种图形环境,可用于对多域动态系统和嵌入式系统进行仿真和基于模型设计。全球的工程师和科学家们都依赖于 mathworks 公司所提供的这些产品家族,来加快在汽车、航空、电子、金融服务、生物医药以及其他行业的发明、创新及开发的步伐。除此之外,matlab 和 simulink 产品还是基础教学和研究工具,为全球众多大学和教学机构所采用。mathworks 创立于 1984 年,总部位于美国马萨诸塞州内蒂克,在 15 个国家共拥有超过 3500 名员工。
惠普出品:自主操作系统加持全球首款YunOS Book曝光
全球11项颠覆性制造技术解读
压力传感器电路中存在开路/制冷剂压力异常
最受欢迎的四款小米手机:小米6,小米max2,小米5x和小米mix2
工业4.0研究院汽车研究中心渊源及发展
MathWorks 宣布 MATLAB 与 NVIDIA TensorRT 集成来加快人工智能应用
MRAM的读取写入操作
中兴宣布其曲面屏新机Blade 20 Pro 5G将于11月30日发布
BAW 滤波器解决拥挤 Wi-Fi 环境中的干扰问题(第二部分)
设计具有集成边缘和云功能的“一站式”电动汽车充电桩系统
用橙子皮能解开手机指纹识别锁?
CH系列全自动影像仪高精度高效率检测引线框架
三星S10人脸识别不安全 最好还是把指纹识别设为主要解锁方式
全球自动化和制造主题峰会盛大召开 台达独揽两项大奖
2899元?魅族Pro 7双摄双曲面 骁龙653处理器 6G内存
RT106X Secure JTAG测试与IDE调试
腾讯安全护航远程办公安全,助力企业推动效率革命
如何通过皮电反应设计获取非有氧运动量的数据
中国移动提前超额完成5G建设目标,强化5G To B基因
三星电子已经与韩国SK电讯和KT以及美国移动运营商达成了商业合作