AMD揭露HSA运算架构技术hUMA,解决资料重覆拷贝问题

amd发表新运算架构技术huma,可让cpu与gpu共享同一存储空间,解决过去的资料重覆拷贝问题
芯片制造商amd发表hsa运算架构的新技术:huma,来解决cpu与gpu间的重覆资料拷贝问题。
2012年,amd就携手arm、高通、三星、联发科等厂商成立hsa(heterogeneous systems architecture)基金会,希望拓展cpu和gpu协同运算的新架构,并辅助此架构发展的异质运算新软件开发环境。
日前,amd进一步公开说明此运算架构的新技术:huma(heterogeneous uniform memory access)。透过huma,cpu和gpu能共享同一个存储空间,并且cpu能够直接存取gpu的存储器位址,不必像过去得花工夫再将gpu的运算资料复写到cpu上。
过去cpu和gpu的存储器池仍独立运作
换句话说,以过去技术发展的状态,即便gpu和cpu已整合到同一个芯片上(gpgpu技术),芯片在运算时要定位存储器的位置仍然得经过繁杂的步骤,这是因为cpu和gpu的存储器池仍然是独立运作。
先前为了解决两者存储器池独立的运算问题,当cpu程式需要在gpu上进行部分运算时,cpu都必须从cpu的存储器上复制所有的资料到gpu的存储器上,而当gpu上的运算完成时,这些资料还得再复制回到cpu存储器上。这些步骤都会不断耗费时间以及程式处理的效能。
此外,复制资料的步骤也代表着,当cpu正在运作时,gpu就无法同时运算相同的资料。而当不同程式语言间的关键术语(exact terminology)变化时,cpu资料架构会启动指标器(pointers)来指示相关的资料,但是,因为cpu的指标器是指示到cpu存储器上的位置,而gpu的存储器又是另一个独立架构,因此这样的架构若复制到gpu上运作,反而会产生位置错置的问题。
而huma技术,就是来解决两者存储器独立的问题。
huma能让gpu直接存取cpu的存储器位置
huma 像个连贯快取的系统,让cpu和gpu能共享同一个存储空间,让cpu和gpu在存储器上看到的资料都能维持一致,如果其中一方上的资料改变,即便旧资料经过快取,另一方还是能看到经改变的资料。换句话说,huma能让gpu直接存取cpu的存储器位置,当cpu在读写资料时,gpu也能同时读写资料。
此外,huma也能用在cpu的需要配置虚拟存储器(demand-paged virtual memory)上。当gpu要存取写在磁碟上的位置时,cpu就能让作业系统去寻找,并加载相关的资料进存储器中。
第一款支援huma的产品将会是amd的kaveri apu,预计今年下半年上市。根据amd表示,huma将会支援c++和java等开发语言。
huma概念

MAX5879高性能数模转换器(DAC)
半导体封装种类大全
NVIDIA致力于全面支持基于Arm的HPC和AI应用
数百个安卓应用程序中出现数据漏洞 对鸿蒙操作系统或许是个机会
MC33493/D OOK/FSK 928~902 MHz/434~315 MHz双频发射器
AMD揭露HSA运算架构技术hUMA,解决资料重覆拷贝问题
机器学习可以帮助未来的癌症诊断
深入分析电伴热原理及应用
8月电池装车量排名前三的企业是宁德时代、比亚迪和LG化学
新基建时代下的智慧工地政务版管理系统是什么
液氮恒温器在氧化物界面的新应用
虚拟拍摄对摄影机有什么要求?
影响区块链技术发展的三个障碍
基于Cortex-M的单片机之间能够互相移植吗
坚果Pro 3 Smartisan OS 7.1版本即将推出,稳定版将在12月全面推送
华为云GaussDB(for Influx):让智能电网时序数据处理更高效
新型立柱型室外防水一键求助对讲终端
孟樸:5G产品开始向万物智能互联的众多领域拓展
有源箝位正激变换器的基本原理及应用特点研究
赛力斯华为智选SF5上市,采用华为智慧互联系统