无论电子设备被吹捧为多么新、多么快速或高性能,在用户的请求和设备的响应之间总是存在轻微的、几乎无法察觉的延迟。那就是内存以 80% 或更低的效率工作。当然,用户仍然认为该设备速度极快,但工程组知道驱动该设备的片上系统 (soc) 设计的性能可能会更好——实际上要好得多。
处理器和内存之间的高效、流线型通信是每个工程团队的梦想。这一梦想被当今 soc 的高度集成特性所阻挠,它由许多不同的客户端组成,每个客户端都向内存子系统生成不同类型的请求流,可能需要数百个时钟周期的延迟才能访问。即使是具有多线程能力的单个客户端运行用于链表处理的指针追踪代码,也会产生随机的客户端请求流,并且似乎几乎没有引用位置。这使得无法从内存子系统或与处理器的有效通信中获得最佳性能。
所需要的是一种简化的方式来收集和处理这些明显随机的请求信息,以创建一个虚拟的参考位置,以实现更好的决策和更高的效率。一项新技术——实际上是嵌入在 soc 中的知识产权 (ip) 块——已准备好做到这一点。它管理广泛不同的请求流,以创建一个虚拟的参考位置,使请求看起来更线性。实施此类技术可提高内存带宽,并让 soc 从其内存子系统中提取最佳性能。
不要与内存调度程序混淆,ip 是一个内存预取引擎,它通过将相似的请求组合在一起来与内存调度程序一起工作。它分析来自客户端的多个并发请求流,并确定哪些请求应该优化或预取,哪些不应该。结果是高命中率和超低错误获取率。
一旦客户端请求被优化,它就会存储在请求优化缓冲区(一个保存优化客户端请求的小型微缓存)中,直到客户端需要它为止。缓冲区为多个客户端接口中的任何一个提供非阻塞接口,以使峰值响应带宽超过内存子系统的带宽并减少平均内存延迟。
支持 axi 和 ocp 协议的多客户端接口可以管理多达 16 个客户端,由设计人员在配置技术时指定。配置工具将自动构建指定数量的客户端接口,每个接口独立运行并能够支持并发操作。这允许 ip 为从请求优化缓冲区发出的任何响应发出多个并发客户端请求。因此,ip 提供的峰值突发带宽比底层内存子系统提供的更高。基准测试显示,ip 将读取延迟从 71% 降低到 78%。
每个工程组的梦想是减少内存的延迟,以提高 soc 中实现的每个系统组件的性能,从而在不增加功耗的情况下实现更快的设计。所有电子设备都可以从改进的内存子系统中受益,现在有一种使用 ip 块的有效方法。不再落后!
湖南三安半导体项目最大单体M2B芯片厂房顺利完成封顶
iQOO Pro 5G将成为有史以来最便宜的5G手机
三态输出门的工作原理
满足物联网和工业4.0构想服务需求的关键是什么?
复旦微电:MCU/存储等产品虽然销量有所恢复 但价格还没有明显好转
提高SoC设计中的内存性能
微软Xbox Series X首发将没有独占游戏 并将全面支持向后兼容
Fluke 233分体式无线数字万用表屡获殊荣
一加5什么时候上市?一加5最新消息:一加5外观、硬件、屏幕、价格和发布日期全知道
ARM发布Mali-T604 GPU 支持OpenCL 1.1
四川省政府提出以“工业互联网”助推先进制造业发展
小米手表曝光月底开发布会 官方澄清“没这回事”
关于玉米呕吐毒素检测仪的功能特点介绍
直线马达磁悬浮亮相金砖国家新工业革命展
美媒:中国商业繁荣,但品牌不繁荣
有哪些食品快速检测仪器设备
中国电信打造端网云一体化的安全能力
霍尔电流传感器的原理介绍
小卫星通信系统射频前端设计
简单易上手的无线对讲机的方案解析