|
三星新型存算一体 HBM2 存储器 AI 性能达 1.2TFLOPS来源:雷锋网 雷锋网按,存算一体或者叫存内计算技术随着 AI 的火热再一次成为业内关注的焦点,存储和计算的融合有望解决 AI 芯片内存墙的限制,当然,实现的方法也各不相同。雷锋网此前介绍过知存科技基于 NOR FLASH 存内计算,还有清华大学钱鹤、吴华强教授团队基于忆阻器的存算一体单芯片算力可能高达 1POPs。三星基于 HMB 的存内计算芯片又有何亮点? ![]() 新型 HBM-PIM(Processing-in-memory,存内计算)芯片将 AI 引擎引入每个存储库,从而将处理操作转移到 HBM。新型的内存旨在减轻在内存和处理器之间搬运数据的负担,数据的搬运耗费的功耗远大于计算。 ![]() 三星表示,这种存储器已经在领先的 AI 解决方案提供商的 AI 加速器中进行了试验。三星预计所有验证工作都将在今年上半年完成,这标志着产品上市进入快车道。 三星在本周的国际固态电路会议(ISSCC)上展示了其新存储器架构的详细信息。 ![]() ![]() ![]() ![]() 自然地,在存储器中增加 PCU 单元会减少内存容量,每个配备 PCU 的内存芯片的容量(每个 4Gb)是标准 8Gb HBM2 存储芯片容量的一半。为了解决该问题,三星将 4 个有 PCU 的 4Gb 裸片和 4 个没有 PCU 的 8Gb 裸片组合在一起,实现 6GB 堆栈(与之相比,普通 HBM2 有 8GB 堆栈)。 值得注意的是,上面的论文和幻灯片将这种技术称为功能内存 DRAM(FIMDRAM,Function-In Memory DRAM),但这是该技术的内部代号,这个技术现在的名称是 HBM-PIM。三星展示的是基于 20nm 原型芯片,该芯片在不增加功耗的情况下可实现每 pin 2.4 Gbps 的吞吐量。 ![]() ![]() 与大多数存内计算技术一样,希望这项技术能够突破存储芯片散热的限制,尤其是考虑到 HBM 芯片通常部署在堆栈中,而这些堆栈并不都有利于散热。三星的演讲者没有分享 HBM-PIM 如何应对这些挑战。 三星电子存储器产品计划高级副总裁 Kwangil Park 表示:" 我们开创性的 HBM-PIM 是业内首个针对各种 AI 驱动的工作负载(如 HPC,训练和推理)量身定制的可编程 PIM 解决方案。我们计划通过与 AI 解决方案提供商进一步合作以开发更高级的 PIM 驱动的应用。" |