Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.25.2·
页面加载耗时 0.00 毫秒·物理内存 115.0MB ·虚拟内存 1371.9MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
10 月 23 日消息,美光 Micron 美国爱达荷州当地时间 22 日宣布已向客户出样基于最新 1-gamma LPDDR5x DRAM 的 192GB SOCAMM2 内存模组。
美光新出样的 SOCAMM2 可达到 9600MT/s 的传输速率,相较初代 SOCAMM 容量提升 50%,DRAM Die 级别能效提升超过 20%。
而对于数据中心 AI 系统而言,192GB SOCAMM2 能在测试中将 TTFT(首 Token 延迟)缩短 80% 以上,并可在 Vera Rubin NVL144 机架系统中提供超过 40TB 的 CPU 内存(注:每系统 36 颗 CPU,每颗 CPU 配备 6 根 SOCAMM2)。
美光高级副总裁兼云存储业务部门总经理 Raj Narasimhan 表示:
随着人工智能工作负载日益复杂且要求更高,数据中心服务器必须提升能效,以每瓦功率处理更多数据。
美光在低功耗 DRAM 领域的领先地位已得到充分验证,确保我们的 SOCAMM2 内存模块能够提供数据吞吐量、能效、容量及数据中心级品质,这些特性对于驱动新一代人工智能数据中心服务器至关重要。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。