AI芯片 标签,匹配到约62个结果, 耗时0.0195秒
消息称 Anthropic 看上英国企业 Fractile 推理芯片,有意导入
Fractile 的芯片采用了不同于现有主流 AI XPU 的“模拟内存计算”架构,宣称运行头部模型时可实现 25 倍的速度、1/10 的成本。...
2026-05-04
·
浏览32次
Counterpoint:联发科有望占据 AI 计算 ASIC 市场 1/4 份额,仅次于博通
在近期推出的 TPU v8t 上,谷歌负责核心计算芯片的设计并协调 HBM 供应,这在节省计算芯片设计成本的同时也避免了博通“交钥匙”模式对 HBM 的加价。...
2026-04-30
·
浏览90次
谷歌确认将开始向部分客户交付 TPU 硬件设备
Google Cloud 近期发布了 2 款第八代 TPU 新品,分别是侧重训练的 TPU 8t 和聚焦推理的 TPU 8i。...
2026-04-30
·
浏览76次
谷歌推出 TPU 8t / 8i,两款 AI 芯片分别面向训练和智能体推理
TPU 8t 设计具备更高的计算吞吐量和更强的纵向扩展带宽;TPU 8i 则专为处理对延迟最为敏感的推理工作负载而设计。...
2026-04-22
·
浏览113次
西班牙芯片初创企业 Openchip 目标 2028 年出货 AI 加速器产品
该芯片基于 RISC-V 指令集,支持无 CPU 运行;针对能效负载优化,可在同等算力下节省 30% 功耗。...
2026-04-20
·
浏览119次
消息称 Cerebras 获 OpenAI 超 200 亿美元 AI 芯片订单,计划 IPO
Cerebras 正寻求以 350 亿美元以上的估值进行 IPO,筹集约 30 亿美元的资金,不过具体发行条款仍在商讨中。...
2026-04-17
·
浏览86次
马斯克:特斯拉 AI6、AI6.5 芯片将分别应用三星晶圆代工和台积电在美 2nm 产能
AI6 芯片配备 LPDDR6 内存,在与 AI5 相似的面积内提供 2 倍性能;AI6.5 的性能将进一步提升。...
2026-04-16
·
浏览110次
Meta、博通将携手推出业界首个 2nm AI 计算加速器
Meta 在 MTIA 系列 AI XPU 上追求尖端制程旨在弥补自身后发劣势,加速追赶谷歌、英伟达、AMD 等竞争对手。...
2026-04-15
·
浏览100次
韩 AI 芯片制造商 DEEPX:基于三星 2nm 的 DX-M2 目标 2027 年量产
DX-M2 芯片目标以 5W 提供 80 TOPS 的 AI 算力。该企业的长期愿景是在电池供电的设备上本地运行数百亿到数千亿参数规模的生成式 AI 模型。...
2026-04-14
·
浏览75次
韩国 FuriosaAI 今年量产 2 万颗 RNGD 芯片,计划云与端侧双轨并行
短期内 RNGD 将从初版的 48GB HBM3 升级到 72GB HBM3E,从内存侧增强推理性能。而迭代产品将于 2028 年面世。...
2026-04-03
·
浏览117次
韩国 AI 芯片企业 Rebellions 完成 4 亿美元 IPO 前融资,估值约 23.4 亿美元
Rebellions 接下来将专注在美国市场的扩张,实现 Rebel100 NPU 平台的规模化生产,并为未来的 IPO 做准备。...
2026-03-31
·
浏览100次
TrendForce 预测:ASIC 方案在整体 AI 服务器中的占比到 2030 年有望接近四成
机构认为 GB300 已在上一季度成为英伟达出货主力,而新一代 VR200 系统有望从 2026Q3 末开始逐步实现出货。...
2026-03-20
·
浏览71次
英伟达发布 Groq 3 LPX 机架系统:集成 256 颗 LP30 芯片,片上 SRAM 合计 128GB
Groq 3 LPX 机架拥有 32 个 1U 计算托盘,每个托盘中配备 8 颗 Groq 3 (LP30) 芯片,机架整体 SRAM 带宽达 40PB/s。...
2026-03-17
·
浏览121次
郭明錤:英伟达投资 Groq 推动 LPU AI 芯片出货实现数量级成长
英伟达预计将把单一 LPX 机柜 / 机架中的 LPU 数量从当前的 64 颗提升至 256 颗,新型 LPX 系统预计 2026Q4~2027Q1 量产。...
2026-03-16
·
浏览128次
Counterpoint 预测:AI ASIC 对 HBM 内存需求四年猛增 35 倍
AI ASIC 阵营 HBM 需求的最重要推动者还是谷歌与其 TPU 芯片。HBM3E 仍将是 AI ASIC 阵营的主力高带宽内存品类。...
2026-03-16
·
浏览122次
亚马逊 AWS 将部署 Cerebras 晶圆级 AI 芯片 CS-3,与自家 Trainium 配套使用
推理预填充属于并行工作负载,要求大算力和适中的内存带宽;推理解码本质上是串行的,算力需求较小但内存带宽要求高。组合使用能发挥两款 AI 芯片各自的长处。...
2026-03-16
·
浏览86次
博通与伟创力旗下 JetCool 达成 AI XPU 液冷散热合作
JetCool 开发了一种单相芯片级 DLC 解决方案,可支持下代 AI XPU 的 4 W/mm² 发热密度与数千瓦总功耗。...
2026-03-13
·
浏览137次
博通:客户主导型 AI XPU 项目需要高度成熟团队,暂不对 ASIC 业务构成威胁
博通拥有全面的芯片设计服务能力,能迅速以出色良率实现大规模量产,缩短 AI XPU 设计从实验室到数据中心的用时,这是现阶段 COT 模式所无法做到的。...
2026-03-05
·
浏览131次
博通陈福阳豪言:AI 芯片 2027 年可为公司创造超 1000 亿美元收入
博通已确保 AI XPU 订单在 2027~2028 所需的先进制程、HBM、基板产能;预计 OpenAI 从 2027 年开始部署其首代 XPU,首年计算能力将超过 1GW。...
2026-03-05
·
浏览134次
消息称 OpenAI 将成英伟达 × Groq“联名”AI 推理芯片头部大客户
《华尔街日报》称一些大型客户发现某些智能 AI 工作负载在仅使用 CPU 运行时比搭配 GPU 的混合方案更高效。...
2026-02-28
·
浏览217次
消息称 OpenAI 将成英伟达 × Groq AI 推理芯片头部大客户
《华尔街日报》称一些大型客户发现某些智能 AI 工作负载在仅使用 CPU 运行时比搭配 GPU 的混合方案更高效。...
2026-02-28
·
浏览189次
消息称 OpenAI 将导入英伟达基于 Groq 技术的 AI 推理芯片
《华尔街日报》称一些大型客户发现某些智能 AI 工作负载在仅使用 CPU 运行时比搭配 GPU 的混合方案更高效。...
2026-02-28
·
浏览180次
OpenAI 宣布采购 2GW 亚马逊 AWS Trainium 系列 AI 芯片云算力
AWS Trainium4 预计于 2027 年开始交付,将拥有显著提升的 FP4 计算性能、更宽的内存带宽、更高的显存容量。...
2026-02-28
·
浏览130次
LLM 芯片初创企业 MatX 完成 5 亿美元 B 轮融资,正打造高吞吐低延迟产品
MatX 的 MatX One 芯片据称可实现业界领先的 LLM 吞吐量和与 SRAM 优先芯片相当的延迟表现...
2026-02-25
·
浏览169次
AI 中文社