AI芯片 标签,匹配到约51个结果, 耗时0.0414秒
TrendForce 预测:ASIC 方案在整体 AI 服务器中的占比到 2030 年有望接近四成

TrendForce 预测:ASIC 方案在整体 AI 服务器中的占比到 2030 年有望接近四成

TrendForce 预测:ASIC 方案在整体 AI 服务器中的占比到 2030 年有望接近四成
机构认为 GB300 已在上一季度成为英伟达出货主力,而新一代 VR200 系统有望从 2026Q3 末开始逐步实现出货。...
2026-03-20 · 浏览1次
英伟达发布 Groq 3 LPX 机架系统:集成 256 颗 LP30 芯片,片上 SRAM 合计 128GB

英伟达发布 Groq 3 LPX 机架系统:集成 256 颗 LP30 芯片,片上 SRAM 合计 128GB

英伟达发布 Groq 3 LPX 机架系统:集成 256 颗 LP30 芯片,片上 SRAM 合计 128GB
Groq 3 LPX 机架拥有 32 个 1U 计算托盘,每个托盘中配备 8 颗 Groq 3 (LP30) 芯片,机架整体 SRAM 带宽达 40PB/s。...
2026-03-17 · 浏览55次
郭明錤:英伟达投资 Groq 推动 LPU AI 芯片出货实现数量级成长

郭明錤:英伟达投资 Groq 推动 LPU AI 芯片出货实现数量级成长

郭明錤:英伟达投资 Groq 推动 LPU AI 芯片出货实现数量级成长
英伟达预计将把单一 LPX 机柜 / 机架中的 LPU 数量从当前的 64 颗提升至 256 颗,新型 LPX 系统预计 2026Q4~2027Q1 量产。...
2026-03-16 · 浏览60次
Counterpoint 预测:AI ASIC 对 HBM 内存需求四年猛增 35 倍

Counterpoint 预测:AI ASIC 对 HBM 内存需求四年猛增 35 倍

Counterpoint 预测:AI ASIC 对 HBM 内存需求四年猛增 35 倍
AI ASIC 阵营 HBM 需求的最重要推动者还是谷歌与其 TPU 芯片。HBM3E 仍将是 AI ASIC 阵营的主力高带宽内存品类。...
2026-03-16 · 浏览55次
亚马逊 AWS 将部署 Cerebras 晶圆级 AI 芯片 CS-3,与自家 Trainium 配套使用

亚马逊 AWS 将部署 Cerebras 晶圆级 AI 芯片 CS-3,与自家 Trainium 配套使用

亚马逊 AWS 将部署 Cerebras 晶圆级 AI 芯片 CS-3,与自家 Trainium 配套使用
推理预填充属于并行工作负载,要求大算力和适中的内存带宽;推理解码本质上是串行的,算力需求较小但内存带宽要求高。组合使用能发挥两款 AI 芯片各自的长处。...
2026-03-16 · 浏览52次
博通与伟创力旗下 JetCool 达成 AI XPU 液冷散热合作

博通与伟创力旗下 JetCool 达成 AI XPU 液冷散热合作

博通与伟创力旗下 JetCool 达成 AI XPU 液冷散热合作
JetCool 开发了一种单相芯片级 DLC 解决方案,可支持下代 AI XPU 的 4 W/mm² 发热密度与数千瓦总功耗。...
2026-03-13 · 浏览60次
博通:客户主导型 AI XPU 项目需要高度成熟团队,暂不对 ASIC 业务构成威胁

博通:客户主导型 AI XPU 项目需要高度成熟团队,暂不对 ASIC 业务构成威胁

博通:客户主导型 AI XPU 项目需要高度成熟团队,暂不对 ASIC 业务构成威胁
博通拥有全面的芯片设计服务能力,能迅速以出色良率实现大规模量产,缩短 AI XPU 设计从实验室到数据中心的用时,这是现阶段 COT 模式所无法做到的。...
2026-03-05 · 浏览78次
博通陈福阳豪言:AI 芯片 2027 年可为公司创造超 1000 亿美元收入

博通陈福阳豪言:AI 芯片 2027 年可为公司创造超 1000 亿美元收入

博通陈福阳豪言:AI 芯片 2027 年可为公司创造超 1000 亿美元收入
博通已确保 AI XPU 订单在 2027~2028 所需的先进制程、HBM、基板产能;预计 OpenAI 从 2027 年开始部署其首代 XPU,首年计算能力将超过 1GW。...
2026-03-05 · 浏览75次
消息称 OpenAI 将成英伟达 × Groq“联名”AI 推理芯片头部大客户

消息称 OpenAI 将成英伟达 × Groq“联名”AI 推理芯片头部大客户

消息称 OpenAI 将成英伟达 × Groq“联名”AI 推理芯片头部大客户
《华尔街日报》称一些大型客户发现某些智能 AI 工作负载在仅使用 CPU 运行时比搭配 GPU 的混合方案更高效。...
2026-02-28 · 浏览150次
消息称 OpenAI 将成英伟达 × Groq AI 推理芯片头部大客户

消息称 OpenAI 将成英伟达 × Groq AI 推理芯片头部大客户

消息称 OpenAI 将成英伟达 × Groq AI 推理芯片头部大客户
《华尔街日报》称一些大型客户发现某些智能 AI 工作负载在仅使用 CPU 运行时比搭配 GPU 的混合方案更高效。...
2026-02-28 · 浏览120次
消息称 OpenAI 将导入英伟达基于 Groq 技术的 AI 推理芯片

消息称 OpenAI 将导入英伟达基于 Groq 技术的 AI 推理芯片

消息称 OpenAI 将导入英伟达基于 Groq 技术的 AI 推理芯片
《华尔街日报》称一些大型客户发现某些智能 AI 工作负载在仅使用 CPU 运行时比搭配 GPU 的混合方案更高效。...
2026-02-28 · 浏览119次
OpenAI 宣布采购 2GW 亚马逊 AWS Trainium 系列 AI 芯片云算力

OpenAI 宣布采购 2GW 亚马逊 AWS Trainium 系列 AI 芯片云算力

OpenAI 宣布采购 2GW 亚马逊 AWS Trainium 系列 AI 芯片云算力
AWS Trainium4 预计于 2027 年开始交付,将拥有显著提升的 FP4 计算性能、更宽的内存带宽、更高的显存容量。...
2026-02-28 · 浏览94次
LLM 芯片初创企业 MatX 完成 5 亿美元 B 轮融资,正打造高吞吐低延迟产品

LLM 芯片初创企业 MatX 完成 5 亿美元 B 轮融资,正打造高吞吐低延迟产品

LLM 芯片初创企业 MatX 完成 5 亿美元 B 轮融资,正打造高吞吐低延迟产品
MatX 的 MatX One 芯片据称可实现业界领先的 LLM 吞吐量和与 SRAM 优先芯片相当的延迟表现...
2026-02-25 · 浏览127次
SambaNova 发布第五代 RDU AI 芯片,与英特尔达成多年期合作

SambaNova 发布第五代 RDU AI 芯片,与英特尔达成多年期合作

SambaNova 发布第五代 RDU AI 芯片,与英特尔达成多年期合作
软银将率先在其位于日本的下一代 AI 数据中心率先部署 SN50 芯片。包括英特尔资本在内的投资者参与了 SambaNova 的 3.5 亿美元 E 轮融资。...
2026-02-24 · 浏览124次
高通首批机架级 AI 软硬件解决方案开启交付,基于 AI 100 芯片

高通首批机架级 AI 软硬件解决方案开启交付,基于 AI 100 芯片

高通首批机架级 AI 软硬件解决方案开启交付,基于 AI 100 芯片
HUMAIN 将在第一阶段部署 1024 个 AI100 加速器,首个客户为 Adobe。...
2026-02-24 · 浏览100次
宣称每美元、每瓦 Token 可达英伟达 Rubin 五倍,Positron 公布 AI 推理芯片 Asimov

宣称每美元、每瓦 Token 可达英伟达 Rubin 五倍,Positron 公布 AI 推理芯片 Asimov

宣称每美元、每瓦 Token 可达英伟达 Rubin 五倍,Positron 公布 AI 推理芯片 Asimov
Positron 表示 Asimov 在设计上就是以内存优先,拥有 90% 的内存带宽利用率,并从结构上消除不必要的远程数据移动。...
2026-02-05 · 浏览138次
韩国 AI 芯片企业 FuriosaAI 实现 RNGD 推理加速器量产

韩国 AI 芯片企业 FuriosaAI 实现 RNGD 推理加速器量产

韩国 AI 芯片企业 FuriosaAI 实现 RNGD 推理加速器量产
FuriosaAI 在 RNGD 上提供两种形态的产品:独立的 PCIe AIC 卡、八卡 NXT RNGD“交钥匙”4U 服务器解决方案。...
2026-01-28 · 浏览117次
孰真孰假?微软 AI 推理芯片 Maia 200 有两种不同版本的官方图片

孰真孰假?微软 AI 推理芯片 Maia 200 有两种不同版本的官方图片

孰真孰假?微软 AI 推理芯片 Maia 200 有两种不同版本的官方图片
两个版本的图片在先进封装复合体外部的元器件排列和先进封装内各组件边缘的分割线上存在差异。...
2026-01-27 · 浏览150次
Counterpoint:2027 年服务器 AI ASIC 出货将达 2024 年三倍,2028 年反超 GPU

Counterpoint:2027 年服务器 AI ASIC 出货将达 2024 年三倍,2028 年反超 GPU

Counterpoint:2027 年服务器 AI ASIC 出货将达 2024 年三倍,2028 年反超 GPU
多家科技巨头加速部署 AI ASIC,以图降低对 GPU 依赖、提升 AI 负载运行效率。...
2026-01-27 · 浏览145次
Counterpoint:2027 年服务器 AI AISC 出货将达 2024 年三倍,2028 年反超 GPU

Counterpoint:2027 年服务器 AI AISC 出货将达 2024 年三倍,2028 年反超 GPU

Counterpoint:2027 年服务器 AI AISC 出货将达 2024 年三倍,2028 年反超 GPU
多家科技巨头加速部署 AI ASIC,以图降低对 GPU 依赖、提升 AI 负载运行效率。...
2026-01-26 · 浏览114次
马斯克:特斯拉 AI5 单芯比肩英伟达 Hopper、双芯近似 Blackwell

马斯克:特斯拉 AI5 单芯比肩英伟达 Hopper、双芯近似 Blackwell

马斯克:特斯拉 AI5 单芯比肩英伟达 Hopper、双芯近似 Blackwell
特斯拉此前此前集中了车用与数据中心 AI 芯片开发团队的人力资源来攻关 AI5。由于 AI5 现在表现良好,Dojo 3 的开发也重新启动。...
2026-01-19 · 浏览158次
消息称 AI 芯片企业 Cerebras 洽谈新一轮融资:估值是去年 10 月的 2.7 倍

消息称 AI 芯片企业 Cerebras 洽谈新一轮融资:估值是去年 10 月的 2.7 倍

消息称 AI 芯片企业 Cerebras 洽谈新一轮融资:估值是去年 10 月的 2.7 倍
该企业的估值在短短一个季度时间内迅速提升,这被认为受到了英伟达与 Groq 的 200 亿美元大交易的影响。...
2026-01-16 · 浏览121次
消息称联发科、博通以英特尔 EMIB-T 先进封装竞标 AI ASIC 项目

消息称联发科、博通以英特尔 EMIB-T 先进封装竞标 AI ASIC 项目

消息称联发科、博通以英特尔 EMIB-T 先进封装竞标 AI ASIC 项目
由于台积电 CoWoS 扩产能力有限,可供替代的其它 2.5D 异构集成技术越来越受到市场参与者重视。...
2026-01-15 · 浏览127次
OpenAI 与晶圆级 AI 芯片企业 Cerebras 达成合作,三年部署 750MW 推理系统

OpenAI 与晶圆级 AI 芯片企业 Cerebras 达成合作,三年部署 750MW 推理系统

OpenAI 与晶圆级 AI 芯片企业 Cerebras 达成合作,三年部署 750MW 推理系统
OpenAI 表示基于 Cerebras 芯片的解决方案可显著缩短 AI 服务的响应时间,能让用户在更大程度上发挥 AI 的价值。...
2026-01-15 · 浏览156次
第一页 · 上一页 · 下一页 · 当前第1页