AMD AI 芯片 Instinct MI300X 吸引大量用户弃用英伟达,这背后有何原因?
英伟达打脸AMD:H100在软件加持下,AI性能比MI300X快47%!
英伟达H100在软件加持下,AI性能比AMD MI300X快47%这一说法属实,是基于双方均使用优化软件进行公平测试后得出的结果。 具体分析如下:测试背景与初始数据对比2023年12月初,AMD推出最强AI芯片Instinct MI300X,其8-GPU服务器的AI性能宣称比英伟达H100 8-GPU高60%。此前AMD公布的数据显示,MI300X的FP8/FP16性能达H100的1.3倍,运行Llama 2 70B和FlashAttention 2模型速度比H100快20%;在8v8服务器中,运行Llama 2 70B模型快40%,运行Bloom 176B模型快60%。
但AMD测试H100时未使用英伟达的TensorRT-LLM等优化软件,而自身使用了最新的ROCm 6.0套件中的优化库(支持FP16、Bf16和FP8等计算格式及Sparsity等),才得到上述数字。
英伟达的公平测试与结果英伟达最新公布了DGX H100(带有8个NVIDIA H100 Tensor Core GPU,带有80GB HBM3)的测试数据,使用了公开的NVIDIA TensorRT LLM软件(v0.5.0用于Batch-1,v0.6.1用于延迟阈值测量),工作量详细信息与脚注和AMD之前的测试相同。
结果显示,DGX H100服务器在使用优化软件加持后,速度提高了2倍多,相比AMD MI300X 8-GPU服务器快了47%。DGX H100可以在1.7秒内处理单个推理任务;使用固定的2.5秒响应时间预算,每秒可以处理超过5个Llama 2 70B推理,而Batch-1每秒处理不到一个。
测试公平性分析
英伟达使用新的基准测试相对公平,因为AMD也使用其优化的软件来评估其GPU的性能。英伟达的软件堆栈围绕CUDA生态系统,经过多年努力和开发,在人工智能市场拥有强大地位;而AMD的ROCm 6.0是新的,尚未在现实场景中进行测试。
市场竞争态势
AMD最新的Instinct MI300X预计将在2024年上半年大量出货,但届时英伟达更强的H200 GPU也将出货,2024下半年英伟达还将推出新一代的Blackwell B100。另外,英特尔也将会推出其新一代的AI芯片Gaudi 3,接下来人工智能领域的竞争会更加激烈。
市场周报 | 英伟达入股英特尔,AMD面临更大竞争压力
英伟达入股英特尔,双方合作聚焦高端CPU/GPU定制,AMD面临显著竞争压力2025年第39周市场动态显示,英伟达宣布以50亿美元投资入股英特尔,成为其大股东之一。此次合作的核心内容为英特尔为英伟达定制x86架构CPU及集成RTX GPU的x86系统级芯片(SoC),主要面向高性能计算(HPC)与AI终端市场。这一战略联盟不仅重塑了全球高端处理器市场的竞争格局,更直接对AMD等竞争对手形成压制。
合作背景与战略意图技术互补性:英特尔在x86架构CPU领域占据主导地位,而英伟达在GPU市场拥有绝对优势。双方合作可实现CPU与GPU的深度协同设计,优化异构计算性能,满足AI训练、科学计算等场景对算力的极致需求。市场拓展需求:英伟达通过入股英特尔,可绕过部分技术授权限制,直接参与x86生态系统的构建;英特尔则借助英伟达的AI技术强化自身在数据中心市场的竞争力,应对AMD EPYC系列处理器的冲击。产业链整合:合作涵盖从芯片设计到系统集成的全链条,可能催生新一代AI服务器、边缘计算设备等标准化产品,降低客户开发成本。对AMD的竞争压力分析市场份额挤压:AMD目前同时在CPU(锐龙/霄龙系列)和GPU(Radeon/Instinct系列)市场与英特尔、英伟达竞争。英伟达-英特尔联盟可能推出性能更强、功耗更优的整合方案,直接替代AMD的独立CPU+GPU组合。客户流失风险:云服务提供商(CSP)和超算中心为降低采购成本,可能优先选择合作方的联合解决方案。例如,微软、亚马逊等企业若采用英特尔定制的x86 SoC,AMD的MI300系列加速卡订单或受影响。技术迭代压力:英特尔可借助英伟达的AI加速技术优化其Sapphire Rapids等至强处理器,缩短与AMD EPYC Genoa系列的性能差距,甚至在特定场景实现反超。行业数据支撑竞争态势市场规模增长:Yole预测,2024-2030年处理器市场将从2880亿美元增至5540亿美元,其中AI相关需求(如GPU、ASIC)占比持续提升。英伟达-英特尔联盟可覆盖更广泛的客户群体,抢占增量市场。产品性能对比:AMD的MI300X GPU在FP8算力上虽领先英伟达H100,但后者通过CUDA生态和软件优化占据实际部署优势。英特尔若整合英伟达GPU技术,可能推出性价比更高的替代方案。客户依赖度:AMD约30%的收入来自数据中心业务,且高度依赖少数大客户。英伟达-英特尔联盟若成功渗透这一领域,AMD的营收结构将面临重大挑战。AMD的应对策略与潜在机会差异化竞争:聚焦CPU+GPU的异构集成技术,强化ROCm软件生态对AI框架的支持,吸引对开源解决方案敏感的客户。细分市场深耕:在嵌入式、游戏等非数据中心领域巩固优势,例如为索尼PS6等游戏主机定制低功耗APU。技术合作拓展:与台积电等代工厂合作推进3nm及以下制程,通过先进工艺弥补架构差距;或与AWS、谷歌等云厂商联合开发定制化芯片。市场整体影响供应链重构:英伟达-英特尔联盟可能推动x86生态向封闭化发展,迫使ARM架构(如AMD的K12架构)和RISC-V架构加速渗透数据中心市场。价格竞争加剧:为应对联盟的挑战,AMD可能下调EPYC处理器和Instinct GPU的价格,引发行业价格战,利好下游客户但压缩自身利润。创新周期缩短:三方竞争将加速CPU/GPU架构迭代,例如2026年英特尔可能推出集成英伟达Blackwell架构GPU的至强处理器,AMD需同步推进Zen5和CDNA3的研发。
结论:英伟达入股英特尔标志着高端处理器市场从“双雄争霸”转向“三足鼎立”,但短期内AMD仍面临显著压力。其能否通过技术突破和生态合作维持市场份额,将取决于Zen5架构的落地效果及AI软件栈的完善程度。长期来看,行业整合与生态竞争将成为主导市场格局的关键因素。
AMD二季度净利润激增881%,苏姿丰称微软在增加MI300芯片用量
AMD 二季度净利润激增 881%,主要得益于数据中心业务收入翻番,其中 MI300 芯片销售额超 10 亿美元,且微软等大客户增加其用量,同时客户端事业部锐龙处理器销量提高也推动了整体业绩增长。整体业绩表现美国时间 7 月 30 日,AMD 发布 2024 年第二季度财报,净利润同比激增 881%,环比增长 115%,达到 2.65 亿美元。总营收 58.35 亿美元,超出预期的 57.2 亿美元,同比增长 9%,环比增长 7%。
细分业务情况
数据中心事业部:收入创纪录新高至 28 亿美元,同比增长 115%,环比增长 21%。该部门收入增长主要受 Instinct GPU 出货量大幅增长和第四代 AMD EPYC CPU 销量强劲增长的推动。其中 MI300 芯片在单季度内的销售额超过了 10 亿美元,推动了数据中心部门收入的大幅增长。MI300 系列是 AMD 去年年底发布的 AI 芯片,包括 GPU MI300X,以及集成 CPU(中央处理器)内核和 GPU 加速器 MI300A。MI300X 对标英伟达 H100,在 AI 训练时性能与英伟达 H100 持平,推理方面性能超出竞品。以 8 颗 GPU 组成的单台服务器为例,运行 1760 亿参数的 BLOOM 模型和 700 亿参数的 Llama2 模型时,MI300X 平台性能是 H100 平台的 1.4 至 1.6 倍。AMD 首席执行官苏姿丰在分析师电话会议中表示,微软对 MI300 芯片的使用量增加,以作为 GPT - 4 Turbo 的算力支撑,并支撑微软的 word、teams 等多个 Copilot 服务。Hugging Face 则是首批采用新的微软云 Azure 实例的客户之一,使企业和 AI 客户能通过一次点击,便在 MI300 GPU 上部署数十万个模型。
客户端事业部:收入为 15 亿美元,同比增长 49%,环比增长 9%,主要得益于锐龙处理器销量提高。
游戏事业部:收入为 6.48 亿美元,同比下降 59%,环比下降 30%,受半定制业务收入下降影响。
嵌入式事业部:收入为 8.61 亿美元,同比下降 41%,环比增长 2%,受到客户调整库存的影响。
未来产品规划
今年 6 月,AMD 已公布了迭代路线图,计划今年第四季度推出 MI325X,并在明后两年陆续推出 MI350 系列和 MI400 系列。其中 M1300X、MI325X 将采用 CDNA3 架构,M1350 将采用 CDNA4 结构,MI400 将采用下一代 CDNA 架构,后续每年都会推出新的产品系列,这一速度与英伟达发布的计划看齐。苏姿丰在电话会上表示“今年晚些时候 MI325 将推出,明年推出 MI350 系列,就像英伟达的 Blackwell 结构,我们也在通往 CDNA 的路上。我仍然认为市场需要更多计算。”
市场观点与投资布局
苏姿丰表示,从市场的角度,推理的需求将比训练更大。AI PC 是 PC 类别中很重要的一部分,PC 市场对 AMD 业务来说是很好的收入增长机会。
今年,AMD 已在通过投资加速布局 AI。今年 7 月,AMD 出资 6.65 亿美元收购了欧洲最大的私人人工智能实验室 Silo AI,该公司提供端到端 AI 驱动的解决方案,此次收购被认为是 AMD 追赶英伟达的重要一步。年内,AMD 还参与了对 AI 数据平台 Scale AI 的 10 亿美元融资等。苏姿丰在电话会中表示,除了收购 Silo AI,AMD 在过去 12 个月中还向十几家人工智能公司投资超过 1.25 亿美元,以扩大 AMD 生态系统并维持 AMD 计算平台的领先地位。她表示,AMD 将继续投资于软件,这是投资 Silo AI 的原因之一。苏姿丰表示,AMD 对 AI 领域投资的主要看法是,必须投资这个行业,AI 的潜力如此之大,以至于影响企业的运营方式等。相信市面上会有多种解决方案,而 AMD 已经展示了一个非常强大的路线图。对于大语言模型,GPU 仍是首选芯片。
业绩展望
AMD 预计第三季度营收约 67 亿美元,上下浮动 3 亿美元,这意味着将同比增长约 16%、环比增长约 15%。2024 年数据中心 GPU 收入将超过 45 亿美元,高于此前 4 月份的预测。展望未来,AMD 对数据中心 GPU 业务的增长持乐观态度,并预计将继续扩大市场份额。
苏妈战老黄!官宣AMD大模型专用卡,对标英伟达H100,可跑更大模型
AMD发布Instinct MI300X大模型专用加速卡,对标英伟达H100AMD在最新发布会上正式推出了其针对大语言模型(LLM)优化的加速卡——Instinct MI300X,直接对标英伟达的高端产品H100。这款新卡以其卓越的高带宽内存(HBM)密度和带宽,展示了在运行大型AI模型方面的强大潜力。
一、MI300X的核心优势
高带宽内存:MI300X的高带宽内存密度最高可达英伟达H100的2.4倍,其内存带宽也达到了H100的1.6倍。这一优势使得MI300X能够运行比H100更大的AI模型,满足当前AI领域对大规模模型训练的需求。
专为LLM设计:MI300X被明确定位为“大语言模型专用”加速卡,这一定位使其在处理自然语言处理任务时具有更高的效率和性能。
二、MI300系列加速卡概览
MI300A与MI300X:MI300系列包括基础款MI300A和优化款MI300X。MI300A作为首个针对AI和高性能计算(HPC)推出的APU,包含了13个小芯片,其中9个为5nm制程的GPU+CPU组合,以及4个6nm制程的小芯片。而MI300X则在此基础上进一步优化,针对大语言模型进行了专门设计。
性能提升:相比MI250,MI300系列的性能提升了8倍,效率提升了5倍。这一显著的性能提升使得MI300系列在AI和高性能计算领域具有更强的竞争力。
三、现场演示与市场反应
现场演示:在发布会上,AMD展示了MI300X运行包括GPT-3、PaLM2等大模型的优势,并现场运行了Hugging Face的falcon-40b-instruct模型,写了一首关于旧金山(发布会地点)的小诗,展示了其在实际应用中的性能。
市场反应:尽管AMD在发布会上展示了其新产品的强大性能,但市场对AMD新卡的反应似乎并不热烈。发布会期间,AMD的股价一路下跌,而英伟达股价则有所上涨。不过,仍有网友对AMD的新产品表示惊喜,认为这可能是第一次有这么大的模型(400亿参数)在单卡GPU上运行。
四、MI300X的详细参数与出货计划
详细参数:MI300X包含12个小芯片,拥有1530亿个晶体管,192GB的HBM3内存,内存带宽达到5.2TB/s,Infinity Fabric带宽达到896GB/s。这些参数使得MI300X在处理大型AI模型时具有更高的效率和性能。
出货计划:MI300A已经出样,预计不久就能上市。而MI300X以及集成8个MI300X的AMD Instinct计算平台预计在今年第三季度出样,第四季度推出。
五、AMD与英伟达在AI领域的竞争
竞争态势:近年来,英伟达在AI领域取得了显著进展,而AMD则相对迟缓。不过,随着MI300系列的推出,AMD终于开始正面迎战英伟达。
用户期待:有用户表示,至少现在终于能看到AMD和英伟达在AI领域正面打擂台了。这反映了用户对AMD新产品的期待以及对AI领域竞争的关注。
综上所述,AMD通过推出Instinct MI300X大模型专用加速卡,展示了其在AI领域的最新进展和竞争力。尽管市场反应尚待观察,但AMD的这一举措无疑为AI领域带来了新的选择和期待。
英伟达最大的对手出现了
英伟达在AI芯片市场最大的竞争对手目前是英特尔,其推出的Gaudi 2成为最具竞争力的挑战者,同时AMD也是重要对手,此外Meta、马斯克等新玩家也在积极布局。 以下是对当前竞争格局的详细分析:英特尔的强势挑战英特尔通过发布专供中国市场的AI处理器Gaudi 2,直接对标英伟达A100/H100系列。其核心优势在于:
性能对比:在Bert模型预训练中,Gaudi 2性能达A100的1.7倍;虽在GPT-3训练中单卡性能为H100的1/3.6,但英特尔计划通过9月发布的FP8软件支持提升性价比。
能耗优势:运行ResNet-50时,Gaudi 2每瓦性能是A100的2倍;运行1760亿参数BLOOMZ模型时,每瓦性能达A100的1.6倍。
市场布局:已与浪潮信息、新华三等国内厂商及百度智能云合作,推出支持8颗Gaudi2的AI服务器NF5698G7。未来计划整合Gaudi AI芯片与GPU产品线,于2025年推出更完整的下一代GPU。
合规与迭代:中国版Gaudi 2性能与国际版接近,5nm Gaudi 3将于明年合规推出。
AMD的持续追赶AMD通过CPU+GPU架构的Instinct MI300系列进军AI训练市场,并优化大模型训练能力:
产品迭代:2022年6月推出MI300,2023年6月发布192GB HBM内存的MI300X,进一步适配大模型需求。
市场定位:填补英伟达产能受限的缺口,满足客户对替代选项的需求。
新玩家的入局
Meta与高通合作:2023年7月宣布,将采用高通芯片在手机和PC端运行Llama 2大语言模型。
马斯克的自研计划:在xAI会议上透露将研发AI芯片,以支持其AI业务布局。
英伟达的壁垒与挑战
技术优势:GPU在并行计算、内存带宽及浮点运算速度上领先,CUDA生态绑定百万开发者,形成软件壁垒。
市场压力:订单排至2024年,H100在2024年一季度前售罄,暴露产能瓶颈。
生态机遇:大模型开发者更多基于PyTorch、TensorFlow创新,而非底层CUDA开发,为英特尔等提供突破口。
市场前景与竞争焦点
规模增长:摩根士丹利预测,全球AI计算半导体市场规模将从2023年的430亿美元增至2027年的1250亿美元。
算力缺口:大模型训练需求激增与产能受限矛盾突出,部署成本高、国产芯片生态薄弱成为落地挑战。
竞争维度:性能、能耗、性价比、生态开放性及合规能力成为关键。英特尔通过Gaudi 2的性价比和能耗优势,AMD通过产品迭代填补市场空白,新玩家则通过跨界合作探索新路径。
当前AI芯片市场呈现“一超多强”格局,英伟达虽占据主导地位,但英特尔、AMD及新玩家的入局正打破“AI芯片=英伟达”的认知。随着技术迭代和市场需求分化,未来竞争将围绕性能优化、生态开放及合规能力展开,万亿级市场有望催生更多创新与变革。









