美国着急,芯片积压 目前,英伟达已经告知中国客户,计划在2026年农历新年前开

往事趣谈纪录 2025-12-23 17:52:54

美国着急,芯片积压 目前,英伟达已经告知中国客户,计划在2026年农历新年前开始向中国出口其第二强的AI芯片H200,这款芯片性能仅次于最顶级的芯片。 初步计划出货规模约为5000至1万个芯片模块,按照每个模块通常包含多个芯片来计算,折算下来大约相当于4万至8万颗H200芯片。 要知道H200如今早已不是英伟达的旗舰产品,基于全新Blackwell架构的B300芯片已经下了产线,美国市场主流早就迭代成了GB200和B200/B300 8卡机集群,这款所谓的“第二强”芯片在本土市场根本卖不动,只能把目光重新投向中国这个曾经的大市场。 这场景多少有点讽刺,之前美国动辄挥舞芯片管制大棒,把H20芯片对华出口卡得死死的,结果导致英伟达25亿美元订单无法交付,光H20的库存和采购承诺就产生了45亿美元的费用,最后只能计提资产减值吞下哑巴亏,现在又急匆匆把性能更强的H200摆上货架,本质就是一场紧急清库存的自救。 虽说H200相对于此前的H20处理能力提升了6倍,美国乔治城大学测算其总处理性能是此前对华出口管制上限的10倍,能支撑175B以上参数大模型的训练推理,但这对如今的中国市场来说,早已不是非买不可的香饽饽。 毕竟咱们的芯片自主化早已不是停留在口号上,而是实打实拿出了能打的产品和案例。就说华为昇腾910B,半精度算力达到320TFLOPS,整数精度更是冲到640TOPS,比前代提升50%,已经无限接近英伟达A100的水平。 在天罡智算平台的实测中,用它跑LLaMA-13B模型推理,吞吐量能到512tokens/s,比传统方案快8倍,组集群训练1.2万亿参数的DeepSeekR2模型时,算力利用率能到82%,性能接近A100集群的91%,差距小到很多场景完全能平替。 更关键的是成本优势,昇腾910B单卡价格大概是A100的60%,用它训练医疗影像模型比A100集群省42%的费用,推理成本更是比GPT-4低97.3%,对企业来说真金白银的节省才是硬道理。 不止华为,寒武纪早在2016年就发布了全球首款商用深度学习专用处理器IP,1GHz主频下理论峰值性能达每秒5120亿次半精度浮点运算,实测中性能是传统四核通用CPU的25倍以上,能效更是高出50倍。 这款芯片还曾入选世界互联网领先科技成果,之后推出的MLU100云端智能芯片,高性能模式下等效理论峰值速度达每秒166.4万亿次定点运算,功耗却控制得很好。 更值得一提的是摩尔线程联合无问芯穹完成的突破,基于国产全功能GPU千卡集群实现了3B规模大模型的端到端实训,总用时13.2天全程稳定不中断,集群扩展效率超过90%,训练出的模型在多个测试集上性能还超过了国际主流硬件训练的同类产品,这直接证明国产芯片在大模型训练场景下已经能形成闭环能力。 从实际应用来看,国产芯片也早已在各行各业落地生根,易路HR领域模型依托华为昇腾芯片的算力,结合10亿条行业数据训练,语义解析与动机识别速度平均提升30%,成为企业HR管理的智能生产力。 不少中小企业原本因为英伟达芯片价格高昂望而却步,现在用国产芯片几十块钱就能启动AI项目,工业质检、医疗影像诊断等场景用国产芯片单卡就能满足准确率超98%的需求。 就算是头部企业,对H200的需求也只是补充性的,而且H200入华的审批和采购流程至少需要2到3个月,短期需求仍会倾向国产芯片。 说到底,美国这波急着清库存的操作,顶多是给中国市场多了一个可选项,而非必选项,毕竟咱们已经靠自主研发走出了属于自己的算力之路,有没有H200,都不影响AI产业的稳步推进。

0 阅读:0
往事趣谈纪录

往事趣谈纪录

感谢大家的关注