标签: 英伟达
英伟达年度营收(2027—2033年为分析师平均预测值)2033年:9130
英伟达年度营收(2027—2033年为分析师平均预测值)2033年:9130亿美元2032年:8300亿美元2031年:7440亿美元2030年:6160亿美元2029年:5730亿美元2028年:4790亿美元2027年:3660亿美元2026年:2160亿美元2025年:1310亿美元2024年:610亿美元2023年:270亿美元2022年:270亿美元2021年:170亿美元2020年:110亿美元2019年:120亿美元2018年:100亿美元2017年:70亿美元2016年:50亿美元2015年:50亿美元2014年:40亿美元2013年:40亿美元2012年:40亿美元2011年:40亿美元2010年:30亿美元2009年:30亿美元2008年:20亿美元2007年:30亿美元2006年:20亿美元2005年:20亿美元2004年:20亿美元2003年:20亿美元2002年:10亿美元
有人问我,英伟达到底凭什么这么值钱?我说,你去看CUDA就明白了。CUD
有人问我,英伟达到底凭什么这么值钱?我说,你去看CUDA就明白了。CUDA是2006年英伟达推出的一套编程平台,就是让程序员能用GPU运行各种计算,就这么个东西,现在成了整个AI行业的命门,几乎所有大模型都运行在上面。为什么别人绕不开它?有四道墙。第一道墙,是开发者,全球超过400万开发者基于CUDA写代码。这些人花了大量时间学习这套东西,写了大量代码,你让他们换到AMD的ROCm?他们宁可多花钱买英伟达,也不想重来一遍。这不是技术问题,这是人的问题。第二道墙,是软件库。英伟达这些年攒了一堆现成的工具:TensorRT负责推理加速,cuDNN专门优化神经网络,NCCL搞定多卡通信。这些库都是跟英伟达的硬件深度绑定优化的,换块AMD的卡,你得重新验证每一个库的表现,费时费力,结果还不一定效果好。第三道墙,是迁移成本,一家公司的AI模型如果基于CUDA开发,换平台不只是改几行代码就可以了,团队要重新培训,文档要重新写,踩过的坑要重新踩一遍。这笔账算下来,很多公司直接放弃,乖乖续费买英伟达的卡。第四道墙,是时间。英伟达搞CUDA将近二十年了,AMD的ROCm才刚起步,哪怕其他厂家每年进步30%,追上也要七八年。AI行业哪等得了那么久。当然,CUDA的护城河也不是铁板一块。谷歌早就在用自己的TPU运行内部任务,Meta、OpenAI也在用AMD的卡做部分工作负载。PyTorch现在加了编译器层,理论上可以让代码不那么依赖底层芯片。但这些裂缝,还远没有变成缺口。真正能撼动英伟达的,不是哪家芯片公司做出了更快的硬件,而是整个行业攒出了一套足够好用的"翻译层",让代码不用改就能在任何芯片上完美运行。在那之前,英伟达还是老大