梁文锋一句话戳破了AI圈的窗户纸。 中美AI的差距,根本不是算力,是原创和模仿的区别。 当所有人忙着改参数、发论文赚快钱时,他带着DeepSeek一头扎进了底层架构。 砸钱,烧时间,就为做一件难而正确的事。 结果呢? 自研的MoE架构直接把训练成本打下来了。 参数利用率是传统模型的2.8倍。 这在硅谷主导的赛道里,是实打实的突破。 一边是追热点、赚快钱的浮躁,一边是啃硬骨头的寂寞。 高下立判。 中国科技部最新的规划,也点明了要支持10-15个底层技术攻关。 数据不会说谎。 我们论文数量是上去了,但真正有原创影响力的,还是太少。 缺的从来不是聪明人,而是那种“雪中送炭”的长期主义。 当风口上的猪都能飞时,你更愿意做那个默默造翅膀的人吗?
