万益资讯网

“中美差距究竟有多大?”DeepSeek创始人梁文峰再次语出惊人!他说:“我们经

“中美差距究竟有多大?”DeepSeek创始人梁文峰再次语出惊人!他说:“我们经常说中国AI和美国有一两年差距,但真实的差距是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。” 很多人聊起AI,总觉得中国跟在美国后面跑,差个一两年就差不多了。DeepSeek创始人梁文峰的一番话,却把这个话题拉得更深。他指出,表面上的时间差距背后,真正的问题在于原创能力与模仿路径的本质不同。如果不直面这一点,就难以摆脱追随者的角色。这样的观点,在AI竞赛进入白热化阶段时,听来格外有分量。 梁文峰2013年与浙大同学共同创办投资管理公司,2015年成立幻方科技有限公司,专注用数学和人工智能做量化投资。团队起步时规模不大,依靠高频量化策略逐步在市场中站稳脚跟。梁文峰自己早年通过独立开发的系统,在七年时间里积累了显著成果。到2021年,幻方管理规模突破千亿,成为国内量化私募领域的知名机构之一。 他带领的团队以本土培养的人才为主,核心成员多来自国内高校,强调能力优先。2023年12月,梁文峰创办DeepSeek,目标是开发接近人类水平的人工智能,把量化领域积累的经验延伸到大模型研发上。整个过程体现出一种持续的技术积累,从金融场景的算法优化,到通用AI的基础探索。 ChatGPT问世后,全球AI进入比拼规模的阶段。大参数、大数据、强算力成为主流,美国科技巨头投入巨资构建算力储备,模型参数规模不断扩大,训练数据达到万亿token级别。行业标准和规则也逐步由领先者主导。不少人形成一种印象,AI发展的主导权似乎集中在西方手中。芯片出口管制等措施,进一步凸显了资源层面的差异。 就在这样的背景下,DeepSeek带来了一条不同的路径。它在架构算法、训练方式和工程优化上进行系统调整,在千亿参数规模下实现了与GPT-4o相当的推理能力,同时显著降低了训练成本。 V3系列采用混合专家MoE架构,总参数量达到6710亿,但激活参数较少,通过FP8训练、多头潜在注意力等优化,在资源约束下保持高效性能。生成速度提升明显,API价格也更为亲民。这些特点让模型在知识问答、长文本处理、编程辅助和数学任务上展现竞争力,尤其在中文语境中表现突出。 梁文峰谈到,中国AI与美国的差距,常被描述为一两年,但真实区别在于原创和模仿。如果不改变这种状况,就容易长期处于追随位置,所以有些探索必须推进,不能回避。这番话直指核心问题:不能只在现有框架内做优化,而要在底层技术上主动寻找新路。DeepSeek的实践,正是通过算法和工程创新,在有限算力条件下实现突破,打破了单纯依赖规模暴力的惯性思维。 DeepSeek的发展,体现了中国在生成式AI领域的快速跟进。V3模型在多项基准测试中接近国际领先水平,后续版本继续迭代,提升推理和工具调用能力。企业界开始将它应用于内容创作、文档处理和编程支持等场景,效率得到实际提高。教育领域也有人建议,把AI工具作为新时代的必备技能,让更多人早点熟悉这类技术,提升综合处理能力。