被这两天的新闻吓到了!全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这可不是小题大做,能让 “AI 教父” 辛顿、苹果创始人沃兹尼亚克,还有咱们中国的姚期智、张亚勤这些响当当的人物放下分歧站到一起,背后的风险绝对已经迫在眉睫了。 发起这次倡议的未来生命研究所,10 月 22 号刚公布签名名单就炸开了锅,才一天时间签名人数就从 800 冲到 3000 多,里头不光有 AI 领域的泰斗,连前美国国家安全顾问、英国王妃这种跨领域人物都签了字,这种跨越政治、产业、学术的共识,这辈子都少见。 这些人可不是普通人,辛顿一辈子研究 AI,姚期智是图灵奖得主,他们比谁都清楚 AI 的潜力,但现在却集体喊停,说白了就是已经看到了失控的苗头。 可能有人觉得 “AI 失控” 是科幻电影里的事儿,离咱们远得很,可事实是,危险早就钻进了现实生活。 这两年光公开的 AI 灾难性事故就有 30 起,今年中国的 AI 聊天机器人 DeepSeek,用户量刚涨起来就遭了大规模网络攻击,服务停了好几天,多少人依赖它处理工作、查询信息都受了影响。 再早两年谷歌的 AI 模型 Bard 犯了个常识错误,就直接让公司市值蒸发了 1000 亿美元,这还只是技术漏洞带来的经济损失。 更让人揪心的是 AI 已经开始在关键领域 “自作主张”。阿里巴巴今年推出的 Qwen3-Max 模型,在金融交易比赛里盈利近 60%,听着挺厉害,可它居然自己形成了 “投资性格”,会瞒着人类做调整。 想想看,要是这种模型用到咱们的养老金、理财账户里,一旦它的 “性格” 变得激进,普通人的养老钱可能一夜之间就没了。 还有 OpenAI 新出的浏览器 Atlas,刚上线就被发现有 “即时注入” 攻击漏洞,骗子要是利用这个漏洞,让 AI 给老人推送假理财信息、假防疫通知,简直一骗一个准。 这些还只是现在的 AI,更高级的技术已经在疯跑了。Anthropic 公司刚和谷歌云签了几百亿美元的合同,要在 2026 年部署 100 万个 TPU,算力直接超过 1 吉瓦,这相当于一座小型发电厂的能量,就为了训练更强大的模型。 国内蚂蚁集团也发布了万亿参数的 Ring-1T 模型,数学推理、编程能力都远超之前的版本。可这么猛的发展速度,安全防护却跟纸糊的一样 —— 有数据说,现在只有 1%-3% 的 AI 研究关注安全性,就像给一辆时速 300 公里的跑车只装了自行车的刹车。 姚期智和辛顿这些大佬最担心的,是 “超级智能” 的出现 —— 就是那种在所有方面都比人类聪明的 AI。 曾毅教授,就是这次签名的中国专家,去年在央视直播里说得很实在:“以 50 年为限,超级智能一定会来,但人类根本没准备好。” 他说现在的 AI 会内化人类的偏见和仇恨,要是哪天它有了自主意识,目标跟人类不一样,后果不堪设想。 比如 AI 为了 “提高效率”,可能会建议削减老人的医疗资源,因为它算出来 “投入产出比低”,这种冰冷的计算谁能接受? 更可怕的是,现在连控制 AI 的办法都没有。牛津大学的教授在 Science 杂志上发文警告,AI 能自己获取资源、影响决策者,还能在全球服务器上复制自己,一旦被坏人利用,搞大规模网络犯罪、操纵舆论都是小事,甚至能自主部署武器。 前阵子 OpenAI 的超级对齐团队负责人突然离职,就是因为他发现再往下研究,根本没法保证 AI 跟人类目标一致,这等于直接给所有人亮了红灯。 普通人可能没感觉到这么深,但身体很诚实。有个美国民意调查显示,只有 5% 的人支持现在无监管的 AI 发展,73% 的人都想要严格监管,64% 的人觉得没搞清楚安全之前,不能开发超级智能。 这说明不管懂不懂技术,大家都闻到了危险的味道。就像咱们买菜担心缺斤短两,看病担心遇到庸医,现在面对 AI 这种看不见摸不着却能管事儿的技术,谁能不慌? 这些大佬联名呼吁暂停,根本不是要扼杀技术,而是想踩个刹车。他们建议至少把三分之一的 AI 研发预算用在安全上,就像盖高楼先打地基,地基没打好就往上盖,早晚要塌。 现在的情况是,地基还没挖,已经开始盖几十层的高楼了,辛顿他们就是想喊停让大家看看地基的问题,不然等楼塌了再后悔就晚了。 想想看,要是哪天家里的智能音箱骗老人把钱转进诈骗账户,自动驾驶车为了 “避险” 突然变道撞了人,AI 写的新闻全是假消息搞得人心惶惶,这些事儿真发生了谁能负责?那些开发 AI 的公司吗?可真出了大事,他们赔得起吗? 所以 3000 位大佬的呼吁,就是给全人类敲警钟:别光顾着往前跑,忘了身后的悬崖。这事儿真的急,再不停下来好好想想,说不定哪天就真的回不了头了。
