
这几年AI末日论层出不穷,一会儿是“AI将取代人类”,一会儿又说“全是泡沫、马上崩盘”。
听得云里雾里,到底该信谁?

最近,《麻省理工科技评论》一篇深度报道,把“AI末日派”拉出来重新审视,他们只反复强调一件事。

过去半年,AI圈确实有点“凉意”。
GPT-5发布后被吐槽“不如预期”,OpenAI突然下线旧模型惹众怒,加上英伟达CEO黄仁勋都公开说“终结者不会来”,不少人觉得“末日论”要破产了。

但周叔翻遍最新访谈发现,这些安全倡导者根本没动摇。
杰弗里·辛顿——刚拿诺贝尔物理学奖的“深度学习教父”,他坦言:“我不确定AGI哪年到,但未来20年内出现超级智能的概率很高。”

杰弗里·辛顿
他甚至提到,中国高层对AI风险的理解“比很多西方政客更清醒”。
而图灵奖得主约书亚·本吉奥则直言:“哪怕只有0.1%的概率导致数十亿人死亡,这事就值得全人类警惕。”

图灵奖得主约书亚·本吉奥
有意思的是,他们普遍把AGI时间表悄悄往后挪。
但这不等于放松,窗口期越长,越要抓紧建立监管和技术防线。

别被“AI泡沫”带偏节奏。
2024年底,ScaleAI发布的“专业推理基准”显示,当前最强LLM在最难法律问题上得分仅37%。

Mercor公司12月更新的“AI生产力指数”也指出,模型在法律等高风险领域存在“显著局限”。
换句话说,AI能写论文、编代码,但离“像律师那样思考”还差得远。
可问题在于,资本和政策却在反向狂奔。

据《麻省理工科技评论》12月17日报道,美国已有近半数百人以上律所部署AI工具,佳利律所甚至因AI裁员10%。
与此同时,由OpenAI高管和风投Andreessen Horowitz支持的“Pro-AI超级政治行动委员会”正在华盛顿推动去监管议程。

一边是技术还不成熟,一边是监管在后退,这不就是最危险的组合吗?
更值得警惕的是,AI能力的提升越来越“隐形”。
普通用户问“天空为什么是蓝的”,GPT-4和GPT-5答案差不多,就觉得没进步。

但研究人员用o1、o3这类推理模型做数学证明或科学模拟时,性能已是“强得离谱”。
这种不对称的认知,最容易让人误判形势。

很多人把AI安全派当成“刹车党”,其实大错特错。
加州伯克利教授斯图尔特·拉塞尔打了个比方:如果知道2067年有颗小行星要撞地球,你会等到2066年再行动吗?

控制超级智能的技术,可能需要十年甚至更久研发,现在不启动,等于把命运押在运气上。
海伦·托纳——前OpenAI董事会成员,她警告说,激进预测如“2027年AGI”若落空,会让整个安全阵营信誉受损。
但她强调:“即便AGI在30年内任一时刻出现,都是天大的事。”

这话很关键——安全议题的紧迫性,不取决于AI明天是否觉醒,而取决于人类是否准备好应对它觉醒的那一刻。
从另一个角度看,黄仁勋说“3年内90%知识由AI生成”,恰恰印证了变革已不可逆。

当知识生产主体从人变成机器,控制权就成了核心问题。
咱们不能一边享受AI红利,一边假装风险不存在。

AI不是洪水猛兽,也不是万能神药。
真正的智慧,在于看清它的双面性——既能重塑文明,也可能颠覆秩序。
末日论或许夸张,但忽视风险才是最大的傲慢。
人类的未来,不该押注在“它不会失控”的侥幸上,而应建立在“即使失控,我们也能兜底”的准备中。
这,才是对技术真正的敬畏。
更新时间:2025-12-29
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号