2026年,AI早已不是“日新月异”的温柔描述,而是“一日千里”的狂飙突进。这几年AI发展太快了,几乎渗透到各行各业,那么它究竟是如何发展到今天,又有哪些值得追忆的往事呢?
1950年,英国曼彻斯特,阴雨绵绵。
艾伦·图灵在论文《计算机器与智能》的开篇写下了一个至今仍在回响的问题:
“ 机器能思考吗? ”
他提出了那个著名的模仿游戏 —— 后来被称作“ 图灵测试 ”:如果一台机器能在对话中让人类无法分辨它是人还是机器,就说明它具备了智能。图灵在论文的最后探讨了实现智能的可能路径:人工智能不是直接编程模拟成人思维,而是先创建一个模拟儿童思维的简单程序(“儿童机器”),然后通过一个教育过程(类似奖惩教学)让其学习成长。图灵的观点在今天看来非但没有过时,反而更加意义深远。
当然,图灵的贡献远不止于此。1936年,24岁的图灵发表了那篇改变世界的论文《论可计算数及其在判定问题上的应用》。他构想了一种假想的机器——后来被称为“图灵机”:这台机器只有一条无限长的纸带和一个读写头,却能计算任何可计算的问题。
图灵在计算机和人工智能领域的杰出贡献也为他赢得了“人工智能之父”的美誉,而与诺贝尔奖齐名的“图灵奖”作为当今世界最有影响力的计算机大奖更说明了他在计算机和人工智能领域的地位。
1954年6月7日,图灵吃下沾有氰化物的苹果,结束了自己的生命,留下那个永恒的追问:机器能思考吗?这个问题,点燃了后来七十多年的智能探索。
1955年,达特茅斯学院数学系的助理教授约翰·麦卡锡联合哈佛的马文·明斯基、 IBM的罗切斯特和贝尔实验室的克劳德·香农共同起草了一份提案,向洛克菲勒基金会申请13500美元,计划第二年夏天在达特茅斯举办一场为期两个月、十余人参与的研讨会。提案标题第一次亮出那个词:人工智能(Artificial Intelligence)。
这份看似寻常的提案,开篇的一句话:
“学习的每一个方面或智能的任何其他特征,原则上都可以被如此精确地描述,以至于可以制造一台机器来模拟它。”
这在后来成了整个领域的基石。提案还列出了自动计算机、编程语言的构造、神经网络、计算复杂度理论、自我改进、抽象能力、直觉与创造力等七个研究方向,早早画出了早期AI研究的核心框架。
1956年6月18日左右,第一批人到了汉诺威。他们独占数学系顶层,开始了持续八周的头脑风暴——有时有主题讨论,但更多时候是自由、激烈的辩论。所罗门诺夫、明斯基和麦卡锡是仅有的三位全程待满的学者。
8月17日,所罗门诺夫做了最后一次演讲,那个夏天平静地结束了。散场时,恐怕没人意识到,刚刚过去的这个夏天意味着什么。但此后,那群散去的学者,都走向了各自的传奇:麦卡锡去了斯坦福,明斯基留在MIT,二人分别掌舵全球两大AI实验室;西蒙和纽厄尔共同拿了图灵奖,西蒙后来还加冕诺贝尔经济学奖;塞缪尔写出的跳棋程序让机器第一次学会自我对弈;香农的信息论奠基了整个数字时代。
历史后来给这段日子起了个名字:人工智能的奠基会议。一份提案,一个夏天,几十个人,在汉诺威小镇的教室里,为人工智能写下了出生证明。从此,1956年,被郑重地标注为——人工智能元年。
人工智能的发展,全程像坐过山车,一路狂热又一路翻车。
早期研究者坚信:只要把逻辑规则教给机器,机器就能像人一样思考。1958年,罗森布拉特搞出了感知机——现代神经网络的老祖宗。当时媒体瞬间疯狂,《纽约时报》宣称它将来能走、能说、能看、能写,甚至能“自我复制”并“意识到自己存在”。西蒙更是放话:20年内,机器能完成人能做的一切工作。
结果却事与愿违。机器能下国际象棋,却连基本的常识都没有。1966年,一份报告直接指出机器翻译烂到家,美国政府当场大规模撤资。1969年,AI大佬明斯基证明:单层感知机连简单的“异或”问题都解决不了。一盆冷水浇下来,神经网络直接被“冰封”了近十年。1973年,英国一份报告又捅破窗户纸:问题稍微复杂一点,计算量就爆炸,当时的电脑根本扛不住。到1974年,承诺全落空、技术卡脖子,各国纷纷撤资,第一次 AI 寒冬正式降临。
时间悄悄来到80年代,吃过亏的研究者们换了思路:通用人工智能太难、太遥远,不如先做能解决实际问题的垂直领域“专家系统”。把行业知识写成一堆具体的规则。变成“行业专家”的AI再次被资本捧上神坛。日本在1982年启动“第五代计算机计划”,砸下巨资,誓要抢占技术制高点。美欧也不甘示弱,专门造出了昂贵的AI程序硬件 “Lisp机”。
结果好景不长,系统很快撞墙。专家系统脆弱到离谱:规则多到根本维护不过来,加一条就能乱十条。而且,它依然没有常识 —— 给医疗专家系统输入汽车故障,它都能给汽车开抗生素。80年代末,普通PC性能狂飙,昂贵又难用的Lisp机直接被淘汰,日本“第五代计算机”计划也宣告失败。1987年,市场崩盘、公司倒闭,第二次 AI 寒冬又来了。
这一回,连“人工智能”都成了禁忌词。研究者们为了申经费,甚至只能把研究改名叫 “高级计算”或者“机器学习”。
AI 走入寒冬,也在寒冬中蜕变。人工智能浪潮在90年代末再次崛起,研究者们不再试图“ 教会 ”机器规则,而是让机器通过海量数据自己去“ 发现 ”规律。
2012年,ImageNet图像识别大赛上,多伦多大学的AlexNet以碾压性优势夺冠,错误率从25%直降到15%。它用的技术并不新鲜,是早在1989年就被提出的卷积神经网络,但这一次,GPU的算力和海量数据的喂养让它终于展现出惊人的力量。
这一年,被认为是深度学习革命的元年。
此后十年, AI 进入“ 暴力美学 ”时代。研究者发现一个规律:只要投入更多的算力和数据,模型效果就会线性提升。这就是著名的“Scaling Law”(规模化法则)。
2016年,AlphaGo击败李世石,震惊世界。围棋的棋局变化远超国际象棋(约 10170 种可能),而且需要“直觉与策略结合”。
2017年,Transformer架构诞生,为后来的大语言模型奠定了基础。
2022年底,ChatGPT横空出世,两个月内用户破亿。
后面的故事,大家都熟悉了,国内外大语言模型如井喷般涌现,而且性能一次一次的突破,语言、图片、视频、代码都变成AI的盘中菜。
暴力美学的背后,是惊人的成本。一个大模型要几万张显卡,能耗堪比一座小城。2025年底,OpenAI前首席科学家Ilya Sutskever发出预警:Scaling Law即将触碰到天花板,高质量数据已几乎被“挖掘”殆尽,单纯靠堆算力的时代正在落幕。
那么, AI的下半场在哪里?
2026年1月,英伟达CEO黄仁勋在CES展会上宣告:
“ 物理人工智能的‘ChatGPT 时刻 ’已经到来。”
他将AI的演进分为四个阶段:感知AI、生成AI、代理AI、物理AI。物理AI的核心是让AI系统理解各种物理规律,实现从虚拟智能到实体执行的跨越。如果说生成式AI让机器学会“说话”,物理AI则赋予机器真正理解物理世界和“做事”的能力。
如今,AI已经渗透进每一个领域,包括我们热爱的流体力学,而我们也站在物理AI的门口。回首往事,我们或许能更从容地面对未来。AI不是从天而降的魔法,而是一场持续七十年的智能觉醒。
更新时间:2026-04-14
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号