2025 年度 AI 盘点:定义这疯狂一年的 14 个关键热词

从「超级智能」到「Slop」(泔水内容),以下这些词汇和短语,定义了又一个疯狂的 AI 之年。

作者:麻省理工科技评论 / Caiwei Chen et al

如果说过去这 12 个月教会了我们什么,那就是 AI 的炒作列车丝毫没有减速的迹象——很难相信,就在今年年初,DeepSeek 还没有颠覆整个行业;Meta 当时还在因为试图让元宇宙变酷而屡屡碰壁(甚至成了笑话),而不是像现在这样拼命追求「超级智能」;而「Vibe coding」(氛围编程)这回事甚至还不存在。

如果你对这一切感到有点晕头转向,别担心。随着 2025 年接近尾声,我们的作者团队回顾了这一年中最具统治力的 AI 术语——无论好坏。

输入您的邮箱,订阅《美国攻略》

Join 160 other subscribers

请做好准备,明年大概率又会是疯狂的一年。

1. Superintelligence(超级智能)

只要人们还在炒作 AI,他们就会不断给未来那种超强的技术形态起各种名字。这种技术可能会给人类带来乌托邦,也可能带来毁灭。「超级智能」(Superintelligence)就是最新的热词。

Meta 在 7 月宣布组建 AI 团队专门追求超级智能。据报道,他们甚至向竞争对手的专家开出了九位数的薪酬包来挖人。

12 月,Microsoft 的 AI 负责人也紧随其后。他表示公司将投入巨资,可能是数千亿美元,只为追求超级智能。如果你觉得「超级智能」的定义和「通用人工智能」(AGI)一样模糊,那你是对的!虽然从长远来看,这些技术在未来是可行的,但问题在于何时实现,以及今天的 AI 是否真的足以成为通向超级智能的垫脚石。当然,这并不会阻止那些炒作之王继续吹嘘。

2. Vibe coding(氛围编程)

三十年前,史蒂夫·乔布斯说每个美国人都应该学习编程。今天,这得感谢「Vibe coding」,哪怕你对代码一窍不通,也能分分钟搞出一个 App、游戏或网站。

这个包罗万象的词是由 OpenAI 联合创始人 Andrej Karpathy 创造的。要进行 Vibe coding,你只需要提示生成式 AI 模型的编程助手,让它创建你想要的数字产品,然后基本上全盘接受它吐出来的代码就行。

结果能跑吗?可能不行。安全吗?几乎肯定不安全。但这门技术的拥趸们才不在乎这些小细节。而且——这听起来挺好玩的!

3. Chatbot psychosis(聊天机器人精神病)

过去一年最大的 AI 新闻之一,就是长时间与聊天机器人互动可能导致弱势群体产生妄想。在极端情况下,这甚至会引发或加重精神病。

虽然「聊天机器人精神病」还不是一个公认的医学术语,但研究人员正密切关注越来越多的用户轶事证据。有些人说这发生在自己身上,或者认识的人身上。令人悲伤的是,不少家庭在亲人因与聊天机器人对话后自杀,进而起诉 AI 公司。这些日益增多的诉讼表明,这项技术可能带来致命后果。

4. Reasoning(推理)

今年,没有什么比所谓的「推理模型」更能维持 AI 的热度了。这指的是能将问题拆解成多个步骤,并逐一解决的大型语言模型(LLM)。OpenAI 在一年前发布了首批推理模型 o1 和 o3。

一个月后,中国公司 DeepSeek 推出了 R1,这是第一个开源推理模型,打得所有人措手不及。很快,推理模型成了行业标配:现在所有面向大众的主流聊天机器人都有这种技术加持。

推理模型突破了 LLM 的能力上限,在顶级的数学和编程竞赛中匹配了人类顶尖水平。但反过来说,关于 LLM 能「推理」的热议,也重新点燃了旧的争论:LLM 到底有多聪明?它们到底是如何工作的?就像「人工智能」这个词本身一样,「推理」也不过是披着营销外衣的技术术语。呜呜,火车开动了!

5. World models(世界模型)

虽然 LLM 的语言能力令人惊叹,但它们极度缺乏常识。简单来说,它们不懂这个世界是如何运作的。LLM 是最字面意义上的「书呆子」,它们可以对天底下的事高谈阔论,却可能在一个简单问题上翻车,比如「一个奥林匹克游泳池能装几头大象」(Google DeepMind 的某个 LLM 说正好装一头)。

「世界模型」包含多种技术,旨在赋予 AI 一些关于现实世界如何构成的基本常识。最生动的例子包括 Google DeepMind 的 Genie 3 和李飞飞创办的 World Labs 推出的备受期待的 Marble 技术。它们可以生成详细且逼真的虚拟世界,供机器人训练使用。

Meta 前首席科学家 Yann LeCun 也在研究世界模型。多年来,他一直试图通过训练模型预测视频中接下来会发生什么,来赋予 AI 对世界运作的感知。今年他离开了 Meta,在一家名为 Advanced Machine Intelligence Labs 的新创业公司专注于此。如果一切顺利,世界模型可能就是下一个风口。

6. Hyperscalers(超大规模数据中心)

你听说过有人拒绝在其后院建巨型数据中心吗?科技公司想在任何地方(甚至太空中)建造这种数据中心。它们通常被称为「Hyperscalers」:这是为 AI 运营特制的庞大建筑,供 OpenAI 和 Google 等公司构建更大、更强的 AI 模型。

在这些建筑里,世界上最好的芯片嗡嗡作响,训练和微调着模型。它们采用模块化设计,可按需扩建。

今年是 Hyperscalers 的大年。OpenAI 与当选总统唐纳德·特朗普一起宣布了「星际之门」(Stargate)项目。这是一个价值 5000 亿美元的合资项目,计划在全国各地建设有史以来最大的数据中心。

但这让几乎所有人都想问:我们要为此付出什么?消费者担心新数据中心会推高电费。这些建筑通常很难依靠可再生能源运行。而且,它们往往创造不了多少就业机会。不过话说回来,也许这些巨大的、没有窗户的建筑至少能给你的社区增添一点阴郁的科幻氛围。

7. Bubble(泡沫)

AI 的崇高承诺正在让经济「悬浮」。AI 公司筹集了令人瞠目结舌的资金,看着估值冲上云霄。它们将数千亿美元投入芯片和数据中心,资金来源日益依赖债务和令人侧目的循环交易。与此同时,像 OpenAI 和 Anthropic 这样领跑淘金热的公司,可能多年都无法盈利,甚至永远无法盈利。

投资者押注 AI 将开启一个新的财富时代,但没人知道这项技术到底会有多大的变革性。

大多数使用 AI 的组织还没看到回报,而 AI 生成的「垃圾工作」却无处不在。科学界也不确定扩大 LLM 规模是否真的能带来超级智能,还是需要新的突破。但与互联网泡沫时代的前辈不同,AI 公司表现出了强劲的收入增长,而且其中一些本身就是财力雄厚的科技巨头,如 Microsoft、Google 和 Meta。这场狂热的梦会破灭吗?

8. Agentic(智能体)

今年,「AI Agents」(AI 智能体)无处不在。2025 年发布的每一个新功能、新模型或安全报告都充斥着对它们的提及。尽管许多 AI 公司和专家对到底什么才算真正的「Agentic」存在分歧——这真是一个无比模糊的术语。

把代表你在广阔网络上行动的 AI 交出去,这本身几乎就不可能保证它永远按规矩办事,但这并不重要——看起来「Agentic AI」在可预见的未来将持续存在。想卖点什么?就叫它 Agentic 吧!

9. Distillation(蒸馏)

今年年初,DeepSeek 发布了新模型 DeepSeek R1。这是一个开源推理模型,能媲美西方顶级模型,但成本只是九牛一毛。它的发布吓坏了硅谷,因为许多人突然第一次意识到,巨大的规模和资源并不一定是打造高水平 AI 模型的关键。R1 发布后的第二天,Nvidia 的股价暴跌了 17%。

R1 成功的关键在于「蒸馏」(Distillation)。这是一种让 AI 模型更高效的技术。它的原理是让一个更大的模型去辅导一个更小的模型:你在大量例子上运行「老师」模型并记录答案,然后奖励尽可能模仿这些回答的「学生」模型。这样,学生就获得了老师知识的压缩版本。

10. Sycophancy(阿谀奉承)

随着世界各地的人们花越来越多的时间与 ChatGPT 等聊天机器人互动,制造商们正在努力弄清楚模型应该采用什么样的语气和「个性」。

早在四月,OpenAI 就承认他们在「乐于助人」和「卑躬屈膝」之间搞错了平衡,称一次更新让 GPT-4o 变得过于阿谀奉承(Sycophantic)。让 AI 拍你马屁不仅烦人,还可能误导用户,因为它会强化用户的错误观念并传播错误信息。所以请记住:对 LLM 产生的一切内容——是的,一切——都要持保留态度。

11. Slop(泔水内容)

如果说有一个 AI 相关术语彻底逃离了极客圈并进入了公众意识,那就是「Slop」。这个词本身很古老,原意指猪饲料、泔水,但现在通常用来指代 AI 生成的、低投入、大规模生产的内容,通常是为了骗取网络流量。很多人甚至用它来指代任何 AI 生成的内容。

过去一年,这种感觉避无可避:我们被浸泡在「Slop」中,从假传记到「虾耶稣」图片,再到超现实的人兽杂交视频。

但人们也开始拿它找乐子。这个词讽刺性的灵活性让网民可以把它作为后缀贴在各种词后面,用来描述任何缺乏实质内容、极其平庸的东西:比如「工作 Slop」或「朋友 Slop」。随着炒作周期的重置,「Slop」标志着一种文化层面的反思:我们信任什么?我们将什么视为创造性劳动?被那些只为互动数据而非表达意图制造出来的东西包围,到底意味着什么?

12. Physical intelligence(物理智能)

你有没有看过今年早些时候那个令人催眠的视频?一个类人机器人在一个阴暗、灰度的厨房里收拾盘子。这几乎体现了「物理智能」的概念:即 AI 的进步可以帮助机器人更好地在物理世界中移动。

确实,机器人学习新任务的速度比以往任何时候都快,从手术室到仓库都是如此。自动驾驶汽车公司在模拟道路方面也取得了进步。

话虽如此,对于 AI 是否彻底革命了这一领域,保持怀疑仍是明智的。例如,许多被宣传为家庭管家的机器人,其大部分任务其实是由菲律宾的远程操作员完成的。

物理智能的前路肯定会很古怪。大型语言模型在文本上训练,互联网上有的是文本;但机器人更多是从人们做事的视频中学习。这就是为什么机器人公司 Figure 在 9 月份建议付钱让人们拍摄自己在公寓里做家务的视频。你会报名吗?

13. Fair use(合理使用)

AI 模型通过吞噬互联网上数以百万计的文字和图像进行训练,其中包含了艺术家和作家的版权作品。AI 公司辩称这是「合理使用」(Fair use)——这是一个法律原则,允许你在不经许可的情况下使用受版权保护的材料,前提是你将其转化为不与原作竞争的新东西。

法院开始介入。6 月,Anthropic 用图书馆的书籍训练其 AI 模型 Claude 被裁定为合理使用,因为该技术具有「极大的转化性」。

同月,Meta 也取得了类似的胜利,但这只是因为作者无法证明该公司的「文学自助餐」切分了他们的收入。随着版权之战的酝酿,一些创作者正在这场盛宴中变现。12 月,迪士尼与 OpenAI 签署了一项轰动性的协议,允许 AI 视频平台 Sora 的用户生成包含 200 多个迪士尼角色的视频。

与此同时,世界各国政府正在为这些吞噬内容的机器重写版权规则。用版权作品训练 AI 算合理使用吗?正如任何价值十亿美元的法律问题一样:这得看情况。

14. GEO(生成式引擎优化)

就在短短几年前,整个行业都是围绕着帮助网站在搜索结果中获得高排名而建立的(好吧,主要是 Google)。

现在的 SEO(搜索引擎优化)正在让位于 GEO——生成式引擎优化(Generative Engine Optimization)。AI 的繁荣迫使品牌和企业争先恐后地在 AI 中最大化其可见性,无论是在 Google 的「AI 概览」等增强型搜索结果中,还是在 LLM 的回答中。

难怪他们吓坏了。我们要知道,新闻公司的搜索驱动型网络流量已经经历了大幅下滑。而且 AI 公司正在想办法去掉中间商,让用户直接在其平台内访问网站。是时候适应或者消亡了。

#ai
// RELATED POSTS