文:Lila Shroff / The Atlantic
内容营销人员蒂姆·梅茨今年 44 岁,他很担心自己的大脑被「谷歌地图化」(Google Maps–ification)。就像许多人依赖 GPS 应用出行一样,他害怕自己也开始依赖 AI。他告诉我,他每天使用 AI 的时间长达八小时,他对 Anthropic 公司的 Claude 尤其喜爱。
有时候,他会同时运行多达六个 AI 会话。他向 AI 咨询婚姻和育儿建议;去超市买菜时,他会拍下水果的照片,问 AI 它们是否成熟。最近,他担心家附近的一棵大树可能会倒下,于是上传了照片,向机器人寻求建议。
Claude 建议梅茨睡在别处,以防大树倒塌。所以那天晚上,他和家人在朋友家过夜。他说,要是没有 Claude 的建议,「我绝对不会离开家。」(后来树没倒,但确实掉了一些树枝。)
我亲眼目睹了梅茨对 AI 的强制性使用:在我采访他之前,他指示 Claude 使用网络搜索工具,并(如果它想)用一个 AI 代理团队,来反向推导出我可能会问的问题。Claude 花了几分钟搜索我的信息,然后把研究成果整理成一份单页报告。其中一个部分是我的迷你传记;另一个部分详细列出了我对可能提出的问题的潜在回答。
「它做得相当不错,」梅茨在我们采访进行到一半时告诉我。事实上,Claude 成功预测了我提出的三个问题。

对 AI 上瘾的「LLeMmings」
许多人正变得依赖 AI 来处理日常生活中最基本的事情。一位同事建议,我们甚至可以称呼那些最极端的 AI 用户为「LLeMmings」(AI 旅鼠)——是的,因为他们总是在用大型语言模型(LLM-ing),但也因为他们对 AI 几乎不间断的使用,让人联想到那些没有引导就无法行动的电子旅鼠。
对于这群强制性用户来说,AI 已成为他们与世界互动的主要界面。他们写的邮件、做的生活决策、以及困扰他们的问题,都先经过 AI 过滤一遍。「这就像一种真正的瘾,」梅茨告诉我。
AI 热潮已持续三年,重度使用 AI 对人类心智可能产生的影响,正逐渐显现出初步的迹象。对于一些人来说,聊天机器人提供了情感陪伴;另一些人发现,机器人会强化妄想思维(有人将这种情况称为「AI 精神病」)。而「LLeMmings」们,则开始感受到反复将思考「外包」给电脑的后果。
新南威尔士大学的詹姆斯·贝德福德是一位致力于为课堂开发 AI 策略的教育家。在 ChatGPT 发布后,他开始几乎每天都使用大型语言模型。他告诉我,随着时间的推移,他发现自己的大脑在思考时会默认依赖 AI。
有一天晚上,他正帮一位女士找掉在火车座位之间的 AirPod。他注意到,自己的第一反应竟是问 ChatGPT 解决方案。「这是我第一次经历我的大脑想让 ChatGPT 来完成我自己就能做的认知活动,」他说。那一刻,他意识到「我绝对是变得依赖它了。」
在 AirPod 事件之后,他决定休息一个月,不使用 AI,让大脑重新调整。「那感觉就像是久违地第一次为自己思考,」他告诉我。「尽管我很享受那种清晰,但之后我还是立刻又用回了 AI。」
新科技带来的心智重塑
新技术拓展了人类的能力,但往往也会付出代价。正如哲学家夸梅·安东尼·阿皮亚最近在《大西洋》杂志上所写的那样,书写削弱了记忆的重要性,计算器贬低了基本算术的价值。互联网也以无数种方式重塑了我们的大脑,它用信息淹没了我们,同时又窃取了我们的注意力。
AI 将改变我们思考方式的观点并不具争议性,这也不一定是一件坏事。但是,人们应该问:「它会带来和激发哪些新的能力和思维习惯?又会抑制哪些?」神经科学家蒂姆·雷奎尔斯告诉我。他目前在纽约大学医学院指导一个科学写作研究生项目。
在伦敦工作的经济学家伊内斯·李告诉我,有时候她会陷入一种习惯,即「不先咨询 AI 就无法开始有意义的工作」。在她的 Substack 上,李写道,ChatGPT 和 Claude 现在比 YouTube 和 Instagram 等社交媒体应用更具诱惑性的干扰:她经常求助于它们来完成工作,尽管她感觉在这个过程中,自己的批判性思维能力可能正在萎缩。
教育家兼 AI 素养顾问迈克·肯茨告诉我,他也同样发现自己依赖聊天机器人来帮助撰写电子邮件。「我过去对自己技能和能力充满信心的领域——比如写简洁、全面、平衡的邮件——现在都变成了我经常向 AI 寻求反馈的领域,」他在最近的一篇博客文章中写道。「2015 年的我肯定会感到非常不安。」
对人类认知弱点的利用
AI 工具的问题在于,它们似乎「利用了人类认知架构中的裂缝」,正如雷奎尔斯所写的那样。人类的大脑喜欢节省能量,并会利用可用的捷径来实现这一目标。
「进行某些类型的思维过程需要消耗大量能量,」雷奎尔斯告诉我;而同时,「一个机器人就坐在那里,主动提出要为你接管认知工作。」换句话说,用 AI 来写邮件与其说是懒惰,不如说是一种自然的适应性行为。
聊天机器人经过精心设计,可以利用这种人类倾向,为任何查询提供引人注目的答案,即使其中许多答案是错误或误导性的。哥伦比亚大学的成瘾精神病学家卡尔·埃里克·费舍尔告诉我,举例来说,如果有人问聊天机器人一个关于自己感情生活的焦虑问题。即使聊天机器人的回答完全偏离主题或毫无帮助,它们也为人们提供了一些事情可做,而不是坐着忍受不适。
事实上,一位 20 多岁的科技工作者,出于尴尬要求匿名,她告诉我,她有时会问 Claude 连她自己都知道机器人无法回答的问题。最近一次,她的朋友们深夜在俱乐部还没回来,她也没收到消息,于是她问 Claude:「他们没事儿的概率是多少?」
另一次,她丢失了手机后,开始问聊天机器人她的身份被盗的几率有多大。「很明显,它不会知道,」她告诉我。「我想,我只是想要安心。」还有一次,她的火警警报一直响,她问 Claude 是否应该拨打 911。Claude 告诉她不用,并引导她完成了禁用警报的步骤。
厂商与用户依赖性的张力
Anthropic 提出过对学生将认知工作外包给 AI 系统的担忧,OpenAI 也承认普遍依赖 AI 工具是一个问题。「人们过于依赖 ChatGPT。有些年轻人会说,『我要是不把生活中的一切告诉 ChatGPT,就无法做出任何决定,』」公司 CEO 山姆·奥特曼在今年夏天的一次会议上表示。「这让我感觉非常糟糕。」
当我联系 OpenAI 询问他们正在采取哪些措施来解决强制性使用时,公司发言人塔亚·克里斯蒂安森告诉我,这家初创公司正在积极设计功能,以阻止用户利用 ChatGPT 来「外包」思考。作为证据,她指出了 OpenAI 最近发布的「学习模式」,这是一个为学习者提供循序渐进指导以理解新概念的工具,而不是直接提供答案。
但这其中存在一种张力。对于 OpenAI 和其他聊天机器人制造商来说,依赖就是他们的商业模式。人们越是依赖 AI 来处理他们的个人和职业生活,这些企业就越能从中获益。(《大西洋月刊》在 2024 年与 OpenAI 建立了企业合作关系;该杂志的商业团队和 OpenAI 对编辑工作都没有任何监督权。)我采访的许多重度用户每月都要花费数百美元购买高级 AI 订阅。
与此同时,这些公司正面临一些财务压力:去年 10 月,ChatGPT 负责人尼克·特利致信员工,称 OpenAI 正在经历「我们所见过的最大竞争压力」,据报道,该公司希望在未来几年内说服大约 2 亿用户付费订阅高级服务。
或许,AI 公司遏制不健康依赖的一种方法是,在其聊天机器人中编程,要求用户休息一下,成瘾精神病学家费舍尔建议。机器人可以这样说:「『我觉得你考虑得太多了。不如出去走走?』」他说。
今年夏天,OpenAI 引入了一个提醒功能,鼓励用户在长时间使用期间休息一下。Anthropic 也一直在试验在长时间对话中进行干预。肯茨告诉我,他最近在飞往西雅图的航班上与 Claude 进行了一次激烈的互动,Claude 中途就打断了他。他要求机器人扮演他即将进行的演讲的听众。Claude 的一些反馈很有帮助,但肯茨发现自己过于纠结于此,和机器人争论,甚至变得很防备。肯茨告诉我,最终,Claude 说:「你正在钻牛角尖,需要冷静一下。」
他觉得 Claude 的干预很有用,但有时候聊天机器人很难判断什么是不健康的行为。我的一个朋友最近在使用 Claude 编辑一篇文章时,聊天机器人开始拒绝帮忙。「你需要停下来,」Claude 写道。「这不再是富有成效的编辑了。」有一次,它甚至要求:「提交你的申请,」并补充说,「我不会回应进一步的微调请求了。」
我的朋友感到很震惊;他只是在寻求语法和措辞方面的帮助。其他人也报告了类似的经历,他们一些基本的求助请求,被 AI 毫无根据地指责为自我毁灭式的完美主义。(当被问及这些例子时,Anthropic 的一位发言人告诉我,公司正在努力训练 Claude,让它在必要时进行回绝,但又不会过于严厉或带批判性。)
目前,一些 AI 重度用户正在自己采取措施来摆脱依赖:从今天开始,贝德福德将开始另一个为期一个月的 AI 休息期,他正式发起了一项名为「#NoAIDecember」(拒绝 AI 的十二月)的挑战。该活动的网站鼓励人们优先使用他们的 RI(即「真智能」,”real intelligence”)来取代 AI。这项挑战向任何人开放,目前已有数千人报名。肯茨就是其中之一,不过他对这次「AI 休息」恰逢假期感到有些失望:他已经养成了使用 ChatGPT 帮助他进行圣诞购物的习惯。