发布时间:2025.05.15
源地址:https://www.theatlantic.com/technology/archive/2025/05/karen-hao-empire-of-ai-excerpt/682798/
”我们肯定会在发布 AGI 之前建一个地下掩体。”
OpenAI混乱背后的真实故事
2023 年夏天,OpenAI 联合创始人兼首席科学家伊利亚·萨茨凯弗正在与一群新研究员开会。按传统标准来看,萨茨凯弗理应无比自信:他是推动 ChatGPT 背后大型语言模型的关键人物,而 ChatGPT 当时是史上增长最快的应用;他的公司估值飙升;OpenAI 被视为引领硅谷未来的无可争议的行业领袖。但这位首席科学家似乎正与自己内心激烈斗争。
萨茨凯弗长期坚信通用人工智能(AGI)是不可避免的——如今,随着生成式 AI 行业的加速发展,他认为 AGI 的到来已迫在眉睫,据他的博士导师、AI 先驱杰夫·辛顿以及另一位熟悉萨茨凯弗想法的人士透露。(本文多位消息人士要求匿名,以便自由谈论 OpenAI 而不担心报复。)在他周围人看来,萨茨凯弗几乎被这场即将到来的文明变革的思考所吞噬。一个至高无上的 AGI 出现并超越人类后,世界将会怎样?OpenAI 又肩负着怎样的责任,确保最终带来非凡的繁荣,而非极端的苦难?
到那时,萨茨凯弗——此前大部分时间都投入在推动 AI 能力提升上——开始将一半时间专注于 AI 安全。在他周围人眼中,他既像个“婴儿潮一代”,又像个“末日预言者”:对未来既充满期待又心存恐惧。那天,在与新研究员的会议上,他提出了一个计划。
“一旦我们都进了掩体——”据一位在场研究员回忆,他开口说道。
“抱歉,”那位研究员打断道,“掩体?”
“我们肯定会在发布通用人工智能之前建造一个掩体,”萨茨凯弗回答道。这种强大技术无疑会成为全球各国政府极度渴望的目标。核心科学家们必须得到保护。“当然,”他补充道,“是否进入掩体是自愿的。”
我采访的另外两位消息人士证实,萨茨凯弗经常提到那个掩体。“有一群人——伊利亚就是其中之一——相信打造通用人工智能会带来一种‘被提’,”这位研究员告诉我,“真的是字面意义上的‘被提’。”(萨茨凯弗拒绝对此事发表评论。)
萨茨凯弗对全能人工智能的担忧看似极端,但这并不罕见,也与当时 OpenAI 的整体立场大致一致。2023 年 5 月,公司 CEO 山姆·奥特曼联名签署了一封公开信,将这项技术描述为潜在的灭绝风险——这一说法可以说帮助 OpenAI 确立了自身定位,并引导了监管层的讨论。然而,对即将到来的末日担忧,也必须与 OpenAI 日益增长的业务需求相权衡:ChatGPT 大获成功,奥特曼渴望更多。
当 OpenAI 成立时,初衷是为了造福人类而开发通用人工智能(AGI)。为此,联合创始人——包括 Altman 和 Elon Musk——将组织设立为非营利机构,并承诺与其他机构共享研究成果。他们一致认为,技术开发应当实现民主参与,这也是公司名称的由来。但到了我在 2019 年开始报道这家公司时,这些理想已经开始动摇。OpenAI 的高管们意识到,想走的这条路需要巨额资金。Musk 和 Altman 都试图出任 CEO,最终 Altman 胜出。Musk 于 2018 年初离开组织,并带走了他的资金。为填补资金缺口,Altman 重新设计了 OpenAI 的法律架构,在非营利机构内设立了一个“有限利润”部门,以便筹集更多资本。
自那以后,我通过采访 90 多位现任和前任员工(包括高管和合同工)追踪了 OpenAI 的发展。公司多次拒绝了我的采访请求和问题,这篇报道改编自我关于它的书;在文章发表前我再次联系时也未获回复。(OpenAI 还与《大西洋月刊》有企业合作关系。)
OpenAI 内部的两种文化——安全开发 AGI 的雄心与通过新产品发布扩大用户群的渴望——在 2023 年底爆发。对 Altman 领导方向深感忧虑的 Sutskever,与董事会成员及当时的首席技术官 Mira Murati 商议后,董事会决定罢免 CEO。随后发生的 Altman 被罢免又复职的事件震动了科技界。此后,OpenAI 和 Sam Altman 在全球事务中变得更加重要。上周,公司推出了“OpenAI for Countries”计划,旨在让 OpenAI 在美国以外的地区参与 AI 基础设施建设。Altman 也成为特朗普政府的盟友,例如本周出席了与沙特官员的活动 ,今年一月还与总统同台宣布了 5000 亿美元的 AI 计算基础设施项目。
Altman 短暂被罢免及其复职并巩固权力的过程,是理解公司在 AI 发展关键时刻立场的关键。此前报道中缺失了许多细节,包括揭示 Sutskever 和 Murati 想法及基层反应的信息。这里首次呈现这些内容,基于十几位直接或间接参与者的叙述,以及当时的笔记、Slack 消息截图、邮件、录音和其他佐证材料。
如果曾经存在的话,那种利他主义的 OpenAI 已经不复存在。公司现在在打造怎样的未来?
消息人士告诉我,ChatGPT 问世前,Altman 看起来精神饱满。如今他常显疲惫。成名后,他面对更严苛的审视和繁重的出差行程。与此同时,谷歌、Meta、Anthropic、Perplexity 等多家公司也在开发自己的生成式 AI 产品,竞逐 OpenAI 的聊天机器人市场。
Altman 身边的高管们早已注意到他的一个习惯:当两组团队意见不合时,他私下往往会分别认同双方观点,导致同事间困惑和不信任。现在,他还常在背后说员工坏话,同时催促他们加快产品上线。团队负责人效仿他的做法,开始挑拨员工间的关系。消息人士称,另一位联合创始人兼总裁 Greg Brockman 也加剧了问题,他经常突然介入项目,临时更改长期计划,打乱节奏。
OpenAI 的氛围正在变化。此前,Sutskever 试图团结员工,共同奋斗。他被员工视为深思熟虑甚至有些神秘的人,经常用精神层面的语言表达观点。他上班穿着印有动物图案的衬衫,也喜欢画画——有只可爱的猫、几只温顺的羊驼,还有一条喷火的龙。他的一幅业余画作挂在办公室里,画的是三朵花组成 OpenAI 标志的形状,象征着他一直鼓励员工打造的目标:“多元化、热爱人类的 AGI。”
但到了 2023 年年中——大约在他开始更频繁谈论建造避难所的想法时——据熟悉他想法的消息人士透露,Sutskever 不再仅仅关注 AGI 和超级智能可能带来的灾难性变革。他被另一种焦虑所困扰:他对 OpenAI 能否持续技术进步以实现 AGI,或在 Altman 领导下承担起这份责任的信心正在逐渐消退。消息人士称,Sutskever 认为 Altman 的行为模式正在削弱 OpenAI 使命的两大支柱:这不仅拖慢了研究进展,也破坏了做出合理 AI 安全决策的任何可能性。
与此同时,Murati 正试图收拾残局。她一直是 Altman 的“翻译官”和桥梁。如果 Altman 对公司的战略方向有调整,她就是执行者;如果团队需要反对他的决定,她就是他们的代言人。当人们因无法从 Altman 那里得到明确答复而感到沮丧时,都会寻求她的帮助。“她是那个真正把事情办成的人,”一位前同事告诉我。(Murati 拒绝置评。)
消息人士告诉我,在开发 GPT-4 的过程中,Altman 和 Brockman 之间的关系几乎让关键人员辞职。Altman 似乎还试图为了图快而绕过安全流程。知情人士称,有一次他告诉 Murati,OpenAI 的法律团队已经批准最新模型 GPT-4 Turbo 可以跳过公司部署安全委员会(DSB)的审查——该委员会由微软和 OpenAI 的代表组成,负责评估 OpenAI 最强大模型是否准备好发布。但当 Murati 向负责法律团队的 Jason Kwon 核实时,Kwon 根本不知道 Altman 是怎么得出那个结论的。
据多方消息,夏天时穆拉蒂试图向奥特曼详细反馈这些问题,但没奏效。CEO 对她冷淡以待,关系花了好几周才缓和过来。
到了秋天,Sutskever 和 Murati 都得出了同样的结论。他们分别找到了三位非 OpenAI 员工的董事——乔治城大学安全与新兴技术中心主任 Helen Toner、机器人专家 Tasha McCauley 以及 Quora 联合创始人兼 CEO Adam D’Angelo,表达了对 Altman 领导能力的担忧。据我查阅的会议记录,Sutskever 在一次会议中说:“我觉得 Sam 不应该掌控 AGI 的关键决策权。”据知情人士透露,Murati 在另一场会议中也表示:“我对 Sam 领导我们走向 AGI 感到不安。”
Sutskever 和 Murati 的看法对 Toner、McCauley 和 D’Angelo 产生了巨大影响。据知情人士透露,近一年来,他们也一直在消化对 Altman 的严重担忧。在众多疑虑中,这三位董事通过一系列偶然的接触发现,Altman 在多方面对他们并不坦诚——从违反 DSB 协议,到 OpenAI Startup Fund 的法律结构问题,这个本应归公司所有的交易工具,实际上却由 Altman 个人掌控。
如果 Altman 的两位最高级副手都对他的领导能力发出警报,董事会就有了大麻烦。Sutskever 和 Murati 也并非第一个提出这类问题的人。消息人士称,三位董事多年来从至少五位与 Altman 相隔一到两个层级的员工那里听到了类似的反馈。到了十月底,Toner、McCauley 和 D’Angelo 几乎每天都通过视频通话开会,大家一致认为 Sutskever 和 Murati 对 Altman 的反馈,以及 Sutskever 提出的解雇建议,都值得认真讨论。
在此过程中,Sutskever 向他们发送了大量文件和截图,这些都是他和 Murati 共同收集的,内容涉及 Altman 的行为表现。截图显示至少有两位高级领导指出 Altman 倾向于绕过或忽视既定流程,无论这些流程是出于 AI 安全考虑还是为了优化公司运作。董事们了解到,这其中还包括 Altman 试图跳过 DSB 对 GPT-4 Turbo 的审查。
到 11 月 11 日星期六,独立董事们做出了决定。正如 Sutskever 所建议的,他们将解除 Altman 职务,由 Murati 担任临时 CEO。2023 年 11 月 17 日太平洋时间中午左右,Sutskever 在一次与三位独立董事的 Google Meet 会议上解雇了 Altman。随后,Sutskever 又在另一场 Google Meet 会议上告诉 Brockman,他将不再担任董事会成员,但仍保留公司内的职位。随后,公司立即发布了公开声明。
短暂的片刻间,OpenAI 的未来充满了未知。它可能会走上一条远离激进商业化和 Altman 的道路。但事实并非如此。
在经历了看似几个小时的平静与稳定后,Murati 与当时 OpenAI 最大财务支持者微软进行了富有成效的对话,然而她突然给董事会成员打电话,带来了一个新问题。她说,Altman 和 Brockman 正在向所有人宣称,Altman 被免职是 Sutskever 发动的政变。
在一次全员大会上,Sutskever 的沟通完全无力,这无疑火上浇油。
“有没有具体事件导致了这一切?”Murati 根据我获得的会议录音,朗读了一份员工提问清单。
“文件里的许多问题都关乎细节,”Sutskever 回应道,“什么、何时、如何、谁,具体情况。我真希望能详细说明,但我做不到。”
“我们是否担心现有董事会成员通过胁迫手段被恶意接管?”Sutskever 随后又读出另一位员工的问题。
“敌意收购?”萨茨克弗重复道,声音中带着新的锋芒。“OpenAI 的非营利董事会完全按照其目标行事。这根本不是敌意收购,完全不是。我不同意这个说法。”
不久之后,剩余的董事会成员,包括萨茨克弗,在一次视频通话中与愤怒的领导层对峙。据在场人士透露,首席战略官权和全球事务副总裁安娜·马坎朱带头反对董事会将奥特曼行为描述为“并非始终坦诚”的说法。他们要求提供支持董事会决定的证据,但据知情人士称,董事会成员觉得若提供证据就会暴露穆拉蒂。
当天接连发生,布罗克曼抗议辞职,随后又有三位高级研究员跟进。整个晚上,员工们愈发愤怒,原因层出不穷:董事会未明确解雇奥特曼的理由;可能失去一项要约收购,这让部分员工有机会出售价值数百万美元的股权;以及对公司动荡可能导致崩溃的担忧日益加剧,这将葬送大量的希望和努力。
面对 OpenAI 可能瓦解的局面,萨茨克弗的决心立刻开始动摇。OpenAI 是他的心血,是他的生命;公司的解散将毁掉他。他开始恳求其他董事重新考虑对奥特曼的立场。
与此同时,穆拉蒂的临时职位也受到了挑战。公司内部的风波逐渐波及越来越多的投资者。穆拉蒂现在不愿明确支持董事会解雇奥特曼的决定。虽然她的反馈促成了这一决定,但她本人并未参与具体的讨论。
到周一早晨,董事会已败下阵来。穆拉蒂和萨茨克弗倒戈支持奥特曼。奥特曼必须回归,否则 OpenAI 无路可走。
当时我正着手写一本关于 OpenAI 的书 ,在董事会危机爆发后的几周里,朋友、家人和媒体多次问我:这一切到底意味着什么?对我来说,这场风波凸显了我们这一代最紧迫的问题之一:我们该如何治理人工智能?随着 AI 有望重塑社会中许多关键功能,这个问题实际上是在问:我们如何确保未来会变得更好,而不是更糟?
2023 年 11 月的事件最清晰地展示了,少数硅谷精英之间的权力斗争正深刻影响着这项技术的未来。而这种集中式 AI 开发模式的成绩单令人极为担忧。如今的 OpenAI 已经变成了它曾誓言绝不成为的样子。它名义上是非营利组织,实则积极商业化产品如 ChatGPT,追求历史性的估值。它变得愈发神秘,不仅切断了对自身研究的访问,还改变了整个行业的规范,不再分享 AI 模型的关键技术细节。为了追求模糊的进步愿景,它在规模扩张上的激进推动重写了 AI 发展的规则。如今,每家科技巨头都在竞相扩大规模,投入天文数字的资金,甚至不得不重新分配和整合资源。曾经的破纪录,如今已成常态。
结果是,这些人工智能公司从未像现在这样富有。今年三月,OpenAI 完成了 400 亿美元的融资,创下了有史以来最大规模的私营科技融资纪录,估值达到 3000 亿美元。Anthropic 的估值超过 600 亿美元。去年年底,六大科技巨头的市值在 ChatGPT 发布后总共增长了超过 8 万亿美元。与此同时,关于生成式人工智能的“真实经济价值”的质疑也日益增多,包括越来越多的研究表明,这项技术并未为大多数员工带来生产力提升,反而在削弱他们的批判性思维能力。
在去年十一月一篇回顾生成式人工智能行业的《彭博社》文章中,记者 Parmy Olson 和 Carolyn Silverman 简明扼要地总结道。文章写道,数据“提出了一个令人不安的前景:这项被誉为革命性的技术可能永远无法兑现其广泛经济变革的承诺,反而只会让财富更加集中于少数人手中。”
与此同时,全球许多地区面临的,不仅仅是生产力增长的停滞。人力和物质成本的激增正压在社会的广泛层面,尤其是最脆弱的群体——无论是全球北方的工人和农村居民,还是全球南方的贫困社区,我在世界各地遇到的这些人,都在经历前所未有的不稳定。肯尼亚的工人们为了过滤 OpenAI 技术(包括 ChatGPT)中的暴力和仇恨言论,拿着极其低劣的工资。艺术家们正被那些未经他们同意或补偿、却以他们作品为基础训练出来的 AI 模型所取代。新闻行业正在萎缩,生成式 AI 技术催生了大量虚假信息。我们眼见着一个古老的故事重演:就像昔日的帝国一样,新的 AI 帝国正在跨越时空积累惊人的财富,而代价却由其他所有人承担。
为了平息外界对生成式 AI 当前表现的担忧,Altman 愈发高调地宣扬 AGI 未来的好处。在 2024 年 9 月的一篇博客文章中,他宣称“智能时代”即将来临,这一时代将以“巨大的繁荣”为特征。此时的 AGI 更多是一个修辞手法——一个奇幻的、万能的借口,让 OpenAI 得以继续追逐更多的财富和权力。在所谓文明使命的幌子下,AI 帝国正加速全球扩张,巩固其统治地位。
至于 Sutskever 和 Murati,两人在员工口中所谓的“闪断事件”后离开了 OpenAI,成为一长串与 Altman 发生冲突后离开的领导者之一。和许多未能改变 OpenAI 的人一样,他们选择了另一条热门道路:各自创办了自己的公司,争夺这项技术的未来。