ChatGPT的权力斗争:Open AI周末“政变”真相揭秘

2023年11月21日,08时30分34秒 科技新知 阅读 17 views 次

原标题:在混乱中的OpenAI

萨姆·奥特曼的震惊周末始于一年前,即ChatGPT的发布

作者:凯伦·豪和查理·沃泽尔

要真正理解过去48小时发生的事件——OpenAI首席执行官萨姆·奥特曼的出人意料的罢免,他可谓生成式人工智能革命的领军人物,紧接着有报道称该公司正试图将他召回——我们必须明白,OpenAI并不是一家技术公司。至少,它不像互联网时代的其他划时代公司那样,比如Meta、谷歌和微软

OpenAI成立于2015年,最初是一个非盈利机构,致力于创造能够惠及“全人类”的人工通用智能(AGI)。

根据公司的说法,AGI将足够先进,能够在“大多数具有经济价值的工作”上超越任何人——这正是需要负责任管理的强大技术。

在这种构想中,OpenAI将更像是一个研究机构或智囊团。公司的宪章直截了当地指出,OpenAI的“首要法定责任是对人类负责”,而不是对投资者或甚至是员工负责。

这种模式并没有持续太久。

2019年,OpenAI推出了一个“限制利润”的子公司,这使它能够筹集资金、吸引顶尖人才,并最终制造商业产品。但非盈利的董事会仍然保持着完全的控制权。

这些公司细节是OpenAI迅速崛起和奥特曼令人震惊的陨落的核心故事。

上周五,奥特曼被OpenAI董事会解雇,是公司两个意识形态极端之间权力斗争的高潮——一个群体源自硅谷的技术乐观主义,对快速商业化充满活力;另一个群体深陷对人工智能对人类构成的存在风险的恐惧中,必须极其谨慎地加以控制。多年来,这两方设法共存,虽然途中有些颠簸。

这种微妙的平衡在一年前几乎就在这一天被打破了,这要归功于当前和前任员工所说的,使OpenAI走向全球知名的正是那个原因:ChatGPT。

从外界看来,ChatGPT似乎是有史以来最成功的产品发布之一。它的增长速度超过了历史上任何其他消费者应用,似乎单枪匹马地重新定义了数百万人对自动化的威胁和承诺的理解。但它使OpenAI朝着完全相反的方向发展,加剧并恶化了已经存在的意识形态裂痕。

ChatGPT加速了为了利润而创造产品的竞赛,同时给公司的基础设施和专注于评估和缓解技术风险的员工带来了前所未有的压力。

这加剧了OpenAI内部派系之间已经紧张的关系——奥特曼在2019年的一封员工邮件中将其称为“部落”。

《大西洋月刊》与OpenAI的10名现任和前任员工的对话中,揭示了公司发生的一场变革,这导致领导层之间出现了无法持续的分裂。(我们同意不透露任何员工的姓名——他们都告诉我们,他们担心坦率地向媒体透露OpenAI内部情况会带来后果。)

他们的描述共同描绘了这样一个画面:随着时间的推移,盈利部门商业化的压力日益增加,与公司的既定使命发生了冲突,直到ChatGPT和其他紧随其后的产品发布使一切达到了顶点。

“在ChatGPT之后,赚取收入和利润的道路变得清晰,”一位消息人士告诉我们。“你再也无法为作为一个理想主义研究实验室的身份辩护了。这里有客户正在等待服务。”

我们仍然不确切知道奥特曼为何被解雇,也不清楚他是否会回到原来的职位。今天下午,奥特曼访问了位于旧金山的OpenAI总部,讨论可能的协议,但他没有回应我们的置评请求。

董事会在上周五宣布,一项“审慎的审查过程”发现他在与董事会的沟通中“并不总是坦率”,这导致董事会对他担任OpenAI首席执行官的能力失去信心。随后,一份由首席运营官发给员工的内部备忘录(一位OpenAI发言人证实了此事)指出,解雇是由于奥特曼与董事会之间的“沟通断裂”,而不是由于“不法行为或与我们的财务、商业、安全或安全/隐私实践有关的任何事项”。但没有给出具体的详细信息。我们所知道的是,过去一年在OpenAI是混乱的,主要由公司方向上的明显分歧所定义。

2022年秋天,在ChatGPT发布之前,OpenAI的所有员工都在为其迄今为止最强大的大型语言模型GPT-4的发布做准备。团队们忙于完善这项技术,它能够流畅地写作和编码,并根据文本生成图像。

他们努力准备支持产品所需的基础设施,并完善将决定OpenAI允许和不允许的用户行为的政策。

在这一切中,OpenAI内部开始流传有关其竞争对手Anthropic正在开发自己的聊天机器人的传闻。这场竞争是私人的:Anthropic是在一群员工于2020年离开OpenAI后成立的,据报道,这是因为他们对公司产品发布速度的担忧。

据三位当时在公司的人士称,OpenAI的领导层在11月告诉员工,他们需要在几周内推出一个聊天机器人。为了完成这一任务,他们指示员工发布一个现有模型,GPT-3.5,并配备了一个基于聊天的界面。领导层小心地将这一努力描述为不是一次产品发布,而是一个“低调的研究预览”。通过将GPT-3.5交到人们手中,奥特曼和其他高管表示,OpenAI可以收集更多关于人们如何使用和与AI互动的数据,这将有助于公司指导GPT-4的开发。

这种方法也符合公司更广泛的部署策略,逐渐向世界发布技术,让人们逐渐适应它们。包括奥特曼在内的一些高管开始重复同样的话:OpenAI需要让“数据飞轮”转起来。

一些员工对于匆忙推出这种新的对话模型表示不安。公司在为GPT-4的准备工作中已经力不从心,而且并不具备处理可能改变风险格局的聊天机器人的能力。

就在几个月前,OpenAI刚刚上线了一种新的流量监控工具,用于跟踪基本的用户行为。公司仍在完善该工具的功能这将进而指导公司如何减轻技术可能带来的危险和滥用。

其他员工则认为,将GPT-3.5变成一个聊天机器人可能不会带来太大的挑战,因为该模型本身已经经过了充分的测试和完善。

公司继续推进,并于11月30日发布了ChatGPT。

这被认为是一个无关紧要的事件,以至于没有进行任何重大的公司范围内的发布通知。许多没有直接参与的员工,包括那些在安全功能方面的员工,甚至没有意识到这一事件的发生。

据一位员工说,一些知情的人甚至开始了一个赌注池,赌注是在第一周内可能有多少人使用这个工具。最高的猜测是10万用户。

OpenAI的总裁在推特上宣布,这个工具在最初五天内达到了100万用户。在OpenAI内部,“低调研究预览”这一说法立即成为了一个热门梗;员工们将其制成了笔记本电脑贴纸。

ChatGPT的飞速成功给公司带来了巨大的压力。来自研究团队的计算能力被重新分配,以处理流量激增。

随着流量的持续激增,OpenAI的服务器多次崩溃;流量监控工具也屡屡失效。即使在工具在线的时候,员工也因其功能有限而难以详细了解用户行为。

公司内的安全团队推动放慢进程。这些团队努力完善ChatGPT,拒绝某些类型的滥用请求,并对其他查询作出更合适的回答。但他们在构建诸如自动禁止重复滥用ChatGPT的用户的功能时遇到了困难。

与此相反,公司的产品部门希望借助这股势头,加大商业化力度。公司雇佣了数百名员工,以积极扩大公司的产品供应。2月,OpenAI发布了付费版本的ChatGPT;3月,公司迅速推出了API工具(应用程序编程接口),帮助企业将ChatGPT集成到他们的产品中。两周后,它最终推出了GPT-4。

据当时在公司的三名员工说,一系列新产品使情况变得更糟。

流量监控工具的功能严重滞后,对来自哪些产品的流量有限的可见性,这些产品是通过新的API工具将ChatGPT和GPT-4集成进来的,这使得理解和阻止滥用变得更加困难。

与此同时,API平台上的欺诈行为激增,因为用户大规模创建账户,允许他们利用每个新账户附带的20美元按需付费服务信用额进行套现。阻止欺诈成为遏制收入损失和防止用户通过创建新账户来规避滥用执法的首要任务:原本人手就不足的信任与安全工作人员被重新分配,从其他滥用领域转移到这个问题上。

在不断增长的压力下,一些员工出现了心理健康问题。沟通不畅。同事们只有在Slack上注意到同事消失后,才发现他们已经被解雇。

GPT-4的发布也让专注于更上游人工智能安全挑战的对齐团队感到沮丧,比如开发各种技术来使模型遵循用户指令,防止它发出有毒言论或“幻觉”——即自信地将错误信息作为事实呈现。

该团队的许多成员,包括越来越多对更高级人工智能模型的存在风险感到恐惧的成员,对GPT-4发布和广泛集成到其他产品的速度感到不安。

他们认为自己所做的人工智能安全工作还不够。

紧张情绪在高层爆发。随着奥特曼和OpenAI总裁格雷格·布罗克曼鼓励更多的商业化,公司首席科学家伊利亚·苏茨克弗对OpenAI是否能够维持其创立非盈利组织的使命——创建有益的AGI——越来越感到担忧。

根据人工智能先驱杰弗里·辛顿的说法,辛顿是苏茨克弗在多伦多大学的博士导师,并且多年来一直与他保持密切联系,OpenAI的大型语言模型在过去几年中的快速进步使苏茨克弗更加确信AGI的到来指日可待,因此更加专注于预防其可能的危险。(苏茨克弗没有回应置评请求。)

预见到这种全能技术的到来,苏茨克弗开始表现得像一个精神领袖,三名与他共事的员工告诉我们。他不断、热情地重复的口头禅是“感受AGI”,这是指公司即将实现其终极目标的想法。

在OpenAI 2022年的假日派对上,该派对在加州科学院举行,苏茨克弗带领员工高喊:“感受AGI!感受AGI!”这个短语本身非常受欢迎,以至于OpenAI的员工在Slack中创建了一个特殊的“感受AGI”反应表情符号。

随着苏茨克弗对OpenAI技术的力量越来越有信心,他也越来越与公司内部关注存在风险的派系结盟。

据两位了解今年领导层外出活动的人士透露,苏茨克弗委托当地艺术家制作了一个木制雕像,意在代表一种“不对齐”的人工智能——即不符合人类目标的人工智能。他将其点燃,象征着OpenAI对其创立原则的承诺。

7月,OpenAI宣布成立所谓的超级对齐团队,由苏茨克弗共同领导研究。OpenAI将扩大对齐团队的研究,以开发更多上游人工智能安全技术,并为本世纪可能到来的AGI做准备,公司将为此专门分配20%的现有计算芯片

与此同时,公司的其他部分继续推出新产品。

在超级对齐团队成立后不久,OpenAI发布了强大的图像生成器DALL-E 3。然后,在本月早些时候,公司举办了其首次“开发者大会”,在大会上,奥特曼推出了GPTs,这是可以无需编码即可构建的ChatGPT定制版本。

这些再次遇到了重大问题:根据公司的更新,OpenAI经历了一系列停机,包括ChatGPT及其API的大规模停机。开发者大会结束后三天,据CNBC报道,微软因安全担忧暂时限制员工访问ChatGPT。

在这一切中,奥特曼继续前进。

在被解雇前的几天里,他一直在为OpenAI的持续进步制造热潮。他告诉《金融时报》,公司已经开始研发GPT-5,几天后又暗示在亚太经合组织峰会上有惊人的事情即将发生。“就在过去的几周里,我有幸在房间里,当我们推开无知的面纱,将发现的前沿向前推进时,”他说。“能够做到这一点是我职业生涯中的荣耀。”

据报道,奥特曼还在寻求从软银和中东投资者那里筹集数十亿美元,以建立一家芯片公司,与英伟达和其他半导体制造商竞争,以及降低OpenAI的成本。

在一年的时间里,奥特曼帮助OpenAI从一个混合研究公司转变为一个全面增长模式的硅谷科技公司。

在这种情况下,不难理解紧张情绪为何会爆发。

OpenAI的宪章将原则置于利润、股东和任何个人之上。公司的部分创始人正是苏茨克弗现在代表的那个派系——那些对人工智能潜在风险感到恐惧的人,他们的信念有时似乎植根于科幻领域——这也构成了OpenAI现任董事会的一部分。

但奥特曼也将OpenAI的商业产品和筹资努力定位为实现公司最终目标的手段。他告诉员工,公司的模型仍处于早期开发阶段,OpenAI应该商业化并产生足夠的收入,以确保能够在对齐和安全问题上无限制地投入资金;据报道,ChatGPT正朝着每年产生超过10亿美元的速度发展。

从一个角度看,奥特曼的解雇可以被视为OpenAI不寻常结构中的一个惊人实验。

现在,这个实验可能正在解体我们所熟悉的公司,并随之改变人工智能的发展方向。如果奥特曼在投资者的压力和现任员工的强烈反对下返回公司,这一举动将是对奥特曼权力的巨大集中。

这将表明,尽管有其宪章和崇高的信条,OpenAI可能毕竟只是一家传统的科技公司。

另一方面,无论奥特曼留下还是离开,都无法解决人工智能发展中存在的一个危险缺陷。过去24小时,科技行业屏息以待,等待着看奥特曼和OpenAI的命运。

尽管奥特曼和其他人对监管表示口头支持,并说他们欢迎全世界的反馈,但这个动荡的周末展示了在可能是我们时代最重要的技术进步上,实际上有多少人能发表意见。

人工智能的未来正被富有的技术乐观主义者、狂热的末日论者和数十亿美元的公司之间的意识形态斗争所决定。

OpenAI的命运可能悬而未决,但公司的自负——它的名称所代表的开放性——显示了其局限性。

看来,未来将在闭门之后被决定。

(来源:新浪科技)



用户登录