OpenAI 是一家人工智能(AI)公司,因其大获成功的 ChatGPT 服务而闻名。山姆-奥特曼(Sam Altman)是该公司的首席执行官,也可以说是通用人工智能(AGI)开发竞赛中最重要的人物,他被 OpenAI 的非营利性董事会解雇了,董事会(虽然细节还不清楚)担心奥特曼在考虑人工智能可能对社会造成的危险时不够谨慎。
但董事会的行动似乎适得其反。阿尔特曼刚刚被解雇,与 OpenAI 有着紧密合作关系的微软就宣布聘请他领导微软内部的人工智能研究部门。而且,面对 OpenAI 员工近乎全面的反抗,董事会最终同意重新聘请 Altman 担任首席执行官,而当初解雇他的几位成员也辞职了。
这是一个充满戏剧性的故事–既有趣又令人费解–毫无疑问,它将在科技行业内被讨论多年。但除了对硅谷的影响之外,它还为人工智能的未来监管者们提供了一个重要的教训:有意义的自我监管,尤其是通过巧妙的公司形式进行自我监管的可能性,只是一种幻想。公司内部的权力斗争以及非营利性董事会最终未能维持对这家日益商业化的公司的控制,都提醒我们,如果社会想要减缓这项可能具有划时代意义的技术的推广速度,就必须采用老办法:通过自上而下的政府监管。
OpenAI 的显著特点不仅在于其令人难以置信的技术进步,还在于其复杂而不寻常的公司形式–以及这种公司形式所做出的史无前例的决定。OpenAI 成立于 2015 年,最初注册为一家非营利性研究机构,旨在以造福人类的方式帮助开发 AGI。
但人工智能,尤其是 AGI,成本高昂。由于纯粹的非营利实体显然没有足够的资源用于训练和运行高度复杂的模型所需的数据和计算,OpenAI 在 2019 年进行了重组,成立了一家 “有上限”的营利性子公司,在法律上要求其坚持非营利组织的使命,即建设 “造福全人类”的安全 AGI,并限制其为投资者提供的财务回报。至少在硅谷,这一不同寻常的使命的担保人是一个非营利董事会,它控制着非营利组织,而非营利组织又控制着营利子公司。董事会成员并非通常意义上的技术推动者,其中不乏对人工智能快速发展的严肃批评者,其中最著名的是海伦-托纳(Helen Toner)。
然而,随着时间的推移,OpenAI 的价值观开始发生转变。根据美国国税局(IRS)的文件,到 2018 年,该公司已不再吹嘘其 “公开分享我们的计划和能力”的承诺;到 2021 年,其目标已变成 “构建通用人工智能”,这与商业产品化的利益不谋而合,而不是更开放的、以研究为导向的 “推进数字智能”的使命。
在成立营利性子公司的同时,OpenAI 还与微软建立了 “战略合作伙伴关系”,微软将向 OpenAI 投资高达 130 亿美元,其中很大一部分是以微软云计算平台 Azure 上计算积分的形式提供的。据报道,微软持有该公司 49% 的股份,在获得投资回报之前,微软将获得 OpenAI 75% 的利润。这并不是 OpenAI 与微软的第一次合作–2019 年,微软购买了支持 ChatGPT 的 GPT-3 技术的独家授权。有了一家营利性子公司和一家科技巨头作为部分所有者,足以说明 OpenAI 不再是一家纯粹的研究机构。
如果这一切听起来有点复杂,甚至有点语无伦次,那是因为事实如此。这是一个由研究实体和盈利实体交替组成的俄罗斯玩偶。非营利性初创企业可能并不少见,但不同部门目标之间的紧张关系肯定会造成混乱。一旦OpenAI走上商业化道路–即使是为了实现研究如何让AGI对人类安全的崇高目标–这两种动机就不可避免地会相互碰撞。
撇开OpenAI迷宫般的公司结构不谈,创新的教堂里一直容纳着两派思想:以科学为主要驱动力的思想和以将产品推向市场为主要驱动力的思想。在人工智能的推动下,每种方法的功能和缺陷都变得具有生存意义和灾难性–拯救人类与防止世界末日。早在 Altman 下台之前,OpenAI 内部 “助推者”和 “毁灭者”之间的紧张关系就已暗流涌动。”助推者”希望加快部署强大的人工智能系统,而 “毁灭者”则担心这些系统会带来生存危险。这个问题在 2020 年首次爆发,当时,以当时的研究副总裁达里奥-阿莫代(Dario Amodei)为首的 11 名 OpenAI 员工对公司放弃安全研究的做法感到失望,于是离开公司,成立了一家 AGI 研究公司 Anthropic,该公司声称体现了前员工认为 OpenAI 已经放弃的谨慎态度。2022 年,OpenAI 发布了 ChatGPT,疏远了一部分员工,他们认为这一决定为时过早且不负责任。
包括 OpenAI 首席科学家伊利亚-苏茨基弗(Ilya Sutskever)在内的这些预言家们担心,一旦 OpenAI 开始赚取数十亿美元并有客户需要满足,商业需要就会挤掉 OpenAI 最初谨慎研究的使命,这是可以理解的。而微软(即使以硅谷的标准来看,它也是出了名的 “割喉式”公司)的出现,也让 Sutskever 和 OpenAI 内部其他 “慢热派”的立场变得更加坚定。
另一方面,以萨姆-奥特曼本人为首的支持者则希望在继续向真正的人工智能迈进的同时,尽快向公众展示这项强大的新技术。Y Combinator 是一家初创企业加速器,其宗旨是尽快培养出具有影响力、颠覆性的科技公司。作为 Y Combinator 的前首席执行官,阿尔特曼被认为是 ChatGPT 公开发布以及 OpenAI 随后快速实现基础模型产品化的推动力。具有讽刺意味的是,据说 ChatGPT 快速发布的部分原因是担心注重安全的 Anthropic 正在开发自己的聊天机器人。阿尔特曼击败了他们。
Altman 的人工智能布道活动也没有因为 OpenAI 而停止;Altman 在其公司之外的交易似乎与公司缓慢、谨慎研究的初衷相悖。据报道,在被解雇前的几周,阿尔特曼正在为一家新的人工智能芯片企业寻求资金。人工智能芯片技术将启动人工智能的发展,进一步激励公司更快地发布新机型。
11 月 17 日,董事会解雇了阿尔特曼,这场内部的 “斗鸡”游戏达到了第三次高潮。虽然起因尚不清楚,但在解雇阿尔特曼前不久,董事会收到了几位OpenAI研究人员的来信,信中警告说,被称为Q*的算法突破可能会大大缩短实现AGI所需的时间。也许是突然意识到 OpenAI 的研究已经取得了多大进展,董事会的一些成员认为 Altman 没有 “在与董事会的沟通中始终保持坦诚”(不过,鉴于董事会成员之一就是 Sutskever 本人,董事会怎么可能对 OpenAI 的研究人员一无所知,这一点仍不清楚)。
甚至在这封信发出之前,董事会的一些成员似乎就已经对OpenAI在安全和谨慎研究方面的承诺失去了信心,其主要怀疑论者海伦-托纳(Helen Toner)还撰写了一篇论文,称赞Anthropic公司的方法优于OpenAI的方法。由于对OpenAI负责任的做法缺乏信心,再加上人们意识到AGI并不像最初想象的那样遥不可及,这让人们对阿尔特曼的领导能力产生了怀疑。为了强调这一决定在多大程度上是出于安全考虑,据报道,董事会与 Anthropic 的首席执行官阿莫代(Amodei)进行了接触,希望他能担任首席执行官一职,并促成两家公司的潜在合并。
最终,无论对错,董事会认为 Altman 没有完成 OpenAI 谨慎研究人工智能的使命–强调是 “谨慎”–并解雇了他,这是董事会的权利。阿尔特曼本人也强调,董事会能够解雇他是多么 “重要”,因为 “不应该信任一个人”来控制人工智能。
但很明显,董事会罢黜阿尔特曼的企图适得其反。Altman 很快就得到了硅谷其他公司的普遍支持。最有说服力的是,OpenAI 的 770 名员工中有 700 多人签署了一封信,要求奥特曼复职并要求董事会辞职。奇怪的是,据说在奥特曼下台事件中起了关键作用的苏茨克沃本人也在信上签了字。(苏茨克沃后来表示,他对自己的参与 “深表遗憾”,并 “将尽我所能重整公司”)。
董事会的决定在很多方面都适得其反。如果说董事会的主要动机是维护 OpenAI 谨慎研究的目标(大概是为了保护公众免受有害人工智能的危害),那么它显然没有预料到周末会以怎样的方式展开。阿尔特曼被解雇后不久,微软先是表示对这一政变毫不知情,随后又迅速聘请了阿尔特曼和 OpenAI 前总裁格雷格-布罗克曼(Greg Brockman)。因此,董事会的决定可能会将一位人工智能布道者从一个对他部署技术的野心有一些内在制约的环境中转移到一个有公司资源支持的环境中,在这样的环境中,他可以自由地–事实上是被鼓励–尽可能快地建立和发布基础模型。
最终,阿尔特曼没有去微软,但这只是因为董事会向不可避免的结果低头,重新聘请了阿尔特曼。不仅如此,投票解雇阿尔特曼的两位董事会成员托纳和科技企业家塔莎-麦考利也辞职了(第三位赶走阿尔特曼的成员、Quora 首席执行官亚当-德安杰洛目前仍在董事会任职)。这位负责任的人工智能研究的公众形象的陨落,以及他先是作为一家咄咄逼人的营利性技术公司的员工,然后又重新掌舵 OpenAI(现在的董事会已被阉割)的重新崛起,表明了依靠行业自治的脆弱性,并使人们对无数公司为负责任的人工智能所做的自愿承诺的有效性和可靠性产生了严重怀疑。一家重视人工智能安全和将人工智能推向市场的公司,总是不得不在两者之间做出权衡,而从长远来看,无论是在公司内部,还是在更广阔的市场上,商业需求都是难以抗拒的。
这也对人工智能人才和投资的去向产生了更广泛的影响。OpenAI的董事会承认,摧毁该公司可能 “符合”确保人工智能安全的 “使命”,而公司需要所有人才来更快地推出更多产品,如果要在这样一个组织的工作保障问题和公司的工作保障之间做出选择,不难猜测人才的去向。除了人才,这一事件还可能影响风险投资的去向。这一事件虽然不那么显眼,但同样重要,甚至更重要,它可能会影响人工智能行业在多大程度上听从末日论者的警告,并尊重谨慎研究的原则,或者说,在人工智能领域,偏见、安全和隐私是否会被忽视。
到目前为止,OpenAI 的混乱与该公司、其员工和投资者以及更广泛的人工智能社区关系最为密切。但对于未来的监管者来说,教训已经逐渐凸显。具体来说,很明显,如果人工智能对社会构成系统性风险,依靠人工智能公司自我监管是不现实的。不断推陈出新的压力–无论是科学压力还是经济压力–都太大了,而且人工智能公司根本没有可信的方式来承诺缓慢前进和不破坏太多东西。
迄今为止,美国联邦政府在人工智能方面的做法包括自愿承诺、指导方针和一项行政命令,该行政命令的主要目的是启动更多的研究和指导,同时对联邦承包商提出一些要求。其中几项最严厉的规定仅适用于尚未开发的模型。虽然这并不是一个糟糕的地方,但何时、是否以及如何制定出具有约束力的义务仍是个未知数。我们并不是不考虑这些义务–概述人工智能自愿承诺的同一份文件指出,这些义务 “只是制定和执行具有约束力的义务以确保安全、保障和信任的第一步”。要对人工智能进行适当监管,还需要 “新的法律、规则、监督和执行”。
这种做法让人想起科技监管的另一个领域:网络安全。数十年来,科技公司以各种方式逃避对不安全产品的责任追究。即使在网络安全状况不佳对普通个人或企业以及整个关键基础设施的社会威胁变得非常明显之后,政府仍然选择推行自愿性框架,而不是对改善网络安全提出具体要求。这种做法被普遍认为是失败的,拜登政府的《国家网络战略》最终承认了这一点,并呼吁软件制造商承担更大的责任。这份文件强调了安全界早就得出的结论: 行业激励措施不仅不足以促进强大的网络安全,而且往往与强大网络安全的目标背道而驰。为了安全设计而放慢开发速度是得不偿失的。同样的教训也适用于人工智能–当行业激励机制与公众利益错位时,即使是最善意的公司也无法抵挡市场驱动力的枷锁。
这并不是要评论自上而下的人工智能监管应该是什么样子,甚至不是要评论自上而下的监管在所有情况下是否是合适的策略。人工智能加速论者关注的是人工智能潜在的巨大社会、经济和技术优势,他们担心监管会阻碍人工智能带来的好处,这种担心不无道理。这里不适合在支持者和反对者之间做出评判。
但无论正确答案是什么,社会都不能只相信科技行业能得出结论。如果社会决定需要对人工智能进行监管,OpenAI 最近的崩溃说明了为什么这种监管必须来自高层。