微软和 OpenAI 曾精心制定了一个协议,目的是既要雄心勃勃又要确保安全地发布人工智能产品。然而,OpenAI 的董事会突然打破了所有这些精心策划的计划。
作者:Charles Duhigg,2023年12月1日
在感恩节前一个星期五的上午 11:30 左右,微软的首席执行官 Satya Nadella 正在和高层领导开例会,突然一位急匆匆的同事让他接听电话。电话是来自 OpenAI 的一位高管,他告知 Nadella,OpenAI 的董事会即将在 20 分钟内宣布解雇其首席执行官兼联合创始人 Sam Altman。这个消息标志着微软一场长达五天的危机的开始,一些员工甚至将其戏称为“火鸡射击大混乱”。
Nadella 性格平和,但这突如其来的消息令他目瞪口呆,一时竟不知所措。他与 Altman 合作已超过四年,对他的能力和人品充满信任与敬佩。更重要的是,他们的合作才刚刚推出了微软十年来最重要的项目之一:一系列基于 OpenAI 技术开发、并整合进微软核心办公软件(如 Word、Outlook 和 PowerPoint)的先进 AI 助手。这些 AI 助手——可以看作是 OpenAI 著名的 ChatGPT 的专业版和加强版——被称为 Office Copilots。
然而,Nadella 并不知道的是,Altman 与 OpenAI 董事会之间的关系已经变得紧张。董事会的六名成员中,有些人认为 Altman 行事狡猾、操控性强,这在科技公司的 CEO 中并不罕见,但对于那些来自学术界或非营利组织背景的董事会成员而言,却颇为反感。一位了解董事会内情的人士透露:“他们觉得 Sam 在撒谎。” 这些紧张的关系如今在 Nadella 面前爆发,给这一关键合作关系蒙上了阴影。
多年来,Microsoft 并未在科技界领先,但其与 OpenAI(2015 年成立为非盈利机构,四年后增设了盈利部门)的合作让这个计算机巨头超越了 Google 和 Amazon 等竞争对手。Copilots 让用户像对话似地向软件提问——例如询问“视频会议中各个计划的优缺点是什么?”或“这二十个电子表格中哪个产品最赚钱?”——并能迅速用流利的英语得到回答。Copilots 甚至能根据简单指令撰写完整文件(比如:“分析我们过去十份执行概要,编制过去十年的财务报告。”),它们还能把一份备忘录变成 PowerPoint 幻灯片,甚至能在 Teams 视频会议中听取讨论内容,然后用多种语言进行总结,为参会者整理待办事项。
打造 Copilots 需要与 OpenAI 紧密合作,这种合作是 Nadella 对 Microsoft 未来规划的核心。尤其是,Microsoft 与 OpenAI 工程师共同努力,增设了安全防护措施。OpenAI 的核心技术 GPT(生成式预训练 Transformer)是一种大语言模型 AI。GPT 通过消化互联网和其他数字资源库的公开文本,利用复杂的数学关系模拟人类对话。虽然这样的系统取得了惊人的成果,但它们也有明显缺陷,比如可能“幻觉”或编造事实,或者帮助人们进行不良行为(如制作芬太尼配方),还可能无法区分合法问题(如:“我该如何和青少年谈论毒品?”)与不良提问(如:“我该如何诱使青少年吸毒?”)。Microsoft 和 OpenAI 制定了一套协议,将安全防护纳入 AI 工具,他们相信这可以让他们既有雄心又能避免灾难性风险。Copilots 的推出——从今年春天开始,最初面向特定企业客户,11 月进一步扩展——标志着两家公司的辉煌时刻,证明了 Microsoft 和 OpenAI 将在将人工智能推广给更广泛公众中发挥关键作用。尽管 2022 年底推出的 ChatGPT 取得了巨大成功,日活跃用户达到约 1400 万,但 Microsoft 的用户量超过了 10 亿。
在从对 Altman 被解雇的震惊中缓过神来后,Nadella 打电话给 OpenAI 董事会成员 Adam D’Angelo,追问事件的细节。D’Angelo 的回答含糊其辞,不久后,这种说法也出现在新闻稿里:原因是 Altman 在与董事会的沟通中并未始终保持坦诚。尽管 Altman 没有做出不当行为,但 D’Angelo 没有进一步解释。似乎他和同事故意没让 Nadella 知道解雇 Altman 的计划,因为他们不想让 Nadella 事先警告 Altman。
Nadella 因无法参与这个重要决策而感到沮丧,毕竟 Microsoft 持有 OpenAI 盈利部门近一半的股份。他意识到,这次解雇可能会在 OpenAI 内部引发混乱,甚至可能在整个科技界掀起波澜,因为这个行业一直在热烈讨论 AI 的快速发展是值得庆祝还是应该引起警惕。
Nadella 接着联系了 Microsoft 的首席技术官 Kevin Scott,这位负责人是推动 OpenAI 合作的关键人物。Scott 已经听说了这一消息,因为这个消息传播得非常快。他们随后与其他 Microsoft 的高层进行了视频通话。他们讨论了这样一个问题:Altman 被解雇是否因为在推出 AI 产品时,围绕速度与安全的紧张关系?OpenAI 和 Microsoft 的部分员工以及科技界的其他人士都已对 AI 公司盲目前行表示担忧。甚至 OpenAI 的首席科学家兼董事会成员 Ilya Sutskever 也公开谈及了不加约束的 AI “超级智能”的风险。2023 年 3 月,就在 OpenAI 发布迄今最强大的 AI 模型 GPT-4 之后,包括 Elon Musk 和 Steve Wozniak 在内的数千人签署了一封公开信,呼吁暂停开发高级 AI 模型。“我们真的应该让机器在信息渠道中散播宣传和虚假信息吗?”、“我们真的愿意冒着失去对文明控制的风险吗?”这封信被许多硅谷观察家视为对 OpenAI 和 Microsoft 的明确批评。
Kevin Scott 对人们对 AI 的担忧持有一定的理解。他认为,关于 AI 的讨论过于专注于像电脑毁灭人类这样的科幻情节,却忽视了这项技术实现“公平竞技场”的潜力。Scott 认为,对于那些明确知道自己希望电脑完成什么任务,但又缺乏相关技能的人来说,AI 可以成为一种变革性的、平等化的力量——前提是它的构建要足够谨慎,引入过程也需要充分的耐心。
Scott 和他在 OpenAI 的伙伴们决定缓慢但持续地推出 AI 产品,以此在公众面前进行实验,将大量非专业人士纳入实验的过程中。Microsoft 会观察这些没有受过专业训练的用户如何与这项技术互动,而用户们则会通过实际使用来了解这项技术的优势和局限。通过发布尚不完美的 AI 软件,并从客户那里收集坦诚的反馈,Microsoft 找到了一种既能改善技术,又能培养用户对技术持怀疑态度的方法。Scott 相信,管理 AI 风险的最佳方式是尽可能地对更多人保持透明,并让技术逐渐融入我们的日常生活——从最普通的用途开始。而且,有什么比通过像文字处理器这样平凡的工具来教人们使用 AI 更好的方法呢?
然而,所有 Scott 精心规划的定位现在都面临风险。随着越来越多的人了解到 Altman 被解雇的消息,充满对 Altman 和 OpenAI 使命的狂热信念的 OpenAI 员工开始在网上表达他们的不满。该公司的首席技术官 Mira Murati 被任命为临时首席执行官,这是一个她并不热衷的角色。不久之后,OpenAI 的总裁 Greg Brockman 发推表示自己辞职。其他 OpenAI 员工也开始威胁要辞职。
在与 Nadella 的视频通话中,Microsoft 的高层开始讨论对 Altman 被免职一事的可能回应。计划 A 是通过支持 Murati 来稳定局势,然后与她合作,探讨初创公司董事会是否可能撤销他们的决定,或至少对其鲁莽行为给出一个解释。
如果董事会拒绝接受提案,微软的高管们计划采取备选方案 B:利用公司的巨大影响力,包括已承诺但未付给 OpenAI 的数十亿美元资金,来支持重新任命 Altman 为首席执行官,并通过更换董事成员来重塑 OpenAI 的治理结构。一位了解这次谈话的人士透露:“从我们看来,之前的合作进展顺利,但 OpenAI 董事会的行为出人意料,因此我们考虑‘让更成熟的人来掌舵,恢复原有的运作状态。’”
如果上述计划行不通,他们还有计划 C:招募 Altman 及其最优秀的同事们,实际上是在微软内部重建 OpenAI。这样一来,微软将拥有所有新研发的技术,并能将其出售给其他企业,这可能带来巨大的经济收益。
视频会议上的团队认为这三个方案都很有力。“我们只想恢复正常运作,”一位内部人士表示。这背后的策略是,微软相信自己已经掌握了开发人工智能所需的关键方法、安全保障和框架。不管 Altman 的未来如何,微软都将继续其向大众普及人工智能的蓝图。
Kevin Scott 坚信人工智能能改变世界,这一想法源于技术如何深刻地改变了他的人生。他在弗吉尼亚州的小镇 Gladys 长大,那里离 Lee 向 Grant 投降的地方不远。他的家庭里从未有人上过大学,健康保险几乎是陌生概念。小时候,Scott 有时需要邻居帮助解决吃饭问题。他的父亲是越南战争退伍军人,尝试经营过加油站、便利店、货运公司和各种建筑业务,但最终两次宣布破产。
Scott 渴望不同的生活。他的父母给他买了一套百科全书,他像早期的大语言模型一样,从头到尾阅读了整套书。他还为了好玩拆解烤面包机和搅拌器。通过节省,他买到了 Radio Shack 最便宜的电脑,并通过查阅图书馆的书籍学会了编程。
在 Scott 出生之前的几十年,即 1972 年以前,Gladys 周边地区曾是家具和纺织工厂的聚集地。但到了 Scott 的青少年时代,许多制造业已经迁移到了海外。似乎是由于供应链自动化和电信技术的进步,使得在成本较低的国外生产变得更加简单。但 Scott 即便在青少年时期,就觉得技术并非真正的问题所在。他曾在 9 月份对我说:“我们国家一直在自我安慰,认为外包是不可避免的。但我们本可以关注失去制造业的社会政治后果,或者强调保护社区的重要性,只是这些观点并未广为人知。”
Scott 在林奇堡学院(一所与基督教门徒派相关的本地学校)完成学业后,从维克森林大学获得了计算机科学硕士学位,并于 1998 年开始在弗吉尼亚大学攻读博士学位。他对人工智能(AI)充满了兴趣,但发现许多计算机科学家实际上把它看作是种类似占星术的存在。早期创建 AI 的尝试屡屡失败,使得这一领域被视为不切实际,在学术界和软件公司中这种看法已根深蒂固。不少顶尖的思想家也因此放弃了这一学科。到了 2000 年代,一些学者试图通过将其更名为“深度学习”来重振 AI 研究,但怀疑态度依然存在。在 2007 年的一次 AI 会议上,一些计算机科学家甚至制作了恶搞视频,暗示深度学习的研究者们像山达基教徒一样。
然而,在攻读博士期间,Scott 发现一些他遇到的顶尖工程师都强调作为短期悲观主义者和长期乐观主义者的重要性。Scott 表示:“这几乎是必须的。你看到的都是世界的不完美之处,你的任务 就是去修复它们。”即便这些工程师知道他们的尝试大多数可能会失败,甚至有些尝试可能会让情况变得更糟,但他们仍然“必须相信自己能够逐步解决问题,直到最终让世界变得更好。”
2003 年,Scott 暂别了他的博士学业,加盟 Google,负责移动广告领域的工程管理。几年后,他离开 Google,加入了一家名为 AdMob 的移动广告初创企业,负责工程和运营工作,这家公司后来被 Google 以 7.5 亿美元收购。随后,他加入了 LinkedIn,在那里以其出色的项目构想能力而著称,擅长以既鼓舞人心又切合实际的方式规划宏伟项目。他曾在第一次团队会议上直言“这里的运营一团糟”,但同时让团队相信最终能创造出像“黑马”那样的杰作。一位员工说:“我们都被他吸引住了。” 2016 年,LinkedIn 被 Microsoft 收购。
那时,Scott 已是身价不菲,但在科技界并不出名。作为一个不喜欢人群的人,他对这种默默无闻感到满足。本打算在 Microsoft 完成收购后离开 LinkedIn,但 Microsoft 的 CEO Satya Nadella 劝他留下。Nadella 和 Scott 都对人工智能 (A.I.) 充满好奇,而最近在这一领域的突破——部分得益于更快速的微处理器——使 A.I. 变得更受重视:Facebook 发展了先进的面部识别系统,Google 则建立了能精准翻译语言的 A.I.。Nadella 不久宣布,未来 Microsoft 的一切将围绕 A.I. 展开。
Scott 对于自己和 Nadella 是否志同道合存疑。他在一份备忘录中向 Nadella 表示,如果留下,他希望能关注那些常被科技界忽视的群体。他向我透露,对许多人而言,只有当你精通编程或为大公司工作时,才能真正享受到计算机革命的红利。Scott 想让 A.I. 赋能那些虽富有智慧但缺乏数字教育的人群,正如他成长环境中的人们。这一主张颇具争议,尤其是在人们普遍担忧 A.I. 助力的自动化可能会取代杂货店收银员、工厂工人或电影临时演员等工作的背景下。
Scott 曾经分享过一个更为乐观的看法。他提到,曾有一段时间大约 70% 的美国人都在农业领域工作。随着技术的进步,对农业劳动力的需求减少了,如今只有 1.2% 的人口从事农业。但这并不意味着有成百上千的农民失业了:许多人转行成为了卡车司机、回校学习成为会计或找到了其他的出路。Scott 曾写道:“也许与以往任何技术革命相比,人工智能(A.I.)更有可能振兴美国梦。” 他认为,他在弗吉尼亚的一个童年朋友经营着一家养老院,可以利用 A.I. 来处理与医保和医疗补助计划的互动,从而更专注于日常护理。他的另一个朋友在为主题公园制造精密塑料零件的商店工作,也可以借助 A.I. 提高生产效率。Scott 信任,人工智能可以通过将“零和博弈”(即存在赢家和输家的局面)转变为“非零和进展”,从而使社会向好的方向发展。
Nadella 在阅读了这份备忘录后,像 Scott 所描述的那样,表示:“嗯,听起来不错。” 一周后,Scott 被任命为 Microsoft 的首席技术官。
Scott 若想让 Microsoft 成为人工智能革命的领头羊,他就必须帮助这家公司超越 Google。Google 通过向几乎任何取得即使是小成就的人提供数百万美元,囤积了大量人才。过去二十年间,Microsoft 也尝试过在内部的 A.I. 项目上投入数亿美元来竞争,但收效甚微。公司高管们开始意识到,像 Microsoft 这样拥有超过二十万员工和庞大的官僚体系的公司,并不适合快速灵活地开发 A.I. Scott 对我说:“有时候,小规模反而更有效。”
因此,他开始关注不同的创业公司,而 OpenAI 特别吸引人。OpenAI 的使命宣言承诺确保通用人工智能(AGI)——我们指的是能在大部分经济价值较高的工作中胜过人类的高度自主系统——造福全人类。微软和 OpenAI 之间已经建立了合作关系:这家创业公司之前使用了微软的云计算平台 Azure。2018 年 3 月,Scott 安排与这家位于旧金山的创业公司的一些员工会面。他对遇到许多年轻人感到非常高兴,这些年轻人放弃了大科技公司提供的数百万美元,选择为一个承诺不会“伤害人类或不当集中权力”的组织工作长达十八小时。首席科学家 Ilya Sutskever 非常关注如何应对可能解决人类大部分问题或带来大规模破坏和绝望的先进 A.I. 的出现。与此同时,Altman 作为一位充满魅力的企业家,致力于使 A.I. 既实用又有盈利性。Scott 认为这家创业公司的文化理想。OpenAI 致力于“聚焦最具影响力的事物”,他告诉我。“他们有一种真正的文化——这是我们想做的事情,这些是我们想解决的问题,一旦我们找到有效的方法,我们就会全力以赴。他们对未来有一个清晰的设想。”
OpenAI 已经取得了引人注目的成就:他们的研究人员创造了一个能解决魔方的机器手,即使在面对以前没有遇到的挑战时,比如某些手指被绑住,它也能解决。然而,Scott 最激动的是,在后来的一次会议上,OpenAI 的领导告诉他,他们已经放弃了机器手项目,因为它不够有潜力。“最聪明的人有时是最难管理的,因为他们有无数绝妙的想法,”Scott 说。但 OpenAI 的员工始终保持着极端的专注。在热情方面,OpenAI 介于 Up with People 和 Hare Krishnas 之间,员工们对他们的工作几乎有着救世主般的热情。今年 7 月我见到 Sutskever 后不久,他告诉我,“A.I. 将彻底颠覆人类生活的每一个领域”,可能会使像医疗保健这样的领域比现在好上亿倍。这种自信有时会让潜在投资者望而却步;但 Scott 却觉得这非常吸引人。
在 Microsoft 当时普遍的沮丧气氛中,这种乐观主义显得尤为突出。一位前高级执行官回忆,“大家都认为 AI 是一场关于数据的竞赛,Google 数据更多,我们处于绝对的劣势。”他补充道,“直到 Kevin 使我们相信还有另外一种方式,我才释怀。”Microsoft 和 OpenAI 的文化差异使他们成为了不同寻常的合作伙伴。但对 Scott 和 Altman 而言——Altman 曾在担任 OpenAI 首席执行官 (C.E.O.) 之前领导了创业加速器 Y Combinator——这种合作是理所当然的。
自 OpenAI 成立以来,随着其抱负的扩大,其计算能力和费用需求急剧增长。为了吸引巨额财力支持,OpenAI 成立了盈利部门,允许合作伙伴持有股份并回收投资。尽管如此,它的公司结构依然独特:盈利部门受非营利组织董事会监管,董事会由教授、非营利组织领袖和企业家组成,其中有些人在科技行业并无显著成就。大部分非营利组织董事会成员并不持有公司股份,公司章程要求他们以“人类福祉为最终受益者,而非 OpenAI 的投资者”作为治理原则。董事会有权解雇首席执行官,如果他们认为公司的发现给社会带来过大风险,他们甚至可以封锁这些技术,确保其安全。
Nadella、Scott 以及 Microsoft 的其他成员之所以能接受这些不寻常之处,是因为他们坚信通过整合 OpenAI 的技术以增强他们的产品,并且利用这家初创企业的人才和雄心,将使他们在人工智能竞赛中拥有显著的优势。2019年,Microsoft 决定向 OpenAI 投资十亿美元。自那时起,这家计算机巨头实质上获得了 OpenAI 盈利部门 49% 的股份,并拥有了在 Word、Excel、Outlook 等更新产品中,以及 Skype 和 Xbox 游戏机等,甚至可能推出的新产品中,商业化 OpenAI 过去和未来发明的权利。
Nadella 和 Scott 对这笔投资充满信心,部分原因在于他们与 Altman、Sutskever 以及 OpenAI 首席技术官 Mira Murati 建立了深厚的关系。Scott 尤其珍视与 Murati 的联系。和他一样,她也是在贫困中长大。她 1988 年出生于阿尔巴尼亚,在那里她经历了独裁政权的余波、黑帮资本主义的兴起和内战的爆发。她通过参加数学竞赛来应对这些动荡。她曾被一位老师告知,只要 Murati 愿意穿越炸弹坑去上学,这位老师也愿意做同样的努力。
16 岁那年,Murati 赢得了前往加拿大一所私立学校的奖学金,并在那里表现出色。她曾在夏天告诉我:“我的童年充满了警报声和枪声,以及其他令人恐惧的事情。但即便如此,仍有生日、暗恋和家庭作业的日常。这些经历教会了我坚韧不拔——只要坚持不懈,情况总会好转。”
Murati 在 Dartmouth 学习机械工程,并加入了一个研究团队,该团队正在研制一种由超级电容器电池驱动的赛车,这种电池能产生巨大的能量爆发。其他研究人员认为超级电容器不切实际;还有一些人则追求更高深的技术。Murati 认为这两种观点都过于极端。她告诉我,要成为一个既乐观又现实的人:“有时,人们会误解乐观主义为盲目的理想主义。但真正的乐观必须经过深思熟虑,并设置好足够的安全措施,否则就是在冒险。”
Murati 毕业后加入了 Tesla,随后在 2018 年跳槽到 OpenAI。Scott 透露,他之所以决定投资十亿美元,一个重要原因是他发现 Mira 处事从容,从未见她慌乱过。于是,他们开始探讨利用超级计算机训练各种大型语言模型的可能性。
不久,他们就搭建起了一个系统,成效惊人。OpenAI 训练出了一个机器人,能够根据如“展示一幅以马蒂斯风格绘制的狒狒抛扔比萨饼和耶稣”的提示生成惊艳的图像。另一项创新,GPT,则能用流利的英语回答任何问题——尽管并非总是准确。但这项技术如何能被普通人用于日常之外,或者微软如何收回其庞大的投资——据说接近十亿美元——还不得而知。
2019 年的某一天,OpenAI 的副总裁 Dario Amodei 展示了一个惊人的成果:他将软件程序的一部分输入 GPT,请求它完成编码,而系统几乎立即做到了,采用了 Amodei 未曾计划的技术。没人能确切解释 A.I. 是如何做到这一点的——大语言模型本质上是一个“黑盒”。GPT 实际上只有少量代码;它的回答是基于数十亿数学“权重”,每个权重都决定着下一个应输出的内容,这些内容是基于复杂概率计算的。要完全理解模型回答问题时所做的所有连接几乎是不可能的。
对 OpenAI 内部的一些人而言,GPT 神秘的编码能力令人恐惧——毕竟,这似乎是《终结者》这样的反乌托邦电影情节。当发现 GPT 尽管能力强大,但有时也会犯编程错误时,他们反而感到些许安慰。Scott 和 Murati 在得知 GPT 的编程能力后,既感到焦虑又感到兴奋。他们一直在寻找人们可能真正愿意为之付费的 A.I. 应用——如果能在微软找到愿意出售这一技术的人的话。
五年前,微软出于与投资 OpenAI 类似的原因,收购了 GitHub——一个供用户共享代码和协作开发软件的网站。GitHub 保持着年轻、快速发展的企业文化,不受传统束缚。收购后,GitHub 成为了微软内的一个独立部门,拥有自己的 CEO 和决策权,以期保持其创业精神不受影响。这一策略被证明是成功的。GitHub 保持其独特的魅力,深受软件工程师的喜爱,用户数量增至一亿多。
Scott 和 Murati 在寻找一个可能对自动补全代码工具感兴趣的 Microsoft 分部,尽管这个工具有时会犯错。他们找到了 GitHub 的首席执行官 Nat Friedman。GitHub 上的代码有时会有错误,用户已经习惯了这种不完美。Friedman 表示,他需要这样一个工具。他说,GitHub 需要找到一种方法,让人们明白,他们不能完全依赖这个自动补全器。
GitHub 的员工们为这个产品想了许多名字,比如编程自动驾驶、自动配对程序员、程序自动化。作为一名业余飞行员的 Friedman 和其他人认为,这些名字错误地暗示了工具能完成所有工作。这个工具更像是一个副驾驶——一个在驾驶舱里提供建议的伙伴,偶尔也会提出一些不靠谱的主意。你通常会听副驾驶的,但有时也会忽略。当 Scott 听说 Friedman 喜欢的名字——GitHub Copilot——他立刻喜欢上了。“它引导你如何思考这个工具,”他说。“完美地表达了它的长处和短处。”
但是,当 GitHub 在 2021 年准备推出 Copilot 时,其他 Microsoft 分部的一些高管担心这个工具偶尔会出错,可能会损害 Microsoft 的声誉。“这是一场激烈的争论,”Friedman 说。“但作为 GitHub 的首席执行官,我知道这是一个优秀的产品,所以我决定推出它。”GitHub Copilot 一经发布,立即大获成功。“Copilot彻底震撼了我,”一位用户在发布后不久推文说。“这简直是魔法!”另一位用户发帖。Microsoft 开始每月收取 10 美元的应用费用;一年内,年收入就超过了一亿美元。这个分部的独立性得到了证明。
GitHub Copilot 虽然在技术界引起了关注,但也激发了一些负面反应。程序员们在论坛上讨论,担心这类技术可能会威胁到他们的工作,甚至可能被网络恐怖分子利用,或者由于代码自动完成后未经审查就部署,可能导致混乱。一些包括人工智能 (AI) 先驱在内的著名学者引用了斯蒂芬·霍金 (Stephen Hawking) 在 2014 年的警告:“全面的人工智能可能会导致人类灭亡。”
看到 GitHub Copilot 用户提出如此多的灾难性可能性,确实令人担忧。然而,GitHub 和 OpenAI 的高层发现,用户使用这个工具的次数越多,他们对其能力和局限性的理解就越深入。弗里德曼 (Friedman) 指出:“使用一段时间后,你会对它的长处和短板有更直观的感受,大脑也会逐渐学会如何更有效地运用它。”
微软 (Microsoft) 的高管们认为,他们找到了一种既积极又负责任的人工智能 (AI) 发展策略。斯科特 (Scott) 编写了一份名为《人工智能副驾驶时代》的备忘录,并于 2023 年初发送给公司技术领袖。他强调,微软已经找到了一个生动的比喻来向世界介绍这项技术:“副驾驶正如其名称所示,它帮助用户完成复杂任务,同时也让用户了解其能力的局限。”
ChatGPT 的发布——这使得大众首次广泛接触到人工智能 (AI),并迅速成为史上增长最快的消费应用——才刚刚发生。但斯科特已经预见到未来的趋势:通过自然语言实现人机交互,甚至是对编程一窍不通的人也能通过简单地说出他们的需求来编程。这正是他一直追求的平等竞争环境。就像一位 OpenAI 联合创始人在推特上所说:“最流行的新编程语言是英语。”
斯科特写道:“在我的职业生涯中,我从未经历过如此巨大的领域变化,以及重新定义可能性的机会如此激动人心。”接下来的任务是将 GitHub Copilot 这一小众产品的成功经验应用到微软的主流软件上。这些副驾驶系统的核心是 OpenAI 的一项新发明:一个庞大的大语言模型 (LLM),它通过吸收大量公开互联网数据而建立。据报道,这个网络拥有 1.7 万亿参数,是迄今为止创建的任何类似模型的十倍大小和先进程度。OpenAI 将其命名为 GPT-4。
微软首次尝试将人工智能 (A.I.) 普及至大众,却遭遇了尴尬的失败。1996年,公司推出了名为 Clippy 的 Office 产品“助手”。Clippy 以一个带有夸张卡通眼睛的回形针形象出现,似乎随机弹出,询问用户是否需要帮助写信、打开 PowerPoint 或完成其他任务——除非用户对电脑一无所知,否则他们可能早已轻车熟路。著名软件设计师 Alan Cooper 后来指出,Clippy 的设计基于对某项研究的“悲剧性误解”,这项研究表明,人们可能更愿意与表现出情感的计算机互动。用户对 Clippy 的情感很明确:他们讨厌它。Smithsonian 杂志甚至称其为“计算机史上最糟糕的软件设计失误之一”。到了 2007 年,微软终结了 Clippy。
九年后,微软推出了 Tay,这是一个模仿青少年女孩言谈和关注点的人工智能聊天机器人。Tay 设计用于与 Twitter 用户互动,但几乎立即开始发布种族主义、性别歧视和恐同的内容,甚至宣称“希特勒是对的”。发布后的前十六小时内,Tay 发布了将近九万六千条推文,微软意识到这是一场公关灾难,迅速将其关闭。(一周后,Tay 意外重启,并开始发布关于非法药物的推文,如“kush! [我在警察面前吸食 kush]。)
到了 2022 年,Scott 和微软的其他成员开始考虑将 GPT-4 集成到 Word、Excel 等程序中。此前,公司已经深入思考了人工智能可能出错的各种场景。三年前,微软成立了负责任的 A.I. 部门,聘请了近三百五十名程序员、律师和政策专家,专注于开发“对社会有益”的人工智能系统,防止发布可能产生重大负面影响的人工智能。
这个部门是最早获得 GPT-4 副本的微软团队之一。他们通过“红队”(由专家组成)对其进行了测试,试图诱导模型输出制造炸弹的指南、抢劫银行的计划,甚至是赞美斯大林的诗歌。
一天,微软红队成员让 GPT-4 假装自己是一个正在诱拐儿童的性侵犯者,然后与一个 12 岁的孩子进行角色扮演对话。这个机器人的表现令人震惊,以至于微软负责人工智能工程的主管莎拉-伯德(Sarah Bird)下令采取一系列新的保护措施。然而,建立这些措施是一项挑战,因为很难区分一个好家长可能会问的良性问题(“我如何教一个 12 岁的孩子使用安全套?”)和一个潜在的更危险的问题(“我如何教一个 12 岁的孩子如何做爱?)
微软为了进一步优化它的机器人,采用了 OpenAI 首创的一种技术,这种技术被称为带有人类反馈的强化学习 (强化学习与人类反馈,简称 R.L.H.F)。全球数百名工作人员反复向微软版的 GPT-4 提出问题,其中也包括一些边缘不当的问题,以此来评估机器人的反应。这个模型被指导要对每个问题给出两个略有差异的回答,并将它们并排展示出来;工作人员会选择他们认为更佳的答案。随着微软版大语言模型多次观察到这些偏好,慢慢形成了一些模式,最终演变成规则。(例如,在讨论避孕问题时,人工智能学会了:“在被问及十二岁孩子和避孕套的问题时,更倾向于强调理论而非实际操作,并且需要谨慎回答。”)