0°

OpenAI创始人的AGI预言:AI Safety、Scaling laws与GPT-20|GGView

  GGV有话说:

  LLM、AIGC 的浪潮将 OpenAI 推到了台前,这家创立不到 10 年的公司肉眼可见地将整个科技界卷入新的范式迁移之中。OpenAI 可以说是几个天才科学家、工程师在资本支持下坚定不移地探索 AGI 的结果。

  本篇文章编译自 Greg Brockman和 Lex Fridman 在 2019 年 4 月的一次访谈。Gerg Brockman 既是 OpenAI 的核心创始人之一,也是 OpenAI 重要的灵魂人物,在 OpenAI 的人才招聘、愿景塑造、内部 Infra 构建、工程文化打造等方面提供了决定性作用。

  今天的GGView,我们就来看看OpenAI 内部是如何认知 AGI、以及如何一步步实现 AGI?

  作者:Lex Fridman

  编译:haina、zhipei

  编辑:Siqi

  来源:海外独角兽(id:unicornobserver)

  01.

  AGI 是由人类创造的最具变革性的技术

  Lex Fridman:你如何看待人类的大脑?它是一个信息处理系统、不可知的魔法或者生物化学的视角?

  Greg Brockman:把人类看作是信息处理系统是一个非常有趣的视角,这也是一个很好的视角去描述世界是如何运作的、大脑是怎么工作的。比如目前最具变革性的创新:计算机或者互联网,这并不只是光缆等物理结构,而是我可以立即跟地球上任何一个人联系,能够立即检索到人类图书馆里存在的任何信息。

  Lex Fridman:所以作为人类智慧的延伸,整个社会也可以被看作是一种智能系统?

  Greg Brockman:这也是一个非常有趣的视角,经济本身也是一个能自我优化的超级机器,每家公司都有自己的意志,每个人也有自己所追求的目标。某种程度上,人类总觉得自己是地球上最聪明、最强大的生物,但有些东西比我们更重要,就是我们所组成的系统。

  阿西莫夫的系列小说 The Foundation Series 中有一个心理学史(Psychohistory)的概念:如果有数万亿或数千万亿的生物,那么我们也许可以从宏观上预测这个生物系统会做什么,这几乎跟个人想要什么无关。

  此外,技术决定论(Technological determinism)也是一个很有趣的角度:没有人能发明出别人发明不出的技术,最多改变的是变革发生的时间,对于同类产品,其中某一个最终能成功的原因可能在于其初始条件的不同。比如电话是两个人在同一天发明的,这意味着什么?大家都同样在巨人的肩膀上创造,你不会真的创造出别人永远创造不出来的东西。如果爱因斯坦没有出生,那也会有其他人提出相对论,只是时间线不一样,可能还需要二十年,但这并不会改变人类注定发现这些真理的事实。

  人们正在进入通用智能技术快速发展的时代,革命性的变革一定会在某个时间点发生。我认为核心是要保证 AI 在正确的方向上发展,放大它的正面效应。这也是我们在设定 OpenAI 的非营利属性、以及又提出 OpenAI LP 结构的出发点,我们需要保证 AGI 的发生。

  Lex Fridman:AGI 将如何影响世界?

  Greg Brockman:回顾 AI 的发展史,基本上在过去的六七十年中,人们一直在思考:如果人类智力劳动可以自动化,会发生什么?如果我们可以创建一个这样的计算机系统,世界会变成什么样?很多科幻小说讲述了各种反乌托邦(Anti-Utopia)的故事,也有越来越多像“Her”这样的电影像我们展现了乌托邦的视角。

  在思考 AI 可以带给世界什么样的影响之前,我们可以先想想自行车、计算机对人类世界产生的影响,尤其是计算机对互联网上的影响远超过我们所能预测的,所以,如果能构建 AGI,它将是人类所创造的最具变革性的技术,但我们还在寻找创建 AGI 系统的方法。

  6、70年来,人们普遍对 AI 愿景感到兴奋,但现实进展并不顺利,经过两个 AI 寒冬后,人们似乎不再谈论 AGI,但我认为这并不是 AGI 不存在,而是因为人们从过去 AI 发展的历史上吸取了足够多的教训,变得更加审慎。

  1959 年,世界上最早的神经网络之一感知器(Perceptron)诞生,随即引起了大规模的关注,当时纽约时报发布了一篇文章,认为感知器有一天可以识别人类,喊出他们的名字,可以在不同语言之间来回翻译。当时的人们都不相信,甚至花了 10 年时间反对感知器发展方向,最后结果是资金枯竭、大家开始转向其他技术方向。

  感知器(Perceptron)是弗兰克·罗森布拉特在1957年就职于康奈尔航空实验室(Cornell Aeronautical Laboratory)时所发明的一种人工神经网络。它可被视为一种最简单形式的前馈神经网络,是一种二元线性分类器。

  一直到 80 年代开始新一轮技术复兴,有人说这种复兴是因为反向传播(Backpropagation)等算法等的出现,但实际上是因为我们的计算能力更加强大。从 80 年代的文章也可以看到,计算能力的民主化意味着我们可以运行更大的神经网络,进行更多尝试,反向传播算法因此诞生。当时运行的神经网络很小,可能只有 20 个神经元,因此系统的学习效果并不好,直到 2012 年,这种在 50 年代就提出的最简单、最自然的方法才突然成为解决问题的最佳方式。

  • 反向传播(Backpropagation):“误差反向传播”的简称,一种常见的人工神经网络训练方法,它在 1986 年被提出。其缺点是所需计算量较大,且会随网络层数的加深呈平方级提高。

  • 上世纪 80 年代是计算元器件发展的重要时期,英特尔系列微处理器与内存条技术广泛应用,让神经网络逐渐步入繁荣,并出现了深度学习、卷积神经网络、循环神经网络等新的技术和应用。

  我认为深度学习有 3 个值得关注的核心属性:

  1. 泛化(Generality),我们用少数几个深度学习方法解决大部分问题,比如梯度下降、深度神经网络以及一些强化学习,解决了语音识别、机器翻译、游戏等所有问题;

  2. 能力(Competence),深度神经网络可以解决计算机视觉 40 年研究中的任何问题,甚至有更好的效果。

  3. 可扩展性(Scalability),实验一次又一次地向我们证明:如果有一个更大的神经网络,有更多的训练数据,它的工作效果会更好。

  这三个属性是建立 AGI 的基础,但并不代表只要扩大神经网络规模就能实现 AGI。但重点在于,这让我们第一次感受到 AGI 是可以实现的,虽然时间点并不确定,但我认为肯定在我们有生之年内,并且会比人们预期早很多。

  在这样的远景之下,我们在 2015 年创立了 OpenAI 。我认为 AGI 可能比人们想象中更快到来,我们需要尽最大努力确保一切顺利进行,所以我们花了几年时间试图弄清楚我们需要怎么做。

  02.

  OpenAI 的创立与设计:确保 AGI 顺利发生

  Lex Fridman:OpenAI 是如何成立的?

  Greg Brockman:通常情况下,一家公司的发展路径是:往往先需要联合创始人、构建并推出了自己的产品,基于产品积累到一些用户、得到相应的市场反馈,如果发展顺利的话也可以通过融资来雇佣更多的人来扩大公司规模。在这个过程中,几乎每家创业公司都需要面对大公司带来的潜在威胁,大公司注意到你的存在并试图杀死你。

  但 OpenAI 完全把这条路反过来了,这和 OpenAI 在起步时的现实情况有关。

  第一个问题是 OpenAI 起步得太晚。当 2015 年 OpenAI 创立的时候,AI 已经从纯粹的学术研究转变为商业领域所期待的某种具体产品或工具,和业界结合得很深,因此即便有很多优秀的学者都想建立自己的实验室,但他们作为个人所积累的资源不论到达怎样的高度都很难跟大公司相媲美,OpenAI 作为一个初创团队更要考虑这样的问题。

  此外,我们也在担心一个现实问题,OpenAI 想要建立的东西真的能落地吗?这需要一个临界质量(critical mass),而不只是由我和我的联创们合作推出一个产品即可,需要至少 5-10 人团队,这可能不容易,但值得尝试。

  临界质量(Critical Mass):核物理学术语,刚好可以产生连锁反应的组合,称为已达“临界点”。

  Lex Fridman:如何看待在 AGI 的发展中,不同公司之间的竞争以及合作?

  Greg Brockman:做 AGI 的开发工作,弄清楚如何部署它,让它继续下去,要回答一个关键问题。

  第一个是构建第一个 AGI 的过程。拿自动驾驶作为对比,自动驾驶是一个竞争非常激烈的赛道,因此该领域内的玩家在选择自己的技术路线面对极大的压力:如果要保证技术安全性,就意味着技术实现的周期会被拉长,导致的直接结果就是很大可能落后于其他竞争者,所以大部分参与者选择了相对更快的。

  OpenAI 的选择是不竞争,即便其他人领先,我们也不会走快速而危险的道路去试图跨越。只要他们想做的和我们的使命一致,我们就承诺与他们合作,帮助他们成功。如果大家都认为 AGI 是让每个人都受益的东西,那么哪个公司构建它并不重要。从而形成良性的合作,实现 AGI。

  Lex Fridman:如果 OpenAI 成功创建了一个 AGI 系统,你会问它的第一个问题是什么?

  Greg Brockman:如果我们真的建立了一个强大到足以影响人类未来的 AGI 系统,我会问它的第一个问题是:如何确保 AGI 诞生之后世界仍旧在正常轨道上运转?

  就像核武器诞生后,全世界面临的最重要的问题是它会给世界带来什么样的变化?如何保证核武器时代的世界和平?对于 AGI 来说,虽然它和核武器不同,但作为一个全新的变革性的技术,我们同样也要确保它不会给既定的世界和社会秩序带来负面影响。

  不过,在关注新技术负面性的同时,人们常常也会忽略一些正面影响。既然如果我们有一个足够强大的 AGI 系统,我们肯定也需要它为我们提供建议,询问 AGI 并不代表必须听从 AGI 告诉你的建议,但当 AGI 足够强大的时候,它所输出的信息可以被人类作为参考。如果它像人类一样聪明,甚至它的能力可扩展,人们肯定也希望它能阅读并吸收人类所有的科学文献、为绝症治疗提供方案、利用新技术创造更加丰富的物质、在保护环境等重要问题上给出建议、甚至方案。

  Lex Fridman:如何看待关于 AGI 可能带来的负面效应?

  Greg Brockman:这里面涉及到两个问题:

  首先是,如何向大众描绘一个新技术带来的新世界。

  比如,放在 1950 年我们要向别人介绍什么是 Uber 相当困难的事情。因为我们首先需要让对方理解什么是互联网、什么是 GPS, 以及每个人都拥有一部智能手机这些基础前提。所以要让大众客观评价某个变革性技术的第一个难点是,如何让他们想象出这些变革性的技术如何在世界上发挥作用。而 AGI 会比之前出现过的技术都更具变革性,这一定程度上加高了人们的理解门槛。

  第二点则是人们天然更倾向去支持负面,因为摧毁一个新事物总是比创造容易,不仅是在物理层面,更在思想层面,大部分人可能一看到负面消息就走进了死胡同。

  所以面对 AGI 的负面效用的更积极的心态或者办法是坦然承认 AGI 的优点和缺点,这也是 OpenAI 看待 AGI 的态度,我们根据现实来判断风险,并基于这些判断来构建自己的组织和系统。

  为了保证 AI 能够更多地发挥它的积极效应,在 OpenAI 的构建中,我们主要关注 3 方面:

  • 第一,推进系统迭代更新的能力;

  💡在 Sam Altman 的 AGI 宣言中,Sam 也提到,短期内,采用快速学习和谨慎迭代的紧密反馈循环,长期来看,过渡到一个拥有超级智能的世界。

  • 第二,确保安全(AI Safety);

  OpenAI 正在研究技术机制来确保 AGI 系统符合人类价值观;

  💡OpenAI 一直对外强调其使命是确保 AGI 造福全人类,AGI 如果被成功创造出来,可增加世界丰富度、推动全球经济发展以及帮助发现改变可能性极限的新科学知识,来帮助提升人类。

  • 第三,政策(Policy)。

  确保我们有一个治理机制来反馈系统可能出现的问题。技术安全可能是人们谈论最多的问题,比如那些反乌托邦的 AI 电影,很多都是由于没有良好的技术安全导致的问题。

  很多人之所以认为技术安全是个棘手的问题,是因为“安全”本身很难被精确地定义和描述,在人类社会的治理中,我们有很多明确的规则,例如法律,国际条约等等,但同时也有一些无形的规则。如何告诉系统哪些是安全的信息、哪些是不安全的信息也变得十分困难。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论