6月10日,OpenAI创始人Sam Altman以视频连线的方式现身于中国北京举办的2023智源人工智能大会,这是Altman首次对中国观众发表演讲。
Altman在演讲中引用了《道德经》,谈及大国合作,表示AI安全始于足下,各国间必须进行合作和协调。
随后Altman接受了智源研究院理事长张宏江的一对一问答。
张宏江博士目前任北京智源人工智能研究院理事长,同时担任多家公司的独立董事和顾问。曾任金山集团执行董事及首席执行官兼金山云的首席执行官,是微软亚洲研究院创始人之一,曾担任副院长、微软亚太研发集团(ARD)首席技术官及微软亚洲工程院(ATC)院长以及微软“杰出科学家”。
加盟微软之前,张宏江曾任美国硅谷的惠普实验室任经理;此前还在新加坡国立大学系统科学研究院工作。
Altman演讲核心内容:
当下人工智能革命影响如此之大的原因,不仅在于其影响的规模,也是其进展的速度。这同时带来红利和风险。
随着日益强大的 AI 系统的出现,全球合作的重要性从未如此之大。在一些重要的大事上,各国间必须进行合作和协调。推进 AGI 安全是我们需要找到共同利益点的最重要的领域之一。
对齐仍然是一个未解决的问题。GPT-4 花了八个月的时间完成对齐方面的工作。但相关的研究还在升级,主要分为扩展性和可解释性两方面。
问答环节核心内容:
十年内人类将拥有强大的人工智能系统(AI System)。
OpenAI没有相关的新的有关开源的时间表,开源模型具有优势,但开源一切可能并不是一条(促进AI发展的)最佳路线。
看明白神经网络比看明白人类脑子容易多了。
在某个时候,会尝试做GPT-5的模型,但不会是很快。不知道具体GPT-5出现的时候。
AI安全需要中国研究者的参与和贡献。
注:“AI对齐”是AI控制问题中的最主要的问题,即要求AI系统的目标要和人类的价值观与利益相对齐(保持一致)。
以下为访谈全文:
Sam Altman讲话:
随着日益强大的人工智能系统的出现,全球合作的赌注从未如此之高。
如果我们不小心,一个旨在改善公共卫生结果的错位的人工智能系统,可能会提供没有根据的建议,从而扰乱整个医疗保健系统。同样,为优化农业生产而设计的人工智能系统可能会无意中耗尽自然资源或破坏生态系统,因为缺乏对影响粮食生产的长期可持续性的考虑,这是一种环境平衡。
我希望我们都能同意,推进AGI安全是我们需要共同努力,寻找共性的最重要领域之一。
我发言的其余部分将集中在我们可以从哪里开始:1.第一个方面是AGI治理,AGI从根本上成为了改变我们文明的强大力量,强调了有意义的国际合作和协调的必要性。每个人都会从合作治理方法中受益。如果我们安全、负责任地驾驭这条道路,AgI系统可以为全球经济创造无与伦比的经济繁荣,解决气候变化和全球健康安全等共同挑战,并提高社会福祉。
我也深深地相信在未来。我们需要在AGI安全方面进行投资,才能到达所想要达到的地方,并在那里享受它。
要做到这样我们需要认真协调。这是一项具有全球影响力的全球技术。不计后果的开发和部署所造成的事故成本将影响到我们所有人。
国际合作中,我认为有两个关键领域是最重要的。
首先我们需要建立国际规范和标准,并注意过程中注重包容性。在任何国家使用 AGI 系统,都应平等而一致地遵循这样的国际标准和规范。在这些安全护栏内,我们相信人们有足够的机会做出自己的选择。
第二,我们需要国际合作,以可核查的方式建立对安全开发日益强大的 AI 系统的国际间信任。我并不妄想这是一件容易的事,需要投入大量和持续的关注。
《道德经》告诉我们:千里之行,始于足下。我们认为,在这方面最具建设性的第一步是与国际科学和技术界合作。
需要强调的是,我们应该在推动技术进步这一方面增加透明度和知识共享的机制。在AGI安全方面,发现新出现的安全问题的研究人员们应该为了更大的利益分享他们的见解。
我们需要认真思考如何在鼓励这种规范的同时,也尊重和保护知识产权。如果我们这样做,那么,它将为我们深化合作打开新的大门。
更广泛地来讲,我们应该投资于促进和引导对AI对齐和安全的研究。
在Open AI,我们今天的研究主要集中在技术问题上,让AI在我们目前的系统中充当一个有帮助且更安全的角色。这可能也意味着,我们训练ChatGPT的方式,使其不做出暴力威胁或协助用户进行有害活动的举措。
但随着我们日益接近 AGI 的时代,没有对齐的 AI 系统的潜在影响力和影响规模将成倍增长。现在积极主动地解决这些挑战,能将未来出现灾难性结果的风险降到最低。
对于目前的系统,我们主要利用人类反馈进行强化学习来训练我们的模型,使其成为一个有帮助的安全助手。这只是各种训练后调整技术中的一个例子。而且我们也在努力研究新的技术,其中需要很多艰苦的工程工作。
从 GPT4 完成预培训到我们部署它,我们专门花了 8 个月的时间来进行对齐方面的工作。总的来说,我们认为我们在这方面做得很好。GPT4 比我们以前的任何模型都更加与人类对齐。
然而,对于更先进的系统,对齐仍然是一个未解决的问题,我们认为这需要新的技术方法,同时增强治理和监督。
对于未来的AGI系统,它提出了10万行二进制代码。人类监督者不太可能发现这样的模型是否在做一些邪恶的事情。所以我们正在投资一些新的、互补的研究方向,希望能够实现突破。
一个是可扩展的监督。我们可以尝试使用人工智能系统来协助人类监督其他人工智能系统。例如,我们可以训练一个模型来帮助人类监督发现其他模型的输出中的缺陷。
第二个是解释能力。我们想尝试更好地了解这些模型内部发生了什么。我们最近发表了一篇论文,使用 GPT-4 来解释 GPT-2 中的神经元。 在另一篇论文中,我们使用 Model Internals 来检测一个模型何时在说谎。我们还有很长的路要走。我们相信,先进的机器学习技术可以进一步提高我们解释的能力。
最终,我们的目标是训练 AI 系统来帮助进行对齐研究。这种方法的好处在于,它可以随着 AI 的发展速度而扩展。
获得 AGI 带来的非凡好处,同时降低风险,是我们这个时代的开创性挑战之一。我们看到中国、美国以及世界各地的研究人员有很大的潜力来共同实现同一个目标,并致力于努力解决 AGI 对齐带来的技术挑战。
如果我们这样做,我相信我们将能够利用 AGI 来解决世界上最重要的问题,并极大地改善人类的生活质量。非常感谢。
以下为对话实录:
未来十年我们会有非常强大的AI系统
智源研究院理事长张宏江提问:我们距离通用人工智能(AGI)还有多远?风险是不是很紧迫,还是我们离它还很遥远?
Sam Altman:这很难评估具体时间。很可能未来十年我们会有非常强大的AI系统,新技术从根本上改变世界的速度比我们想象的快。在那样的世界里,我认为把这件事(AI安全规则)做好是重要且紧迫的,这就是为什么我呼吁国际社会共同努力的原因。
从某种意义上说,我们现在看到的新技术的加速和系统的影响是前所未有的。所以我认为要为即将发生的事情做好准备,并了解有关安全的问题。考虑到AI规模庞大,这其中的利害关系相当重要。
中国、美国和其他国家以及欧洲这三个主要集团是人工智能创新背后的驱动力,在你看来,在AGI安全这个领域中,不同国家分别又有什么优势来解决这一问题,特别是解决人工智能安全问题。如何将这些优势结合到一起?
全球合作为AI提出安全标准和框架
张宏江:您刚才在前期的介绍中也提到了几次,正在进行全球合作。我们知道,在过去世界面临着相当多的危机。不知何故,对他们中的许多人来说,我们设法建立了共识,建立全球合作。你也在进行一次全球巡演,你正在努力推动怎样的全球合作?
Sam Altman:是的,我对到目前为止大家的反应和回答都非常满意。我认为人们非常认真地对待AGI的风险和机遇。
我认为在过去的6个月里,对于安全的讨论已经取得了相当大的进展。人们似乎真的致力于找出一种结构,让我们能够享受这些好处,同时在全球范围内共同努力降低风险。我认为我们非常适合做这件事。全球合作总是困难的,但我认为这是一种将世界团结在一起的机会和威胁。我们可以为这些系统提出一个框架和安全标准,这将非常有帮助。
人工智能的对齐问题如何解决
张宏江:你提到先进人工智能的对齐是一个尚未解决的问题。我还注意到OpenAI在过去的几年里付出了很多努力。你提到GPT-4是迄今为止在对齐领域最好的例子。你认为我们可以仅仅通过微调(API)来解决AGI的安全问题吗?或者比这个问题的解决方式要困难得多?
Sam Altman:我认为对齐这个词有不同的理解方式。我认为我们需要解决的是整个人工智能系统中的挑战,传统意义上的对齐——让模型的行为符合用户的意图,当然是其中的一部分。
但还会有其他问题,比如我们如何验证系统正在做什么,我们希望它们做什么,以及我们如何调整系统的价值。最重要的是要看到AGI安全的整体情况。
如果没有技术解决方案,其他一切都很难。我认为集中精力确保我们解决安全方面的技术问题是非常重要的。正如我所提到的,弄清楚我们的价值观是什么,这不是一个技术问题。尽管它需要技术投入,但这是一个值得全社会深入讨论的问题。我们必须设计公平、具有代表性和包容性的系统。
张宏江:针对对齐,我们那看到GPT-4所做的,仍然是从技术的角度出发的解决方案。但除了技术之外,还有许多其他因素,且往往是系统性的。人工智能安全在这里可能也不例外。除了技术方面,还有哪些因素和问题?你认为对人工智能安全至关重要吗?我们应该如何应对这些挑战?尤其是我们大多数人都是科学家。我们应该做什么。
Sam Altman:这无疑是一个非常复杂的问题。但如果没有技术解决方案,其他一切都很难解决。我认为集中精力确保我们解决安全方面的技术问题是非常重要的。正如我所提到的,弄清楚我们的价值观是什么,这不是一个技术问题。它需要技术投入,但这同时也是一个值得全社会深入讨论的问题。我们必须设计公平、具有代表性和包容性的系统。
而且,正如你所指出的,我们需要考虑的不仅仅是人工智能模型拉动本身的安全性,而是整个系统。
因此,可以构建在系统上运行的安全分类器和检测器很重要,它们可以监控AI是否符合使用策略。我认为很难提前预测任何技术会出现的所有问题。因此,从现实世界的使用中学习,并反复部署,看看当你真正创造现实并改进它时会发生什么。
让人类和社会有时间学习和更新,并思考这些模型将如何以好的和坏的方式与他们的生活互动,这也很重要。
需要各国共同合作
张宏江:早些时候,你提到了全球合作。你一直在环游世界,中国、美国和以及欧洲等各国都是人工智能创新背后的驱动力,在你看来,在AGI中,不同国家分别有哪些优势来解决AGI问题,特别是解决人安全问题。如何将这些优势结合到一起?
Sam Altman:我认为通常需要很多不同的视角和人工智能安全。我们还没有得到所有的答案,这是一个相当困难和重要的问题。
此外,正如所提到的,这不是一个纯粹的技术问题,使人工智能安全和有益的。涉及在非常不同的背景下了解不同国家的用户偏好。我们需要很多不同的投入才能实现这一目标。中国拥有一些世界上最优秀的人工智能人才。从根本上说,我认为,考虑到解决高级人工智能系统对齐的困难,需要来自世界各地的最好的头脑。所以我真的希望中国的人工智能研究人员在这里做出巨大的贡献。
需要非常不同的架构使得AGI更安全
张宏江:关于GPT-4和AI安全的后续问题。我们是否有可能需要更改AGI模型的整个基础架构或整个体系结构。为了让它更安全,更容易被检查.
Sam Altman:无论是从功能角度还是从安全角度来看,我们确实需要一些非常不同的架构,这是完全可能的。
我认为我们将能够取得一些进展,在解释我们目前各种模型的能力方面取得良好进展,并让他们更好地向我们解释他们在做什么以及为什么。但是,是的,如果在Transformer之后有另一个巨大的飞跃,我不会感到惊讶。自从最初的Transformer以来,我们已经改变了很多架构。
OpenAI开源的可能性
张宏江:我明白今天的论坛是关注AI安全的,因为人们对OpenAI很好奇,所以我有很多关于OpenAI的问题,不仅仅是AI安全。我这里有一个观众的问题是,OpenAI有没有计划重新开源它的模型,就像在3.0版本之前那样?我也认为开源有利于AI安全。
Sam Altman:我们有些模型是开源的,有些不是,但随着时间的推移,我认为你应该期待我们将来会继续开源更多的模型。我没有一个具体的模型或时间表,但这是我们目前正在讨论的事情。
张宏江:BAAI将所有的努力都变成开源,包括模型和算法本身。我们相信,我们有这种需要,分享和给予,你一个他们在控制感知。请问你有类似的观念吗,或者在你的同龄人或OpenAI的同事中讨论过这些话题。
Sam Altman:是的,我认为开源在某种程度上确实有一个重要的作用。
最近也有很多新的开源模型出现。我认为API模型也有一个重要的作用。它为我们提供了额外的安全控制。你可以阻止某些用途。你可以阻止某些类型的微调。如果某件事情不起作用,你可以收回它。在当前模型的规模下,我不太担心这个问题。但是随着模型变得像我们期望的那样强大,如果我们对此是正确的,我认为开源一切可能不是最佳路径,尽管有时候它是正确的。我认为我们只需要仔细地平衡一下。
我们未来会有更多开源大模型,但没有具体模型和时间表。
AGI的下一步方向?会很快看到GPT-5吗?
张宏江:作为一个研究人员,我也很好奇,下一步的AGI研究方向是什么?在大模型、大语言模型方面,我们会不会很快看到GPT-5?下一个前沿是不是在具身模型上?自主机器人是不是OpenAI正在或者准备探索的领域?
Sam Altman:我也很好奇下一步会发生什么,我最喜欢做这项工作的原因之一就是在研究的前沿,有很多令人兴奋和惊讶的事情。我们还没有答案,所以我们在探索很多可能的新范式。当然,在某个时候,我们会尝试做一个GPT-5模型,但不会是很快。我们不知道具体什么时候。我们在OpenAI刚开始的时候就做过机器人方面的工作,我们对此非常感兴趣,但也遇到了一些困难。我希望有一天我们能够回到这个领域。
张宏江:听起来很棒。你在演讲中也提到了你们是如何用GPT-4来解释GPT-2的工作原理,从而使模型更安全的例子。这种方法是可扩展的吗?这种方向是不是OpenAI未来会继续推进的?
Sam Altman:我们会继续推进这个方向。
张宏江:那你认为这种方法可以应用到生物神经元上吗?因为我问这个问题的原因是,有一些生物学家和神经科学家,他们想借鉴这个方法,在他们的领域里研究和探索人类神经元是如何工作的。
Sam Altman:在人工神经元上观察发生了什么比在生物神经元上容易得多。所以我认为这种方法对于人工神经网络是有效的。我认为使用更强大的模型来帮助我们理解其他模型的方法是可行的。但我不太确定你怎么把这个方法应用到人类大脑上。
控制模型数量可行吗
张宏江:好的,谢谢你。既然我们谈到了AI安全和AGI控制,那么我们一直在讨论的一个问题是,如果这个世界上只有三个模型,那么会不会更安全?这就像核控制一样,你不想让核武器扩散。我们有这样的条约,我们试图控制能够获得这项技术的国家数量。那么控制模型数量是不是一个可行的方向?
Sam Altman:我认为对于世界上有少数模型还是多数模型更安全,有不同的观点。我认为更重要的是,我们是否有一个系统,能够让任何一个强大的模型都经过充分的安全测试?我们是否有一个框架,能够让任何一个创造出足够强大的模型的人,既有资源,也有责任,来确保他们创造出的东西是安全和对齐的?
张宏江:昨天在这个会议上,MIT未来生命研究所的Max教授提到了一种可能的方法,就是类似于我们控制药物开发的方式。科学家或者公司开发出新药,你不能直接上市。你必须经过这样的测试过程。这是不是我们可以借鉴的?
Sam Altman:我绝对认为,我们可以从不同行业发展出来的许可和测试框架中借鉴很多东西。但我认为从根本上说,我们已经有了一些可以奏效的方法。
张宏江:非常感谢你,Sam。谢谢你抽时间来参加这次会议,虽然是线上的。我相信还有很多问题,但考虑到时间,我们不得不到此为止。希望下次你有机会来中国,来北京,我们可以有更深入的讨论。非常感谢你。
本文来自华尔街见闻,欢迎下载APP查看更多