近日,ChatGPT背后技术公司OpenAI的首席执行官(CEO)Sam Altman接受了《纽约时报》科技播客节目Hard Fork的专访。
在访谈中,Sam Altman解答了关于微软发布的新版必应(Bing)搜索、人工智能(AI)的犯错行为、AI的安全,以及ChatGPT未来的版本等问题。
他提到,对于任何新技术,我们都无法完美地预测其所有问题和解决措施,因此需要从人类的反馈中不断学习和改进。“重要的是,人们还需要真正认真对待AI的安全和道德规范。”
此外,他还表示,当一切准备就绪时,OpenAI将发布更强大的ChatGPT版本,但现在还不是时候。
谈新版必应:很快会变得不可或缺
当地时间2月7日,微软公司宣布推出新版必应搜索和Edge浏览器。在这之前,微软和OpenAI已经对必应测试了至少几个星期的时间了,必应搜索引擎整合了ChatGPT系统背后的技术。
在该播客节目中,主持人问到,“您认为必应将如何改变人们的搜索方式?或者说,它是否拥有一些过往搜索引擎所不能达到的功能?”
Sam Altman认为,(必应)很快会变得不可或缺。“当我无法访问它时,我会想念它。”
他同时说到他的亲身经历,“我有一个14岁的女儿,她喜欢说‘riz’和‘bussing’之类的话,而我不知道她在说什么。你可以输入比如,嘿,我有一个十几岁的孩子,她在说这些话,我不明白。此时,必应会充当一个Z世代的翻译。”
Sam Altman补充说,“它真的非常擅长这样的事情。还有一个例子是,昨天我装作是一名制造商,一直在寻找工业套结缝纫机。使用新的必应后,它向我展示了我以前在任何其他搜索中从未见过的东西,帮我确定了需要购买的机器,”。
“你不会再想回去使用谷歌(搜索)了,”他说道。
Sam Altman(右) 图片来源:Sam Altman社交媒体
谈ChatGPT犯错:不可避免,但反馈会帮助提高
在访谈中,Sam Altman语出惊人地表示,“ChatGPT是一个可怕(horrible)的产品。”随后,他给出了这样评价的理由。
“看看人们将其整合到自己工作流程的方式就知道了,”Sam Altman说道,“人们访问一个有时能正常工作、有时又会宕机的网站。他们在对话框输入一些东西,一直尝试,直到正确为止。随后他们复制ChatGPT给出的答案,并将其粘贴到其他地方,然后又返回继续尝试。”
“当然,这很酷。人们很喜欢它,这让我们感到开心,”他说道,“不过,目前还没有人会说这是一款出色的、集成良好的产品。但它是有价值的产品,因此人们愿意忍受它。”
自从ChatGPT推出以来,有一件事已经是一个共识——那就是它并非是万无一失的,在某些情景下,它会犯错误。当ChatGPT被接入每天被大量使用的搜索引擎必应时,Sam Altman如何看待这个问题呢?
“首先我想说,(相比其他模型)ChatGPT是一个错误更少的、更优秀的模型,但它仍然存在很多错误,”他这样说道,“正如微软过去许多年所经历的一样,他们围绕必应所构建的技术并不是万无一失的。你需要自己去验证它的准确性和实用性,不要完全相信它。尽管如此,我认为(必应的)体验已经比ChatGPT有了显著的改善。随着时间的推移,还会有更多提高。”
那么,是否存在这样一种情况,用户在必应上执行操作,应更加谨慎地去搜索某些类别,因为这些类别可能比其他类别更容易出错?
Sam Altman承认,这一点还没有答案。不过,他表示,“我认为我们将很快了解模型犯错的原因。当我们每一次发布新产品时,我们都会学到很多东西,并了解用户如何与之交互。我们在Copilot(Github开发的AI产品)身上学到了很多东西。”
“我要指出的一件事是这些技术带来的创新。三年前,GPT-3还未出世,那时候很少有人相信,AI领域将会发生意义非凡的进展,”他说道。
Sam Altman表示,对于任何新技术,人类都无法完美地预测其所有问题和缓解措施。“但如果它有一个非常紧密的反馈循环机制,按照事情发展的速度,我认为我们可以非常快地获得非常可靠的产品,”他颇有信心地说道。
谈ChatGPT的未来:一切准备就绪时,将发布更强大的版本
此前,谷歌推出了ChatGPT的竞品Bard。在硅谷,这种竞争并不少见,许多其他公司都争相向ChatGPT看齐。
“我们不是匆忙发布产品的人。这项技术的好处是如此之多,我认为很多人确实想要构建这些东西,”他说道,“但是,对于我们需要在这些系统上满足哪些标准,需要制定行业规范和法规。我认为这真的很重要。”
对于ChatGPT未来的更新路径,Sam Altman表示,的确还有更强大的版本,但现在并没有到公布的时机。“不马上把这些东西拿出来的原因是,人们认为我们已经是完整的AGI(通用人工智能),随时准备好按下按钮,但实际上还差得远。”
“当我们准备好时,这意味着已经完成了校准工作和所有安全思考,并与外部审计员和其他AGI实验室合作,我们就会发布这些东西,”他说道,“但是,从现在到未来更强大的系统之间,肯定还有一些东西需要思考。我们还没有弄清楚这些,其他人也没有。”
图片来源:视觉中国
谈ChatGPT被“破解”:令人烦恼,但不应消失
近期,Reddit论坛上有用户正致力于破解ChatGPT,并找到了一种方法。随后OpenAI修补了这个Bug。这是否将永远成为一种持续不断的猫捉老鼠的游戏?
Sam Altman的态度颇为开放。他认为,在一个充满活力的社区,人们试图突破技术的极限找出它的突破口,并在那里做一些不寻常、有趣的事情,这很好。
他表示,“AI系统可以做的事情范围很广,但这些范围不是由微软或OpenAI决定的,而是由社会、政府等来决定。在这些范围内,用户应该对AI的行为方式有很大的控制权,因为不同的用户会有不同的体验。”
“这是一项非常新的技术,我们不知道如何处理它,所以我们很保守。正确的答案是由社会设定的非常广泛的范围,然后由用户来进行选择,”他说道。
“这就是安全社区的工作方式。我宁愿受到批评,也希望人们在我的软件中发现错误,而不是让软件中那些潜在的错误被默默地利用并造成伤害。有时候,听到这类消息(破解)是挺烦恼的。但实际上,我并不希望它消失,”他这样说道。
谈Tay事件的教训:需认真对待AI安全和道德规范
2016年春季,微软在推特上推出了聊天机器人Tay,但在和用户开放对话后的不到一天时间里,它便由于不恰当的种族主义言论引发了激烈争议。随后微软很快就下线了Tay,这对于人工智能行业来说是一个警示。
对此,Sam Altman认为,“那个时代的很多东西都是由研究团队推出的,他们非常兴奋——嘿,我得到了这个技术上很有趣的东西。然而,他们并没有真正考虑产品的影响。”
如今的AI技术应当从中汲取什么样的教训呢?“我们仍然非常认真地对待AI,并且坚信它将成为最重要的技术之一。但我们从中学到的一件事是,永远不应该再犯同样的错误了。我们需要真正认真对待AI的安全和道德规范,”Sam Altman表示。
“我们必须去解决所有这些问题,以避免再次犯类似的错误,但这并不表示,我们不会再犯错误,”他说道,“在过去的五年半的时间内,我们一直在努力,并非只是嘴上说说,而是在实际工作中付诸实践。”
有人认为AI工具部署得过于迅速,以至于社会无法快速设置相应的安全规范。Sam Altman也同意这一点。
“但我有两点非常强烈的感受。一是,每个人都必须有机会了解这些工具的优缺点、使用方法,并共同塑造它。”他进一步说道,“有人认为这种技术应该保留在科技行业的一小部分人中,因为这些人才是我们可以信任的人。我完全不同意这一点,因为人们需要尽早地参与进来。”
“二是,在我所看到的技术史中,如果不与现实世界接触,你无法预测技术带来的美好以及它如何被误用。通过部署这些AI系统,通过学习,并通过获得人类反馈来改进,我们已经做出了非常好的模型,”他补充道。