0°

OpenAI CEO:我有一个可以随时终止GPT的按钮

  “我们自己有点害怕ChatGPT,但人们应该很高兴看到这一点。”

  围绕ChatGPT风险和人工智能将如何重塑社会,OpenAI首席执行官Sam Altman和首席技术官Mira Murati近日接受美国ABC新闻采访。

  在采访中,主持人的提问算得上“尖锐”:为什么在你们能够确保安全之前就公布ChatGPT、它可能带来的最坏结果有哪些、AI的出现是否会让百万人失业,甚至涉及Sam和马斯克之间的关系等等问题。Sam的回答帮助我们窥探这家开发出即将带来生产力技术革命的公司,是如何看待自己产品的。

  我们对这段访谈中的重要问题进行了节选:

  01

  对话CEO Sam Altman

  Q

  ChatGPT的发布既令人兴奋又恐惧。一方面它有强大的能力,但另一方面有巨大的未知以及可能产生不好的影响,你怎么看?

  Sam

  我们必须时刻保持谨慎,我认为这件事不是在实验室内能够完成的,而是要把这些产品放到社会中去使用,与现实世界进行接触,在风险很小的时候犯错误,收集这些错误信息,并在未来的系统中进行改进,这在OpenAI中形成了一个紧密的反馈循环,让我们能够避免AI技术导致一些非常恶劣的后果。其实我们是有点害怕AI技术的,但总体来看,我认为人们反而应该为我们已经产生的微小恐惧而感到高兴。

  Q

  你是指你个人产生了微小的恐惧?

  Sam

  如果我否定,你不会相信,也不会信任我从事这份工作。

  Q

  AI技术可能导致的最坏的结果是什么?

  Sam

  其实有非常多可能的结果,这其中我最大担心的是用于制造大规模虚假信息、编写网络病毒,我们试图讨论解决这个问题。

  Q

  为什么在还不确认安全的时候,就公布了ChatGPT?

  Sam

  这是人类迄今为止开发的最伟大的技术。我们每个人都可以拥有一个量身定制的老师,帮助我们学习、帮助我们做事情、提供给我们关于医疗的建议。我们可以用AI来解决全新的问题。我们可以和AI一起合作创造美妙的事物。

  但巨大的潜力同样带来潜在不利因素,人们还需要时间适应这项技术,去了解它的风险。如果我们只在小实验室秘密开发,在没有接触真实世界的情况下,直接把ChatGPT问世,只会产生更多的风险。

  Q

  是否有一个开关可以立即终止这个系统?

  Sam

  是的。我们可以立刻禁用它。

  *有网友开玩笑称,Sam Altman总是带着这个“核背包”,如果GPT失控,Sam可以用它远程引爆数据中心。

  Q

  人们不应该用它做什么?

  Sam

  我要提醒的一点是关于“幻觉”。ChatGPT能够自信地陈述观点,你使用得越多,就会越信赖它,而不是把它当作一个语言模型,去检验它提供的答案。

  Q

  如果模型中有一堆错误的信息,不就会生产出更多错误的信息?

  Sam

  这是个很棒的问题。我认为正确的方式是去创建一个推理引擎,而不是事实数据库。模型可以充当事实数据库,但这不是他们真正的用武之地。我们训练模型去接近更加理性的事物,而不是引用。

  Q

  AI的出现会让百万人失业?

  Sam

  事实证明,我们推动的这项技术,朝向成为人类工具的方向发展。成为人类的放大器。

  人们使用ChatGPT有一个使用曲线,一开始是怀疑,逐渐熟悉后开始感到害怕,再使用,然后帮助我们更好地完成工作。人类历史上每一次技术进化都会带来工作机会的消失,我们能从中得到你这个问题的答案。人类对新事物的需求和对创造力的渴求是无限的,这些需求会产生新的工作机会。我们会发现新的事情、新的岗位。我们当然不知道未来是什么,但一定会有各种奇妙的事物出现。

  所以,变化不是我担心的。我最担心的是变化的速度。

  Q

  你们如何决定哪些事情放进OpenAI中,哪些不应该有?

  Sam

  我们有政策小组、安全小组,并与世界上的其他团体保持交流。GPT4完成得很早,大概是7个月之前,这期间内部始终在与外界沟通和交流。

  Q

  马斯克是早期投资者,但已经离开。他提出我们需要“真实的 GPT”,他说得对吗?

  Sam

  我认为他说的是对的,我们希望AI能提供真实的内容。但我没看到他完整的话语,我不知道他想表达的意思。

  Q

  你和马斯克还说话吗?

  Sam

  是的。我非常尊重他,但我们对AI有不同的意见,在本质问题上,我们的分歧大过一致。

  02

  对话CTO Mira Murati

  Murati于1988年出生于阿尔巴尼亚。2011 年在高盛实习,在加入 OpenAI之前,她在特斯拉工作了三年。随后,她于 2018 年加入 OpenAI,后来成为首席技术官,负责监督 ChatGPT,同时,她也是人工智能监管的倡导者之一。

  Q

  作为ChatGPT的最主要构建人之一,你最担心的安全问题是什么?

  Mira

  这是一项非常通用的技术,每当你拥有如此通用的东西时,是很难预先知道所有功能、潜在影响、局限性等等。

  Q

  有人能够引导这个系统产生负面的结果吗?

  Mira

  答案是肯定的,人们可以引导AI产生负面结果,但同时这也是我们放出这项技术的原因,我们需要从用户使用的反馈中学习怎样规避这些负面结果。比如在GPT-4中问如何制造一枚炸弹,那么相较于上一个版本,GPT-4更有可能拒绝回答这个问题。

  Q

  随着时间推移,AI会更像人类吗?

  Mira

  我们到了一个奇点,AI已经能够进行大量认知,以及替代人类在某一些领域的工作。

  Q

  你和你的团队作出一些选择,如何确定哪些是对的,哪些是错的?

  Mira

  随着我们取得技术上的进展,这些选择和决策变得更加困难和微妙。我们试图让用户可以用一种自定义、个性化的方式使用,为用户提供灵活性和选择,让AI符合用户个人的价值观和信仰,这非常重要,我们在努力。

  Q

  换句话说,未来每一个人都可以拥有一个为自己量身定制的AI?

  Mira

  是的。为了安全,我们正在建立一些宽泛的边界,在边界之内,人们有很多选择,让AI代表自己的信念和价值观。

  Q

  我们如何考虑负面后果?

  Mira

  我们正在打造一个非常强有力的系统,这一定会产生潜在的风险,但我们也在尽力提前预测和预防这些风险。这是OpenAI这家公司为什么存在,以及这是我们努力的目标。

  通过这次访谈我们发现,OpenAI对ChatGPT的诞生和发展抱着相当理性和克制的态度,但这并不能打消人们对AI技术的担忧。AI技术可能带来人类史上最大规模的技术革命,提高生产效率,变革生产方式,但和其他生产力革命一样,这也会导致大规模失业和其他潜在风险,且我们很难预测。如何利用AI新技术的同时,将其危害降到最低,这将是未来相当长时间内恒久的话题。

  ChatGPT 问答

  问

  怎么预测AI技术为人类社会带来的潜在风险?

  答

  ChatGPT:AI 技术为人类社会带来的潜在风险包括但不限于以下几点:

  人工智能失控:AI 系统可能变得无法控制,甚至产生对人类的威胁。这可能会导致自我复制、自我进化,甚至超出人类的控制能力。

  数据隐私泄露:AI 系统需要大量的数据才能进行学习和决策,但这些数据往往包含个人隐私信息。如果这些数据被恶意使用,就可能导致隐私泄露和身份盗窃等问题。

  人类工作被替代:AI 技术的进步可能会导致大规模的人类工作被机器取代,进而导致失业和社会不稳定。

  人工智能歧视:由于 AI 系统的决策依赖于训练数据,如果数据包含偏见或歧视性,AI 系统就可能对某些群体或个人做出不公正的决策。

  恶意攻击:AI 系统可能被恶意攻击或利用,例如攻击能源系统、金融系统、交通系统等,造成社会和经济崩溃。

  预测 AI 技术带来的潜在风险需要综合考虑多种因素,如技术的发展方向、应用场景、政策和法律环境、社会文化等。对于潜在的风险,我们需要采取适当的预防和管理措施,例如制定合适的法律法规、建立监管机制、推进技术安全性的研究等。同时,我们也需要加强公众的理解和参与,以确保 AI 技术的发展符合人类的利益和价值观。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论