人工智能对齐(英语:AI alignment)是指引导人工智能系统的行为,使其符合设计者的利益和预期目标。一个已对齐的人工智能的行为会向着预期方向发展;而未对齐的人工智能的行为虽然也具备特定目标,但此目标并非设计者所预期
– 维基百科
”
OpenAI对抗“人类灭绝风险”
(这绝不是标题党)
ChatGPT的创造者OpenAI认为10年内超级智能可能不仅会剥夺人类权力甚至会“灭绝人类”
因此需要建立新的超级智能对齐技术,用魔法打败魔法
他们承认”我们没有办法引导或控制可能超级智能的AI,防止它失控。”
OpenAI和Google’s DeepMind可谓是目前最先进的通用人工智能的制造者。如果这是一个好莱坞剧本,那它可以成为”终结者”的衍生剧或”银河战士”的新前传!
还记得@elonmusk曾警告
“
人工智能的进步速度快得令人难以置信——它以接近指数的速度增长。严重危险的事情发生的风险在五年的时间框架内。最多十年
– Elon musk
特斯拉总裁
”
尽管存在灭绝风险,为何要构建“天网”?
这是我首先想到的问题。我们为什么想要创造超级智能?
嗯……我并不孤单。今年四月,包括Elon Musk、Stability AI的Emad Mostaque,以及DeepMind的许多研究员和各种教授在内的超过1000名AI领域的人士表示:“大型玩家对他们正在做什么变得越来越秘密,这使社会很难防御可能出现的任何危害。”
所以我们现在处在一个十字路口,要么我们:
1)暂停对超级智能的创新
2)尽可能快地保持创新
3)位于中间,放慢发展以避免事情失控
显然,选项3似乎是最合逻辑的解决方案,除非我们是人,人是愚蠢的。我们过于短视,专注于金融回报,而忽视了长期风险。
AI将解决AI的问题?
DeepMind和OpenAI一直在处理他们称之为AI对齐的问题,这可能会带来意想不到的结果。
简单来说,这些系统是被“教”出来的,而不是被编程出来的(你可以把程序想象成一种脚本)。所以如果AI做了我们想要的事情,就会给予正面的反馈,如果做了错事,就会给予负面的反馈。这基本上和训练狗或小孩是一样的。
不幸的是,对齐的问题在于有时候这并不起作用,机器会做出不可预测的事情。现在将这种情况与比我们更聪明的超级智能混合,那么错误可能会导致核武器的发射或传染病的释放。
那么OpenAI将会做什么呢? 他们有一个计划,大概是这样的:我们将训练AI来纠正AI的对齐问题,并使其尽可能聪明。
是的,你没看错:AI将解决AI的问题
AI安全倡导者Connor Leahy表示,这个计划是有问题的,因为”你必须在构建人类级别的智能之前解决对齐问题,否则你默认就无法控制它。我个人并不认为这是一个特别好或安全的计划。”
所有的A.I都危险吗?
答案显然是否定的,AI将以我们无法想象的多种方式改变我们生活的世界,使之变得更好。然而,问题是,好处是否会超过风险?
以下是基于当前有限应用的A.I的风险清单:
1)自主武器
2)社交操纵
3)隐私入侵
4)错误信息和假新闻
5)偏见和歧视
6)网络安全
7)工作流失…
这个列表还在继续。
我的想法
AI让我比核战争、大流行病和全球变暖更加担忧。与此同时,它是我能想象到的最令人兴奋的技术之一。
我认为,在AI失控之前对其进行管制的船已经起航了。人性将迫使我们尽管存在对我们存在的风险,但仍会以我们能够的最快速度进行创新。 人们也不会对此予以关注,至少在太晚之前不会。
我希望我错了……
AI让你担忧吗?