一个实体拥有地球上每个人及其习惯的大量信息(因为互联网搜索),它可以用我们无法意识到的方式控制我们。
最糟糕的场景并不是人类与机器人之间的战争。
最糟糕的是,我们没有意识到自己被操纵了,因为我们与一个比我们聪明得多的实体分享这个星球。
包括OpenAI和谷歌Deepmind负责人等在内的专家警告:
人工智能可能导致人类灭绝
但是机器如何取代人类呢?
自2022年11月推出以来,OpenAI开发的ChatGPT在不到两个月的时间,活跃用户达到1亿,成为历史上增长最快的互联网应用程序。
各大高科技公司纷纷入局,推出各自的AI大模型以及应用。
谷歌推出PaLM 2 AI模型以及Bard聊天机器人,Meta推出LLaMA,百度发布文心一言,华为发布盘古大模型,阿里发布通义。
华为发布盘古大模型
ChatGPT、Midjourney、Bard等人工智能产出的文本(从散文、诗歌和笑话到计算机代码)和图像(如图表、照片和艺术品),几乎与人类自己的作品一模一样,难以区分。
作家们用它来写文章小说,记者用它来写新闻稿,学生用它写论文,程序员用它来写代码,AI无所不能。
AI浪潮袭来,引发了人们对人工智能影响人类未来的激烈猜测。
5月30日,国际AI领域非营利组织“人工智能安全中心”(Center for AI Safety)发布公开信:
减轻人工智能带来的人类灭绝风险,应该与大流行病和核战争等其他影响社会的大规模风险一同成为全球性的优先事项。
现在我们处于人工智能的第一阶段,还有两个阶段即将到来,科学家们是害怕二、三阶段会威胁到人类的生存。
第一阶段:弱人工智能(Artificial Narrow Intelligence)
弱人工智能也被称为限制领域人工智能,专注于单一任务,在一系列功能中执行重复性工作。
比如国际象棋程序,能够击败世界冠军,但无法执行其他任务。手机上的GPS地图,无人驾驶汽车,都是弱人工智能的形式。
这些不能在设定的角色范围之外运作,所以不能靠自己做决定。
专家认为设计为具有自动学习功能的系统,如ChatGPT,可能会进入下一个发展阶段。
第二阶段:人工通用智能(Artificial General Intelligence)
当机器能够完成人类所能完成的任何智力任务时,人工通用智能AGI(Artificial General Intelligence)就将到来, 也被称为“强人工智能”。
马斯克的成立公司xAI的目标:创造AGI(人工通用智能)
2023年3月马斯克、苹果联合创始人、 OpenAI等上千名科技大佬和AI专家联名签署,生命未来研究所发布的《暂停大型人工智能研究》的公开信:
“呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持 续6个月。
人工智能开发者必须与政策制定者合作,大幅加快开发强大的人工智能治理系统。”
OpenAI CEO山姆·奥特曼, 从ChatGPT开始,AI出现了推理能力。但没人能解读这种能力出现的原因,AI确实可能杀死人类。随着人工智能的发展,政府对他的行业进行监管是非常重要的。
OpenAI CEO山姆·奥特曼
生命未来研究所的公共政策研究员古铁雷斯,人工智能带来的巨大挑战之一是,没有一个由专家组成的联合机构来决定如何监管它,就像政府间气候变化专门委员会(IPCC)那样。
如果这样,我们就可能进入人工智能的第三阶段。
第三阶段:超人工智能
当人工智能超过人类智能时,将很快进入第三阶段“超人工智能”
“人类要成为工程师、护士或律师,必须学习很长时间。通用人工智能的问题在于……它可以在我们做不到的时候不断改进自己”
人工智能专家博斯特罗姆(Nick Bostrom)
牛津大学哲学家、人工智能专家博斯特罗姆(Nick Bostrom)将超智能定义为“在几乎所有领域,包括科学创造力、一般智慧和社交技能,都远远超过最优秀的人类大脑的智能”
杰弗里·欣顿(Geoffrey Hinton)
所谓的“人工智能教父”杰弗里·欣顿(Geoffrey Hinton)警告:
现在AI机器并不比我们聪明,但他们可能很快就会这样。
试想以下,参与者决定赋予机器人创造自己的子目标的能力,机器最终可能会创造出“我需要更多权力,这样的子目标,这将带来“生存风险”
永生还是灭绝
科幻作家预测,到2030年,因为AI纳米机器人(非常小的机器人)在我们体内工作,能够修复和治愈任何损伤或疾病,人类将实现永生。
英国物理学家斯蒂芬·霍金在2014年,曾发出过严厉的警告,具有这种智能水平的机器将自行发展,并以越来越快的速度重新设计自己。人工智能的全面发展可能意味着人类的终结。
当面对人工智能的巨大挑战和潜在风险时,全球需要紧密合作,共同建立有效的监管和治理机制。只有这样,我们才能确保AI技术的安全发展,为人类创造一个充满希望和繁荣的未来。