2022年11月,人工智能公司OpenAI推出了一款名为ChatGPT的聊天机器人程序,上线仅仅两个月,活跃用户数就突破了1个亿,引起了社会各界的广泛关注。
微软联合创始人比尔・盖茨称,“像ChatGPT这样的新程序将通过帮助写发票或邮件来提高许多办公室工作的效率。这将改变我们的世界。”特斯拉CEO马斯克也表示,ChatGPT好得吓人,我们离强大到危险的人工智能不远了。
ChatGPT拥有多项令人咋舌的能力:通过学习和理解人类的语言来进行对话,根据聊天的上下文进行互动,甚至能完成撰写邮件、视频脚本、文案、翻译、代码等任务,是搜索引擎+自动编程+内容创作的超级人工智能。
一时间,关于ChatGPT或将取代搜索引擎,进而取代不少人类从事的工作的说法甚嚣尘上,创新工场创始人李开复甚至撰文总结了20种可能会被取代的职业。
但基于深度学习机制的ChatGPT真的如此强大吗?人类智慧与人工智能的相互较量如何?我们该如何正确看待ChatGPT的出现?
其实许多关键知识点,小北在此前的文章或是推荐的图书中都有谈到,今天让我们看看这几位学者的观点,或许可以为你拨开云雾见青天。
01
溥哲夫:机器其实并不理解语言
为了掩盖机器不理解语言的这一事实,人们可费了不少脑筋。其中一项业务虽然微小但很有趣,就是将大量的恶作剧和小惊喜嵌入交互式语音驱动软件中,也就是我们说的“彩蛋”(Easter eggs)。
如果你使用苹果公司的Siri、亚马逊的Alexa或微软的Cortana(三款均为智能语音助手),并要求它们打开舱门,你通常会得到与电影《2001太空漫游》相关的回应。谷歌的Allo即时通信应用程序一度设置的答案是:舱门外面的花盆底下有一把备用钥匙,你可以自己开门进来。Siri是苹果手机(iPhone)自带的语音助手,它最为著名的就是拥有许多诙谐而机智的内置响应,用来回答人们关于表白、求婚、想要一个三明治或上帝是否存在等问题。
这些小把戏完全取决于海量的数据存储:一个存储着数万个常见问题答案的数据库。你可以把它想象成一个庞大的组合列表:每个组合中的第一个元素是一句话(实际上只是由数字表示的对类似声音的描述);第二个元素是一个指令,如果识别出第一个元素,就应该输出什么样的音频。
这回答中,有一些属于彩蛋,如下表所示;剩下的则是为相对比较无聊的问题所提供的合理答案,或是使设备运行相应搜索的触发机制:Where can we eat around here?(附近有可以吃饭的地方吗?)可能会触发地图搜索,找到手机当前位置方圆一公里内被标记为餐厅的商铺,等等。但是,这种机械性的自动触发响应与理解句子并无关系。这只是在虚张声势罢了,依据的主要是人们常用问题的统计数据。计算语言学家马克·斯蒂德曼(Mark Steedman)将这种基于统计的信息检索描述为“愈发擅长于回忆已经众所周知的东西,理解过去常说的话”。
与计算机程序甚至是机器人的真实对话,已经远远超出基本的语言理解任务。我们遇到了一个奇怪的事实:诱导用户相信人机对话已经完全实现,比让他们相信这种对话实际上只是部分实现还要更容易。一旦用户被成功哄骗,相信他们真的正在(与计算机)谈话,那么问题来了:现在再告诉他们真相还有多大意义呢?
这是一个概念性问题。阿兰·图灵(Alan Turing)曾于1950年在哲学期刊《心智》(Mind)上发表了一篇论文,其中便提到:如果你无法辨认你在电脑终端上的信息是人类还是机器回复的,那么为什么只有当人类参与时这种回答行为才被视为是智能的,而如果是计算机给出了答案则否认这种回答行为是智能的呢?为什么计算机不能被认为是智能的呢?
1966年,约瑟夫·魏泽鲍姆(Joseph Weizenbaum)曾(无意中)强调了这个问题,证明隐含的测试对于机器来说太容易了。他编写了一个名为ELIZA的程序,该程序在输入的句子中查找模式和关键词,并以脚本为基础实施某些简单的操作,从而根据输入生成输出的句子。
最著名的脚本名为DOCTOR。它让ELIZA模拟罗氏(Rogerian)治疗师,通过转换用户的输入内容来提问。如果用户提到某种事物与其他事物相同,那么DOCTOR脚本可能会让ELIZA问“在什么方面?”(In what way?);任何提及父母的输入内容,都会触发“多跟我谈谈你父母吧”(Tell me more about your parents)的回复;等等。通过挖掘用户输入的单词序列来得出某种特定模式,计算机伪造出了一种非常自然的对话形式。而让魏泽鲍姆惊讶的是,一些参与测试的人逐渐表现出了像是真的在与智能实体进行有效沟通的样子。
在第一台通用目的的电子计算机ENIAC发布仅20年之后,ELIZA于1996年编写完成,那时微处理器或个人计算机还远未得到开发,因此它的运行只需要很小的内存。事实上,它的资源需求非常之少,其中一个版本还作为复活节彩蛋嵌入大多数Unix,Linux和Mac OS系统都免费提供的Emacs文本编辑器中(通过输入“M-x doctor”来调用)。ELIZA实验表明,我们对机器智能的测试最好不要基于一些简单的事情,比如让一位普通人相信他正在(与人)进行对话。
除了复杂的语言处理之外,我其实并不确定机器能否提供真正的普遍智能的证据。计算机的这种与语言无关但却被推定为拥有智能的表演,开始引起媒体的注意,并被冠以“人工智能”的标题,可是在我看来并非智能行为的好例子。
计算机程序AlphaGo(阿尔法围棋)已经用实践证明,它可以击败任何人类围棋棋手。围棋是一种非常复杂的策略游戏,通过在19乘19的方格棋盘上放置棋子来占地盘。但是,AlphaGo能做的也只有下围棋,而且它甚至不知道自己正在下围棋。它只是机械而重复地遵循着内置的策略,即搜索可能的移动序列的巨大树库,在这个树库的每个分支点处都会指示如果沿着那个分支走下去的获胜可能性。它无法从现有的棋盘格局中推断出所有可能性,在每个阶段都计算可能的胜局;这样的不同结果即使是对电脑来说也太多了。在搜索结束之前,宇宙恐怕都已经毁灭了。但是,它有大量的随机样本,考虑到比任何人所能考虑的都要多得多的可能棋局,并且储存在这一过程中发现的所有有用知识。
它是通过令人难以置信的速度和大容量的内存而获胜的,当然,还有作为机器的永不疲惫以及没有预感。它没有技巧或优雅可言,也意识不到对手的策略;AlphaGo甚至不知道对手的存在,只知道某些动作被输入了而它必须做出反应。
实际上,开发者发现,创建一个更加熟练的程序的最好方法是根本不提供初始策略指令,只需让机器通过自己与自己下数百万盘棋,来学习什么(走法)是有效的。(人类无法做到这一点,但计算机的内储存器可以分为两个不允许互相访问的独立区域。)AlphaGo的活动体现的是不知疲倦、闪电般快速的自动指令追踪,而不是通常意义上的智能。
举一个例子:假如是人类的话,如果发现自己注定会在这场围棋对弈中失败,那他将会决定何时退出比赛,毕竟浪费对手的时间也是不敬的。然而,AlphaGo则必须被告知何时应该退出比赛(如果它计算的获胜概率低于20%,则会弃子认输)。程序员之所以在程序里这样写,是因为AlphaGo并不知道对手的存在,也不知道人类不想浪费自己的时间。
语言学为什么重要
作者:[英]溥哲夫(Geoffrey K. Pullum) 著 吴迪译
语言是什么?语言学是什么?语言学在当下有什么重要意义?语言学的未来何在?
02
徐英瑾:现在所有的主流的基于数据训练的人工智能永远不可能达到智能的标准
作为一名哲学系教授,徐英瑾近年来对于人工智能非常关注,他对元宇宙、通用人工智能的哲学思考引发了舆论关注。
在徐英瑾看来,ChatGPT代表的计算机和人类真实思维方式非常不同,因此它生产的内容只能达到一般人类的平均水平。
“人类的真实思维方式是基于小数据而不是大数据。婴儿只通过很少的语料就可以掌握一门语言的日常对话,并且学会简单的语法后就会自由组合和创新,而ChatGPT需要经过大量语料的学习。”徐英瑾介绍,“能通过很少的情报推理出很多结论,这就是聪明人。而ChatGPT获得了很多情报却只能鹦鹉学舌。”
对此,徐英瑾表示,“从这种意义上说,我始终认为无论ChatGPT或深度学习、或者是现在所有的主流的基于数据训练的人工智能,它只能够变成一般人的意见,加一个平均统计化、持续化处理的机器,它永远不可能达到智能的标准,也就是所谓的创造性、独创性和进步性。”
徐英瑾介绍,不同的人应用搜索引擎产生的效果不同,人类在使用搜索引擎时要对自己搜索的结果负责,所以搜索技巧好的人很快能搜到需要的信息,搜索技巧差的人则不能,从中可以看出不同人之间能力的差别。他表示,“精英体制在搜索引擎的时代没有被真正动摇,但一旦到了ChatGPT时代,专家的工作却被肯尼亚的数据标注工替代。”
此外,徐英瑾还认为,当今世界中,文化、风土和政治因素在人工智能当中影响已经变得越来越明显。
“ChatGPT是美国公司,在肯尼亚数据标注员的工作中,会有政治正确的内在训导。”徐英瑾表示,“比如对平权意识、种族问题、性别问题等,它都会有一套符合美国政治标准的处理方案,所以它本身是训规美国意识形态的一个意识形态生成器,并不是一个纯粹全球性的东西。”
除了政治见解的规训之外,徐英瑾还担心,ChatGPT可能会掩盖住学术界的重大发现。
“极少数精英被接受的过程,其实也要靠其他精英的认可。”徐英瑾以爱因斯坦为例介绍称,爱因斯坦的相对论被诺贝尔奖评审所认可和接受,经历了十分漫长的讨论和研究,诺贝尔奖一开始不肯颁发给他,因为认为它实验证据不足。相对论被接受的过程包含了众多专家学者细腻和大量的投入。
“我担心的是,学术界如果习惯了ChatGPT这种快速简洁的回答,爱因斯坦这种需要慧眼才能发掘的、对人类产生重大影响的发现,很可能会被掩盖住。”徐英瑾表示。“比如学生向老师提问,老师不会直接给答案,而是给学生参考阅读书目。现在ChatGPT是直接给答案,但有学术价值的是参考书目。为了学术界发展,ChatGPT需要改版,所有的答案都要给出处。”
人工智能哲学十五讲
作者:徐英瑾
一部能让人读懂人工智能的哲学逻辑及发展经验的上乘佳作,饱含对当前人工智能发展路向的深刻反思。
03
刘永谋:警惕新技术风险,但不必恐惧ChatGPT
乔姆斯基说,ChatGPT就是个高科技抄袭工具。他的话有些偏激,可能主要针对的是用chatgpt糊弄老师的学生。但是,他的观点还是很有道理的:从根本上说,chatgpt并未创造新知识,只是重复已有东西。
Chatgpt的大模型预训练依赖的是网络上的海量数据。它的回答没有自己的看法,不过是对网上观点的综合和归纳。如果你的问题网上没有东西,chatgpt就开始一本正经地胡说八道了。它的表达看起来很“有人味儿”,主要是因为拥有看到一个词预测下一个词的词语链接能力,此种能力主要从海量数据中统计两个词关联概率而获得。
仔细想一想,chatgpt惊人的成功,在某种意义上很好地模仿了人类的语言行为。语言是智人创造工具,但绝大多数人在绝大多数时候说的都是别人说过的话。听起来好像不一样,实际思想内容很贫乏,都是在重复前人的思想。并且,其中还有很多蠢话、废话和胡扯。这么看来,chatgpt很人性,可以通过图灵测试。
图灵设计了著名的图灵测试,即在一个双盲测试中,如果参与者区分不出(超过30%的误判)与自己对话的是人还是机器,那么这台机器就通过了图灵测试,并被认为具有人类智能。
我以为:警惕新技术风险,但不要恐惧ChatGPT。
具体到教育领域,怀进鹏部长在世界数字教育大会上指出,“我们将深化实施教育数字化战略行动,一体推进资源数字化、管理智能化、成长个性化、学习社会化,让优质资源可复制、可传播、可分享,让大规模个性化教育成为可能,以教育数字化带动学习型社会、学习型大国建设迈出新步伐。”这应该是中国教育应对ChatGPT冲击的大方向。
ChatGPT的社会冲击力正在逐渐展开,已经看到此类AIGC技术在教育领域的应用将产生颠覆性的影响,包括改变未来教育的根本方向和目标。最近的学习,大家想到的一些问题不少:
1.传递知识不再是教育最重要的目标,而是会被创新能力培养所取代。
人类的认知活动是由层级的,就像写论文从收集资料、归纳总结前人观点、批判性分析既有材料再到形成创新性观点。基于深度学习的ChatGPT,能力以归纳总结和简单应用见长,以后与搜索引擎融合后会叠加上收集资料的能力。中国的应试教育的知识传授目标,和ChatGPT的能力是差不多的,如此培养的学生当然要失业。但是,深度批判性分析,以及创造新知识,AIGC都是做不到的。所以,如何在既有知识基础上创造新知识、新想法,应该成为未来教育的重心。
对此,学生也得有意识,不能产生新想法、新东西的学习,基本上就是浪费时间了。记住:并非知识越多,创造力越强。当然,没有基础知识,也没有办法创新。
2.AIGC对文科专业冲击很大,文科教育必须及时做出应对。
文科教育传授的知识,早就可以在网上找到了。比如唐诗宋词,为什么要背呢,需要的时候百度一下都有。以前说,文科教育看得到的成果,一是会说会写,二是外语流利,现在这两样都要被ChatGPT“打脸”了。
怎么办?除了创新能力,未来处理人与人关系的能力,尤其是组织能力、合作能力、协调能力,对于学生未来的生存竞争力同样很重要。无论多么智能,AI始终是机器,在需要人与人交往的场合中永远不可能取代人。除非人类灭绝,否则社会必定会有大量需要人际关系处理能力的工作岗位。由此,未来人文教育要注重与人际交往的价值观、同理心和人文素质的培养,毕竟大部分的学生未来并不一定以新知识生产为业。
除了工作能力,文科教育还可以培养人们幸福生活的能力,比如审美能力能帮助我们过上更美好的生活。我认为,机器人越来越多代替人类劳动,我们会有更多闲暇,不会美好生活以后会成为大问题。
3.应该工具论地看到ChatGPT在教育领域的应用,反对新科技的技术实体论。
ChatGPT自带价值观,不等于大模型技术本身有价值观,它的价值观来自网上的材料以及工程师的调整。我大致赞同马克思的技术工具论立场,但认为它要适应新科技的发展而进行调整。对ChatGPT的意识形态忧虑,就是典型的技术实体论,即某种技术带有某种价值观,是无法改变的。
AI是一种工具,有不同的方式应用于教育领域。应用得好效果好,应用得不好效果不好,不能说AI注定对教育有利或不利。用得好不好,责任在使用者,不在AI。新科技不能成为所有问题的背锅侠。ChatGPT技术也一样,我相信它能够很好地运用于中国教育场景,帮助我们培养更多创新性人才。
老师也好,学生也好,教育管理工作者也好,都应该对新科技持有积极的态度。相比学生,现在的老师尤其文科老师落后新科技发展很大。
4.仅仅是传授基础知识,也不应是死记硬背,而是要在传授过程中训练思维和认知能力。
在知识学习中,可以训练人的观察、记忆、理解、总结、分析、推理、提问、想象、表达和批判等各种各样能力。应该以分解能力的提高为线索,来组织基础知识的传授,使学生在基础知识学习的同时提高思维和认知能力。记忆只是其中之一,分解能力的发展要全面。
当然,这会对应试教育冲击很大。如何评价各项能力,本身就是一个很大的问题。举例来说,什么样的问题是好问题,我以为能够催生新想法的问题是好问题,可这不好评价。目前,能合格地如此去教、能合格地如此评的老师就很少。
无论如何,随着AIGC、搜索引擎等越来越发达,教育中的记忆中心论可以休也。
科技与社会十四讲
作者:刘永谋
为“新科技的社会影响”画像。在期待与忧惧交织的科技新世界, 人类何为?
04
寇宗来:AI能否取代人类是个经济学问题
人们日益相信,随着AI算法和计算能力的提高(比如量子计算机取得突破性进展),人工智能的发展将是一日千里。对于任何可描述的任务,只要有足够的开发投入,人工智能或许可以战胜任何人。
然而,人类无法战胜人工智能,与人工智能可以替代人类是两个概念,前者是个技术问题,后者是个经济学问题。
任何时候,计算机制造都需要原材料,计算机运行都需要能量,算法设计更是需要人工;用一句话来说,AI替代人,不是免费的,需要成本。经济学提出的问题是:AI会在什么地方、以何种方式替代人类?这又会产生什么后果?
高度智能化机器人的出现可能会极大地颠覆黄金律和卡尔多事实。在生产端,智能机器人展现出“人”的一面,能够替代劳动;但在收益端,智能机器人则展现出“机器”的一面,收益归于资本家。智能机器人既是机器又是人的特殊性质会极大地改变资本积累对劳动工资的影响机制。
原来的情况是资本和劳动在边际上虽然是替代的,但本质上是互补的,没有劳动投入或者没有资本,产出都为零;故随着资本快速积累,劳动变得稀缺,工人工资会随之提高。而随着智能机器人的智能化程度不断提高,它们可以在越来越多的任务上完全替代人工;故在这些生产环节上,企业为了追求利润最大化,都会比较雇佣工人和使用智能机器人的相对成本,一旦人工成本更高,企业就会选择使用智能机器人而不会雇佣工人。
智能机器人作为机器和资本,其成本由利率决定;由此,一旦智能机器人在功能上可以完全替代工人,则必然可以推出一个结论,即劳动工资会被利率锁定,并不会随着资本积累而增加。进一步来说,给定工人数量相对不变而工资被利率锁定,更多的资本意味着更多的产出,则劳动收入占比随着资本积累和经济增长而不断下降将是不可避免的趋势。
机器替代人不是没有成本的。相对于雇佣工人,使用智能机器人的边际成本虽然可能比较低,但需要较高的固定成本,因为针对特定的任务,使用智能机器人的启动成本和调试成本都是不菲的。既然使用智能机器人的特点是固定成本高而边际成本低,雇佣工人的特点是固定成本低而边际成本高,因此可以得到一个自然的推论:在人工智能时代,规模化大生产过程中的工人将会逐渐地被智能机器人替代。
作为资本主义的批判者,马克思对资本主义的赞扬超过任何学者,他毫不犹豫地指出,资本主义所创造的生产力是过去任何时代加起来都不可比拟的。但马克思又深刻地指出了资本主义生产方式的本质矛盾,即社会化大生产和生产资料的私人占有之间不可调和的矛盾。
对于资本主义生产方式的本质矛盾,马克思给出的解决方案是共产主义,而共产主义的前提条件的基本特征是:生产力极大丰富、劳动成为人们的第一需要,以及按需分配。对很多中国人来说,这三点是可以熟练背诵的,但本着实事求是的态度,我们必须承认,要真正理解其含义是非常困难的。
卡尔·海因里希·马克思(Karl Heinrich Marx,1818—1883)
按照日常的生活经验,每个人大概都是“好逸恶劳”的,尤其是在雇佣关系中,如果没有监督,人们往往都会有偷懒的动机,这与劳动成为人们的第一需要的自觉状态相去甚远。另外,生产力在何种意义上才能算是极大丰富?受制于硬性的资源约束,生产力不管如何发展,也总归是有限的;一旦有限的生产力遇到人的无穷欲望,就显得捉襟见肘。生产力极大丰富、按需分配,再加上人的欲壑难填,怎么看都好像是个无解的“联立方程”。然而,根据之前的分析,一旦引入智能机器人,这个看似无解的联立方程将迎刃而解。
首先,在规模化大生产中,采用智能机器人的平均成本必然会低于工人的生存工资;反过来理解,若以生存工资作为度量单位,生产力极大丰富就具有了非常直观的含义,即采用智能机器人的平均成本低于工人的生存工资。
其次,给定采用智能机器人的平均成本低于工人的生存工资,工人若要参与规模化大生产,劳动就必须成为他们的第一需要,即劳动本身必须带给他们快乐;或者说,为了能够与智能机器人竞争,工人必须接受低于生存工资的工资水平。
最后,按需分配不是人们想要什么就可以得到什么,而是从整个社会的角度来看,每个人的收入水平都至少要满足生存。但是,给定参与规模化大生产的工人直接的收入水平低于生存工资,那么要让他们最终所得不低于生存工资的唯一办法,就是使其可以分享与智能机器人所对应的资本收益。这一点实际上并不全是想象中的无稽之谈。在芬兰,已经有了全民基本收入计划(universal basic income,UBI)的大规模实验;在美国,扎克伯格和曾经有意竞选美国总统的华裔参选人杨安泽也都支持类似的计划。
很多人之所以批评马克思的经济理论,是因为在他们看来,马克思在讨论价值决定时只强调了供给面,即社会必要劳动时间,却完全忽略了同等重要的需求面因素,即缺乏一个新古典体系下的向下倾斜的需求曲线。但作为“先知”的马克思或许已经知道,论证共产主义并不需要新古典体系下的需求曲线。因为面对资本主义生产方式的基本矛盾,有了社会必要劳动时间,再加上水平的生存工资线,就足够了。