21世纪经济报道见习记者赖镇桃 广州报道
放弃四年后,OpenAI决定重拾“机器人梦”。5月31日,有媒体援引知情人士的消息,OpenAI正在招聘研究工程师,以重启四年前解散的机器人团队。
也在上周,OpenAI发布GPT-4o不久后,官宣已开始训练下一代大模型,取代GPT-4。
OpenAI在加速狂飙的同时,最近却时常陷入安全、伦理问题的争端。
5月13日,OpenAI推出新的大模型GPT-4o,本以为会是电影“Her”照进现实,结果却因机器人“撞声”好莱坞明星斯嘉丽•约翰逊而遭控告。
几天后,OpenAI联合创始人、首席科学家伊利亚·苏茨克维尔(Ilya Sutskever),以及“超级对齐”团队负责人简·雷克(Jan Leike)接连出走,专门负责用技术规范AI的“超级对齐”团队也随之解散。一时间,有关OpenAI“商业化压倒理想主义”的声音甚嚣尘上。
屋漏偏逢连夜雨,OpenAI还频频被欧盟、美国的监管部门“盯上”,在数据准确性、用户隐私、内容垄断等问题上被调查。
屡屡深陷安全性争议,OpenAI是怎么了?
安全性危机
去年年底,OpenAI一出“逼宫”戏码,引发全球关注,但也撕开内部“路线之争”的一角——OpenAI创立时定位非营利组织,致力于“确保人工智能造福全人类”,但随着ChatGPT一炮而红,阿尔特曼为代表的“有效加速主义”和伊利亚尊崇的“超级对齐”之间分歧愈来愈大。
“有效加速主义”希望加速AI的突破和普及,先扩大市场再根据数据和反馈做调整,“对齐”(Alignment)要求AI系统的目标要和人类价值观与利益相一致,用更谨慎的步调发展AI。伊利亚作为OpenAI的灵魂人物,也是“深度学习教父”辛顿的大弟子,深信在打造下一代大模型之前,应该先弄清楚如何阻止超级人工智能变得不受控制。很明显,伊利亚和追求打造AI宏图的阿尔特曼之间,有着难以调和的分歧。
有消息称,阿尔特曼在商业化的道路上走得过快,以至于“削弱了监督公司AI开发的能力”,是他被董事会“逼宫”出局的重要导火索。但后来,在员工和投资人联合施压下,阿尔特曼“回宫”重执大权,到近期代表“对齐派”的伊利亚、简·雷克离职出走,似乎意味OpenAI的路线之争已画上一个阶段性的句号。
只是,两位高管离职后,OpenAI里专门负责用AI治理AI、解决超智能对齐问题的“超级对齐”团队也随之解散。简·雷克官宣离职后,还发长文痛批OpenAI:“在过去几年,安全文化和流程都让位于华而不实的产品…有时团队难以获得足够的计算资源,严重影响研究的进度和质量。”
质疑的声音很快蔓延开来——在OpenAI的效率和安全之争中,是不是前者已经压倒后者,马斯克评价道,“这显示安全并不是OpenAI的首要任务。”
5月28日,OpenAI称董事会成立了一个负责把控AI开发方向的“安全委员会”,负责监督与公司项目和运营相关的“关键”安全和安保决策。
但新成立的安全委员会能否起到原本“超级对齐”团队的功能,至少从目前来看,阿尔特曼的补救举措还是未能打消外界的疑虑。
同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员朱悦向21世纪经济报道记者分析,目前OpenAI还没有公布太多关于委员会具体如何运作的信息,我们只能推测判断,之前的超级对齐团队有很好的算力,有伊利亚、简·雷克这样的顶级科学家还有一批非常精英的工程师,他们和大模型的训练团队有非常紧密的合作,一起提出很多设想,“对齐”的伦理价值是直接嵌入到技术或者说在大模型里面的。但近期成立的安全委员会,更像外部审核机构,针对安全问题做评估、发布报告,治理的价值就不一定像以前那样深入内化到技术里。
监管的压力
断断续续持续半年多的“内斗”暴露OpenAI价值对齐的倒退,外部监管也让这家人工智能前沿公司时常置身合规风波。
前段时间,欧盟对微软投资OpenAI的反垄断调查刚告一段落。5月25日,欧盟数据保护委员会(EDPB)的一个特别工作组又发布报告指出,尽管 OpenAI 在减少 ChatGPT 输出信息的错误率上做出了一定努力,但它仍然不足以确保“完全符合”欧盟的数据规则。
据悉,“数据准确性”是欧盟《通用数据保护条例》(GDPR)的指导原则之一,但报告指出,由于系统的概率性质,目前的训练方法导致模型可能产生偏差或编造的输出结果。同时,ChatGPT输出的结果很可能最终被用户视作“事实准确”。该报告称,目前一些成员国的调查仍在进行中,但上述结论已是各国的“共识点”。
根据条例,一旦确认违反GDPR,企业最高将被处以最高2000万欧元或企业全球年收入4%的罚款。去年,意大利还因为涉嫌违反隐私规则的问题对Open AI开出临时禁令,成为全球第一个封禁ChatGPT的国家。
中国现代国际关系研究院科技与网络安全研究所人工智能项目负责人谭笑间告诉21世纪经济报道记者,OpenAI去年被意大利下架,就是因为ChatGPT被发现大量收集和保存用户隐私,实际上,欧盟实施《通用数据保护条例》已有多年,素来有着重视用户隐私保护的传统,近期的调查也有一定敲打美国科技公司的政治考虑,但预计不会对OpenAI的运营造成根本性影响。
朱悦向记者表示,调查报告指出的准确性、透明度问题,基本上OpenAI把信息告知和提示做到完善,基本就能平息争议,也就是说ChatGPT需要告诉用户生成的信息可能是不准确的。但对OpenAI来说,欧盟政策制定者正在讨论的“合法性基础”(legal basis)问题才是尤为致命的,因为公司一旦需要用户同意作为合法性基础,才能收集和处理个人数据,那OpenAI训练大模型时就会受到极大限制,因为网站要收集数据变难了,就会面临训练数据不够的难题。
接下来,OpenAI等科技公司还将面对更严格的监管压力。
5月21日,欧盟理事会正式批准欧盟《人工智能法案》,标志着全球首部用于人工智能领域监管的法案即将落地生效。该法案将在欧盟官方公报公布20天后生效,2年后全面实施。
朱悦看来,欧盟《人工智能法案》的监管效应将会超出地区层面,对全球的人工智能治理产生影响。首先,欧盟立法有着俗话说的“布鲁塞尔效应”,除了人工智能领域,欧盟制定的很多规则会扩散到全球;二则,朱悦近几个月来也在从事《人工智能法案》的翻译工作,法案全文400多页、十多万字已是大部头,但法案背后其实是上千份立法材料,这相当于为后面国家制定法规提供了一整个立法资源库,无论这些国家是会借鉴还是抨击,但终究会不可避免使用欧盟《人工智能法案》的很多语言和工具。
同时,朱悦进一步指出,欧盟《人工智能法案》中的域外适用条款、等价性规定,也是把地区法规推向全球的表现。域外适用就是部分条款适用到欧盟之外的人工智能系统,等价性规定也即要把欧盟的规则投射到全世界,比如在版权领域,欧盟规定只要通用人工智能大模型是面对欧洲市场的,那么无论在哪个国家训练,都要遵守不低于欧盟要求的版权保护规定。
“欧盟在制定《人工智能法案》时,和全球多个科技巨头都有接触,所以也会跟进制定很多AI的技术标准、行为守则,”朱悦说道,在未来几年,欧盟对AI的治理理念和监管规则都会给全球带来影响。
如何抵达安全AGI
“对人工智能的监管是必要的。”阿尔特曼在去年5月的美国人工智能听证会上向参议员承认。
当生成式大模型掀起AI发展的又一波高潮,人工智能显露出更强大的能力,有关怎样规范AI、让其安全可控发展,成为愈加重要和迫切的公共议题。
清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜在4月的一次演讲中提及,AI 的潜在风险体现在多个层面,在个体层面,AI可能引发算法歧视、知识产权争议、信息错误等问题,这与技术本身相关。应用和开发过程中也有问题,包括数据隐私保护、防范伪造等。同时社会层面还有一些更长远的大问题,如劳动力结构调整、产业结构调整等影响。
“不能否认的是,普通用户在掌握AI技术的科技公司面前是弱势的,某种程度上用户没有针对自己产生的数据的完全掌控权,也很难对科技巨头发起追诉,”谭笑间向记者表示,“所以,政府有义务在推动人工智能发展的同时,让普通个体的权利得到一定保障,这也是技术治理以人为核心的意义。”
当前,AI治理已经进入不少国家政策制定者的视线。欧盟推出《人工智能法案》前,已经落地实施《通用数据保护条例》《数字市场法案》《数字服务法案》。美国拥有全球最多的大模型明星企业,拜登已于去年10月发布行政命令,要求联邦机构起草AI技术使用标准。与此同时,我国也正在积极推进《人工智能法草案》的立法工作。
“不同地区在AI治理上会有所差异,但整体还是发展导向,即使是AI立法走在前面、以强监管著称的欧盟,实际上也给人工智能的研发、开源留了很多豁免,”朱悦告诉记者,总体上欧盟偏向合作性的监管,要求企业和政府密切沟通、谈判出行为守则,亚洲国家基本还在立法工作规划阶段,美国的情况稍显复杂,一方面,科罗拉多州等美国地方在推动AI的监管立法,传统的监管框架也在发挥作用,比如联邦贸易委员会(FTC)有很灵活的执法权,以及美国是普通法系国家,大量判决先例可以辐射到AI领域。另一方面,美国涌现出大批人工智能前沿公司,他们本身在AI治理和技术安全上就达到了很高水平,比如OpenAI核心团队离职后创立的AI独角兽Anthropic,一开始就是发展和治理同步在做,所以也能看到科技公司在美国AI治理中扮演重要角色。
不过,从全球范围看,针对AI的监管也有另外一种声音——在AI离人类智力水平还很遥远的时候谈论AI风险,只会带来过度监管,遏制创新。坚定这一观点的代表是Meta首席AI科学家杨立昆、谷歌联合创始人拉里·佩奇,比如杨立昆屡次表示“欧盟和其他国家对AI的规范不是一个好主意”。
而站在对立面的则是马斯克、“AI教父”辛顿为代表的AI威胁论者,他们时常发出“AI将毁灭人类文明”的警惕声音,去年还有图灵奖得主、上千名科技人员联名发公开信,呼吁暂停训练比GPT-4更强大的AI系统。
对AI潜在风险的巨大争议、业界对过度监管的排斥,让AI治理的推进异常曲折。
“两个派别的争议点主要在当前AI能力边界的分歧,威胁论相信规模法则,认为我们已经接近AGI(通用人工智能)了,而反威胁论会对AI现阶段的能力存疑,所以讨论AI是不是在逼近人类智力边界、带来极端风险时,我们可以继续关注GPT等大模型的迭代情况。”朱悦谈到,如果要寻找更落地的AI治理路径,有几类模式可以参考,一种是结构逻辑,也即把AI系统拆解成不同模块,比如数据抓取、模型训练等等,相应模块再制定或遵循不同法律规则去管控风险,另一种则是场景逻辑,关注人工智能在基础设施、金融、交通、医疗、教育等不同场景的应用,再相应理顺不同行业的分业监管。
今年5月,中美举行了人工智能政府间对话首次会议。谭笑间看来,中美作为全球人工智能领域实力最为雄厚的两方,达成合作框架非常重要。目前,双方更有可能在一些原则性问题上达成共识,比如管控人工智能应用于核武器、外太空,限制打造应用于战场的人工智能自主武器,等等。”有关AI监管,总而言之还是要在治理和发展之间找到一个平衡,不是为治理而治理,”谭笑间表示。