过去的一周是人工智能领域不寻常的分屏时期。一方面,我看到 OpenAI 快速发展的创新,以及埃隆·马斯克 (Elon Musk) 的 Grok 和李开复的开源 Yi-34B 大语言模型。另一方面,白宫和上周人工智能安全峰会的参与者正在制定法规,这些法规可能会通过抑制创新和限制开源来减缓人工智能的发展。
正如您在下面所读到的,OpenAI 举办了开发者日,宣布了许多面向开发者的工具。我发现新功能的数量之多令人印象深刻。OpenAI 正在继续证明它是一家快速发展的公司,能够快速发展!
OpenAI 的发展速度值得其他企业借鉴。我们生活在一个开发人员可用的工具正在快速改进的时代,因此我们可以用生成式人工智能构建的东西也在快速增长。正如我在关于人工智能机遇的演讲中所描述的那样,人工智能工具通常会受到更多关注,但最终人工智能应用程序必须比工具产生更多的收入才能使市场取得成功。
根据我的经验,决策和执行的速度是初创企业成功的一个重要预测因素。牢记负责任的人工智能的重要性,我尊重快速决策和执行的领导者和团队。相比之下,我也见过一些公司,发布一项功能可能需要 3 个月的时间进行法律、营销和隐私审查。系统地强迫自己快速做出决定,而不是召开另一次会议来进一步讨论某个主题(除非确实有必要),可以推动组织更快地行动。
当你快速行动时,并非一切都会成功。例如,当 OpenAI 推出如此多的新功能(包括高度创新的功能,如 GPT 商店,开发人员可以像移动应用程序一样分发专用聊天机器人)时,可能并非每一项功能都会取得成功。但执行的速度和数量使得其中一些赌注很可能会获得丰厚的回报。不仅适用于 OpenAI,也适用于使用新功能构建新产品的开发人员。
如果您是一名开发人员,您可以使用的快速增长的工具集使您有机会快速执行并构建以前从未存在过的东西,这主要是因为构建它们的工具不存在。我相信现在是时候继续快速且负责任地构建并加快我们为每个人带来新应用程序的步伐了。
PS Vector 数据库是大型语言模型 (LLM) 搜索和数据检索系统的支柱,例如检索增强生成 (RAG) 系统。在我们与 Weaviate 创建并由 Sebastian Witalec 教授的新短期课程中,您将学习矢量数据库如何工作以及如何将它们合并到您的法学硕士申请中的技术基础。您还将学习构建 RAG 和搜索应用程序。我邀请您报名参加“矢量数据库:从嵌入到应用程序”!
消息
生成式人工智能作为开发平台
OpenAI 添加了新功能,旨在帮助开发人员使用其生成模型构建应用程序。
最新动态: OpenAI在旧金山举行的首届开发者大会上推出了大量功能。
升级及更多:该公司推出了升级版的 GPT-4 Turbo(现在是 ChatGPT 的基础)。它将 API 访问扩展到 DALL·E 3 图像生成器、文本转语音引擎、语音识别和代理式功能。它展示了聊天机器人中的一个新概念,称为 GPT。
GPT-4 Turbo 将模型一次可以处理的标记数量(通常是单词或单词的一部分)扩展到 128,000 个,而之前的最大值为 32,000 个。这使得模型能够处理整本书的上下文。API 访问成本是 GPT-4 Turbo 前代产品成本的三分之一到一半(其中一些产品已经降价)。
GPT-4 Turbo 包含返回有效 JSON 的 JSON 模式,使开发人员能够从单个 API 调用中获取可用的结构化数据。通过让用户指定随机数种子,可重复的输出(测试版)使模型的行为从一种用途到另一种用途更加一致。日志概率(即将推出)将允许开发人员通过预测序列中下一个可能出现的标记来构建自动完成等功能。
新的 API 调用使开发人员能够利用图像输入/输出、文本转语音和语音识别(即将推出)。新的调用可用于构建代理式应用程序,这些应用程序可以推理并执行一系列操作来完成任务。他们还可以检索模型外部的信息并执行功能。
该公司推出了 GPT:自定义聊天机器人,可以使用对话界面进行配置并在商店中分发,就像移动应用程序一样。例如,Canva 构建了一个 GPT,可以通过对话生成图形来订购。
重要性: OpenAI 使开发人员能够将智能构建到更广泛的应用程序中。GPT-4 Turbo 的 128,000 个令牌上下文窗口使需要在大量输入中跟踪信息的应用程序成为可能。扩展的 API 开放了语言、视觉和多模式功能以及代理式应用程序,可以响应不断变化的条件并以复杂的方式运行。开发商的机会是巨大的。
我们在想:看到尖端人工智能的发展如此迅速地得到广泛应用真是令人惊讶。早期,OpenAI 因担心可能被滥用而保留了其研究成果。但这一政策显然不再适用。OpenAI 首席执行官 Sam Altman 在主题演讲中表示:“我们相信逐步迭代部署是应对 AI 安全挑战的最佳方式。” 根据迄今为止的证据,我们同意。
人工智能安全峰会探讨风险
一场由政治领导人和技术高管组成的国际会议同意对人工智能进行监管。
最新动态:中美、欧盟等28个国家签署 旨在降低人工智能风险的 宣言。
运作原理:该宣言在伦敦郊外的乡村别墅布莱奇利公园拉开了英国首届人工智能安全峰会的序幕,二战期间艾伦·图灵和其他人在这里破解了德国的恩尼格玛密码。
签署方同意共同研究安全问题,包括虚假信息、网络安全和生物危害。他们承诺解决境内风险,但没有宣布具体计划。
法国、德国、日本、美国和英国等10个国家将提名专家领导一个类似于政府间气候变化专门委员会的国际人工智能小组。该小组将准备一份关于“人工智能科学现状”的报告。
亚马逊、谷歌、Meta、微软、OpenAI 和其他公司同意 允许政府在向公众发布人工智能产品之前对其进行测试。
各国设立的人工智能安全机构将负责管理这些测试。英国和美国宣布设立此类机构,并承诺与彼此以及其他国家的同行合作。
更多内容即将推出:人工智能安全峰会将是系列峰会中的第一场。韩国将在六个月内举办后续活动。法国将在六个月后主办第三次峰会。
是的,但是:批评者认为这次会议有缺陷。一些研究人员批评它未能支持对人工智能的具体限制。其他人则指责演讲者煽动恐惧,尤其是英国首相里希·苏纳克(Rishi Sunak),他将 人工智能风险比作全球流行病或核战争。
重要性:人工智能正在迅速发展,中国、欧洲和美国已经出现了监管框架。本次峰会旨在为一致的国际框架奠定基础。
我们在想:我们赞赏政府、行业和研究领域的领导者参与的方法。但我们仍然担心,对风险的过度恐惧可能会导致抑制创新的法规,特别是限制开源开发。英国副首相奥利弗·道登谈到了开源的价值,并表示应该有一个非常高的门槛来以任何方式限制开源。我们衷心同意!