【新智元导读】OpenAI又出逆天操作了,正式开放ChatGPT API,便宜了90%,开发者可以人手一个ChatGPT了。
ChatGPT爆火之后,各种「自制API」层出不穷,中间商们也一个个赚得盆满钵满。
这次,OpenAI终于下定决心——正式开放ChatGPT API!
ChatGPT API地址:https://platform.openai.com/docs/guides/chat
现在,不要耗费数年,不要投资数十亿美元,企业、个人开发者就能使用ChatGPT这样的当红顶流模型了!
而且,每输出100万个单词,价格才2.7美元(约18元人民币),比之前的GPT-3.5,直接便宜了10倍。
这个操作可谓拳拳到肉,所以,在ChatGPT背后苦追的硅谷大厂们,比如谷歌,还有活路吗?
太长不看版:
ChatGPT API——0.002美元,1000个token
Whisper API——0.001美元,10秒语音转录
基于gpt-3.5-turbo模型,在微软Azure上运行
大客户(每天超过4.5亿个token)选择专用实例更实惠
默认情况下,提交的数据不再用于AI训练
价格打1折,人手一个ChatGPT
从今天起,开发者可以正式将ChatGPT集成到自己的产品和服务中了。并且,价格比其他现有的语言模型要便宜得多。
OpenAI此举,大大降低了技术研发成本。开发者将ChatGPT集成到自家应用和服务的门槛,将大大降低。
现在,谁都可以开发自己的ChatGPT了!
这无论对于企业还是个人开发者,都是重大利好,看来,全民AIGC时代,真的要来了。
唯一受到冲击的,当然就是其他研究底层模型的厂商了,比如早早宣布了Bard、但现在还没开放测试的谷歌。
显然,现在对于OpenAI来说,快速占据市场,才是一等一重要的事。为了把竞争对手甩在后面,成本什么的,可以暂且先不考虑。
ChatGPT和Whisper模型现已在我们的API 上可用,开发人员能够使用尖端语言(不仅仅是聊天!)和语音转文本功能。通过一系列系统范围的优化,自去年12月以来,我们已将ChatGPT的成本降低了90%;我们会让这些节省的资金惠及API用户。开发人员现在可以在API中使用我们的开源Whisper large-v2模型,获得更快且更具成本效益的结果。ChatGPT API用户可以期待持续的模型改进,选择专用容量,以更深入地控制模型的选项。我们还仔细听取了开发人员的反馈,并改进了我们的API服务条款,以更好地满足他们的需求。
此外,ChatGPT API都用法也十分简单,只需「import openai」即可。
便宜了10倍不止
从公告中可以看到,OpenAI节省了成本的好处,API用户也可以共享了。
这次开放的模型被称为gpt-3.5-turbo,每1000个token的成本为0.002美元,比现有的GPT-3.5模型还要便宜10倍。
所以,这是一场与谷歌的价格战吗?
这个领域的进入成本一直如此之高,以至于LLM服务将成为赢家通吃的市场
之所以能这么便宜,在一定程度上要归功于「系统范围的优化」。
虽然1,000个token看起来很多,但其实,发送一段供API响应的文本,可能就会花费多个token。(token是指系统将句子和单词分解成的文本块,以预测接下来应该输出什么文本。)
根据OpenAI 的文档,「ChatGPT 很棒!」 有六个token——它的API会把这个句子分解为「Chat」、「G」、「PT」、「is」、「great」和「!」。
而OpenAI提供了一种工具来检查解释一串文本需要多少token,一般的经验是,「一个token通常对应于英语中的4 个字符」。