诞生9个月,ChatGPT已经花费近2亿美元!
外媒Analytics称,OpenAI很可能到2024年破产。
OpenAI每天大约烧掉70万美元,仅用于维持ChatGPT的运作。这个费用还不包括GPT-4、DALL-E 2等其他AI产品。
要说OpenAI明年破产,事实并非如此,毕竟金主爸爸微软投了100亿美元。
但没有足够的收入来实现收支平衡,确是OpenAI面临的难题。
就连马库斯赶上这波热度表示,「我不认为这一预测考虑到了,随着时间推移软件变得更加高效的可能性,也没有考虑到微软可能会给OpenAI更多现金来换取更多的控制权。但这仍然令人警醒」。
用户基数下降12%
2022年11月,当红炸子鸡ChatGPT诞生,瞬间引爆全网。
仅仅一周,其用户数以最快的速度突破百万,创造了全新的历史记录。
紧接着,在OpenAI推出月Plus付费服务后,ChatGPT月活直接突破1亿,成为史上用户增长速度最快的消费级应用程序。
据Sensor Tower数ChatGPT据,TikTok达到1亿用户用了9个月,Ins则花了2年半的时间。
然而,到了6月,ChatGPT自上线以来访问量首次出现下降。人们纷纷质疑,AI热潮是否熄火。
根据Similarweb的统计显示,6月份ChatGPT网站的全球流量下降了9.7%,访问者在网站上花费的时间也下降了8.5%。
另外,7月与6月数据相比,用户基数下降了12%,从17亿用户降至15亿用户。
请注意,这些数据仅显示访问ChatGPT的用户,并未计入使用OpenAI API的用户。
除了面向用户的应用,OpenAI的API也是问题的一部分。
过去,许多最初鼓励员工不要使用ChatGPT的公司,现在正在购买OpenAI的API访问权限,并创建自己的AI聊天机器人,用于各种不同的工作流程。
然而,OpenAI模型再强大,也抵不过「开源模型」的明显优势。
Meta在3月份初次开源大模型LLaMA,各种开源平替模型瞬间被释放,斯坦福Alpaca,UC伯克利Vicuna等等。
到了7月,Meta又联手微软升级了第二代Llama 2,并允许免费和商用。
这对许多开发者来说,不仅可以免费使用,还可以进行定制,针对特定场景再去微调模型。
在这种情况下,只有少数人会选择OpenAI的付费专有和受限版本,而大多数人都倾向于更加适应和免费使用的Llama 2。
风光OpenAI?
2019年3月11日,OpenAI一纸公告,宣布从今重组架构,开启盈利模式。
然而,这与首席执行官Sam Altman的想法恰恰相反。Altman个人并不会优先考虑利润,但OpenAI作为一家公司却有需要这么做。
就拿2019年诞生的GPT-3来说,其训练费用高达1200万美元。
前端时间,一篇文章还透露了,GPT-4大约在10000-25000张A100上进行了训练,而要等到GPT-5的面世,还需要5万张H100。
以上种种,都需要OpenAI投入巨额的资金,才能让GPT模型变得更加强大和聪明。
然而,Sam Altman却多次公开声明,如果政府不对AI进行监管,将带来灾难性的后果。
事实上,Altman一直非常强调需要制定关于AI开发的准则。他曾预测,以目前发展的趋势来看,AI将会夺走数百万个工作岗位。
即便如此,一些技术专家甚至会认为,Altman完全是自相矛盾——现在的他对自己创造的怪物感到有些后悔。
尽管如此,OpenAI一直在寻找新的,甚至更好的方法来让GPT-4实现盈利。
然而,理想丰满,现实骨感。
ChatGPT每天「燃烧」70万美元
就拿过去的2022年来说,公司预计实现3600万美元的总收入。
但这一年,开发ChatGPT就已经花掉5.4亿美元,就算盈利这么多,那也亏损5亿美元。
在ChatGPT推出几个月后,Altman曾公开承认经营AI公司和ChatGPT的成本非常高,因此选择了对其进行商业化。
目前,运营ChatGPT每天耗资约70万美元,这笔巨款由微软和其他投资者来支付。
然而,持续的费用和OpenAI无法迅速产生足够的收入,如果OpenAI不能扭转局面,将会陷入困境。
报道称,OpenAI在2023年预计实现2亿美元的年收入,并在2024年达到10亿美元的目标。
现在看来,这完全是盈利天花板。
在微软投资100亿美元之前,OpenAI成立7年通过几轮融资,已经拿到了40亿美元巨款。
微软以及其他一些风险资本公司的投资,是OpenAI目前能够继续运营下去的主要原因。
人才流失,离职潮起
此外,顶尖人才流失,给OpenAI带来了巨大危机。
要知道,在生成式AI暴雷的当下,各大科技公司人才争夺也更加激烈。
谷歌、微软等科技巨头早已在AI领域布局多年,有着丰富的研发经验和科研团队。
2016年,OpenAI共有6名员工。截止到今年1月,数据信息服务网站Growjo统计,公司已经有655名员工,每位员工平均年收入约13.5万美元。
虽然ChatGPT走红全网后,为公司吸引了大批优秀人才。今年早些时候,The Platformer的一份报告称,有超过12名谷歌员工加入OpenAI。
就比如,著名AI研究员Jacob Devlin在1月离开谷歌加入OpenAI。短短几个月,他再次宣布重返谷歌。
另外,信任和安全主管Dave Willner近来也离职OpenAI。
据统计,OpenAI的51位研究员,已有16人离职,比例高达1/3。这16人中,有8位选择自主创业,并挖走了3位其他部门的同事。
而ChatGPT研发团队中,目前也有4人已经离职。
对于大批人员流失,直接暴露了OpenAI爆炸式增长引发的一系列管理问题。
最主要的原因是,员工对公司开发ChatGPT的计划迟迟没有下文,而感到失望。对于许多人来说,以及习惯了OpenAI快速创新的步伐。
而有趣的是,还有人对Sam Altman不务正业感到不满。许多员工称,他对很多话题只有肤浅的了解,几乎不关心日常业务。
另外,再加上Google DeepMind首席执行官Demis Hassabis宣布其下一个算法Gemini将打败ChatGPT,被外界认为也是OpenAI员工离职的一个因素。
如果OpenAI选择进行首次公开募股(IPO),可能会被一家大型科技公司或企业集团收购。
这将为其现有投资者提供一个很好的退出策略。
然而,一些问题可能会在IPO中造成阻碍,这反过来可能不会带来太大的价值。
GPU短缺
更进一步复杂化的问题是,企业级GPU的持续短缺。
生成式AI爆发仍旧没有放缓,对算力提出了更高的要求。一些初创公司都在使用英伟达昂贵、且性能极高的H100来训练模型。
马斯克还谈到,在这一点上,GPU比药物更难获得。
Sam Altman表示,OpenAI受到GPU的限制,推迟了我们的短期计划(微调、专用容量、32k上下文窗口、多模态)。
甚至,因为GPU的短缺,Altman都不希望有很多人使用ChatGPT。
我们的GPU非常短缺,使用我们产品的人越少越好。
如果人们用的越少,我们会很开心,因为我们没有足够的GPU。
OpenAI的许多用户都在抱怨API的可靠性和速度,对此Sam Altman解释道,主要还是GPU太缺了。
虽然Altman口口声声地说,我们没有训练GPT-5,但近来GPT-5商标申请,已经向外界透露了,OpenAI继续训练模型的意图。
OpenAI可能需要50000个H100来训练GPT-5。报道称,英伟达最好的芯片H100,将在2024年之前就会售罄。
如果市场上GPU跟不上,将会阻碍OpenAI提升和训练新模型的能力。
持续的亏损,用户基数的缩减,无法实现大额营收,甚至GPT-4输出质量降低等综合因素,愈加凸显了OpenAI面临着严重困境。
对于OpenAI自身来说,急需找到实现盈利的方法。
微软:我会负责赚钱的
不过,虽然OpenAI不怎么赚钱,但金主爸爸微软早就在想尽一切办法要把他们搞出来的成果变现了。
2021年11月,微软首次推出Azure OpenAI服务,让用户可以非常便利地使用大规模生成式AI模型。
比如,利用Azure OpenAI上搭载的DALL-E 2,用户只需在提示栏中不断明确自己的要求,模型就会生成越来越符合用户要求的图像。
除此之外,微软当时就已经实现了让用户在Azure OpenAI上使用自己的数据对模型进行微调。
2022年11月,随着ChatGPT的爆火,微软再次官宣称,将会在Azure中正式整合进ChatGPT。
根据纳德拉的发言,微软的目的是使云计算平台Azure成为「任何人以及所有思考人工智能的人想要去的地方」,包括企业和终端用户。
2023年7月,微软在MicroSoft Inspire活动中表示,集成了GPT-4的Office全家桶即将向全体用户推出,定价30刀一个月。
借助Office Copilot,我们只需通过自然语言命令,便可以搞定原本需要花费很长时间的才能完成的办公任务。
比如,一份Word,一句话,就能瞬间得到设计好的PPT。
然而,ChatGPT泄露机密知识产权的风险,却让不少有意「氪金」的客户望而却步。
虽然用户总是能找到变通方法,但这也限制了ChatGPT的强大功能,降低了员工的生产力和工作体验。
为了解决这一问题,微软最近推出了一种基于Azure加速器的全新解决方案——既提供了类似于ChatGPT的用户体验,而且又是完全私有化的。