ChatGPT开发商OpenAI探索自研芯片,已开始评估收购选项

  据媒体报道,ChatGPT开发商OpenAI正探索制造自研人工智能芯片,并已开始评估潜在的相关收购目标。

  报道称,OpenAI已经由去年开始讨论解决AI芯片成本昂贵、供应短缺等问题的多项解决方案,其中包括自研AI芯片,与英伟达在内的芯片供货商更紧密合作,推动AI芯片供应来源多元化。

  目前,OpenAI已将获得更多AI芯片列为公司首要任务。其尚未决定是否继续推进自研AI芯片,但该决定若落成,将成为OpenAI的一项重大战略,并在芯片研发中投入巨额资金,每年成本或高达数亿美元,耗时超过数年,且最终也无法保证能成功研发。知情人士称,若走收购路线加快获取技术,OpenAI已经考虑对潜在收购目标启动尽职调查。

  若OpenAI选择自研AI芯片,意味着其可能将加入互联网公司掀起的AI芯片自研潮。包括谷歌、Meta、亚马逊等互联网巨头因其庞大的业务需求纷纷下场造芯,一边自研芯片,一边采购英伟达的GPU组建庞大的数据中心。

  谷歌早在2016年就推出为AI而生的TPU(张量处理单元)芯片,该芯片专门为其机器学习框架TensorFlow设计。谷歌TPU至今已经迭代到第四代,声称该芯片在性能胜过A100 1.2到1.7倍的同时,还大幅减少了耗电量。Meta在2020年就设计了第一代自研的AI推理芯片,并命名为MTIA(Meta训练和推理加速器),Meta称该芯片是为了自身业务背后的DLRM(深度学习推荐大模型)而设计。

  实际上,若OpenAI选择以收购形式获取AI芯片技术,亚马逊的做法将是可借鉴方向。亚马逊2015年通过收购以色列芯片设计公司Annapurna Labs打入芯片行业,2018年11月,亚马逊推出基于Arm架构的首款服务器芯片Graviton,主打性价比,该产品目前已经迭代到第三代;亚马逊还在2019年、2020年分别发布了AI推理芯片Inferentia、训练芯片Trainium。

  不过,大公司多有自研芯片冲动,但英伟达GPU目前仍是企业用于AI应用的算力首选。 英伟达最大的优势,就是其GPU芯片因为在AI算力方面的性能优势,成为大模型训练和部署的核心部件。 市场调研机构Omdia数据显示,2022年,英伟达在全球数据中心AI芯片市场的份额超过七成,占据绝对优势。

  OpenAI自身高度依赖英伟达A100、H100等GPU芯片进行AI训练与推理,据称ChatGPT背后的人工智能大模型就使用超过1万颗英伟达GPU进行训练。且随着ChatGPT引爆了生成式AI技术以来,对AI芯片的需求大幅提升,以加速训练和运行各种人工智能应用,使得英伟达GPU产能紧缺,出现“一卡难求”现象。

  但英伟达GPU成本高昂,除芯片采购和训练的成本外,还包括运营成本。芯片行业调研公司SemiAnalysis首席分析师Dylan Patel曾估算,ChatGPT的运营成本为每天约70万美元或每次查询0.36美元。因此,OpenAI有充分动力推动寻求可替代英伟达GPU的AI芯片,以降低成本。

  今年以来,市场就陆续有OpenAI推动AI芯片多元化的传言传出。今年4月,就有媒体报道称,微软早在2019年就开始开发内部代号为“雅典娜”的AI芯片,微软至少有300人在进行该芯片的开发工作。该报道还称,一些微软和OpenAI的员工已经开始测试并使用这些芯片,微软最快可以在明年让雅典娜芯片在自家和OpenAI内部广泛使用。

  英伟达自身亦在努力解决GPU供应瓶颈,加快向OpenAI等客户供货。在8月底的财报会议上,英伟达CFO Colette Kres就提到,英伟达配置了CoWos(一种先进半导体2.5D封装技术)封装的额外产能。她预计市场对于英伟达数据中心GPU的需求将延续至明年,“随着我们缩短供货周期并增加产能,未来几个季度的供应将继续增加。”此外,英伟达还推出了不受制于CoWos先进封装产能的L40S GPU,用于AI训练和推理,作为H100的“平替”。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论