近期ChatGPT的出圈,带火了AI大模型。从自然语言合成、自动驾驶,到图形图像处理,都依赖大模型的训练。需求高涨下,各大服务商们对AI算力市场持续加码。4月14日,腾讯云正式发布新一代HCC(High-Performance Computing Cluster)高性能计算集群。实测显示,该集群的算力性能较前代提升3倍。
《每日经济新闻》记者从腾讯方面了解到,本次发布的新一代高性能计算集群采用腾讯云星星海自研服务器,搭载英伟达最新代次H800 GPU,服务器之间采用业界最高的3.2T超高互联带宽,为大模型训练、自动驾驶、科学计算等提供高性能、高带宽和低延迟的集群算力。
2022年10月,腾讯完成首个万亿参数的AI大模型——混元NLP大模型训练。在同等数据集下,将训练时间由50天缩短到11天。如果基于新一代集群,训练时间将进一步缩短至4天。
近几个月,大模型赛道不可谓不热闹。ChatGPT引爆语言大模型赛道,百度文心一言迅速跟进。不久前的4月8日,阿里巴巴宣布开启语言大模型“通义千问”的企业邀测。同日,华为云人工智能领域首席科学家田奇在人工智能大模型技术高峰论坛上介绍了盘古大模型的进展及其应用。
AI大模型的发展离不开算力支撑,算力被称为AI生态里的“铲子”,是核心动力和基础设施。浙商证券4月5日研报指出,大模型的参数量与算力需求呈正比,随着国内外厂商加速布局千亿级参数量的大模型,训练需求有望进一步增长,叠加大模型落地应用带动推理需求高速增长,共同驱动算力革命并助推Al服务器市场及出货量高速增长。
中信建投4月13日研报指出,随着各家厂商人工智能大模型的发布和后续应用,对于算力基础设施的需求也将持续释放,云计算产业链公司作为底层通用基础设施提供者,受益的相对确定性较高。