发布时间:2025-07-25
浏览次数:13
9月12日,英伟达在GTC技术大会上正式发布了新一代H200 Tensor Core GPU,这款专为AI训练和推理设计的高性能芯片,在算力和能效方面都实现了显著提升。
H200 GPU采用了最新的5nm制程工艺和创新的HBM3e高带宽内存技术,内存容量达到141GB,带宽提升至4.8TB/s,相比前代产品H100提升了近70%。这一突破使得大型AI模型的训练和推理速度得到了大幅提升。
在AI训练性能方面,H200在大语言模型训练任务中的表现比H100快了90%,而在推理任务中的速度提升更是达到了1.8倍。这意味着训练一个千亿参数的大模型所需的时间和成本都将大幅降低。
英伟达CEO黄仁勋在发布会上表示:"H200代表了我们在AI计算领域的最新突破,它将加速AI应用的普及,让更多企业和开发者能够负担得起大规模AI计算。"
值得注意的是,H200还首次支持多实例GPU技术,可以在单个GPU上同时运行多个AI工作负载,大幅提升了资源利用率。这对于云服务提供商和大型AI训练中心来说具有重要意义。
各大云服务厂商已经表示将在未来几个月内部署H200 GPU。预计到2024年底,全球将有超过100万张H200 GPU投入使用,这将进一步推动AI技术的发展和应用。业界普遍认为,H200的发布将加速AI行业的技术迭代,推动更多创新应用的出现。
QQ二维码
微信二维码