英伟达的全新尖端图像处理半导体(GPU)H200已经开始供货。作为面向AI领域的半导体,H200在性能上超越了目前主打的H100。
H200性能提升
根据英伟达方面的性能评测结果,以Meta公司旗下大语言模型Llama 2处理速度为例,H200相比于H100,生成式AI导出答案的处理速度最高提高了45%。
英伟达在AI半导体市场的主导地位
市场调研机构Omdia曾表示,2022年英伟达在AI半导体市场约占80%的份额。与此同时,AMD等竞争对手也在开发对抗英伟达的产品,竞争愈发激烈。
新一代AI半导体“B200”的推出
英伟达宣布,年内将推出新一代AI半导体“B200”,该产品与CPU组合用于最新的LLM上。其中,“最强AI加速卡”GB200包含了两个B200 Blackwell GPU和一个基于Arm的Grace CPU,推理大语言模型性能比H100提升30倍,成本和能耗降至25分之一。
新一代AI图形处理器架构Blackwell
GB200采用了新一代AI图形处理器架构Blackwell,英伟达在GTC大会上表示:“Hopper固然已经非常出色了,但我们需要更强大的GPU”。
H200的特点和优势
英伟达H200是基于“Hopper”架构的HGX H200 GPU,是H100 GPU的继任者,也是该公司首款使用HBM3e内存的芯片。HBM3e内存速度更快、容量更大,因此更适合大型语言模型。相比前任霸主H100,H200的性能直接提升了60%到90%。据英伟达称:“借助HBM3e,英伟达H200以每秒4.8TB的速度提供141GB的内存,与A100相比,容量几乎是其两倍,带宽增加了2.4倍。”
英伟达的H200带来了令人瞩目的性能提升和新一代AI图形处理器架构,将进一步巩固其在AI半导体市场的主导地位,并推动AI技术的发展和应用。