重磅!英伟达发布世界最强大GPU: H200 | 网友:遥遥领先太多了



本文为1407字,建议阅读4分钟‍
世界上最强大的 GPU

NVIDIA 今天宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。
NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前身 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。
全球领先的服务器制造商和云服务提供商采用 H200 的系统预计将于 2024 年第二季度开始发货。
NVIDIA 超大规模和 HPC 副总裁 Ian Buck 表示:“要通过生成式 AI 和 HPC 应用程序创建智能,必须使用大型、快速的 GPU 内存高速有效地处理大量数据。” “借助 NVIDIA H200,业界领先的端到端 AI 超级计算平台能够更快地解决世界上一些最重要的挑战。”
NVIDIA H200 Tensor Core GPU 具有改变游戏规则的性能和内存功能

在不断发展的人工智能领域,企业依靠LLM来满足各种推理需求。当为大量用户群大规模部署时,人工智能推理加速器必须以最低的 TCO 提供最高的吞吐量。
在处理 Llama2 等 LLM 时,H200 的推理速度比 H100 GPU 提高了 2 倍

增强高性能计算能力
内存带宽对于 HPC 应用程序至关重要,因为它可以实现更快的数据传输,减少复杂的处理瓶颈。对于模拟、科学研究和人工智能等内存密集型 HPC 应用,H200 更高的内存带宽可确保高效地访问和操作数据,与 CPU 相比,获得结果的时间最多可加快 110 倍

H200 由 NVIDIA NVLink™ 和 NVSwitch™ 高速互连提供支持,可为各种应用工作负载提供最高性能,包括针对超过 1750 亿个参数的最大模型的 LLM 训练和推理。
八路 HGX H200 提供超过 32 petaflops 的 FP8 深度学习计算和 1.1TB 聚合高带宽内存,可在生成式 AI 和 HPC 应用中实现最高性能。
当与具有超快 NVLink-C2C 互连的 NVIDIA Grace™ CPU 配合使用时,H200 创建了带有 HBM3e 的 GH200 Grace Hopper 超级芯片——一种旨在服务于大规模 HPC 和 AI 应用的集成模块
降低能源和总体拥有成本
随着 H200 的推出,能源效率和 TCO 达到了新的水平。这项尖端技术提供了无与伦比的性能,且功率配置与 H100 相同。人工智能工厂和超级计算系统不仅速度更快,而且更环保,提供了推动人工智能和科学界向前发展的经济优势

永恒的创新带来永恒的绩效收益

NVIDIA Hopper 架构比其前身实现了前所未有的性能飞跃,并通过 H100 的持续软件增强(包括最近发布的 NVIDIA TensorRT-LLM™ 等强大的开源库)继续提高标准。
H200 的推出延续了这一势头,提供了更多性能。对其进行投资可确保现在的性能领先,并且通过对支持的软件的持续改进,确保未来的性能领先
企业就绪:人工智能软件简化开发和部署
利用 NVIDIA 全栈软件加速 AINVIDIA 的加速计算平台得到强大的软件工具的支持,使开发人员和企业能够构建和加速从 AI 到 HPC 的生产就绪型应用程序
NVIDIA AI Enterprise 与 NVIDIA H200 一起简化了 AI 就绪平台的构建,加速了生产就绪的生成式 AI、计算机视觉、语音 AI 等的 AI 开发和部署。它们共同提供企业级安全性、可管理性、稳定性和支持,以更快地收集可行的见解并更快地实现有形的业务价值

结语
看的我目瞪口呆!英伟达软硬齐活了,彻底赢麻了,这才是真正的遥遥领先吧!就像李开复老师说的:‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍
“我们从未见过一种技术,每次投入更多的计算就会自动变得更聪明。只要 GPU 被转化为更多的智能,只要更多的智能被转化为有利可图的应用程序,良性循环就会继续下去”。
你同意吗?
⭐星标AI寒武纪,好内容不错过⭐
用你的赞和在看告诉我~

真的太强大了👇👇
到顶部