5月29日,英伟达在台北国际电脑展中,正式发布了集成256颗GH200超级芯片的DGX GH200 AI超级计算机,该设备用于支持生成式AI、推荐系统和数据处理的巨型模型。
会上,NVIDIA创始人兼首席执行官黄仁勋介绍,NVIDIA DGX GH200的超大共享内存空间采用NVLink互连技术以及NVLink Switch System技术,使得256个GH200超级芯片能够实现互联,同时,它们也能作为单个GPU来运行。NVIDIA DGX GH200能够提供1 exaflop的性能和144 TB的共享内存,内存相较2020年推出的上一代NVIDIA DGX A100内存大了近500倍。
黄仁勋表示:“生成式AI、大型语言模型和推荐系统是现代经济的数字引擎。DGX GH200 AI超级计算机集成了NVIDIA最先进的加速计算和网络技术来拓展AI的前沿。”
同时,英伟达官方也表示,正在研发下一代Helios超级计算机,将配备四个DGX GH200系统,包含1024个GH200超级芯片。此外,每个系统都将连接到英伟达Quantum-2 InfiniBand网络,能够为训练大型人工智能模型提高数据吞吐量。
据了解,谷歌云、Meta、微软将率先获得英伟达的DGX GH200超级计算机,英伟达未来还会将该产品提供给其它云服务商、大型企业、研究机构,并预计会在2023年年底交付。
可见,英伟达正凭借其GPU领域的的“霸主”优势,加速抢占AI大模型及超算市场。有消息称,随着GH200投产并进一步为大语言模型AI计算提供算力,英伟达有望在数据中心市场加速挤占英特尔、AMD两大芯片巨头的份额。
此外,随着ChatGPT的爆火,AI大模型超算市场缺口庞大。OpenAI曾表示,模型计算量增长速度远超人工智能硬件算力增长速度,存在万倍差距。因此,拥有更多参数、更大算力的AI大模型呈爆发态势。或许,未来不仅仅是英伟达,越来越多的GPU、CPU企业将会把目光关注在AI大模型及超算市场。
文章来源:中国电子报、电子信息产业网