英伟达是全球最大的图形处理器(GPU)制造商,GPU的需求量很大,因为它们可以用来加速人工智能的工作。例如,OpenAI的ChatGPT是由数千个英伟达GPU创建的。
(资料图片仅供参考)
但英伟达的GPU芯片通常是与所谓的中央处理器(CPU)配套使用的,而CPU市场几十年来一直由英特尔和AMD主导。今年,英伟达已经开始推出自己的竞争CPU芯片Grace,该芯片基于软银集团旗下Arm的技术。
数十年来超级计算机一直是英特尔及AMD两家CPU处理器相互竞争,不过NVIDIA今年开始出货Arm架构并命名为Grace的CPU后,情况有了改变。NVIDIA 新 Isambard 3 超级计算机完全采用Grace CPU,没有使用 NVIDIA GPU。
NVIDIA 加速运算部门总经理兼副总裁 Ian Buck 指出,令人兴奋的是整套超级计算机运作功率仅 270 千瓦,是大学上一代Isambard 2超级计算机性能和能效 6 倍。 NVIDIA 为全球最大 GPU 制造商,GPU 现阶段需求量很大,因 GPU 可加速人工智能运算,OpenAI ChatGPT 就是使用数千个 NVIDIA GPU 打造。
NVIDIA Grace CPU简介
Grace是NVIDIA首款数据中心CPU,以美国海军少将、计算机编程先驱Grace Hopper的名字命名。
2021年4月13日,英伟达实际推出了三款基于Arm架构打造的处理器,包括Grace,当时预计会在今年年初上市。
Grace是一款高度专用型处理器,主要面向大型数据密集型HPC和AI应用。新一代自然语言处理(NLP)模型的训练会有超过一万亿的参数。基于Grace的系统与NVIDIA GPU紧密结合,性能比目前最先进的NVIDIA DGX系统(在x86 CPU上运行)高出10倍。
Grace是高度专业化的处理器,适用于AI 和高性能计算工作负载,例如训练具有超过1万亿个参数的新一代NLP模型等。当与NVIDIA GPU紧密耦合时,搭载Grace CPU的系统速度比如今基于 NVIDIA DGX ™打造的最先进的系统(在 x86 CPU 上运行)快 10 倍。
Grace的强大性能基于第四代 NVIDIA NVLink® 互联技术,该技术在Grace和 NVIDIA GPU 之间提供创纪录的 900 GB/s 连接速度,使总带宽比当今领先的服务器高 30 倍。
Grace 利用创新的 LPDDR5x 内存子系统,该子系统的带宽是 DDR4 内存的两倍,能效达 DDR4 的 10 倍。此外,新架构提供单一内存地址空间的缓存一致性,将系统和 HBM GPU 内存相结合,以简化可编程性。
Grace获得 NVIDIA HPC软件开发套件以及全套 CUDA® 和 CUDA-X™ 库的支持,可以对 2,000 多个 GPU 应用程序加速。
NVIDIA Grace™ CPU 是超过10,000个工程年的成果,主要用于计算领域的细分市场。其专为满足全球最先进应用的计算要求而设计—— 这些应用包括自然语言处理、推荐系统、AI 超级计算 —— 其所进行的海量数据分析需要超高速计算性能和大容量内存。这款产品将高能效 Arm CPU 核心与创新的低功耗内存子系统相结合,以高能效提供高性能。
标签:
X 关闭
X 关闭