gpu核心功耗和显存功耗

如题所述

黄仁勋终于公布了NVIDIA新一代架构与核心,当然这次是面向HPC高性能计算、AI人工智能的“Hopper”,对应核心编号“GH100”,同时发布的还有基于新核心的加速计算卡“H100”、AI计算系统“DGX H100”。

与传闻不同,GH100核心采用的其实是台积电目前最先进的4nm工艺,而且是定制版,CoWoS 2.5D晶圆级封装,单芯片设计,集成多达800亿个晶体管,号称世界上最先进的芯片。

完整版有8组GPC(图形处理器集群)、72组TPC(纹理处理器集群)、144组SM(流式多处理器单元),而每组SM有128个FP32 CUDA核心,总计18432个。

显存支持六颗HBM3或者HBM2e,控制器是12组512-bit,总计位宽6144-bit。

Tensor张量核心来到第四代,共有576个,另有60MB二级缓存。

扩展互连支持PCIe 5.0、NVLink第四代,后者带宽提升至900GB/s,七倍于PCIe 5.0,相比A100也多了一半。整卡对外总带宽4.9TB/s。

性能方面,FP64/FP32 60TFlops(每秒60万亿次),FP16 2000TFlops(每秒2000万亿次),TF32 1000TFlops(每秒1000万亿次),都三倍于A100,FP8 4000TFlops(每秒4000万亿次),六倍于A100。

H100计算卡采用SXM、PCIe 5.0两种形态,其中后者功耗高达史无前例的700W,相比A100多了整整300W。

按惯例也不是满血,GPC虽然还是8组,但是SXM5版本只开启了62组TPC(魅族GPC屏蔽一组TPC)、128组SM,总计有15872个CUDA核心、528个Tensor核心、50MB二级缓存。

PCIe 5.0版本更是只有57组TPC,SM虽然还是128组,但是CUDA核心只有14952个,Tensor核心只有456个。

DGX H100系统集成八颗H100芯片、搭配两颗PCIe 5.0 CPU处理器(Intel Sapphire Rapids四代可扩展至器?),拥有总计6400亿个晶体管、640GB HBM3显存、24TB/s显存带宽。

性能方面,AI算力32PFlops(每秒3.2亿亿次),浮点算力FP64 480TFlops(每秒480万亿次),FP16 1.6PFlops(每秒1.6千万亿次),FP8 3.2PFlops(每秒3.2千亿次),分别是上代DGX A100的3倍、3倍、6倍,而且新增支持网络内计算,性能3.6TFlops。

PCIe 5.0版本的性能基本都再下降20%。

同时配备Connect TX-7网络互连芯片,台积电7nm工艺,800亿个晶体管,400G GPUDirect吞吐量,400G加密加速,4.05亿/秒信息
DGX H100是最小的计算单元,为了扩展,这一次NVIDIA还设计了全新的VNLink Swtich互连系统,可以连接最多32个节点,也就是256颗H100芯片,称之为“DGX POD”。
这么一套系统内,还有20.5TB HBM3内存,总带宽768TB/s,AI性能高达颠覆性的1EFlops(100亿亿亿次每秒),实现百亿亿次计算。
系统合作伙伴包括Atos、思科、戴尔、富士通、技嘉、新华三、慧与、浪潮、联想、宁畅、超威。
云服务合作伙伴包括阿里云、亚马逊云、百度云、Google云、微软Azure、甲骨文云、腾讯
温馨提示:答案为网友推荐,仅供参考
第1个回答  2022-12-11
GPU-Z软件显示的是显卡的整个功耗,和实际工作的不一样,正常待机会远小于TDP,整机功率还得算CPU主板、内存、硬盘等等耗电。
使用方法如下:首先在百度上下载GPU-Z这个中文版或者英文版的软件,安装运行后,第一个选项就是显卡的相关参数,例如:显卡的工艺,显存等相关参数。它也可以实时显示显卡GPU的占用率以及显卡空闲时的自动降频等情况。
第2个回答  2022-12-11
GPU-Z软件显示的是显卡的整个功耗,和实际工作的不一样,正常待机会远小于TDP,整机功率还得算CPU主板、内存、硬盘等等耗电。
使用方法如下:首先在百度上下载GPU-Z这个中文版或者英文版的软件,安装运行后,第一个选项就是显卡的相关参数,例如:显卡的工艺,显存等相关参数。它也可以实时显示显卡GPU的占用率以及显卡空闲时的自动降频等情况。
第3个回答  2022-12-12
GPU-Z软件显示的是显卡的整个功耗,和实际工作的不一样,正常待机会远小于TDP,整机功率还得算CPU主板、内存、硬盘等等耗电。

相关了解……

你可能感兴趣的内容

本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 非常风气网