找回密码
 立即注册
查看: 378|回复: 17

如何看待 NVIDIA 称「我们的 GPU 显卡比 CPU 节能 42 倍」 ...

[复制链接]
发表于 2021-12-26 22:18 | 显示全部楼层 |阅读模式
厂商对于产品的宣发,都会在语言上制造一些噱头,也会忽略掉一些具体场景,比如英伟达这句『我们的 GPU 显卡比 CPU 节能 42 倍』,说出来当然振奋人心,但是,和什么样的CPU比节能?什么场景下的比较?
而且,这样『我们的 GPU 显卡比 CPU 节能 42 倍』的宣言,容易让人产生错觉,以为CPU要玩完了,GPU可以被CPU替换了——这当然是错误的。
我们来好好说说CPU和GPU的差异吧。
CPU是中央处理单元(Central Processing Unit) ,每台电脑都必须有。
GPU是图形处理单元(Graphics Processing Unit) ,本来不是电脑必备设备,这玩意设计出来的本意是用专门的芯片加速图像渲染,最直接的应用就是游戏,但是,后来业界发现GPU的特性还有其他应用领域,对于浮点运算和并行计算的强大支持,完全可以应用于大数据处理和人工智能。
于是,无心插柳柳成行,GPU也不只是用来处理G了!
以至于,现在很多人说GPU,都忘了GPU本命是『图形处理单元』。
CPU和GPU的差异,其实下图就一目了然。


CPU不可能被GPU完全替代的,即使是重度依赖与GPU的应用场景,架构上也是由CPU做主导,将工作分配给多个GPU来完成。
没错,这没有什么鸡和鸡蛋的关系,是赤裸裸的奴隶主和奴隶的关系,CPU就是奴隶主,GPU就是奴隶。
你说奴隶的工作比奴隶主工作效率高XX倍,或者说奴隶比奴隶主节能XX倍,并不能说明什么。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
发表于 2021-12-26 22:27 | 显示全部楼层
厂商对于产品的宣发,都会在语言上制造一些噱头,也会忽略掉一些具体场景,比如英伟达这句『我们的 GPU 显卡比 CPU 节能 42 倍』,说出来当然振奋人心,但是,和什么样的CPU比节能?什么场景下的比较?
而且,这样『我们的 GPU 显卡比 CPU 节能 42 倍』的宣言,容易让人产生错觉,以为CPU要玩完了,GPU可以被CPU替换了——这当然是错误的。
我们来好好说说CPU和GPU的差异吧。
CPU是中央处理单元(Central Processing Unit) ,每台电脑都必须有。
GPU是图形处理单元(Graphics Processing Unit) ,本来不是电脑必备设备,这玩意设计出来的本意是用专门的芯片加速图像渲染,最直接的应用就是游戏,但是,后来业界发现GPU的特性还有其他应用领域,对于浮点运算和并行计算的强大支持,完全可以应用于大数据处理和人工智能。
于是,无心插柳柳成行,GPU也不只是用来处理G了!
以至于,现在很多人说GPU,都忘了GPU本命是『图形处理单元』。
CPU和GPU的差异,其实下图就一目了然。


CPU不可能被GPU完全替代的,即使是重度依赖与GPU的应用场景,架构上也是由CPU做主导,将工作分配给多个GPU来完成。
没错,这没有什么鸡和鸡蛋的关系,是赤裸裸的奴隶主和奴隶的关系,CPU就是奴隶主,GPU就是奴隶。
你说奴隶的工作比奴隶主工作效率高XX倍,或者说奴隶比奴隶主节能XX倍,并不能说明什么。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
发表于 2021-12-26 22:28 | 显示全部楼层
AI运算=他想用GPU的FP16/FP32比CPU的FP16/FP32,这么比能效高没啥问题,本来也没多少人用CPU跑AI任务。
发表于 2021-12-26 22:32 | 显示全部楼层
笔者正好结合选题采访了NVIDIA,下面是回答:
随着人工智能类工作负载的流行,GPU已经成为数据中心的标配。无论是通过云还是在本地数据中心,各大公司在采用AI等技术的同时,计算的能耗也在日益提升。在我们的常识中,GPU是比CPU更加耗电。那么这是否意味着GPU会加大数据中心的能耗呢?
其实,对于AI工作负载,NVIDIA GPU的能效是传统CPU服务器的42倍。NVIDIA的HGX-A100云服务器平台将16个NVIDIA V100 Tensor Core GPU连接在一起,可作为单一巨型GPU运行,提供2petaflops的AI性能,创下了单台服务器AI训练算力的纪录。
在短短两年内,NVIDIA AI系统将在单一服务器上训练图像识别模型ResNet-50的时间从8小时减少至40分钟。随着AI采用的加速,NVIDIA的重点从训练转移到推理,使经过训练的模型能够在全球数百万台超大规模服务器运行的实时应用程序中运行。
NVIDIA的TensorRT推理软件甚至能够助力最大型神经网络在数据中心、嵌入式和汽车等多种应用中实时运行。A100比CPU快237倍。与其所取代的基于CPU的系统相比,配备NVIDIA GPU和TensorRT的超大规模数据中心占用的机架空间仅为其1/47,运行的能源成本降低了95%,同时还能提供运行所有AI模型的实用程序。
发表于 2021-12-26 22:35 | 显示全部楼层
节能不节能看具体场景了。
比如算个普通加减法,你拿个普通那种太阳能供电的小计算器几秒就可以搞定,那个耗电真省。你要是拿12代i7来算,光系统自检启动OS打开计算器输入数字得出结果,需要的电量估计够刚才那个小计算器用几十年了。




没有前提条件的结论没啥用。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
发表于 2021-12-26 22:42 | 显示全部楼层
专用化并行化带来的优势而已,GPU毕竟只能应对比CPU明显更少的应用场景
当然NVIDIA一直在扩展GPU的应用面,这个对节能还算有点贡献
发表于 2021-12-26 22:42 | 显示全部楼层
很简单,PHYSX CPU也就是使用CPU处理PHYSX物理加速特效,而PHYSX GPU则是使用显卡核心GPU处理PHYSX物理加速特效.PHYSX是很宽泛的概念,狭义的说是物理特效,广义的说只不过是一种编程语言,对于无法兼容PHYSX语言的A卡或者关闭了GPU对PHYSX加速的N卡来说,此时的物理特效都只能交给CPU处理,也就是PHYSX CPU。(当然了,A卡不支持PHYSX是因为N卡在驱动中做了限制,实际上A卡通过破解驱动的方式也是可以进行PHYSX物理加速运算的) 所以假如游戏使用了PHYSX物理加速特效,而你用的又是支持PHYSX物理加速的N卡,那么出现PHYSX CPU最大的可能是游戏设置中关闭了显卡对PHYSX的加速支持,因为比较特殊的是NVIDIA显卡设置中的PHYSX的开启并不是全局性的,不同的游戏可以自定义是否使用显卡进行PHYSX加速,当然,关闭是全局性的,如果在显卡控制面板中将PHYSX加速设置为关闭,那么所有支持PHYSX的游戏都会是PHYSX CPU的。
发表于 2021-12-26 22:48 | 显示全部楼层
根据NVIDIA发布的声明,主要介绍了自己的三大优势:
第一个是Green500超算中,全球25台最节能的超算中有23台都使用了NVIDIA的GPU芯片。
第二个是芯片能效,NVIDIA称他们的GPU芯片在AI运算上要比CPU处理器能效高出42倍。
第三个是NVIDA的能源目标,NVIDIA计划在2025年的时候将可再生能源的比例提升到65%,这不仅包括他们的办公大楼,就连数据中心也要如此,改为绿色能源为主。
从发布的声明来看,貌似与个人都没有关系,对于超算、数据中心等使用的能效我可能不太清楚,但是个人显卡的功耗确实实打实的越来越高了,为了提升性能,直接大幅提升功耗来换大幅的性能提升,随之而来的是耗电量增加,假设说全球1亿人买了显卡的话,那么一块3070的功耗就达到了220W,单显卡差不多就是5小时一度电了,合计一天就用一亿度电。。。未来新显卡还会增加功耗。。。
或许以后显卡会采用回收材质么?买新显卡可以以旧换新么,这样的话貌似也还可以,可以降低个人成本,那么未来也许发电全用绿色发电的话,那么功耗多一点可能不影响,但是未来还有很久呢,不知道那时候还流不流行显卡了!
说再多也不如让现在的显卡价格降一降啊!
发表于 2021-12-26 22:56 | 显示全部楼层
拖拉机:我们搬砖比兰博基尼省油10086倍,我骄傲了么
发表于 2021-12-26 23:01 | 显示全部楼层
CPU:那我走?
懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Unity开发者联盟 ( 粤ICP备20003399号 )

GMT+8, 2024-5-2 22:22 , Processed in 0.094826 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表