找回密码
 立即注册
查看: 279|回复: 0

科普一下,什么是gpu算力?

[复制链接]
发表于 2022-7-14 08:51 | 显示全部楼层 |阅读模式
既然谈到算力,我就默认题主说的是通用计算而不是图形渲染了。
简单的说,就是GPU的计算能力。
拆开来看,又可以分为标称算力和实际算力。
标称算力是指厂商公布在硬件spec上的算力。可以参考这个wiki:


上图红框所示的浮点吞吐就是通常我们所说的标称算力。以NVIDIA为例,标称算力大概每2年翻倍。当前单精度浮点基本在几十T到百T这个量级。这里没有考虑tensorcore这类定向加速单元。
但真正应用到某些场景,我们会发现,很多达不到标称水平。这里面影响因素有很多。从硬件来看,存储设计、调度设计、指令设计、IO设计;软件来看,计算模式、访存模式、业务模式。都会影响实际的算力吞吐。
如何评估GPU实际算力,这就依场景而定了。但场景复杂多样,大家还想要一个可以横向纵向对比且相对客观的指标。这个时候benchmark就登场了。深度学习这块大家比较公认的就是MLPerf,科学计算领域也有很多行业内部的测试集,这里就不赘述了。
在更大范围内讨论算力,大家一般直接在单卡硬件spec的基础上线性叠加。比如一台机器的算力,一个机房的算力,一个集群的算力。
这里的算力与实际算力相差就更远了~

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Unity开发者联盟 ( 粤ICP备20003399号 )

GMT+8, 2025-5-1 12:54 , Processed in 0.140009 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表