科普一下,什么是gpu算力?
既然谈到算力,我就默认题主说的是通用计算而不是图形渲染了。简单的说,就是GPU的计算能力。
拆开来看,又可以分为标称算力和实际算力。
标称算力是指厂商公布在硬件spec上的算力。可以参考这个wiki:
上图红框所示的浮点吞吐就是通常我们所说的标称算力。以NVIDIA为例,标称算力大概每2年翻倍。当前单精度浮点基本在几十T到百T这个量级。这里没有考虑tensorcore这类定向加速单元。
但真正应用到某些场景,我们会发现,很多达不到标称水平。这里面影响因素有很多。从硬件来看,存储设计、调度设计、指令设计、IO设计;软件来看,计算模式、访存模式、业务模式。都会影响实际的算力吞吐。
如何评估GPU实际算力,这就依场景而定了。但场景复杂多样,大家还想要一个可以横向纵向对比且相对客观的指标。这个时候benchmark就登场了。深度学习这块大家比较公认的就是MLPerf,科学计算领域也有很多行业内部的测试集,这里就不赘述了。
在更大范围内讨论算力,大家一般直接在单卡硬件spec的基础上线性叠加。比如一台机器的算力,一个机房的算力,一个集群的算力。
这里的算力与实际算力相差就更远了~
页:
[1]