APSchmidt 发表于 2023-1-23 20:11

人的大脑相当于什么水平的 GPU 和 CPU ?

在梦里是可以流畅“运行”各种大作的。昨晚做了有关一游戏的梦境后,我突然产生了这个问题。还望大家不吝赐教。

JamesB 发表于 2023-1-23 20:19

你做个梦,大脑不发烧、不爆炸、不需要风扇大功率吹,只需要让大脑低功耗运算就可以凭一己之力秒杀几十万块钱的渲染4k视频的机器。
有一个评论值得借鉴:你一个馒头吃下去就能给大脑供能很长时间,想想各种手机电脑计算机要用多少电烧多少煤。
补充:我靠怎么这么多点赞,我就是一时激动发的回答啊 评论区的大佬们才是真厉害……而且大家也可以去b站搜科普视频

xiaozongpeng 发表于 2023-1-23 20:20

我觉得这个很难衡量。
<hr/>比谁计算加减乘除,微积分运算,计算机爆杀人脑,就是多少年前的80486编程一下算微积分都是瞬间的事情的。计算解析解也不是不行。



计算机计算微积分的解析解

比谁计算很多个简单计算的速度(比如计算1024*1024维度的向量加法与乘法),GPU完爆人脑,你还没读完题的时候人家都结束了。
https://www.zhihu.com/equation?tex=Y%3DA%5Cvec%7Bx%7D%3D%5Cleft%5B%5Cmatrix%7B1%263%26-2%264%5C%5C2%266%260.25%260%5C%5C-1.15%260.4%267.1%260.02%5C%5C1%260%264%267%7D%5Cright%5D%5Cleft%5B%5Cmatrix%7B3%5C%5C7%5C%5C2.1%5C%5C-4.86%7D%5Cright%5D%5C%5C 比谁计算卷积速度更快, 似乎还是计算机更快。人类计算循环卷积拿两张纸相对运动算加乘法的时候计算机已经用FFT快速算法得到了答案。
我们熟知的FFT算法实际上是将一个多项式在2n个单位根处展开,将其点值对应相乘,并进行逆变换。然而,由于单位根具有“旋转”的特征(即 https://www.zhihu.com/equation?tex=%5Comega%5Ej_m%3D%5Comega_m%5E%7Bj%2Bm%7D ),若多项式次数大于二分之长度,FFT将进行一次长度为2n的循环卷积。Bluestein的算法是解决了在任意长度上的循环卷积问题。
二维卷积同理。但是,这里放一张图,请数出图中猫的个数:



有几只猫呢?

此时就是最先进的计算机基本上都需要一定的时间才能数出来,而且如果是动图的话,想达到实时输出是非常困难的,更难受的是,计算机处理的每一帧都有可能得到不同的结果。
但是人类可以轻而易举的看出来有多少个。
加一个问题:图中有几只黄色的猫?
对于之前能处理数毛任务的算法,这个问题一下又成了全新的问题了。但是人类解决几乎不费力气。
还可以提出更多问题:图中有几只虎皮鹦鹉?



虎皮鹦鹉有很多种颜色

即使你不知道虎皮鹦鹉是什么鸟,甚至从来没听说过,你也能立刻得出结论。甚至能看到那只模糊的



但是计算机很难看出这个模糊的鸟也是虎皮鹦鹉

给你只需要看一眼,你就能新建一个分类,然后很好的完成分类任务。
但是计算机不行。
同理,人类做算术问题比计算机慢很多,处理卷积问题也慢很多,但是人类就是能比CNN更快,泛化能力更强,鲁棒性更好。(生物研究表明,人类视觉的认知类似于卷积神经网络,毕竟后者就是仿生的前者)。
<hr/>究其原因,我认为这主要是“计算模式”不相同造成的。
计算机处理再复杂的算法,都是用“虚拟机”的方式构成的。计算机底层就是一个cpu+内存罢了。cpu还可以拆分为数据路径和程序控制器。所有的算法,都需要基于此运行。计算机能算卷积网络也不是因为它真的包含一个卷积网络,它只是在仿真而已。
但是人脑的神经元之间确是真实存在的。人类无须计算每个神经元的延迟,强度关系,因为在冲动信号过来后,神经元自动的就被激活了。这就像是仿真流体也许需要超级计算机,但是流体的发生一直在我们身边。


比谁的主频高,浮点运算次数快,计算机赢麻了。
比谁能处理实际问题更迅速,没人知道为什么,但是人脑就是比计算机好用。

量子计算9 发表于 2023-1-23 20:21

不说别的,就光大脑枕叶扣带回这一小块地方,实时处理着3.2亿像素、帧频约25的高强度视频,而且是高动态范围,而且是双眼融合立体视频,而且每一帧都要去除视网膜血管阴影,就知道大脑有多强了。

maltadirk 发表于 2023-1-23 20:26

人体总功耗约70--300W,其中大脑功耗15--30W。
大脑CPU功能对应的功耗约10W,相当于主流笔电低压CPU如AMD锐龙7 5800U,但算力高1千倍以上。
大脑GPU功能对应的功耗<5W,能耗和主流手机高通骁龙888内置的Adreno 660相当,但算力高10万倍以上。
劣势:
首先,人脑没有浮点运算,甚至没有计算,只有估计:人脑类似于模拟电路,所以没有高精度的浮点运算,基于生物系统极高度的不确定性,人脑只能低精度估计,我们自小训练出来的数学计算能力,是强行训练拟合计算流程,所以效率低到让人发指。
其次,动物和人都需要快速反应能力,所以必须有高速缓存,但受限于<100m/s的神经速度 ,人类能模拟出来的高速一级缓存极小,极大限制了大脑处理能力。
优势:
可反馈调整连接方式的高深度神经网络,带了了极大的可塑性,而长期自然选择让这一网络调优到极高程度,带来了极强的泛化潜力。
人脑超高并行高延迟的架构类似于GPU,能以极低功耗做到超强的图像分析能力。
总体而言,单说算力,人脑远强于同功率硅基芯片,毕竟人脑就是靠暴力堆算力来部分弥补精度不足和传导过慢。
但高可塑性网络,结合几千年积累的先验知识,才是大脑起飞的终极助力。

KaaPexei 发表于 2023-1-23 20:29

人脑很牛逼,但人脑也很垃圾。
人脑在某些方面远远比不上电脑,但大力出奇迹……

人脑信号传递基础,是传输速度100m/s左右的电化学过程。

[*]信号不能精准控制,误差可达1/100。
电脑信号传递基础,是70%光速(200000000m/s左右)的电信号。

[*]信号能精准控制,误差小至1/2^32(1/42亿)。
通常来说,大脑神经元处理信号的速度,比电脑晶体管慢1000万倍。
电脑处理信息的精度,是人脑精度的几百万倍。
除此之外,相比起电脑,人体是一个耗散系统。需要通过源源不断的新陈代谢,才能维持系统的良好运转。
只要一停机,系统就直接崩坏。所以,单单是维持这个系统,大脑就需要消耗巨大的算力。
你那不停跳动的心脏,身体内躁动的荷尔蒙,哪个不需要算力的维持?
但神经元的信号传递又慢,那应该怎么办?
当然是增加神经元个数了,通过数量来弥补算力的不足,这便是大力出奇迹。
为了维持这个高新陈代谢的耗散系统,人脑拥有1000亿级的神经元,100万亿个神经突触连接,拥有5000 TOPS(5×10^15)的算力,是普通计算机(100亿)的数十万倍。
其实一只小小的蚂蚁都有25万的神经元,达到几十亿的算力,相当于一台普通计算机。
高算力只是动物的共性,人类并不特例。
如果按照神经元的数目来说,大象(2570亿个神经元)的总算力甚至可以达到人类2倍还多。但大象在智力方面、抽象思维的能力,却比人类低了很多。
人脑最核心的,还是大脑皮层。
人脑功能其实分区的,比较经典的理论就是三位一体理论。该理论在以前的回答,已经说过不少次,就不细说了。总的来说,大脑皮层才是人类最高级的神经中枢。人们最关心的感官、语言、思维、意志,都是大脑皮层主导。
而人类大脑皮层的神经元个数是140亿个,总算力应该在10^14~10^15 OPS之间。
也就是说大脑皮层的算力,大约只占整个大脑的15%左右。
而大脑皮层的主要功能在于视、听、躯体感觉、运动,以及相关联络区的功能。


真正能用在思维上的算力,占比又更小了。
正是因为这个原因,大脑在长期演化过程中,成了一个无比节能的系统(哪怕如此,也占了总能量消耗的20%),处理各种信息都进行各种精益求精。
例如,你眼睛接受的信号高像素(几千万)、大内存,但被大脑一加工,直接变成了几个字节储存在大脑内。无比“垃圾”的一级缓存,甚至让你短短10妙之内,无法记清你刚才看过的图片、听过的音乐、看过的书的细节。
看看这个世界上,有着多少强迫症。如果不是这一级缓存太垃圾了,你哪里需要去反反复复确定关没关门这一件事情。
不过好处还是有的,低字节处理,可以让人脑储存的总信息比普通电脑多很多。
回忆的时候,大脑会用超强的脑补能力,弥补丢失的细节。但由于生物噪声太大,可能会脑补出一些原画面根本没有的东西。和朋友聊起某一件事情,你觉得自己见到了、听到了、闻到了,但朋友却没有经历过,简直咄咄怪事,你以为自己脑子有毛病(人家真没毛病,只是常规改数据而已)……
如果我们的意志是大脑内的管理员,那么这也是一个权限低得令人发指的管理员。
不仅我们对控制中心毫无权限,连软件都只能控制一半(植物性神经不受意志控制)。
你认为重要的记忆或者信息,被任意的删改,更是常规操作。
我们的大脑每天都会接受各种各样的新信息,旧信息不以我们意志为转移的每天不停地丢失字节,慢慢变得失真。若干年后,你翻一翻老照片,咦,这LOW Bj竟然是当年的我?
甚至有的大脑信息被加工得面目全非,常常觉得有人迫害自己,导致精神分裂什么的。有时候某些信息还会影响CPU的功能,导致抑郁什么的。
过大的生物噪声也让人类的浮点计算能力,低得令人发指。你把从古自今,囊括所有人类最牛大脑,包括牛顿、欧拉、高斯、黎曼、爱因斯坦、杨振宁……所有人加起来,浮点计算能力也比不过一台计算器。
计算机的浮点计算力,至少是人类的几十万倍以上。
人类哼哧哼哧的把圆周率算了1000多年,也才多少位数……
如果有效内存过低、生物噪声过大、浮点运算过低、容易损坏是人大脑的缺点,但相比起电脑,人脑还是有着突出优点的:
大脑神经元之间的链接强度是可以根据活动和经验进行修改的。
无论你学滑冰、看书、或者玩游戏,在重复训练的过程中,神经网络会逐渐提高精度和速度。甚至在不断学习的过程中,还能诞生新的突触连接。
人脑之所以有这些能力,主要在于,人类的大脑其实是超多核处理器(单单大脑皮层都可以分成多少个核心区),拥有多层结构的深度学习模式。
不仅仅是人类,基本上任何哺乳动物的大脑内,都存在深度学习的机制。
这种复杂性,是当前的超级电脑远远不能比的。
所以人脑在策略、思维、艺术、语言上,具有非凡的优势。
虽然当前的人工智能能够学习艺术,甚至能创造艺术,做出远超普通人的作品。但其实,这主要还是体现在电脑精度上的优势。
例如,你让电脑学习投篮,它通过学习,可以投得无比精准,但你让他上场打球却是根本不可能。现在的人工智能,其实仅仅还在学习投篮的阶段。
看起来阿尔法狗很牛逼,但它的“思维”过程,其实也是模仿人类的神经网络,属于全局性的运算。由于电脑的高精度优势,所以只需要模仿神经网络的皮毛,就可以达到比人类更优秀的计算能力。所以阿尔法狗通过学习能在围棋上能战胜人类,并不意外。
人类的大脑通常会采取更加模糊(精度太低),且高效(人类大脑更擅长经验判断)的方式。但从思维模式来说,阿尔法狗的神经网络比起人类来说,还无比的简单。
除此之外,人类通过围棋的思维,可以完全运用在其它事情上面。但阿尔法狗则只会下棋,把它运用到其它领域,需要全新的规则学习。
总之,当前人工智能的“智能”差距,主要体现在大脑的复杂结构和模式上。
如果某一天电脑也能设计出媲美人类大脑的复杂结构和模式,那么这个电脑的综合能力,恐怕会真正的秒杀人类。
如果,人类的意识的确是在大脑皮层复杂神经网络中形成的。
那么,这个超级电脑也会诞生真正的意识,成为货真价实的人工智能。
那会将是一个全新的时代。
页: [1]
查看完整版本: 人的大脑相当于什么水平的 GPU 和 CPU ?