找回密码
 立即注册
查看: 756|回复: 20

人脑的图形处理能力相当于什么显卡?

[复制链接]
发表于 2021-7-2 19:03 | 显示全部楼层 |阅读模式
人脑的图形处理能力相当于什么显卡?
发表于 2021-7-2 19:08 | 显示全部楼层
目前看来,成年人脑的每个半球的初级视觉皮层约有 1.4 亿个神经细胞[1],整个人脑涉及图形处理的神经细胞可能有 28 亿个以上(对间接参与的估计还不够准确)。每个神经细胞平均和一万个其它神经细胞连接,每个连接每秒可以激活 2 次以上,这意味着人脑涉及图形处理的计算能力可能在 5.6e+13 次计算每秒以上。
另一方面,视网膜里也有神经细胞。卡内基·梅隆大学的机器人专家汉斯·莫拉维茨分析了视网膜内的神经图像处理电路。他认为视网膜每秒执行一千万次图像边缘检测和移动检测。基于几十年建造机器人视觉系统的经验,他估计每次重现人类的视觉检测需要机器执行约一百条指令,这意味着复制视网膜这一部分的图像处理功能需要十亿次计算每秒——显然,人的视觉主要是大脑 PS 出来的。
Nvidia GeForce RTX3090 的浮点性能是 35.58 TFLOPS。不看其它性能,人脑的图形处理能力至少和 RTX3090 在同一个数量级。
发表于 2021-7-2 19:18 | 显示全部楼层
赵泠(真的不是机器人么)这个回答是有问题的。
大脑的算力如果和显卡比较的话,不是简单的计算神经元活动多少次,而是要计算实际需要计算的内容。
对于大脑而言,视觉其实是一个典型的数据加工过程。视觉信息从视网膜被接受,通过视神经传入脑,最后抵达初级视觉皮层,进行复杂的加工。我们一般认为,初级视觉皮层是大脑对于视觉的最早的加工区域,在此处,视觉系统对于视觉信息的很多局部特征加工,比如颜色、朝向、空间频率等。虽然初级视觉皮层和视网膜的有着视觉拓扑,但是并不代表加工难度、信息量是一样的。
我们不妨看一下李兆平教授的论文[1]:
显而易见,随着视觉通路的上升(视网膜-LGN-初级视觉皮层-高级皮层),其实能加工的信息的量随着加工的复杂度和神经回路的特点在显著的下降。但是别忘了,人脑这个概念,一般是要从LGN开始算起,如果是指大脑皮层,得从V1开始说起。
那么如图[2]:
其实实际加工的东西很少。
但是,如果说神经元的量,的确很高。现在的显卡能不能达到复现人脑的计算能力,那我觉得没达到。但是实际人脑计算的量(从皮层开始说起的话)却又似乎和显卡不成正比。
还是那句话,同样的计算,在不同的物理实现中,算法是不同的。其实难以直接比较啊。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
发表于 2021-7-2 19:23 | 显示全部楼层
无法比较,显卡解决的主要是人脑不能解决的问题:
来个最简单的问题:
图1
如上图这个放大后的100像素方块,里面有3种绿色,你能看出来吗?我想99%的人我不说根本就只能看出一种。
当然,如果人脑在逻辑运算上能有电脑0.01的算力,找茬游戏也就不会风靡全球一个世纪了。
(其实图1有6种颜色,图片是我随手拿matlab生成随机数画的,我也不知道都在哪
~( ̄▽ ̄~)~)
且不说挖矿这种找块Spartan都能比人挖的快的碾压性科目,就说图像识别这种尚且人类还保有一定优势的项目,现在的GPU上跑着大型神经网络,功耗比一屋子人的脑袋加一块还大,无论是处理速度还是准确度都能训练后超过人脑,说明在运行一套完全不如人脑,冗余度超高的不可解释网络条件下,计算机仍然能有不错的发挥。(相同性能讲功耗,相同功耗比性能,考虑功耗的话人脑还是有相当的优势)
我觉得人脑的突出优势在于它恐怖的鲁棒性,丰富的情感,创造力,这些是现有参数难以衡量的。
eg1:我喝了二斤酒,脑子里像一坨糨糊,迷迷瞪瞪也能上炕认识媳妇下炕认识鞋→鲁棒性
eg2:我看见新垣结衣会喊老婆→丰富的情感,创造力(误)
人脑每时每刻都在出错,但大部分时间都能做出正确的判断:
图2.眼见为实,贴吧为虚
人脑绝大部分错误都是我们根本察觉不到的,甚至我们那一小角可怜的视野都能被脑补成100多k的超蓝光电影。而电脑连个瘦脸算法都会因为主播吃饭喝水而出现女神吃饭圆脸大小变,榜一扛着火车说再见
图3.这个主播还挺可爱的
显卡硬件鲁棒性这方面就更是拉胯,别的不多说,就看看矿卡买回来几个月烧mos就完事了。。。对比起来衡中的学霸们每天高强度用脑,也没见哪个学霸因为脑子里哪根神经元ber一下短路了傻了的吧。
对于人脑深入的分析我也不懂,希望HBP或者类脑芯片等研究能早日解开人脑的运行方式吧。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
发表于 2021-7-2 19:28 | 显示全部楼层
这种情况下去说参数都是扯淡
图形处理能力也分成对随机图形的处理能力(视觉处理)和对现有图形的处理能力(记忆处理)
已知,人眼的像素为3.24亿,按1:1的比例来看就是180k的分辨率,目前3090显卡处理8k的图像问题不是特别大,但是16k肯定不行。但是人眼可以在180k的分辨率下,进行瞬间的无极变焦(正常人的范围一般在10cm-50m),并且可以瞬间处理好随机图像的存储和重点区域分析功能。
再说对现有图形的处理能力,你脑子里现在出现了一间毛坯房,你想往里面放家具,那你几乎马上就会将一个毛坯房3D化,并且把标量图变成矢量图,瞬间完成你想要的家具的放置情况,这一切还是在180k的分辨率下进行的。
说到这里重点来了,你的大脑思考了这些之后,会感觉累吗?
不会,因为只要你保持能量输入,大脑几乎是不会累的,甚至大脑占用率最高也不会超过10%
然而,最好的显卡在处理这些的东西的时候,怕是得炸。
所以,用大脑和显卡作比较,简直就是太小看大脑了。
发表于 2021-7-2 19:37 | 显示全部楼层
鉴于人类这样复杂的动物主要的难度是综合协调,而综合协调能力好也是一种生存能力,在这么强的生存能力下,比起怎么显示的好更重要的还是怎么理解显示信息,需要的是CPU好。
而cpu好到一定程度可以干很多事儿,显卡好的话也就看东西快一点,然而人类不需要那么快看的速度。
所以恐怕人类脑里的显卡是传输带宽相对很大,核心相当多但是每个核心计算能力较为垃圾的一个东西。
相当于我们在PS里面通过批量打开文件夹里的图片,并且试图通过加载速度来达到“动画片”。
这些主要靠的都是CPU
GPU用的不多,但是缓存和带宽肯定是很不错的(相对而言),为了理解内容调取数据库估计也牛逼,硬盘超快的。


所以人脑大概不是游戏显卡,恐怕是某种专业化的工作站的图形渲染卡,但是重点是带宽……


这样来看怕不是更接近于接收超大尺寸卫星图片的卫星接收站工作台用的那些定制显卡,算力较低甚至还不如一个亮机卡,而且还是十年前就是亮机卡的玩意,然而显存和传输带宽大的爆炸,超多得核心+无数插槽,几百显卡交火压榨CPU。


型号是什么我忘了,就是那种军用级别的雷达显示器用的显卡……或者说显示箱。
最不济也相当于汽车屏幕化仪表盘驱动屏幕的那块独立的显示设备,不可能和特斯拉一样都经过中央电脑。
发表于 2021-7-2 19:43 | 显示全部楼层
单论图形处理能力,大概几十块钱的亮机卡水平吧


通常不说三维场景了,渲染一张二维纹理都费劲,
不信的话你现在闭眼,然后尝试在大脑中把刚刚看到的手机/电脑屏幕上的画面重新复现出来,
是不是细节都丢失得惨不忍睹了。


<hr/>还和显卡比图形渲染能力,很多人也太自信了,
要是三维渲染那显卡就是吊打了,不信试试:
首先在大脑中构建一个最普通的cube,然后跑一遍最简单的光栅化流水线,你就跑一帧试试,
然后随便Github下一个别人写的代码跑起来验算一下你大脑里运算的对不对看看。


先不说你大脑能不能成功跑出来、有没有明显错误什么的了,
就说如果你50块钱买个显卡只能渲染一个cube,就甭管帧率多少了,你能把电脑店给砸了
<hr/>还有动辄拿眼睛说事的,这里面先不谈眼睛的数据大脑到底有没有运算,有没有参与解码,
你以为眼睛给的数据大脑真的全能理解,全能“看见”?来现在盯着屏幕,同时告诉我当前视角范围上左上角第二个字和右下角第二个字是什么?现在你还觉得你真的“看见”了么?觉得眼睛能说明大脑牛逼么


<hr/>评论区有些人类有种迷之自信,在对显卡怎么渲染图形都不是很清楚的情况下,就想当然的进行一些自己脑补出来的“民科式幻想”,那么我们再往下拆开往简单了说一点:
你能不打草稿干瞪眼用脑子做矩阵运算吗?
你把大脑吹的再怎么神,又是大脑结构怎么牛逼,又是模仿大脑的,结果吹的各种神奇所在的大脑,稍微复杂点的数学运算都得通过外界工具打草稿来辅助计算,这多尴尬啊。
你猜五十块钱的显卡一秒钟能做多少次数学题?你猜对于一个“一刀99级”的手游来说,一帧画面需要做多少道数学题?
人脑真要有吹的那么牛逼,还买显卡干嘛,显卡难道都是卖给猫的吗?


我就不问你大脑挖矿能不能比得过1060笔记本了


很久很久以前,人们的祖先就深刻的意识到,人脑的算力极其不靠谱,于是发明了算盘。
这古人都明白的道理,可惜千百年后的后人居然觉得自己的脑子可以和这个比算盘不知道流弊多少倍的、这个星球上最牛逼的计算工具之一在这个工具的擅长领域一争高下,还能觉得自己完胜。
非常神奇
发表于 2021-7-2 19:46 | 显示全部楼层
????
等什么时候电脑支持量子计算(概率计算在说)家里里面没有几个显卡的能耗比能比过大脑。
发表于 2021-7-2 19:46 | 显示全部楼层
我不知道其他人是怎么得出人脑比计算机强这种结论的,说的好像人脑是多么了不起的东西,在我看来,人脑的功率是很低的,图形处理能力也是很弱的,跟计算机完全没有可比性,虽然人的眼睛号称有几亿像素,但是人的大脑只能处理眼睛捕捉到的影像中很小的一个范围,眼睛能看到很多影像,但是能“观察”的具体的事物却极为有限,当眼睛把某一个事物观察到一定程度之后,关于这个事物有价值的信息就被大脑存储了,当眼睛再次看它时,就会把它忽略掉,把它当作背景一样,不再浪费时间观察它,而只是判断它的远近、大小以及所在空间中的位置等与自身相关的信息,人脑比电脑强的是算法,只要算法足够好,就可以利用计算机模拟出远远超出人类的智能水平,当然,处理图像信息也并不需要很大的计算量,因为人脑处理眼睛获得的影像,采用的一种非常简单粗暴的算法,根本不需要浪费多少脑力就可以做到,非常的轻松容易,大脑只是把图像给拆分掉记录,然后再把记录在大脑中的信息与新捕捉到的影像做比对而已,至于某一个具体的事物该如何命名,则取决于概念定义,即人们约定俗成的称呼。
发表于 2021-7-2 19:50 | 显示全部楼层
介于每个人智力不同 所以没法回答你
懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Unity开发者联盟 ( 粤ICP备20003399号 )

GMT+8, 2024-11-23 16:29 , Processed in 0.096938 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表