redhat9i 发表于 2021-12-17 16:48

话题比较大,不敢妄自菲薄。不过,从苹果的M1芯片,AMD的APU,已经表明了一些迹象,融合、更高的执行效率,我个人感觉,应该是大势所趋。
AMD厉害的地方,不在于CPU架构如何优秀,也不在于GPU的相关免费技术以及高性价比,而是早在十几年前就开始布局CPU+GPU的融合态势,APU在PS4、XBOX ONE、PS5、XSX等主机上的大量采用,让AMD彻底挺了过来(当然也有挖矿的功劳)。
苹果就更不用说了,直接出了个ARM架构的M1,来挑战主流的X86,并且以惊艳的成绩和多年来积累下的完善软件生态,给了X86一记响亮的耳光。
NVIDIA虽然没有CPU+GPU这样的产品,但对于GPU多核优势的挖掘与生态建设,使其也引领了并行计算、机器学习等前沿领域。
所以说Intel输在了哪里?我想答案是很明朗的。
当然,我不排除FPGA这种专用处理器的优势。
回想2008年前后,我一个大学室友就说了,以后的电脑,就是一颗大的芯片,CPU+GPU+DDR,都整合在一起,甚至还整合存储。当时觉得这么大的芯片就是天方夜谭,但现在觉得,真的是有远见。。。

Doris232 发表于 2021-12-17 16:53

在科技快速发展的时代,芯片已经成为我国进口总金额最高的单一商品,根据公开数据显示,中国2020年的芯片进口额达到了3500亿美元。

之所以会出现这种情况,主要是因为我国芯片产业起步较晚,致使我国芯片许多环节都出现卡脖子的境况。


虽然目前我国并不缺少芯片企业,但真正掌握核心技术的企业并不多,未来,芯片行业的发展该怎么走,是不少业内人士比较关心的问题。

近日,在成都市举办的2021年成都市新经济“双千”发布会产业链功能区稳链补链专场活动上,龙芯中科副总裁杜安利进行表态,明确指出国产CPU发展的方向。


杜安利表示,自主研发CPU的核心技术,构建自主创新的产业体系,这条路虽然难走,但如果走通,对于我国半导体发展将非常有利,届时,将没有任何一个国家能卡住中国的脖子。

显然,龙芯中科副总裁杜安利意思很明确,就是死磕CPU技术自研,只有掌握最核心的技术才是硬道理。


目前,龙芯中科正在大力发展自主研发的CPU指令集。要知道,全球大部分芯片厂商都在使用微软的X86指令集系统和ARM指令集系统,他们分别支撑着Windows生态和安卓生态,所以,龙芯中科大力发展指令集目的就是让我国拥有第三套指令集生态体系。

值得一提的是,龙芯中科经过20年的发展、技术积累,其研发的CPU通用处理性能接近市场主流产品水平,架构成熟,已经接近Windows XP的发展阶段。


不仅如此,在芯片自主研发的基础上,龙芯中科还攻下了指令集这一难题。就在今年,龙芯中科推出完全自主指令集架构——LoongArch,这款指令集从高层架构,到指令集作用和ABI标准等,所有都是独立自主设计构思,不需要国外授权。基于该指令集架构,龙芯中科发布了龙芯3A5000处理器,这应该国内首款纯自研的芯片,与国内采用引进技术的CPU相比,在性能方面有着明显的优势。

另外,龙芯中科还在不断构建基于自主指令集系统的软件生态,未来,龙芯中科指令集平遥可以不运行Windows系统、不运行安卓系统,但能运行Windows应用和安卓应用。


那么,拥有自主研发的指令集之后,将会给我国芯片行业的发展避开了哪些风险呢?

使用海外指令集系统发展产业生态,主导权完全掌握在海外厂商的手中,最关键的是,指令集系统是不断进行技术迭代,购买国外的技术,永远无法获得最先进的技术和升级权利。

这也即意味着,没有自主研发的指令集系统,我国在芯片行业的发展,只能跟随国外的发展脚步,永远做不到超越。

而龙芯中科完全自主研发的指令集系统,无疑为我国芯片产业超越海外提供了机会。

mastertravels77 发表于 2021-12-17 16:57

技术角度来看:未来的cpu可能就像现在的一体式主板缩小后一样,集成了独显、内存、硬盘或者各种各样的芯片,集成度更高,但本质还是冯诺依曼结构,形式变了,本质没变。从消费者角度来看,近几年电动车的火热带动汽车芯片发展,说明未来的生活会用到更各式各样的cpu,例如,缺少运动神经的人植入运动级cpu后会跑得更快,蠢的人植入运算级cpu会更聪明,关心的不是cpu会怎么发展,而是人们的生活需要怎么发展。
从功能去界定,CPU 和GPU的边界会越来越模糊,AI的芯片会逐步替代CPU,物理角度看,多功能多核混搭会是发现方向,强调算力分红,而不是工艺的进步

JoshWindsor 发表于 2021-12-17 16:59

未来方向大致两方面,但前提都是CPU的智能化和核心独立化!两个方向合在一起,便可以简称为“可以行走的大脑”!用以减少能源的消耗使用和生物医疗技术方面!
两方面分别是:
1、普适升级及学习应用技术:普适是即一块CPU可以用在多个场景或行业,如同人一样,可以进入不同的岗位和不同的公司!升级即可以进行长久的储存提升空间;
2、生物组合和形态模拟技术:生物组合即与动植物之间的共生组合形态,形态模拟即根据周围的环境衍生出类似变色龙的模拟技能;
有人说,你这太“科幻”了!其实不然,目前的各大科技公司其实都在研究这些内容,只是没有公开报告过!

XGundam05 发表于 2021-12-17 17:09

机器之心转载
作者:包云岗
包云岗,中国科学院计算技术研究所研究员、博士生导师、中国科学院大学教授,中国开放指令生态(RISC-V)联盟秘书长,从事计算机体系结构和开源芯片方向前沿研究,主持研制多款达到国际先进水平的原型系统,相关技术在华为、阿里等国内外企业应用。他曾获「CCF-Intel 青年学者」奖、阿里巴巴最佳合作项目奖、「CCF-IEEE CS」青年科学家奖等奖项。


1. 首先回顾一下计算机体系结构领域三个定律:摩尔定律、牧村定律、贝尔定律。摩尔定律就不用多说了,但想表达一个观点是摩尔定律未死,只是不断放缓。




2. 摩尔定律让芯片上的晶体管数量不断增加,但一个问题是这些晶体管都被充分用起来了吗?最近 MIT 团队在《Science》上发表了一篇文章《》,给出他们的答案:显然没有!
可以来看一下 MIT 团队开展的一个小实验(见下面 PPT):假设用 Python 实现一个矩阵乘法的性能是 1,那么用 C 语言重写后性能可以提高 50 倍,如果再充分挖掘体系结构特性(如循环并行化、访存优化、SIMD 等),那么性能甚至可以提高 63000 倍。然而,真正能如此深入理解体系结构、写出这种极致性能的程序员绝对是凤毛麟角。
问题是这么大的性能差异到底算好还是坏?从软件开发角度来看,这显然不是好事。这意味着大多数程序员无法充分发挥 CPU 的性能,无法充分利用好晶体管。这不能怪程序员,更主要还是因为 CPU 微结构太复杂了,导致软件难以发挥出硬件性能。
如何解决这个问题?领域专用架构 DSA(Domain-Specific Architecture)就是一个有效的方法。DSA 可以针对特定领域应用程序,定制微结构,从而实现数量级提高性能功耗比。这相当于是把顶尖程序员的知识直接实现到硬件上。




3. 第二个定律是牧村定律(也有称「牧村波动」)。1987 年, 原日立公司总工程师牧村次夫(Tsugio Makimoto) 提出,半导体产品发展历程总是在「标准化」与「定制化」之间交替摆动,大概每十年波动一次。牧村定律背后是性能功耗和开发效率之间的平衡。
对于处理器来说,就是专用结构和通用结构之间的平衡。最近这一波开始转向了追求性能功耗,于是专用结构开始更受关注。




4. 第三个定律是贝尔定律。这是 Gordon Bell 在 1972 年提出的一个观察,具体内容如下面的 PPT 所述。值得一提的是超级计算机应用最高奖 “戈登 · 贝尔奖” 就是以他的名字命名。




5. 贝尔定律指明了未来一个新的发展趋势,也就是 AIoT 时代的到来。这将会是一个处理器需求再度爆发的时代,但同时也会是一个需求碎片化的时代,不同的领域、不同行业对芯片需求会有所不同,比如集成不同的传感器、不同的加速器等等。如何应对碎片化需求?这又将会是一个挑战。




6. 这三个定律都驱动计算机体系结构向一个方向发展,那就是「DSA」。如何实现 DSA,这又涉及到两个方面:
为了追求性能功耗,有三条主要的设计原则(见下面 PPT);
为了应对碎片化需求,则需要发展出处理器敏捷设计新方法。(这个回答就不介绍敏捷设计方法了)




7. 在谈一些具体技术之前,我们可以先总体看一下过去几十年 CPU 性能是如何提升的。下面这页 PPT 列出了 1995-2015 这二十年 Intel 处理器的架构演进过程——这是一个不断迭代优化的过程,集成了上百个架构优化技术。
这些技术之间还存在很多耦合,带来很大的设计复杂度。比如 2011 年在 Sandy Bridge 上引入了大页面技术,要实现这个功能,会涉及到超标量、乱序执行、大内存、SSE 指令、多核、硬件虚拟化、uOP Fusion 等等一系列 CPU 模块和功能的修改,还涉及操作系统、编译器、函数库等软件层次修改,可谓是牵一发动全身。(经常看到有人说芯片设计很简单,也许是因为还没有接触过 CPU 芯片的设计,不知道 CPU 设计的复杂度)




8. 处理器内部有非常复杂的状态,其状态变化是由程序驱动的。也就是说,处理器状态取决于程序行为(见下面 PPT),而 CPU 体系结构层次的优化思路就是发现程序行为中的共性特征并进行加速。
如何发现程序行为中的共性特征,就是处理器优化的关键点,这需要对程序行为、操作系统、编程与编译、体系结构等多个层次都有很好的理解,这也是计算机体系结构博士的基本要求。这也是为什么很多国外的计算机体系结构方向属于 Computer Science 系。
题外话:这两天看到国内成立集成电路一级学科,这是一个好消息。不过要能培育 CPU 设计人才,在课程设计上不要忽视了操作系统、编程与编译这些传统计算机科学的课程。




9. 举两个发现热点应用和热点代码、并在体系结构层次上优化的例子。一个例子是发现在不少领域 TCP/IP 协议栈五层协议(L5Ps)存在很多大量共性操作,比如加密解密等,于是直接在网卡上实现了一个针对 L5Ps 的加速器,大幅加速了网络包处理能力。另一个例子是这次疫情导致云计算数据中心大量算力都用来做视频转码,于是设计了一个硬件加速器专门来加速视频转码,大幅提升了数据中心效率。




10. 发现和识别这种热点应用和热点代码并不容易,需要由很强大的基础设施和分析设备。比如 Google 在其数据中心内部有一个 GWP 工具,能对整个数据中心应用在很低的开销下进行监测与统计,找到算力被那些热点程序 / 代码消耗,当前的 CPU 哪些部件是瓶颈。比如 GWP 显示在 Google 数据中心内部有 5% 的算力被用来做压缩。
正是得益于这些基础工具,Google 很早就发现 AI 应用在数据中心中应用比例越来越高,于是开始专门设计 TPU 来加速 AI 应用。




11. 下面分别从三个方面来介绍体系结构层面的常见优化思路:减少数据移动、降低数据精度、提高处理并行度。
首先看一下如何减少数据移动。第一个切入点是指令集——指令集是程序语义的一种表达方式。同一个算法可以用不同粒度的指令集来表达,但执行效率会有很大的差别。一般而言,粒度越大,表达能力变弱,但是执行效率会变高。




12. 通用指令集为了能覆盖尽可能多的应用,所以往往需要支持上千条指令,导致流水线前端设计(取指、译码、分支预测等)变得很复杂,对性能与功耗都会产生负面影响。




13. 针对某一个领域设计专用指令集,则可以大大减少指令数量,并且可以增大操作粒度、融合访存优化,实现数量级提高性能功耗比。下面 PPT 的这组数据是斯坦福大学团队曾经做过的一项研究,从这个图可以看出,使用了「Magic Instruction」后,性能功耗比大幅提升几十倍。而这种 Magic Instruction 其实就是一个非常具体的表达式以及对应的电路实现(见 PPT 右下角)。




14. 第二个减少数据移动的常用方法就是充分发挥缓存的作用。访存部件其实是处理器最重要的部分了,涉及许多技术点(如下面 PPT)。很多人都关注处理器的流水线多宽多深,但其实大多数时候,访存才是对处理器性能影响最大的。
关于访存优化,也有一系列技术,包括替换、预取等等。这些技术到今天也依然是体系结构研究的重点,这里就不展开细讲了。




15. 不再展开介绍访存优化技术,就选最近比较热的内存压缩方向介绍一下。
IBM 在最新的 Z15 处理器中增加了一个内存压缩加速模块,比软件压缩效率提高 388 倍,效果非常突出。




16. 英伟达也在研究如何在 GPU 中通过内存压缩技术来提升片上存储的有效容量,从而提高应用性能。




17. Intel 在访存优化上很下功夫,可以通过对比两款 Intel CPU 来一窥究竟。Core 2 Due T9600 和 Pentium G850 两块 CPU,工艺差一代,但频率相近,分别是 2.8GHz 和 2.9GHz,但性能差了 77%——SPEC CPU 分值 G850 是 31.7 分,而 T9600 只有 17.9 分。
频率相当,为何性能会差这么多?事实上,G850 的 Cache 容量比 T9600 还要小——6MB L2 vs. 256KB L2 + 3MB L3。
如果再仔细对比下去,就会发现这两款处理器最大的区别在于 G850 适配的内存控制器中引入 FMA(Fast Memory Access)优化技术,大幅提高了访存性能。




18. 第二类体系结构优化技术是降低数据精度。这方面是这几年研究的热点,特别是在深度学习领域,很多研究发现不需要 64 位浮点,只需要 16 位甚至 8 位定点来运算,精度也没有什么损失,但性能却得到数倍提升。
很多 AI 处理器都在利用这个思路进行优化,包括前段时间日本研制的世界最快的超级计算机 “富岳” 中的 CPU 中就采用了不同的运算精度。因此其基于低精度的 AI 运算能力可以达到 1.4EOPS,比 64 位浮点运算性能(416PFLOPS)要高 3.4 倍。




19. IEEE 754 浮点格式的一个弊端是不容易进行不同精度之间的转换。近年来学术界提出一种新的浮点格式——POSIT,更容易实现不同的精度,甚至有一些学者呼吁用 POSIT 替代 IEEE 754(Posit: A Potential Replacement for IEEE 754)。
RISC-V 社区一直在关注 POSIT,也有团队实现了基于 POSIT 的浮点运算部件 FPU,但是也还存在一些争论(David Patterson 和 POSIT 发明人 John L. Gustafson 之间还有一场精彩的辩论,另外找机会再介绍)。




20. 体系结构层次的第三个优化思路就是并行。这个题目中提到的 “多核”,就是这个思路中一个具体的技术。除了多核,还有其他不同层次的并行度,比如指令集并行、线程级并行、请求级别并行;除了指令级并行 ILP,还有访存级并行 MLP。总之,提高处理并行度是一种很有效的优化手段。




以上是关于计算机体系结构尤其是 CPU 结构优化思路的一个大致梳理,供大家参考。总结来说就是两点结论:
1. 领域专用体系结构 DSA 是未来一段时间体系结构发展趋势;
2. 体系结构层面 3 条优化路线——减少数据移动、降低数据精度、提高处理并行度。
原文链接:https://www.zhihu.com/question/20809971/answer/1678502542
Nature论文线上分享 | 世界最快光子AI卷积加速器
世界最快光子AI卷积加速器登上Nature,该研究展示的是一种"光学神经形态处理器",其运行速度是以往任何处理器的1000多倍,该系统还能处理创纪录大小的超大规模图像——足以实现完整的面部图像识别,这是其他光学处理器一直无法完成的。

RhinoFreak 发表于 2021-12-17 17:13

领域化场景化,业务/场景驱动CPU设计和生态建设。
不用领域和场景计算特点不同,对计算的要求也不一样,长期可能会通用处理器和专用协处理器并存,这种模式好像在486就出现过。
对编译器操作系统都提出了更高的要求。
fyi

stonstad 发表于 2021-12-17 17:22

CPU这个名称,早期是对一系列可以执行复杂的计算机程序或电脑程式的逻辑机器的描述。这个空泛的定义很容易在“CPU”这个名称被普遍使用之前将计算机本身也包括在内。
诞 生

中央处理器(Intel)
但从20世纪70年代开始,由于集成电路的大规模使用,把本来需要由数个独立单元构成的CPU集成为一块微小但功能空前强大的微处理器时。这个名称及其缩写才真正在电子计算机产业中得到广泛应用。尽管与早期相比,CPU在物理形态、设计制造和具体任务的执行上都有了戏剧性的发展,但是其基本的操作原理一直没有改变。
1971年,当时还处在发展阶段的Intel公司推出了世界上第一台真正的微处理器--4004。这不但是第一个用于计算器的4位微处理器,也是第一款个人有能力买得起的电脑处理器!
4004含有2300个晶体管,功能相当有限,而且速度还很慢,被当时的蓝色巨人IBM以及大部分商业用户不屑一顾,但是它毕竟是划时代的产品,从此以后,Intel公司便与微处理器结下了不解之缘。可以这么说,CPU的历史发展历程其实也就是Intel公司X86系列CPU的发展历程,就通过它来展开的“CPU历史之旅”。
起步的角逐

中央处理器(Intel)
1978年,Intel公司再次领导潮流,首次生产出16位的微处理器,并命名为i8086,同时还生产出与之相配合的数学协处理器i8087,这两种芯片使用相互兼容的指令集,但在i8087指令集中增加了一些专门用于对数、指数和三角函数等数学计算的指令。由于这些指令集应用于i8086和i8087,所以人们也把这些指令集中统一称之为X86指令集。
虽然以后Intel公司又陆续生产出第二代、第三代等更先进和更快的新型CPU,但都仍然兼容原来的X86指令,而且Intel公司在后续CPU的命名上沿用了原先的X86序列,直到后来因商标注册问题,才放弃了继续用阿拉伯数字命名。至于在后来发展壮大的其他公司,例如AMD和Cyrix等,在486以前(包括486)的CPU都是按Intel的命名方式为自己的X86系列CPU命名,但到了586时代,市场竞争越来越厉害了,由于商标注册问题,它们已经无法继续使用与Intel的X86系列相同或相似的命名,只好另外为自己的586、686兼容CPU命名了。
1979年,Intel公司推出了8088芯片,它仍旧是属于16位微处理器,内含29000个晶体管,时钟频率为4.77MHz,地址总线为20位,可使用1MB内存。8088内部数据总线都是16位,外部数据总线是8位,而它的兄弟8086是16位。
微机时代的来临

中央处理器(概念图)
1981年,8088芯片首次用于IBM的PC(个人电脑Personal Computer)机中,开创了全新的微机时代。也正是从8088开始,PC的概念开始在全世界范围内发展起来。
早期的CPU通常是为大型及特定应用的计算机而订制。但是,这种昂贵为特定应用定制CPU的方法很大程度上已经让位于开发便宜、标准化、适用于一个或多个目的的处理器类。这个标准化趋势始于由单个晶体管组成的大型机和微机年代,随着集成电路的出现而加速。集成电路使得更为复杂的CPU可以在很小的空间中设计和制造出来(在微米的量级)。
1982年,许多年轻的读者尚在襁褓之中的时候,Intel公司已经推出了划时代的最新产品枣80286芯片,该芯片比8086和8088都有了飞跃的发展,虽然它仍旧是16位结构,但是在CPU的内部含有13.4万个晶体管,时钟频率由最初的6MHz逐步提高到20MHz。其内部和外部数据总线皆为16位,地址总线24位,可寻址16MB内存。从80286开始,CPU的工作方式也演变出两种来:实模式和保护模式。

中央处理器(AMD速龙64FX概念图)
1985年,Intel公司推出了80386芯片,它是80X86系列中的第一种32位微处理器,而且制造工艺也有了很大的进步,与80286相比,80386内部内含27.5万个晶体管,时钟频率为12.5MHz,后提高到20MHz、25MHz、33MHz。80386的内部和外部数据总线都是32位,地址总线也是32位,可寻址高达4GB内存。它除具有实模式和保护模式外,还增加了一种叫虚拟86的工作方式,可以通过同时模拟多个8086处理器来提供多任务能力。
除了标准的80386芯片,也就是经常说的80386DX外,出于不同的市场和应用考虑,Intel又陆续推出了一些其它类型的80386芯片:80386SX、80386SL、80386DL等。
1988年,Intel推出的80386SX是市场定位在80286和80386DX之间的一种芯片,其与80386DX的不同在于外部数据总线和地址总线皆与80286相同,分别是16位和24位(即寻址能力为16MB)。
高速CPU时代的腾飞
1990年,Intel公司推出的80386 SL和80386 DL都是低功耗、节能型芯片,主要用于便携机和节能型台式机。80386 SL与80386 DL的不同在于前者是基于80386SX的,后者是基于80386DX的,但两者皆增加了一种新的工作方式:系统管理方式。当进入系统管理方式后,CPU 就自动降低运行速度、控制显示屏和硬盘等其它部件暂停工作,甚至停止运行,进入“休眠”状态,以达到节能目的。
1989年,大家耳熟能详的80486 芯片由Intel公司推出,这种芯片的伟大之处就在于它实破了100万个晶体管的界限,集成了120万个晶体管。80486的时钟频率从25MHz逐步提高到了33MHz、50MHz。80486是将80386和数学协处理器80387以及一个8KB的高速缓存集成在一个芯片内,并且在80X86系列中首次采用 了RISC(精简指令集)技术,可以在一个时钟周期内执行一条指令。它还采用了突发总线方式,大大提高了与内存的数据交换速度。
由于这些改进,80486 的性能比带有80387数学协处理器的80386DX提高了4倍。80486和80386一样,也陆续出现了几种类型。上面介绍的最初类型是80486DX。

JoshWindsor 发表于 2021-12-17 17:23

在上月底Intel发布了12代酷睿AlderLake,升级了大小核CPU架构,工艺也从原来的10nm工艺升级到了7nm工艺。此外,伴随着新工艺出现的还有新一代酷睿,目前官方可确认的酷睿排到了14代MeteorLake流星湖,预计2023年推出,采用Intel 4工艺。
再往后爆料繁多也很凌乱,但好在3DCenter网站汇总了一份CPU的路线图,将Intel到2025/2026年的CPU都标出来了,感兴趣的用户可以凑下热闹了解一下。
 因11代、12代酷睿都已诞生,所以直接从明年的13代酷睿说起,代号RaptorLake,产品系列是酷睿i-13000系列,大核升级为RaptorCove,最多8核16线程,小核还是gracemont,但从8核增加到16核,总计是16核32线程,核显升级为Gen 12.2,架构依然是Xe。


CPU作为一个电脑的核心部件,是大家最关注的电脑硬件,甚至将CPU的好坏作为衡量PC好坏的唯一条件,足可见CPU的在硬件中的核心地位,而CPU制造技术也是IT技术里最高阶的技术之一,因此,有必要探讨以下未来CPU技术的发展方向.
1、性能更加强大,架构更加优化。性能的强大那是CPU发展的前提,是CPU进步原因的所在,目前。多核已经取代单核,成为市场的主流,INTEL在05年发布PD的时候,相信大家都不会认为多核CPU会在这么短的时间里占领市场主流阵地,但现在回头一看,多核已经无处不在了,原因是什么?答案只有一个:性能更加的强大,虽然PD是个败笔,但它为CPU的发展铺了一条新路,随后AMD推出的ATHLON*2系列以其更强的性能,迅速压垮了PD,在DIY市场上占领了INTEL的大部阵地......INTEL为了应对AMD的攻势,研发了现在很火的CORE2,也就是酷睿。
酷睿的出现是CPU历史上的一次重要变革,INTEL采用了全新的架构,使CPU的主频以及功耗降低,而性能却更加强大............
由此可见,AMD和INTEL的竞争将使得CPU技术更加进步,性能更加强大,在面对多任务时更加从容不迫。具体表现就是核心的多,架构的优。当然多核心不代表性能就一定强,架构才是硬道理!
2、功耗更低,制造工艺更加先进.我们去看CPU的发展历史,会发现,每次换代的时候,CPU的性能在提高,而功耗却逐步降低,虽然不完全是,但随着能源危机的加剧,大家在挑选CPU的时候,已经越来越注重CPU的功耗,几年前市场上主流CPU的功耗还都在120W以上,而现在的酷睿2,以及速龙*2的功耗已经降低了一半,在60W以上,而AMD在中国市场上新推出的双核3800的功耗仅为35W。另一个单核版本3800为45W。强烈建议政府机关使用。而INTEL也宣布将在明年推出一款功耗仅为17W的CPU,低功耗不代表性能的降低,反而更低的功耗代表着技术的领先。另一方面,在CPU的制造工艺上,已经完全从130纳米过度到90以及65纳米,很快又会出现45纳米制作工艺的CPU,制作工艺更加“纳米”,CPU的功耗就将变的更低,温度也将更低,而同一个核心的CPU,在不同的制造工艺下,其超频的性能也大不一样,比如AMDATHLON*2 3600,65NM的版本比90NM版本的多出了至少0.5G,这在CPU里可不是小数目。
从INTEL和AMD的宣传攻势以及研发方向来看,功耗更低制作工艺更高将是CPU未来不争的发展方向。
3、CPU和GPU混合化,显卡作为玩转游戏的基本保证,越来越受到人们的关注,GPU作为显卡的核心部件,技术也在飞快进步,GPU在浮点运算以及其他很多方面的计算能力已经大大超越了当前的CPU,可谓半路杀出个程咬金,去年,AMD收购了ATI。随后双方宣布要研发一种将CPU和GPU合而为一的超级CPU,其性能将大大超越现有的CPU,这不是忽悠人,不出3年,这种超级CPU必将出现在市场上,届时,给CPU带来的冲击才是最大的,而INTEL也不甘落后,凭借其雄厚的资金保障以及强大的研发队伍,他在GPU+CPU方面的研制也已经进行了很长一段时间,相信未来会给人们带来惊喜。也会给AMD带来压力。
想象一下,未来玩游戏的时候,不必再为自己的显卡不强而烦恼,只要你拥有一颗这样的超级CPU,那么还有什么好郁闷的呢?
这也是我最担心的,我们国家在显卡这一块是一片空白,好不容易在CPU方面有所起色,这里人家已经要双U和一了,唉.......担心啊....
林林总总的,整理出这么三条,本人很菜,也许还有更多的发展方向没有察觉,那就请兄弟们说出来吧!
最后,希望我们的龙芯能够飞龙在天!

Zephus 发表于 2021-12-17 17:33

并行运算。
多核心已经是大势所趋,但目前对多核并行运算的利用率上还有待发展。
英特尔选择用ARM上早已实用的大小核架构算是推动了这方面的发展

zt3ff3n 发表于 2021-12-17 17:36

1nm 100GHz 功耗50w 基础风冷散热就可
这就是未来
页: 1 [2] 3
查看完整版本: CPU 未来的发展方向是什么?