找回密码
 立即注册
查看: 294|回复: 1

分析MCU-GPU-FPGA-AI芯片-OS格局

[复制链接]
发表于 2022-8-21 19:24 | 显示全部楼层 |阅读模式
分析MCU-GPU-FPGA-AI芯片-OS格局

参考文献链接
https://mp.weixin.qq.com/s/W5u5b3wAs9ISs0FWDD84nQ
https://mp.weixin.qq.com/s/SoUYc9JpOx2qdlsM_y_M-g
https://mp.weixin.qq.com/s/Xp6aKUM8fqyssQZhWQRbtw
https://mp.weixin.qq.com/s/sWOk7JLMFDR3wjvBk7ErTQ
https://mp.weixin.qq.com/s/A0n12fBnHrf0ZXC3i_45qw
https://mp.weixin.qq.com/s/5pL5Uoeng7Rq-2DpXrk5zQ
https://mp.weixin.qq.com/s/frv670U0C_ljadCiMADwBA
AI芯片行业深度研究

2025年,中国人工智能核心产业市场规模将达到4000亿元,其 中基础层芯片及相关技术的市场规模约1740亿元
四大类人工智能芯片(GPU、ASIC、FGPA、类脑芯片)及系统级智能芯片在国内的发展进度层次不齐。用于云端的训练、推断等大算力通用 芯片发展较为落后;适用于更多垂直行业的终端应用芯片如自动驾驶、智能安防、机器人等专用芯片发展较快。超过80%中国人工智能产业链企 业也集中在应用层。

总体来看,人工智能芯片的发展仍需基础科学积累和沉淀,因此,产学研融合不失为一种有效的途径。
研究主体界定:面向人工智能领域的芯片及其技术、算法与应用
无芯片不AI , 以AI芯片为载体实现的算力是人工智能发展水平的重要衡量标准。
广义的AI芯片:专门用于处理人工智能应用中大量计算任务的模块,即面向人工智能领域的芯片均被称为AI芯片。 狭义的AI芯片:针对人工智能算法做了特殊加速设计的芯片。


将对针对狭义的AI芯片即人工智能算法做特殊加速设计的四种主流芯片GPU、ASIC、FPGA、类脑芯片以及系统级AI芯片技术、实现 AI的主流算法及在场景中的应用情况进行解析。
AI芯片的发展历程:模仿人脑建立的模型和算法与半导体芯片发展交替进行
人工智能算法需要在计算机设备上实现,而芯片又是计算机设备运作的核心零件,因此AI芯片的发展主要依赖两个领域:第一个是模仿人脑建 立的数学模型与算法,第二个是半导体集成电路即芯片。优质的算法需要足够的运算能力也就是高性能芯片的支持。
AI芯片行业研究报告认为,人工智能于芯片的发展分为三个阶段:第一阶段由于芯片算力不足,神经网络算法未能落 地;第二阶段芯片算力提升,但仍无法满足神经网络算法需求;第三阶段,GPU和新架构的AI芯片促进了人工智能的落地。
目前,随着第三代神经网络的出现,弥合了神经科学与机器学习之间的壁垒,AI芯片正在向更接近人脑的方向发展。

中国AI芯片产业图谱


基于技术架构、部署位置及实践目标的AI芯片分类
AI芯片一般泛指所有用来加速AI应用,尤其是用在基于神经网络的深度学习中的硬件。
AI芯片根据其技术架构,可分为GPU、FPGA、ASIC及类脑芯片,同时CPU可执行通用AI计算,其中类脑芯片还处于探索阶段。
AI芯片根据其在网络中的位置可以分为云端AI芯片、边缘及终端AI芯片;根据其在实践中的目标,可分为训练(training)芯片和推理 (inference)芯片
云端主要部署训练芯片和推理芯片,承担训练和推理任务,具体指智能数据分析、模型训练任务和部分对传输带宽要求比高的推理任务;边缘 和终端主要部署推理芯片,承担推理任务,需要独立完成数据收集、环境感知、人机交互及部分推理决策控制任务。


GPU:从图形处理器到通用数据并行处理器
GPU(Graphics Processing Unit)图形处理器最初是一种专门用于图像处理的微处理器,随着图像处理需求的不断提升,其图像处理能力也得 到迅速提升。目前,GPU主要采用数据并行计算模式完成顶点渲染、像素渲染、几何渲染、物理计算和通用计算等任务。因其超过CPU数十倍 的计算能力,已成为通用计算机和超级计算机的主要处理器。其中通用图形处理器GPGPU(GeneralPropose Computing on GPU)常用于数据 密集的科学与工程计算中。
英伟达与AMD仍占据GPU霸主地位,2018年至今,国产GPU也积极发展中,已有部分产品落地。


ASIC与FPGA: AI芯片领域“兵家必争之地”
FPGA全称是Field Programmable Gate Array:可编程逻辑门阵列,是一种“可重构”芯片,具有模块化和规则化的架构,主要包含可编程 逻辑模块、片上储存器及用于连接逻辑模块的克重购互连层次结构。在较低的功耗下达到GFLOPS数量级的算力使之成为并行实现人工神经 网络的替代方案。
ASIC(Application-Specific Integrated Circuit)是指应特定用户要求和特定电子系统的需要而设计、制造的集成电路。ASIC从性能能效成本均极大的超越了标准芯片,非常适合AI计算场景,是当前大部分AI初创公司开发的目标产品。



ASIC与FPGA:功能与市场定位不同,竞争关系不明显
FPGA具有开发周期短,上市速度快,可配置性等特点,目前被大量的应用在大型企业的线上数据处理中心军工单位。ASIC一次性成本远远 高于FPGA,但由于其量产成本低,应用上就偏向于消费电子,如移动终端等领域。
目前,处理器中开始集成FPGA,也出现了可编程的ASIC,同时,随着SoC的发展,两者也在互相融合。



基于不同硬件实现方式的AI芯片:系统级芯片
在手机、可穿戴设备等端设备中,很少有独立的芯片,AI加速将由SoC上的一个IP实现。
SoC(System-on-chip,片上系统)作为ASIC设计方法学中的新技术,始于20世纪90年代中期,是以嵌入式系统为核心,以IP复用技术为基 础,集软、硬件于一体的集成芯片。在一个芯片上实现信号的传输、存储、处理和I/O等功能,包含嵌入软件及整个系统的全部内容。
由于高集成效能,SoC已经成为微电子芯片发展的必然趋势。


基于不同计算范式的AI芯片:类脑芯片
CPU/GPU/GFPGA/ASIC及SoC是目前用的较多的AI芯片,此类AI芯片大多是基于深度学习,也就是深度神经网络(DNN),以并行方式进 行计算的芯片,此类AI芯片又被称为深度学习加速器
如今,模仿大脑结构的芯片具有更高的效率和更低的功耗,这类基于神经形态计算,也就是脉冲神经网络(SNN)的芯片为类脑芯片
目前,部分企业产品已进入小批量试用阶段 ,类脑芯片最快将于2023年成熟,能效比有望较当前芯片提高2-3个数量级。
AI芯片发展:向着更低功耗、更接近人脑、更靠近边缘的方向
现在用于深度学习的AI芯片(包括CPU、GPU、FPGA、ASIC)为了实现深度学习的庞大乘积累加运算和并行计算的高性能,芯片面积越做越 大,带来了成本和散热等问题。AI芯片软件编程的成熟度、芯片的安全,神经网络的稳定性等问题也未能得到很好的解决,因此,在现有基础 上进行改进和完善此类AI芯片仍是当前主要的研究方向。
最终,AI芯片将近一步提高智能,向着更接近人脑的高度智能方向不断发展,并向着边缘逐步移动以获得更低的能耗。


AI芯片发展:计算范式创新方向及其硬件实现
AI硬件加速技术已经逐渐走向成熟。未来可能更多的创新会来自电路和器件级技术的结合,比如存内计算类脑计算;或者是针对特殊的计 算模式或者新模型,比如稀疏化计算和近似计算,对图网络的加速;或者是针对数据而不是模型的特征来优化架构。


同时,如果算法不发生大的变化,按照现在AI加速的主要方法和半导体技术发展的趋势,或将在不远的将来达到数字电路的极限(约1到 10TFlops/W),往后则要靠近似计算模拟计算,甚至是材料或基础研究上的创新。
存储芯片突围30年
作为手机、电脑等各类电子设备实现存储功能的主要部件,存储芯片是应用最广泛的基础性通用芯片之一,其全球市场长期由三星、SK海力士、美光等美韩企业占据。从上世纪90年代至今,历经30余年的试错、追赶、坚持,中国存储芯片企业终于占有了一席之地。
2004年,日后的江苏盐城富豪、“闪存龙头”兆易创新创始人朱一明,还在硅谷打工。这一年,他陷入了“缺钱”的烦恼。

此前,他一直贯彻着“天之骄子”的成长路径,年仅17岁时从盐城阜宁县考到清华大学读物理系,5年读完本科和硕士;又赴美留学,成了杨振宁的校友,拿到第二个硕士学位;成为一名硅谷精英,爬上项目主管的位置。
顺风顺水的生活持续到2003年底,由于与老板在工作上出现摩擦,他决定辞职创业,并在2004年注册成立了一家存储芯片企业。
在为了创业找投资这件事上,朱一明吃了许多闭门羹:在90年代末,朱一明兼职写程序就能年入30万元,而他四处游说也仅为天使轮拉到了10万美元的投资,对于动辄花费百亿的芯片项目而言,杯水车薪。
那时的他恐怕没有想到,这种缺钱的境况会持续大约5年。直到2009年的B轮融资,兆易创新都在资金危机边缘徘徊。
这5年是全球存储市场风云变迁、中国存储行业受挫后再次出发的5年。
如今超857亿市值芯片牛股、大陆闪存龙头兆易创新的成长史,也是中国存储芯片行业发展的一个缩影。
在“废墟”中建立
2004年初,朱一明正式离职,注册成立美国技佳公司(GigaDevice Semiconductor Inc.),拉投资成为迫在眉睫的一项任务,但辛苦约见的投资人大多不感兴趣。
朱一明对创业项目的设想是,成为能够与三星电子抗衡的存储芯片企业


(三星840 EVO系列搭载NAND存储芯片)
相信大部分投资人听到这里,就会起身离桌、微笑告别,转身把这个年轻人的联系方式拉入黑名单。
谁人不知,90年代末至21世纪初是互联网的时代,无论中美,互联网造富的故事俯拾皆是:2003年携程赴美上市,首日收盘涨幅88.6%,创下纳斯达克3年来首日涨幅记录;转年游戏《传奇》的开发商盛大网络登陆纳斯达克,创始人陈天桥身家飙升至88亿元,成为《胡润2004 IT富豪榜》中的第一名……
“当时的硅谷,只要拥有一个关于互联网的创意,凭借一份简单的企划书,就能获得可观的投资。”《互联网时代》一书这样描述那一时期。
与之对比,芯片行业刚从历史罕见的行业萧条中缓过劲来,投融资十分谨慎。Gartner数据显示,2001年全球半导体行业收入下滑了32%,堪称历史最惨。
存储芯片在整个半导体产业中产值占比超20%,素有“半导体行业风向标”之称,在黑暗的2001年中受挫最为严重。
当时的全球存储巨头三星、海力士等企业都在这一年出现业绩滑坡,其中海力士一度因为无力偿还贷款而计划“卖身”。
不仅在硅谷不被看好,大洋彼岸的中国,也刚刚经历了一轮建设芯片项目的泡沫,市场对芯片项目的态度趋向于谨慎。
90年代,为了弥补现代以来国内半导体行业的劣势,国内先后启动908、909等项目,开始了轰轰烈烈的芯片建设大潮,存储芯片成为了这轮浪潮中的抓手。
时任日本NEC社长的佐佐木曾对此分析道:好比初生的婴儿要吃母奶,芯片工业中一个工厂应该先做存储器,因为存储器品种单一、数量巨大、工艺复杂、对设备的依赖性较强,有利于生产线迅速完成各环节的磨合。
换句话说,存储器可以作为制作工艺成熟与否的标准
存储芯片可简要分为动态随机存取存储器(DRAM)和闪存(Flash)芯片,闪存又可分为NOR Flash、NAND Flash。国内大多选择应用更广泛、市场规模更大的DRAM产品。
彼时,中国在摸着石头过河的阶段,从芯片设计到制造,在每个技术环节都是弱项。而且新项目投产后,卖给谁、如何取得客户信任,都是未知数。因此,与外国企业合资成为了可行又稳妥的选择。
比如,1991年、1997年,首钢集团、华虹集团先后与日本NEC合资,分别成立了首钢NEC、华虹NEC。
合资模式的一大特点是,合资企业存在“依赖病”,独立性低、抗风险能力差,除了要引进技术,由于中国尚没有完整的芯片产业链,还需要依赖外企的客户资源、销售网络。事实的确印证了这一点,首钢NEC在1995年曾创下9.1亿营收的记录,一度喊出“首钢未来不姓钢”的口号,但在1997年的DRAM价格低潮期中,首钢NEC陷入亏损,最终在2000年由NEC获得控股权,沦为后者的一个海外代工基地。首钢集团也回归了钢铁主业。
2001年遭受芯片行业大萧条后,外国合资方日本NEC决定退出DRAM市场,华虹NEC也开始转型为代工企业,于2004年退出DRAM行业。


(华虹推出国产12英寸单晶硅晶圆上的芯片制品)
国内几大DRAM项目面临的冲击,证明了在巨头集中、格局固化的芯片市场中,中国初创企业想要“突围”有多难。
举国体制尚且面临种种困难,一个年轻人要做成“翻版三星”,如何让投资人信服?
别无选择之下,朱一明只能更加勤奋地拜访投资人。
2004年初夏,在硅谷的一家星巴克里,朱一明第二次约见一位来自中国的投资人,也是朱一明的清华校友——时任清华大学信息技术研究院院长的李军。
此前,朱一明并未给李军留下足够好的印象,李军曾直言:“第一次见面,感觉他还没准备好。”
这次第二轮见面,为了获得认同,朱一明决定用技术说话,带来了自己研发的一款应用于静态随机存取存储器(SRAM)领域的高速静态存储器模型。
或许是通过这项新技术看到了创业项目的潜力,又或许是同为清华人的惺惺相惜,李军终于决定帮朱一明一把。
他为朱一明引荐了知名华人天使投资人周顺圭,后者拿出了10万美元的资金支持美国技佳,还把自己的车库低价出租给朱一明用作“研发基地”。
这段时间里,朱一明的清华校友、也是他在硅谷公司的前同事舒清明,也辞职加入了美国技佳。
拮据中成长的国产闪存龙头
“薛总,您能投我们吗?”
2004年,朱一明多次联络时任清华科技园技术资产经营有限公司的薛军,每次都是用这句话开场。对于一家尚且不能自主造血的初创企业而言,持续的资金投入不可或缺。
到年底,薛军终于同意帮助朱一明筹措100万美元的A轮融资,但同时希望朱一明能回国创业。后者几乎没有犹豫,过完春节就和舒清明飞回了国内。


(北京,兆易创新总部)
2005年4月,芯技佳易(兆易创新前身)成立了。
不过,有一个小插曲是,尽管四处游说,薛军也仅筹集到了92万美元的资金,承诺的百万美元融资没能100%兑现。
薛军曾坦言,做出这个投资决定,他心里“没底”,最终参与了A轮融资的大多是“清华帮”投资人。
历经早年的产业泡沫,中国市场体会到了芯片研发的难度,而且进入21世纪后,外国巨头看中了中国的市场需求和成本优势,开始强调大中华市场的重要地位、加大在华投资。与之相比,中国芯片创企的力量,实在是太薄弱了,并不受资本看好。
比如2006年,英飞凌的存储芯片业务分拆为奇梦达(Qimonda)公司。后者一经独立,就成为了当时的全球第四大DRAM企业,它把自己在中国西安的研发中心,定位为除了总部德国之外最重要的研发基地。同样在这一年,海力士、意法半导体合资的DRAM项目一期在江苏无锡成功投产。
芯技佳易(兆易创新)、武汉新芯、镇江隆智等国产化存储企业在2005年至2006年间成立。面对强敌,三家企业最后都将目光放在了闪存NOR Flash上,而非与巨头同在DRAM市场竞争。
需要指出的是,芯片产业链分为设计、制造、封装三个环节。芯技佳易、镇江隆智是芯片设计企业,武汉新芯则是芯片制造企业。
常见的存储芯片中,DRAM、NAND Flash、NOR Flash三者各有利弊,适用不同的终端应用市场。相比前两类产品,NOR Flash主要用来存储代码及少量数据,适用于机顶盒等物联网终端设备,近年来也被用于TWS耳机中。


在21世纪初期,巨头们更多地将目光放在工控、手机为代表的消费等高利润市场中,对NOR Flash市场的争夺相对缓和。
如朱一明所说:“想要打败三星,只能从完全不同的方向努力。”
芯技佳易、武汉新芯、镇江隆智这三家企业也是国内首批代表性的NOR Flash厂商,它们的命运在后来的时光中呈现出了完全不同的走向。
2008年5月,芯技佳易设计推出了国内第一款8M SPI NOR Flash芯片;同一年,武汉新芯建成投产,成为了芯技佳易的代工商;镇江隆智也在平稳运营。
崭露头角后,新的挑战很快出现了。2008年的金融风暴席卷全球,刚转型NOR Flash的芯技佳易又遭遇投资紧缩,现金流再次吃紧。
这一年,美国存储芯片厂商ISSI的CEO特意飞到中国和朱一明见了一面,提出开价1000万美元收购芯技佳易。另一家美国企业飞索半导体紧随其后,也有意收购,而且出资更高。
不忍让初见成效的中国NOR Flash探索中断,朱一明谢绝了美国企业的两桩收购邀约,又开始了拉投资。
终于在2009年4月,依旧由“清华人”薛军担任合伙人的启迪创投领投,芯技佳易完成了3000余万元的B轮融资,有惊无险地渡过金融风暴。
熬过了金融危机,芯技佳易在2010年改名为兆易创新,迎来了自己的时代。
2010年起,公司512K~32M容量芯片产品全部实现量产,存储类产品销售约1亿颗,市场份额开始迅速攀升。此时兆易创新的成长有目共睹,从C轮开始融资不再艰难。
同样在这一年,三星宣布退出低利润的NOR Flash市场,其后几年间多家主流的国际厂商相继宣布减少NOR Flash的生产,为兆易创新提供了机会。
朱一明当初选定的,与三星“完全不同”的方向被证明是可行的。兆易创新成为了闪存领域的“中国第一”和“中国唯一”。


(2021年慕尼黑上海电子展,兆易创新展位)
同期,镇江隆智和武汉新芯各自走上了不同于兆易创新的道路。
国产闪存新星镇江隆智在2012年被飞索半导体收购,而飞索半导体又在2015年与赛普拉斯半导体完成了合并。镇江隆智创始人吕向东后来在2015年再次创业,创办了又一家闪存企业恒烁半导体。
武汉新芯在2016年被紫光集团收购,并在此基础上成立了长江存储,专注于3D NAND Flash产品。芯谋研究首席分析师顾文军曾在点评紫光集团重整案时判断道:保守估计长江存储在未来十年或需投入超过5000亿元,即每年约500亿元。
不过,镇江隆智、武汉新芯的发展都已是后话了。
闪存龙头的新征程
2016年,对于国内存储芯片市场和兆易创新来说,是意义重大的一年。
这一年,在全球NOR Flash市场已经夯实基础的中国玩家们,终于开始将目光投向曾经惨败过的DRAM产品,兆易创新也是其中之一。
2016年8月份,兆易创新成功上市,随即在9月20日因筹划一桩收购案而开始停牌:上市不满一个月的兆易创新,迫切想要通过收购一家国际存储芯片大厂获得DRAM研产能力。
戏剧化的是,收购标的北京矽成的实际经营实体,正是2008年时想用1000万美元收购芯技佳易的美国ISSI。不过,最终兆易创新对北京矽成的收购在2017年8月终止。北京矽成在2018年以26.42亿元的价格花落北京君正。


海外收并购并不是兆易创新在DRAM研发上的唯一选择。
2016年合肥产投牵头成立了长鑫存储。翌年兆易创新公告,其与合肥产投签署了合作协议,约定双方共同投资长鑫存储,开展“19nm存储器的12英寸晶圆存储器研发项目”,其中包含DRAM研发。
该项目预算约为180亿元人民币,约定由合肥产投、兆易创新按照4:1的比例筹集资金。
经过多年的市场教育,芯片投融资已不再是“冷板凳”,长鑫存储发展过程中还逐渐吸引了大基金、阿里、腾讯等许多明星资本加盟。
从时间线来看,长鑫存储也十分争气。2018年7月16日,长鑫存储宣布正式投片试产;同一天兆易创新官宣,朱一明辞掉了公司的总经理职务(仍担任董事长)。
之后,朱一明兼任起了长鑫存储的董事长、首席执行官两个职位,并承诺在长鑫存储盈利之前不领取一分钱的工资和奖金。
恐怕这时兆易创新也“不需要”他了,从2019年第三季度起,兆易创新成为了全球第三大NOR Flash厂商。
与长鑫存储筹建同期,2016年2月26日,福建省电子信息集团、及泉州、晋江两级政府共同出资设立了晋华集成,初期晋华集成与联电开展技术合作,专注于DRAM领域。
晋华与长鑫,可谓是中国DRAM领域的双子星。但晋华的后续发展遭遇了更多波折。


(晋华芯片)
2018年10月29日,美国商务部公布了一项决议,宣布将对晋华集成实施禁售,10月30日起正式生效。自此,兆易创新和长鑫存储,成为了中国DRAM仅存不多的希望。
2020年底,长鑫存储的DRAM芯片通过了高通、海思、联发科、展锐等主流芯片厂商多款芯片的认证,兆易创新从这一年开始代销长鑫存储的DRAM产品。
至今,长鑫存储是大陆规模最大,且唯一一家能够制造DDR4/LPDDR4(DRAM细分产品)的存储芯片厂商。
2019年9月,兆易创新定增43.24亿元,布局DRAM芯片项目,其自有品牌DRAM已经在2021年6月推出。
钱学森先生晚年曾经总结:“60年代我们全力投入两弹一星,我们得到很多。70年代我们没有搞半导体,我们为此失去很多。”
从90年代至今,经过失落的30余年,中国企业终于蹒跚走回了DRAM技术自研的道路上。而曾经面临种种困难的芯片创业者们,也将在国际领先市场中“会师”。
民生证券研报显示,截至2020年末,长江存储取得近1%的全球市场份额,成为国际六大NAND Flash厂商以外市场份额最大的玩家。根据长江存储的产能规划测算,2025年长江存储的全球市占率将达到约6%,有望打破国际垄断的格局。
CPU和GPU区别
CPU (Central Processing Unit,中央处理器)就是机器的“大脑”,是完成布局谋略、发号施令、控制行动的“总司令官”。CPU的结构主要包括运算器(ALU,Arithmetic and Logic Unit)、控制单元(CU,Control Unit)、寄存器(Register)、高速缓存器(Cache)和它们之间通讯的数据、控制及状态的总线。
GPU(Graphics Processing Unit,中文为图形处理器),就如其名字一样,GPU最初是用在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上运行绘图运算工作的微处理器。
CPU和GPU之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。
CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。这些都使得CPU的内部结构异常复杂。
GPU面对的则是类型高度统一的、相互无依赖的大规模数据和不需要被打断的纯净的计算环境。于是CPU和GPU就呈现出非常不同的架构(示意图):


从架构图我们就能很明显的看出,GPU的构成相对简单,有数量众多的计算单元和超长的流水线,特别适合处理量大且统一的数据(如图像数据)。
GPU的主要工作就是3D图像处理和特效处理,通俗地说就是一种图像呈现的工作。对于2D图形,CPU可以轻松处理,但是对于复杂的3D图像,CPU就要花费很多的资源去处理,这显然会降低其他方面的工作效率,于是就将这类工作交给GPU去处理。
一些高帧率的游戏画面和高质量的特效也交给GPU去处理,分担CPU的工作。除此以外,GPU凭借并行处理处理的能力,在密码破译、大数据处理、金融分析等领域应用广泛。
为什么GPU特别擅长处理图像数据呢?这是因为图像上的每一个像素点都有被处理的需要,而且每个像素点处理的过程和方式都十分相似,此类场景也就成了GPU的天然温床。
但GPU无法单独工作,必须由CPU进行控制调用才能工作。CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,但当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算。
GPU采用了数量众多的计算单元和超长的流水线,但只有非常简单的控制逻辑并省去了Cache。而CPU不仅被Cache占据了大量空间,而且还有有复杂的控制逻辑和诸多优化电路,相比之下GPU计算能力只是CPU很小的一部分。
CPU 基于低延时的设计,CPU有强大的ALU(算术运算单元),它可以在很少的时钟周期内完成算术计算。


相比之下,GPU是基于大的吞吐量设计,Cache比较小、控制单元简单,但GPU的核数很多,适合于并行高吞吐量运算。



GPU中有很多的运算器ALU和很少的缓存Cache,缓存的目的不是保存后面需要访问的数据(这点和CPU不同),而是为线程Thread提供服务的。如果有很多线程需要访问同一个相同的数据,缓存会合并这些访问后再去访问内存DRAM。
总而言之,CPU和GPU因为最初用来处理的任务就不同,所以设计上有较大的区别。而某些任务和GPU最初用来解决的问题的方式比较相似,所以采用GPU来计算。
打个比方,GPU的运算速度取决于雇了多少小学生,CPU的运算速度取决于请了多么厉害的教授。教授处理复杂任务的能力是碾压小学生的,但是对于没那么复杂的任务,还是顶不住人多。当然现在的GPU也能做一些稍微复杂的工作了,相当于升级成初中生高中生的水平。
GPU就是用很多简单的计算单元去完成大量的计算任务,纯粹的人海战术。这种策略基于一个前提,就是小学生之间的工作没有什么依赖性,是互相独立的。
这就回答了GPU能做什么的问题。图形运算和大型矩阵运算,如机器学习算法等领域,GPU就能大显身手。简而言之,CPU擅长统领全局等复杂操作,GPU擅长对大数据进行简单重复操作。CPU是从事复杂脑力劳动的教援,而GPU是进行大量并行计算的体力劳动者(小学生)。
GPU的工作的特点是计算量大,没什么技术含量,需要重复很多很多次,还需要CPU来把数据喂到嘴边才能开始干活,最终还是靠CPU来管理的。
为什么在人工智能领域GPU十分盛行?深度学习是模拟人脑神经系统而建立的数学网络模型,这个模型的最大特点是需要大数据来训练。
因此,人工智能领域对计算能力的要求就是需要大量的并行的重复计算,GPU正好有这个专长,时势造英雄,因此GPU就出山担此重任。在人工智能领域(深度学习),GPU具有如下主要特点:

  • 1 、提供了多核并行计算的基础结构,且核心数非常多,可以支撑大量数据的并行计算。并行计算是一种一次可执行多个指令的算法,目的是提高计算速度,通过扩大问题求解规模,解决大型而复杂的计算问题。
  • 2、 拥有更高的访存带宽和速度。
  • 3、具备更高的浮点运算能力。浮点运算能力是关系到处理器的多媒体、3D图形处理的一个重要指标。现在的计算机技术中,由于大量多媒体技术的应用,浮点数的计算大大增加了,比如3D图形的渲染等工作,因此浮点运算的能力是考察处理器计算能力的重要指标。
    需要强调一点,虽然GPU是为了图像处理而生,但是我们通过前面的介绍可以发现,GPU在结构上并没有专门为图像服务的部件,只是对CPU的结构的优化与调整,所以现在GPU不仅可以在图像处理领域大显身手,它还被用做科学计算、密码破解、数值分析,海量数据处理(排序、Map-Reduce等),金融分析等需要大规模并行计算的领域。因此,GPU也可以认为是一种较通用的芯片。
简单总结:CPU和GPU是两种不同的处理器,CPU是程序控制、顺序执行等操作的最高级通用处理器,而GPU是用来做图像处理、特定领域分析的专用型处理器,GPU受CPU的控制。在很多终端设备中,CPU和GPU往往集成在一个芯片内,同时具备CPU或GPU处理能力。
FPGA加速器技术

一、FPGA加速器
云、网、边协同的算力网络、在网计算的Dis-aggregation数据中心网络、以及异构计算系统总线中计算和网络协同和融合,提出了泛在网络加速器架构FIA。

  • 资源层:包括FPGA和CPU等可编程资源,异构计算,软硬件协同的网络处理框架
  • 功能层:可重构通用分组处理流水线RDP与可编程数据深度处理器PDP架构,包括基础库和架构
  • 应用层:用户面功能UPF开发库和控制模型
解决算网融合下网络编程及性能扩展问题,为网络功能卸载、用户功能加速提供运行环境;赋能端/智能网卡、网/交换机、边/网关的功能,构成泛在的网络加速器服务。
1、寄存器级:FPGA OS及开发框架
针对网络协议栈卸载和应用加速,提出了泛在网络加速器抽象FPGA OS,支持用户面功能UPF运行Runtime。

  • 泛在网络加速器抽象FPGA      OS:提供了DMA、网络接口、数据缓存、控制总线等外围基本模块
  • 用户面功能模块开发框架:提供关键字、时间戳、Buffer索引等Metadata信息,支持对报文内容的操作
  • Metadata:标识vNF,实现FPGA OS与UPF参数、中间结果交互。
为实现近数据计算提供计算、网络和存储等资源,将智能网卡功能加速从网络协议栈扩展到了特定的用户面功能。
2、指令级:可编程数据深度处理器RMT+/P4
针对无状态和有状态的协议处理差异,协议无关的分组处理方式成为基础,设计了可编程的硬件处理逻辑RMT,支持在线功能重构,线速处理。

  • 协议无关的解析引擎,包括TLV表示的协议状态转换表,关键字提取
  • 查表匹配引擎,基于CAM的带掩码的查找
  • 交叉开关,关键字等Metadata与ALU的通路
  • ALU,支持加、减、移位等基本运算
  • 逆解析器,报文头选项的编辑,报文头与报文体的合并等
    完全RMT模型实现,支持P4语言编程,支持在线功能重构,将FPGA抽象成P4执行器。
    3、模块级:控制和编排器
异构网络设备统一管理,支持端到端的管理

  • 基于开源控制器,设计了软件定义可重构智能网卡、SDN交换机、超融合网关的统一的抽象层,支持软件定义可重构智能网卡、SDN交换机和网关统一管理,构成泛在的网络加速服务层
  • 统一的设备状态数据库、网络拓扑显示界面
  • 支持二层、三层路由转发,支持ACL,支持负载均衡等功能应用
  • 多元网络功能统一调度,支持动态赋能
  • 基于FAST的软硬件功能协同
  • RMT多级流水ALU处理
    二、应用场景
         1、软件定义智能网卡原型
  • 云数据中心应用种类繁多,针对云-端通信,适配了主流的网络传输层协议QUIC
  • 面向云数据中心多租户应用,基于智能网卡原型,部署了k8s虚拟化环境,容器虚拟网络二层交换、三层转发功能
  • 与系统协议栈、云计算平台等具有良好的兼容性
  • 支持软件定义边界扩展到服务器第一跳
    2、超融合安全网关
  • 以自主可控高性能交换芯片为前端分流器,泛在网络加速器FPGA作为业务运行平台,支持网关功能加速
  • 数据中心门户业务负载均衡、NAT等
  • 流量压缩解压缩、加解密、清洗等
  • 应用防火墙等功能卸载
  • 基于加速器FPGA开发框架对网关进行重构和功能扩展
  • 基于加速器FPGA开发新型网关功能,如隐蔽信道检测、地址跳变等
  • 与智能网卡共同支撑数据中心网络纵深安全
    3、异构可重构计算架构
计算、加速、I/O基于敏捷交换解耦,易于资源扩展、统一管理、开发集成。

  • 计算:轻量级虚拟化FAST      UA;类Docker的虚拟化技术;支持自定义功能的卸载和负载均衡
  • 加速:泛在网络加速器FPGA即服务;泛在网络加速器FPGA OS;加速与卸载等算力提升的重要手段
  • 互连:低延迟时间触发通信
CPU如何破解“架构、先进工艺及生态”三大隐忧

-国内CPU厂商近年来奋楫前行,在工艺、性能、生态建设等多个层面不断取得突破,为CPU的自主可控、安全可信构筑了新的堡垒。
-国内CPU厂商在IP和指令集架构授权层面或存在被卡脖子或难以升级的风险,而自研制指令集又面临生态壁垒,成为制约国产CPU发展的两大屏障。
-国内CPU厂商要在重围中杀出一条“芯”路,需要打持久战,在CPU性能、生态、先进工艺层面久久为功,同时加强云管端和算力融合,加快垂直或横向整合,才能持续突破。
有四家国产CPU厂商上榜:飞腾(第36位)、海光(第52位)、龙芯(第53位)、兆芯(第58位)上榜。


对CPU的高度依赖已成为数字化经济的巨大软肋。在大国博弈和科技强国背景之下,自主可控已然形成共识,CPU作为数字化时代的基石,国产化之路就是自由之路。在多重因素交织促进之下,国产CPU厂商迎来了广阔的发展空间。
作为撑起信息安全和网络安全的“主力”,本报告将主要围绕服务器及PC领域的国产CPU进行解析。
01、持续攀高
从PC端和服务器市场需求来看,仍呈现出强劲的增长势头。
最新IDC调研数据显示,到2025年,中国PC市场出货量规模将达到约6766万台。但要指出的是,这一成熟市场或将面临产品形态、客户群以及架构的颠覆。
而得益于数据中心的快速增长,织就成一个数字化世界,服务器需求量也水涨船高。IDC预计,2022年我国服务器市场规模预计将达到257.31亿美元,2025年将达410.29亿美元,复合增长率在12.5%。
从Gartner数据显示来看,2021年CPU出货比2020年的下降了不少。但未来在AIoT、云计算、数字化转型等的带动下,CPU将走出短暂的下滑。


因研发门槛高、生态构建难,CPU历来被称作IC业的“珠穆朗玛峰”。而英特尔经过多年的鏖战,先后击败了MIPS、SPARC、PA-RISC、Alpha、Power等RISC处理器阵营,以技术优势和专利壁垒构筑护城河,在桌面和服务器CPU居于统治地位,占据全球80%左右的桌面CPU市场和90%以上的服务器CPU市场。
长期来看,国内仍将是全球最大的CPU消费市场。作为电子信息终端制造大国,我国若是在CPU这种关键器件上缺乏有效的应对和准备,将会对国民经济社会发展产生极具破坏性的影响。目前中美在科技领域的博弈具有长期性,美国的科技制裁导致国际供应链断裂和信息安全风险加剧,出于战略安全、产业升级角度考虑,我国正持续加大对国产CPU研发、应用等领域的支持力度,国产CPU大有可为。
特别是为促进国产CPU发展,我国设立了“信创市场”。随着各地信创项目大面积铺开,信创产业也随之出现了一个现象级的风口,将创造一个万亿玩级别的市场,也将极大地带动国内CPU、基础软件以及信息安全等的大发展。
02、全方位进阶
回望国产CPU的飞腾之路,这是长时间耕耘的馈赠。
十五期间,国家启动发展国产CPU的泰山计划,863计划也提出自主研发CPU。2006年核高基专项启动,国产CPU迎来了新一轮的国家支持,以龙芯、飞腾、鲲鹏、海光、兆芯、申威等为代表的国产CPU厂商崛起,征战四方。
通过多年的耕耘,在国际环境、产业政策、市场需求的联合驱动下,上述国产CPU厂商奋楫前行,在工艺、性能、生态建设等多个层面不断取得突破,为CPU的自主可控、安全可信构筑了堡垒。


在产品迭代和升级层面,龙芯中科已于去年推出了自主指令系统 LoongArch(龙芯架构),发布了基于此架构的3A5000,性能大幅跨越,实现了从可用到好用。新一代服务器处理器龙芯3C5000L则可满足云计算、数据中心对国产CPU的性能需求。而基于x86的海光CPU系列产品海光一号、海光二号已实现商业化应用,海光三号处于验证阶段,海光四号处于研发阶段。兆芯x86 CPU两大系列KX(开先)和KH(开胜)分别面向PC市场和服务器市场开胜,基于全新自主架构设计的开胜和开先处理器样品已成功,即将大规模量产。飞腾持续迭代基于Arm的高性能服务器CPU腾云S系列。不走寻常路、采用“申威 64”指令集的申威威焱 831 处理器,指标均达到国内先进水平。
而生态层面涉及硬件生态和软件生态,国内CPU厂商也在着力扩大“朋友圈”。龙芯中科从2020年开始牵头成立了龙芯生态适配服务产业联盟,目前已有近百家厂商推出了数百款基于LoongArch的龙芯桌面、服务器、网安、密码等产品,在核心的操作系统方面也形成了面向桌面和服务器应用的 Loongnix,独立于Wintel和AA体系。飞腾通过生态圈建设、软硬件适配、软硬件兼容认证、解决方案定制等举措积极完善生态,截至2021年6月底,飞腾软硬件合作伙伴已经超过2300家,飞腾CPU已经与1627家软件厂商完成了4439款软件的适配和优化。不走“寻常路”的申威,统一操作系统UOS申威版已适用申威421系列、申威1621系列机型。
从应用角度来评价亦可圈可点。龙芯中科系列产品在电子政务、能源、交通、金融、电信、教育等行业领域已获得广泛应用。2021年至今,飞腾CPU产品销售量超过200万片,广泛应用于信息基础设施、融合基础设施、创新基础设施等领域,位居政务信创市场占比第一。此外,海光CPU系列产品兼容x86指令集以及国际上主流操作系统和应用软件,广泛应用于电信、金融、互联网、教育、交通等重要行业或领域。华为2019年推出鲲鹏920,以及基于鲲鹏920的TaiShan服务器和华为云服务,虽受禁令影响,但生态亦蓬勃发展。
更值得一提的是,龙芯中科和海光率先登陆科创板。
2021年11月,海光科创板IPO申请已获得受理。12月17日,龙芯中科科创板IPO成功过会,上市在即。据悉,海光计划募资91.48亿元,用于新一代海光通用处理器研发、协处理器研发、先进处理器技术研发中心建设等。龙芯中科也计划募资35.12亿元,用于先进制程芯片研发及产业化项目等。
03、层层隐忧
尽管国内CPU整体取得了不小的突破,但在地缘政治及产业巨变之际,国内CPU发展的隐忧亦浮出水面
集微咨询认为,国产CPU面临的隐忧主要在三大层面。
一是CPU核心,这是实现自主可控的“基石”。国内CPU厂商采用核心不同,却各有各的“难处”。
国内CPU厂商主要有三大路线:一是以龙芯中科和申威为代表的指令集+自研的架构;二是以飞腾和华为鲲鹏为代表基于Arm指令集授权的架构。Arm主要有三种授权等级,而海思、飞腾已经获得Arm V8永久授权;三是以海光、兆芯为代表获得x86的授权(仅内核层级的授权),未来扩充指令集形成自主可控指令集难度较大。
总的来说,IP核授权和指令集架构授权都存在被卡脖子的风险,而自主研制指令集又面临应用生态问题,这是制约国产CPU发展的两大屏障。Arm授权是采用Arm架构CPU厂商头顶的达摩克里斯之剑。从x86内核授权来看,虽然生态完善,但存在安全可控和技术授权壁垒,比如天津海光自被美国列入实体清单后,AMD表示最新的架构将不再进行授权。龙芯中科和申威授权+自主研制指令集来开路,虽然自主可控程度最高,但其最大的瓶颈在于生态壁垒。
二是CPU需要先进制程的配合。伴随CPU持续追求更高性能,必然会在多核设计、高速接口、先进制程与封装工艺方向演进,而国内在代工先进工艺进军已然受阻,从设备、材料等诸多方面实现突围还需较长的一段时间。
三是生态层面的突破亦难关重重。目前国内CPU大多集中在党政机关、国企事业单位以及特定行业有一定的推广和应用,在商业市场上的突破仍待时日
04、变局丛生
在上述泾渭分明的格局之外,如今的行业面临诸多变局,加之大国博弈的影响,不同企业为长远计,也在尝试各种布局、突破、合纵等,让行业格局发生微妙的变化,并对未来的发展产生长远影响。
一方面,在嵌入式领域横扫的Arm架构阵营正集结了新的集团军,向x86优势领域发起新的冲锋。苹果率先在Mac电脑应用基于Arm架构的M系列处理器,并已取得不俗战绩,而谷歌、高通等也将加一阵营。在服务器CPU领域,亚马逊、谷歌、Marvell、富士通、阿里巴巴、中兴等诸多实力排选手也在竞相打造基于Arm的CPU,性能不断提升、生态不断完善,与x86架构正面竞争,蚕食之势不容小觑。
但在英特尔x86架构的技术壁垒和成熟生态面前,Arm这条路径更显不易。一方面,开发Arm架构的服务器芯片难关重重,不止设计复杂,对性能、功耗要求极高,无疑是一场重投入、长周期的战役。而且,开发之后能否批量销售、客户用起来不出问题等更是无形的挑战。另一方面,显然也不能忽视x86架构护城河的力量。据TrendForce预测,至2023年前以Arm架构为代表的服务器芯片仍难与x86抗衡。
值得关注的是,去年华为宣布出售x86服务器业务,表明未来将专注于继续发展鲲鹏这条高价值路线。不过,后续华为仍要面临如何解决制造、构建完整的鲲鹏生态、把握市场机遇等层层考验。
另一方面,新兴的开源RISC-V架构有望成为x86和Arm之后第三极。RISC-V开源特性吸引IBM、NXP、西部数据、英伟达、高通、三星、谷歌、华为、阿里、Red Hat 与特斯拉等数百家科技公司加盟。据Semico Research,预计到2025 年,采用 RISC-V 架构的芯片数量将增至624 亿颗,2018 年至2025 年复合增长率高达 146%。但要指出的是,x86和Arm在各自领域形成了强大生态体系,RISC-V 在短期内难以替代,或从AIoT 领域起步逐步拓展。
在RISC-V市场层面,引发业界热议的是,2021年3月,MIPS公司正式宣称放弃自研架构,转身研发RISC-V。到了8月Imagination宣布基于RISC-V的ISA设计重新进入CPU市场。而英特尔在之前就宣称基于7nm RISC-V架构的Horse Creek开发平台将于2022年登场,甚至一度要以20亿美元的价格收购以开源RISC-V为基础的芯片设计公司SiFive但却被拒,一系列变化将对RISC-V格局甚至整个半导体业产生长远影响。
未来的竞争不止涉及CPU性能与生态,而是考验从云到端布局、以及异构计算融合的全方位能力和多样化算力谱系。此外,DPU已然兴起,正与CPU、GPU共同组成“数据中心的三大算力支柱”,而英特尔、英伟达、AMD为代表的巨头均全面押注,英特尔已向DPU和GPU领域拓展,凭借GPU而崛起的英伟达也开始涉足CPU、DPU市场,国内CPU厂商也要应时而动,多方布局,构筑全新的高价值链。
05、持久战
显然在面临上述重重挑战之后,国内CPU厂商要在重围中杀出一条“芯”路,或许仍需要坚持持久战。
集微咨询认为,在架构层面,Arm授权受限于其是否受美禁令涉及,但反过来说未来鲲鹏和飞腾如果基于Arm V8发展出自己的指令集,则创新可信程度将显著提升。对于龙芯、申威等自主CPU厂商而言,创造一个独立于Wintel(微软-英特尔)和AA(安卓-Arm)的第三套体系的重任,需要持续完善基础软件,开展应用软件生态建设,在生态层面的建设显然需要久久为功。
同时,在市场应用层面,也要从信创市场向企业级市场以及消费级市场逐级突破,尤其是消费级市场是国产CPU需要长期突破的目标市场,也是考验真正实力的试验场。
从产能和先进工艺的角度来看,国内CPU厂商也需在这些方面加强供应链管理和应对,以保证未来的客户供应。
在国外巨头构筑的强大扩城河面前,集微咨询(JW Insights)还认为,国内CPU厂商或可群策群力,利用现有资源进行整合,进行一定程度上的技术路线合并,或借助资本收购一些有关联的公司,逐渐以集团化对抗国外的集团化,或可走出一条有特色的国产CPU突破之路。
无疑,未来国产CPU发展仍道阻且艰,但在国家安全战略和国产芯片自给率要在2025年达到70%的大目标面前,这又是一条不得不走的必经之路。
操作系统行业

车载操作系统正向智能化发展,市场空间可期
汽车OS植根于传统电子,在软件定义汽车趋势下向自动驾驶和智能座舱发展,功能多样,有望形成整车OS;汽车广义OS市场潜力巨大,预计2025年达370亿美元;未来三大底层内核仍是主流,应用生态、域控制器、中间件是关键,车企自研是趋势。
非底层操作系统百花齐放底层基础OS已稳定,根据基础型改造程度不同可分为定制型、ROM型和超级APP。目前国内偏好基础型的安卓OS,生态环境较好且开发成本低,而国外基础型的QNX仍为主流,ROM型则大多为传统车企。
车载操作系统三大阵营,QNX处于龙头地位QNX、Linux、Android构成车载OS三大阵营,其中QNX采用微内核架构,市占率超50%;Linux拥有AGL成员超100家,开源优点吸引大量程序员;Android拥有Google技术支撑,系统开源成本低。未来Linux和Android市场份额将逐渐扩大。
车载操作系统国外市场蓬勃发展海外各大企业主要以定制型、ROM型、超级APP三种方式切入市场,龙头车企更是倾力打造有自身特色的车载OS,不断提升应用生态。定制型切入的有大众、Google、特斯拉,ROM型切入的有宝马、奔驰、奥迪、凯迪拉克和本田。
国外两大超级APP竞争激烈CarPlay由苹果公司基于QNX开发,IOS产品的生态强且用户粘性大,多家车厂将加入Apple CarPlay车载系统联盟;Android Auto由Google开发,拥有高兼容性和海量数据积累,提供个性化精准服务,目前已有车企组成的OAA联盟承诺推广。
车载操作系统国内布局已现雏形国内企业以不同技术路线切入市场,有定制型的AliOS/华为鸿蒙OS,有ROM型的蔚来、小鹏等,还有超级app的小度车载OS、腾讯车联TAI和百度Carlife。目前车企主要面临四个选择:基于安卓、基于国产定制型OS、搭载超级APP、与互联网公司合作。
算力服务化演进
展望1:算力成为数字经济时代的生产力,云计算推动算力服务化
算力是信息时代的新生产力,是支撑数字经济发展的坚实基础,算力的发展推进了技术的升级换代、应用的创新发展、产业规模的不断壮大,而云计算作为算力的生产工具,推动了算力向服务化迈进。


展望2:异构算力迎来繁荣期,推动算力向普惠化发展
随着5G、工业互联网、人工智能、云计算等新技术快速发展,GPU、FPGA、AI芯片等异构算力迎来繁荣期,满足各场景计算需求的同时,从成本的角度大幅度降低计算门槛。算力的服务对象也将从企业和大客户扩展至小微企业及个人,真正推动算力成为“人人可用”的普惠资源。


展望3:边缘应用场景激增,推动算力向泛在化发展
随着算力泛在性程度的不断加深,算力逐步从中心侧向边缘侧、端侧扩展,形成了云-边-端三级算力架构,以支撑智能安防、游戏、视频等多样化智能应用场景的不断落地。


展望4:云原生解决多样性算力的兼容性问题,推动算力向标准化发展
随着多样性技术路线的引入和发展,以GPU、FPGA为代表的的异构计算与以ARM为代表CPU架构的兼容性问题更加突出,多样性算力的标准化度量与输出成为挑战。


展望5:算力和网络呈现深度融合的趋势,算网一体技术已现雏形
算力和网络的发展日益呈现一体共生之势,从网随算动到算网融合再到算网一体,网络从支持连接算力,演进为感知算力、承载算力,实现网在算中、算在网中。与此同时,算力度量、算力原生、算力路由等算网一体技术日益受到产学研各界重视,相关技术的成熟将持续推动算网融合向纵深发展。


展望6:多样性算力布局极速扩展,亟待新的跨架构的开发生态体系
面向通用计算,互联网企业和芯片巨头已经完成了x86+ARM多样性计算布局;面对AI这一增长预期更加强劲的未来市场,芯片布局更为激烈。多样性算力的开发生态体系相对独立,应用的跨架构开发和迁移困难,亟需通过开源、开放的方式建立可屏蔽底层硬件差异的统一异构开发平台。


展望7:算力需要发挥极致性能,呼唤计算架构的技术创新
算力节点、存储和网络共同构成了经典冯诺依曼式的计算架构,网络传输速率和存储墙成为了影响算力的最终性能的瓶颈,催生取代经典冯氏架构的技术创新。


展望8:算力供给参与者众多,全新算力交易模式即将出现
随着产业由云向算发展,算力服务由多方供给,为了使社会已有算力得到充分利用,有效避免算力资源的重复建设,融合多方算力服务的新的算力交易的模式即将出现。



参考文献链接
https://mp.weixin.qq.com/s/W5u5b3wAs9ISs0FWDD84nQ
https://mp.weixin.qq.com/s/SoUYc9JpOx2qdlsM_y_M-g
https://mp.weixin.qq.com/s/Xp6aKUM8fqyssQZhWQRbtw
https://mp.weixin.qq.com/s/sWOk7JLMFDR3wjvBk7ErTQ
https://mp.weixin.qq.com/s/A0n12fBnHrf0ZXC3i_45qw
https://mp.weixin.qq.com/s/5pL5Uoeng7Rq-2DpXrk5zQ
https://mp.weixin.qq.com/s/frv670U0C_ljadCiMADwBA

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
发表于 2022-8-21 19:26 | 显示全部楼层
也太高产了吧
懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Unity开发者联盟 ( 粤ICP备20003399号 )

GMT+8, 2025-5-2 00:32 , Processed in 0.191065 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表