找回密码
 立即注册
查看: 464|回复: 20

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生 ...

[复制链接]
发表于 2022-5-26 16:56 | 显示全部楼层 |阅读模式
杨净 发自 凹非寺
量子位 | 公众号 QbitAI
在元宇宙里看时装秀,会是什么赶脚?



各种布料摩擦细节,不光看得一清二楚,而且就跟真的一样。



裙摆随着模特的走动飞舞起来~光是看看,就能知道这件衣服是不是轻盈。
这是图形学大牛王华民团队的最新成果,提出了一个基于GPU的预处理器MAS,一张GPU完成实时布料碰撞特效。
比如这件羊毛大衣,就能以每秒37帧的速度实时模拟出来,仿真精度可达5mm。



而且也不光是衣服,连毛毛球、软皮玩具也能实现逼真的碰撞特效。





其论文收录于SIGGRAPH 2022。作为全球规模最大、水平最高的图形学会议,SIGGRAPH每年接收的论文都代表着当年CG最高水平。
来康康这是一项什么样的研究?
一张GPU实时模拟碰撞特效

要构建真正意义上的元宇宙,首先需要的是一个强大的实时物理仿真模拟引擎。
而当前常见的物理引擎在效果或效率上还远达不到理想的状态。
服装模拟是所有模拟问题的制高点。
因为服装的材质、碰撞都是最复杂的,解决好服装模拟,就等于解决了大部分实时物理模拟问题,为未来元宇宙开发奠定基础。



从技术上划分,实时物理模拟分为流体和形变体模拟两大类。
相较于流体,形变体的应用范围更加广泛,比如弹性体模拟、布料模拟、头发模拟等,其产业端的价值也更加清晰,比如在服装、工业上的应用。
但当前困扰科学家的一道挑战,是完成更高质量的实时仿真
任何形变体的模拟,最后都归于一个线性求解问题,个中区别无非就是矩阵内部数值、稀疏程度还有矩阵大小的不同。
因此,如何快速求解也就成为其中一个重要的突破口。
基于这样的背景,王华民团队提出了基于GPU的MAS预处理器 (Multilevel Additive Schwarz Preconditioner)。



顾名思义,这一预处理器采用了多层和域(domain)分解的概念。
以往的算法主要依赖在一层网格上处理,这样域越少越好,不然误差大。
但此次研究人员则是构建多个网格层,这样使用小的、不重叠的域,可以发挥GPU并行计算能力。
具体而言,MAS预处理程序可以分成三个阶段。
第一阶段,利用Morton代码快速分层分域



研究人员提出了一种超节点分割方法和跳过方法,用于空间的初步构建。



第二阶段,通过单向Gauss-Jordan消除的低成本矩阵预计算,在每个域进行快速的inverse求解。此外,研究人员还开发了一个选择性更新方案,以解决轻微的矩阵修改。



第三阶段,运行时预处理,从而对矩阵向量快速求解。为了降低计算成本,研究人员发明了一种对称矩阵-向量乘法



实验表明,MAS预处理器与许多线性和非线性求解器兼容,这些求解器用于带有动态接触的形变体模拟,如PCG、加速梯度下降和L-BFGS。
以最常见的PCG求解器为例,在两者一起使用时,在GPU上的收敛速率仍然明显优于其他预处理程序,包括GPU上的多网格AmgX。



在达到相同的收敛目标时,MAS预处理器的收敛速度要比其他预处理器快约四倍
与此同时,MAS预处理器在CPU上也是有效的,其性能也优于其他预处理程序,比如英特尔的ILU0和ILUT。



除此之外还发现,MAS预处理器的计算开销很低。



并行计算时仅为0.118秒,相比之下ILU0、ichol和ILUT的成本为2.50秒、33.8秒和154秒。



研究人员表示,此次为5万个定点到50万个顶点区间规模的布料和形变体仿真推向了一个更高水平。
未来还将继续研究基于GPU域分解(GPU-based domain decomposition)的技术,因为这类算法有很多可以挖掘的空间。
Style3D出品

本次研究团队来自Style3D研究院王华民所带领的团队。



王华民,俄亥俄州立大学前副教授,佐治亚理工学院计算机科学博士,斯坦福大学计算机科学硕士,公认的世界级图形学科学家。
曾以唯一作者身份完成四篇SIGGRAPH论文,6届SIGGRAPH/SIGGRAPH Asia技术论文委员会委员,其学生遍布知名大厂,因为聚焦布料仿真,业内流传着这样一句话:
如果你研究布料仿真,就不可能没读过王华民教授的论文。
去年8月,他正式加盟国内时尚产业链3D数字化公司——凌迪科技Style3D,任职首席科学家兼凌迪研究院院长。
结果不到一年时间,就率队带来了最新产学研成果,将实时仿真技术又提升到了新水平。
研究进展如此快速,背后既有世界级技术团队的实力加成,也有企业的产业化驱动。
凌迪科技Style3D,创立之初将视线聚焦在最制约服装行业效率的服装设计开发环节上。



其核心产品,一个是率先打破国外技术垄断的3D柔性体仿真工业软件Style3D Studio,其二是全球创新的面料数字化设计软件Style3D Fabric,另有研发全流程协同平台Style3D Cloud,以及开创性的数字时尚内容资源商城Style3D Market
研发过程中从面辅料选择、款式设计、渲染仿真、协同与展销等全流程,都可以进行数字化呈现以及协同合作,以此来提升研发效率。



此外,凌迪Style3D还依据工厂生产标准生成生产资料清单,串起整个生产制造环节,进一步推动整个行业链路的数字化。
据透露,今年6月底凌迪Style3D将有面向元宇宙开发者的神秘产品发布。
目前,它的客户涉及到海内外品牌方、ODM(原始设计制造)商、面辅料商以及泛电商等。
值得一提的是,就在SIGGRAPH收录结果出炉同一时间,凌迪Style3D官宣了与牛仔技术公司Jeanologia的合作。
全球每年生产35%的牛仔裤,都采用了这家公司的环保技术。
两者合作下,牛仔设计师也能够直接在Style3D一键调用牛仔裤纹样及水洗效果图案等,无需制作牛仔裤实样,即可呈现牛仔裤水洗等多种工艺的设计效果。
而且这样高仿真的数字牛仔裤,还可以直接拿去营销展示和售卖。



事实上,除了推动整个服装产业链效率外,还有更现实的全球性问题能得到缓解,即现在热议的碳中和、碳排放。
当前,纺织服装已经成为全球第二大污染产业,全球每年约有1280万吨服装被填埋焚烧,制作服装所排放的废水占全球总量的20%,并承担着全球10%碳排放。
甚至于,还有15%纺织产品会遭遇不被使用,直接走向烧毁的命运,从而造成二次污染。
而一旦将整个产业从研发、生产到最后的商品展销等全流程搬上数字平台,污染问题就能得到有效解决,可持续时尚才真正有落实的方向。
图形学的产业发展

最后,回到这篇被收录SIGGRAPH的研究成果本身。
可以看到的是,它不像是英伟达、谷歌每年传统艺能——各种炫酷逼真的特效技术,以彰显企业的前沿技术实力。
而是从更垂直的产业角度出发,技术迭代不太容易被人感知,但切实地解决了产业问题。
一方面,这说明图形学技术已经来到了产业端创造价值。
图形学最有可能、也是最大限度落地的领域,不是热议的电影、游戏,而是像服装、工业这等产业领域。



另一方面还说明中国在图形学上技术水平并不弱,会像AI一样从前沿到产业加速前进。
从此次SIGGRAPH论文收录结果可以看到,中国团队已经占据名单的一大半,其中不乏高校以及企业代表。



随着图形学产业价值更加显性,更多世界级大牛参与进来。企业也将通过设立研究院、启动奖学金等方式吸引更多高校人才加入。
以凌迪Style3D为例,去年就启动了凌迪图形学奖学金计划,每位获奖者将获得3万人民币的现金奖励,第一期就有清华、浙大、中科大、南开、山大等10名硕博士获得。
如此一来,产学研闭环一形成,更有利于图形学产业化的长期发展。
如今爆火的元宇宙,最终挤掉泡沫。像当初的AI一样,只有将底层技术与产业相结合,发挥更长远的价值。
而这一点,中国的企业已经先行一步。
—完—
@量子位 · 追踪AI技术和产品新动态
深有感触的朋友,欢迎赞同、关注、分享三连''

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
发表于 2022-5-26 17:01 | 显示全部楼层
tql[大哭]
发表于 2022-5-26 17:06 | 显示全部楼层
研究不错,不过能不能不要什么都碰瓷元宇宙???
发表于 2022-5-26 17:12 | 显示全部楼层
啊,居然解决了。这个问题应该困扰良久了吧。一个是动画片里面的人,从来不会换衣服,至少看不到换衣服的过程。第二个是,洗衣机发明都100年了吧,自动叠衣服却没办法[捂脸]
发表于 2022-5-26 17:20 | 显示全部楼层
哇 gpu solver的改进[潜水][潜水]
发表于 2022-5-26 17:27 | 显示全部楼层
我记得去年也有一个布料结算的
发表于 2022-5-26 17:27 | 显示全部楼层
假的比真的好看,。
发表于 2022-5-26 17:30 | 显示全部楼层
GAMES103课程的老师
发表于 2022-5-26 17:32 | 显示全部楼层
games103是初级课,讲不了太深还是有点可惜,希望以后能有2开头的布料模拟进阶课[蹲]
发表于 2022-5-26 17:37 | 显示全部楼层
就嗯元宇宙
懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Unity开发者联盟 ( 粤ICP备20003399号 )

GMT+8, 2024-11-27 02:16 , Processed in 0.072570 second(s), 23 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表