当前位置:首页|资讯|艺术|腾讯|Stable Diffusion

小田仙人:献给人类文明与涅槃重生的行业

作者:ZCOOL站酷发布时间:2024-04-08

嘉宾简介


田童尧(站酷ID:小田仙人)


数字艺术家、概念设计师、士气集团品牌主理人。吉林艺术学院客座教授,前网易美术专家/前腾讯TGIDEAS成员,擅长概念设计,世界观设计。


小田仙人老师收到NVIDIA Studio站酷的邀请,为年度百大艺术家孵化计划Artist 100创作了特邀先锋作品,过程中使用了Stable Diffusion(下文中简称SD)辅助创作,同时也感受到了NVIDIA Tensor核心技术的加速体验。本篇专访,小田仙人老师将为大家从行业到创作故事再到技术工作流完整的讲述,纯干货,建议收藏后反复观看。



ZCOOL站酷:您创作的本次NVIDIA Studio × ZCOOL百大艺术家孵化计划的先锋作品,能不能先简要为大家分享一下创作背后的故事。


小田仙人:接到NVIDIA的邀请后,我还是蛮期待的。作为创意设计行业的从业者,对于NVIDIA产品和技术是十分熟悉,与NVIDIA相关的关键词非常多,AI/大算力/次世代主机/RTX/大公司的技术路径/XR/元宇宙/电力能源和基础科学等等,每一项展开都可以是一个有趣的科幻故事。


2024年,全世界越来越多企业加入了人工智能大模型方向的基础研究,在重复造轮子背后,我们看不见的是大量电力被人类无意义的竞争所浪费。这种浪费的可笑程度在未来的历史上看来或许更甚于比特币挖矿的行为。所以我想由这个现实主义的问题出发,展开想象:


在第一阶段,资本创造出通用人工智能机器人取代人类,大范围的失业造成了人类社会的大动荡。


第二阶段,通过政府干预,创造了由机器工作,人类享受的高福利社会,人类从此进入算力天堂。


第三阶段,人类的贪婪本性注定了拥有更多资源的那部分人类会渴望更强的算力。由于基础科学并没有得到突破,人类的电力总量已经被锁死,至此,贫富差距重新产生,算力天堂被打破。


我想讲的大概就是这样一个科幻故事。


ZCOOL站酷:您本次的先锋作品也有使用到生成式AI工具辅助创作,可以用几个关键词表达一下您眼中的AIGC吗?


小田仙人: 尚不成熟/增效工具/艺术祛魅


说起来也很简单,AI目前只是一个并不成熟的工具,但又是比现在任何传统工具都要好用的工具,任何人都没必要对时代进步产物的工具产生太多的负面情绪,工具不会干扰你的创作,但你的负面情绪会。不论你在美术工作的哪个环节,试试看,总能找到十分适合的工具使用方法。


另外,AI的随机性,让很多所谓的艺术与艺术家变成了笑话,坦白讲这是我乐于看到的。让一切艺术创作回归本真,这个社会需要对那些不知所谓的艺术祛魅。


ZCOOL站酷:AIGC发展到现在,给您最大的感受是什么?


小田仙人:在AI时代,部分技法是被弱化的,我们每个人都该思考这个问题。仅仅一张好看的图可能已经很难支撑起叙事了。不论是通过你自己的努力,或者AI辅助,将一张图创作得多复杂多华丽,可能技法的属性都多过艺术。在这样的语境下,我们都没法确定什么是正确的,但总要去尝试一些新的方式。


ZCOOL站酷:针对AIGC的应用,您有提到最大变量是“语料“,关于”语料“,您是怎么理解的?


小田仙人:AIGC也就是生成式AI,是一个从思想到语言再到视觉化的过程,我们作为人类能控制的最大变量的确就是“语料”,这也是目前我最看重的部分。我一直有谈到,我很讨厌“拍脑袋”式的设计,未经过思考与打磨做出来的东西,大多是浅薄且经不住推敲的。在“语料”这件事上我想同样如此。


在网上,我看到很多人在教别人怎么写AI关键词,告诉大家通过什么样的组合,能得到什么样的效果,我认为这不是重点,你真正要表达的东西才是。用什么来指导你去写关键词中真正的内容?【8K】【highres】【masterpiece】【best quality】【extremely detailed CG】……这些看起来是让工作更省事儿了,但是“捡现成的“会把自己的想法限制住,把这些奉为圭臬,只会故步自封。


那用什么样的方式来写出更好的“语料”呢?我的方式是,为我们接下来要做的图,写上一个小故事,通过故事的形式,我们除了会描述出更详细的细节,也会帮助我们想象这个画面之外更多的事情。


例如我们要做一把枪,按理来说我们要描述它是一把什么样的枪,是手枪还是步枪还是冲锋枪,如果是手枪,它是什么材质,金属还是聚合物,木柄还是皮柄,什么样的瞄具,哪个国家制造,军用警用民用还是手工自制……或许有了这些信息,我们已经能生成出一把不错的手枪,但有没有可能我们想的更多一些?用这把枪的人是谁?他或她有着怎么样的经历?枪的主人有没有用这把枪伤过人?图中记述的是怎么样的时代背景与技术背景?



或许我说的额外这些内容并不会通过画面表现出来,但它可以帮助我知道,生成出的这十张图,哪一张是更接近我所想象的故事。


ZCOOL站酷:结合本次先锋作品,您觉得AIGC工作流相较于传统工作流,有哪些值得分享的变化?


小田仙人:我个人使用过很多生成式AI工具,相比较而言,Stable Diffusion(以下简称SD)显然是更适合三维设计师的创作工具。


首先,传统的三维工作流需要花很长的时间去做渲染,而这个过程在SD上可能几秒钟就完成了,这显然是工作效率的巨大飞跃。



其次,传统的三维渲染器在NVIDIA GeForce RTX 显卡上速度更有优势,因此三维设计师肯定都要有一张还不错的N卡。在这样的前提下,使用SD显然就是一件更经济的事了。况且相比于纯粹的抽卡,我们还希望SD的输出有更强的可控性。ControlNet这个插件的出现则能够让更专业的工作流为普通的SD用户所用,通过ControlNet的深度图算法与法线图可以实现对基础构图和景深的精确控制。我们可以在三维软件中,先简单搭建我们生成所需要的基础构图/大的造型/甚至前后关系。而针对法线与人体骨骼关键点的控制模型则让我们可以准确的控制面部与手部,更准确高效的出图。


在这次的创作中,我同样使用了这样的流程,例如有一张图,我想表达一个叫做“集成化巨大光电融合芯片服务塔”的科幻概念,这个概念来自于中国甘肃,是对于太阳能的一种新型使用方式,大概就是通过在沙漠中摆放海量使用电脑控制的镜子矩阵来捕捉太阳光,反射到塔尖,使塔尖产生极高的热量,融化掉一种比热容较高的盐,从而储能,然后就可以24小时烧开水(夜里也可以)发电了。



但这样的概念,我没有办法直接描述给AI,AI大概也很难听得懂我想要什么。所以我就需要使用三维软件搭建出一个大概的视觉概念。通过描线和深度图,告诉它我要的是什么。然后再通过关键词的准确描述,以及大量的抽卡,最终得到可以满足我故事的结果。



ZCOOL站酷:就像您所说的,AI有时候未必能精准输出我们理想中的完美画面,那“完美的生成“您有没有什么经验技巧呢?


小田仙人:在使用AIGC创作的过程,必然会出现大量令人不够满意的内容。这种时候,是为了抠出来那么几个小点,继续生成,还是想开点装作看不见?


或许都不是好的对策,我的方法有两个,一是把出问题的那部分,通过SD的inpaint局部修复功能拿出来生成或者单独进行详细描述。我们要知道,AI的算力是有一个总和的。我们使用SD同时生成10个人,那这100分总和的算力就要平均分配到10个人身上。相信我,不论你的显卡有多棒,也会生成出一些不尽人意的形象。但如果我们在宏观的生成之后,再把出了问题的人框选出来单独生成,则会得到一个细节丰富的帅哥美女。



另外就是别忘记自己还会PS。有些细节,需要你用PS给AI一些提示。或者帮它修修补补,改变下位置。只靠AI硬去碰运气,那可就落入下成了。


AI是一个勤劳的画师,但不是一个好的学生。我们从初中开始就被反复念叨的前后对比/明暗对比/冷暖对比/中心视点/删繁就简,它是一样都理解不了,这也就是我们需要帮助它的地方。我们需要通过后期处理,来让一张图的重点明确,冷暖舒适,正负形规则。最重要的则是让它把心思放在真正重要的,用户会去用心看的地方。


ZCOOL站酷:NVIDIA可以说是所有设计师都很熟悉的朋友了,有没有什么产品使用感受可以和大家分享?


小田仙人:这里一定要说的就是不可避免的抽卡,NVIDIA TensorRT插件上大分。



至少在现阶段,与AI的人机交互方式,其实还是太过于粗糙,哪怕是再准确的描述,AI也总能产生它自己的合理想象,这种情况下就避免不了抽卡。


大量花时间,碰正确答案的方式,让我感到此时抽卡出图的速度就直接决定了我的工作效率。TensorRT插件作为我使用过的最快的SD出图加速工具,确实在一定程度上缓解了我和AI之间的交流互动关系。



说到这个插件的具体原理,凭借我浅薄的技术常识,它应该做了两件事:一是通过NVIDIA的独家秘方,最大化利用显卡算力去计算SD的出图显卡在SD环境下的工作效率。二是对特定的SD模型和显卡型号进行针对性优化。


形象地说,显卡、SD、大模型就好像是一个机器上嵌套的几个齿轮。TensorRT插件就好像是一管儿润滑剂,甩在齿轮之间,接下来再运转就顺畅丝滑很多。从我的工作实测感受来说,速度快了至少1倍,相当于我瞬间拥有了两块GeForce RTX 4090。


ZCOOL站酷:最后,送给所有设计师们一段话吧。


小田仙人:在AI问题上,辩经毫无意义,想用好生成式AI工具就搞块好显卡,好好研究,不断尝试,找到适合自己的使用方式。抄来抄去互相攻击只是在浪费自己的时间,保持初心与创作热情,去走自己认为正确的路就好了。


广告


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1