哪怕没有学过设计,你或许也曾在画PPT时为寻找一张精准美观的配图花过一些时间,在面对差别细微的配色、字号和间距时多少斟酌了一会儿。即使知道人们对美丑并没有统一的评价标准,却还是会借助各种搜索和应用工具,让视觉呈现尽可能地贴合自己的审美偏好。我们把这个过程简单归为「设计」。
现在,大量与设计有关的AIGC工具出现了。设计环节上,从前期创意发散、中期生产制作、后期剪辑/特效/排版等包罗万象;生成形式上,从文字、图片、视频、3D资产到虚拟人应有尽有。这显然给设计行业带去了不小的冲击。
在关注AIGC在设计产业的应用机会的同时,Kindergarten Green也希望从使用者的角度出发,看看AIGC类工具对设计师实际的帮助如何。我们邀请了三位资深且富有洞见的设计师:院长、MOG和美丫姐,分别来自广告设计、UI/UX设计和品牌视觉设计行业。他们分享了各自的工作经历,聊了聊AI工具的利弊,以及AIGC对未来设计产业可能产生的影响。
我是做广告设计的,从业时间超过15年了。
我的工作是从创意的原点出发,结合媒介、渠道、预算、需求方的品牌调性,考虑整体的视觉风格,然后拓展到每个细节。包括线上传播的海报、带交互性质的H5和当中人物动态的演绎、色彩搭配、UI交互流程,以及线下活动的现场布置、宣传折页的设计、实体物料选择、现场平面图和动线规划……不同项目还涉及不同合作方,比如前端工程师、插画师、印厂等等。
我习惯从概念、表达和执行三个方面来看待一个设计项目的完成度。概念就是理解,表达就是选择什么样的载体、形式去呈现概念,执行包含呈现的方式和效果,不仅是视觉内容,还包含落地到具体媒介或者产品上的效果。
为小红书「大家时装周」项目设计的logo、秀场规划效果图、邀请函
如果设计师没有在设计中加入自己的想法和思考,那跟AI也没有什么区别。你控制AI之前需要先想清楚自己要干嘛。我早年用过Windows的画图软件画像素画,会一点一点、一格一格画,后来有了PS之后我觉得更方便了,但要呈现的东西并没有改变,我要做的始终还是我脑子里想的事情。
当然,AI可以帮助你寻找一些创意灵感,就好像我之前会经常去一个叫做ffffound的网站找图,上面有很多无厘头、品味比较好的东西,能满足我对视觉信息搜集需求。但没有明确目的的情况下,用AI会很麻烦、很累,因为要一直纠错。就像做项目一样,当你没有一个明确目的的时候,AI永远能给你不同答案,但你并不知道哪个才是你想要的,这是比较浪费时间的。
早年的绘画工具——画图
说得夸张一点的话,我已经把脑子训练成了一个软件,最关键的是思维路径、想法能深入到哪一步,这跟工具是无关的,是自我表达。
设计以及所谓的艺术,都是一种表达,是基于脑海中对某个东西日积月累的理解。一年、两年、三年……每个阶段可能都有所不同,也会持续迭代。我之前做广告设计更多时候是针对文字去做视觉表达,如果是针对音乐去做视觉表达,或者光、热这些物理属性,该怎么表达?这可能是慢慢深入之后要考虑的事情。
就像80年代的《西游记》,片头曲的电音超级炫酷,当时甚至可能还没有电音的概念,但导演想要呈现这种效果,她用别的方式表达出来了。所以工具不重要,重要的是你想要呈现什么东西。
蘑菇,从爱好到假装建设物种
当你已经有明确目的之后,AI可以成为帮助你实现目的的工具,不再需要耗费更多时间去PS、渲染、合成,只需要打字就能生成一张图片。但以AI目前能实现的程度,至少在我有限的尝试和认知当中,它并没有达到我的要求。
我前阵子和同事试了一下Midjourney和Stable Diffusion,是在已经有了非常明确的目的和做出来的东西之后,想再用AI试试看,会有什么不一样的东西。其实结果不算太好,或者是我们刚开始用,还不太熟练,可能需要更多时间熟悉它的规则、逻辑、插件、喂图方式。虽然我暂时还不能判断熟悉之后能用它来干嘛。
尝试用AI生成的「蓝精灵龙」(左),与自己实际做出来的设计稿(右)
未来AIGC可能有机会运用在教育方面,比如开发幼儿的想象力,让他们直接用AI生成画面。但这个技术也是建立在了解了很多风格的定义的基础上的,有些小孩对一个东西的描述未必是清晰的。而且当每个小孩都能随便画出一张精美的图片时,这个东西就不再稀缺,就没有意义了。AI确实能生成很精美的图片,但我不知道为什么人喜欢要精美的图片,我不觉得精美的图片一定是好东西,也许他们只是玩一阵而已。
AI也有机会应用在游戏上。原本的生产周期因为工具的出现,效率大大提升了,那节省出来的时间就可以多考虑游戏的核心玩法了。虽然任天堂出品的游戏画面、技术相对于更拼机能的sony和微软来说,并不是最好的,却依旧能获得市场,因为它掌握了「游戏的内核是欢乐」的要义。
至于围绕AI还能做什么有意思的东西,我会设想用AI做一个游戏,让更多人去玩;或者让大家用AIGC还原梦境,再把这些梦境做成一个网站。首先得有个核心概念,不然就会和现在一样,只是工具。我可能要先找到要服务的人群,比如说小孩或者是失明的人,再考虑用AI可以呈现什么东西。
Switch《LABO》
我本身是品牌设计师,也在高校任教。出于教学需求和对技术的兴趣,我对新工具比较敏感。
品牌设计主要是VI和视觉指导方面,也会涉及新媒体方面的视频和动态设计,以及插图和插画。工作流程比较标准化,首先客户会提出大致的需求,描述气质调性和对项目的理解;接着我们会去找具体的视觉参考,对齐方向,再确认执行方式;最后把东西做出来。
我理解的设计思维比较乙方视角,重点在于满足甲方需求,同时补足创意和设计的新鲜度和独特性。
但这恰好也是设计师的核心能力与价值所在,一方面能理解客户,另一方面能引导客户,在某些节点上能说服他们,把控项目。大家的基础能力差不多,最重要的还是沟通。这也是目前AI最难实现和替代设计师的点。
之前为虾米音乐做的数字化设计和为上海新天地20周年创艺项目做的印刷品设计
我平时用的设计工具还是传统三大件:PS、AI和InDesign,C4D或者blender会作为辅助三维使用,一些艺术性的项目会用一些交互工具,比如Processing,TouchDesigner,还有做视频的After Effects。这些工具本身已经很强大了,甚至已经超出了我的需求。
相比之下,我没法直接用AI做品牌设计的工作,精确度和完成度都达不到预期效果。目前我只用Midjourney和Stable Diffusion做过电台周边的出版物和封面插画,先用Midjourney做前期,再用Stable Diffusion来精修。
当有了主干想法后,AI可以给你很多种备选的执行方案,快速实现某一风格或者某几种风格嫁接的效果。比如用日本剑戟片的风格生成90年代港片的海报,或者用黑泽明风格做一张星球大战的图。生成的图基本比较到位,不会像开盲盒一样。
但Stable Diffusion对硬件的要求很高。目前使用mac系统,对于AI算图的支持有限,所以需要一块强劲的显卡加持。又因为Stable Diffusion是开源的,会有各种系统兼容性和脚本上的问题,都需要自己去调整。
用Stable Diffusion图生图尝试将动漫真人化
我认为AI工具对有想法但不会画画的人来说,是非常好的工具,可以让他们马上做出超出个人表现能力的东西。但prompt的过程比较费事,用得好的人一般会按照Stable Diffusion里面的插件和具体生产流程,形成一套自己的方法和工作流。但实际上决定最后生成效果的,一方面是想法,另一方面是工作流的做法,会用的人才能自如地调用、拼贴和完善细节。
AI工具帮助提高效率可能在于明确了具体方向后,出创意的环节。Midjourney可以根据人的反馈输出结果,你去点upscale或者various的按钮,其实就是在体现人的导向。用的时间长了你就会发现,这种工具的审美品味就是那样,它可以把这一类做得很好,但也只能做这一类。
用Midjourney生成的不同风格的图片
视觉风格也是提到AIGC时,被频繁讨论的主题。我认为风格一定是长期的经营结果。你在制作作品的过程中,有一以贯之的视觉特性在里面。坚持下去,经过多年积累才可能形成类似于人设一样的东西。比如日本的高田唯,风格非常强烈,他扮演的是一种介于艺术家和设计师之间的角色。真正能够保持鲜明个人风格的设计很难,能做到的基本都处于行业顶尖水平。我也在朝这个方向努力。
不可否认的是,AIGC对个人风格的形成会有影响。比如设计专业的学生在毕业后通常会有一段锻炼期作为职业缓冲,但现在基础工作可能被AI替代了。对于想要成为成熟设计师、形成稳定风格的人来讲,不是特别好的事情。
日本设计师高田唯的海报作品
因为对AIGC的兴趣和探索欲,我建立了资讯站(www.aigarlic.com)和社区(https://aigarlic.fanbox.cc/),希望和更多人交流。目前社群大概有500人左右,小红书积累了7-8k粉丝关注。现在基本上是核心的人在产出内容,也准备做成一个半订阅性质的东西。
至于设计工作在AIGC的浪潮中会发生什么变化,我认为人的作用还是非常关键的,AIGC只是工具,它无法替代人来做最终的判断决策。AI生成的内容可能80%是趋同的,最后20%最黄金的、稀缺的地方,只有人能看到,也只有人能非常敏感地去把握主观偏好。
随着AIGC的发展,人的视觉阈值会被抬高,大家可能会喜欢更加抽象、不可替代的、AI生成不了的东西。比如高田唯做的设计,AI就做不了。我很难描述高田唯的作品,每个人的理解是不一样的。或者像《一拳超人》《灵能百分百》这样的动画风格,都有一些反直觉、反传统的美感,非常独特、个人化,视觉冲击力很强。
未来的设计领域,基础的「大路货」会变得更精美、更易创作、生产效率更高,中低端的设计工作会被大量替代,比如说公众号封面可能就不再需要专业的人去设计了,AI就可以画得比较好。但这样的东西,大家一看可能就知道是AI生成的,它也不值钱;真正的高端工作会更高端,真正的艺术创作会更值钱,两极化加剧。
MOG喜欢有突破性和独特的视觉风格、特点的创作者,从左至右依次为:横山裕一、長嶋りかこ和Studiofeixen的设计作品
我之前主要做UI/UX设计,转型做自媒体之后,也依然专注在数字领域,做用户界面和产品设计。
UI设计师的工作既简单又复杂。简单在于产品会提供一个相对精准的原型,可操控和创作的空间相对小。说它复杂是因为UI设计很讲究逻辑,需要体系化思考,在了解产品功能迭代后,保持视觉整体的统一性和合理性。
过程中,设计师需要基于产品形态进一步思考和优化,去发现用户没有说出来或者没有觉察到的需求。这些很难从已有素材中挖掘和拼凑,也很难通过AI工具实现。所以UI设计看似是一个很简单的工种,却是最难被AI取代的。
在第一次接触AI的时候,我自然会想训练一些UI和UX可以用上的模型,但这非常困难,特别是一些很小的细节,比如体系化的功能性icon。AI无法把控做成套的东西,它不理解元素之间的关联和差异。根本原因在于AI的底层原理——它很大程度上依靠内容输入、模型训练,是以模板拼凑为主的,缺乏逻辑关联,但这恰恰是UI工作最关键的部分。
UI/UX设计工作中
通过逻辑推理,设计师才能真正交出一份完成度高的UI设计稿。有人觉得精致或超写实是完成度高,但我认为关键在于合理性和统一性。
合理性体现在细节设计与内在逻辑的吻合,它是在设计语言之下做出的变动,让设计无论是整体还是细节都是和谐的。统一性简单来说就是整体上没有很突兀的东西,如果几个视觉元素单看还可以,放在一起却没有统一性,也许是华丽但没有意义的。
除了设计本身,结合用户数据更新迭代,也是UI/UX设计工作中比较特殊的代表性环节。比如我们现在去为一个的APP做界面设计改版,可能要输出改版前、改版后、灰度、AB测试很多个版本,通过搜集数据,设计师可以快速捕捉视觉对使用体验的影响。这种实时反馈往往可以给设计师带来巨大的满足感。设计师也可以在收集数据之后,将数据反馈给做导向和定板的人,提供更专业的建议。
但目前市面上单向问答式AI或者绘图式AI没法帮设计师完成这个流程。如果AI真的想辅助设计师,它需要具备一定的数据收集能力和分析能力,单纯出图并不是很好的方向和选择。
UI/UX设计需要考虑合理性和统一性
虽然AI工具目前可以实现UI/UX设计上的效果有局限,但在电商标准化图片设计流程中,能减少环节、压缩成本,潜力和价值很大。
我们之前作为第三方合作商服务过某手机品牌。在新品上线前,通常会经历产品打样、产品图和模特场景图实拍,以及粗修、精修、商品详情页设计很多流程。如果用AI来做,可以减少部分环节,削减成本。甚至可以找一个普通人,利用AI技术,实现模特肤色、妆容、动作、表情的替换;根据不同电商促销节点的需求,更换商品图的元素和场景,省去基础的重复工作。
在拍摄环节中,除了产品运输、实拍这些肉眼可见的成本外,我们还要负担潜在的隐藏成本,比如物流、仓储。当然也可以用3D渲染,但出图效果会不够真实,成本更高。如果AI能提供更好的解决方案,就可以节约这部分支出。并且当客户品牌形象积累得越来越完整、图片越来越多,就越有利于训练和维护成熟的AI模型,提供更精确的结果,沉淀更多信息和经验,服务提供方和客户之间的纽带也会更强。
通过AI替换模特的黑色礼服裙与拍摄背景
另外,同一个品类在不同地区,会有不同的视觉风格倾向。比如日本和台湾偏好类似当地杂志的风格,排版元素比较复杂,有很多堆叠效果。如果纯靠设计师人力完成设计,过程会非常枯燥。但有了AI,可以把它当做底层的排版布局的工具,也可以生成相关元素搭配。人力只需要支持最后的审核工作。
我希望AI可以拓展到除照片和模型之外,更广阔的场景中,来满足电商领域更复杂的需求。因为图片只是促成消费和买卖的一个手段,更多数据应用、产品AB测试功能,以及打通客服接口,都是AI有机会替代人工完成的部分。
日本和台湾的电商设计风格
在我从业的这些年,设计工具一直在迭代。最早我是用PS,之后用过sketch,再后来有了figma这种线上工具。从大而全逐渐发展到更有针对性的细分工具,是符合市场迭代规律的。
而AI工具目前功能的确很有限,也有各自的缺陷。Midjourney作为一个在线付费的设计工具,虽然可以实现快速上手入门,但可控性较低、需要不断磨合;而Stable Diffusion对设计师的审美、喂的图和硬件设备都有更高的要求,需要经过一定的训练,才能实现成熟度和定制感。它不像Midjourney有不断试错的过程,如果一开始选用了错误的模型,后续是很难纠错的。
Stable Diffusion的训练周期取决于需求和使用场景,具象的和宏观场景的训练时间不同。比如我要训练一个二次元人物,可以通过输入手绘图片,生成更多动作、场景的图片,虽然不能保证每一张图片里的形象完全一致,但完成度差不多也有八九成。这种生成具象的、体系化的东西效率还是比较高的。但如果使用者是一个多品类品牌,要求在统一的情况下体现不同,可能就需要不断调整和试错,耗时更长一些。
在civitai网站上,网友用Stable Diffusion训练的热门二次元人物模型
虽然当下的应用性有限,但从目前的发展速度来看,很难预测它未来的发展。目前AI的作用主要是替代一部分基础劳动力,比如基础的图片处理。而从消极角度来看,AI确实可能会造成一部分岗位的消失,有一些也可能会一直共存。
从反面看,这恰恰是AIGC解放基础劳动力的价值所在。设计师可以把更多时间和精力投入在需要理解人性的工作中,比如UI/UX设计中,设计师能洞察到用户的交互和使用习惯,从而形成更完整的设计逻辑。
我对AIGC的终极想象是,有一天它也许会把人类驱逐出互联网,重新回归医疗、法律这些更加底层和基础的行业。AI的学习能力很快,可能会把人们的审美阈值拉高,或者消磨人的创造力。假如一个艺术家创作出来的作品很早就有AI生成过了,那他的创造可能就没有价值和意义了。
利用AI工具生成的商品图
● 作为乙方,AI不能代替设计师理解和引导客户
● AI不能替代设计师完成最重要的概念设计环节,更多是辅助创作
● AI的工具属性强,在执行环节能替代一部分基础、重复的标准工作,但依赖于对工作流的熟悉和掌握
● AIGC浪潮下,精美不再稀缺,稀缺的是独特创意
这些分享真诚且带有思考,但以上一切基于一个核心假设:AI尚没有直接与客户对话的权力,这个权力仍握在设计师手中。在这个假设下,AI永远在服务设计师,并且显得有些吃力不讨好。可不要忘记,OpenAI完成大语言模型的快速社会化,依靠的就是新的人机交互体验——对话。
未来的AI只能作为工具而服务于人吗?当AI以拟人化形象出现,用户可以自定义他们喜欢的设计师风格,甚至是一些艺术大师的风格,再通过学习用户过往的设计数据了解用户喜好,假以时日,AI Designer不能成为新一代的设计师吗?
毕竟,AI已经拥有了直接与客户对话的能力,大模型也依然在不断进步,它需要的更多是一种可能。更何况,它会是最勤劳且好脾气的乙方。
没人知道未来会发生什么,但作为一家充满好奇心的投资厂牌,我们希望能时刻保持谦卑与自省,在不断发问中进行思考,也许能获得不一样的答案。如果你对AIGC也有一些观察和思考,不妨留言聊聊。也欢迎推荐与AIGC相关的创业项目,和我们一起探索更富有想象力的未来。
本文来自微信公众号“Kindergarten Green”(ID:KindergartenGreen),作者:Kindergarten Green,36氪经授权发布。