用设计师能理解的语言
来解释AIGC中的技术名词
“AIGC 属于跨学科的产物,涉及领域众多,包括高等数学、统计学、计算机图形图像学、机器学习等各个领域。AIGC 设计软件的界面上往往会涉及到许多这些领域的技术术语。要想搞清楚它们背后的知识体系需要展开的知识树体量十分庞大繁杂。术业有专攻,我们无法全面俱到地在每一个领域都做到精通,但又需要了解到一定的程度,以便更好地使用 AIGC 的相关软件。所以,我们将尽量以设计行业从业者能理解的语言来解释那些经常遇到无法绕开的技术术语。
机器学习的四种方式
监督学习、无监督学习
半监督学习、强化学习
监督学习
监督学习(Supervised Learning 或 Supervised Machine Learning ),是机器学习和人工智能中的一种算法学习训练方式。它的定义是使用标记数据集来训练算法,以便训练后的算法可以对数据进行分类或准确预测结果。
在监督学习中,每个样本数据都被正确地标记过。算法模型在训练过程中,被一系列 “监督”误差的程序、回馈、校正模型,以便达到在输入给模型为标记输入数据时,输出则十分接近标记的输出数据,即适当的拟合。因此得名为“监督”学习。
监督学习的学习阶段,
让算法学习大量的猫脸图片,
并明白这就是“CATS”
监督学习后的使用阶段,
输入给算法其他图片时,
算法会分辨出哪些是“CATS”
哪些不是
监督学习可以广泛应用于图像识别、自然语言处理、语音识别等领域。监督式学习可分为两类,“分类”和“回归”:
分类,Classification,使用一种算法来准确地将测试数据分配到特定的类别中,例如将垃圾邮件从你的收件箱中被识别出来并分类转移到一个单独的文件夹中。线性分类器、支持向量机、决策树和随机森林都是常用的分类算法。
回归,Regression,是另一种监督式学习方法,它使用一种算法来理解因变量和自变量之间的关系。回归模型有助于根据不同的数据点来预测数值,例如某一业务的销售收入预测。
无监督学习
无监督学习(Unsupervised Learning),无监督学习用算法来分析并聚类未标记的数据集,以便发现数据中隐藏的模式和规律,而不需要人工干预(因此,被称为“无监督的”学习)。
无监督学习的输入与产出。
虽然没有被灌输哪些图片是猫的哪些是狗
但最终算法会把猫与狗分成两类
无监督学习模型用于三个主要任务: “聚类”、“关联”和“降维”:
聚类,Clustering,是一种数据挖掘技术,用于根据未标记数据的相似性或差异性对它们进行分类分组。这个技术适用于细分市场的划分、图像压缩等领域。
关联,Association,使用不同的规则来查找给定数据集中变量之间的关系。这些方法经常用于“购物车”分析和推荐引擎,类似于“购买此商品的客户也购买了…”这种电商中的推荐算法。
降维,Dimensionality Reduction,当特定数据集中的特征(或维度)太多时,它在保持数据完整性的同时,将数据输入的数量(维度)减少到可管理可操作的大小。要知道有时候数据维度可能达到几千上万或更大的规模,这被称为“维度爆炸”。在这种情况下,我们首先要对数据维度进行筛选去除干扰的无重要意义的维度,即降维。因此,这种技术通常用于数据的预处理阶段,例如用自编码器把图片数据中的噪点去除,以提高图像质量。
其实无监督学习仍然需要人工干预来验证它的输出是否合理。比如数据分析人员需要验证电商推荐引擎将婴儿服装与尿不湿、苹果酱和吸管杯分组是否有实际意义。反过来,如果有一天,算法把两个我们人类看起来毫不相关的两种商品分类到一起,那我们或许会发现某种人类的潜在需求,我们需要认真对待这种分类,但这种潜在需求是否真的存在,我们尚且不知,仍需要市场去检验,但这至少启发了我们。
监督学习与无监督学习的本质区别就在于用来训练的数据是否已经被标注。这也导致了监督学习与无监督学习各有利弊。监督学习在处理大量数据的问题时比较吃力,但是一旦学习到位,其结果将非常准确和值得信赖。而无监督学习可以很轻松地同时处理大量的数据,可是是学习出来的结果不具备透明度,即无法解释。但也因此导致无监督学习可以发掘出许多以前未曾被人类注意的新规律。
监督学习与无监督学习各有各的优缺点,如何将两者的优点结合并规避缺点呢,于是半监督学习的模式诞生了。
半监督学习
半监督学习(Semi-supervised Learning)或可称为混合学习( Hybrid Learning),可以说是两全其美的方式。在我们拥有相对较少的标记数据和大量未标记数据的情况下,半监督学习结合了监督学习和无监督学习的优势,于是可以发挥很好的作用。
半监督学习只标注了少量的训练数据,
而剩下大部分训练数据未标注
要知道在海量数据面前,手动标记数据的成本过于高昂且繁琐,而未标记的数据很多、易于获取,且每日都会产生大量的数据。因此,我们可以只标记数据集中的一部分,而不是标记整个数据集,然后用半监督学习方式来学习。
强化学习
强化学习(Reinforcement Learning)是一种机器学习技术,它基于反馈的学习方法,对算法执行的正确和不正确行为分别进行奖励和惩罚的制度,目的是使算法获得最大的累积奖励,从而学会在特定环境下做出最佳决策。“强化”一词来自于心理学,心理学中的“强化”就是通过提供一种刺激手段来建立或者鼓励一种行为模式。这种“强化”模式很明显有两种:
积极强化,是指在预期行为呈现后,通过给予激励刺激以增加进一步导致积极反应。
负面强化,通过提供适当的刺激来减少出现负面(不希望的)反应的可能性,从而纠正不希望出现的行为。
想象一下,当你第一次玩马里奥,却没有人指导你怎么玩,你只能自己在游戏中探索环境和重要的NPC,并随时做好心理准备面对行动的后果。一个错误的举动会导致失去一条“命”,一个正确的跳跃可以把我们带到一个更安全的地方并奖励金币!因此,伴随着奖励和惩罚的探索,牵动着你的大量尝试和错误 ,最终不断地优化你的行动,让你成为一个马里奥游戏的高手。这就是“强化”训练!
游戏中的奖励惩罚和探索尝试
这里有几个“强化”学习的要素需要明确:
代理人,Agent:一个我们试图学习的实体(即玩家在游戏中所使用的角色);
环境,Environment:代理人所处的环境(游戏所设置的游戏世界设定);
状态,State:代理人在环境中获得自己当前状态的各种信息;
行动,Actions:代理人在环境中所执行的与环境交互的各种动作(马里奥游戏中的行走、跑步、跳跃等等);
奖励,Reward:代理人从环境中获得的行动反馈(在马里奥的游戏里,即为正确的行动增加的积分/硬币,是一个积极的奖励。因落入陷阱或被怪物吃掉而丢失积分,或损失一条“命”,则是一个消极的奖励);
策略,Policy:根据代理人当前的状态决定一个合适的决策,以最大化地在未来某个时间段内获得正面报酬,最小化获得负面的惩罚;
价值函数, Value function:决定什么才是对代理人是有益的。
马里奥成为玩家在游戏中的代理人Agent
因此,强化学习完全可以被理解为一种游戏方式的学习机制。让机器算法学习做任务,做得好就有奖励做得不好就有惩罚。当然,奖励和惩罚机制本身也是一种算法,这些算法被先天性地植入到机器学习算法的最底层设计中,让其最本能地目标首要考虑就是如何去赢得奖励且规避惩罚。然后,给机器算法一个最终的目标即可!
想想生为人类的我们,总是自认为有独立的思考和判断,灵魂是自由的,拥有自由的意识。但实际上确实是这样吗?是一种怎样的机制让我们一生都去追求那些心驰神往的美好东西,又是什么让我们觉得恐惧和厌恶?这美好与恐惧真的存在吗?我们真的有自由意识吗?我们如何确定自己不是被训练出来的算法?
AIGC基础知识
专业名词解析
及
Stable Diffusion从入门到精通到实战
专栏内容简介
从AIGC的基础概念介绍开始,以“喂饭级”的语言,逐一详细介绍 Stable Diffusion WebUI 的各个参数与设置,配合详细的图文素材,并用大量实战案例来解读 Stable Diffusion 在目前各设计领域中的应用。
通过这个专栏,你会得到
AIGC的基础概念、扎实的基础知识;
AIGC图像设计创作领域目前最重要的阵地——Stable Diffusion 的相关基础知识、专业术语;
Stable Diffusion WebUI 软件中每一个参数详细功能介绍,原理,对应AI生图的结果;
Stable Diffusion WebUI 的具体使用方法和技巧,各种模型介绍、周边配套插件与软件的使用方法和技巧;
Stable Diffusion WebUI 在实际设计产业中的应用、实战解析;
Stable Diffusion 的提示词库、参数库等;
购买全套课程的学员,享受半年免费 SD-WebUI(高性能GPU)线上使用权限,使用期限内无限出图、高速出图。
订阅须知
《Stable Diffusion从入门到精通到实战》为图文/视频专栏,不少于 20 期,每周五 21:00 点更新;
20 期更新结束后,专栏内容会根据 AIGC 领域的最新动态、Stable Diffusion 的不断迭代而产生新内容,这些与时俱进的新内容无需额外付费;
添加一对一辅导员,及时收到通知更新内容,一对一解答疑难问题;
本专栏为虚拟内容服务,购买成功后不支持退款,请理解。
加辅导员微信咨询
了解更详细课程信息
一对一解答疑难问题
Stable Diffusion WebUI
从入门到精通再到实战
完全喂饭级,细致到每一个参数
“设计小白”都能看懂
有设计基础的朋友更会得到启发
抓住人工智能工业革命带来的新机遇
辅导员微信:cyxq2019
↑ 长按上方二维码图 ↑
在弹出菜单中选择“打开对方的名片”
加辅导员微信,咨询课程