当前位置:首页|资讯

半监督学习的低密度分离理论

作者:计算学徒发布时间:2024-09-12

在做机器学习时,通常可以收集到大量数据,但并不是所有的数据都有标签。如果机器学习模型同时针对有标签和无标签的数据进行学习,就是半监督学习(Semi-supervised learning)。

如何有效利用无标签的数据进行学习有多种不同的理论,其中一种理论称为低密度分离(Low density separation)。

低密度分离理论的核心逻辑是“非黑即白”。具体来讲,对于一个无标签的数据,低密度分离理论倾向于很“武断”的将其设置为一个特定的标签,而不是根据概率分布将其设置为所有可能的标签。

以一个图片分类的机器学习模型为例。这个机器学习模型的输入为一张图片,输出的结果为二分类,分类1表示输入图片中有狗,分类2表示输入图片中没有狗。现在有一些有标签的数据,可以用这些有标签的数据训练一个模型出来,记为基础模型。

使用基础模型可以预测无标签数据的类别,比如,无标签数据1输入进模型,模型可以预测其为类别1和类别2的概率。使用低密度分离理论,将为无标签数据根据其类别概率打一个确定的标签,也就是类别概率最高的那个标签。在给无标签数据打标签之后就可以将这个数据作为有标签数据加入到训练集中。

当然,我们希望仅使用有标签数据训练出来的基础模型在预测无标签数据时的输出结果更具有确定性,也就是输出结果的概率分布具有最大的确定性(熵最小)。

基于低密度分离理论可以对模型的损失函数(Loss)加上一个由无标签数据的预测概率熵的正则项,即:

分别为有标签和无标签数据,为有标签数据的标签,为无标签数据作为输入时的模型输出结果。

正则项的存在使得当损失函数最小化时,无标签数据的预测结果的概率分布的熵也会在某种程度上最小化,即使用有标签数据训练出来的模型对无标签数据的预测结果具有最大的确定性。

(完)


Copyright © 2024 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1