弱监督文本分类
实验题目
设计并实现一个弱监督文本分类模型。
- 我们只有类的名称,类的关键词和大量无标签的文本。
- 在进阶任务中,我们删去了一些类的名称和关键词,我们需要实现识别未知类别。
实验内容
算法原理
弱监督学习
在有监督学习中,模型从带标签的数据中进行学习;在无监督学习中,模型从不带标签的数据中学习。弱监督学习可以说是结合了这两者。在弱监督学习中,我们拥有极少的带标签数据(或者是关于数据的一些先验知识)与较多的无标签数据,模型需要从这些数据中进行学习。
弱监督学习的优点是,只需要较少的标签数据,降低了人工标注的成本和工作量,并在标注数据有限的情况下仍能获得良好的学习性能。但是,这也会产生一些难以避免的问题,例如准确率较低,模型过拟合等。
本次实验就是一个弱监督学习的任务。在本次实验中,我们拥有的数据是类的名称和对应的关键词,以及大量无标签的文本数据,要求我们实现一个弱监督文本分类器。
自训练算法
自训练算法是一种半监督学习的方法,用于处理只有部分标注数据的情况。在自训练算法中,初始的标注数据集作为训练集训练一个初始模型,然后该模型用于对未标注数据进行预测,并将预测结果作为伪标签加入到训练集中,形成一个更大的训练集。接下来,使用这个扩充后的训练集集重新训练模型,重复这个过程多次。
自训练算法的基本步骤如下:
- 使用初始标注数据集训练一个初始模型。
- 使用该模型对未标注数据进行预测,并将预测结果作为伪标签。
- 将已标注数据集和置信度较高的加入的伪标签组合成一个训练集。
- 使用扩充后的训练集重新训练模型。
- 重复步骤2至4直到满足停止条件(例如达到最大迭代次数或模型性能收敛)。
自训练算法的关键在于如何选择哪些未标注数据的预测结果可以被可靠地加入到已标注数据集中。通常使用一定的置信度阈值来筛选预测结果,并且对于置信度较高的样本才进行标记扩充,以尽量减少伪标签引入的噪声。
如何从关键词得到“伪标签”
笔者提出了三种方案:
如果文本中存在某一类别的关键词,就将该文本归为此类;
统计文本中某一类别的关键词数量,将其预测为关键词数量最多的类,在方案 1 的基础上做了一些补充;
将关键词作为初始的训练集,直接用于训练分类器,利用该分类器对所有文本分类,将置信度较高样本的作为下一次训练的训练集。
1 与 2 都不涉及分类模型,只能标注部分词,而 3 是对所有的数据都进行了标注,但方案 3 对那些没有关键词存在的文本分类效果也是很差的。
如何选取分类器
我们尝试了不同分类器在本次任务中的分类效果。在传统的机器学习方法中,我们选择了逻辑回归;在深度学习的方法中,我们选择了 CNN。但是由于 CNN 结构复杂,参数相对较多,训练时间相对较长,我在 CNN 上花的时间相对较少。
如何扩展训练集
根据课件中介绍的算法,我们需要在“伪标签”数据中选择 M 个置信度最高的样本加入训练集。然而在实际情况中,这个 M 是不好取的。
- M 过小,会导致模型的泛化性不好,模型容易出现过拟合。
- M 过大,会导致每次选取的“伪标签”数据中,预测错误的数据增加,训练集的质量下降。
- 即使 M 在训练中的某个时刻取得了一个合适的值,它可能会随着训练集的增大而变得不合适。举例来说,向 10 个数据中加入 1 个数据,与向 1000 个数据中加入 1 个数据,所带来的影响肯定是不同的。
于是笔者考虑将 M 取为一个等差数列,在训练过程中不断增大 M 的值。
我们也可以换一种方法,用置信度作为数据是否加入训练集的指标。这时我们需要确定一个阈值,将所有预测置信度大于该阈值的数据加入到训练集。同样地,根据我们上面的讨论,这个阈值也是要随着训练不断增大的。
整个自训练过程的框架如下:
评价指标
我们介绍几种在分类任务中可以使用的评价指标。
混淆矩阵
在二分类问题中,我们将分类结果分为 4 类:
- TP(真正例):模型正确地将正例样本分类为正例。
- TN(真负例):模型正确地将反例样本分类为负例。
- FP(假正例):模型错误地将反例样本分类为正例。
- FN(假负例):模型错误地将正例样本分类为负例。
如下:
预测为正例 | 预测为负例 | |
---|---|---|
实际为正例 | TP | FN |
实际为负例 | FP | TN |
多分类问题的混淆矩阵是类似的,\(Mat[i,j]\) 上的元素表示实际属于类别 i 的样本被预测为 j 的数量。可以发现矩阵对角线上的元素就表示了模型正确分类的样本数。
准确率
准确率就是模型分类正确的比例。在混淆矩阵中,其等于对角线元素之和/所有元素之和。在二分类任务中: \[ Acc=\dfrac{TP+TN}{TP+FN+FP+TN} \]
精确率
在二分类任务中,精确率指的是模型预测为正的样本中实际为正的比例。 \[ P=\dfrac{TP}{TP+FP} \]
召回率
在二分类任务中,召回率指的是实际为正的样本中被预测为正的比例。 \[ R=\dfrac{TP}{TP+FN} \]
f1_score
在二分类任务中,f1_score 是精确率与召回率的调和平均。 \[ F_1=2\dfrac{P\times R}{P+R} \] 对于多分类任务,我们可以使用 macro-f1。对于每个类别,分别计算该类别的 F1 分数,随后求平均得到 macro-f1。
未知类型识别
在进阶任务中,我们删去了一些类的名称和关键词,需要实现识别未知类别。
课件上给出了三种方法:
- 基于置信度,将置信度小于某个值的预测为未知类别
- 若预测到每个类的概率类似,预测为未知类别
- 基于熵拒绝
这里我们在实现时,使用的是基于置信度的拒绝方法。
下面是一些关于文本分类与分类器的原理。
这一部分很多都是复用以前的报告。
文本向量
首先我们需要将文本转换为向量,作为分类器的输入。
Bag-of-Words
Bag-of-Words 考虑单词出现的次数,向量的每一维度的值表示该维度表示的单词在文档中出现的次数。
TF-IDF
我们用 \(TF\) 表示词频归一化的概率,\(IDF\) 表示逆向文档频率。\(IDF\) 的计算公式如下: \[ IDF_{x_i}=\log\dfrac{N}{1+n(x_i)} \] 其中 \(N\) 为文档总数,\(n(x_i)\) 为出现了单词 \(x_i\) 的文档总数。
于是我们的 \(TFIDF=TF\times IDF\)。
逻辑回归
在二元逻辑回归中,我们使用 sigmoid 函数: \[ y = \dfrac{1}{1+e^{-z}} \] 对 \(z=\mathbf{W}^\mathrm T\mathbf{x}\)进行激活。这样保证了输出 \(y\in(0,1)\),我们就可以将 \(y\) 看作一个概率值。
在多元逻辑回归中,我们使用 softmax 函数: \[ y(z_i)=\dfrac{e^{z_i}}{\sum_{k=1}^{n}e^{z_k}} \] 对 \(z_i=\mathbf{W}_i^\mathrm{T}\mathbf{x}\) 进行激活。这样我们就将一个类的线性的输出转换为了其被分为这个类的概率。随后我们可以选择概率最大的类别作为预测结果。
在训练过程中,我们需要使用极大似然估计法,用负的对数似然函数作为损失函数,随后使用优化算法(如梯度下降)学习参数。
正则化
L1 正则化和 L2 正则化是逻辑回归中常用的两种正则化方法。L1 正则化通过在损失函数中增加 L1 范数来惩罚模型的系数 \(\mathbf{W}\),而 L2 正则化选择在损失函数中增加 L2 范数。 \[ L_1=\sum|w_i|\quad L_2=\sum w_i^2 \] 这样能够在一定程度上减少过拟合现象。
CNN
一个最简单的卷积神经网络通常包含以下几层:
- 卷积层
- ReLU 层
- 池化层
- 全连接层
卷积
在 CNN 中,我们的卷积运算定义为: \[ y_{i,j}=\sum_{u=1}^m\sum_{v=1}^nw_{u,v}\times x_{i-u+1,j-v+1} \] 通过这样的卷积运算,我们可以将一个高维度的矩阵映射为一个低维度的矩阵,从而显著减少神经网络中的参数数量。
ReLU
ReLU 函数定义如下: \[ f(x)=\max(0,x) \] ReLU 函数在卷积神经网络中是一种激活函数。该函数的主要优点是收敛速度快,易于求梯度。
池化
池化操作用于对输入特征进行下采样,进一步筛选特征,减少参数数量,增强模型的鲁棒性。常用的池化操作是最大池化,该操作是在特定区域中取出特征图中的最大值作为输出,一般取池化区域为 \(2\times 2\),步长为 \(2\)。
全连接
全连接层是一个线性层,通常出现在卷积神经网络的尾部,连接方式与其在传统的神经网络中一致,与上一层的所有神经元相连,用来综合前面提取的特征,输出分类或回归的结果。
流程图如下:
优化器
通常我们称更新参数的算法为优化器。
在这里我们使用的优化器主要是 SGD 与 Adam。
SGD 是随机梯度下降法。我们记需要优化的参数为 \(w\),损失函数为 \(L\),学习率为 \(\eta\) 则 SGD 算法更新参数的公式为: \[ w=w-\eta\dfrac{\partial L}{\partial w} \] 该算法计算简单,易于实现,但是容易陷入局部最优解。
Adam 是自适应矩估计法。在 Adam 中,我们引入动量的概念。首先是一阶动量: \[ m_t=\beta_1m_{t-1}+(1-\beta_1)g_t \] 其中 \(g_t=\dfrac{\partial L}{\partial w}\)。同样还有二阶动量: \[ v_t=\beta_2v_{t-1}+(1-\beta_2)g_t^2 \] 我们对 \(m_t\) 与 \(v_t\) 进行偏差校正: \[ \begin{aligned} \hat{m_t}&=\dfrac{m_t}{1-\beta_1^t}\\\\ \hat{v_t}&=\dfrac{v_t}{1-\beta_2^t} \end{aligned} \]
于是 Adam 更新参数的公式如下: \[ w=w-\eta\dfrac{\hat {m_t}}{\sqrt{\hat {v_t}}+\epsilon} \]
\(m_t\) 记录了梯度的平均,可以使算法根据历史梯度进行参数更新;\(v_t\) 记录了梯度的平方平均,实质上是在考虑过滤了震荡后的历史梯度。因此 Adam 算法实现了根据历史梯度的震荡以及过滤了震荡后的历史梯度来对变量进行更新。
损失函数
损失函数度量了模型预测值与真是值的差距。
交叉熵函数:\(L(p,q)=-\sum_xp(x)\log q(x)\)
均方误差损失函数:\(MSE(y,\hat y)=\dfrac{1}{n}\sum_{i=1}^n(y_i-\hat y_i)^2\)
距离损失函数,通过两个向量之间的距离来描述损失。这里的距离可以取多种距离,例如曼哈顿距离、欧氏距离、余弦相似度。
我们本次建立的 CNN 如下:
输入经过一个词嵌入层后输入卷积层,分别进行具有不同卷积核大小的卷积操作,得到的输出经过最大池化层得到输出,进入 dropout 层,通过一个线性层将输入映射为对应的分类。如果为了获取概率,我们可以对输出层做 softmax。设网络的第 i 个输出为 \(W_i\),softmax 操作是指: \[ p(y=i)=\dfrac{e^{W_i}}{\sum_{k=1}^N e^{W_k}} \] 这样我们实现了归一化,并得到了样本被分为某一类的概率。
关键代码展示
使用逻辑回归,进行自训练算法的代码如下:
1 | for i in range(maxiter): |
我们每次迭代时,都取上一次迭代得到的分类器对所有的文本进行预测,取其中置信度最高的一些加入训练集,同时我们也需要保证训练集中的数据不会有重复的,因此我们开一个列表来标记所有放入训练集中的文本。当所有的文本都进入训练集时,我们结束训练。
使用 CNN 的逻辑也是差不多的,但是我们需要使用不同的函数:
1 | def select(model, dataloader, device, ts, ls, labeled, trLabels): |
创新点
- 在从关键词得到文本的伪标签时,尝试将关键词作为文本向量初始化分类器,对所有文本进行伪标记,取出其中置信度较高的作为初始的训练集。但最后从结果来看,这个方法与我们提到的其他方案在效果上区别不大。
- 在扩展训练集时,尝试在训练集增大的同时去增大加入训练集的样本个数,在一定程度上缓解了模型准确率随着自训练的进行而下降的现象。
实验结果与展示
自训练算法
在这里,我们主要调整的参数就是以上代码中的 M 和 K,也就是等差数列的首项与公差。
首先可以观察训练集。在 20ns 中,我们要实现的是一个 20 分类任务,训练集中共有 18314 个文本,文本的分布是不均匀的。而在 agnews 中,我们需要实现 4 分类任务,训练集中共有 40000 个文本,文本的分布是均匀的。
第一步,我们需要生成伪标签。使用之前提到的方案 2,对 20ns 标记结果如下:
对 agnews 标记结果如下:
我们尝试方案三,并只看在方案二中获得了伪标签的那些文本(也就是包含关键词的文本),混淆矩阵如下:
20ns:
agnews:
如果将所有文本都考虑进来,几乎所有不含关键词的文本都会被预测为某一类,这是由 Bag-of-Words/Tfidf 向量的特性决定的。对所有文本的结果如下:
20ns:
agnews:
我们还可以从生成伪标签这一步中看出,在 20ns 中包含关键词的文本是较多的,在 agnews 中包含关键词的文本是较少的。再加上两个训练集的大小不同,我们扩展训练集时当然不能对两个训练集一视同仁,而是要分别寻找合适的扩展个数与次数。
使用逻辑回归:
- 我们首先生成伪标签,具体做法是采用之前提到的方案三,也就是直接用关键词作为词向量训练分类器,然后用这个分类器去对所有的文本进行标记,在其中取出 M 个置信度较高的。
- 对 20ns,取 M = 6000,K = 6000。
- 对 agnews,取 M = 4500,K = 5500。
- Bag-of-Words模型,在20ns上准确率为 0.4866,f1_score为 0.4759(M = 4500, K = 4000);在 agnews 上准确率为 0.7218,f1_score为 0.7126。
- Tfidf模型,在20ns上准确率为 0.5717,f1_score为0.5411(M = 6000, K = 6000);在agnews上准确率为0.7250,f1_score为0.6965。
我们使用 Tfidf 时的混淆矩阵分别如下:
20ns:
agnews:
下面我们对结果进行分析:
模型在每个类上的准确率相当不均衡。以 agnews 为例,其在第 2 类上只有 26.13% 的准确率,而其他三类都达到了 80% 以上。然而在使用 Bag-of-Words 时,这个现象相对没有那么明显,如下图:
在 20 分类任务中,这种不均衡带来对准确率的影响时要比 4 分类任务要小的。
我们在初始利用关键词生成伪标签时,准确率分别为 61.20% 与 79.06%。整体上来看,模型最终的准确率接近这两个值,可以说明我们自训练过程的合理性。
我们期望在自训练过程中,准确率是能够逐步上升的,想要做到这一点就需要精确控制我们每次迭代加入训练集的数据个数。即使经过了调参,模型在最后一步增加训练集时还是出现了准确率下降的现象。笔者对此的解释是,我们终止的条件是所有数据都被加入了训练集,最后加入的数据可能预测错误的样本数相对较多。但在此之前,我们的准确率都是稳步上升的。
使用 CNN:
- 在 20ns 上准确率为 48.29%
- 在 agnews 上准确率为 69.95%
似乎 CNN 在这个任务中的表现还不如更为简单的逻辑回归。但这可能是因为我还没有花很多的时间去调参,甚至有可能是因为迭代的次数不够。
未知类别识别
这里我们使用的策略是基于置信度的拒绝。我们还是按照之前的自训练方法进行训练,将预测置信度低于某个阈值的文本预测为未知类别。
首先看这个方法在 agnews 上的结果。我们迭代 4 次停止训练,得到的准确率为 0.5908,f1_score 为 0.5816。如果我们不进行未知类别识别,准确率为 0.5711,未知类型识别带来了接近 2% 的提升。
在 20ns 上,准确率为 0.4921,f1_score 为 0.4986。如果不进行未知类别识别,准确率为 0.4838。
观察混淆矩阵,未知类别的召回率和精确率都不是很高,另外在前面提到的准确率不均衡的问题也仍然存在。总体来说,在未知类型识别任务上,此模型表现不是很好。我有一些继续优化模型的想法,但由于时间关系没有去尝试:
- 使用复杂度更高的模型,如 CNN。
- 在将数据加入训练集时,考虑将某些预测置信度低的样本标记为未知类别,一并加入训练集。
- 进一步调整阈值。如果阈值过小,会导致未知类别预测的召回率过低;如果阈值过大,会导致未知类别的精确率过低。找到一个合适的阈值是这个任务中比较困难的一个环节。