X. 詹,Z.Liu,L.Lin和C.C. Loy
语言处理任务。 Loy
等人
[
15]扩展QBC以通过联合探索-利用主动学习
的框架来发现未知类。这些以前的作品利用委员会的分歧进行无门槛
选择。相反,我们利用委员会的共识,并将其扩展到半监督学习场
景。
3
方法
我们首先提供一个概述所提出的方法。我们的方法包括三个阶段:
1)
监督初始化-给定一小部分标记数据,我们以完全监督的方式分别
训练基础模型和委员会成员。更准确地说,基地模型
B
和所有
N
委员
{C
i
|i = 1
,
2
,
. . .
,
N}使用标记数据D1学习从图像空间到特征空
间Z
的映射
。 对于基本模型,这个过程可以表示为映射:
F
B
:D
l
<$$>
→
Z,对于委员会成员:F
C
i
:D
l
<$$> →
Z,i = 1
,
2
,
. . .
、
N.
2)
共识驱动的传播- CDP应用于未标记的数据,以选择有价值的样本
和推测其上的标签框架如图1所示我们使用来自第一阶段的训练模型
来提取深度特征
以用于
a处和
c处的非线性神经网络组
。
“
committee“是
指地理位置的差异
。
该
“
改进”
或“网络”任务被
设计为聚集k-NN图
的
局部结构中
的改进意见以选择有意义的
与选定的对,共识驱动的
图上创建的未标记的数据和节点被分配与伪标签通过我们的标签传播
算法。
3)
使用标记和未标记数据进行联合训练-最后,我们在多任务学习
框架中使用标记数据重新训练基础模型,使用伪标签重新训练未
标记数据
3.1
共识驱动传播
在本节中,我们正式介绍CDP的详细步骤。
i.
构建k-NN
图。
对于基础模型和所有委员会成员,我们向他们提供
未标记的数据
Du
作为
输入,并提取深度
特征
FB
(
Du
)和
F
C
i
(
Du
)。与
功能,我们找到
k
最近的
邻居为每个样本在
D
u
的余弦相似。 这导致了
不同版本的k-NN图,基本模型为G B,每个委员会成员为G C i,总共
N
+
1个图。图中的节点是未标记数据的示例。k-NN网格中的每个边
都是一个对,并且来自该对的所有对都是用于后续选择
的候选,如图
12
所示
。1.一、
ii.
收集委员会的意见。委员会成员通过不同的映射函数{F C i}
将未标记的数据映射到特征空间|i = 1
,
2
,
. . .
,
N}。 假设由基
础模型创建的图中的两个任意连接的节点n
0
和n
1
,并且它们由深度
特征{F
C
i
(n
0
)}的不同版本表示|i = 1
,
2
,
. . .
,
N}和{F
C
i
(n
-1
)
|i = 1
,
2
,
. . .
,
N}。commit- tee提供以下因素: