提出了一种标注模型和一种标注过程
标注模型用于提高低频率标签的标注效果,提出了一种BSAE用于强化低频标签的训练,RBSAE算法用于强化子BSAE模型的分组训练,以提高稳定性。这种策略保证了模型处理不均衡数据的能量。
对于标注过程,提出ADA框架。对未知图像构造一个局部平衡的数据集,区分图像的高低频属性以决定对应的标注过程。LDE-SP算法用于标注低频图像,RBSAE 算法用于标注高频图像。该策略改善了整体图像标注效果,保证了标注过程对不均衡数据的处理能力。
对SAE提出了两种优化方式,线性优化和非线性优化。
论文: Data equilibrium based automatic image annotation by fusing deep model and semantic propagation
intro
早期的图像标注研究主要使用概率和统计方法,
‘word co-occurrence’ 模型建立每个图像单元类型和对应关键字之间的概率分布
translation 模型聚类图像区域的划分,构造视觉关键字词汇。相关模型假设对应于相同关键字的视觉特征是一致的。图像可以通过建立视觉概率分布和语义关键字的链接来进行标注。问题在于难以在实际环境中建立准确的频率模型。
近几年的图像标注研究主要聚焦于基于机器学习的标注和基于图的的标注。矩阵matrix和张量tensor的分解理论也用于图像标注问题。
现存方法的两个问题:
- 复杂度高且效率低。基于KNN的方法不仅需要计算训练集中每对图像的相似度,还需要计算训练即和测试集中图片的相似度,基于图模型的方法则需要计算复杂的图结构,新增节点时需要许多遍历操作。
- 在不平衡数据上,低频率图像的标注效果差
对于问题1,本文提出使用SAE训练多标签分类,当分类器训练完成后能够快速对未知图像进行标注。
对于问题2,本文提出标注模型(annotation model)和标注方法(annotation process)来解决。
DBN 和 SAE 均使用逐层的预训练和微调。其中DBN使用概率和统计方法进行预训练,且优化的限制条件很多;SAE网络关注特征之间的近似表达式,能够通过调整模型简单的用于特定环境,来将复杂输入表示为理想的输出。
SAE 优化理论:
- NL-SAE,通过构造高阶损失函数,使用微分计算最优值。(该方法可以通过控制训练过程的迭代次数来防止过拟合;然而卷积速度慢,且不适合中小型规模数据集)
- L-SAE,构造一般的线性系统,通过逼近线性方程组的解来获得最优值(可以用最大估计法直接获得更精确的解,无需迭代,可快速训练中小型数据集;然而由于计算过程需要基于样本数量构造矩阵,不适合大型数据集)
Tradition auto-encoder
将图像标注任务视为多标签分类任务。使用图像特征作为模型输入,用图像标签作为监督信息。首先使用AE预逐层训练网络权重,然后使用权重初始化深度神经网络,最后训练深度模型以最小化训练误差。
problem definition
记 X={x1,x2..xN},N∈Rd 为N个训练图像, Y={y1,y2..yM} 为M种可能的关键词。将图像标注问题表达为 P={(x1,y1),(x2,y2)…(xN,yN)},Yi∈Y。
本文记 Yi∈{0,1}M 为 M 维向量,Yji=1 表示第 i 张图被关键字 yj 标注。为0表示未被该关键字标注。
NL-SAE
AE 由编码 fθ 和解码 gθ‘ 两部分组成,前者将输入向量 x 转换为隐含的表示 h,后者将 h 重构为输入空间上的向量 x′,并且重构过程由损失函数 L(x,x′) 进行优化。
fθ(x)=σ(W⋅x+b)σ(x)=11+e−x其中 θ={W,b} 为矩阵权重,且 W′=Wt (正交阵,W′⋅WT=E 且矩阵每列长为1)。b 是偏向量,σ 为 Sigmoid 激活函数。
gθ′={σ(W′⋅h+b′)x∈[0,1]W′⋅h+b′x∈R其中 σ′={W′,b′}
AE 用于学习估计值 使得 x′=gθ′(fθ(x)) 尽可能于 x 相近。本文定义损失函数 L(x,x′)=(x−x′)2。通过最小化损失函数学习模型
θ⋆,θ′star=argminθ,θ⋆1NL∑i=1(xi,gθ′(fθ(xi))考虑用带有 L个隐藏层的 NL-SAE 做图像标注。定义 l∈[1,..,L] 为隐藏层的下标索引。 hl 为第l层的输出向量,( l0=x ),Wl 和 bl 分别为 l 层的权重和偏差。前向反馈如下
hl+1=σ(Wl+1hl+bl+1)l∈{0,...,L−1}使用BP算法 BP algorithm 训练整个模型
θ⋆=argminθN∑i=1L(Fθ(xi),Yi)其中 Fθ(x)=σθL(…(σθ1(x))) 是 NL-AE 函数的复合,且 θl 是模型参数 {Wl,bl},l∈{1,..L},损失函数取 L(x,y)=(x−y)2
L-SAE
多层极限学习机(multi-layer extreme learning machine)通过逐层叠加线性 AE 来构造多层神经网络。给定 N 个训练样本 {(x1,Y1),..(XN,YN)} 和隐藏层的神经元个数 ˜N 。EML 可以通过如下公式解学习问题
HB=T其中
H=[g(w1⋅x1+b1)⋯g(w˜N⋅x1+b˜N)⋮⋱⋮g(w1⋅xN+b1)⋯g(w˜N⋅xN+b˜N)]NטN,B=[BT1⋮BT˜N]˜N×M,T=[YT1⋮YT˜N]˜N×M,其中 xi=[xi1,⋯XiD]T 是第 i 个样本,wi=[wi1,⋯WiD]T 是连接第 i 个隐藏神经和输入神经的权重向量, bi 是第 i 个隐藏神经的变差。Bi=[Bi1,⋯BiM] 是连接第 i 个神经和输出精神的权重,Yi=[Yi1⋯YiM] 第 i 个样本的标签向量,g 是 Sigmoid 激活函数。使用如下公式计算B
B=H+T其中 H+ 是 H 的 Moore-Penrose广义逆矩阵 Moore-Penrose generalized inverse 。当 HTH 是非退化的时候,H+=(HTH)−1HT,当 HHT 是非退化时, H+=HT(HHT)−1
ELM 经过修后可以用于 非监督学习:将输入作为输出 Y=x,为隐藏节点选取正交随机权重和变差。正交参数可以提高ELM-AE的泛化性。
输出权重B的计算:
B=(IA+HTH)−1HTXorB=HT(IA+HHT)−1X其中 I 是单位矩阵, A 是用户指定参数,H=[h1,⋯hN] 是ELM-AE的隐藏层输出向量, X=[xi,⋯xN] 是输入和输出向量。
多层 ELM 的隐藏层权重使用线性 AE 初始化,第 l−i 层的输出和第 l 层的输出有如下关系
Hl=g((Bl)THl−1)Bl 是 第 l 层的权重,g 是 Sigmoid 函数。
Boosted auto-encoder
传统 SAE 整体效果不好的两个理由
- 数据不均衡。高频标签训练良好,低频标签训练不足,导致低频标签准确率远低于高频标签
- 简单的 SAE 模型具有很多参数。当参数变化,标注效果会改变,缺少健壮性,难以使用。
对此提出了 BSAE(NL-BSAE 和 L-BSAE)和 RBSAE(NL-RBSAE 和 L-RBSAE)
![[BAE]](/paper/image_annotation_by_deep_model_and_semantic_propagation/BAE.png)
[BAE]
NL-BSAE
ϕ(x) 判断样本 x 中低频率标签的数量是否小于阈值 k ,小于则对样本加入适当的噪声。
φ(i) 表示样本 x 的训练强度,若低频标签数量小于阈值 k,则增加样本的训练次数。
得到以下式子
θ⋆,θ′⋆=argminθ,θ′1NN∑i=1{1φ(xi)φ(xi)∑j=1L(ϕ(xi),gθ′(fθ(ϕ(xi))))}记 C=(c1,c2⋯cM) 为训练集 P 中所有关键词出现的次数,ci 对应关键词 yi,使用 Π=1M∑mj=1cj 表示所有关键词的评价出现次数。得到 YC,I=C∗Yi 表示训练集上每个关键词 Yji(j∈{1,..M}) 在第 i 个图像上出现的次数。使用Δi=Min(YjC,i) 表示在图像 xi 上具有最小出现次数的关键词。得到如下
φ(xi)={α⋅ΠΔi=α⋅1M∑Mj=1cjminj(YjC,i),Δi<=β⋅Π1,Others其中 α 和 β 是常数,后者用于检测检验是否需要增强训练,前者用于控制需要增强训练的样本的训练强度。
ϕ(xi)={χ⋅(1d∑dj=1xji)⋅Ran(⋅),Δi<=β⋅Πxi,Othersχ 是用于控制所添加噪声的强度的常数,d 是特征 xi 的维度,xji 是第 j 维度的值,Ran(⋅) 用于生成于 xi 相同维度的随机向量,随机向量的每个部分是标准高斯分布或0到1的均匀分布。
当权重训练好后,使用BP算法微调整个模型,而指定样本的训练在微调过程中加重,即
θ⋆=argminθN∑i=1φ(xi)∑j=1L(Fθ(ϕ(xi)),Yi)在 NL-BSAE 中,会增强包含低频标签的样本 xi 的训练,即隐式扩大了数据集中具有低频标签的图像。能够强化度低频关键词的标注准确率。
L-BSAE
对于线性BSAE,同样引入 ϕ(x) 和 φ(x) 的概念,然后有 ˜HB=˜T
H=[g(w1⋅ϕ(x1)+b1)⋯g(w˜N⋅ϕ(x1)+b˜N)⋮⋱⋮g(w1⋅ϕ(xN)+b1)⋯g(w˜N⋅ϕ(xN)+b˜N)](N∑j=1ϕ(xi))טN,B=[BT1⋮BT˜N]˜N×M,T=[YT1⋮YTφ(xi)⋮YTN⋮YTφ(xN)](N∑j=1φ(xi))×M,其中 ∑ni=1φ(xi) 是所有样本的训练总强度。然后有
B=(IA+˜HT˜H)−1˜HT˜XorB=˜HT(IA+˜H˜HT)−1˜X其中 ˜H=[h1,..hφ(x1),..hn,..hφ(xN)]1×(∑ni=1φ(xi)) 是 AE 隐藏层的输出,且 ˜X=[ϕ(xi),..ϕ(xN)] 是输入和输出向量。同样有
˜Hl=g((Bl)T˜Hl−1)![[RBSAE]](/paper/image_annotation_by_deep_model_and_semantic_propagation/RBSAE.png)
[RBSAE]
NL-RBSAE
BSAE 提高了低频关键词的标注精度,可是过于复杂,需要很多的参数。每个参数都会结果有很大影响,差的设置会使得整个模型效率低下。为此提出了RBSAE
- 获取训练集图像特征,按加噪方式对图像分组,每组分别对所有数据训练 BSAEtk 子 模型
- 计算 BSAEtk 子 模型的分类错误率,获得具有最小错误率的模型 BSAEt
- 根据错误率计算每组 BSAEt 的权重,按权重结合 BSAEt,得到加权 BSAE 模型
- 使用加权 BSAE 模型标注新输入的图片
- 生成预测分布 D,对 D 进行排序得到结果
根据加噪方式进行分组,每组对应特定的加噪方式。 每组中的子模型 NL−BSAEtk 根据隐藏层神经元的数量不同进行划分。t 代表第 t 种加噪方式,k 是第 k 个 NL-BSAE 模型的隐藏层神经元的数量(神经元数量为层数 x 每层的神经元个数)。
需要设置训练数据集的权重来计算每组中 NL−BSAEtk 分类错误率和每组中最优 NL−BSAEt 的权重。初始权重如下
W1=(w11,⋯w1i,⋯w1N),w1i=1N,i∈[1,..N]模型 NL−BSAEtk 的分类错误率为
etk=N∑i=1wti⋅Sgn(NL−BSAEtk(xi)≠Yi),Sgn(x)={1,x=ture0,x=false假设图像 xi 实际的标签集 Yi 包含 c 个关键词,使用 NL−BSAEtk 模型预测标签并且选择同样数量的标签组成预测标签集 $Y_i^。若Y_i\Neq Y_i^,则NL-BSAE_k^t(x_I) \Neq Y_i为ture,否则为false$
在每组中选择具有最小分类错误率 et 的子模型为 NL−BSAEt,其权重为
αt=λ⋅log1−etet其中 λ 提出取常数 0.5。
当第 t 组模型训练好后,更新训练集权重去获取下一组模型的权重
Wt+1={wt+1,1,⋯wt+1,i,⋯wt+1,N}wt+1,i=wti⋅e(−α⋅Yi⋅NL−BSAEt(xi))N∑j=1wti⋅e(−α⋅Yi⋅NL−BSAEt(xi)),i=1,2..N训练完所有组后,计算关键词预测分布
D=T∑t=1αt⋅NL−BSAEt(x)Problem of Formulation
- 为什么同组内数据(即每张图)需要权重 Wt ?
- 为什么组 t 的数据权重与前一组 t-1 的数据权重有关?(为什么一张图在第 t 组的权重与其在第 t-1 组的权重有关)?组间差异是仅是各组数据的加噪方式不同,为什么导致数据权重也不同?
- 权重关系中 Yi⋅NL−BsAet(xi) 是什么含义,二者为关键词向量,列向量为什么能点乘?
每组的最优子模型的权重计算公式实际含义是什么?αt 中 t 为组号,为什么会带入计算?et 为模型错误率,错误率小的时候,该计算所得值大,权重变大,合理。- 每组的数据集不同(加噪方式不同),为什么要将每组的 NL−BSAEt 取不同权重,求和得最终的加权模型。
- 对数据集进行多种加噪后,再对每种加噪结果进行 LN-BSAE(即组内多个LN-BSAE),复杂度和时间岂不是成倍增加?
L-RBSAE
- 获取噪声样本,训练所有组的 L-BSAE 子模型
- 计算子模型的错误率,得到每组的最优模型 L−BSAEt
- 使用错误率计算每组 L−BSAEt 的权重,得到加权的 L-BSAE
- 使用加权 L-BSAE 对新图像进行标注
- 生成预测分布 D,通过排序得到最后标注结果
L−BSAEtk 中 t 为第 t 中加噪方式,k 是第 k 种 L-BSAE 模型的初始权值设置。
同样需要对训练数据设置初始化权重,与 NL-RBSAE 相同为 w1i=1/N,模型的分类错误率、训练数据集的权重更新方式、预测分布 D 的计算均与 NL-RBSAE 相似,
Decision based on data balancing
中低频标签训练不足的本质为改变,为此提出 data equilibrium-based image annotation
- 为测试图片构造局部均衡的数据集
- 使用该数据集识别测试图像的属性(属于高频还是低频)
- 若测试图像为高频图像,使用RBSAE算法进行标注,否则使用局部均衡数据集,按语义传播算法进行关键词预测
LDE-SP
local equilibrium database
构建理想的局部平衡数据集,该数据集满足下列条件
- 该数据集含有原数据集所有的标签
- 各标签的频率是相近的
- 标签所对应图像具有表达标签语义含义的能力
构建数据集方式:
- 将具有相同 tag 的图像划分为同个语义组。各组元素(即图像)集合之间的交集允许不为空
- 移除语义组中的弱语义图像
- 对测试图像 I,每语义组选出前 n 个具有最高相似度图像,构成该数据集
定义弱语义的方式:
定义 G={(y1,X1),..(YM,XM)},yi 表示第 i 个tag, Xi 为具有第 i 个标签的图像集合。使用 Gi=(Yi,Xi) 表示一个语义组。当组 Gi 的图像数量大于 所有语义组的平均图像数量 p 倍时,该语义组的不同关键字的 co-occurrence 矩阵为
CoMatrix=[v11v12⋯v1Maxv21v22⋯v2Max⋮⋮⋮⋮vMax1vMax2⋯vMaxMax]MaxMax其中 vij 是关键字 yi、 yj 的共同出现次数, Max 是该语义组的关键词种类数。使用如下定义关键字 yi 与该语义组的关系
Ryi=Max∑j=1vij然后选出 t 个关系值最小的关键字,并且移除这些关键字所对应的图像,以获得新的语义组 ˆG={(y1,ˆX1),..(ym,ˆXM)},ˆXi∈Xi
sematic propagation algorithm
用条件概率模型 P(x|yi) 衡量(给定标签 yi∈Y 的)图像 x 的特征分布。然后将图像标注视为后验概率问题(posterior probabilities)
P(yi|x)=P(x|yi)P(yi)P(x)∝P(x|yi)已知语义组 yi 中出现 x 图像的概率( P(x|yi) ),求图像 x 属于语义组 yi 的概率 ( P(yi|x) )
对于图像 I 的预测最佳标签由如下给出
y∗=argmaxiP(yi|I)具体步骤:
- 从语义组 ˆGi 中选 n 个与图像 I 最相似的图片,组成新的语义组 ˆGI,i
- 组合各个语义组 ˆGI,i 得到 ˆGI={ˆGI,1∪..∪ˆGI,M}
- 得到给定标签 yk∈Y 下图像 I 出现的后验概率
- 由后验概率计算 P(yi|I),取最小值得到结果P(I|yk)=∑(yi,ˆXi)∈ˆGIθI,xi⋅P(yk|xi)θI,xi=e−Dis(I,xi)−eDis(I,xi)e−Dis(I,xi)+eDis(I,xi)+μ
其中 P(yk|xi) 取值为 0 或 1 ,当图像 xi 的标签为 yk 时取1,否则取0,θi,xi 是 图像 xi 的权重,Dis(I,xi) 是图像 I 和 xi 的距离 7 , μ 为常数取1
![[ADA]](/paper/image_annotation_by_deep_model_and_semantic_propagation/ADA.png)
[ADA]
ADA
- 根据关键词将训练集分为语义组
- 根据测试图像构造局部平衡数据集
- 训练 RBSAE 模型(先训练BSAE模型,再进行 RBSAE 算法)
- 从语义组和局部均衡数据上分别得到 全局词频率信息 和 局部词频率信息
- 使用上述两种词频率信息描述待测试图像的属性
- 取全局和局部的高频率信息的交集,若交集中高频词数量大于阈值,将待测图像标为高频,标记为中低频
- 若待测图像为高频,采用 RBASE 预测,否则进行语义传播算法预测。
对测试图构建局部均衡数据集 ˆGI,从中选出 m 张于图像 I 最相似的图像,构成数据集 ˜GI={(y1,˜X1),(yi,˜Xi),..(ym,˜XM)},其中 ˜Xi 可能为空,因为是从所有 Xi 中取最近似的 m 张图。记 ˜Xi∈{0,1}N 为 N 维向量,˜Nji 为1 表示 ˜Xi 包含图像 xj,否则表示不包含。由此得到预测部分 D
D={∑Tt=1αt⋅BSAEt(x),(∑(yi,˜Xi)∈˜GIΦ(yi)⋅Θ(˜Xi))≥εP(yk|x),Others其中 P(yk|x)∝p(x|yk)=∑(yi,˜Xi)∈˜Giθi,xi⋅p(yk|xi) , ε 是常数, Φ(yi) 用于确定关键词在集合 P 中的属性
Ψ(yi)={1,ci≥η⋅1M∑Mj=1cj0,Others其中 η 是常数, Ψ(yi)=1 表示 yi 是数据集 P 的高频关键词。
Θ(˜Xi) 用于分离出 ˜GI 中的高频关键词
Θ(˜Xi)={1,∑Mj=1˜Xij≥τ⋅(1M∑Mi=1∑Nj=1˜Xji)0,Others其中 τ 是常数,Θ(˜Xi)=1 表示 yi 是集合 ˜GI 的高频关键词。
如果 m 给图像中具有高频关键字的图像比例超过合适的数量,图像 I 的结果由 ∑tt=1αt⋅BsAet(x) 决定,否则由 P(yk|x) 决定。
当 RBSAE 采用 NL-RBSAE ,该框架为 NL-ADA 由良好的泛化性,适用于大规模数据;当采用 L-RBSAE,框架为 L-ADA,能快速计算结果适用于中小规模数据。
Experiments
数据集:Corel5k, Espgame, Iaprtc12
图像特征:全局和局部特征(取自论文 7 ),其中全局特征有RGB, HSV and LAB color spaces, the Gist features ;对于 SAE、BSAE、RBSAE,使用总共 3312 维的 DenseHue, DenseHueV3H1, DenseSift, Gist, HarrisHue, HarrisHueV3H1, 和 HarrisSift 特征。使用15个特征来构建局部均衡数据集和实现语义传播算法,对于两个特征的距离,使用 L1 测量颜色直方图,L2 测量 Gist,χ2 用于 Sift 和 Hue 的描述。
评估因子:取自论文 7
- 标注前五个相关关键词
- 对每个关键词 yj 计算精度 Pj 和 recall Rj
其中 Precision(yj) 为预测正确的关键词 yj 次数,Prediction(yj) 为预测到关键词 yj 的所有次数,Ground(yj) 是关键词 yj 的 ground-truth 次数。
平均精度和所有关键词的 recall rate 分别为 P、R
使用 F1 测量 R 和 P 的平衡,使用非零 recall N+ 反应关键词数量(有多少关键词预测正确和不正确)
F1=2⋅P⋅RP+RN+=M∑j=1Sgn(Rj)Sgn(x)={1,x>00,x=0实验结果
对 SAE 使用四层网络结构,对比 SAE、NN、BDN、CNN 后,从结果上看 SAE 最有效。CNN 效果不好是因为训练集有限且不均衡,导致特征提出不理想。BDN 于 SAE 效果相似,当 BDN 采用概率和统计方式进行逐层预训练,优化问题的限制很多。SAE 使用近似表达来表示特征,更灵活。
实验参数 α 取 1,β 取 0.5 。 对 χ 选取 1 到 2 的值进行实验,得到其在 1.2 或 1.5 时有最优结果。且 NL-BSAE 效果比 L-BSAE 效果好,因为后者无法控制拟合度,当测试集与训练集差异较大时效果就较差。
使用标签平均频率划分数据集为高频和低频标签,计算 F1 和 N+,BSAE 效果比 SAE 效果好。
使用加噪 Rand(⋅) 测试 RBSAE 的效果,RBSAE 在 N+ 和 F1 的相对稳定性上更好。
对比 RBSAE 和 LDE-SP,在高频标签上前者的 F1 比后者高,在低频标签上前者的 F1 比后者低。在三个数据集上对比 ADA 和近年的模型和经典模型,结果显示了 ADA 的有效性。
时间复杂度上,NL-BSAE 和 NL-RBSAE 的时间与训练样本成正比(大于 NL-SAE )。L-BSAE 的时间成本高与 L-SAE,且随样本增加,所需时间是非线性增加,在小规模数据上,L-BSAE 比 LN-BSAE 快,而大规模数据上,则比后者慢。在测试时间方面特点,与训练时间特点基本一致。
Conclusion
BSAE 提高不均衡数据的训练效果
RBASE 提高 BSAE 的稳定性
BSAE 的两种优化方式,非线性和线性,分别适用于大规模数据训练和小规模数据训练
ADA 框架使用 结合 RBSAE 和 LDE-SP ,用于高频和低频图像标注,提高低频图像标注准确率
word & reference
AE: AutoEncoder, AutoEncoder详解 - lwq1026的博客 - CSDN博客
SAE: Stacked Autoencoder - CoderPai的博客 - CSDN博客
BSAE: a balanced and stacked auto-encoder 一种均衡堆叠的自动编码器
RBSAE: a robust BSAE 一种健壮的均衡堆叠自动编码器
DAE: a stacked denoising auto-encoder 堆叠降噪自动编码器
NL-SAE: non-linear-based stacked auto-encoder 非线性SAE
ADA: attribute discrimination annotation 属性区别标注
LDE-SP: local semantic propagation 局部语义传播
DBN: deep belief networks
ELM: exterme learning machine 极限机器学习
LDE-SP: Local data equilibrium and semantic propagation 局部数据均衡和语义传播
ADA: Attribute discrimination annotation
Gist: 机器视觉-GIST特征描述符使用 - 扬子落木 - CSDN博客
BP algorithm. 反向传播算法 ↩
Moore-Penrose generalized inverse. 摩尔-彭若斯广义逆 ↩
7. TagProp: Discriminative metric learning in nearest neighbor models for image auto-annotation ↩