迁移学习在图像分类中的应用

迁移学习在图像分类中的应用

1 迁移学习对于图像分类的必要性

机器学习理论和算法在计算机视觉领域获得广泛应用,图像分类技术是图像内容理解的基础,由于传统机器学习理论要求训练数据和测试数据满足独立同分布假设,实际应用中难以获取大量的标注数据。针对标注数据稀缺问题,半监督学习和主动学习也是解决标注数据稀缺问题的方法,与这些方法不同的是,迁移学习放宽了训练数据和测试数据独立同分布的要求,而且在训练过程中,不需要人工参与数据集的标注,迁移学习算法能有效地利用辅助域标注数据信息训练模型,提升模型在目标域任务的性能。

2 图像分类中的迁移学习算法

现有的迁移学习算法分为两个大类 (1)非深度迁移学习算法(2)深度迁移学习算法

2.1 非深度迁移学习算法

这类算法主要围绕如何降低域间分布差异展开。可进一步分为基于样例的和基于特征的迁移学习算法。

  • 基于样例的迁移学习算法主要通过调整样例的权重,消除领域间差异。
  • 基于特征的迁移学习算法通过在特征空间中消除领域间的分布差异,从而完成源域知识的跨域迁移。
2.1.1 基于样例的迁移学习算法

在迁移学习中,有标注的源域数据分布和标注缺失的目标域数据分布是存在差异的,直接利用源域数据训练的模型应用到目标任务会导致模型在目标域数据集上性能差,一个简单的想法是给源域样本分配权重,使得加权后的源域数据的分布和目标域数据的分布更相似,从而提升迁移学习模型的性能。基于该假设,文献[2-6]研究针对目标任务,如何估算源域样本的权重。
[2]提出核均值匹配方法来估计源域样本权重,该加权策略是基于最大均值差异统计量,匹配再生希尔伯特空间中源域和目标域样本的均值,从而使得加权后的源域数据分布和目标域数据分布相似度更高。[3]提出样例权重估计的方法,使用KL重要性估计过程,该算法使用相对熵来度量分布差异,通过集成一个内置的模型选择过程,通过最小化KL散度,使得源域数据的分布和目标域数据的分布更相似。[4]基于提出的样例权重的迁移学习算法,提出基于加权的多源域迁移学习算法,通过给源域内部样例加权降低源域目标域间边缘分布差异,通过给不同源域赋予不同权重降低源域和目标域之间的条件分布差异。[5]基于AdaBoost算法,提出基于样例迁移学习的TrAdaBoost算法,该算法在AdaBoost的循环中,通过提高有利于目标任务样例的权重,降低不利于目标分类任务样例的权重,从而提升模型在目标域任务的性能。[6]拓展了TrAdaBoost算法到多源域情形,提出了多源TrAdaBoost算法。

2.1.1 基于特征的迁移学习算法

基于样例的迁移学习方法通常假设源域数据和目标域数据有相似或相同的支持,但在实际场景中,源域和目标域数据往往难以重叠,基于特征的迁移学习算法是把源域和目标域数据映射到共享的特征空间中,在该特征空间中,源域数据的分布和目标域数据的分布靠近,从而使得在特征空间训练得到的分类器可以应用到目标域任务中。

  • (1)基于分布适配的迁移学习算法
    基于分布适配的迁移学习算法致力于降低特征空间中源域和目标域特征的分布差异,从而获得没有分布差异的源域和目标域特征。常见的分布度量有最大均值差异(Maximum mean Discretionary,MMD),KL散度,JS散度和Bregman Divergence。
  • (2)基于特征对齐的迁移学习算法
    基于特征对齐的迁移学习算法通常利用源映射M_s和目标映射 M_T 将源域数据和目标域数据分别映射到相应的子空间中,然后基于映射M_sM_T学习一个共享的映射函数,使得源域数据和目标域数据在子空间中被对齐,从而在源域特征上训练得到的分类器可以应用到目标域任务上。[7]利用主成分分析方法将源域数据和目标域数据分别映射到子空间中,选取源域和目标域特征向量获得对应的映射函数M_sM_T,通过对齐源域映射函数M_s和目标域映射 M_T,学得变换矩阵W。
    总结:基于样例的迁移学习算法在领域间分布差异较小时有效,但对复杂任务,如计算机视觉任务效果欠佳,基于特征的迀移学习算法性能好,然而,随着深度学习的发展,基于深度网络提取的特征表示性能显著优于传统矩阵映射方法,并且也取得了更好的效果.

2.2 深度迁移学习算法

AlexNet网络在大规模图像数据集ImageNet分类任务上取得很大突破之后,多种不同结构的深度卷积神经网络被提出并应用于图像分类任务。
具有里程碑意义的是Yosinski,在2014年人工智能顶级会议上的口头汇报,他们团队通过实验验证了深度神经网络的可迁移性。基于此,研究人员提出大量基于深度方法的迁移学习算法,并在图像分类领域取得显著优于非深度迁移学习算法的效果。深度迁移学习算法可分为基于深度分布适配的迁移学习算法、基于对抗学习的迀移学习算法和基于模型的迁移学习算法。

2.2.1基于深度分布适配的迁移学习算法

与基于浅度学习的分布适配算法类似,基于深度学习的分布适配算法在特征空间中采用统计分布距离来度量领域间的分布差异,并通过随机梯度下降算法同时最小化领域间分布差异和源域分类损失;与基于浅度学习的分布适配算法不同的是特征获取的方式,深度分布适配算法通过深度卷积神经网络学得不同域的数据特征表示,在特征输入到全连接分类器前,使用统计分布距离度量不同域特征在特征空间的分布差异。常见的用于深度分布适配的分布距离度量函数有:最大均值差异(MMMD),KL散度以及Coral距离。[8]提出的深度域混淆算法在特征空间中使用MMD距离度量源域和目标域间分布差异,通过最小化领域间分布差异和源域标注样本的分类损失函数,得到迁移学习模型。[9]改进上述算法,使用多核MMD距离度量领域间分布差异,获得更好的迁移效果。[10]使用KLD距离度量领域间分布差异并通过最小化该距离来降低领域间分布差异。

2.2.2基于对抗学习的迁移学习算法

基于对抗学习的迁移学习算法受到生成式对抗网络的启发,在特征空间中混淆领域特性,使分类器无法判别出输入的特征是来自源域还是目标域,从而使得在源域上训练的模型可用应用到目标域任务。基于对抗学习的迀移学习通常引入一个二分类的领域判别器,该领域判别器致力于分辨出输入判别器的特征来自源域还是目标域,而深度神经网络的目标是学到不能被判别器判别的领域特征,在模型优化过程中,判别器的优化目标是最小化判别损失,而特征提取网络的优化目标是最大化判别器的分类损失。

2.2.3基于模型的迁移学习算法

基于模型的迁移学习算法假设在模型层次上源领域任务和目标领域任务共享部分通用知识,所迁移的知识被编码到模型参数、模型架构等模型层次上。深度迁移学习模型参数微调是一种简单有效的基于模型的迁移技术。有基于深度网络的注意力机制,提出了基于注意力机制的迁移学习算法,这类方法假设源域图片的不同区域对目标任务的重要性大小不同,通过定网络的注意力,对神经网络输入中最感兴趣的区域进行编码,迁移网路注意力权重到目标模型中,提升目标模型性能。
另一些基于模型的迁移学习算法是基于正则化方法,这类方法通常对神经网络提取的特征进行特定约束,从而提升模型的泛化性能。

3 学习心得

通过调研了解了现有迁移学习 在图像分类中应用的方法。其中分布差异的距离度量最大均值差异,KL散度 和 JS散度 被广泛运用于各种方法之中。而对于无法直接使用预先定义的距离的情况,则可以使用隐式的距离,即生成对抗网络。
但是这两者都有缺点,现有的统计分布度量方法大都过于简单,难以度量复杂的分布差异情形;基于对抗学习的度量方法通常单一考虑领域间的边缘分布差异或者条件分布差异,未能充分适配域间分布差异。如何设计深度迁移学习算法,充分降低领域间分布差异是一个现有的挑战。

4 参考文献

[1]《迁移学习导论》 王晋东
[2]Huang J, Gretton A, Borgwardt K, et al. Correcting sample selection bias by unlabeled data[J]. Advances m neural information processing systems, Vancouver:MIT Press. 2006.19:601-608.
[3]Sugiyama M, Nakajuna S, Kashima H, et al. Direct Importance Estimation with Model Selection and Its Application to Covanate Shifit Adaptation[A]//Neural Information Processing Systems[C], Vancouver:MIT Press, 2007,7:1433-1440
[4]Sun Q, Chattopadhyay R, Panchanathan S, et al. A two-stage weighting framework for multi-source domain adaptation[A].//Advances in neural information processing systems[C], Granada:MIT Press, 2011,24:505-513.
[5]Dai W, Yang Q, Xue G R, et al. Boosting for transfer learning[A]. //International Conference on Machine Leaming[C], Oregon:ACM, 2007:208-216.
[6]Yao Y, Doretto G. Boosting for transfer learning with multiple sources[A]//IEEE computer society conference on computer vision and pattern recognition[C], Califomia:IEEE,2010:1855-1862.
[7]Femando B, Habrard A, Sebban M, et al. Unsupervised visual domain adaptation usmg subspace alignment[A]//Proceedings ofthe IEEE mtemational conference on computer vision, Sydney:IEEE, 2013:2960-2967.
[8]Tzeng, E., Hoffman, J., Zhang, N., Saenko, K., & Darrell, T. Deep domain confusion: Maximizing for domain invariance. arXiv preprint arXiv: 1412.3474.2014.
[9]Long M, Cao Y, Wang J, et al. Leammg transferable features with deep adaptation networks[A]//Intemational conference on machine leaming[C], Lille: ACM. 2015:97-105.
[10]Zhuang F, Cheng X, Luo P, et al. Supervised representation learning: Transfer learning with deep autoencoders[A].//International Joint Conference on Artificial Intelligence『],Buenos Aires:Morgan Kaufmann, 2015:4119-4125.

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容