弱监督学习梳理

  1. 数据不完美,算法显神威——弱监督机器学习专题论坛

  2. Weakly-supervised and Unsupervised Learning Workshop at the SIAM International Conference on Data Mining (SDM2020).

  3. Related Researcher

  4. VALSE2019总结(1)-弱监督学习


\color{red}{ 改变颜色 }
\color{orange}{ 改变颜色 }
\color{#0099ff}{ 改变颜色 }


  1. 数据不完美,算法显神威——弱监督机器学习专题论坛

\color{red}{ 真实的经验风险来逼近期望风险,根据训练样本来学习这样的函数fn}

image.png

\color{red}{ 当样本量非常多的时候,从有限的样本中学到的分类器以很高的概率收敛到定义的最好的分类器}

image.png

\color{red}{ 弱监督学习的客观原因}

image.png

\color{red}{ 标签噪声}

image.png

\color{red}{ Semi-supervised Learning}

image.png

\color{red}{ Postive and Unlabeled Learning}

image.png

\color{red}{ Multi-instance Learning}

image.png
image.png
image.png
image.png
image.png
image.png

  1. 弱监督学习和强监督学习相比,从学术研究的角度说,其根本难点和技术瓶颈在什么地方?

弱监督的情况较多:标签噪声,标签不确定
主动学习:是随着策略变化导致训练数据的分布发生变化。

  1. 虽然弱监督学习这个概念已经被提出很久了,但工业界仍很少使用,为了提升性能,工业界往往更倾向于直接增加更多的训练数据。因此,弱监督学习从研究到落地的鸿沟主要在哪?

自然场景下,弱监督对大公司有钱是可以解决的。
但是针对医疗影像的场景,即使是专家也是有误差的,弱监督问题是一定会存在的。弱监督有适用的领域场景。

  1. 最近几年的弱监督学习算法大多致力于设计各种无偏或有偏的risk estimator。“无偏”和“有偏”各有什么好处和弊端?除了设计risk estimator,还有哪些大方向是值得进一步探寻的?

样本量比较大的时候能够得到无偏
样本量比较小,能够利用一些先验知识,可以得到有偏的结果。

  1. 深度学习是一种data hungry的方法,如果想弱化深度神经网络训练对数据质量的依赖,我们可以从哪些方面努力?

选择一些小loss的数据,加一些先验知识,可以弱化对数据质量的依赖。

  1. 对于弱监督学习,监督信息的强弱与算法性能的好坏在理论上是否存在精确或大致的函数关系?

弱监督并没有统一的理论支持,半监督和主动学习里面有一些理论支持。

  1. 各类弱监督学习算法(比如半监督学习、标签噪声学习、多示例学习、迁移学习、PU学习、偏标记学习等),它们之间是否存在一定的联系?是否有可能在理论上构建统一的弱监督机器学习框架?

利用无监督的信息去辅助监督的学习。



  1. Weakly-supervised and Unsupervised Learning Workshop at the SIAM International Conference on Data Mining (SDM2020).

不完全监督:只有一部分训练数据具备标签;
不确切监督:训练数据只具备粗粒度标签;
不准确监督:给出的标签并不总是真值;(标签有噪声?)
弱监督的含义:弱监督给出的标签会在某种程度上弱于我们面临的任务所要求的输出。
研究背景:
数据集很重要:现阶段CV领域的大多数问题还是依赖于特定的数据集进行训练和测试评估的;
标注成本很大:高质量额图像标注为我们进行图像理解提供了方便,但获取精确的标注是非常困难和耗时的;
研究方法难选:深度神经网络共性技术,视觉基元属性感知。

In this workshop, we discuss both theoretical and applied aspects of WSUL, which includes but not limited to the following topics:

Theories, algorithms, and applications of no supervision, e.g., clustering, generative adversarial nets, variational autoencoders;
Theories, algorithms, and applications of incomplete supervision, e.g., dealing with semi-supervised data or positive-unlabeled data;
Theories, algorithms, and applications of inexact supervision, e.g., dealing with similarity/dissimilarity data and complementary information;
Theories, algorithms, and applications of inaccurate supervision, e.g., crowdsourcing and dealing with noisy labels;
Theories, algorithms, and applications of cross-domain supervision, e.g., domain adaptation and zero-/one-/few-shot learning.

\color{red}{ Topic Description}

The focus of this workshop is five types of supervision: no supervision, incomplete supervision, inexact supervision, inaccurate supervision, and cross-domain supervision. Specifically, no supervision considers problems in which no data have ground-truth labels. Incomplete supervision considers a subset of training data given with ground-truth labels while the other data remain unlabeled, such as semi-supervised data and positive-unlabeled data. Inexact supervision considers the situation where some supervision information is given but not as exacted as desired, i.e., only coarse-grained labels are available. For example, if we are considering to classify every pixel of an image, rather than the image itself, then ImageNet becomes a benchmark with inexact supervision. Besides, the multi-instance learning setting belongs to inexact supervision, where we do not exactly know which instance in the bag corresponds to the given ground-truth label. Inaccurate supervision considers the situation where the supervision information is not always the ground-truth, such as learning with noisy labels. Cross-domain supervision considers the situation where the supervision information is scarce or even non-existent in the current domain but can be possibly derived from other domains. Examples of cross-domain supervision appear in zero-/one-/few-shot learning, where external knowledge from other domains is usually used to overcome the problem of too few or even no supervision in the original domain.


  1. Related Researcher

https://mingming-gong.github.io/
https://bhanml.github.io/research.html
https://niug1984.github.io/index.html
http://people.ucas.ac.cn/~qxye


  1. VALSE2019总结(1)-弱监督学习

https://www.cnblogs.com/LS1314/p/10885026.html
https://blog.csdn.net/qq_31049727/article/details/89334903

20200722-19 迁移学习:他山之石,可以攻玉
https://blog.csdn.net/david8766/article/details/107524948


  1. 弱监督学习综述(Weak Supervision 2019)

近年来,机器学习(ML)的现实影响已经突飞猛进。在很大程度上,这是由于深度学习模型的出现,这使得从业者可以在benchmark集上获得优异的分数,而无需任何手工设计的特征( hand-engineered features)。鉴于TensorFlow和PyTorch等多种开源ML框架的可用性,以及大量可用的最先进模型,可以说高质量的ML模型现在几乎是商品化的资源。然而,有一个隐藏的问题:这些模型依赖于大量手工标记的训练数据(the reliance of these models on massive sets of hand-labeled training data.)。

这些手工标记的培训集创建起来既昂贵又耗时——通常需要数月或数年才能收集、清理和调试——尤其是在需要领域专业知识的情况下。除此之外,任务通常会在现实世界中发生变化和演变。例如,打标签的规则(指南),标注的粒度或下游的用例经常发生变化,需要重新标记(例如,不仅要将评论分类为正类或负类,还要引入一个中性类别)。由于所有这些原因,从业者越来越多地转向较弱的监督形式,例如启发式地利用外部知识库,模式/规则或其他分类器生成训练数据。从本质上讲,这些都是以编程方式生成培训数据的所有方式 ——或者更简洁地说,是编程培训数据。

如何获得标记好的训练数据?
ML中的许多传统研究方法同样受到标记训练数据的深度学习模型的无法满足的兴趣的推动。 我们首先将这些其他方法与弱监督之间的核心区别从高层次中划分出来:弱监督是指利用主题专家(SME)的更高层次和/或更嘈杂的投入(weak supervision is about leveraging higher-level and/or noisier input from subject matter experts (SMEs).)。目前仅有中小企业直接标记大量数据的主流方法的关键问题是它很昂贵:例如,为医学成像研究获取大型数据集要困难得多——与廉价劳动力研究生不同,放射科医生(专家)不会因为一点小惠小利就答应帮你标记数据集。因此,ML中许多经过充分研究的工作线是由于获得标记的训练数据的瓶颈所致。

弱监督通常分为三种类型:不完全监督、不确切监督、不准确监督。

(1)不完全监督
不完整监督:部分样本label缺失。“部分”有多大?也许只有小部分样本有label。
指的是训练数据只有部分是带有标签的,同时大量数据是没有被标注过的。这是最常见的由于标注成本过高而导致无法获得完全的强监督信号的情况,例如,聘请领域专家直接给大量数据添加标签的成本就相当高。另外,在为医学影像研究构建大型数据集时,放射科医生可不会接受一点小恩小惠就愿意为你标记数据。而且根据笔者的经验,由于医生对于数据科学的了解往往不够深入,有许多数据的标注结果(例如为分割任务框定的病灶轮廓)是无法使用的,从而产生了很多实际上缺少有效标记的训练样本。该问题可以被形式化表达为:

在训练数据为 D = {(x_1, y_1), …, (x_l, y_l), x_{l+1}, …, x_m},其中 l 个数据有标签、u=m-l 个数据无标签的情况下,训练得到 f:x->y。

通常有两种办法来解决这类问题:

主动学习(active learning)
半监督学习(semi-supervised learning)

在诸多针对不完全监督环境开发的机器学习范式中,主动学习、半监督学习、迁移学习是三种最流行的学习范式。

主动学习(active learning):它假设未标注数据的真值标签可以向人类专家查询,让专家为估计模型最有价值的数据点打上标签。在主动学习中,目标是通过标记数据点来更有效地利用SMEs,这些数据点被估计为对模型最有价值(参见(Settles 2012))。 在标准监督学习设置中,这意味着选择要标记的新数据点。而在衡量查询样本的价值时,有两个被最广泛使用的标准:信息量和代表性。信息量衡量的是一个未标注数据能够在多大程度上降低统计模型的不确定性,而代表性则衡量一个样本在多大程度上能代表模型的输入分布。这两种方法都有其明显的缺点。基于信息量的衡量方法包括不确定性抽样和投票查询,其主要的缺点是在建立选择查询样本所需的初始模型时,严重依赖于对数据的标注,而当表述样本量较小时,学习性能通常不稳定。给予代表性的方法,主要缺点在于其性能严重依赖于未标注数据控制的聚类结果。例如,我们可能选择接近当前模型决策边界的乳房X线照片,并要求放射科医师仅标记这些。 但是,我们也可以要求对这些数据点进行较为严格的监督,在这种情况下,主动学习与弱监督完全互补; 作为这方面的一个例子,见 (Druck, Settles, and McCallum 2009).

半监督学习(semi-supervised learning):与主动学习不同,半监督学习是一种在没有人类专家参与的情况下对未标注数据加以分析、利用的学习范式。通常,尽管未标注的样本没有明确的标签信息,但是其数据的分布特征与已标注样本的分布往往是相关的,这样的统计特性对于预测模型是十分有用的。

一个好的survey见 (Chapelle, Scholkopf, and Zien 2009)。 从广义上讲,半监督学习的想法是利用领域和任务不可知的假设来利用通常可以大量廉价获得的未标记数据。 最近的方法使用生成对抗网络 (Salimans et al. 2016),启发式转换模型 (Laine and Aila 2016)以及其他生成方法来有效地帮助规范决策边界。

实际上,半监督学习对于数据的分布有两种假设:聚类假设和流形假设。

前者假设数据具有内在的聚类结构,因此,落入同一个聚类的样本类别相同。后者假设数据分布在一个流形上,在流形上相近的样本具有相似的预测结果。可见,两个假设的本质都是相似的数据输入应该有相似的输出。因此,如何更好地衡量样本点之间的相似性,如何利用这种相似性帮助模型进行预测,是半监督学习的关键。半监督学习的方法主要包括:生成式方法、基于图的方法、低密度分割法、基于分歧的方法。详情可参阅周志华老师的综述文章《A brief introduction to weakly supervised learning》。

迁移学习(transfer learning):迁移学习是近年来被广泛研究,风头正劲的学习范式,感觉已经成为一个独立的研究领域。其内在思想是借鉴人类「举一反三」的能力,提高对数据的利用率。通俗地讲,迁移学习的目标是将已经在不同数据集上训练过的一个或多个模型应用到我们的数据集和任务中。参考综述: (Pan and Yang 2010)。具体而言,迁移学习的定义为:有源域 Ds和任务 Ts;目标域 Dt 和任务 Tt,迁移学习的目标是利用源域中的知识解决目标域中的预测函数 f,条件是源域和目标域不相同或者源域中的任务和目标域中的任务不相同。

例如,我们可能在身体的另一部分有一个大型肿瘤训练集,并且在这组训练的分类器,并希望将这些应用于我们的乳房摄影任务。 当今深度学习社区中的常见转移学习方法是在一个大型数据集上“预训练”模型,然后在感兴趣的任务上“微调”它。 另一个相关的工作是多任务学习,其中共同学习了几项任务 (Caruna 1993; Augenstein, Vlachos, and Maynard 2015)。

在迁移学习研究的早期,迁移学习被分类为「直推式迁移学习」、「归纳迁移学习」和「无监督迁移学习」。

(2)不确切监督

粗粒度监督:给出的label你不能说它不对,但是它不够准确。比如image-level的label是弱的,object level的标注是强的。(个人觉得周的这个例子不够完备,还应该包括“苹果”和“水果”这样的弱和强的对比)。

即训练样本只有粗粒度的标签。例如,针对一幅图片,只拥有对整张图片的类别标注,而对于图片中的各个实体(instance)则没有标注的监督信息。例如:当我们对一张肺部 X 光图片进行分类时,我们只知道某张图片是肺炎患者的肺部图片,但是并不知道具体图片中哪个部位的响应说明了该图片的主人患有肺炎。该问题可以被形式化表示为:

学习任务为 f: X -> Y,其训练集为 D = {(X_1, y_1), …, (X_m, y_m)},其中 X_i = {x_{I, 1}, …, x_{I, m_i}}, X_i 属于X,X_i 称为一个包,样本 x_{i, j}属于X_i(j属于{1, …, m_i})。m_i 是 X_i 中的样本个数,y_i 属于 Y = {Y, N}。当存在 x_{i, p}是正样本时,X_i 就是一个正包,其中 p 是未知的且 p 属于 {1, …, m_i}。模型的目标就是预测未知包的标签。

可以有一个形式化的表示。。。意思是,每个样本是一个包(“bag”),只要包中含有正样本,label就为1,否则label为-1。任务的目的就是,给定没有见过的包,来判断包中是否有正样本。

所以又叫做“多实例学习”(multi-instance learning)
(个人觉得,多实例学习MIL最多算是细粒度学习的一种特例。“苹果”标注为“水果”这样的标注,不算是MIL,但我认为也是粗粒度监督,当然划分到不准确监督也可以。)

(3)不准确监督

有误的监督:给的label包含噪声,甚至是错误的label,比如把“行人”标注为“汽车”。当然有时候是因为样本质量问题,没法标清楚。

即给定的标签并不总是真值。出现这种情况的原因有很多,例如:标注人员自身水平有限、标注过程粗心、标注难度较大。在标签有噪声的条件下进行学习就是一个典型的不准确学习的情况。而最近非常流行的利用众包模式收集训练数据的方式也成为了不准确监督学习范式的一个重要的应用场所。

延伸阅读
弱监督学习工具:Snorkel
在斯坦福 AI 实验室最近发表的关于 Snorkel 的论文 (https://arxiv.org/abs/1711.10160)中,他们发现在各种实际应用中,这种与现代机器学习模型交互的新方法非常有效!其中的一些亮点包括:

  1. 在 Mobilize Center 主办的一场为期两天的关于 Snorkel 的工作坊的用户调研中,他们比较了教领域专家们使用 Snorkel 的效率,以及花同样的时间仅仅对数据进行手动标注的效率。同时,他们还发现,使用 Snorkel 构建模型在速度不仅快了 2.8 倍,而且平均的预测性能也提高了 45.5%。

  2. 在与斯坦福大学、美国退伍军人事务部和美国食品和药物管理局的研究人员合作的两个实际的文本关系提取任务,以及其他四个对比基准文本和图像任务中,他们发现,与作为对比基准的技术相比,Snorkel 的性能平均得到了 132% 的提升。

  3. 他们探索了如何对用户提供的标记函数建模的新的权衡空间,从而得到了一个能够加速迭代开发周期的基于规则的优化器。

下一步:大规模多任务弱监督学习
斯坦福 AI 实验室正在进行各种努力,将 Snorkel 设计的弱监督交互模型扩展到其它的模态中,如格式丰富的数据和图像、使用自然语言的监督任务以及自动生成标注函数!

在技术方面,他们对扩展 Snorkel 的核心数据编程模型,使其更容易指定具有更高级别接口(如自然语言)的标注函数,以及结合其他类型的弱监督学习技术 (如数据增强)感兴趣。

随着多任务学习的场景越来越普遍,也引发了这些问题:当带噪声的、可能相关的标注源现在要标注多个相关任务时会怎么样(不准确监督)?能否通过对这些任务的监督进行联合建模来提升性能?在一个新的多任务感知版本的 Snorkel,即 Snorkel MeTaL(https://arxiv.org/abs/1810.02840) 中解决了这些问题,哪个又能够支持为一个或多个相关任务提供带噪声标签的多任务弱监督源?

他们考虑的一个例子,是关于不同粒度的标签源的设置(不确切监督)。例如,假设他们打算训练一个细粒度的命名实体识别模型来标记特定类型的人和位置,同时已经拥有一些细粒度的带噪声的标签,例如标记「律师」与「医生」,或者是「银行」与「医院」;而有些是粗粒度的,例如标记「人」与「位置」。通过将这些源表示为标记不同的与层次相关的任务,他们可以联合建模它们的准确性,并重新加权和组合它们的多任务标签,从而创建数据更加干净、融合了各种智能的多任务训练数据,从而提高最终多任务学习模型的性能。

多监督学习的最新进展
Rabinovich 等人(https://arxiv.org/pdf/1809.01285.pdf)设计了一种弱监督方法,用于在完全没有标记数据的情况下,推断词语的抽象性。他们只利用最少的语言线索和文本数据中显示的概念的上下文用法,训练足够强大的分类器,获得与人类标签的高度相关性。

Wu 等人(https://arxiv.org/abs/1805.02333)在 ACL 2018 上针对开放环境下的人机对话任务开发了一种利用未标注数据学习选择基于检索的聊天机器人的响应的匹配模型的方法。该方法采用序列-均衡结构(Seq2Seq)模型作为弱标注器来判断未标注对的匹配程度,然后对弱信号和未标注数据进行学习。

Arachie 等人(https://arxiv.org/abs/1805.08877)在 AAAI 2019 上针对无标签分类器的训练任务提出了一种弱监督的方法——对抗性标签学习,该方法利用投影的「primal-dual」梯度下降法最小化分类器错误率的上限。最小化这个界限可以防止在弱监督方法中出现偏差和依赖。

Vardazaryan 等人(https://arxiv.org/pdf/1806.05573.pdf)针对手术工具定位任务,提出了图像级别的标注任务的训练模式,可以用于在没有显式空间标注的情况下,检测出视频中存在的手术工具病在视频中定位。

在 CVPR 2019 上,Zeng 等人(https://arxiv.org/pdf/1904.00566.pdf)针对像素级图像标注问题,提出了一种多源弱监督视觉显著性检测模型,他们设计了一个分类网络(CNet)和一个标题生成网络(PNet),分别学习预测对象以及生成图像标题。同时,他们还设计了一种能够在网络之间传播监督信号的注意力迁移损失,从而使通过一个监督源训练的网络能够帮助训练使用另一个监督源训练的网络。

Mithun 等人(https://arxiv.org/pdf/1904.03282.pdf)针对通过文本查询实现的视频瞬间检索问题,设计了一种基于文本引导的注意力机制(TGA)的弱监督学习框架,解决了对于每段文本描述相应的视频时间边界进行标注的开销过高的问题。


  1. 弱监督学习在图像分类中的应用

  1. 弱监督学习和小目标检测

  1. 见微知著:语义分割中的弱监督学习

https://weiyc.github.io/assets/pdf/VALSE-2019-Tutorial-YCWEI.pdf

http://valser.org/article-212-1.html


  1. [ValseWebinar] 弱监督图像理解专题
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,968评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,601评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,220评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,416评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,425评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,144评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,432评论 3 401
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,088评论 0 261
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,586评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,028评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,137评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,783评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,343评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,333评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,559评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,595评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,901评论 2 345