文章代码来源:《deep learning on keras》,非常好的一本书,大家如果英语好,推荐直接阅读该书,如果时间不够,可以看看此系列文章,文章为我自己翻译的内容加上自己的一些思考,水平有限,多有不足,请多指正,翻译版权所有,若有转载,请先联系本人。
个人方向为数值计算,日后会向深度学习和计算问题的融合方面靠近,若有相近专业人士,欢迎联系。
系列文章:
一、搭建属于你的第一个神经网络
二、训练完的网络去哪里找
三、【keras实战】波士顿房价预测
四、keras的function API
五、keras callbacks使用
六、机器学习基础Ⅰ:机器学习的四个标签
七、机器学习基础Ⅱ:评估机器学习模型
八、机器学习基础Ⅲ:数据预处理、特征工程和特征学习
九、机器学习基础Ⅳ:过拟合和欠拟合
十、机器学习基础Ⅴ:机器学习的一般流程十一、计算机视觉中的深度学习:卷积神经网络介绍
十二、计算机视觉中的深度学习:从零开始训练卷积网络
十三、计算机视觉中的深度学习:使用预训练网络
十四、计算机视觉中的神经网络:可视化卷积网络所学到的东西
通过之前的学习,大家知道机器学习中的核心问题为过拟合。
学完这一章,大家能够收获:
- 其它版本的一些机器学习,除了回归和分类问题。
- 机器学习模型的正式评价程序,你们在之前已经看到了其简单的版本
- 如何为机器学习备好数据,什么是“特征工程”
- 学习解决过拟合问题,我们在之前的几个例子里面也看到了这个过拟合现象。
机器学习的四个标签
通过刚刚三种问题,你应该已经熟悉了三种特别的机器学习问题:二分类、多分类、回归问题。
然而这些问题都属于监督学习的范畴,在机器学习领域监督学习只是其冰山一角,我们将机器学习通常分为四类:
- 监督学习,近期图像识别,语音识别等都聚焦于此。
- 无监督学习,即不需要任何标签,可以用来数据可视化、数据压缩、数据去噪或是简单的更好理解手头数据的表示,无监督学习是数据分析的“bread and butter”基础,这在监督学习之前使用是很有必要的。“维度下降”和“聚类”是熟知的无监督学习类型。
- 自监督学习,这实际上是监督学习的一个特例,但它有足够的不同,导致它可以单独成一类。自监督学习是没有人为标注的监督学习,然而它还是有一些标签的,毕竟学习过程中还是需要通过监督学习某些东西来进行,但他们是通过输入数据自身通过某些启发式算法生成的。你可以认为这是无人参与的监督学习,例如自编码机就属于其中。注意这些分类其实是很模糊的。
- 强化学习。近来这个领域广受关注,是google的deepmind成功让电脑打Atari游戏。机理自行搜索,目前它除了游戏领域还没找到什么别的有重大意义的应用,日后在自动驾驶、机器人、资源管理、教育上会发挥重大作用。
在这本书,我们将会主要集中注意力在监督学习上,因为目前它是主流,我们还会在之后的章节看一下自监督学习。
尽管监督学习大部分都是有分类和回归问题组成的,仍有一些其他的变种:
- 序列生成,例如给一张图片,我们生成文字来描述它。序列生成能够重塑一些分类问题,如重复预测单词或放进句子。
- 语法树预测(给一个句子,预测其在语法树中的分解)。
- 物体识别:给定一张图片,画一个框框来把指定物体框起来,这能够被表述为一个分类问题(给很多框,将每一个里面的内容进行分类。)或是看成是分类和回归问题的联合体。
- 图像分割:给定一张图片,画出特定物体的像素级别掩码。
分类和回归词汇表
分类和回归包含很多的专业名词,在之前的例子中,你应该见过他们,在接下来的章节里面,你会见得更多,他们都有准确的机器学习范围内的定义,你应当熟悉他们:
sample or input,样本或输入:一个进入你模型的数据点
prediction or output,预测或输出:从你模型出去的东西
target,目标:正确的。你的模型理想情况下应当预测的,来自于一些额外源的数据。
prediction error or loss value,预测错误或损失值:用来衡量你的预测和目标距离。
classes,类别:可能标签的集合用来在分类问题中选择,例如当猫狗图像分类时,这两种动物分属两类。
label,标签:不赘述。
ground-truth,or annotations,正确标注:人为标注正确的标签。
binary classification,二分类:一个将每一个样本都分为互异的类型的任务。
multi-class classification,大量分类:分的类型大于2
multi-label classification,多标签分类:分类问题可以得到很多标签,例如一幅图片中同时又猫和狗,那么标签同时给出猫、狗。
scalar regression,标量回归:目标是一个连续的标量值,房子价格预测只是一个好的例子:不同的价格形成了一个来连续的空间。
vector regression,向量回归:目标是一系列连续的值的集合,例如向量。如果你在做多个值的回归,其实你就是在做向量回归。
mini-batch or batch:一些马上要被处理的小样本。在GPU中为2的幂次效率会更高。训练的时候,一个mini-batch就可以更新一次权值。