2018-07-20

最近发现自己的一个缺点,很多原理虽然从理论上或着数学上理解了,但是难以用一种简洁的偏于沟通的方式表达出来。所以合上书,用口语化的方法练习描述这些知识点。

1. SVM:支持向量机,对中小数据集有效,是一种比较经典的数据分类方法。抽象的来说,SVM的分类过程是在多维数据空间中寻找这样一个超平面,这个超平面使得数据点落到超平面的垂直距离和,也就是margin,最大。当这样一个超平面寻找到时,可以理解为对数据做出了置信度最高的分类。为了把数据映射到高维空间中,我们通常使用核函数,比较常用的有线性核,高斯核等。额外说一点,SVM对outlier比较敏感,support vecter里面出现outlier 会影响超平面,减小margin,为了解决这个问题,会使用松弛变量,允许数据在一定程度上偏离超平面。

2. Tensorflow的计算图:TF框架的计算分为两个阶段,先是定义计算图中所有的计算,然后在session中执行计算。TF的计算图用节点和边线来描述数学计算,节点表示数学操作,比如求和/乘积;边线表示数据的流动,节点间的输入输出关系。变量输入数据,计算图构建计算任务,session执行计算。

3. GB,GBDT,XGBoost:这类以决策书为基础的算法和核心是迭代多个弱的模型,然后将弱模型的结果相加得到最优解。比如先对数据做一个简单的线性拟合,计算拟合后的残差,再将该残差作为新模型的输入再次预测,如此反复迭代直到残差不再改变(这种迭代方式类似我之前用的过RAP-MUSIC)。GBDT和XGB是把GB的思想应用于决策树上。XGB是GBDT的高效实现,XGB在目标函数中加入了正则化项,在一阶导数外还是用了二阶导数, 二阶导数有利于梯度下降的更快更准. ;此外,在分割形成新的树时,GBDT的方法是枚举,XGB是近似算法列出几个候选者;XGB考虑了训练值为稀疏值的情况,为稀疏值指定了默认方向;XGB可以并行处理每个特征,提高了算法效率。

4.在k-means或kNN,我们是用欧氏距离来计算最近的邻居之间的距离。为什么不用曼哈顿距离?欧式距离是L2范数,曼哈顿距离L1范数,受坐标轴变换的影响,数据的偏移,旋转均会对L1产生影响。

5. 线性回归:y = w*x 特征和输出都是线性关系;逻辑回归:x和y之间通过逻辑回归函数映射,即sigmod函数,sigmoid函数对不同的权重呈现不同的特点,小权重时,函数线性,随着权值增加,呈现非线性,当权值增加到一定程度,函数饱和,解决了非线性数据的拟合问题,且从数值计算角度解决了数值溢出的问题。对于一组非线性数据,存在多个下陷的局部最小值,如果直接使用线性拟合,很容易陷入,而使用逻辑回归,可以形成凸函数。

adaboost, svm, lr 三个算法的关系:损伤函数不同,分布对应exponential loss, hinge loss,和log loss.

LR和SVM都可以处理分类问题,且一般都用于处理线性二分类问题(在改进的情况下可以处理多分类问题) 

两个方法都可以增加不同的正则化项,如L1、L2等等。所以在很多实验中,两种算法的结果是很接近的。 

区别: 

1、LR是参数模型,SVM是非参数模型。 

2、从目标函数来看,区别在于逻辑回归采用的是Logistical Loss,SVM采用的是hinge loss.这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。 

3、SVM的处理方法是只考虑Support Vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。 

另外线性回归在整个实数域范围内进行预测,敏感度一致,而分类范围,需要在[0,1]。逻辑回归就是一种减小预测范围,将预测值限定为[0,1]间的一种回归模型,因而对于这类问题来说,逻辑回归的鲁棒性比线性回归的要好。 

6 overfitting怎么解决(lve)

7. XGBoost如何寻找最优特征?是又放回还是无放回的呢?XGBoost在训练的过程中给出各个特征的评分,从而表明每个特征对模型训练的重要性.。XGBoost利用梯度优化模型算法, 样本是不放回的(想象一个样本连续重复抽出,梯度来回踏步会不会高兴)。但XGBoost支持子采样, 也就是每轮计算可以不使用全部样本。

8 谈谈判别式模型和生成式模型?

9. L1和L2正则先验分别服从什么分布

10. CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?

以上几个不相关问题的相关性在于,都存在局部与整体的关系,由低层次的特征经过组合,组成高层次的特征,并且得到不同特征之间的空间相关性.

CNN抓住此共性的手段主要有四个:局部连接/权值共享/池化操作/多层次结构。

局部连接使网络可以提取数据的局部特征;权值共享大大降低了网络的训练难度,一个Filter只提取一个特征,在整个图片(或者语音/文本) 中进行卷积;池化操作与多层次结构一起,实现了数据的降维,将低层次的局部特征组合成为较高层次的特征,从而对整个图片进行表示.

如果每一个点的处理使用相同的Filter,则为全卷积,如果使用不同的Filter,则为Local-Conv。

DeepFace 先进行了两次全卷积+一次池化,提取了低层次的边缘/纹理等特征。

后接了3个Local-Conv层,这里是用Local-Conv的原因是,人脸在不同的区域存在不同的特征(眼睛/鼻子/嘴的分布位置相对固定),当不存在全局的局部特征分布时,Local-Conv更适合特征的提取。

11. 说一下Adaboost,权值更新公式。当弱分类器是Gm时,每个样本的的权重是w1,w2…,请写出最终的决策公式。

12. LSTM结构推导,为什么比RNN好. RNN主要用于处理序列数据,基础神经网络只在层与层间建立联系, RNN在层之间也建立了联系,所以当序列不断推进时,前面的隐层会影响后面的隐层;当上一个单元的输出的特征根》1,出现梯度爆炸问题,<1出现梯度消失。为了解决这个问题,提出LSTM,有四扇门input gate控制数据的读入,forget gate决定在系统中忘记哪部分数据,gate gate更新细胞状态,output gate决定输出的内容,通过这种结构实现长期记忆,解决了梯度爆炸/消失的问题。

13. 贝叶斯方法 P(x|y) 在已经发生y的情况下,从若干个备选方案中找到发生概率最大的x的概率。P(x|y)=P(y|x)*P(x)/P(y), 比如google的拼写检查,写出一部分后,常见词的P(X)更大,P(y|x)则表示正确词拼错的概率,越相似的词拼错的概率越高。

14 机器学习中,为何要经常对数据做归一化. 1)归一化后加快了梯度下降求最优解的速度;2)归一化有可能提高精度。如下图所示,蓝色的圈圈图代表的是两个特征的等高线。其中左图两个特征X1和X2的区间相差非常大,X1区间是[0,2000],X2区间是[1,5],其所形成的等高线非常尖。当使用梯度下降法寻求最优解时,很有可能走“之字型”路线(垂直等高线走),从而导致需要迭代很多次才能收敛;

      而右图对两个原始特征进行了归一化,其对应的等高线显得很圆,在梯度下降进行求解时能较快的收敛。

      因此如果机器学习模型使用梯度下降法求最优解时,归一化往往非常有必要,否则很难收敛甚至不能收敛。

一些分类器需要计算样本之间的距离(如欧氏距离),例如KNN。如果一个特征值域范围非常大,那么距离计算就主要取决于这个特征,从而与实际情况相悖(比如这时实际情况是值域范围小的特征更重要)

15. Batch Normalization: BatchNorm就是在深度神经网络训练过程中使得每一层神经网络的输入保持相同分布的。于深度学习这种包含很多隐层的网络结构,在训练过程中,因为各层参数不停在变化,所以每个隐层都会面临covariate shift的问题,也就是在训练过程中,隐层的输入分布老是变来变去,这就是所谓的“Internal Covariate Shift”,Internal指的是深层网络的隐层,是发生在网络内部的事情,而不是covariate shift问题只发生在输入层。之前的研究表明如果在图像处理中对输入图像进行白化(Whiten)操作的话——所谓白化,就是对输入数据分布变换到0均值,单位方差的正态分布——那么神经网络会较快收敛,那么BN作者就开始推论了:图像是深度神经网络的输入层,做白化能加快收敛,那么其实对于深度网络来说,其中某个隐层的神经元是下一层的输入,意思是其实深度神经网络的每一个隐层都是输入层,不过是相对下一层来说而已,那么能不能对每个隐层都做白化呢?这就是启发BN产生的原初想法,而BN也确实就是这么做的,可以理解为对深层神经网络每个隐层神经元的激活值做简化版本的白化操作。

BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值(就是那个x=WU+B,U是输入)随着网络深度加深或者在训练过程中,其分布逐渐发生偏移或者变动,之所以训练收敛慢,一般是整体分布逐渐往非线性函数的取值区间的上下限两端靠近(对于Sigmoid函数来说,意味着激活输入值WU+B是大的负值或正值),所以这导致反向传播时低层神经网络的梯度消失,这是训练深层神经网络收敛越来越慢的本质原因而BN就是通过一定的规范化手段,把每层神经网络任意神经元这个输入值的分布强行拉回到均值为0方差为1的标准正态分布,其实就是把越来越偏的分布强制拉回比较标准的分布,这样使得激活输入值落在非线性函数对输入比较敏感的区域,这样输入的小变化就会导致损失函数较大的变化,意思是这样让梯度变大,避免梯度消失问题产生,而且梯度变大意味着学习收敛速度快,能大大加快训练速度。

16.请简要说说一个完整机器学习项目的流程。

1 抽象成数学问题 

明确问题是进行机器学习的第一步。机器学习的训练过程通常都是一件非常耗时的事情,胡乱尝试时间成本是非常高的。 

这里的抽象成数学问题,指的我们明确我们可以获得什么样的数据,目标是一个分类还是回归或者是聚类的问题,如果都不是的话,如果划归为其中的某类问题。 

2 获取数据 

数据决定了机器学习结果的上限,而算法只是尽可能逼近这个上限。 

数据要有代表性,否则必然会过拟合。 

而且对于分类问题,数据偏斜不能过于严重,不同类别的数据数量不要有数个数量级的差距。 

而且还要对数据的量级有一个评估,多少个样本,多少个特征,可以估算出其对内存的消耗程度,判断训练过程中内存是否能够放得下。如果放不下就得考虑改进算法或者使用一些降维的技巧了。如果数据量实在太大,那就要考虑分布式了。 

3 特征预处理与特征选择 

良好的数据要能够提取出良好的特征才能真正发挥效力。 

特征预处理、数据清洗是很关键的步骤,往往能够使得算法的效果和性能得到显著提高。归一化、离散化、因子化、缺失值处理、去除共线性等,数据挖掘过程中很多时间就花在它们上面。这些工作简单可复制,收益稳定可预期,是机器学习的基础必备步骤。 

筛选出显著特征、摒弃非显著特征,需要机器学习工程师反复理解业务。这对很多结果有决定性的影响。特征选择好了,非常简单的算法也能得出良好、稳定的结果。这需要运用特征有效性分析的相关技术,如相关系数、卡方检验、平均互信息、条件熵、后验概率、逻辑回归权重等方法。 

4 训练模型与调优 

直到这一步才用到我们上面说的算法进行训练。现在很多算法都能够封装成黑盒供人使用。但是真正考验水平的是调整这些算法的(超)参数,使得结果变得更加优良。这需要我们对算法的原理有深入的理解。理解越深入,就越能发现问题的症结,提出良好的调优方案。 

5 模型诊断 

如何确定模型调优的方向与思路呢?这就需要对模型进行诊断的技术。 

过拟合、欠拟合 判断是模型诊断中至关重要的一步。常见的方法如交叉验证,绘制学习曲线等。过拟合的基本调优思路是增加数据量,降低模型复杂度。欠拟合的基本调优思路是提高特征数量和质量,增加模型复杂度。 

误差分析 也是机器学习至关重要的步骤。通过观察误差样本,全面分析误差产生误差的原因:是参数的问题还是算法选择的问题,是特征的问题还是数据本身的问题…… 

诊断后的模型需要进行调优,调优后的新模型需要重新进行诊断,这是一个反复迭代不断逼近的过程,需要不断地尝试, 进而达到最优状态。 

6 模型融合 

一般来说,模型融合后都能使得效果有一定提升。而且效果很好。 

工程上,主要提升算法准确度的方法是分别在模型的前端(特征清洗和预处理,不同的采样模式)与后端(模型融合)上下功夫。因为他们比较标准可复制,效果比较稳定。而直接调参的工作不会很多,毕竟大量数据训练起来太慢了,而且效果难以保证。 

7 上线运行 

这一部分内容主要跟工程实现的相关性比较大。工程上是结果导向,模型在线上运行的效果直接决定模型的成败。 不单纯包括其准确程度、误差等情况,还包括其运行的速度(时间复杂度)、资源消耗程度(空间复杂度)、稳定性是否可接受。 

17.如何解决梯度消失和梯度膨胀?

梯度消失: 

根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0。 

梯度膨胀: 

根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大。

1.)梯度剪切这个方案主要是针对梯度爆炸提出的,其思想是设置一个梯度剪切阈值,然后更新梯度的时候,如果梯度超过这个阈值,那么就将其强制限制在这个范围之内。这可以防止梯度爆炸.

2) 另外一种解决梯度爆炸的手段是采用权重正则化(weithts regularization)比较常见的是l1l1正则,和l2l2正则,正则化是通过对网络权重做正则限制过拟合,仔细看正则项在损失函数的形式.如果发生梯度爆炸,权值的范数就会变的非常大,通过正则化项,可以部分限制梯度爆炸的发生。

3) relu、leakrelu、elu等激活函数

4) batchnorm

5) 残差结构:残差可以很轻松的构建几百层,一千多层的网络而不用担心梯度消失过快的问题,原因就在于残差的捷径(shortcut)部分, 相比较于以前网络的直来直去结构,残差中有很多这样的跨层连接结构,这样的结构在反向传播中具有很大的好处, 小括号中的1表明短路机制可以无损地传播梯度,而另外一项残差梯度则需要经过带有weights的层,梯度不是直接传递过来的。残差梯度不会那么巧全为-1,而且就算其比较小,有1的存在也不会导致梯度消失。所以残差学习会更容易。

6) LTSM

18. 正则化 又称为”惩罚“,penalty,  正则化的一般形式是在整个平均损失函数后增加一个正则项,简化模型

19 协方差和相关性有什么区别?协方差在概率论统计学中用于衡量两个变量的总体误差;相关系数由于它是标准化后的协方差,因此更重要的特性来了:它消除了两个变量变化幅度的影响,而只是单纯反应两个变量每单位变化时的相似程度。

20 贝叶斯定理

21sigmoid激活函数。

22卷积:对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作

23pool层:取区域平均或最大

24 极大似然估计方法:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。

24生成对抗网络相关知识点:

1)贝叶斯和SVM的区别:svm的决策函数是y = f(x), 对于输入x, 输出y, 这个y和一个阈值比较,判断属于哪个类别;贝叶斯使用条件概率分布p(y|x),对于输入x, 比较x属于所有类别的概率,然后输出概率对大的那个最为x对应的类别。

相同点是:设计分类器的实质是寻找一个分类树或者分类面,在给定数据x的基础上估计数据的概率模型。

2)判别方法/判别模型:有输入x直接学习决策函数或者条件概率分布。在有限样本的条件下建立判别函数,不考虑样本的产生模型,直接研究预测模型。包括:knn, xgboost, svm。不能反映训练数据本身的特性。但它寻找不同类别之间的最优分类面,反映的是异类数据之间的差异。直接面对预测,往往学习的准确率更高。由于直接学习P(Y|X)或P(X),可以对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习问题。

生成方法/生成模型:有数据x学习联合概率密度分布P(X,Y),然后求条件概率分布P(Y|X)=P(X,Y)/P(X). 要学习P(x )的概率分布,要求样本足够大。不能反映训练数据本身的特性。从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度。但它不关心到底划分各类的那个分类边界在哪。生成方法可以还原出联合概率分布P(Y|X),而判别方法不能。生成方法的学习收敛速度更快,即当样本容量增加的时候,学到的模型可以更快的收敛于真实模型,当存在隐变量时,仍可以用生成方法学习。此时判别方法就不能用。

由生成模型可以得到判别模型,但由判别模型得不到生成模型。

3)GANs简单的想法就是用两个模型,一个生成模型,一个判别模型。判别模型用于判断一个给定的图片是不是真实的图片(判断该图片是从数据集里获取的真实图片还是生成器生成的图片),生成模型的任务是去创造一个看起来像真的图片一样的图片,有点拗口,就是说模型自己去产生一个图片,可以和你想要的图片很像。而在开始的时候这两个模型都是没有经过训练的,这两个模型一起对抗训练,生成模型产生一张图片去欺骗判别模型,然后判别模型去判断这张图片是真是假,最终在这两个模型训练的过程中,两个模型的能力越来越强,最终达到稳态。

25. 哪些机器学习算法不需要做归一化处理?

概率模型不需要归一化,因为它们不关心变量的值,而是关心变量的分布和变量之间的条件概率,如决策树、RF。而像Adaboost、GBDT、XGBoost、SVM、LR、KNN、KMeans之类的最优化问题就需要归一化。

26. 梯度下降法。梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向,因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“。最速下降法越接近目标值,步长越小,前进越慢。(1)靠近极小值时收敛速度减慢 (2)直线搜索时可能会产生一些问题;(3)可能会“之字形”地下降。

随机梯度下降:随机梯度下降每次迭代只使用一个样本,迭代一次计算量为n2,当样本个数m很大的时候,随机梯度下降迭代一次的速度要远高于批量梯度下降方法。两者的关系可以这样理解:随机梯度下降方法以损失很小的一部分精确度和增加一定数量的迭代次数为代价,换取了总体的优化效率的提升。增加的迭代次数远远小于样本的数量。

牛顿法:方法使用函数(x)的泰勒级数的前面几项来寻找方程(x) = 0的根。牛顿法最大的特点就在于它的收敛速度很快。牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯度下降法看得更远一点,能更快地走到最底部

 拟牛顿法的本质思想是改善牛顿法每次需要求解复杂的Hessian矩阵的逆矩阵的缺陷,它使用正定矩阵来近似Hessian矩阵的逆,从而简化了运算的复杂度。

共轭梯度法是介于最速下降法与牛顿法之间的一个方法,它仅需利用一阶导数信息,但克服了最速下降法收敛慢的缺点,又避免了牛顿法需要存储和计算Hesse矩阵并求逆的缺点,共轭梯度法不仅是解决大型线性方程组最有用的方法之一,也是解大型非线性最优化最有效的算法之一

27. 最小二乘法:优化最小化误差的平方和寻找数据的最佳函数匹配

28.常见的损失函数

1) 0正确-1错误

2)L1范数

3)L2范数

4)对数log loss  -logP(Y|X)即预测正确的概率

5) Hinge损失函数 SVM,用来最大化“分类间隔”

6) Cross Entropy Loss:交叉熵就是用来判定实际的输出与期望的输出的接近程度, 刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。



29 优化方法总结:

1) SGD  Stochastic Gradient Descent 每读入一个数据,立刻计算cost function的梯度更新参数。收敛快,易陷入局部最小和鞍点。

2)mini-batch Gradient Descent 从训练集中取出子集计算梯度,每轮迭代一个mini-batch的梯度,效率高,收敛稳定。缺点是学习率选择困难

3)monentum 模拟物体运动关系,在更新梯度的时候一定程度上保留之前的方向,利用当前batch的梯度进行微调,增加稳定性

4)Adagrad 可以条件学习率,每轮训练中对每个参数的学习率进行调整

5)RMSprop 自适应学习率,Adagrad会累加之前所有的梯度平方,而RMSprop仅仅是计算对应的平均值,因此可缓解Adagrad算法学习率下降较快的问题

6)Adam也是一种自适应学习率的方法,相当于RMSprop和momentum的结合,它利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。Adam的优点主要在于经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳。

29.CV框架

1) lenet:6 conv-pool-conv-pool-fc-fc

2) AlexNet 8: conv-pool-norm-conv-pool-norm-conv-conv-conv-pool-fc-fc-fc 首次使用relu作为激活函数(解决梯度消失问题,单侧激活) 加入了normalization layer和dropout单元 一定程度上解决过拟合的问题

alexnet 8 conv-conv-pool-conv-pool-conv-conv-pool-fc-fc-fc

zfnet : 类似alexnet, 但是第一个卷积层变得更小,第3,4,5卷积层用了更多的filter

3)vgg16/19: 用更小的3*3滤波器和更深的网络, 有效接受域相同,但是参数更少;更深的网络可以增加模型的非线性

vgg16:conv-conv-pool-conv-conv-pool-conv-conv-pool-conv-conv-conv-pool-conv-conv-conv-pool-fc-fc-fc

vgg19:conv-conv-pool-conv-conv-pool-conv-conv-pool-conv-conv-conv-conv-pool-conv-conv-conv-conv-pool-fc-fc-fc

4)googlenet: 22 inception module, 没有全链接层

inception module: 输入-》1×1conv,3×3 conv, 5×5 conv, 3×3 pool->输出  用1×1的bottleneck layer减少通道数量,增加模型的分辨率

5) resnet

residual block 输入-conv-conv-输出;输入-》输出

30 DICOM文件格式: DICOM格式存储了医学图像信息和详细的医疗档案。主要分为两部分:头文件由128个预定义的引导字节和4个字节前缀构成;数据部分依次排列,每个数据部分由四个组分构成,tag,value representation,length,value field。对于图像的存储,dicom采用位图格式,即逐点表示出每个位置的颜色,亮度信息。

31 watershed vs deep watershed: 分水岭算法的原理把图像看作地形,像素的灰度值看成海拔,标记出局部最小值,然后从各个局部最小值慢慢扩展,相邻的盆地间的分割构成分水岭。分水岭方法容易产生过度分割的问题,优化主要围绕三个方面展开:最小值的选择,分水岭的边界和地形高度。

:影像科医生并不是直接根据片子得出诊断结果的,还要结合病人的年龄、性别、家族史等临床资料,过程非常复杂。病理科同样如此,比如病理科医生诊断一个病人是否患有肿瘤,一定要和放射科医生和临床外科医生讨论后才能下结论。

机器肯定可以替医生减轻负担。我们可以把一部分机器能够解决的问题交给它处理,帮助医生变得更加高效。我认为,人工智能主要需要解决三类问题:一、医生没时间去做的事;二、医生需要工具辅助才能解决的事;三、简化成像流程,让其更加标准规范。标准化和规范化的好处在于,可以帮助医生更方便地找到需要的信息。从这个角度来说,AI确实可以帮助医生降低工作难度。

另外,临床上医生需要对病情有动态的观察。比如,病人第一次来医院检查,发现了小结节或者毛玻璃结节,医生一般会建议其三个月或者六个月后来复查。医生最烦看复查的片子了,因为病人虽然只做了一次检查,医生却要将其所有的历史检查结果都看一遍。假如AI可以自动将结节的影像与历史数据比较,分析密度、大小的变化,医生很容易就可以得出诊断结论。

再比如体验。以前都是用胸片体检,不怎么能发现病灶,现在都改成用高分辨率的薄层CT了,光肺部就有几百张薄层CT图像。医生检查的时候起码要看三四遍,否则就容易漏掉结节,工作量非常大。医生疲劳的时候也容易犯错,对结节熟视无睹。假如AI可以先把所有结节都圈出来,医生就轻松多了。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,884评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,347评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,435评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,509评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,611评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,837评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,987评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,730评论 0 267
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,194评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,525评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,664评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,334评论 4 330
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,944评论 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,764评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,997评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,389评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,554评论 2 349

推荐阅读更多精彩内容