Learning Time-Series Shapelets
前言
在最早期的shapelets模型中,一条shaplets是从一个时间序列训练集中的所有时间序列中抽取一个最具代表性的。而这一篇文章模型所得到的Shapelets并不是抽取到的,而是学习得到的(Learning)。
符号说明
符号 | 含义 |
---|---|
第i条时间序列Ti和第k条shpelets之间的最短距离 |
过程
首先是目标函数:
这个目标函数其实如果了解支持向量机的前身感知器模型的话,就会比较容易理解。
这是一个线性的目标函数,目的只是二分类。Mi,k乘以权重Wk,然后再加上偏置项W0就可以了。例如,如果最后结果大于0,那就是第一类,如果结果小于0那就是第二类。
但我存在的疑问是,支持向量机的原理只是根据损失函数更新权重Wk,那么这篇论文里是怎么根据损失函数更新学习到的shapelets的呢。并且论文中3.4第一段也提到:
In order to compute the derivative of the objective funtion,all the involved functions of the model need to be defferentiable.** Unfortunatly, the minimum function of Equation 1 is not differentiable** and the partial [图片上传失败...(image-7ec05e-1604300219721)] is not defined. A differentiable approximation to the minimum function is introduced in this section.
接着论文里介绍,一种求导的近似方法叫做soft minimum function(我用bing还有百度搜索了一下,暂时没有找到介绍这个的博客,所以就不再细究)。
然后我在这个算法伪代码里看到了如果修改shapelets的内容的:
总结
总结来说,这篇论文摒弃了从原始时间序列中抽取shapelets的思想(因为太耗时耗力),转而通过一个线性回归分类模型学习到一个shapelets。到这里,模型还只能解决二分类问题,要解决多分类问题怎么办呢。这个时候就可以利用OvO和OvR的思想来进行多分类。