摘要
传统方法的缺点:因为使用或者 球邻域构建图结构,以及欧氏距离计算数据点之间的相似性,对噪声敏感。并且SLGDA这些构造图结构的方法是向量模型,不能获得HSI的内在几何结构。
提出了一个patch tensor-based sparse and low-rank graph(PT-SLG)(我估计是基于TSLGDA做的,TSLGDA是基于SLGDA做的)。
这里提到一个聚类策略探索非局部相似度信息,能够增强低秩稀疏约束,并且能够减少计算损失,这个方法考虑了所有张量样本空间域的联合相似性,能够增强信息性。
引言
前面都讲的差不多。
关注下PT-SLG的东西。
区别:
- TSLGDA是有监督的,PT-SLG是无监督;
- TSLGDA投影是基于TLPP框架(我感觉说的是张量模乘投影);
- PT-SLG的计算效率大大优于TSLGDA;
PT-SLG的优点:
- 张量模型的优点:自然的保留空间结构,增强空间信息;
- 稀疏低秩的优点:低秩探索全局结构使得结构鲁棒,稀疏探索局部结构;
- 聚类方法的优点(感觉这部分是重点也是区别于TSLGDA的东西):把张量样本分为若干簇,对每一个簇建立子图,最后把子图拼接成最后的图。
聚类方法的好处(还不能理解):
- 能够把被同一土地覆盖的样本尽可能的分到同一个簇,所以同一个簇里的样本在空间区域上有更高的相似性,在光谱区域上有更多冗余(把这个东西施加在子图上,能够消除冗余和提取更多的结构信息);
- 通过聚类算法能够使得每一个样本被同一类中的其它样本表示,这能够稀疏表示的解空间,并且能够减少计算花费。
克罗内克积(之前的张量方面的文章都没有用到这个)
克罗内克积是两个任意大小的矩阵间的运算,是张量积的特殊形式。
其中,则。
(感觉像是,把两个矩阵里面所有元素的互相乘了一遍)
相关工作
-
Graph Embedding
graph embedding是向量模型中的求投影矩阵的基本框架。
把高光谱看成共计M个像素点,,为了找到投影矩阵。
构建内在图,惩罚图
优化目标是:
其中,。
优化目标等价于:
再变成广义特征值问题:
-
Sparse Graph
思想是,每一个样本能被其它样本表示的线性组合表示出来。
优化目标是:
0范数是np难问题,松弛为1范数求解(具体为啥还没看懂)
-
LRR and Low-Rank
这里的是等价于稀疏表示中的。
由于这里求rank也是比较困难,用核范数来代替
是噪声项。 -
Sand Low-Rank Decomposition of Tensor Dataset
自然而然的把稀疏和低秩表示融合在一起就是稀疏低秩了。
我们先看SLGDA,是针对于向量模型的稀疏低秩判别分析。
优化目标是:
把这里的输入变成张量就变成了TSLGDA,
优化目标是:
这是TSLGDA里面的描述。
我不喜欢这篇文章里的描述,他没有说清楚3阶张量是如何变成4阶的(暂时我有两个想法不知道对不对)
TSLGDA里面遵循的是SLGDA的框架,先算,接着使用TLPP的算投影矩阵的框架来算出3个投影矩阵(TLPP算法也是需要先求),接着使用张量模乘来做投影。
本文里的方法
优化目标:
约束条件里面是张量的模乘,张量模乘的结果在一个轴展开可以和矩阵乘法是等价的,因此可以变为:
这里写的稀疏低秩分解就和TSLGDA里面不太一样,
感觉上是不用求,直接求4个投影矩阵。
引入辅助标量:
接着写成增广拉格朗日形式:
接着就是常规的求导求解过程:
算法表格为:
接下来就是我感觉最吸引我,最创新的地方
- 针对第三个光谱轴上的投影问题,文章把这里张量的降维重新变成graph embedding框架里。
通过三个步骤求出第三个轴光谱轴的投影矩阵。我不明白的是这里的求解为什么不用,保留了空间信息,保留的是样本信息,把这三个组合在一起,为什么要舍掉 -
聚类
因为对所有样本中稀疏表示使得,一个样本能表示成其它很多样本的线性组合,计算起来非常麻烦。
使用k-means,使得每一簇里的样本就被它所在的簇里的样本线性表示,能减少计算花费。
这也是我认为的闪光点。
还是通过张量的模乘降维:
本文的算法表格为: