模式分类中的特征融合方法 | 小王来教你

模式分类中的特征融合方法

2019年1月12日 0 条评论 12 次阅读 0 人点赞

概念、基本术语

信息融合:将来源不同的信息整合到一起,去冗余;得到的融合信息将利于我们之后的分析处理。
信息融合分为三个层次:数据融合,特征融合,决策融合。如下图所示:
论文图集2
这篇文章重点介绍了信息的特征融合,原因是:计算机性能的大幅提升,机器学习尤其是深度学习的快速发展,特征融合的优势越来越明显。

特征融合的分类

特征融合算法主要可以分为三类:
1.基于贝叶斯决策理论的算法
2.基于稀疏表示理论的算法
3.基于深度学习理论算法

基于贝叶斯理论的特征融合算法

已知模式空间Ω包含c种模式,记为:Ω={ω1,,ωc},未知样本xN维实值特征组成,记为x=[x1,x2,,xN]N.根据最小错误率的贝叶斯决策理论,若将样本分为第j类,则该类就是在已知样本x条件下后验概率最大的模式类,这个决策过程可以表示为:

ifF(ωj)xωj=maxk=1,,cP(ωk|x)


其中:P(ωk|x)表示第k类的后验概率,k{1,2,,c}

分类器的乘法规则和加法规则

假定将x看做分类器的输出结果,就可以得到贝叶斯理论的的分类器融合算法。假定有M个分类器,那么每个分类器都会输出一个结果yi,因此得到此时的特征为:y=[y1,,yM].那么对于一个未知样本y,决策过程可以表示为:

ifF(ωj)yωj=maxk=1,,cP(ωk|y1,,yM)


其中:P(ωk|y1,,yM)表示在已知M个分类器输出结果的条件下第k类的后验概率,k{1,2,,c}.在此基础之上引入分类器独立性假设并结合下式:

P(ωk|yi,,yM)=p(y1,,yM|ωk)p(ωk)p(y1,,yM)


就可以得到分类器融合的乘法规则:

ifF(ωj)yωj=maxk=1,,cP(M1)(ωk)i=1MP(ωk|yi)


上面这个会有一个问题,就是当p(ωk|xi)为0时会出问题。再在乘法规则的基础上,再引入先验概率和后验概率近似相等:

P(ωk|xi)=P(wk)(1+δki)


其中:δki是一个很小的值。
最终可以推导出,分类器融合的加法规则:

ifF(ωj)yωj=maxk=1,,c[(1M)P(ωk)+i=1MP(ωk|yi)]

基于线性特征依赖模型的特征融合算法

由于分类器独立性假设与先验概率和后验概率近似相等都有相应的成立条件,在一些场景中不一定通用。因此需要将其进行进一步泛化。这个公式有点多,就不贴上来的,主要的思路还是一样的。

基于稀疏表示理论的特征融合算法

稀疏表示的基本思想是使用数据稀疏这一先验知识,从一个超完备字典中找到尽可能少的原子对目标信号进行线性表示。稀疏表示问题可以表示为,对于向量bRm和矩阵ARm×n,我们希望找到一个向量xRn,使得Ax=b并且向量的xl0范数(0范数表示向量中非零元素的个数,1范数表示元素绝对值之和)要尽可能小。用公式表示为:

min||x||0s.tAx=b


基于稀疏表示理论的特征融合算法是对样本提取多特征后建立特征联合稀疏矩阵,这个矩阵就是多特征融合的结果。就是将不同类型的特征的字典进行融合。

基于深度学习理论的特征融合算法

就是将多个神经网络得到的特征进行融合就得到了融合的特征。

rmrhsch

rmrhsch

这个人太懒什么东西都没留下

文章评论(0)