ICA的分类与区分


正文:

1 ICA的原理:

   通常采集到的信号并非直接处于信号源,也就是说我们采集到的信号和源信号往往不同。将源信号记为S,采集到的信号记为X。那么通过矩阵A来表示源信号在产生出到采集过程中进行的混合。那么就有公式1AS=X。分析信号时当然希望获得源信号,因为其最准确地反应着信息。那么所谓的独立成分分析的主要目的就是通过变换矩阵F,使得Z=FX尽可能地近似源信号。也即Z=FX=FASS,由式中我们可以看见若FA=I成立,可以获得最好的效果。但是SA都是未知,没法作为成功的分离的证据。那么根据分离成功的标准就产生了不同的分支。

   1.1最大非高斯性

  最大非高斯的定义来源于中心极限定理,其表述为非高斯分布的信号的混合使得信号更趋近于符合高斯分布。那么我们如果通过线性组合使得收集到的“更符合高斯分布”的混合信号变得具有最大非高斯性就意味着我们找到了“最优的分离方法”。那么接下来介绍的就是非高斯性的度量——峭度和负熵。

  峭度即为归一化后的四阶原点矩。其的特点为:高斯分布的峭度为零,非高斯分布不为零,故可以做高斯性的度量。由于使用峭度的算法鲁棒性差,故改成了另外的度量——负熵。负熵的物理含义是与信号具有相同协方差矩阵的高斯信号的熵与该信号的熵差值。所谓的FastICA即是对ICA的函数进行一系列的优化。具备了速度上的提升,所以名字里有个fast。虽然引进了负熵这一信息论概念,但是可见传统ICA的基本原理仍然同ICA一样是基于信号的非高斯性。

   1.2信息论方法

   信息也可以像质量高度一样进行测量,其共同点就是找到一个参照,然后进行比较自己是度量物的多少倍。信息的参照度量物就是一个具有是或非两种性质的独立事件,其可能性为2种。先来对比重量,重量的衡量可以用一个物体的质量是参照度量物体的多少倍,然后乘以该单位。那么信息的度量单位是bit,即代表了一个具有是非两种可能性的事件即参考事件。三个这样具有是非的独立事件的可能结果为8,四个为16可见可能性种类随事件数量的增长成幂次增长。概率的倒数就是事件可能性种类的数量,进行以二为底的对数运算,即可算出其等价于多少个参考事件。那么用一件事概率的倒数对2求对数再乘以他的概率既为其对度量事件倍数。熵H作为信息度量的名称,Hi= -pilog2pi

    Informax的出发点即为使得处理后的函数Hz)取得最大值。通过Hz),建立起关于信息与变换矩阵之间的函数关系,通过进行矩阵求导找到极值即可确定矩阵的值。


[1]李云霞. 盲信号分离算法及其应用[D].电子科技大学,2008.
[2]学习观.信息熵的公式是怎么被发明的
[3]栗科峰,赵建峰.基于信息极大化的ICA算法研究[J].通信技术,2011,44(05):113-115+118.

posted on 2020-03-11 17:13  Fewcompure  阅读(682)  评论(0)    收藏  举报

导航