矩阵求导(上)

转自:https://zhuanlan.zhihu.com/p/24709748

矩阵求导的技术,在统计学、控制论、机器学习等领域有广泛的应用。鉴于我看过的一些资料或言之不详、或繁乱无绪,本文来做个科普,分作两篇,上篇讲标量对矩阵的求导术,下篇讲矩阵对矩阵的求导术。本文使用小写字母x表示标量,粗体小写字母[公式]表示(列)向量,大写字母X表示矩阵。


首先来琢磨一下定义,标量f对矩阵X的导数,定义为[公式],即f对X逐元素求导排成与X尺寸相同的矩阵。然而,这个定义在计算中并不好用,实用上的原因是对函数较复杂的情形难以逐元素求导;哲理上的原因是逐元素求导破坏了整体性。试想,为何要将f看做矩阵X而不是各元素[公式]的函数呢?答案是用矩阵运算更整洁。所以在求导时不宜拆开矩阵,而是要找一个从整体出发的算法。


为此,我们来回顾,一元微积分中的导数(标量对标量的导数)与微分有联系:[公式];多元微积分中的梯度(标量对向量的导数)也与微分有联系:[公式],这里第一个等号是全微分公式,第二个等号表达了梯度与微分的联系:全微分[公式]是梯度向量[公式](n×1)与微分向量[公式](n×1)的内积;受此启发,我们将矩阵导数与微分建立联系:[公式]。其中tr代表迹(trace)是方阵对角线元素之和,满足性质:对尺寸相同的矩阵A,B,[公式],即[公式]是矩阵A,B的内积。与梯度相似,这里第一个等号是全微分公式,第二个等号表达了矩阵导数与微分的联系:全微分[公式]是导数[公式](m×n)与微分矩阵[公式](m×n)的内积。


然后来建立运算法则。回想遇到较复杂的一元函数如[公式],我们是如何求导的呢?通常不是从定义开始求极限,而是先建立了初等函数求导和四则运算、复合等法则,再来运用这些法则。故而,我们来创立常用的矩阵微分的运算法则:

  1. 加减法:[公式];矩阵乘法:[公式];转置:[公式];迹:[公式]
  2. 逆:[公式]。此式可在[公式]两侧求微分来证明。
  3. 行列式:[公式],其中[公式]表示X的伴随矩阵,在X可逆时又可以写作[公式]。此式可用Laplace展开来证明,详见张贤达《矩阵分析与应用》第279页。
  4. 逐元素乘法:[公式][公式]表示尺寸相同的矩阵X,Y逐元素相乘。
  5. 逐元素函数:[公式][公式]是逐元素标量函数运算, [公式]是逐元素求导数。例如[公式]


我们试图利用矩阵导数与微分的联系[公式],在求出左侧的微分[公式]后,该如何写成右侧的形式并得到导数呢?这需要一些迹技巧(trace trick):

  1. 标量套上迹:[公式]
  2. 转置:[公式]
  3. 线性:[公式]
  4. 矩阵乘法交换:[公式],其中[公式][公式]尺寸相同。两侧都等于[公式]
  5. 矩阵乘法/逐元素乘法交换:[公式],其中[公式]尺寸相同。两侧都等于[公式]


观察一下可以断言,若标量函数f是矩阵X经加减乘法、逆、行列式、逐元素函数等运算构成,则使用相应的运算法则对f求微分,再使用迹技巧给df套上迹并将其它项交换至dX左侧,对照导数与微分的联系[公式],即能得到导数。

特别地,若矩阵退化为向量,对照导数与微分的联系[公式],即能得到导数。


在建立法则的最后,来谈一谈复合:假设已求得[公式],而Y是X的函数,如何求[公式]呢?在微积分中有标量求导的链式法则[公式],但这里我们不能随意沿用标量的链式法则,因为矩阵对矩阵的导数[公式]截至目前仍是未定义的。于是我们继续追本溯源,链式法则是从何而来?源头仍然是微分。我们直接从微分入手建立复合法则:先写出[公式],再将dY用dX表示出来代入,并使用迹技巧将其他项交换至dX左侧,即可得到[公式]

最常见的情形是[公式],此时 [公式] ,可得到[公式]。注意这里[公式],由于[公式]是常量,[公式],以及我们使用矩阵乘法交换的迹技巧交换了[公式][公式]


接下来演示一些算例。特别提醒要依据已经建立的运算法则来计算,不能随意套用微积分中标量导数的结论,比如认为AX对X的导数为A,这是没有根据、意义不明的。

例1:[公式],求[公式]。其中[公式][公式]列向量,[公式][公式]矩阵,[公式][公式]列向量,[公式]是标量。

解:先使用矩阵乘法法则求微分,[公式],注意这里的[公式]是常量,[公式]。由于df是标量,它的迹等于自身,[公式],套上迹并做矩阵乘法交换:[公式],注意这里我们根据[公式]交换了[公式][公式]。对照导数与微分的联系[公式],得到[公式]

注意:这里不能用[公式],导数与矩阵乘法的交换是不合法则的运算(而微分是合法的)。有些资料在计算矩阵导数时,会略过求微分这一步,这是逻辑上解释不通的。


例2:[公式],求[公式]。其中[公式][公式]列向量,[公式][公式]矩阵,[公式][公式]列向量,exp表示逐元素求指数,[公式]是标量。

解:先使用矩阵乘法、逐元素函数法则求微分:[公式],再套上迹并做交换:[公式][公式],注意这里我们先根据[公式]交换了[公式][公式][公式],再根据[公式]交换了[公式][公式]。对照导数与微分的联系[公式],得到[公式]


例3:[公式],求[公式]。其中[公式][公式]矩阵,[公式][公式]矩阵,[公式][公式]矩阵,[公式][公式]对称矩阵,[公式]是逐元素函数,[公式]是标量。

解:先求[公式],求微分,使用矩阵乘法、转置法则:[公式],对照导数与微分的联系,得到[公式],注意这里M是对称矩阵。为求[公式],写出[公式],再将dY用dX表示出来代入,并使用矩阵乘法/逐元素乘法交换:[公式],对照导数与微分的联系,得到[公式]


例4【线性回归】:[公式], 求[公式]的最小二乘估计,即求[公式]的零点。其中[公式][公式]列向量,[公式][公式]矩阵,[公式][公式]列向量,[公式]是标量。

解:这是标量对向量的导数,不过可以把向量看做矩阵的特例。先将向量模平方改写成向量与自身的内积:[公式],求微分,使用矩阵乘法、转置等法则:[公式],注意这里[公式][公式]是向量,两个向量的内积满足[公式]。对照导数与微分的联系[公式],得到[公式][公式][公式],得到[公式]的最小二乘估计为[公式]


例5【方差的最大似然估计】:样本[公式],求方差[公式]的最大似然估计。写成数学式是:[公式],求[公式]的零点。其中[公式][公式]列向量,[公式]是样本均值,[公式][公式]对称正定矩阵,[公式]是标量,log表示自然对数。

解:首先求微分,使用矩阵乘法、行列式、逆等运算法则,第一项是[公式],第二项是[公式]。再给第二项套上迹做交换:[公式][公式][公式],其中先交换迹与求和,然后将 [公式]交换到左边,最后再交换迹与求和,并定义[公式]为样本方差矩阵。得到[公式]。对照导数与微分的联系,有[公式],其零点即[公式]的最大似然估计为[公式]


例6【多元logistic回归】:[公式],求[公式]。其中[公式]是除一个元素为1外其它元素为0的[公式]列向量,[公式][公式]矩阵,[公式][公式]列向量,[公式]是标量;log表示自然对数,[公式],其中[公式]表示逐元素求指数,[公式]代表全1向量。

解1:首先将softmax函数代入并写成[公式],这里要注意逐元素log满足等式[公式],以及[公式]满足[公式]。求微分,使用矩阵乘法、逐元素函数等法则:[公式]。再套上迹并做交换,注意可化简[公式],这是根据等式[公式],故[公式]。对照导数与微分的联系,得到[公式]

解2:定义[公式],则[公式],先同上求出[公式],再利用复合法则:[公式],得到[公式]


最后一例留给经典的神经网络。神经网络的求导术是学术史上的重要成果,还有个专门的名字叫做BP算法,我相信如今很多人在初次推导BP算法时也会颇费一番脑筋,事实上使用矩阵求导术来推导并不复杂。为简化起见,我们推导二层神经网络的BP算法。

例7【二层神经网络】:[公式],求[公式][公式]。其中[公式]是除一个元素为1外其它元素为0的的[公式]列向量,[公式][公式]矩阵,[公式][公式]矩阵,[公式][公式]列向量,[公式]是标量;log表示自然对数,[公式]同上,[公式]是逐元素sigmoid函数[公式]

解:定义[公式][公式][公式],则[公式]。在前例中已求出[公式]。使用复合法则,[公式],使用矩阵乘法交换的迹技巧从第一项得到[公式],从第二项得到[公式]。接下来对第二项继续使用复合法则来求[公式],并利用矩阵乘法和逐元素乘法交换的迹技巧:[公式],得到[公式]。为求[公式],再用一次复合法则:[公式],得到[公式]

推广:样本[公式][公式],其中[公式][公式]列向量,[公式][公式]列向量,其余定义同上。

解1:定义[公式][公式][公式],则[公式]。先同上可求出[公式]。使用复合法则,[公式],从第一项得到得到[公式],从第二项得到[公式],从第三项得到到[公式]。接下来对第二项继续使用复合法则,得到[公式]。为求[公式],再用一次复合法则:[公式],得到[公式][公式]

解2:可以用矩阵来表示N个样本,以简化形式。定义[公式][公式][公式][公式],注意这里使用全1向量来扩展维度。先同上求出[公式]。使用复合法则,[公式] ,从第一项得到[公式],从第二项得到[公式],从第三项得到到[公式]。接下来对第二项继续使用复合法则,得到[公式]。为求[公式],再用一次复合法则:[公式],得到[公式][公式]


posted @ 2020-04-06 10:44  Le1B_o  阅读(307)  评论(0编辑  收藏  举报