行列の性質

POINT

  • よく使う行列の性質をまとめます.

【関連記事】

対称行列

${}^t \!A = A$($a_{ji}=a_{ij}$)を満たす行列を「対称行列」と呼びます.

逆行列

対称行列の逆行列
対称行列が正則であるとき,その逆行列も対称行列となる.
【証明】
対称行列$A$とその逆行列$A^{-1}$を考えます.
\begin{aligned}
A^{-1} A = A A^{-1} = 1
\end{aligned}
の各辺の転置をとれば
\begin{aligned}
{}^t \!A \, {}^t \!(A^{-1}) = {}^t \!(A^{-1})\, {}^t \!A = 1
\end{aligned}
です.これは,$({}^t \!A)^{-1} = {}^t \!(A^{-1})$を意味しています.したがって,
\begin{aligned}
{}^t \!(A^{-1})
&=({}^t \!A)^{-1} \\
&=A^{-1}
\end{aligned}
であることがわかります.//

逆行列

クラメルの公式

正方行列$A$の$(i,j)$成分を$a_{ij}$と表します.このとき,$i$成分が$1$で他の成分が$0$の単位ベクトル$e_i$,$A$の余因子行列$\Delta$を$(i,j)$成分が
\begin{aligned}
\Delta_{ij}
&:=\det{\left(Ae_1,...,\overset{i\text{番目}}{\breve{e_j}},...,Ae_n\right)}
\end{aligned}
の行列として定義します.すると,
\begin{aligned}
&\sum_{k}\Delta_{ik}a_{kj}\\
&=\sum_{k}\det{\left(Ae_1,...,\overset{i\text{番目}}{\breve{e_k}},...,Ae_n\right)}a_{kj}\\
&=\det{\left(Ae_1,...,\overset{i\text{番目}}{\breve{\sum_{k}e_ka_{kj}}},...,Ae_n\right)}\\
&=\det{\left(Ae_1,...,\overset{i\text{番目}}{\breve{Ae_j}},...,Ae_n\right)}\\
&=
\begin{cases}
\,\det{A} &(i=j)\\
\,0&(i\neq j)
\end{cases}
\end{aligned}

以上より,$\det{A}\neq 0$のとき

\begin{aligned}
\frac{1}{\det{A}} \Delta A
=I
\end{aligned}
となります.したがって
クラメルの公式(Cramer's rule)
\begin{aligned}
A^{-1}=\frac{1}{\det{A}} \Delta
\end{aligned}

例:2×2行列

$2\times 2$行列
\begin{aligned}
A=\begin{pmatrix}
a & b \\
c & d
\end{pmatrix}
\end{aligned}
の逆行列を求めてみましょう.
\begin{aligned}
\det A &= ad-bc \\
\Delta_{11}
&=\begin{vmatrix}
1 & b \\
0 & d
\end{vmatrix}
=d \\
\Delta_{12}
&=\begin{vmatrix}
0 & b \\
1 & d
\end{vmatrix}
=-b \\
\Delta_{21}
&=\begin{vmatrix}
a & 1 \\
c & 0
\end{vmatrix}
=-c \\
\Delta_{22}
&=\begin{vmatrix}
a & 0 \\
c & 1
\end{vmatrix}
=a
\end{aligned}
なので,
\begin{aligned}
A^{-1}
=\frac{1}{ad-bc}
\begin{pmatrix}
d & -b \\
-c & a
\end{pmatrix}
\end{aligned}
となります.

式変形

重み

PythonでUnscented Kalman Filter (UKF) - Notes_JPで使っている.

$\{w_{i}\}_{i=1}^{n}$を重み係数(スカラー)の列,$\{\bm{x}_{i}\}_{i=1}^{n}$を$p$次元ベクトルの列とする.

\begin{aligned}
\Sigma
&= \sum_{i=1}^{n} w_{i} \bm{x}_{i} {}^{t}\!\bm{x}_{i}
\end{aligned}
を行列計算に帰着することを考える.

データ行列(主成分分析(PCA) - Notes_JP

\begin{aligned}
X
&= (\bm{X}_{1},...,\bm{X}_{p}) \\
&=
\begin{pmatrix}
{}^{t}\!\bm{x}_{1} \\
{}^{t}\!\bm{x}_{2} \\
\vdots \\
{}^{t}\!\bm{x}_{n} \\
\end{pmatrix}
\end{aligned}
を導入すると,
\begin{aligned}
{}^{t}\! X
= (\bm{x}_{1}, \bm{x}_{2}, \ldots , \bm{x}_{n}).
\end{aligned}

よって

\begin{aligned}
\Sigma
&= \sum_{i=1}^{n} w_{i} \bm{x}_{i} {}^{t}\!\bm{x}_{i} \\
&= \sum_{i,j=1}^{n} \bm{x}_{i} (w_{i}\delta_{ij}) {}^{t}\!\bm{x}_{j} \\
&= {}^{t}\! X
\begin{pmatrix}
w_{1} & & & &\\
& w_{2}& & &\\
& & \ddots & &\\
& & & & w_{n}
\end{pmatrix}
X
\end{aligned}

(内積$g_{\mu\nu}x^{\mu}y^{\nu}$の形になっている)