Programming Serendipity

気まぐれに大まかに生きるブログ

wiisメモ(ベクトル~ベクトル空間)

前回の続き

mathjax

  • コピペ用ゼロ幅空白「​」
  • sigmaは必ずはてブが拾ってしまうのでσを直接入力

ベクトル

  • 有向線分(directed line segment): $\overrightarrow{ AB }$
  • $\overrightarrow{ XY } = \overrightarrow{ OY } - \overrightarrow{ OX }$
  • ベクトルは結合律、ベクトル加法単位元、ベクトル加法逆元、交換律を持つためアーベル群
  • また、非負性・定性・斉次性・劣加法性を持つのでノルム空間でもある
  • 2つの単位ベクトル $x,y$ のなす角が $\theta$ のとき、 $x \cdot y = \cos(\theta)$ が成り立ち、一般に $x \cdot y = \|x\| \|y\| \cos(\theta)$ が成り立つので、移項して

$$ \cos(\theta) = \frac{x \cdot y}{\|x\| \|y\|} $$

とともに

$$ \theta = \text{arc​cos} \left( \frac{x \cdot y}{\|x\| \|y\|} \right) $$

が成り立つ

  • $x \cdot y = 0$ のとき、直交する(orthogonal)or 垂直である(perpendicular)といい、 $x \perp y$ と書く
  • 外積(outer product)やクロス積(cross product): 2つのベクトル $x,y$ のどちらとも垂直なベクトルを導出する演算

$$ (x_{2}y_{3}-x_{3}y_{2}, x_{3}y_{1}-x_{1}y_{3}, x_{1}y_{2}-x_{2}y_{1}) \in \mathbb{R}^{3} $$

  • ↑は行列式として考えるとわかりやすい、つまり

$$ x \times y = \left( \left| \begin{array} xx_{2} & x_{3} \\
y_{2} & y_{3} \end{array} \right|, -\left| \begin{array} xx_{1} & x_{3} \\
y_{1} & y_{3} \end{array} \right|, \left| \begin{array} xx_{1} & x_{2} \\
y_{1} & y_{2} \end{array} \right| \right) $$

$$ \|x \times y\|^{2} = \|x\|^{2} \|y\|^{2} - (x \cdot y)^{2} $$

  • $x$ へのベクトル射影(vector projection) は $\text{proj}_{x} y$ と表記し、xのスカラー倍になる

$$ \text{proj}_{x} y = \frac{x \cdot y}{\|x\|^{2}} x $$

  • xとyのなす角が分かっている場合は以下でもよい

$$ \text{proj}_{x} y = \frac{\|y\| \cos(\theta)}{\|x\|} x $$

  • ↑を分解すると単位ベクトルが出てくるので、以下も言える

$$ \|\text{proj}_{x} y\| = \frac{x \cdot y}{\|x\|} $$

  • ↑が正ならxと同一方向、負なら逆方向、ゼロならゼロベクトルであることがわかる。これをスカラー射影(scalar projection)といい、以下のように表記する

$$ \text{comp}_{x} y = \frac{x \cdot y}{\|x\|} $$

  • これも、xとyのなす角が分かっている場合は以下でもよい

$$ \text{comp}_{x} y = \|y\| \cos(\theta) $$

  • ベクトル射影を用いて、任意の2つのベクトルから直交ベクトルが作れる

$$ x \perp (y - \text{proj}_{x}y) $$

  • $i$ 番目の成分だけ1で他が0のベクトルを $e_{i}$ と表記すると、 $\{e_{1}, \dots, e_{n}\}$ を標準基底(standard basis)という
  • 方向余弦(direction cosines): 非ゼロベクトルと同一方向の単位ベクトル

$$ \frac{v_{1}}{\|v\|}, \dots, \frac{v_{n}}{\|v\|} $$

  • ↑の由来は、以下のように表記できるから

$$ \cos(\theta_{1}), \dots, \cos(\theta_{n}) $$

  • ベクトル $x,y$ によって張られる平行四辺形(parallelogram spanned by vectors $x$ and $y$): YからXへ垂線を下ろし、Zとすると $OX \cdot YZ = \|x\| \cdot YZ$ で、sinの定義から $\sin(\theta)=\frac{YZ}{\|y\|}$ なので、面積は $\|x\|\|y\|\sin(\theta)$
  • ↑の別バージョンで、角度を要求しない算出法もある。射影と三平方の定理を使って整理すると $\sqrt{\|x\|^{2}\|y\|^{2}-|x \cdot y|^{2}}$ または $\|(x_{1}, x_{2}, 0) \times (y_{1}, y_{2}, 0)\|$
  • ↑は3次元なら $\|(x_{1}, x_{2}, x_{3}) \times (y_{1}, y_{2}, y_{3})\|$
  • 三角形の場合は、↑の半分なので $\frac{1}{2}\|x\|\|y\|\sin(\theta)$ または $\sqrt{\|x\|^{2}\|y\|^{2}-|x \cdot y|^{2}}$ または $\|(x_{1}, x_{2}, 0) \times (y_{1}, y_{2}, 0)\|$(3次元なら$\frac{1}{2}\|(x_{1}, x_{2}, x_{3}) \times (y_{1}, y_{2}, y_{3})\|$)
  • 平行六面体(parallelepiped)は歪んだ直方体で底面が平行四辺形なので、これに高さを掛ければいいが、z要素とz軸のなす角はcosで求められるので、高さhは $\cos(\theta)=\frac{h}{\|z\|}$ つまり $h=\|z\|\cos(\theta)$ なので、あわせて $\|x \times y\| \|z\| |\cos(\theta)|$
  • ↑の角度を使わないバージョンとしては、 $|(x \times y) \cdot z|$ (※これの証明の導出が謎?)
  • ↑の絶対値を除いた部分をスカラー三重積(scalar triple product)という
  • ↑が0になる場合、3点が同一平面上に存在する
  • 四面体(tetrahedron)の場合は、↑の $\frac{1}{6}$ なので、 $\frac{1}{6} \|x \times y\| \|z\| |\cos(\theta)|$ または $\frac{1}{6}|(x \times y) \cdot z|$

  • 直線のベクトル方程式(vector equation of a line): $x=p+tv$. ただし、pは直線上の位置ベクトル、vは直線 $\overrightarrow{PX}$ と平行なベクトルで、tはそのスカラー量を決めるパラメーター

  • ↑を使って直線を定義すると、 $L(p,v)=\{x \in \mathbb{R}^{n} \ | \ \exists t \in \mathbb{R} : x = p + tv\}$
  • ↑は位置ベクトルと方向ベクトルのかわりに、異なる2点で定義もできてその場合 $x=p+t(q-p)$
  • 媒介変数表示(parametric equations)は $$\displaylines{ x_{1} = p_{1}+tv_{1} \\
    \vdots \\
    x_{n} = p_{1}+tv_{n} }$$ のようになり、t=の形にすると $$\displaylines{ t = \frac{x_{1} - p_{1}}{v_{1}} \\
    \vdots \\
    t = \frac{x_{n} - p_{n}}{v_{n}} }$$ となるが、n個の式にt=が共通していることに注目すると $$ \frac{x_{1} - p_{1}}{v_{1}}=\dots=\frac{x_{n} - p_{n}}{v_{n}} $$ が言えて、tを使わずに直線を表現できる。これを直線の対称式(symmetric equations of a line)いう

  • 逆に、↑の対称式から位置ベクトルと方向ベクトルを特定することもできる

  • 直線の方程式の法線標準形(normal form of the equation of a line): 直線と垂直なベクトルnを使った表現 $(x-p) \cdot n = 0$
  • ↑は $\mathbb{R}^{2}$ においては直線の定義としても使える
  • 直線の方程式(equation of a line): 法線標準形を変形したもので、 $a_{1}x_{1}+a_{2}x_{2}+b=0$. ただし、中身は $n_{1}x_{1}+n_{2}x_{2}+(-p_{1}n_{1}-p_{2}n_{2})=0$
  • 逆に直線の方程式が分かれば、法線ベクトルは $(a_{1},a_{2})$ であると特定できる

  • 線分(line segment): tの値の範囲を制限したもの

  • 始点(initial point)pと終点(terminal point)qが与えられた場合は $x=p+t(q-p)$ または $x=(1-t)p+tq$ と表現する
  • 直交補空間(orthogonal complement): 直線の法線ベクトルをすべて集めてできる集合 $L^{\perp} = \{n \in \mathbb{R}^{n} \ | \ \forall x,y \in L: (x-y) \cdot n = 0\}$
  • 任意の直線の直交補空間は、実ベクトル空間の部分空間(0と足し算、スカラー倍したものも同じ部分集合に含む集合)
  • 平行(parallel): 2次元であれば、平行でなければどこかで交わる、つまり交わらなければ平行だったが、3次元以上ではそうとは限らない。そのため一般的に2つの直線が平行であるとは、片方の直線を平行移動させるともう片方の直線と一致させることができる、つまり $\exists a \in \mathbb{R}^{n}: L(p+a, v) = L(q,w)$ が成り立つことと定義される
  • もしくは、2つの方向ベクトルがスカラー倍によって一致させられるとしてもいい、つまり $\exists k \in \mathbb{R} \setminus \{0\}: v = kw$
  • さらには、2本の直線の直交補空間が等しいことを示してもよい
  • 2つの直線は、交わるか、平行であるかによって2パターンずつ計4パターンがあり、それぞれ一致する(coincident)、平行かつ異なる直線(distinct paralell lines)、交差する(intersect)、ねじれの位置にある(skew)と呼ぶ
  • x=p+tvで表される直線Lと点qの最短距離

$$ \left\|(p-q)- \left[ \frac{(p-q) \cdot v}{\|v\|^{2}} \right] v\right\| $$

  • 3次元の場合は最短距離の算出に外積を利用できて、

$$ \frac{\|(q-p) \times v\|}{\|v\|} $$

  • 2次元の場合は $\|\text{proj}_{n} (q-p)\|$ と一致するので、

$$ \frac{|n \cdot (q-p)|}{\|n\|} $$

  • もしくは、直線が $a \cdot x + b = 0$ の形で与えられていれば、

$$ \frac{|a \cdot q + b|}{\|a\|} $$

  • 曲線(curve)or 媒介変数曲線(parametrized curve): 直線の一般化で、パラメータで指定したもの $$\displaylines{ f(t)= \left( \begin{array} ff_{1}(t) \\
    \vdots \\
    f_{n}(t) \end{array} \right) \in \mathbb{R}^{n} }$$ を使って $C(f)=\{f(t) \in \mathbb{R}^{n} \ | \ t \in I\}$ と表記する

  • ↑でtの範囲を制限すると弧(arc)になる

  • 円のパラメータ表示は $$\displaylines{ x = a + r \cos(t) \\
    y = b + r \sin(t) }$$ だが、tを消すように変形すると $(x-a)^{2}+(y-b)^{2}=r^{2}$ になる

  • 楕円(ellipse): ↑のrを2変数に分けたもので、 $$\displaylines{ x = h + a \cos(t) \\
    y = k + b \sin(t) }$$ 変形すると $$ \frac{(x-h)^{2}}{a^{2}} + \frac{(y-k)^{2}}{b^{2}} = 1 $$

  • ↑のtの範囲を制限すると楕円弧(elliptical arc)になる

  • サイクロイド(cycloid):

$$\displaylines{ x = r[t- \sin(t)] \\
y = r[1- \cos(t)] }$$

$$ x=p+sv+tw $$

  • ただし、一直線上にあってはいけないので $\forall a \in \mathbb{R}: v \neq aw$ を満たす必要がある。この条件を満たした状態を線型独立(linearly independent)という
  • 位置ベクトルと方向ベクトル2個の代わりに、3つの位置ベクトル $p,q,r$ が与えられた場合は

$$ x=p+s(q-p)+t(r-p) $$

  • 平面に対する法線標準形 $(x-p) \cdot n = 0$
  • 3次元の場合は、1つの方向軸が決まると、それに対して垂直な軸が必ず2つ存在するため、これを平面の定義に使うこともできるが、4次元の場合は方向軸を決めてもそれに対して垂直な軸が無数にあるため、平面の定義には使えない
  • 3次元で2つの平面が交わるとき、その交点は直線になる

  • 平面のベクトル方程式(vector equation of a plane): 一直線上にない3点を指定すれば平面が特定できるので、ベクトル $p,v,w$ とスカラー $s,t$ を使って、 $$x=p;sv+tw$$

  • 平面についても、一致する(coincident)、平行かつ異なる平面(distinct paralell planes)、交差する(intersect)、ねじれの位置にある(skew)という概念がある
  • 点qと平面x=p+sv+twの最短距離は $$\displaylines{ s^{*} = \frac{[(p - q) \cdot w] (v \cdot w) - [(p-q) \cdot v] \|w\|^{2}}{\|v\|^{2}\|w\|^{2}-(v \cdot w)^{2}} \\
    t^{*} = \frac{[(p - q) \cdot v] (v \cdot w) - [(p-q) \cdot w] \|v\|^{2}}{\|v\|^{2}\|w\|^{2}-(v \cdot w)^{2}} }$$ を用意すると、(vとwが入れ替わっていることに注目) $$ \|(q-p) -s^{*}v - t^{*} w\| $$

  • 3次元に限ると、法線標準形で定義できるので、その平面との最短距離は $\|\text{proj}_{n}(q-p)\|$ と一致し、

$$ \frac{|n \cdot (q-p)|}{\|n\|} $$

  • 曲面(surface)は、2パラメーターで3次元に写す、つまり $$ f(s,t)= \left( \begin{array} ff_{1}(s,t) \\
    f_{2}(s,t) \\
    f_{3}(s,t) \end{array} \right) \in \mathbb{R}^{3} $$ で $$ \{f(s,t) \in \mathbb{R}^{3} \ | \ (s,t) \in \mathbb{R}^{2} \} $$ となる

  • 球面は

$$ f(s,t)= \left( \begin{array} f\cos(s)\sin(t) \\
\sin(s)\sin(t) \\
\cos(t) \end{array} \right) $$

  • 実ベクトル空間の部分集合が加法と乗法において閉じていて、ベクトル空間の公理を引き続き満たす場合、その部分集合を部分空間という
  • 具体例として、ゼロ部分空間(zero subspace)、全体空間(entire space)、原点を通る直線(ベクトルの定義の $p+tv$ の部分を $tv$ にしたもの)、原点を通る平面(平面の定義の $p+sv+tw$ の部分を $sv+tw$ にしたもの)など
  • アフィン部分空間(affine subspace): $Y=x_{0}+X$ と表示できる部分集合Yのこと。原点を通らない直線や平面はアフィン部分空間になる

  • 線型結合(linear combination)or 一次結合: 複数のベクトルとスカラーの掛け算の結果の総和で定義されるベクトル

$$ a_{1}x_{1}+ \dots+ a_{m}x_{m} \in \mathbb{R}^{n} $$

  • 線型スパン(linear span)or 線型包(linear hull): 線形結合なベクトル全体

$$ \text{span}(x_{1}, \dots, x_{m}) = \{a_{1}x_{1}+ \dots+ a_{m}x_{m} \in \mathbb{R}^{n} \ | \ a_{1}, \dots, a_{m} \in \mathbb{R} \} $$

  • 部分集合Yが、ベクトル $x_{1}, \dots, x_{m}$ の線形スパンとして表現できる場合は、ベクトル $x_{1}, \dots, x_{m}$ は部分集合Yを張る(span)or 生成する(generate)という
  • 例えば、2次元空間全体だったら、(0,1),(1,0)の2つのベクトルによって張られるし、n次元だったら各軸1つずつ計n個の単位ベクトルによって張られる(他にも、各ベクトルで連立方程式が解を持てばそれでもよい)
  • 原点を通る直線は方向ベクトル1つによって、原点を通る平面は方向ベクトル2つによって張られる
  • 集合Xの線形スパン全体の集合は

$$ \text{span}(X) = \left\{ \sum_{i=1}^{m}a_{i}x_{i} \in \mathbb{R}^{n} \ | \ m \in \mathbb{N} \land \forall i \in \{1, \dots, m\}: (x_{i} \in X \land a_{i} \in \mathbb{R}) \right\} $$

  • 線形スパンは部分空間
  • 原点を通る直線Lや、原点を通る平面Pはそれぞれ $$\displaylines{ L=\text{span} (\{v\}) \\
    P=\text{span} (\{v,w\}) }$$ と表現できるので、どちらも部分空間

  • ある部分集合Xを部分集合として持つ部分空間をすべて集めてできる集合族を $\{Y_{\lambda}\}_{\lambda \in \Lambda}$ とすると、$\text{span}(X)$ はこの集合族の要素の中で最小、つまり

$$ \text{span}(X) = \bigcap_{\lambda \in \Lambda}Y_{\lambda} $$

  • 逆に、↑のようなYの共通部分を探し出せれば、線型結合などの概念を経由せずに直接線形スパンを導くこともできる
  • 単一のベクトルにおける線型従属(linearly dependent): あるベクトルxが特定のベクトル集合 x1,...,xm の線形スパンとして表現できること $\exists a_{1}, \dots, a_{m} \in \mathbb{R}: x= a_{1}x_{1} + \dots + a_{m}x_{m}$
  • ↑はxが $\text{span}(x_{1},\dots,x_{m})$ の要素に含まれることと必要十分
  • 原点を通る直線なら $\{v\}$ 上で、原点を通る平面なら $\{v,w\}$ 上で任意のベクトルが線形従属
  • 線型独立(linearly independent): 線形従属ではないこと
  • ベクトル集合の線形従属: ベクトル集合の少なくとも1つの要素が、それ以外の残りの要素の線形スパンとして表現できること(※つまり、その要素を除外しても残りのベクトル集合によって張られる領域が変化しないこと?)
  • ベクトル集合の線形従属の判定法: $a_{1}x_{1}+\dots+a_{m}x_{m}=0$ という方程式を用意し、少なくとも1つのスカラーが0でない場合にこの方程式が解をもつとき、そのベクトル集合は線形従属である
  • 逆に、↑の解がすべてのスカラーが0の時しかない場合はそのベクトル集合は線形独立
  • ただし、ゼロベクトルだけを要素に持つベクトル集合は線形従属であると定義する

  • 標準基底(standard basis): $\mathbb{R}^{n}$ を張ることができる単位ベクトルの集まり $\{e_{1},\dots,e_{n}\}$

  • ただし、$\mathbb{R}^{n}$ を張るには単位ベクトルでなくてもよく、数値は任意でも張れる。また、標準基底以外の任意のベクトルを混入させて線形従属になっても引き続き空間を張ることはできる
  • $\mathbb{R}^{n}$ を張る線形独立なベクトル集合を特に基底(basis)という
  • n次元空間の基底の要素はn個。n+1個以上なら必ず線形従属
  • n次元空間を張る線形従属なベクトル集合の要素の個数は、必ずn+1個以上。
  • 部分空間を選んだ時、その次元が元の空間の次元数と一致するとき、その部分空間は元の空間とまるごと一致する
  • 座標ベクトル(coordinate vector): ベクトルxを線形結合で表現するために、基底 $\beta = \{x_{1},\dots,x_{n}\} \subset \mathbb{R}^{n}$ につける係数としてのスカラーの集合を以下のように表記するもの

$$ [x]_{\beta} = \left( \begin{array} aa_{1} \\
\vdots \\
a_{n} \end{array} \right) $$

  • ↑仮に基底が標準基底だったら、座標の各成分を集めたベクトルそのものになる

行列

  • 係数行列(coefficient matrix)、成分ごとの和(entrywise sum)
  • 行列はアーベル群
  • 行列同士の積は行ベクトルと列ベクトルの内積

$$ \text{row}(A,i) \cdot \text{col}(B,j) $$

  • 横×縦で演算していき、結果の行列のサイズは縦×横
  • $(AB)^{t} = B^{t}A^{t}$
  • (行列の積、というより内積自体が線形結合と見た目似ている、これに絡めて何かある?)
  • 上三角行列(upper triangular matrix)

$$ \left( \begin{array} aa_{11} & a_{12} & \dots & a_{1n} \\
0 & a_{22} & \dots & a_{2n} \\
\dots & \dots & \dots & \dots \\
0 & 0 & \dots & a_{nn} \end{array} \right) $$

  • 下三角行列(lower triangular matrix)

$$ \left( \begin{array} aa_{11} & 0 & \dots & 0 \\
a_{21} & a_{22} & \dots & 0 \\
\dots & \dots & \dots & \dots \\
a_{n1} & a_{n2} & \dots & a_{nn} \end{array} \right) $$

  • 対角行列(diagonal matrix)

$$ \left( \begin{array} aa_{11} & 0 & \dots & 0 \\
0 & a_{22} & \dots & 0 \\
\dots & \dots & \dots & \dots \\
0 & 0 & \dots & a_{nn} \end{array} \right) $$

  • 正則行列(regular matrix)or 可逆行列(invertible matrix)or 非特異行列(non-singular matrix): 何らかの行列をかけて単位行列にできる正方行列A、つまり $AB=BA=I_{n}$
  • ゼロ行やゼロ列を持つ行列は正則ではない
  • $(AB)^{-1}=B^{-1}A^{-1}$
  • $(A^{t})^{-1}=(A^{-1})^{t}$
  • 実数上の行列はベクトル空間(vector space)であり、実行列空間(real matrix space)でもある
  • 交代行列(alternating matrix)or 歪対称行列(skew-symmetric matrix): 対称の位置にある要素が反対側のマイナスである行列、つまり $\forall i,j \in \{1,\dots,n\}: a_{ij}=-a_{ji}$ または $A=-(A^{t})$
  • トレース(trace): 対角成分の総和

$$ \text{tr}(A)=\sum_{i=1}^{n}a_{ii} $$

  • 直交行列: ある行列が転置行列と逆行列が一致する場合、つまり $A^{t}=A^{-1}$ または $AA^{t}=A^{t}A=I_{n}$

  • 実行列空間の部分空間の具体例としては、ゼロ部分空間、全体空間、対称行列の集合、交代行列の集合、トレースが0の行列の集合など

  • 正則行列、直交行列、トレースが非ゼロの行列などは部分空間ではない
  • 行列についても、線形結合の集合である線形スパンを考えることができる
  • 同様に、線形従属、線形独立も考えることができて、線形従属の判定法も同じものが使える。つまり、非ゼロのスカラーが1つ以上ある線形結合=0の方程式が解を持つなら線形従属である

$$ k_{1}A_{1}+\dots+k_{p}A_{p}=0 $$

  • ゼロ行列だけを要素に持つ集合は線形従属であると定義する
  • ij成分だけ1で他が0の行列を標準基底とすると、それらのmn個の線形独立な行列は実行列空間を張る。また、張るためには1個でも欠けてはいけない。さらに1個でも多ければ線形従属
  • 次元もまたmn。
  • 行列を行と列に分けて、行ベクトルの線形結合の集合、つまり線形スパンを行空間(row space)といい、列においてこれに相当するものを列空間という
  • 行空間の次元は実行列空間の次元を超えることはない、つまり $\mathbb{R}^{n}$ において $\text{dim row}(A) \leq n$
  • 列空間でも同じことが言えて、それら2つは一致するので、これを階数(rank)という

$$ \text{rank}(A)=\text{dim row}(A)=\text{dim col}(A) $$

  • 行簡約(row reduce): 行の入れ替え、定数倍、他の行を加える、という3つの行基本操作(elementary row operation)のいずれかまたは複数を適用すること
  • ↑を使って行列を変更し、他のある行列と一致させることができる場合、その2つの行列は行同値(row equivalent)という
  • ↑のとき、両者の線形スパンは一致する
  • 行基本行列(row elementary matrix): 単位行列行基本操作の1つを適用して得られる行列であること
  • 行基本操作の1つをRで表記すると、任意の行列Aに対して $R(A)=R(I_{m})A$ が成り立つ
  • AとBが行同値であることは、片方が行基本行列の積に分解できることと必要十分、つまり $A_{p} \dots A_{2}A_{1}A=B$
  • 以上のことは列に関しても同じ
  • 行の主成分(distinguished element)or ピボット(pivot): その行の非ゼロ要素の中で最も左にあるもの
  • 階段行列(echelon matrix): 主成分が左にある行から順に上からソートされている行列
  • 行基本操作によって任意の行列は階段行列に変換できる
  • ガウスジョルダンの消去法(Gauss-Jordan algorithm): 任意の行列から階段行列を生成できることを示すアルゴリズム。まず主成分が一番左にある行を1行目と交換し、結果の2行目以降に $-a_{i1} \cdot \text{row}_{1} + a_{11} \cdot \text{row}_{i}$ とする。たすき掛けに掛け算することで1列目の要素がすべて0になる。以降同様に、2行目を入れ替えて $-a_{i1} \cdot \text{row}_{2} + a_{21} \cdot \text{row}_{i}$ とし、一般に、入れ替えて $-a_{i1} \cdot \text{row}_{k} + a_{k1} \cdot \text{row}_{i}$ という操作を繰り返すと、必ず階段行列が作れる
  • 行既約な階段行列(row reduced echelon matrix): 階段行列のなかでも、すべての行の主成分が1で、それ以外の正方行列の範囲内の要素がすべて0のもの(正方行列なら単位行列そのもの。それ以外の場合、右端に0以外の要素が残る分には問題ない、下側は0である必要がある)
  • 同じガウスジョルダンの消去法によって、任意の階段行列は行既約にできる
  • ↑と任意の行列は階段行列にできることを踏まえると、任意の行列は行既約な階段行列にできる
  • 行簡約によって得られる階段行列は一意ではないが、行既約な階段行列は一意。これを行標準形(row canonical form)という
  • ここまでの操作を行っても行空間は変わらない
  • 非ゼロ行の階段行列はそれぞれ行ごとに互いに線形独立

行列式

順列

  • 1からnまでの自然数を $\mathbb{N}_{n}$ と表記する
  • 順列すべての組み合わせの集合を $S_{n}$ で表記する

$$ S_{2}= \left\{ \left( \begin{array} .1 & 2 \\
1 & 2 \end{array} \right) \left( \begin{array} .1 & 2 \\
2 & 1 \end{array} \right) \right\} $$

  • 組み合わせの総数はその要素数の階乗、つまり $|S_{n}|=n!$
  • 順列の置換は全単射
  • 置換を $σ$ で表す
  • 転倒(inversion): 置換の結果の要素から2つを選んだ時 $i < j \land σ(i) > σ(j)$ になっていること。

$$ σ= \left( \begin{array} .1&2&3 \\
3&1&2 \end{array} \right) $$

なら下段の中から2つを取り出すので、(3,1),(3,2),(1,2)のペアが作れるが、転倒しているのは(3,1),(3,2)の2ペア

  • 偶置換(even permutation): 転倒の順序対の数が偶数であること。奇置換(odd permutation)はこれが奇数であること。↑は偶置換
  • 偶奇性(parity):

$$ \text{sgn}(σ)= \left\{ \begin{array} .1 \ &(\text{if σが偶置換}) \\
-1 \ &(\text{if σが奇置換}) \\
\end{array} \right. $$

  • 置換も関数のように合成できる: $σ' \circ σ$
  • ただ、多くの場合合成記号は省略されて積のように記述される: $σ'σ$
  • 差の総乗を定義する多項式関数があって、この選択する項を順列によって置換するとき、その結果の値は元の関数の結果に偶置換なら1、奇置換なら-1を掛けた結果に同じ、つまり $$\displaylines{ f(x_{1},\dots,x_{n})=\prod_{1 \leq i < j \leq n} (x_{i}-x_{j}) \\
    f_{σ}(x_{1},\dots,x_{n})=\prod_{1 \leq i < j \leq n} (x_{σ(i)}-x_{σ(j)}) }$$ があるとき、 $$ f_{σ}(x_{1},\dots,x_{n})=\text{sgn}(σ) \cdot f(x_{1},\dots,x_{n}) $$

  • 置換の積の偶奇性は、置換の偶奇性の積に一致する、つまり $\text{sgn}(σ'σ)=\text{sgn}(σ') \cdot \text{sgn}(σ)$

  • 逆置換(inverse permutation): $σ^{-1}$
  • 置換と逆置換の符号は一致する: $\text{sgn}(σ)=\text{sgn}(σ^{-1})$

行列式

  • 行列式(determinant): n行n列の正方行列で、各列から1つずつ順列を選び、n!通りの順列を用意する。それぞれの順列を使って行列から取り出した要素の積と符号の積の総和が行列式になる、つまり

$$ |A|=|a_{ij}|=\sum_{(p_{1},p_{2},\dots,p_{n})\in S_{n}} \text{sgn}(p_{1},p_{2},\dots,p_{n}) \cdot a_{1p_{1}},a_{2p_{2}},\dots,a_{np_{n}} $$

  • サラスの公式(rule of Sarrus): 右下方向への積-左下方向への積
  • 3次の正方行列にサラスの公式を適用して変形すると、 (i行j列を除去した小行列を $M_{-ij}$ と表記することにすると)

$$ |A|=a_{11} |M_{-11}| -a_{12} |M_{-12}| +a_{13} |M_{-13}| $$

  • ↑で2次のサラスの公式を使えば素早く求められる
  • 4次は

$$ |A|=a_{11} |M_{-11}| -a_{12} |M_{-12}| +a_{13} |M_{-13}| -a_{14} |M_{-14}| $$

  • $|A^{t}|=|A|$
  • 正方行列の任意の2つの列を入れ替えると、符号だけが変化する、つまり $|B|=-|A|$
  • ↑は行の入れ替えでも同じ
  • 正方行列の任意の2つの列の値が一致している場合、行列式は0になる
  • ↑も、行の入れ替えでも同じ
  • 特定の行の要素をそれぞれk倍すると、行列式もk倍になる、逆に言えば共通因子があればくくりだせる(列も同様)
  • ゼロだけの行または列をもつ行列の行列式は0
  • 特定の行や列を和として表せるなら、2つの行列に分解した行列の行列式の和に等しい $|A|=|B|+|C|$
  • i行をk倍してj行に足しても行列式は変わらない(列でも同様)
  • i行j列を削除した行列の行列式 $|M_{-ij}|$ をa_ijの小行列式(minor)という
  • a_ijの余因子(cofactor): $A_{-ij} = (-1)^{i+j}|M_{-ij}|$
  • ラプラス展開(Laplace expansion)or 余因子展開(cofactor expansion): 行iを任意に選んで、その要素と余因子展開の積の総和は行列式と一致する、つまり

$$ |A|=\sum_{j=1}^{n} a_{ij}A_{-ij} $$

  • そして、↑も列でも成り立つ
  • 別の行との余因子展開の積の総和は0になる、つまり

$$ \sum_{j=1}^{n} a_{kj}A_{-ij}=0 $$

  • クラーメルの法則(Cramer’s rule): n個の式のn次方程式の係数行列はn次の正方行列になるが、この係数行列の行列式が0でないとき、j列目の数値をすべて方程式の右辺の数値に入れ替えたものをn個用意する。これの行列式をもとの係数行列の行列式で割ると、j個目の変数の解になっている、つまり $$ \left\{ \begin{array} .a_{11}x_{1}+\dots+a_{1n}x_{n}=b_{1} \\
    \vdots \\
    a_{n1}x_{1}+\dots+a_{nn}x_{n}=b_{n} \end{array} \right. $$ のとき、係数行列は $$ \Delta = \left( \begin{array} .a_{11} & a_{12} & \dots & a_{1n} \\
    a_{21} & a_{22} & \dots & a_{2n} \\
    \dots & \dots & \dots & \dots \\
    a_{n1} & a_{n2} & \dots & a_{nn} \\
    \end{array} \right) $$ でj列をbに入れ替えたのは $$ \Delta_{j} = \left( \begin{array} .a_{11} & \dots & b_{1} & \dots & a_{1n} \\
    a_{21} & \dots & b_{2} & \dots & a_{2n} \\
    \dots & \dots & \dots & \dots & \dots \\
    a_{n1} & \dots & b_{n} & \dots & a_{nn} \\
    \end{array} \right) $$ とすると、解は $$ x_{j} = \frac{|\Delta_{j}|}{|\Delta|} $$

線形写像

  • 線形写像(linear mapping): vec 2 vec で加法性と斉次性を持つ場合、つまり足し算と定数倍をくくりだしても結果が同じ場合。
  • 加法性と斉次性をあわせて線型性(linearity)と呼ぶ場合がある
  • 線型汎関数(linear functional): vec 2 scalar
  • 線形変換(linear transformation)or 線形作用素(linear operator)or 1次変換: vec 2 vec で次元が同じもの
  • 線形写像ではないもの: $f(0)$ の結果がゼロベクトルではない場合、$-f(x) \neq f(-x)$ の場合
  • 線形写像の例: ゼロ写像、恒等写像、なんらかの行列とベクトルxの積で定義される写像
  • 行列ベクトル積(matrix vector product): ↑の最後の例。行列とベクトルの積は、各行とベクトルを縦に並べて列ベクトルにして積を取り、1列の行列、つまり列ベクトルを得る
  • ↑の結果、すべての要素にxの各要素が共通しているので、くくりだすと $x_{1} \text{col}(A,1) + \dots + x_{n} \text{col}(A,n)$ となり、これはAの列からなる線形結合でもある
  • 逆に、任意の線形写像は行列ベクトル積の形にできる
  • 標準基底からn個のベクトルへの線形写像は一意に定まるが、実は任意のn個のベクトルから別のn個のベクトルへも、線形写像が一意に定まる
  • ベクトルの内積は線形汎関数。逆に任意の線形汎関数内積で表現可能
  • 線形写像の成分関数も線形写像。逆に、成分関数のうち1つでも線形写像でないものがあれば全体も線形写像ではない
  • $\text{Im}f$ ... fの像、fの結果の集合。
  • ↑は標準行列の列空間(=列ベクトルの集合による線形スパン)と一致し、 $\text{col}(A)$ と表記する
  • 部分空間を線形写像で像に写した結果は部分空間になる
  • vec 2 vec の逆像は、各成分関数の逆像の共通部分に等しい、つまり

$$ f^{-1}(y) = \bigcap_{i=1}^{m} f_{i}^{-1}(y_{i}) $$

  • 核(kernel)or ゼロ空間(null space): ゼロベクトルの逆像

$$ \text{ker }f=\{x \in \mathbb{R}^{n} \ | \ f(x)=0\} $$

  • 線形写像は任意の写像が標準行列との積で表現可能なので、線形写像の核は標準行列のすべての行と垂直なベクトルの集合と見ることができる、つまり

$$ \text{ker }f=\{x \in \mathbb{R}^{n} \ | \ \forall i \in \{1,\dots,m\}: \text{row}(A,i) \cdot x = 0\} $$

  • さらに↑は標準行列の行空間の直交補空間と一致する

$$ \text{ker }f=(\text{row}(A))^{\perp} $$

  • 別の言い方をすれば、標準行列の線形結合がゼロベクトルになるような組み合わせの集合ともいえる

$$ \text{ker }f=\{x \in \mathbb{R}^{n} \ | \ x_{1} \text{col}(A,1) + \dots + x_{n} \text{col}(A,n) = 0\} $$

  • 線形写像の階数は、その標準行列の階数と一致するものと定める: $\text{rank }(f)=\text{rank }(A)$
  • 線形写像の階数は、その像の次元と一致する:

$$ \text{rank }(f)=\text{dim Im }(f) $$

  • 次元定理(dimension theorem): fの像の次元と核の次元を足すと、定義域の次元になる

$$ \text{dim }\mathbb{R}^{n}=\text{dim Im }f+\text{dim ker }f = n $$

  • (たしかに、(x,y,0)で定義された写像はimは2次元、kerは1次元で足すと3次元)
  • 核の次元は退化次数(nullity)ともいうので、以下のように書き換えられる

$$ \text{dim }\mathbb{R}^{n}=\text{rank }f+\text{nullity }f $$

  • 線形写像全射であることとは、以下のそれぞれと必要十分 $$\displaylines{ \text{Im }f=\mathbb{R}^{m} \\
    \text{col}(A)=\mathbb{R}^{m} \\
    (\text{col}(A))^{\perp}=\{0\} \\
    \text{rank }A=m \land m \leq n \\
    }$$ 行標準形(=行同値で行既約な階段行列)の主成分の個数が$m \land m \leq n$

  • 線形写像単射であることとは、以下のそれぞれと必要十分 $$\displaylines{ \text{ker }f=\{0\} \\
    \text{row}(A)=\mathbb{R}^{n} \\
    (\text{row}(A))^{\perp}=\{0\} \\
    \text{rank }A=n \land n \leq m \\
    }$$ 行標準形(=行同値で行既約な階段行列)の主成分の個数が$n \land n \leq m $
    $\{\text{col}(A,1),\dots,\text{col}(A,n)\}$ が線形独立

  • 線形写像全単射なら次元が同じであることを意味するが、次元が同じならば全射単射が必要十分になる。つまり線形写像全単射であることは、以下のそれぞれと必要十分 $$\displaylines{ \text{Im }f=\mathbb{R}^{m} \\
    \text{ker }f=\{0\} \\
    \text{col}(A)=\mathbb{R}^{n} \\
    \text{row}(A)=\mathbb{R}^{n} \\
    \text{rank }A=n \\
    }$$ 行標準形(=行同値で行既約な階段行列)の主成分の個数が $n$ 個

  • 線形写像すべての集合を以下のように書く

$$ \text{hom}(\mathbb{R}^{n}, \mathbb{R}^{m})=\{f : \mathbb{R}^{n} \to \mathbb{R}^{m} \ | \ f \text{ is linear mapping}\} $$

  • 標準行列を考えることで、線形写像の加法は行列の加法と等しいことが分かる。スカラー倍・積も同じ
  • 引き戻し(pullback): 線形写像の合成によって1次元空間に投げ入れること、つまり

$$ f^{t}(g)=g \circ f: \mathbb{R}^{n} \to \mathbb{R} $$

  • fに沿ったgの引き戻しは $f^{t}(g)$ で、これをxに対して定めると、標準行列の転置とベクトルとの積に一致する、つまり $f^{t}(g)(x)=(A^{t}v) \cdot x$
  • 転置(transpose)or 転置写像(transpose mapping):

$$ f^{t}: \text{hom } (\mathbb{R}^{m}, \mathbb{R}) \to \text{hom } (\mathbb{R}^{n}, \mathbb{R}) $$

  • つまり、線形写像の転置は行列の転置と同一視できる
  • なので、任意の2つの線形写像の転置に対して、加法やスカラー倍は分割できる、つまり

$$\displaylines{ (f+g)^{t}=f^{t}+g^{t} \\
(kf)^{t}=kf^{t} \\
(g \circ f)^{t}=f^{t} \circ g^{t} }$$

  • 恒等写像(identity mapping): $\mathit{Id}_{n}: \mathbb{R}^{n} \to \mathbb{R}^{n}$
  • 正則変換(regular transformation)or 可逆変換(invertible transformation): 対象のfに対して $f \circ g = g \circ f = \mathit{Id}_{n}$ を満たすgが存在していること
  • 線形変換fが正則変換であることとfが全単射であることは必要十分
  • さらに、線形変換が正則であることは、標準行列が正則行列であることをも意味している
  • 逆変換(inverse transformation): $f^{-1}$ で、次を満たすもの $f \circ f^{-1} = f^{-1} \circ f = \mathit{Id}_{n}$
  • 正則な線形変換をすべて集めた集合を以下のように表記する

$$ \text{GL}(\mathbb{R}^{n}) = \{\forall f \in \text{hom}(\mathbb{R}^{n},\mathbb{R}^{n}) \mid \exists g \in \text{hom}(\mathbb{R}^{n},\mathbb{R}^{n}): f \circ g = g \circ f = \mathit{Id}_{n}\} $$

  • (※↑GLって何かの略?)
  • 逆変換は、標準行列の逆行列に相当
  • $\text{hom}(\mathbb{R}^{m},\mathbb{R}^{n})$ は実数をスカラー場とするベクトル空間(vector space with a scalar field R)といい、これを特に線形写像空間(linear mapping space)という
  • 線形汎関数をすべて集めた集合 $\text{hom}(\mathbb{R}^{m},\mathbb{R})$ は双対ベクトル空間(dual vector space)という

連立1次方程式

  • 1次方程式(linear equation): 最高次数が1の方程式
  • n元1次方程式(linear equation with n variables): 変数の個数nを明示する場合
  • 同次連立1次方程式(homogeneous system of linear equations): 連立1次方程式(system of linear equations)の中で定数項(constant term)がすべて0のもの
  • ↑でゼロベクトルが解の一つだが、それを自明解(trivial solution)or ゼロ解(zero solution)という
  • 解集合(solution set): 連立1次方程式の解すべてを集めた集合
  • 付随する同次連立1次方程式(associated homogeneous system of linear equations): 非同次連立1次方程式で、定数項を0に置き換えたもの
  • ある連立1次方程式 $(1)$ の解は、それに付随する連立1次方程式 $(2)$ の解に、元の連立1次方程式のなんらかの解を足したものとして導ける、つまり $(1)$ のある解 $u \in \mathbb{R}^{n}$ と $(2)$ の解集合 $W \subset \mathbb{R}^{n}$ があるとき、 $(1)$ の解集合は

$$ u+W = \{u+w \in \mathbb{R}^{n} \mid w \in W\} $$

  • ↑の解集合はアフィン部分空間でもある
  • 連立1次方程式の行列表示(matrix representation):

$$\displaylines{ \left( \begin{array} .a_{11} & a_{12} & \dots & a_{1n} \\
a_{21} & a_{22} & \dots & a_{2n} \\
\cdots & \cdots & \ddots & \cdots \\
a_{m1} & a_{m2} & \dots & a_{mn} \end{array} \right) \left( \begin{array} .x_{1} \\
x_{2} \\
\vdots \\
x_{n} \end{array} \right) =\left( \begin{array} .b_{1} \\
b_{2} \\
\vdots \\
b_{m} \end{array} \right) }$$

  • ベクトル表示(vector representation):

$$\displaylines{ x_{1} \left( \begin{array} .a_{11} \\
\vdots \\
a_{m1} \end{array} \right) + \dots +x_{n} \left( \begin{array} .a_{1n} \\
\vdots \\
a_{mn} \end{array} \right) =\left( \begin{array} .b_{1} \\
\vdots \\
b_{m} \end{array} \right) }$$

  • ↑のベクトル表示が解を持つためには、定数ベクトルbがAの列空間の張る線形スパンに含まれていることが必要十分、つまり

$$ b \in \text{span} (\{\text{col }(A,1), \dots, \text{col }(A,n)\}) $$

  • 連立1次方程式の解集合を求めたいとき、係数行列の線形写像の逆像を求めてもよい、つまり

$$ f_{A}^{-1}(b)=\{x \in \mathbb{R}^{n} \mid f_{A}(x)=b\} $$

  • 以下のように表現してもいい

$$\displaylines{ \begin{align} f_{A}^{-1}(b)&= u + \text{ker }f_{A} \\
&= \{x \in \mathbb{R}^{n} \mid f_{A}(x)=b\} \end{align} }$$

  • 連立1次方程式が解を持つことは、定数ベクトルbがAの列空間の張る線形スパンに含まれていることの他に、言い換えとして以下でもよい

$$ \text{span }(\{\text{col }(A,1),\dots,\text{col }(A,n)\})=\text{span }(\{\text{col }(A,1),\dots,\text{col }(A,n), b\}) $$

  • (拡大係数行列 (augmented coefficient matrix) : 既存の行列にベクトルを新しい列として右端に追加した行列)
  • 拡大係数行列 $\widetilde{A} = (A,b) \in M_{m,n+1}(\mathbb{R})$ を定義すると、 $$ \text{rank }(A) = \text{rank }(\widetilde{A}) $$ が成り立つことも、解を持つ必要十分条件

  • さらに、Aの行標準形Bに含まれる主成分の数と $\widetilde{A}$ の行標準形 $\widetilde{B}$ に含まれる主成分の数が一致するとも言い換えられる

  • 同次連立1次方程式の解が一意に定まることは、自明解のみになるので、係数行列(の標準行列)の階数と列の数が一致する、つまり $\text{rank }(A)=n$ と必要十分
  • ↑をふまえて、同次でない一般の連立1次方程式の解が一意に定まることは、係数行列(の標準行列)の階数とその拡大係数行列(の標準行列)の階数と列の数が一致する、つまり $\text{rank }(A)=\text{rank }(\widetilde{A})=n$ と必要十分
  • さらに、係数行列が正方行列の場合、これが正則行列である(=標準行列が単位行列である)だけで必要十分になる
  • 逆に、複数の解を持つことは、階数が列の数未満であることと必要十分
  • 初等数学で学んだ加減法による連立方程式の解法は、拡大係数行列への基本操作と同一
  • 吐き出し法(row reduction): 行簡約して解を求める手法

固有値固有ベクトル

  • 基底の変換行列(basis transition matrix): 2つの基底ベクトルがあるとき、定義から線形結合で表現できるので、それらは相互に変換できる。そのvからwへの変換をする行列をいう

$$ P_{v \to w}= \left( \begin{array} .a_{11} & a_{12} & \dots & a_{1n} \\
a_{21} & a_{22} & \dots & a_{2n} \\
\dots & \dots & \ddots & \dots \\
a_{n1} & aa_{n2} & \dots & a_{nn} \end{array} \right) \in M_{n,n}(\mathbb{R}) $$

$$ [x]_{v}= \left( \begin{array} .a_{1} \\
\vdots \\
a_{n} \end{array} \right) $$

  • 座標の変換行列(coordinate transition matrix): $$ [x]_{w} = ([v_{1}]_{w},[v_{2}]_{w},\dots,[v_{n}]_{w})[x]_{v} $$ のときの正方行列 $$ C_{v \to w} = ([v_{1}]_{w},[v_{2}]_{w},\dots,[v_{n}]_{w}) $$

  • vからwへの基底の変換行列と、wからvへの座標の変換行列は一致する、つまり

$$ P_{v \to w} = C_{w \to v} $$

  • 標準基底による線形変換を、別の基底vによる線形変換に置き換えるためには、一度基底vによる座標ベクトルを標準基底による座標ベクトルに変換し、それに対して線形変換 $f_{A}$ を適用したのち、再び基底をeからvに戻す必要があるので、つまり $$ [x]_{v} \to [x]_{e} \to [Ax]_{e} \to [Ax]_{v} $$ という変換の流れが必要だが、ここまでの議論により上記は $$ [x]_{v} \to C_{v \to e}[x]_{v} \to AC_{v \to e}[x]_{v} \to C_{v \to e}^{-1}AC_{v \to e}[x]_{v} $$ となるので、縮めて $$ [x]_{v} \to C_{v \to e}^{-1}AC_{v \to e}[x]_{v} $$ を意味する。ここで、途中に挟まる計算 $$ f_{[A]_{v}} = C_{v \to e}^{-1}AC_{v \to e} $$ を基底vに関する線形変換 $f_{A}$ の行列表現(matrix representation)という

  • $f_{[A]_{v}}$ は $f_{A}$ を別の基底の下で表したもので本質的には同じものを指しているため、$f_{[A]_{v}}$ は $f_{A}$ に相似である($f_{[A]_{v}}$ is similar to $f_{A}$)といい、逆の議論も成り立つため、 $f_{A}$ は $f_{[A]_{v}}$ に相似であるともいえる

  • 標準基底eから別の基底vへの変換は論じたが、標準でない基底vから別の標準でない基底wへの変換は、 $$ [x]_{w} \to [x]_{v} \to [A]_{v} [x]_{v} \to [[A]_{v} [x]_{v}]_{w} $$ つまり $$ [x]_{w} \to C_{w \to v} [x]_{w} \to [A]C_{w \to v} [x]_{w} \to C_{w \to v}^{-1}[A]C_{w \to v} [x]_{w} $$ 縮めて $$ [x]_{w} \to C_{w \to v}^{-1}[A]C_{w \to v} [x]_{w} $$ を意味し、ここで現れる計算を、前出の行列表現に倣って $$ f_{[[A]_{v}]_{w}} = C_{w \to v}^{-1}[A]C_{w \to v} $$ と表記する

  • $f_{A}, f_{[A]_{v}}, f_{[[A]_{v}]_{w}}$ はそれぞれたがいに相似

  • 一般に、$B=P^{-1}AP$ を満たすPが存在する場合BはAに相似という
  • また、相似であることは同値であること $A \sim B$ と必要十分
  • これを、ここまでの議論と組み合わせると、 任意の2つの正方行列がある基底vを使って $B=[A]_{v}$ と表せることと相似であることは必要十分
  • 対角行列は、diagを使って簡略表記することがある

$$ \text{diag}(a_{1}, a_{2})= \left( \begin{array} .a_{1} & 0 \\
0 & a_{2} \end{array} \right) $$

  • 対角行列 $\text{diag}(a_{1}, a_{2}, \dots, a_{n})$ の逆行列は $\text{diag}({1 \over a_{1}}, {1 \over a_{2}}, \dots, {1 \over a_{n}})$
  • 対角行列で線形変換を行うと、各要素のスカラー倍になるので、基底が特定しやすい
  • 対角化可能(diagonalizable): ある正方行列Aがなんらかの対角行列Dと相似であること、つまり $A=P^{-1}DP$ が成り立つこと
  • 固有値問題(eigenvalue problem): 線形変換の結果が、入力された列ベクトルのちょうどスカラー倍になっているかどうかの研究、つまり以下の命題

$$ \exists \lambda \in \mathbb{R}, \exists x \in \mathbb{R}^{n} \setminus \{0\}: Ax=\lambda x $$

  • 固有対(eigen pair): 固有値問題の解のスカラーとベクトルのペア $(\lambda, x) \in \mathbb{R} \times \mathbb{R}^{n} \setminus \{0\}$
  • $Ax=\lambda x$ を変形すると $Ax-\lambda x=0$ で、$\lambda$ に具体的に数値 $\lambda_{i}$ を入れて成分表示すると $$ \left( \begin{array} .a_{11} & a_{12} & \dots & a_{1n} \\
    a_{21} & a_{22} & \dots & a_{2n} \\
    \vdots & \vdots &\ddots &\vdots \\
    a_{n1} & a_{n2} & \dots & a_{nn} \end{array} \right) \left( \begin{array} .x_{1} \\
    x_{2} \\
    \vdots \\
    x_{n} \end{array} \right)
  • \lambda_{i} \left( \begin{array} .x_{1} \\
    x_{2} \\
    \vdots \\
    x_{n} \end{array} \right) =0 $$ だが、これは $$ \left\{ \begin{array} .(a_{11}-\lambda_{i})x_{1} + a_{12}x_{2} + \dots + a_{1n}x_{n} = 0 \\
    a_{21}x_{1} + (a_{22}-\lambda_{i})x_{2} + \dots + a_{2n}x_{n} = 0 \\
    \vdots \\
    a_{n1}x_{1} + a_{n2}x_{2} + \dots + (a_{nn}-\lambda_{i})x_{n} = 0 \\
    \end{array} \right. $$ と同じなので、これの解集合が $\lambda_{i}$ に対応する固有ベクトルの集合になる

  • 正方行列Aを基底vで対角化すると $[A]_{v}=\text{diag}(\lambda_{1}, \lambda_{2}, \dots, \lambda_{n})$ となるが、ここで各 $\lambda_{i}$ はAの固有値であり、$v_{i}$ は $\lambda_{i}$ に対応する固有ベクトルになる

  • 逆に、固有値固有ベクトルが与えられれば、それによってAを必ず対角化できる
  • 対角化によって固有値は変化しない
  • また、固有値が与えられれば、それに対応した固有ベクトルが判明する(上記の連立方程式を解くことによって)
  • $\lambda \text{ is eigenvalue for } A \iff \det (A-\lambda I_{n})=0$
  • 固有多項式(characteristic polynomial): ↑の $\det (A-\lambda I_{n})$ のことで、 $P_{A}(\lambda)$ と書く
  • 固有多項式スカラーのn乗の項の係数は (-1)のn乗になる、つまり $\det (A-tI_{n})=(-1)^{n}t^{n}+\dots$
  • 根(root): 多項式=0 の形をした式の解
  • n次方程式の解は重解を含めてn個あることから、n次正方行列の固有値は、複素数と重複を含めて必ずn個存在する
  • 必ずn個の解があるので、固有多項式は次のように変形できる: $P_{A}(t)=(-1)^{n}(t-\lambda_{1})(t-\lambda_{2}) \times \dots \times (t-\lambda_{n})$
  • 重複を考慮して正確に書くと、$P_{A}(t)=(-1)^{n}(t-\lambda_{1})^{r_{1}}(t-\lambda_{2})^{r_{2}} \times \dots \times (t-\lambda_{m})^{r_{m}}$
  • 対角化しても固有多項式は変化しない
  • 固有値 λに対応する固有空間(λ-eigenspace): 固有ベクトルの集合にゼロベクトルを加えたもの $E_{\lambda}=\{x \in \mathbb{R}^{n} \mid Ax=\lambda x\}$
  • 固有空間の線形変換はそのfの核と一致する: $\text{ker }f_{A-\lambda I_{n}}=E_{\lambda}$
  • 固有値の固有空間の次元は、固有多項式の当該項の重複度以下、つまり $\text{dim} E_{\lambda_{i}} \leq r_{i}$

ベクトル空間

  • 体(field): 加法と乗法について閉じていて、「加法の結合律、加法単位元、加法逆元、交換律」と、「乗法の結合律、乗法単位元、乗法逆元、交換律」、分配律を満たすもの
  • ↑の条件を体の公理系(field axioms)という
  • 実数はこれを満たし、特に実数体(real number field)という
  • ベクトル空間(vector space)or 線型空間(linear space): ↑の条件で加法をベクトルに対して、乗法をスカラーに対して設定したもの
  • ↑の例:ベクトル空間、行列空間、ゼロ空間
  • 部分空間の例: ゼロ、全体、対称行列、交代行列
  • 線形スパンは部分空間
  • 複数の部分空間の共通部分は部分空間であるが、和集合は部分空間とは限らず、片方がもう片方の部分集合であるときのみ部分空間になる
  • 部分空間の和(ミンコフスキー和): 部分空間に所属するベクトルそれぞれの和の集まり
  • $\forall X_{1}, X_{2} \subset V: X_{1}+X_{2} = \text{span}(X_{1} \cup X_{2})$
  • 直和(direct sum): ゼロベクトルのみが共通している2つの部分空間のミンコフスキー和のこと $X_{1} \oplus X_{2}$
  • $X_{1} \oplus X_{2} =X_{1}+X_{2}$ が成り立つのは、和の要素xを一意に分解できるとき、つまり $x=x_{1}+x_{2}$