こんにちは、ひかりです。
今回は線形代数学続論からベクトル空間の基底と次元について解説していきます。
この記事では以下のことを紹介します。
- ベクトル空間の基底について
- ベクトル空間の次元について
- 2つの基底の間の関係について
ベクトル空間の基底
数ベクトル空間 \( \mathbb{R}^n \) には標準基底
$$ \mathbf{e}_1=\begin{pmatrix} 1 \\ 0 \\ \vdots \\ 0 \end{pmatrix}, \quad \mathbf{e}_2=\begin{pmatrix} 0 \\ 1 \\ 0 \\ \vdots \\ 0 \end{pmatrix}, \quad \cdots, \quad \mathbf{e}_n=\begin{pmatrix} 0 \\ 0 \\ \vdots \\ 1 \end{pmatrix} $$
が存在していました。
まず、線形代数学続論06の例2(1)より、 \( \mathbf{e}_1,\mathbf{e}_2,\cdots,\mathbf{e}_n \) は1次独立となります。
また、任意の \( \mathbf{x}\in \mathbf{R}^n \) は標準基底を用いて、
$$ \begin{align} \mathbf{x}&=\begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix}=\begin{pmatrix} x_1 \\ 0 \\ \vdots \\ 0 \end{pmatrix}+\begin{pmatrix} 0 \\ x_2 \\ 0 \\ \vdots \\ 0 \end{pmatrix}+\cdots+\begin{pmatrix} 0 \\ \vdots \\ 0 \\ x_n \end{pmatrix} \\ &=x_1\mathbf{e}_1+x_2\mathbf{e}_2+\cdots+x_n\mathbf{e}_n \end{align} $$
となるので、次が成り立ちます。
$$ \mathbb{R}^n=S[\mathbf{e}_1,\mathbf{e}_2,\cdots,\mathbf{e}_n] $$
ここで、 \( S[\mathbf{e}_1,\mathbf{e}_2,\cdots,\mathbf{e}_n] \) は \( \mathbf{e}_1,\mathbf{e}_2,\cdots,\mathbf{e}_n \) で生成される部分空間です。
\( \mathbf{e}_1,\mathbf{e}_2,\cdots,\mathbf{e}_n \) は1次独立かつ
$$ \mathbb{R}^n=S[\mathbf{e}_1,\mathbf{e}_2,\cdots,\mathbf{e}_n] $$
であるので、線形代数学続論06の定理2より、 \( \mathbb{R}^n \) の任意のベクトルは \( \mathbf{e}_1,\mathbf{e}_2,\cdots,\mathbf{e}_n \) の1次結合としてただ1通りに表されます。
これをもとにして、一般のベクトル空間 \( V \) に対して、次のように基底を定義します。
\( V \) をベクトル空間とし、 \( \mathbf{a}_1,\mathbf{a}_2,\cdots,\mathbf{a}_n\in V \) とする。
このとき、 \( \mathbf{a}_1,\mathbf{a}_2,\cdots,\mathbf{a}_n \) が \( V \) の基底であるとは、次の2つの条件をみたすことをいう。
(1) \( \mathbf{a}_1,\mathbf{a}_2,\cdots,\mathbf{a}_n \) は1次独立である。
(2) \( V=S[\mathbf{a}_1,\mathbf{a}_2,\cdots,\mathbf{a}_n] \)
つまり、 \( \mathbf{a}_1,\mathbf{a}_2,\cdots,\mathbf{a}_n \) が \( V \) の基底であるとは、 \( V \) の任意のベクトルは \( \mathbf{a}_1,\mathbf{a}_2,\cdots,\mathbf{a}_n \) の1次結合としてただ1通りに表されるということになります。
(1) 数ベクトル空間 \( \mathbb{R}^3 \) において、標準基底
$$ \mathbf{e}_1=\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}, \quad \mathbf{e}_2=\begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}, \quad \mathbf{e}_3=\begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} $$
は冒頭の議論により、 \( \mathbb{R}^3 \) の基底である。
(もちろん \( \mathbb{R}^n \) にしても同様のことが成り立つ)
(2) 今度は、数ベクトル空間 \( \mathbb{R}^3 \) において、
$$ \mathbf{a}_1=\begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}, \quad \mathbf{a}_2=\begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix}, \quad \mathbf{a}_3=\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} $$
も \( V \) の基底となることを示す。
まず、 \( \mathbf{a}_1,\mathbf{a}_2,\mathbf{a}_3 \) が1次独立であることを示す。そのために、
$$ c_1\mathbf{a}_1+c_2\mathbf{a}_2+c_3\mathbf{a}_3=\mathbf{0} $$
が成り立つとする。左辺を計算すると、
$$ \begin{align} &c_1\mathbf{a}_1+c_2\mathbf{a}_2+c_3\mathbf{a}_3 \\ &=c_1\begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}+c_2\begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix}+c_3\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} \\ &=\begin{pmatrix} c_1 \\ c_1 \\ 0 \end{pmatrix}+\begin{pmatrix} 0 \\ c_2 \\ c_2 \end{pmatrix}+\begin{pmatrix} c_3 \\ 0 \\ c_3 \end{pmatrix}=\begin{pmatrix} c_1+c_3 \\ c_1+c_2 \\ c_2+c_3 \end{pmatrix} \end{align} $$
したがって、
$$ \begin{pmatrix} c_1+c_3 \\ c_1+c_2 \\ c_2+c_3 \end{pmatrix}=\begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} $$
これを解くと、
$$ c_1=c_2=c_3=0 $$
となるので、 \( \mathbf{a}_1,\mathbf{a}_2,\mathbf{a}_3 \) は1次独立である。次に、
$$ \mathbb{R}^3=S[\mathbf{a}_1,\mathbf{a}_2,\mathbf{a}_3] $$
を示す。任意に \( \mathbf{x}\in \mathbb{R}^3 \) をとり、
$$ \begin{align} \mathbf{x}&=\begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}=\alpha\begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}+\beta\begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix}+\gamma\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} \end{align} $$
となる \( \alpha,\beta,\gamma \) を求めると、次のようになる。
$$ \alpha=\frac{x_1+x_2-x_3}{2}, \quad \beta=\frac{-x_1+x_2+x_3}{2}, \quad \gamma=\frac{x_1-x_2+x_3}{2} $$
したがって、
$$ \begin{pmatrix} x_1 \\ x_2 \\ x_3 \end{pmatrix}=\frac{x_1+x_2-x_3}{2}\begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}+\frac{-x_1+x_2+x_3}{2}\begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix}+\gamma=\frac{x_1-x_2+x_3}{2}\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} $$
と \( \mathbf{a}_1,\mathbf{a}_2,\mathbf{a}_3 \) の1次結合で表されるので、
$$ \mathbb{R}^3=S[\mathbf{a}_1,\mathbf{a}_2,\mathbf{a}_3] $$
よって、 \( \mathbf{a}_1,\mathbf{a}_2,\mathbf{a}_3 \) は \( \mathbb{R}^3 \) の基底である。
では、どのようなベクトル空間であれば基底が存在するのでしょうか。
それに関する定理を1つ紹介します。
ベクトル空間 \( V \) が有限個のベクトル \( \mathbf{a}_1,\mathbf{a}_2,\cdots,\mathbf{a}_n \in V \) によって、
$$ V=S[\mathbf{a}_1,\mathbf{a}_2,\cdots,\mathbf{a}_n] $$
となるとき、 \( V \) は基底をもつ。
( \( \mathbf{a}_1,\mathbf{a}_2,\cdots,\mathbf{a}_n \) がそのまま \( V \) の基底とは限らないことに注意)
定理1の証明(気になる方だけクリックしてください)
$$ r=\max \{ s≧1 \ | \ \mathbf{a}_{i_1},\cdots,\mathbf{a}_{i_s} \ は1次独立 \} ≦n $$
とおきます。
(つまり、 \( n \) 個のベクトルのうち \( s \) 個のベクトルが1次独立であるとき、その \( s \) の最大値を \( r \) とおきます)
このとき、 \( \mathbf{a}_{i_1},\cdots,\mathbf{a}_{i_r} \) が1次独立であるが、順番を並び替えることにより、 \( \mathbf{a}_1,\cdots,\mathbf{a}_r \) が1次独立となるようにできます。
すると、これに \( \mathbf{a}_{r+1} \) を加えた \( \mathbf{a}_1,\cdots,\mathbf{a}_r,\mathbf{a}_{r+1} \) は1次従属となります。
よって、線形代数学続論06の定理1より、 \( \mathbf{a}_{r+1} \) は \( \mathbf{a}_1,\cdots,\mathbf{a}_r \) の1次結合で表すことができます。
したがって、 \( \mathbf{a}_{r+1}\in S[\mathbf{a}_1,\cdots,\mathbf{a}_r] \)
これを繰り返すことにより、
$$ \mathbf{a}_{r+1},\cdots,\mathbf{a}_n\in S[\mathbf{a}_1,\cdots,\mathbf{a}_r] $$
となるので、
$$ V=S[\mathbf{a}_1,\cdots,\mathbf{a}_n]=S[\mathbf{a}_1,\cdots,\mathbf{a}_r] $$
となります。したがって、 \( \mathbf{a}_1,\cdots,\mathbf{a}_r \) は \( V \) の基底となります。
ベクトル空間の次元
数ベクトル空間においては、次元が定まっています。
( \( \mathbb{R}^2 \) なら2次元、 \( \mathbb{R}^3 \) なら3次元、 \( \mathbb{R}^n \) なら \( n \) 次元です)
同様に、一般のベクトル空間 \( V \) に対しても、次元を定めることを考えます。
数ベクトル空間においては、標準基底の数がそのまま次元となっていますので、一般のベクトル空間も基底の数を次元と定義したい。
ただし、定義1の後の注意でも述べたように基底にはさまざまなとり方があります。
そのため、この方法では次元は定義できないように思えます。
しかし、実は次の定理が成り立ちます。
\( V \) をベクトル空間とし、 \( \mathbf{a}_1,\cdots,\mathbf{a}_r \) と \( \mathbf{b}_1,\cdots,\mathbf{b}_s \) を \( V \) の2つの基底とするとき、 \( r=s \) となる。
定理2の証明(気になる方だけクリックしてください)
基底の定義より、
$$ V=S[\mathbf{a}_1,\cdots,\mathbf{a}_r]=S[\mathbf{b}_1,\cdots,\mathbf{b}_s] $$
であるので、各 \( \mathbf{a}_i \) は \( \mathbf{b}_1,\cdots,\mathbf{b}_s \) の1次結合で次のように表されます。
$$ \mathbf{a}_i=\alpha_{i1}\mathbf{b}_1+\cdots+\alpha_{is}\mathbf{b}_s=\sum_{j=1}^s\alpha_{ij}\mathbf{b}_j \quad (1≦i≦r) $$
まず、 \( r≦s \) を示します。
背理法で示すため、 \( r≧s+1 \) とします。
$$ c_1\mathbf{a}_1+\cdots+c_r\mathbf{a}_r=\mathbf{0} $$
とすると、
$$ \begin{align} &c_1\mathbf{a}_1+\cdots+c_r\mathbf{a}_r=c_1\sum_{j=1}^s\alpha_{1j}\mathbf{b}_j+\cdots+c_r\sum_{j=1}^s\alpha_{rj}\mathbf{b}_j \\ &=\sum_{i=1}^rc_i\left( \sum_{j=1}^s\alpha_{ij}\mathbf{b}_j\right)=\sum_{j=1}^s\left( \sum_{i=1}^rc_i\alpha_{ij} \right) \mathbf{b}_j \end{align} $$
したがって、
$$ \sum_{j=1}^s\left( \sum_{i=1}^rc_i\alpha_{ij} \right) \mathbf{b}_j=\mathbf{0} $$
となり、 \( \mathbf{b}_1,\cdots,\mathbf{b}_s \) の1次独立性より、
$$ \sum_{i=1}^rc_i\alpha_{ij}=0 \quad (1≦j≦s) $$
これを展開すると、
$$ \begin{pmatrix} c_1 & \cdots & c_r \end{pmatrix}\begin{pmatrix} \alpha_{11} & \alpha_{12} & \cdots & \alpha_{1s} \\ \alpha_{21} & \alpha_{22} & \dots & \alpha_{2s} \\ \vdots & \vdots & \ddots & \vdots \\ \alpha_{r1} & \alpha_{r2} & \dots & \alpha_{rs} \end{pmatrix}=\begin{pmatrix} 0 & \cdots & 0 \end{pmatrix} $$
ここで、最後のゼロベクトルは \( s \) 個の元から構成されます。
いま、 \( r≧s+1 \) であるので、線形代数学続論06の定理4より \( \alpha_{ij} \) から成る行列の列ベクトル
$$ \begin{pmatrix} \alpha_{11} \\ \alpha_{12} \\ \vdots \\ \alpha_{1s} \end{pmatrix}, \quad \begin{pmatrix} \alpha_{21} \\ \alpha_{22} \\ \vdots \\ \alpha_{2s} \end{pmatrix}, \quad \cdots, \quad \begin{pmatrix} \alpha_{r1} \\ \alpha_{r2} \\ \vdots \\ \alpha_{rs} \end{pmatrix} $$
は1次従属となります。
よって、はじめに
$$ c_1\mathbf{a}_1+\cdots+c_r\mathbf{a}_r=\mathbf{0} $$
としていたので、 \( \mathbf{a}_1,\cdots,\mathbf{a}_r \) も1次従属となるが、これは \( \mathbf{a}_1,\cdots,\mathbf{a}_r \) が \( V \) の基底であることに矛盾します。
よって、 \( r≦s \) となります。 \( r \) と \( s \) の役割を入れ替えると \( s≦r \) も示せるので、 \( r=s \)
この定理により、 \( V \) の基底はたくさんあったとしても個数は等しいということがわかったので、次のようにして、ベクトル空間の次元を定めます。
ベクトル空間 \( V \) に対して、基底のベクトルの個数をベクトル空間 \( V \) の次元といい、 \( \dim V \) と表す。
ただし、 \( V=\{\mathbf{0} \} \) のときは、 \( \dim V=0 \) と定める。
以降、基本的に有限次元のベクトル空間を考えることとします。
(1) \( \mathbb{R}^n \) の標準基底は \( n \) 個であるので、 \( \dim \mathbb{R}^n=n \)
(2) \( n\times n \) 行列全体の集合を \( M(n) \) とする。これはベクトル空間である。
このとき、 \( \dim M(n)=n^2 \) であることを示す。
\( (i,j) \) 成分が \( 1 \) でそれ以外の成分が \( 0 \) の \( n\times n \) 行列を \( E_{ij} \) とおく。
そして、このベクトルの \( n^2 \) 個の組
$$ \{ E_{ij} \ | \ 1≦i,j≦n \} $$
を考える。まず、
$$ c_{11}E_{11}+\cdots+c_{1n}E_{1n}+c_{21}E_{21}+\cdots+c_{nn}E_{nn}=\mathbf{0} $$
とする。これは、
$$ \begin{pmatrix} c_{11} & c_{12} & \cdots & c_{1n} \\ c_{21} & c_{22} & \dots & c_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ c_{n1} & c_{n2} & \dots & c_{nn} \end{pmatrix}=\begin{pmatrix} 0 & 0 & \cdots & 0 \\ 0 & 0 & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & 0\end{pmatrix} $$
であるので、
$$ c_{ij}=0 \quad (1≦i,j≦n) $$
したがって、
$$ \{ E_{ij} \ | \ 1≦i,j≦n \} $$
は1次独立である。さらに、任意の \( A\in M(n) \) は
$$ \begin{align} A&=\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1} & a_{n2} & \dots & a_{nn} \end{pmatrix} \\ &=a_{11}E_{11}+\cdots+a_{1n}E_{1n}+a_{21}E_{21}+\cdots+a_{nn}E_{nn} \end{align} $$
と
$$ \{ E_{ij} \ | \ 1≦i,j≦n \} $$
の1次結合で表すことができるので、
$$ A\in S[\{ E_{ij} \ | \ 1≦i,j≦n \}] $$
したがって、
$$ M(n)=S[\{ E_{ij} \ | \ 1≦i,j≦n \}] $$
よって、
$$ \{ E_{ij} \ | \ 1≦i,j≦n \} $$
は \( M(n) \) の基底であり、 \( \dim M(n)=n^2 \) となる。
もともとのベクトル空間とその部分空間との次元の関係は次のようになります。
\( V \) をベクトル空間、 \( W \) を \( V \) の部分空間とする。このとき、
(1) $$ \dim W≦\dim V $$
(2) $$ \dim W=\dim V \ \Longleftrightarrow \ W=V $$
定理3の証明(気になる方だけクリックしてください)
(1) \( \dim W=s \) とおきます。このとき、 \( W \) の基底を \( \mathbf{u}_1,\cdots,\mathbf{u}_s \) とします。
すると、 \( \mathbf{u}_1,\cdots,\mathbf{u}_s \) に \( V \) のベクトル \( \mathbf{v}_1,\cdots,\mathbf{v}_r \) を付け加えて、
$$ V=S[\mathbf{u}_1,\cdots,\mathbf{u}_s,\mathbf{v}_1,\cdots,\mathbf{v}_r] $$
とすることができます。
(最悪、 \( V \) の基底をすべて付け加えればよい)
このとき、定理1の証明より \( V \) の基底の個数は
$$ \mathbf{u}_1,\cdots,\mathbf{u}_s,\mathbf{v}_1,\cdots,\mathbf{v}_r $$
の中の1次独立なベクトルの組の最大個数となります。
したがって、 \( \dim W=s≦\dim V \)
(2) ( \( \Leftarrow \) ) 次元の定義より成り立ちます。
( \( \Rightarrow \) ) \( m=\dim W=\dim V \) とします。
そして、 \( \mathbf{u}_1,\cdots,\mathbf{u}_m \) を \( W \) の基底とします。
基底の定義より、
$$ W=S[\mathbf{u}_1,\cdots,\mathbf{u}_m]\subset V $$
となるが、もし、 \( W⊊ V \) とすると \( W \) の元ではない \( V \) の元 \( \mathbf{v} \) がとれます。
このとき、関係式
$$ c_1\mathbf{u}_1+\cdots+c_m\mathbf{u}_m+c_{m+1}\mathbf{v}=\mathbf{0} $$
を考えると、 \( c_{m+1}=0 \) であれば \( \mathbf{u}_1,\cdots,\mathbf{u}_m \) の1次独立性より
$$ c_1=\cdots=c_m=0 $$
となり、 \( c_{m+1}\not=0 \) であれば、 \( \mathbf{v} \) は \( \mathbf{u}_1,\cdots,\mathbf{u}_m \) の1次結合で表すことができるので、
$$ \mathbf{v}\in S[\mathbf{u}_1,\cdots,\mathbf{u}_m]=W $$
となり、 \( \mathbf{v}\not\in W \) に矛盾します。
したがって、 \( \mathbf{u}_1,\cdots,\mathbf{u}_m,\mathbf{v} \) も1次独立となります。
すると、
$$ m=\dim U=\dim V≧m+1 $$
となり矛盾。これは \( W⊊ V \) を仮定していたことによるものなので、 \( W=V \)
(1) $$ V=S\left[ \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix},\begin{pmatrix} 4 \\ 5 \\ 6 \end{pmatrix},\begin{pmatrix} 7 \\ 8 \\ 9 \end{pmatrix} \right]\subset \mathbb{R}^3 $$
とするとき、 \( \dim V \) を求める。
\( \dim \mathbb{R}^3=3 \) なので定理3(1)より、 \( 1≦\dim V≦3 \) となる。
もし、 \( \dim V=1 \) であるとすると、
$$ \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}, \ \begin{pmatrix} 4 \\ 5 \\ 6 \end{pmatrix} $$
は1次従属であるので、
$$ \alpha\begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}+\beta\begin{pmatrix} 4 \\ 5 \\ 6 \end{pmatrix}=\begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} $$
とすると、 \( (\alpha,\beta)\not=(0,0) \) である。つまり、
$$ \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}=\lambda\begin{pmatrix} 4 \\ 5 \\ 6 \end{pmatrix} $$
となる \( \lambda\in K \) が存在するが、これは矛盾。
次に、 \( \dim V=3 \) であるとすると、
$$ \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}, \ \begin{pmatrix} 4 \\ 5 \\ 6 \end{pmatrix}, \ \begin{pmatrix} 7 \\ 8 \\ 9 \end{pmatrix} $$
は1次独立であるが、
$$ \begin{vmatrix} 1 & 4 & 7 \\ 2 & 5 & 8 \\ 3 & 6 & 9 \end{vmatrix}=0 $$
であるので、線形代数学続論06の定理6より、
$$ \begin{pmatrix} 1 \\ 2 \\ 3 \end{pmatrix}, \ \begin{pmatrix} 4 \\ 5 \\ 6 \end{pmatrix}, \ \begin{pmatrix} 7 \\ 8 \\ 9 \end{pmatrix} $$
は1次従属となり、これは矛盾。
したがって、 \( \dim V=2 \)
(2) $$ V=S\left[ \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix},\begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix},\begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} \right]\subset \mathbb{R}^3 $$
とするとき、 \( \dim V \) を求める。
$$ \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}, \ \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}, \ \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} $$
は \( \mathbb{R}^3 \) の標準基底であるので、この記事の冒頭部分の議論より、
$$ \mathbb{R}^3=S\left[ \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix},\begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix},\begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} \right] $$
したがって、定理3(2)より、
$$ \dim V=\dim \mathbb{R}^3=3 $$
(3) \( \mathbb{R}^2 \) 内の部分空間
$$ W_1=S\left[ \begin{pmatrix} 1 \\ 0 \end{pmatrix} \right], \quad W_2=S\left[ \begin{pmatrix} 0 \\ 1 \end{pmatrix} \right] $$
を考えると、 \( \dim W_1=\dim W_2=1 \) であるが、 \( W_1\not=W_2 \) である。
2つの基底の間の関係
ベクトル空間 \( V \) に対して、基底のとり方はいろいろあるが、それらの基底の間に何か関係はあるのでしょうか。
まず、次を示します。
\( V \) をベクトル空間、 \( \mathbf{a}_1,\cdots,\mathbf{a}_n \) を \( V \) の基底とする。
また、ベクトルの組 \( \mathbf{b}_1,\cdots,\mathbf{b}_n\in V \) が次をみたすとする。
$$ \mathbf{b}_j=\sum_{i=1}^nc_{ij}\mathbf{a}_i \quad (c_{ij}\in K) $$
このとき、行列 \( C \) を
$$ C=\begin{pmatrix} c_{11} & c_{12} & \cdots & c_{1n} \\ c_{21} & c_{22} & \dots & c_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ c_{n1} & c_{n2} & \dots & c_{nn} \end{pmatrix} $$
とおくとき、次が成り立つ。
$$ \mathbf{b}_1,\cdots,\mathbf{b}_n \ が \ V \ の基底 \ \Longleftrightarrow \ C \ が正則行列 $$
定理4の証明(気になる方だけクリックしてください)
( \( \Rightarrow \) ) このとき、基底の定義より、
$$ V=S[\mathbf{a}_1,\cdots,\mathbf{a}_n]=S[\mathbf{b}_1,\cdots,\mathbf{b}_n] $$
すると、各 \( \mathbf{a}_i \) は \( \mathbf{b}_1,\cdots,\mathbf{b}_n \) の1次結合で表すことができます。つまり、
$$ \mathbf{a}_i=\sum_{\ell=1}^nd_{\ell i}\mathbf{b}_{\ell} \quad (d_{\ell i}\in K, \ 1≦i≦n) $$
ここで、行列 \( D \) を次で定めます。
$$ D=\begin{pmatrix} d_{11} & d_{12} & \cdots & d_{1n} \\ d_{21} & d_{22} & \dots & d_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ d_{n1} & d_{n2} & \dots & d_{nn} \end{pmatrix} $$
このとき、定理の仮定と組み合わせると、
$$ \mathbf{b}_j=\sum_{i=1}^nc_{ij}\mathbf{a}_i=\sum_{i=1}^nc_{ij} \left( \sum_{\ell=1}^nd_{\ell i}\mathbf{b}_{\ell} \right)=\sum_{\ell=1}^n \left( \sum_{i=1}^nd_{\ell i}c_{ij} \right) \mathbf{b}_{\ell} $$
ここで、 \( \displaystyle \sum_{i=1}^nd_{\ell i}c_{ij} \) は行列 \( DC \) の \( (\ell,j) \) 成分であり、この関係式より
$$ \sum_{i=1}^nd_{\ell i}c_{ij}=\delta_{\ell j} $$
となります。ここで、 \( \delta_{\ell j} \) はクロネッカーのデルタといわれるもので、次で与えられます。
$$ \delta_{\ell j}=\begin{cases} 1 & (\ell=j) \\ 0 & (\ell\not=j) \end{cases} $$
つまり、 \( DC=E_n \) ( \( E_n \) は \( n \) 次単位行列) であるので、 \( C \) は正則行列である。
( \( \Leftarrow \) ) \( C \) を正則行列として、行列 \( D \) を
$$ D=C^{-1}=\begin{pmatrix} d_{11} & d_{12} & \cdots & d_{1n} \\ d_{21} & d_{22} & \dots & d_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ d_{n1} & d_{n2} & \dots & d_{nn} \end{pmatrix} $$
とおきます。このとき、定理の仮定と \( \delta_{\ell j} \) の定め方より、
$$ \begin{align} \sum_{i=1}^nd_{ij}\mathbf{b}_i&=\sum_{i=1}^nd_{ij}\left( \sum_{\ell=1}^nc_{\ell i}\mathbf{a}_{\ell} \right)=\sum_{\ell=1}^n\left( \sum_{i=1}^nc_{\ell i}d_{ij} \right) \mathbf{a}_{\ell} \\ &=\sum_{\ell=1}^n\delta_{\ell j}\mathbf{a}_{\ell}=\delta_{jj}\mathbf{a}_j=\mathbf{a}_j \end{align} $$
したがって、
$$ \mathbf{a}_i\in S[\mathbf{b}_1,\cdots,\mathbf{b}_n] \quad (1≦i≦n) $$
つまり、
$$ V=S[\mathbf{a}_1,\cdots,\mathbf{a}_n]\subset S[\mathbf{b}_1,\cdots,\mathbf{b}_n]\subset V $$
となるので、
$$ V=S[\mathbf{a}_1,\cdots,\mathbf{a}_n]=S[\mathbf{b}_1,\cdots,\mathbf{b}_n] $$
となり、 \( \mathbf{b}_1,\cdots,\mathbf{b}_n \) は \( V \) の基底となります。
(基底でないならば、ある \( \mathbf{b}_i \) が残りのベクトルの1次結合で表すことができることになり、
$$ S[\mathbf{b}_1,\cdots,\mathbf{b}_n]=S[\mathbf{b}_1,\cdots,\mathbf{b}_{i-1},\mathbf{b}_{i+1},\cdots,\mathbf{b}_n] $$
となるので、 \( \dim V<n \) となり定理の仮定に矛盾します)
定理4を用いて、2つの基底の間の関係は次のようになることを示すことができます。
\( V \) をベクトル空間、 \( \mathbf{a}_1,\cdots,\mathbf{a}_n \) と \( \mathbf{b}_1,\cdots,\mathbf{b}_n \) を \( V \) の2つの基底とする。
各 \( \mathbf{b}_j \) を
$$ \mathbf{b}_j=\sum_{i=1}^np_{ij}\mathbf{a}_i \quad (p_{ij}\in K) $$
と表したときの \( p_{ij} \) を用いて、行列 \( P \) を次で定める。
$$ P=\begin{pmatrix} p_{11} & p_{12} & \cdots & p_{1n} \\ p_{21} & p_{22} & \dots & p_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ p_{n1} & p_{n2} & \dots & p_{nn} \end{pmatrix} $$
このとき、任意の \( \mathbf{x}\in V \) を2つの基底を用いて、
$$ \mathbf{x}=x_1\mathbf{a}_1+\cdots+x_n\mathbf{a}_n $$
$$ \mathbf{x}=y_1\mathbf{b}_1+\cdots+y_n\mathbf{b}_n $$
と表されるとき、次が成り立つ。
$$ \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix}=P\begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix} $$
よって、この \( P \) のことを基底 \( \mathbf{a}_1,\cdots,\mathbf{a}_n \) から基底 \( \mathbf{b}_1,\cdots,\mathbf{b}_n \) への基底の取り換え行列という。
定理5の証明(気になる方だけクリックしてください)
$$ \begin{align} \mathbf{x}&=y_1\mathbf{b}_1+\cdots+y_n\mathbf{b}_n \\ &=\begin{pmatrix} \mathbf{b}_1 & \cdots & \mathbf{b}_j & \cdots & \mathbf{b}_n \end{pmatrix}\begin{pmatrix} y_1 \\ \vdots \\ y_n \end{pmatrix} \\ &=\begin{pmatrix} \displaystyle \sum_{i=1}^np_{i1}\mathbf{a}_i & \cdots & \displaystyle\sum_{i=1}^np_{ij}\mathbf{a}_{i} & \cdots & \displaystyle\sum_{i=1}^np_{in}\mathbf{a}_n \end{pmatrix}\begin{pmatrix} y_1 \\ \vdots \\ y_n \end{pmatrix} \ (定理の仮定より) \\ &=\begin{pmatrix} \mathbf{a}_1 & \cdots & \mathbf{a}_n \end{pmatrix} P\begin{pmatrix} y_1 \\ \vdots \\ y_n \end{pmatrix} \end{align} $$
一方で、
$$ \begin{align} \mathbf{x}&=x_1\mathbf{a}_1+\cdots+x_n\mathbf{a}_n=\begin{pmatrix} \mathbf{a}_1 & \cdots & \mathbf{a}_n \end{pmatrix}\begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix} \end{align} $$
であるので、
$$ \mathbf{x}=\begin{pmatrix} \mathbf{a}_1 & \cdots & \mathbf{a}_n \end{pmatrix}\begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix}=\begin{pmatrix} \mathbf{a}_1 & \cdots & \mathbf{a}_n \end{pmatrix} P\begin{pmatrix} y_1 \\ \vdots \\ y_n \end{pmatrix} $$
\( \mathbf{a}_1,\cdots,\mathbf{a}_n \) は基底であるので、 \( \mathbf{x} \) の \( \mathbf{a}_1,\cdots,\mathbf{a}_n \) での1次結合の表し方は1通りになります。したがって、
$$ \begin{pmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{pmatrix}=P\begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix} $$
\( \mathbb{R}^3 \) 内の2つの基底
$$ \mathbf{a}_1=\begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}, \quad \mathbf{a}_2=\begin{pmatrix} 1 \\ -1 \\ 1 \end{pmatrix}, \quad \mathbf{a}_3=\begin{pmatrix} -1 \\ 1 \\ 2 \end{pmatrix} $$
から
$$ \mathbf{b}_1=\begin{pmatrix} 0 \\ 1 \\ 2 \end{pmatrix}, \quad \mathbf{b}_2=\begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}, \quad \mathbf{b}_3=\begin{pmatrix} 1 \\ -1 \\ 2 \end{pmatrix} $$
への基底の取り換え行列 \( P \) を求める。
$$ \mathbf{b}_j=\sum_{i=1}^np_{ij}\mathbf{a}_i \quad (p_{ij}\in \mathbb{R}) $$
とおくと、
$$ \begin{pmatrix} \mathbf{b}_1 & \mathbf{b}_2 & \mathbf{b}_3 \end{pmatrix}=\begin{pmatrix} \sum_{i=1}^3p_{i1}\mathbf{a}_1 & \sum_{i=1}^3p_{i2}\mathbf{a}_2 & \sum_{i=1}^3p_{i3}\mathbf{a}_3 \end{pmatrix}=\begin{pmatrix} \mathbf{a}_1 & \mathbf{a}_2 & \mathbf{a}_3 \end{pmatrix} P $$
ここで、
$$ A=\begin{pmatrix} \mathbf{a}_1 & \mathbf{a}_2 & \mathbf{a}_3 \end{pmatrix}=\begin{pmatrix} 1 & 1 & -1 \\ 0 & -1 & 1 \\ -1 & 1 & 2 \end{pmatrix} $$
$$ B=\begin{pmatrix} \mathbf{b}_1 & \mathbf{b}_2 & \mathbf{b}_3 \end{pmatrix}=\begin{pmatrix} 0 & 1 & 1 \\ 1 & 1 & -1 \\ 2 & 1 & 2 \end{pmatrix} $$
とおくと、 \( B=AP \) となり、線形代数学続論06の定理6より \( A \) は正則行列なので、 \( P=A^{-1}B \)
$$ A^{-1}=\frac{1}{|A|}\widetilde{A}=\frac{1}{3}\begin{pmatrix} 3 & 3 & 0 \\ 1 & -1 & 1 \\ 1 & 2 & 1 \end{pmatrix} $$
より、
$$ P=A^{-1}B=\frac{1}{3}\begin{pmatrix} 3 & 3 & 0 \\ 1 & -1 & 1 \\ 1 & 2 & 1 \end{pmatrix}\begin{pmatrix} 0 & 1 & 1 \\ 1 & 1 & -1 \\ 2 & 1 & 2 \end{pmatrix}=\frac{1}{3}\begin{pmatrix} 3 & 6 & 0 \\ 1 & 1 & 4 \\ 4 & 4 & 1 \end{pmatrix} $$
今回はここまでです。お疲れ様でした。また次回にお会いしましょう。