メニュー 閉じる

Are matrices and second rank tensors the same thing?

これは古いスレッドであることは分かっています。

私は、多少幾何学的な数学的立場から議論したいと思います。 あるベクトル空間$V$からベクトルを取りたい。 特に$V$がある次元$n$の$mathbb{R}^n$であることは要求しませんが、簡単のために$V$が有限次元であるとしましょう。 このベクトル空間には、通常のテンソルの描像に関係する2種類の操作があります。1つは $begin{pmatrix}0 \2 \end{pmatrix}$ テンソルであり、これは技術的な混乱がなく簡単に記述できます。もう1つは $begin{pmatrix}1 hier1 \end{pmatrix}$ テンソールで記述する線形写像で、これは技術的混乱が必要なのでここでは簡単に済ませましょう。 また、基底の話も必要である。

早めの追記です。 これは少し大げさになりました。

この問題に取り組むのに良い資料 (そして非常に読みやすい) は、Nadir Jeevanjee の Introduction to Tensors and Group Theory for Physicists (物理学者のためのテンソルおよび群論の紹介) です。

$begin{pmatrix}0\2 \end{pmatrix}$ Tensors

  1. With much ado, we can define a $begin{pmatrix}0\2 \end{pmatrix}$-tensor that eats two vectors $v$ and $w \in V$ and spits out a real number $T(v,w)$ バイリニア写像$T$であります。 もう少し正式に書くと、$$T : V \times V \to \mathbb{R}, \qquad (v,v) \mapsto T(v,v) in \mathbb{R}.$$ 数学表記で怖い人は心配しないでください、本当に上の散文のようなものなのです。 特にバイリニアという単語が重要です。 これはテンソルが両方の引数に対して線形であることを意味する。 そうでなければ、かなりランダムな写像になってしまいますが、線形であることがテンソルに特徴的な性質を与えるのです。 2つのベクトルを受け取って実数を吐き出すのです。

    この定義はベクトル空間$V$に依存せず、テンソルは任意のベクトル空間上で記述することができます。 ベクトル空間 $V$ の例としては、ビリヤードの球が持ちうるすべての速度の空間が考えられます(速度を伸ばしたり足したりできるのでベクトル空間であり、ある集合がベクトル空間として認められるためには、実際にはそれ以上のことはありません)。 ではテンソルとは? 前述のように、どんなmultiniear mapでも構いませんが、physiscにとって意味のあるものは、「運動エネルギーテンソル」$$ T(v,w) = \frac{m}{2}v \cdot v,$$ その対角はまさに $T(v,v) = E_{textrm{kin}}(v)$

    さて、1つ気づいてください:この定義や例では座標や$mathbb{R}^3$について何も触れていないのですが、この例では、$T(v, v) = $mathbb{rot}$の対角が$E_{textrm{rot}{rot}{rot}となります。 これは重要なことです。 テンソルは、どのような座標系からも独立した、自由で、その完全な輝きで存在できるオブジェクトである。 理論家(物理学者)にとって、これは嬉しい結果である。 世界の座標系が直交座標系か極座標系か球座標系かを決定するような実験は存在しないのである。 これらは人間の心の産物である。 良い理論は、最初から恣意的な選択に依存するべきではない。座標系に迷う前に、テンソルがよく定義された実体であれば良いのである。

    基底の選択

    しかし、再び、私たちの心は座標系でかなりよく働く、あるいは少なくとも、そうするようによく訓練されたのです。 では、基底を選択するとどうなるでしょうか。 そうすると、$v,w \in V$のベクトルは、基底ベクトルの集合${e_i}$にそれぞれのスケーリング係数${v^i}$をかけた和に分解することができます。 これをテンソルの定義に代入すると、次のようになります。 T(v,w)&= T(v^i e_i, w^j e_j)\&= v^i T(e_i, w^j e_j)&= v^i T(e_i, e_j) w^j \

    =.のようなものです。 v^i T_{ij} w^j.\୧-͈ᴗ-͈)◞ᵗᵃᵃᵏᵒᵒᵏᵏᵏᵏᵏᵏᵏᵏᵏᵎᵎⓎ♡ⓎⓎ♡ⓎⓎㄨㄡㄧㄨㄩㄨ ベクトル空間が$n$次元であれば、$n^2$個の実数が得られ、成分$v^i$と$w^j$はそれぞれ$n$個の実数を形成します。

    そして、これらの情報すべてを保存する全く任意の方法として、行列を思いつきます。 行列はそれ自体、表以外の何ものでもありません (歴史的には、一時期は表と呼ばれていたこともあります)。 MS-Excelのスプレッドシートに過ぎない。 しかし、今導出した方程式に突き動かされて、人々は次のようなアイデアを思いつきました:おい、$v^i$と$w^j$をこれらの数字の行と列に並べて、数字$T_{ij}$をこの美しい正方形のブロックに並べてみよう。

    行列($mathbb{R}^{n \times n}$の正方行列のほか、$mathbb{R}^{1times n}$の行行列、$mathbb{R}^{n \times 1}$の列行列も含む、一般にベクトルと呼ばれる)は別の答えにあるように、情報を格納する方法にほかならないのですが、その扱いの仕方を覚えておいて下さいね。 行列の乗算規則(「行×列」)は、その上に追加された情報です。

    このような意味で、ベクトルはある$mathbb{R}^n$にあり、テンソルは$mathbb{R}^{n \times n}$の行列であると考えています。 ベクトルは$n$次元のベクトル空間$V$に存在し、テンソルはそのベクトルを2つ取って実数を与える双線形写像である。 しかし、基底を選択した後、$V$のベクトル空間に対して、$V$のベクトルから$e{e_i}}のベクトルへの変換を行う。 \また、テンソル$T$を完全に知るためには、基底ベクトル${T_{ij}} = \{T(e_i,e_j) \}$上の値だけでよいのです。

    Tensors as Linear Maps

    では、なぜテンソルは $meathbb{R}^n$ のベクトルを $meathbb{R}^n$ の別のベクトルにとる線形写像であることを中心とした回答が多いのでしょうか。

    ここでもう一度、テンソルの乗算の座標表現を見てみましょう。 これは内積の座標表現$$v \cdot u = v^i u_iとよく似ており、$$u_i = T_{ij}w^j = T(e_i,e_j)w^j = T(e_i,w^j e_j) = T(e_i,w)$$ を置き換えればよいだけである。

    その意味で、テンソルの新しい理解方法が見つかりました。 単に2つのベクトルをとって実数を返すのではなく、テンソルはベクトル$w$をとって、それを新しいベクトル$u$に線形変換し、$v$と$u$の内積を計算すると考えることができます。

    余談になりますが。 この時点では、全体像を把握するためには、さらに内積の話をする必要があるため、微妙な部分を省きました。 これは内積がメトリックテンソル(またはその逆)を定義しているからで、共変成分の$u_i$から反変成分の$u^i = \eta^{ij} u_j$にしたい場合は、やはり内積が必要になります。 これについてはここでは触れないことにします。 どうせ他のところで既に議論されたことでしょうから。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です