Menü Schließen

Sind Matrizen und Tensoren zweiten Ranges das Gleiche?

Ich weiß, dass dies ein alter Thread ist. Aber ich denke, es fehlt noch ein Punkt, also wenn die Leute immer noch zu diesem Beitrag kommen, um sich zu informieren, lass mich es versuchen.

Ich möchte von einem mathematischen Standpunkt aus argumentieren, der etwas geometrisch ist. Wir wollen Vektoren aus einem Vektorraum $V$ nehmen. Wir werden insbesondere nicht verlangen, dass $V$ ein $\mathbb{R}^n$ für irgendeine Dimension $n$ ist, aber nehmen wir der Einfachheit halber an, dass $V$ endlich dimensional ist. Es gibt zwei verschiedene Arten von Operationen auf diesem Vektorraum, die in der üblichen Tensordarstellung relevant sind. Die eine sind $\begin{pmatrix}0\\2 \end{pmatrix}$-Tensoren – die leicht und ohne technisches Durcheinander beschrieben werden – und die andere sind lineare Karten, die durch $\begin{pmatrix}1\\1 \end{pmatrix}$-Tensoren beschrieben werden – die technisches Durcheinander erfordern, weshalb wir uns hier kurz halten. Wir werden auch über Basen sprechen müssen. Gehen wir also in drei Schritten vor.

Vorzeitiges Postskriptum: Das ist ein bisschen aus dem Ruder gelaufen. Ich habe versucht, das Thema zu vertiefen, weil ich weiß, dass meine Schüler oft mit handwavigen und kurzen Antworten kämpfen, die die wichtigen Hinweise nicht strecken.

Eine gute Quelle, um in die Materie einzusteigen (und sehr lesenswert) ist Nadir Jeevanjees Introduction to Tensors and Group Theory for Physicists.

$\begin{pmatrix}0\\2 \end{pmatrix}$ Tensoren

  1. Ohne viel Aufhebens können wir einen $\begin{pmatrix}0\\\2 \end{pmatrix}$-Tensor als eine bilineare Abbildung $T$ definieren, die zwei Vektoren $v$ und $w \in V$ frisst und eine reelle Zahl $T(v,w)$ ausspuckt. Etwas formeller ausgedrückt:$$T : V \mal V \in \mathbb{R}, \qquad (v,v) \mapsto T(v,v) \in \mathbb{R}.$$Für diejenigen, die von der mathematischen Notation erschreckt werden, keine Sorge, es ist wirklich nur die oben geschriebene Prosa. Das Wort bilinear ist besonders wichtig. Es bedeutet, dass der Tensor in beiden Argumenten linear ist. Andernfalls wäre es eine eher zufällige Abbildung, aber die Linearität ist es, die Tensoren ihre charakteristischen Eigenschaften verleiht.

Das ist es. Das ist es, was ein Tensor wirklich ist: Er nimmt zwei Vektoren und spuckt eine reelle Zahl aus. Und das auf lineare Weise.

Diese Definition ist unabhängig vom Vektorraum $V$, Tensoren können auf jedem Vektorraum beschrieben werden. Ein Beispiel für den Vektorraum $V$ könnte der Raum aller möglichen Geschwindigkeiten sein, die eine Billardkugel haben kann (es ist ein Vektorraum, weil man Geschwindigkeiten dehnen und addieren kann, und viel mehr gibt es eigentlich nicht, um eine Menge als Vektorraum zu qualifizieren). Und ein Tensor? Wie oben erwähnt, ist jede multinormale Karte geeignet, aber etwas, das für die Physik sinnvoll ist, könnte der „Tensor der kinetischen Energie“$$ T(v,w) = \frac{m}{2}v \cdot v,$$ dessen Diagonale genau $T(v,v) = E_{\textm{kin}}(v)$ ist.

Nun beachte eine Sache: Niemals in dieser Definition oder dem Beispiel haben wir etwas über Koordinaten oder $\mathbb{R}^3$ erwähnt. Das ist wichtig. Der Tensor ist ein Objekt, das in seiner vollen Pracht existieren kann, frei und unabhängig von jedem Koordinatensystem. Für einen Theoretiker (oder jeden Physiker) ist dies ein erfreuliches Ergebnis: Es gibt kein Experiment, mit dem festgestellt werden kann, ob das Koordinatensystem der Welt kartesisch, polar oder sphärisch ist. Das sind Erfindungen des menschlichen Geistes. Eine gute Theorie sollte nicht von einer willkürlichen Wahl abhängen. Es ist besser, wenn Tensoren wohldefinierte Einheiten sind, bevor wir uns in Koordinatensystemen verlieren. Und genau das haben wir hier getan.

Wählen einer Basis

Aber andererseits funktioniert unser Verstand ziemlich gut in Koordinatensystemen, oder zumindest wurde er gut darauf trainiert. Was passiert also, wenn wir eine Basis wählen? Dann lassen sich die Vektoren $v,w \in V$ in eine Summe über die Menge der Basisvektoren $\{e_i\}$ mal die jeweiligen Skalierungsfaktoren $\{v^i\}$ für jeden von ihnen zerlegen. Mit der Summenkonvention:$$ v = v^i e_i, \qquad w = w^i e_i.$$ Wir setzen dies in die Tensordefinition ein und sehen, was herauskommt.\begin{align} T(v,w)&= T(v^i e_i, w^j e_j)\\&= v^i T(e_i, w^j e_j)\&= v^i T(e_i, e_j) w^j \&=: v^i T_{ij} w^j.\end{align}Die erste Gleichheit ist nur eine Einfügung (mit entsprechender Sorgfalt für die Indizes), die zweite Gleichheit ist die Linearität des ersten Arguments ($v^i$ ist nur eine reelle Zahl, sie kann herausgezogen werden), die dritte Gleichheit ist die Linearität im zweiten Argument, und schließlich führen wir die Definition$$T_{ij} := T(e_i,e_j).$$Dies ist eine neue Größe, die wir definieren, indem wir den Tensor nehmen und ihn auf alle Paare von Basisvektoren anwenden. Wenn der Vektorraum die Dimension $n$ hat, dann erhalten wir $n^2$ reelle Zahlen, während die Komponenten $v^i$ und $w^j$ jeweils $n$ reelle Zahlen bilden.

Und nun kommt man zu einer völlig willkürlichen Art, all diese Informationen zu speichern: Matrizen. Eine Matrix ist an sich nichts anderes als eine Tabelle (historisch wurden sie sogar eine Zeit lang Tabellen genannt). Bloße MS-Excel-Tabellenblätter. Aber motiviert durch die Gleichung, die wir gerade abgeleitet haben, kamen die Leute auf die Idee: Hey, lass uns die $v^i$ und $w^j$ in diesen Zeilen und Spalten von Zahlen anordnen und lass uns die Zahlen $T_{ij}$ in diesem schönen quadratischen Zahlenblock anordnen. Und damit wir uns merken können, wie man mit ihnen umgeht, führen wir eine Möglichkeit ein, sie miteinander zu multiplizieren.

Eine Matrix (einschließlich quadratischer Matrizen in $\mathbb{R}^{n \times n}$ sowie Zeilenmatrizen in $\mathbb{R}^{1\times n}$ und Spaltenmatrizen in $\mathbb{R}^{n \times 1}$, gemeinhin als Vektoren bezeichnet) ist, wie in einer anderen Antwort erwähnt, nichts anderes als eine Möglichkeit, Informationen zu speichern. Die Matrixmultiplikationsregel („Zeile mal Spalte“) ist eine zusätzliche Information. Sie ist nur ein Weg, um die in der Matrix und den Vektoren gespeicherte Information, die nackte reelle Zahlen sind, korrekt zu behandeln.

In diesem Sinne betrachten wir Vektoren als in einer gewissen $\mathbb{R}^n$ liegend und Tensoren als Matrizen in $\mathbb{R}^{n \times n}$. Vektoren liegen tatsächlich in einem $n$-dimensionalen Vektorraum $V$, und Tensoren sind bilineare Abbildungen, die zwei dieser Vektoren nehmen und eine reelle Zahl ergeben. Nachdem man jedoch eine Basis $\{e_i\} \Teilmenge V$, sind alle Informationen, die wir brauchen, um den vollständigen Vektor $v$ wiederherzustellen, seine Komponenten $\{v^i\}$ in dieser gegebenen Basis, und alles, was wir brauchen, um einen Tensor $T$ vollständig zu kennen, sind seine Werte auf den Basisvektoren $\{T_{ij}\} = \{T(e_i,e_j) \}$. Das schiebt die Basis unter den Teppich, aber dann passieren seltsame Dinge, wenn man die Basis wechselt.

Tensoren als lineare Karten

Warum drehen sich die meisten Antworten hier darum, dass Tensoren lineare Karten sind, die einen Vektor in $\mathbb{R}^n$ zu einem anderen Vektor in $\mathbb{R}^n$ bringen? Denn natürlich gibt es eine große Ähnlichkeit.

Betrachten wir noch einmal die Koordinatendarstellung der Tensormultiplikation. Dort haben wir geschrieben$$T(v,w) = v^i T_{ij}w^j.$$Dies hat große Ähnlichkeit mit der Koordinatendarstellung des inneren Produkts,$$v \cdot u = v^i u_i,$$ wir müssen nur$$u_i = T_{ij}w^j = T(e_i,e_j)w^j = T(e_i,w^j e_j) = T(e_i,w)$$in der Gleichung ersetzen.

In diesem Sinne finden wir eine neue Art, den Tensor zu verstehen. Anstatt einfach zwei Vektoren zu nehmen und eine reelle Zahl zurückzugeben, können wir den Tensor so betrachten, dass er einen Vektor $w$ nimmt, ihn linear in einen neuen Vektor $u$ transformiert und dann das innere Produkt zwischen $v$ und $u$ berechnet.

Eine Anmerkung: An dieser Stelle habe ich ein paar Feinheiten ausgelassen, denn um das ganze Bild zu verstehen, müssten wir weiter über das innere Produkt sprechen. Denn das innere Produkt definiert den metrischen Tensor (oder umgekehrt), den wir noch brauchen, wenn wir von den kovarianten Komponenten des $u_i$ zu den kontravarianten Komponenten $u^i = \eta^{ij} u_j$ kommen wollen. Darauf wollen wir hier nicht näher eingehen. Ich nehme an, das wurde ohnehin schon an anderer Stelle diskutiert.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.