Menu Sluiten

Zijn matrices en tweede rang tensoren hetzelfde?

Ik weet dat dit een oude thread is. Maar ik denk dat er nog steeds een punt ontbreekt, dus als mensen nog steeds naar deze post komen voor referentie, laat me er dan eens naar kijken.

Ik wil argumenteren vanuit een wiskundig standpunt dat enigszins meetkundig is. We willen vectoren nemen uit een of andere vectorruimte $V$. We zullen vooral niet eisen dat $V$ een $\mathbb{R}^n$ is voor een bepaalde dimensie $n$, maar laten we voor het gemak zeggen dat $V$ eindig dimensionaal is. Er zijn twee verschillende soorten operaties op deze vectorruimte die van belang zijn in het gebruikelijke tensorbeeld, de ene zijn $\begin{pmatrix}0\2 \eind{pmatrix}$ tensoren – die gemakkelijk beschreven kunnen worden zonder technische rommel – en de andere zijn lineaire kaarten beschreven door $\begin{pmatrix}1 \eind{pmatrix}$ tensoren – waarvoor technische rommel nodig is, dus we houden het hier kort. We zullen het ook moeten hebben over grondslagen. Dus laten we in drie stappen gaan.

remature Postscriptum: Dit is een beetje uit de hand gelopen. Ik heb geprobeerd het uit te werken omdat ik weet dat mijn studenten vaak de strijd aangaan met handzamere en beknopte antwoorden die de belangrijke aanwijzingen niet rekken.

Een goede bron om je in de materie te verdiepen (en zeer leesbaar) is Nadir Jeevanjee’s Introduction to Tensors and Group Theory for Physicists.

$begin{pmatrix}0{pmatrix}2 \eind{pmatrix}$ Tensors

  1. Zonder veel omhaal kunnen we een $begin{pmatrix}0{pmatrix}$-tensor definiëren als een bilineaire kaart $T$ die twee vectoren $v$ en $w in V$ opeet en een reëel getal $T(v,w)$ uitspuugt. Een beetje formeler geschreven:$$T : V \times V \tot \mathbb{R}, \qquad (v,v) \mapsto T(v,v) \in \mathbb{R}.$$ Voor degenen die schrikken van de wiskundige notatie, maak je geen zorgen, het is eigenlijk gewoon de proza die hierboven geschreven is. Het woord bilineair is bijzonder belangrijk. Het betekent dat de tensor lineair is in beide argumenten. Anders zou het een tamelijk willekeurige kaart zijn, maar de lineariteit is echt wat tensoren hun karakteristieke eigenschappen geeft.

Dit is het. Dat is wat een tensor eigenlijk is: hij neemt twee vectoren en spuugt er een reëel getal uit. En dat op een lineaire manier.

Deze definitie is onafhankelijk van de vectorruimte $V$, tensoren kunnen op elke vectorruimte worden beschreven. Een voorbeeld voor de vectorruimte $V$ zou de ruimte kunnen zijn van alle mogelijke snelheden die een biljartbal kan hebben (het is een vectorruimte omdat je snelheden kunt uitrekken en toevoegen, en er is echt niet veel meer voor een verzameling om als vectorruimte te kwalificeren). En een tensor? Zoals hierboven gezegd, elke multiniear kaart is goed, maar iets zinvols voor fysica zou de “kinetische energie tensor”$$ T(v,w) = \frac{m}{2}v \cdot v,$$ kunnen zijn waarvan de diagonaal precies $T(v,v) = E_{\textrm{kin}}(v)$ is.

Nou, merk één ding op: Nooit in deze definitie of het voorbeeld hebben we iets gezegd over coördinaten of $\mathbb{R}^3$. Dit is belangrijk. De tensor is een object dat in zijn volle glorie kan bestaan, vrij en onafhankelijk van enig coördinatenstelsel. Voor een theoreticus (of eender welke fysicus) is dit een verheugend resultaat: Er bestaat geen experiment dat kan bepalen of het coördinatenstelsel van de wereld cartesiaans, polair of sferisch is. Dit zijn hersenspinsels van de mens. Een goede theorie moet niet beginnen afhankelijk te zijn van een willekeurige keuze, het is beter als tensoren goed gedefinieerde entiteiten zijn voordat we ons verliezen in coördinatenstelsels. En dat is wat we hier hebben gedaan.

Kiezen van een basis

Maar ons verstand werkt dan ook vrij goed in coördinatenstelsels, althans daar is het goed op getraind. Dus wat gebeurt er als we een basis kiezen? Dan kunnen de vectoren $v,w in V$ worden ontleed in een som over de verzameling basisvectoren $\{e_i}$ maal de respectieve schaalfactoren $\{v^i\}$ voor elk van hen. Met de somconventie:$$ v = v^i e_i, ^qquad w = w^i e_i.$$ We stoppen het in de tensordefinitie en kijken wat eruit komt.begin{align} T(v,w)&= T(v^i e_i, w^j e_j)\&= v^i T(e_i, w^j e_j)\&= v^i T(e_i, e_j) w^j \&=: v^i T_{ij} w^j.\De eerste gelijkheid is gewoon invoegen (met de juiste zorg voor de indexen), de tweede gelijkheid is de lineariteit van het eerste argument ($v^i$ is gewoon een reëel getal, het kan eruit getrokken worden), de derde gelijkheid is de lineariteit in het tweede argument, en tenslotte introduceren we de definitie$$T_{ij} := T(e_i,e_j).$$Dit is een nieuwe grootheid die we gedefinieerd hebben door de tensor te nemen en toe te passen op alle paren basisvectoren. Als de vectorruimte dimensie $n$ heeft, dan krijgen we $n^2$ reële getallen, terwijl de componenten $v^i$ en $w^j$ elk $n$ reële getallen vormen.

En nu komt men op een geheel willekeurige manier om al deze informatie op te slaan: matrices. Een matrix op zich is niets meer dan een tabel (ze werden, historisch gezien, zelfs een tijdje tabellen genoemd). Gewoon MS-Excel spreadsheets. Maar gemotiveerd door de vergelijking die we net hebben afgeleid, kwamen mensen op het idee: hé, laten we de $v^i$ en $w^j$ rangschikken in deze rijen en kolommen van getallen en laten we de getallen $T_{ij}$ rangschikken in dit mooie vierkante blok van getallen.

Een matrix (inclusief vierkante matrices in $\mathbb{R}^{n \times n}$, alsmede rijmatrices in $\mathbb{R}^{1 \times n}$ en kolommatrices in $\mathbb{R}^{n \times 1}$, gewoonlijk vectoren genoemd) is, zoals in een ander antwoord al is gezegd, niets anders dan een manier om informatie op te slaan. De matrixvermenigvuldigingsregel (“rij maal kolom”) is extra informatie daarbovenop. Het is slechts een manier om op de juiste manier om te gaan met de informatie die is opgeslagen in de matrix en de vectoren, en dat zijn kale reële getallen.

Dit is de zin waarin we vectoren beschouwen als liggend in een of andere $\mathbb{R}^n$ en tensoren als matrices in $\mathbb{R}^{n \times n}$. Vectoren liggen in werkelijkheid in een $n$-dimensionale vectorruimte $V$, en tensoren zijn bilineaire functies die twee van deze vectoren nemen en een reëel getal geven. Echter, na het kiezen van een basis $\{e_i} \V$ gekozen, zijn alle gegevens die we nodig hebben om de volledige vector $v$ terug te vinden, zijn componenten $\{v^i\}$ in die gegeven basis, en alles wat we nodig hebben om een tensor $T$ volledig te kennen, zijn zijn waarden op de basisvectoren $\{T_{ij}\} = \{T(e_i,e_j) \}$. Dit duwt de basis onder het tapijt, maar dan gebeuren er rare dingen als men van basis verandert.

Tensoren als lineaire kaarten

Waarom zijn de meeste antwoorden hier dan gecentreerd op tensoren als lineaire kaarten die een vector in $\mathbb{R}^n$ naar een andere vector in $\mathbb{R}^n$ brengen?

We kijken nog eens naar de coördinatenvoorstelling van de tensorvermenigvuldiging. Daar schreven we$$T(v,w) = v^i T_{ij}w^j.$$Dit vertoont een nauwe overeenkomst met de coördinatenvoorstelling van het binnenproduct,$$v u = v^i u_i,$$we hoeven alleen$u_i = T_{ij}w^j = T(e_i,e_j)w^j = T(e_i,w^j e_j) = T(e_i,w)$$in de vergelijking te vervangen.

In die zin vinden we een nieuwe manier om de tensor te begrijpen. In plaats van gewoon twee vectoren te nemen en een reëel getal terug te geven, kunnen we de tensor beschouwen als een vector $w$, deze lineair te transformeren in een nieuwe vector $u$, en dan het inwendig product tussen $v$ en $u$ te berekenen.

Een terzijde: Op dit punt heb ik een paar subtiliteiten weggelaten, want om het volledige beeld te krijgen, zouden we verder moeten praten over het inwendig product. Dit komt omdat het inwendig product de metrische tensor definieert (of omgekeerd), die we nog steeds nodig hebben als we van de covariante componenten van de $u_i$ naar de contravariante componenten $u^i = \eta^{ij} u_j$ willen. We zullen daar hier niet verder op ingaan. Ik neem aan dat dat toch al elders besproken is.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *