Meny Stäng

Är matriser och andra rangens tensorer samma sak?

Jag vet att detta är en gammal tråd. Men jag tror att det fortfarande saknas en punkt, så om folk fortfarande kommer till det här inlägget som referens, låt mig ta en sväng på det.

Jag vill argumentera från en matematisk synvinkel som är något geometrisk. Vi vill ta vektorer från något vektorrum $V$. Vi kommer särskilt inte att kräva att $V$ är en $\mathbb{R}^n$ för någon dimension $n$, men låt oss för enkelhetens skull säga att $V$ är ändligt dimensionell. Det finns två olika typer av operationer på detta vektorrum som är relevanta i den vanliga tensorbildningen, varav den ena är $\begin{pmatrix}0\\2 \end{pmatrix}$ tensorer – som är lätta att beskriva utan tekniskt krångel – och den andra är linjära kartor som beskrivs av $\begin{pmatrix}1\\1 \end{pmatrix}$ tensorer – vilket kräver tekniskt krångel, så vi håller oss kortfattade här. Vi kommer också att behöva tala om baser. Så låt oss gå i tre steg.

Premature Postscript: Det här växte lite ur proportioner. Jag försökte utveckla eftersom jag vet att mina studenter ofta kämpar mot handfasta och korta svar som inte sträcker ut de viktiga ledtrådarna.

En bra källa för att komma in i ämnet (och mycket läsvärd) är Nadir Jeevanjees Introduktion till tensorer och gruppteori för fysiker.

$\begin{pmatrix}0\\2 \end{pmatrix}$ Tensorer

  1. Omedelbart kan vi definiera en $\begin{pmatrix}0\\2 \end{pmatrix}$-tensor som en bilinjär karta $T$ som äter upp två vektorer $v$ och $w \in V$ och spottar ut ett reellt tal $T(v,w)$. Skrivet lite mer formellt: $$$T : V \times V \to \mathbb{R}, \qquad (v,v) \mapsto T(v,v) \in \mathbb{R}.$$$För dem som blir skrämda av den matematiska notationen, oroa er inte, det är egentligen bara den prosa som skrevs ovan. Ordet bilinear är särskilt viktigt. Det betyder att tensorn är linjär i båda argumenten. Annars skulle det vara en ganska slumpmässig karta, men linjäriteten är verkligen det som ger tensorer deras karakteristiska egenskaper.

Detta är allt. Det är egentligen vad en tensor är: den tar två vektorer och spottar ut ett verkligt tal. Och den gör det på ett linjärt sätt.

Denna definition är oberoende av vektorrummet $V$, tensorer kan beskrivas på vilket vektorrum som helst. Ett exempel på vektorrummet $V$ skulle kunna vara utrymmet för alla möjliga hastigheter som en biljardboll kan ha (det är ett vektorrum eftersom man kan sträcka ut och lägga till hastigheter, och det finns egentligen inte så mycket mer för att en viss mängd ska kvalificera sig som ett vektorrum). Och en tensor? Som nämnts ovan duger vilken multinationell karta som helst, men något som är meningsfullt för fysiken skulle kunna vara den ”kinetiska energitensorn”$$ T(v,w) = \frac{m}{2}v \cdot v,$$ vars diagonal är exakt $T(v,v) = E_{\textrm{kin}}}(v)$.

Nu kan ni lägga märke till en sak: Aldrig i den här definitionen eller exemplet har vi nämnt något om koordinater eller $\mathbb{R}^3$. Detta är viktigt. Tensorn är ett objekt som kan existera i sin fulla prakt, fritt och oberoende av alla koordinatsystem. För en teoretiker (eller vilken fysiker som helst) är detta ett glädjande resultat: Det finns inget experiment som kan avgöra om världens koordinatsystem är kartesiskt, polärt eller sfäriskt. Detta är ett påhitt av det mänskliga sinnet. En bra teori bör inte börja med att vara beroende av ett godtyckligt val, det är bättre om tensorer är väldefinierade enheter innan vi går vilse i koordinatsystem. Och det är vad vi gjorde här.

Välja en bas

Men å andra sidan fungerar våra hjärnor ganska bra i koordinatsystem, eller åtminstone har de tränats väl för att göra det. Så vad händer om vi väljer en bas? Då kan vektorerna $v,w \in V$ dekomponeras till en summa över mängden basvektorer $\{e_i\}$ gånger respektive skalningsfaktorer $\{v^i\}$ för var och en av dem. Med summakonventionen:$$ v = v^i e_i, \qquad w = w^i e_i.$$ Vi sätter in det i sensordefinitionen och ser vad som kommer ut.\begin{align} T(v,w)&= T(v^i e_i, w^j e_j)\\&= v^i T(e_i, w^j e_j)\\&= v^i T(e_i, e_j) w^j \\&=: v^i T_{ij} w^j.\end{align}Den första jämlikheten är bara insättning (med rätt omsorg om indexen), den andra jämlikheten är linjäriteten i det första argumentet ($v^i$ är bara ett reellt tal, det kan dras ut), den tredje jämlikheten är linjäriteten i det andra argumentet, och slutligen introducerar vi definitionen$$$T_{ij} := T(e_i,e_j). $$$Det här är en ny kvantitet som vi definierat genom att ta tensorn och applicera den på alla par av basvektorer. Om vektorrummet har dimensionen $n$ får vi $n^2$ reella tal, medan komponenterna $v^i$ och $w^j$ vardera bildar $n$ reella tal.

Och nu kommer man på ett helt godtyckligt sätt att lagra all denna information: matriser. En matris i sig är inget annat än en tabell (historiskt sett kallades de till och med för tabeller ett tag). Rena MS-Excel-kalkylblad. Men motiverade av ekvationen som vi just härledde kom folk på idén: hej, låt oss ordna $v^i$ och $w^j$ i dessa rader och kolumner av siffror och låt oss ordna siffrorna $T_{ij}$ i detta trevliga fyrkantiga block av siffror. Och för att komma ihåg hur vi ska hantera dem, ska vi införa ett sätt att multiplicera dem med varandra.

En matris (inklusive kvadratiska matriser i $\mathbb{R}^{n \times n}$ samt radmatriser i $\mathbb{R}^{1\times n}$ och kolumnmatriser i $\mathbb{R}^{n \times 1}$, som vanligen kallas vektorer) är, som nämnts i ett annat svar, inget annat än ett sätt att lagra information. Matrikelmultiplikationsregeln (”rad gånger kolumn”) är ytterligare information ovanpå detta. Det är bara ett sätt att korrekt hantera den information som lagras i matrisen och vektorerna, vilket är nakna reella tal.

Detta är den mening i vilken vi anser att vektorer ligger i vissa $\mathbb{R}^n$ och tensorer är matriser i $\mathbb{R}^{n \times n}$. Vektorer ligger faktiskt i ett n$-dimensionellt vektorrum $V$, och tensorer är bilinjära kartor som tar två av dessa vektorer och ger ett verkligt tal. Efter att ha valt en bas $\{e_i\} \subset V$ är all information vi behöver för att återfå den fullständiga vektorn $v$ dess komponenter $\{v^i\}$ i den givna basen, och allt vi behöver för att fullständigt känna till en tensor $T$ är dess värden på basvektorerna $\{T_{ij}\}\} = \{T(e_i,e_j) \}$. Detta skjuter basen under mattan, men sedan händer konstiga saker när man byter baser.

Tensorer som linjära kartor

Så varför är de flesta svaren här centrerade kring att tensorer är linjära kartor som tar en vektor i $\mathbb{R}^n$ till en annan vektor i $\mathbb{R}^n$? Därför att det naturligtvis finns en nära likhet.

Vi tittar på koordinatrepresentationen av tensormultiplikationen igen. Där skrev vi$$$T(v,w) = v^i T_{ij}w^j.$$Detta har stora likheter med koordinatrepresentationen av den inre produkten,$$$v \cdot u = v^i u_i,$$ vi behöver bara ersätta$$$u_i = T_{ij}w^j = T(e_i,e_j)w^j = T(e_i,w^j e_j) = T(e_i,w)$$i ekvationen.

I den meningen finner vi ett nytt sätt att förstå sensorn. Istället för att bara ta två vektorer och återge ett reellt tal kan vi betrakta tensorn som att ta en vektor $w$, linjärt transformera den till en ny vektor $u$ och sedan beräkna den inre produkten mellan $v$ och $u$.

En bisats: För att få en fullständig bild skulle vi behöva prata ytterligare om den inre produkten för att få en fullständig bild. Detta beror på att den inre produkten definierar den metriska tensorn (eller vice versa), som vi fortfarande behöver om vi vill komma från de kovarianta komponenterna i $u_i$ till de kontravarianta komponenterna $u^i = \eta^{ij} u_j$. Vi kommer inte att uppehålla oss vid detta här. Jag antar att det redan har diskuterats någon annanstans i alla fall.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *