Meniu Închide

Sunt matricile și tensorii de rangul doi același lucru?

Știu că acesta este un subiect vechi. Dar cred că încă lipsește un punct de vedere, așa că, dacă oamenii încă mai vin la acest post ca referință, dați-mi voie să încerc și eu.

Vreau să argumentez dintr-un punct de vedere matematic care este oarecum geometric. Vrem să luăm vectori dintr-un spațiu vectorial $V$. Nu vom cere în mod special ca $V$ să fie un $\mathbb{R}^n$ pentru o anumită dimensiune $n$, dar să spunem pentru simplitate că $V$ este finit dimensional. Există două tipuri diferite de operații asupra acestui spațiu vectorial care sunt relevante în imaginea tensorială obișnuită, una fiind tensorii $\begin{pmatrix}0\2 \end{pmatrix}$ – care sunt ușor de descris fără complicații tehnice – iar cealaltă sunt hărțile liniare descrise de tensorii $\begin{pmatrix}1\1 \end{pmatrix}$ – care necesită complicații tehnice, așa că vom fi succint aici. De asemenea, va trebui să vorbim despre baze. Așa că haideți să mergem în trei pași.

Post-script prematur: Acest lucru a crescut puțin peste măsură. Am încercat să elaborez pentru că știu că studenții mei se luptă adesea cu răspunsuri manuale și scurte care nu întind indicii importante.

O sursă bună pentru a intra în materie (și foarte ușor de citit) este cartea lui Nadir Jeevanjee, Introduction to Tensors and Group Theory for Physicists.

$\begin{pmatrix}0\\\2 \end{pmatrix}$ Tensori

  1. Fără prea multă zarvă, putem defini un $\begin{pmatrix}0\2 \end{pmatrix}$-tensor ca fiind o hartă biliniară $T$ care mănâncă doi vectori $v$ și $w \în V$ și scuipă un număr real $T(v,w)$. Scrisă puțin mai formal:$$T : V \times V \în \mathbb{R}, \qquad (v,v) \mapsto T(v,v) \în \mathbb{R}.$$$Pentru cei speriați de notația matematică, nu vă faceți griji, este de fapt doar proza scrisă mai sus. Cuvântul biliniar este deosebit de important. Acesta înseamnă că tensorul este liniar în ambele argumente. Altfel, ar fi o hartă mai degrabă aleatorie, dar liniaritatea este într-adevăr ceea ce conferă tensorilor proprietățile lor caracteristice.

Acesta este. Asta este cu adevărat ceea ce este un tensor: ia doi vectori și scoate un număr real. Și face acest lucru într-un mod liniar.

Această definiție este independentă de spațiul vectorial $V$, tensorii pot fi descriși pe orice spațiu vectorial. Un exemplu pentru spațiul vectorial $V$ ar putea fi spațiul tuturor vitezelor posibile pe care le-ar putea avea o bilă de biliard (este un spațiu vectorial pentru că se pot întinde și adăuga viteze, iar pentru un set oarecare nu există cu adevărat mult mai mult pentru a se califica drept spațiu vectorial). Și un tensor? Așa cum am menționat mai sus, orice hartă multinieară va fi suficientă, dar ceva semnificativ pentru fizica ar putea fi „tensorul energiei cinetice”$$ T(v,w) = \frac{m}{2}v \cdot v,$$ a cărui diagonală este exact $T(v,v) = E_{{\textrm{kin}}(v)$.

Acum, observați un lucru: niciodată în această definiție sau în exemplu nu am menționat nimic despre coordonate sau despre $\mathbb{R}^3$. Acest lucru este important. Tensorul este un obiect care poate exista în toată splendoarea sa, liber și independent de orice sistem de coordonate. Pentru un teoretician (sau pentru orice fizician), acesta este un rezultat plăcut: Nu există niciun experiment care să poată determina dacă sistemul de coordonate al lumii este cartezian, polar sau sferic. Acestea sunt născociri ale minții umane. O teorie bună nu ar trebui să înceapă să depindă de o alegere arbitrară, este mai bine dacă tensorii sunt entități bine definite înainte de a ne pierde în sistemele de coordonate. Și asta este ceea ce am făcut aici.

Scoaterea unei baze

Dar, din nou, mințile noastre funcționează destul de bine în sisteme de coordonate, sau cel puțin au fost bine antrenate să o facă. Deci, ce se întâmplă dacă alegem o bază? Atunci vectorii $v,w \în V$ pot fi descompuși într-o sumă peste setul de vectori de bază $\{e_i\}$ înmulțită cu factorii de scalare respectivi $\{v^i\}$ pentru fiecare dintre ei. Prin convenția sumei:$$ v = v^i e_i, \qquad w = w^i e_i.$$ O introducem în definiția tensorului și vedem ce iese.\begin{align} T(v,w)&= T(v^i e_i, w^j e_j)\&= v^i T(e_i, w^j e_j)\&= v^i T(e_i, e_j) w^j \&=: v^i T_{ij} w^j.\end{align}Prima egalitate este doar o inserție (cu grija corespunzătoare pentru indici), a doua egalitate este liniaritatea primului argument ($v^i$ este doar un număr real, poate fi scos), a treia egalitate este liniaritatea în al doilea argument, iar în final introducem definiția$$$T_{ij} := T(e_i,e_j).$$ Aceasta este o nouă cantitate pe care am definit-o luând tensorul și aplicându-l la toate perechile de vectori de bază. Dacă spațiul vectorial are dimensiunea $n$, atunci obținem $n^2$ numere reale, în timp ce componentele $v^i$ și $w^j$ formează fiecare $n$ numere reale.

Și acum se ajunge la o modalitate cu totul arbitrară de a stoca toate aceste informații: matrici. O matrice în sine nu este nimic mai mult decât un tabel (ele au fost, din punct de vedere istoric, chiar numite tabele pentru o vreme). Simple foi de calcul MS-Excel. Dar, motivați de ecuația pe care tocmai am derivat-o, oamenii au venit cu ideea: hei, haideți să aranjăm $v^i$ și $w^j$ în aceste rânduri și coloane de numere și să aranjăm numerele $T_{ij}$ în acest frumos bloc pătrat de numere. Și pentru a ne aminti cum să le tratăm, să introducem o modalitate de a le înmulți între ele.

O matrice (inclusiv matricele pătrate în $\mathbb{R}^{n \ ori n}$, precum și matricele de rânduri în $\mathbb{R}^{1\ ori n}$ și matricele de coloane în $\mathbb{R}^{n \ ori 1}$, denumite în mod obișnuit vectori) nu este, așa cum s-a menționat într-un alt răspuns, nimic altceva decât o modalitate de a stoca informații. Regula de înmulțire a matricelor („rând ori coloană”) este o informație suplimentară pe lângă aceasta. Este doar o modalitate de a gestiona corect informația stocată în matrice și în vectori, care sunt numere reale goale.

Acest este sensul în care considerăm că vectorii se află într-un anumit $\mathbb{R}^n$, iar tensorii sunt matrici în $\mathbb{R}^{n \ ori n}$. Vectorii se află de fapt într-un spațiu vectorial $V$ cu $n$ dimensiuni, iar tensorii sunt hărți biliniare care iau doi dintre acești vectori și dau un număr real. Cu toate acestea, după alegerea unei baze $\{e_i\} \subansamblu V$, toate informațiile de care avem nevoie pentru a recupera vectorul complet $v$ sunt componentele sale $\{v^i\}$ în acea bază dată, iar tot ce avem nevoie pentru a cunoaște pe deplin un tensor $T$ sunt valorile sale pe vectorii de bază $\{T_{ij}\} = \{T(e_i,e_j) \}$. Acest lucru împinge baza sub preș, dar apoi se întâmplă lucruri ciudate atunci când se schimbă bazele.

Tensori ca hărți liniare

Atunci de ce majoritatea răspunsurilor de aici sunt centrate pe faptul că tensorii sunt hărți liniare care duc un vector din $\mathbb{R}^n$ la un alt vector din $\mathbb{R}^n$? Pentru că, bineînțeles, există o strânsă asemănare.

Ne uităm din nou la reprezentarea în coordonate a înmulțirii tensorilor. Acolo am scris $$$T(v,w) = v^i T_{ij}w^j.$$Aceasta are o strânsă asemănare cu reprezentarea în coordonate a produsului interior, $$v \cdot u = v^i u_i,$$ trebuie doar să înlocuim $$u_i = T_{ij}w^j = T(e_i,e_j)w^j = T(e_i,w^j e_j) = T(e_i,w^j e_j) = T(e_i,w)$$ în ecuație.

În acest sens, găsim un nou mod de a înțelege tensorul. În loc să luăm doar doi vectori și să întoarcem un număr real, putem considera că tensorul ia un vector $w$, îl transformă liniar într-un nou vector $u$ și apoi calculează produsul intern între $v$ și $u$.

O paranteză: În acest punct, am omis câteva subtilități, deoarece, pentru a avea o imagine completă, ar trebui să vorbim în continuare despre produsul interior. Acest lucru se datorează faptului că produsul interior definește tensorul metric (sau invers), de care avem încă nevoie dacă dorim să trecem de la componentele covariante ale lui $u_i$ la componentele contravariante $u^i = \eta^{ij} u_j$. Nu ne vom opri aici asupra acestui aspect. Presupun că oricum a fost deja discutat în altă parte.

.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *