Menu Chiudi

Le matrici e i tensori di secondo grado sono la stessa cosa?

So che questo è un vecchio thread. Ma penso che manchi ancora un punto, quindi se la gente viene ancora a questo post come riferimento, lasciatemi fare un tentativo.

Voglio argomentare da un punto di vista matematico che è in qualche modo geometrico. Vogliamo prendere dei vettori da uno spazio vettoriale $V$. In particolare non pretenderemo che $V$ sia un $\mathbb{R}^n$ per qualche dimensione $n$, ma diciamo per semplicità che $V$ è di dimensione finita. Ci sono due diversi tipi di operazioni su questo spazio vettoriale che sono rilevanti nella solita immagine dei tensori, uno è costituito dai tensori $begin{pmatrix}0\2 \end{pmatrix}$ – che sono facilmente descritti senza alcun impaccio tecnico – e l’altro sono le mappe lineari descritte dai tensori $begin{pmatrix}1\1 \end{pmatrix}$ – che richiedono un impaccio tecnico, quindi qui saremo brevi. Avremo anche bisogno di parlare di basi. Quindi andiamo in tre passi.

Poscrizione prematura: Questo è cresciuto un po’ a dismisura. Ho cercato di elaborare perché so che i miei studenti spesso si scontrano con risposte brevi e approssimative che non estendono gli spunti importanti.

Una buona fonte per entrare nell’argomento (e molto leggibile) è Introduction to Tensors and Group Theory for Physicists di Nadir Jeevanjee.

$begin{pmatrix}0\2 end{pmatrix}$ Tensori

  1. Senza troppi giri di parole, possiamo definire un $begin{pmatrix}0\2 end{pmatrix}$-tensore come una mappa bilineare $T$ che mangia due vettori $v$ e $w in V$ e sputa fuori un numero reale $T(v,w)$. Scritto un po’ più formalmente:$$T : V †volte V †in \mathbb{R}, \qquadro (v,v) \mappa a T(v,v) \in \mathbb{R}.$$Per quelli spaventati dalla notazione matematica, non preoccupatevi, è davvero solo la prosa scritta sopra. La parola bilineare è particolarmente importante. Significa che il tensore è lineare in entrambi gli argomenti. Altrimenti, sarebbe una mappa piuttosto casuale, ma la linearità è davvero ciò che dà ai tensori le loro proprietà caratteristiche.

Questo è tutto. Questo è davvero ciò che è un tensore: prende due vettori e sputa fuori un numero reale. E lo fa in modo lineare.

Questa definizione è indipendente dallo spazio vettoriale $V$, i tensori possono essere descritti su qualsiasi spazio vettoriale. Un esempio per lo spazio vettoriale $V$ potrebbe essere lo spazio di tutte le possibili velocità che una palla da biliardo potrebbe avere (è uno spazio vettoriale perché si possono allungare e aggiungere velocità, e non c’è davvero molto di più per un insieme per qualificarsi come spazio vettoriale). E un tensore? Come detto sopra, qualsiasi mappa multinieare va bene, ma qualcosa di significativo per la fisica potrebbe essere il “tensore dell’energia cinetica”$$ T(v,w) = \frac{m}{2}v \cdot v,$$ la cui diagonale è esattamente $T(v,v) = E_{\textrm{kin}}(v)$.

Ora, notate una cosa: mai in questa definizione o nell’esempio abbiamo parlato di coordinate o $\mathbb{R}^3$. Questo è importante. Il tensore è un oggetto che può esistere nel suo pieno splendore, libero e indipendente da qualsiasi sistema di coordinate. Per un teorico (o qualsiasi fisico), questo è un risultato piacevole: Non c’è nessun esperimento là fuori che possa determinare se il sistema di coordinate del mondo è cartesiano o polare o sferico. Questi sono frutto della mente umana. Una buona teoria non dovrebbe partire da una scelta arbitraria, è meglio se i tensori sono entità ben definite prima di perdersi in sistemi di coordinate. Ed è quello che abbiamo fatto qui.

Scegliere una base

Ma di nuovo, la nostra mente lavora abbastanza bene nei sistemi di coordinate, o almeno è stata ben addestrata a farlo. Quindi cosa succede se scegliamo una base? Allora i vettori $v,w in V$ possono essere decomposti in una somma sull’insieme dei vettori base ${e_i\}$ per i rispettivi fattori di scala ${v^i\}$ per ognuno di essi. Con la convenzione della somma:$$ v = v^i e_i, \qquadro w = w^i e_i.$$ Inseriamo il tutto nella definizione del tensore e vediamo cosa viene fuori.\begin{align} T(v,w)&= T(v^i e_i, w^j e_j)\div&= v^i T(e_i, w^j e_j)\div&= v^i T(e_i, e_j) w^j \\div&=: v^i T_{ij} w^j.\La prima uguaglianza è solo l’inserimento (con la dovuta cura per gli indici), la seconda uguaglianza è la linearità del primo argomento ($v^i$ è solo un numero reale, può essere estratto), la terza uguaglianza è la linearità nel secondo argomento, e infine introduciamo la definizione$$T_{ij} := T(e_i,e_j).$$Questa è una nuova quantità che abbiamo definito prendendo il tensore e applicandolo a tutte le coppie di vettori base. Se lo spazio vettoriale ha dimensione $n$, allora otteniamo $n^2$ numeri reali, mentre le componenti $v^i$ e $w^j$ formano ciascuna $n$ numeri reali.

E ora si arriva a un modo del tutto arbitrario di memorizzare tutte queste informazioni: le matrici. Una matrice in sé non è altro che una tabella (storicamente, per un po’, sono state anche chiamate tabelle). Semplici fogli di calcolo MS-Excel. Ma motivati dall’equazione che abbiamo appena derivato, la gente ha avuto l’idea: ehi, disponiamo $v^i$ e $w^j$ in queste righe e colonne di numeri e disponiamo i numeri $T_{ij}$ in questo bel blocco quadrato di numeri. E per ricordare come trattarli, introduciamo un modo per moltiplicarli tra loro.

Una matrice (incluse le matrici quadrate in $\mathbb{R}^{n \tempi n}$ così come le matrici di riga in $\mathbb{R}^{1 \tempi n}$ e le matrici di colonna in $\mathbb{R}^{n \tempi 1}$, comunemente chiamate vettori) non è, come detto in un’altra risposta, altro che un modo per memorizzare informazioni. La regola di moltiplicazione della matrice (“riga per colonna”) è un’informazione aggiuntiva su questo. È solo un modo per gestire correttamente l’informazione immagazzinata nella matrice e nei vettori, che sono nudi numeri reali.

Questo è il senso in cui consideriamo i vettori giacere in qualche $\mathbb{R}^n$ e i tensori essere matrici in $\mathbb{R}^{n \times n}$. I vettori giacciono effettivamente in uno spazio vettoriale $n$ dimensionale $V$, e i tensori sono mappe bilineari che prendono due di questi vettori e danno un numero reale. Tuttavia, dopo aver scelto una base ${e_i} \sottoinsieme di V$, tutte le informazioni di cui abbiamo bisogno per recuperare il vettore completo $v$ sono le sue componenti ${v^i\}$ in quella data base, e tutto ciò di cui abbiamo bisogno per conoscere pienamente un tensore $T$ sono i suoi valori sui vettori base ${T_{ij}} = \{T(e_i,e_j) \}$. Questo spinge la base sotto il tappeto, ma poi succedono cose strane quando si cambia base.

Tensori come mappe lineari

Perché la maggior parte delle risposte qui sono centrate sui tensori come mappe lineari che portano un vettore in $\mathbb{R}^n$ ad un altro vettore in $\mathbb{R}^n$? Perché ovviamente c’è una stretta somiglianza.

Guardiamo di nuovo la rappresentazione delle coordinate della moltiplicazione dei tensori. Lì abbiamo scritto$$T(v,w) = v^i T_{ij}w^j.$$ Questo è molto simile alla rappresentazione delle coordinate del prodotto interno,$$v \cdot u = v^i u_i,$$ dobbiamo solo sostituire$$u_i = T_{ij}w^j = T(e_i,e_j)w^j = T(e_i,w^j e_j) = T(e_i,w)w)$$ nell’equazione.

In questo senso, troviamo un nuovo modo di intendere il tensore. Invece di prendere semplicemente due vettori e restituire un numero reale, possiamo considerare il tensore per prendere un vettore $w$, trasformarlo linearmente in un nuovo vettore $u$, e poi calcolare il prodotto interno tra $v$ e $u$.

Un inciso: A questo punto, ho tralasciato alcune sottigliezze, perché per avere il quadro completo, avremmo bisogno di parlare ulteriormente del prodotto interno. Questo perché il prodotto interno definisce il tensore metrico (o viceversa), di cui abbiamo ancora bisogno se vogliamo passare dalle componenti covarianti di $u_i$ alle componenti controvarianti $u^i = \eta^{ij} u_j$. Non ci soffermeremo su questo qui. Suppongo che sia già stato discusso altrove, comunque.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *