Menu Zamknij

Czy macierze i tensory drugiej rangi to ta sama rzecz?

Wiem, że to stary wątek. Ale myślę, że wciąż brakuje punktu, więc jeśli ludzie wciąż przychodzą do tego postu w celu odniesienia, pozwól mi na to zamachnąć się.

Chcę argumentować z matematycznego punktu widzenia, który jest nieco geometryczny. Chcemy brać wektory z jakiejś przestrzeni wektorowej $V$. Specjalnie nie będziemy żądać, aby $V$ była $mathbb{R}^n$ dla jakiegoś wymiaru $n$, ale powiedzmy dla uproszczenia, że $V$ jest skończenie wymiarowa. Istnieją dwa różne rodzaje operacji na tej przestrzeni wektorowej, które są istotne w zwykłym obrazie tensorowym, z których jeden to tensory $0 – które są łatwo opisane bez technicznego bałaganu – a drugi to mapy liniowe opisane przez tensory $1 – które wymagają technicznego bałaganu, więc pozostaniemy tutaj zwięźli. Będziemy też musieli porozmawiać o bazach. Przejdźmy więc do trzech kroków.

Przedwczesne Postscriptum: To urosło trochę nieproporcjonalnie. Próbowałem rozwinąć, ponieważ wiem, że moi studenci często walczą z handwavy i krótkie odpowiedzi, które nie rozciągają ważne wskazówki.

Dobrym źródłem, aby dostać się do sprawy (i bardzo czytelne) jest Nadir Jeevanjee’s Introduction to Tensors and Group Theory for Physicists.

$begin{pmatrix}0 $end{pmatrix}$ Tensory

  1. Bez większego zastanowienia, możemy zdefiniować $begin{pmatrix}0 $-tensor jako mapę biliniową $T$, która zjada dwa wektory $v$ i $w w V$ i wypluwa liczbę rzeczywistą $T(v,w)$. Zapisany nieco bardziej formalnie: $$T : V razy V do \mathbb{R}, \quad (v,v) \mapsto T(v,v) \w \mathbb{R}.$$Dla tych, których przeraża matematyczna notacja, nie martwcie się, to naprawdę tylko proza napisana powyżej. Słowo bilinear jest szczególnie ważne. Oznacza ono, że tensor jest liniowy w obu argumentach. W przeciwnym razie byłaby to raczej przypadkowa mapa, ale liniowość jest tak naprawdę tym, co nadaje tensorom ich charakterystyczne właściwości.

To jest to. To jest naprawdę to, czym jest tensor: bierze dwa wektory i wypluwa z nich liczbę rzeczywistą. I robi to w sposób liniowy.

Ta definicja jest niezależna od przestrzeni wektorowej $V$, tensory mogą być opisane na dowolnej przestrzeni wektorowej. Przykładem dla przestrzeni wektorowej $V$ może być przestrzeń wszystkich możliwych prędkości, jakie może mieć kula bilardowa (jest to przestrzeń wektorowa, bo można rozciągać i dodawać prędkości, a naprawdę nie ma aż tak wiele, żeby jakiś zbiór kwalifikował się jako przestrzeń wektorowa). A tensor? Jak wspomniano powyżej, wystarczy dowolna mapa wielomianowa, ale czymś znaczącym dla fizyki mógłby być „tensor energii kinetycznej”$$ T(v,w) = \frac{m}{2}v \cdot v,$$ którego przekątna jest dokładnie $T(v,v) = E_{textrm{kin}}(v)$.

Zauważ jedną rzecz: Nigdy w tej definicji ani w przykładzie nie wspomnieliśmy nic o współrzędnych ani o $$mathbb{R}^3$. To jest ważne. Tensor jest obiektem, który może istnieć w całej swojej okazałości, wolny i niezależny od jakiegokolwiek układu współrzędnych. Dla teoretyka (lub jakiegokolwiek fizyka) jest to bardzo przyjemny wynik: Nie istnieje żaden eksperyment, który mógłby określić, czy układ współrzędnych świata jest kartezjański, biegunowy czy sferyczny. To są wytwory ludzkiego umysłu. Dobra teoria nie powinna zaczynać się od arbitralnego wyboru, lepiej jest, gdy tensory są dobrze zdefiniowanymi bytami, zanim zagubimy się w układach współrzędnych. I to właśnie zrobiliśmy tutaj.

Wybór podstawy

Ale z drugiej strony, nasze umysły pracują całkiem dobrze w układach współrzędnych, a przynajmniej zostały do tego dobrze wytrenowane. Więc co się stanie, jeśli wybierzemy podstawę? Wówczas wektory $v,w w V$ można rozłożyć na sumę wektorów bazowych ${e_i}$ razy odpowiednie współczynniki skalowania ${v^i}$ dla każdego z nich. Z konwencją sumy:$$ v = v^i e_i, $$quad w = w^i e_i.$$ Wstawiamy to do definicji tensora i widzimy co wyjdzie.\begin{align} T(v,w)&= T(v^i e_i, w^j e_j)\\&= v^i T(e_i, w^j e_j)\&= v^i T(e_i, e_j) w^j \&=: v^i T_{ij} w^j.\end{align}Pierwsza równość to zwykłe wstawianie (z odpowiednią dbałością o indeksy), druga równość to liniowość pierwszego argumentu ($v^i$ jest po prostu liczbą rzeczywistą, można ją wyciągnąć), trzecia równość to liniowość w drugim argumencie, a na koniec wprowadzamy definicję$$T_{ij} := T(e_i,e_j).$$Jest to nowa wielkość, którą zdefiniowaliśmy biorąc tensor i stosując go do wszystkich par wektorów bazowych. Jeśli przestrzeń wektorowa ma wymiar $n$, to otrzymujemy $n^2$ liczb rzeczywistych, a składowe $v^i$ i $w^j$ tworzą po $n$ liczb rzeczywistych.

A teraz pojawia się zupełnie dowolny sposób przechowywania tych wszystkich informacji: macierze. Macierz sama w sobie nie jest niczym więcej niż tabelą (historycznie przez pewien czas nazywano je nawet tablicami). Zwykłe arkusze kalkulacyjne MS-Excel. Ale zmotywowani przez równanie, które właśnie wyprowadziliśmy, ludzie wpadli na pomysł: hej, ułóżmy $v^i$ i $w^j$ w te wiersze i kolumny liczb i ułóżmy liczby $T_{ij}$ w ten ładny kwadratowy blok liczb. A żeby zapamiętać, jak się z nimi obchodzić, wprowadźmy sposób ich mnożenia ze sobą.

Macierz (w tym macierze kwadratowe w postaci $mathbb{R}^{n ^times n}$, a także macierze wierszowe w postaci $mathbb{R}^{1 ^times n}$ i macierze kolumnowe w postaci $mathbb{R}^{n ^times 1}$, zwane potocznie wektorami) to, jak wspomniano w innej odpowiedzi, nic innego jak sposób przechowywania informacji. Reguła mnożenia macierzy („wiersz razy kolumna”) jest dodatkową informacją na wierzchu. Jest to po prostu sposób na prawidłową obsługę informacji przechowywanych w macierzy i wektorach, które są gołymi liczbami rzeczywistymi.

To jest sens, w którym uważamy, że wektory leżą w jakimś $mathbb{R}^n$, a tensory są macierzami w $mathbb{R}^{n \times n}$. Wektory rzeczywiście leżą w jakiejś $n$-wymiarowej przestrzeni wektorowej $V$, a tensory są mapami biliniowymi, które biorą dwa z tych wektorów i dają liczbę rzeczywistą. Jednakże, po wybraniu podstawy $n$. \V$, wszystkie informacje, których potrzebujemy do odzyskania pełnego wektora $v$ to jego składowe $v^i$$ w danej podstawie, a wszystko, czego potrzebujemy do pełnego poznania tensora $T$ to jego wartości na wektorach bazowych $T_{ij}} = T(e_i,e_j) \}$. W ten sposób podstawa zostaje wciśnięta pod dywan, ale potem dzieją się dziwne rzeczy, gdy zmieniamy podstawy.

Tensory jako mapy liniowe

Dlaczego więc większość odpowiedzi tutaj skupia się na tym, że tensory są mapami liniowymi, które przenoszą wektor w $$mathbb{R}^n$ na inny wektor w $$mathbb{R}^n$? Bo oczywiście jest tu bliskie podobieństwo.

Przyjrzyjrzyjmy się ponownie współrzędnościowej reprezentacji mnożenia tensorowego. Napisaliśmy tam$$T(v,w) = v^i T_{ij}w^j.$$Jest to bliskie podobieństwo do współrzędnościowej reprezentacji iloczynu wewnętrznego,$$v u = v^i u_i,$$ musimy tylko zastąpić$$u_i = T_{ij}w^j = T(e_i,e_j)w^j = T(e_i,w^j e_j) = T(e_i,w)$$ w równaniu.

W tym sensie znajdujemy nowy sposób rozumienia tensora. Zamiast po prostu brać dwa wektory i zwracać liczbę rzeczywistą, możemy uznać, że tensor bierze wektor $w$, liniowo przekształca go w nowy wektor $u$, a następnie oblicza iloczyn wewnętrzny między $v$ i $u$.

Na marginesie: W tym momencie pominąłem kilka subtelności, ponieważ aby uzyskać pełny obraz, musielibyśmy dalej mówić o produkcie wewnętrznym. Dzieje się tak dlatego, że iloczyn wewnętrzny definiuje tensor metryczny (lub odwrotnie), który jest nam jeszcze potrzebny, jeśli chcemy przejść od kowariantnych składowych $u_i$ do kontrawariantnych składowych $u^i = ^{ij} u_j$. Nie będziemy się tutaj nad tym rozwodzić. Przypuszczam, że i tak zostało to już omówione gdzie indziej.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *