Menu Fechar

As matrizes e os tensores de segundo grau são a mesma coisa?

Eu sei que este é um fio antigo. Mas acho que ainda falta um ponto, por isso se as pessoas ainda vierem a este post para referência, deixem-me dar uma olhada nele.

Eu quero argumentar de um ponto de vista matemático que é um pouco geométrico. Queremos pegar vetores de algum espaço vetorial $V$. Não vamos exigir especialmente que $V$ seja um $\mathbb{R}^n$ para alguma dimensão $n$, mas digamos por simplicidade que $V$ é dimensional finito. Há dois tipos diferentes de operações neste espaço vectorial que são relevantes na imagem tensorial habitual, uma é o $\begin0\2 {pmatrix0\2 {pmatrix}$ tensores – que são facilmente descritos sem confusão técnica – e a outra são mapas lineares descritos por $\begin1 {pmatrix1}{pmatrix1}$ tensores – que requerem confusão técnica, por isso aqui ficamos breves. Também vamos precisar de falar sobre bases. Então vamos em três passos.

P>Pós-escrito prematuro: Isto cresceu um pouco fora de proporção. Eu tentei elaborar porque eu sei que meus alunos frequentemente batalham de mãos dadas e respostas breves que não esticam as dicas importantes.

Uma boa fonte para entrar no assunto (e muito legível) é a Introdução de Nadir Jeevanjee aos Tensores e Teoria de Grupo para Físicos.

$begin{pmatrix}0\2 {pmatrix}$ Tensores

    Sem muito barulho, podemos definir um $begin{pmatrix0\2 {pmatrix}$-tensor para ser um mapa bilinear $T$ que come dois vectores $v$ e $w {\ V$ e cospe um número real $T(v,w)$. Escrito um pouco mais formalmente:$$T : V {R}times V {R=mathbb, {R}qquad (v,v) {R=mapsto T(v,v) {R=mathbb{R}.$$ Para aqueles assustados com a notação matemática, não se preocupem, é realmente apenas a prosa escrita acima. A palavra bilinear é especialmente importante. Significa que o tensor é linear em ambos os argumentos. Caso contrário, seria um mapa bastante aleatório, mas a linearidade é realmente o que dá aos tensores as suas propriedades características.

É isto. Isso é realmente o que é um tensor: ele pega dois vetores e cospe um número real. E fá-lo de forma linear.

Esta definição é independente do espaço de vectores $V$, os tensores podem ser descritos em qualquer espaço de vectores. Um exemplo para o espaço vectorial $V$ poderia ser o espaço de todas as velocidades possíveis que uma bola de bilhar poderia ter (é um espaço vectorial porque se pode esticar e adicionar velocidades, e não há realmente muito mais para que algum conjunto se qualifique como espaço vectorial). E um tensor? Como mencionado acima, qualquer mapa multiniear serve, mas algo significativo para a física poderia ser o “tensor de energia cinética”$$ T(v,w) = \frac{m}{2}v \cdot v,$$$ cuja diagonal é exatamente $T(v,v) = E_{\textrm{kin}}(v)$.

Agora, note uma coisa: Nunca nesta definição ou no exemplo mencionamos nada sobre coordenadas ou $\mathbb{R}^3$. Isto é importante. O tensor é um objeto que pode existir em todo o seu esplendor, livre e independente de qualquer sistema de coordenadas. Para um teórico (ou qualquer físico), este é um resultado agradável: Não há nenhuma experiência lá fora que possa determinar se o sistema de coordenadas do mundo é cartesiano ou polar ou esférico. Estas são figuras da mente humana. Uma boa teoria não deve começar dependendo de uma escolha arbitrária, é melhor se os tensores são entidades bem definidas antes de nos perdermos nos sistemas de coordenadas. E foi isso que fizemos aqui.

Escolhendo uma Base

Mas, novamente, nossas mentes trabalham muito bem em sistemas de coordenadas, ou pelo menos foram bem treinadas para fazer. Então o que acontece se escolhermos uma base? Então os vetores $v,w em V$ podem ser decompostos em uma soma sobre o conjunto de vetores base $\i_i>$ vezes os respectivos fatores de escalonamento $\i> para cada um deles. Com a convenção da soma: $$ v = v^i e_i, ^i e_i, ^qquad w = w^i e_i.$$ Ligamo-lo à definição tensorial e vemos o que sai.begin{align} T(v,w)&= T(v^i e_i, w^j e_j){\i1}&= v^i T(e_i, w^j e_j){\i}&= v^i T(e_i, e_j) w^j ^j {\i}&=: v^i T_{ij} w^j.\A primeira igualdade é apenas a inserção (com o devido cuidado com os índices), a segunda igualdade é a linearidade do primeiro argumento ($v^i$ é apenas um número real, pode ser puxado para fora), a terceira igualdade é a linearidade do segundo argumento, e finalmente introduzimos a definição$$T_{ij} := T(e_i,e_j).$$ Esta é uma nova quantidade que definimos tomando o tensor e aplicando-o a todos os pares de vectores base. Se o espaço vectorial tem dimensão $n$, então obtemos $n^2$ números reais, enquanto os componentes $v^i$ e $w^j$ cada formulário $n$ números reais.

E agora surge uma forma totalmente arbitrária de armazenar toda esta informação: matrizes. Uma matriz em si não é mais do que uma tabela (historicamente, elas foram até chamadas de tabelas por um tempo). Mere MS-Excel folhas de cálculo. Mas motivados pela equação que acabamos de derivar, as pessoas tiveram a ideia: vamos organizar os $v^i$ e $w^j$ nestas linhas e colunas de números e vamos organizar os números $T_{ij}$ neste belo bloco quadrado de números. E para lembrar como lidar com eles, vamos introduzir uma maneira de multiplicá-los uns com os outros.

p>Uma matriz (incluindo matrizes quadradas em $\mathbb{R}^{n ^{n ^times n}$ assim como matrizes de linha em $\mathbb{R}^{1}times n}$ e matrizes de coluna em $\mathbb{R}^{n ^times 1}$, comumente chamadas de vetores) é, como mencionado em outra resposta, nada mais do que uma maneira de armazenar informações. A regra de multiplicação de matrizes (“coluna de tempo de linha”) é informação adicional além disso. É apenas uma maneira de tratar corretamente a informação armazenada na matriz e os vetores, que são números reais nus.

Este é o sentido em que consideramos vetores como sendo matrizes em $\mathbb{R}^n$ e tensores como sendo matrizes em $\mathbb{R}^{n {n \times n}$. Vetores na verdade estão em algum espaço vetorial $n$-dimensional $V$, e tensores são mapas bilineares que pegam dois desses vetores e dão um número real. No entanto, depois de escolher uma base $n$ \Subset V$, toda a informação que precisamos para recuperar o vector $v$ completo são os seus componentes $v$ nessa base dada, e tudo o que precisamos para conhecer completamente um tensor $T$ são os seus valores na base dos vectores $T_{T_{ij}} = {T(e_i,e_j)$. Isto empurra a base debaixo do tapete, mas depois coisas estranhas acontecem quando se muda as bases.

Tensores como Mapas Lineares

Então porque é que a maioria das respostas aqui centradas em torno de tensores são mapas lineares que levam um vector em $\mathbb{R}^n$ para outro vector em $\mathbb{R}^n$? Porque é claro que há uma similaridade próxima.

Vemos novamente a representação coordenada da multiplicação do tensor. Ali, escrevemos$$T(v,w) = v^i T_{ij}w^j.$$Esta tem uma semelhança próxima com a representação de coordenadas do produto interior,$$$v \cdot u = v^i u_i,$$ só precisamos de substituir$$u_i = T_{ij}w^j = T(e_i,e_j)w^j = T(e_i,w^j e_j) = T(e_i,w^j e_j) = T(e_i,w)$$ na equação.

Nesse sentido, encontramos uma nova forma de entender o tensor. Em vez de pegarmos apenas em dois vectores e devolvermos um número real, podemos considerar o tensor para pegar num vector $w$, transformá-lo linearmente num novo vector $u$, e depois calcular o produto interno entre $v$ e $u$.

Um aparte: Neste ponto, deixei de fora algumas subtilezas, porque para obter o quadro completo, precisaríamos de falar mais sobre o produto interior. Isto porque o produto interno define o tensor métrico (ou vice-versa), que ainda precisamos se quisermos obter dos componentes covariantes do $u_i$ para os componentes contravariantes $u^i = \eta^{ij} u_j$. Não vamos nos deter nisto aqui. Suponho que isso já foi discutido em outro lugar, de qualquer forma.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *