Menú Cerrar

¿Son lo mismo las matrices y los tensores de segundo rango?

Sé que este es un hilo antiguo. Pero creo que sigue faltando un punto, así que si la gente sigue acudiendo a este post como referencia, dejadme dar un golpe de efecto.

Quiero argumentar desde un punto de vista matemático algo geométrico. Queremos tomar vectores de algún espacio vectorial $V$. Especialmente no exigiremos que $V$ sea un $\mathbb{R}^n$ para alguna dimensión $n$, pero digamos por simplicidad que $V$ es de dimensión finita. Hay dos tipos diferentes de operaciones en este espacio vectorial que son relevantes en la imagen tensorial habitual, siendo una de ellas los tensores $\begin{pmatrix}0\2 \end{pmatrix}$ – que se describen fácilmente sin desorden técnico – y la otra son los mapas lineales descritos por los tensores $\begin{pmatrix}1\1 \end{pmatrix}$ – que requieren desorden técnico, por lo que seremos breves aquí. También tendremos que hablar de las bases. Así que vamos a ir en tres pasos.

Postdata prematura: Esto se ha salido un poco de madre. Intenté explayarme porque sé que mis alumnos suelen batallar con las respuestas manoseadas y breves que no extienden las claves importantes.

Una buena fuente para entrar en materia (y muy legible) es Introduction to Tensors and Group Theory for Physicists de Nadir Jeevanjee.

$\begin{pmatrix}0\2 \end{pmatrix}$ Tensores

  1. Sin mucho preámbulo, podemos definir un $\begin{pmatrix}0\2 \end{pmatrix}$-tensor para ser un mapa bilineal $T$ que come dos vectores $v$ y $w \ en V$ y escupe un número real $T(v,w)$. Escrito de manera un poco más formal:$$T : V \times V \to \mathbb{R}, \qquad (v,v) \mapsto T(v,v) \in \mathbb{R}.$$Para aquellos asustados por la notación matemática, no se preocupe, es realmente sólo la prosa escrita anteriormente. La palabra bilineal es especialmente importante. Significa que el tensor es lineal en ambos argumentos. De lo contrario, sería un mapa bastante aleatorio, pero la linealidad es realmente lo que da a los tensores sus propiedades características.

Esto es todo. Eso es realmente lo que es un tensor: toma dos vectores y escupe un número real. Y lo hace de forma lineal.

Esta definición es independiente del espacio de vectores $V$, los tensores se pueden describir en cualquier espacio de vectores. Un ejemplo para el espacio vectorial $V$ podría ser el espacio de todas las posibles velocidades que puede tener una bola de billar (es un espacio vectorial porque se pueden estirar y añadir velocidades, y realmente no hay mucho más para que algún conjunto pueda calificarse como espacio vectorial). ¿Y un tensor? Como se mencionó anteriormente, cualquier mapa multinieal servirá, pero algo significativo para la física podría ser el «tensor de energía cinética»$$ T(v,w) = \frac{m}{2}v \cdot v,$$cuya diagonal es exactamente $T(v,v) = E_{textrm{kin}(v)$.

Ahora, fíjate en una cosa: Nunca en esta definición o en el ejemplo hemos mencionado nada sobre coordenadas o $\mathbb{R}^3$. Esto es importante. El tensor es un objeto que puede existir en todo su esplendor, libre e independiente de cualquier sistema de coordenadas. Para un teórico (o cualquier físico), este es un resultado agradable: No hay ningún experimento que pueda determinar si el sistema de coordenadas del mundo es cartesiano o polar o esférico. Son imaginaciones de la mente humana. Una buena teoría no debería empezar dependiendo de una elección arbitraria, es mejor que los tensores sean entidades bien definidas antes de perdernos en los sistemas de coordenadas. Y eso es lo que hicimos aquí.

Elegir una base

Pero además, nuestras mentes funcionan bastante bien en sistemas de coordenadas, o al menos fueron bien entrenadas para ello. Entonces, ¿qué pasa si elegimos una base? Entonces los vectores $v,w \Nen V$ pueden descomponerse en una suma sobre el conjunto de vectores base ${e_i\}$ por los respectivos factores de escala ${v^i\}$ de cada uno de ellos. Con la convención de la suma:$$ v = v^i e_i, \qquad w = w^i e_i.$$ Lo introducimos en la definición del tensor y vemos lo que sale.\qquad T(v,w)&= T(v^i e_i, w^j e_j)\&= v^i T(e_i, w^j e_j)\&= v^i T(e_i, e_j) w^j \&=: v^i T_{ij} w^j.\La primera igualdad es sólo la inserción (con el cuidado adecuado de los índices), la segunda igualdad es la linealidad del primer argumento ($v^i$ es sólo un número real, se puede sacar), la tercera igualdad es la linealidad en el segundo argumento, y finalmente introducimos la definición$$T_{ij} := T(e_i,e_j).$$Esta es una nueva cantidad que definimos tomando el tensor y aplicándolo a todos los pares de vectores base. Si el espacio vectorial tiene dimensión $n$, entonces obtenemos $n^2$ números reales, mientras que las componentes $v^i$ y $w^j$ forman cada una $n$ números reales.

Y ahora se llega a una forma totalmente arbitraria de almacenar toda esta información: las matrices. Una matriz en sí misma no es más que una tabla (históricamente, incluso se llamaron tablas durante un tiempo). Meras hojas de cálculo de MS-Excel. Pero motivados por la ecuación que acabamos de derivar, a la gente se le ocurrió la idea: oye, ordenemos los $v^i$ y $w^j$ en estas filas y columnas de números y ordenemos los números $T_{ij}$ en este bonito bloque cuadrado de números. Y para recordar cómo tratarlos, introduzcamos una forma de multiplicarlos entre sí.

Una matriz (incluyendo las matrices cuadradas en $\mathbb{R}^{n \times n}$ así como las matrices de filas en $\mathbb{R}^{1\times n}$ y las matrices de columnas en $\mathbb{R}^{n \times 1}$, comúnmente denominadas vectores) no es, como se ha mencionado en otra respuesta, más que una forma de almacenar información. La regla de multiplicación de matrices («fila por columna») es una información adicional por encima de eso. Es sólo una forma de manejar correctamente la información almacenada en la matriz y los vectores, que son números reales desnudos.

Este es el sentido en el que consideramos que los vectores se encuentran en algún $\mathbb{R}^n$ y los tensores son matrices en $\mathbb{R}^{n \times n}$. Los vectores se encuentran realmente en un espacio vectorial $V$ de n$ dimensiones, y los tensores son mapas bilineales que toman dos de estos vectores y dan un número real. Sin embargo, después de elegir una base $\{e_i\} \V$, toda la información que necesitamos para recuperar el vector completo $v$ son sus componentes ${v^i\}$ en esa base dada, y todo lo que necesitamos para conocer completamente un tensor $T$ son sus valores en los vectores de la base ${T_{ij}\} = \{T(e_i,e_j) \}$. Esto hace que la base se esconda bajo la alfombra, pero luego pasan cosas raras cuando uno cambia de base.

Tensores como mapas lineales

Entonces, ¿por qué la mayoría de las respuestas aquí se centran en que los tensores son mapas lineales que llevan un vector en $\mathbb{R}^n$ a otro vector en $\mathbb{R}^n$? Porque desde luego hay una gran similitud.

Volvemos a mirar la representación por coordenadas de la multiplicación de tensores. Allí escribimos$$T(v,w) = v^i T_{ij}w^j.$$Esto guarda una estrecha similitud con la representación por coordenadas del producto interior,$$v \cdot u = v^i u_i,$$sólo tenemos que sustituir$$u_i = T_{ij}w^j = T(e_i,e_j)w^j = T(e_i,w^j e_j) = T(e_i,w)$$en la ecuación.

En ese sentido, encontramos una nueva forma de entender el tensor. En lugar de limitarse a tomar dos vectores y devolver un número real, podemos considerar que el tensor toma un vector $w$, lo transforma linealmente en un nuevo vector $u$, y luego calcula el producto interior entre $v$ y $u$.

Un inciso: En este punto, he omitido algunas sutilezas, porque para obtener la imagen completa, tendríamos que seguir hablando del producto interior. Esto se debe a que el producto interior define el tensor métrico (o viceversa), que seguimos necesitando si queremos pasar de las componentes covariantes de $u_i$ a las componentes contravariantes $u^i = \eta^{ij} u_j$. No nos detendremos en esto aquí. Supongo que ya se discutió en otro lugar, de todos modos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *