MATRICES - SIGLO XIX Y XX

MATRICES - SIGLO XIX Y XXResultado de imagen para matrices algebra

Podemos estar de acuerdo con Kline en que las matrices y determinantes no son temas decisivos en la historia de las matemática porque, más que nuevos contenidos teóricos, se trata, efectivamente, de innovaciones en lenguaje, simbolismo o instrumentos de expresión matemática. Aun así, no puede olvidarse que estas dimensiones no substantivas de las matemáticas siempre han ocupado su lugar en el progreso de las matemáticas.
¿De dónde surgieron los determinantes? Por supuesto, en el contexto de la solución de sistemas de ecuaciones lineales. Pero no solamente ahí: una vez dentro del cálculo diferencial e integral, también en los sistemas de ecuaciones diferenciales, cambios de variables en métodos de integración, y en el estudio de propiedades de las formas cuadráticas en 3 o más variables que se pueden ver asociadas, por ejemplo, a la teoría de números, pero que aparecen en muchas otras partes de las matemáticas.
Es casi increíble pero se encuentra un método matricial en la China del 200 a.C. Se trata de un sistema de 3 ecuaciones con 3 incógnitas. Ya lo mencionamos anteriormente.
Ya en el siglo XVI, Cardano ofreció un método para resolver un sistema lineal de dos ecuaciones, que es básicamente lo que conocemos como la "regla de Cramer'' (aunque no llega a la noción de determinante).
Tampoco se puede dejar de reconocer en el trabajo Elements of curves de de Witt, en 1660, lo que podría señalarse como una diagonalización de una matriz simétrica.
Puede decirse que los sistemas de ecuaciones lineales fueron iniciados por Leibniz en 1678; de hecho, en 1693 usó índices en los coeficientes de un sistema de 3 ecuaciones con 2 incógnitas y eliminando las variables obtenía una expresión como determinante. Se afirma que la primera aparición del determinante en Europa se dio en una carta de Leibniz a L'Hôpital, en 1683, e incluso usó el término "resultante'' para sumas combinatorias de términos de un determinante. Algo similar a la regla de Cramer se encuentra en algunos de sus trabajos. También estudió sistemas de coeficientes de formas cuadráticas, que lo empujaron hacia las matrices. 
Capitulo_20__146.jpgMaclaurin.

No obstante, fue Maclaurin que usó el método de los determinantes para resolver sistemas de ecuaciones lineales con 2, 3 y 4 incógnitas (con 4, dejó planteado o sugerido el método). Esto aparece en su libro póstumo: Treatise of Algebra (resultados obtenidos probablemente como en el año 1729, y obra publicada en 1748). Aquí se encuentra la llamada "regla de Cramer''.
Si se tiene el sistema
$ax+by=c$
$dx+ey=f$
la solución $y$ viene dada por

MATH
y si el sistema es
$ax+by+cz=m$
$dx+ey+fz=n$
$gx+hy+fz=p$
entonces:

MATH

Cramer publicó su regla en Introduction à l'analyse des lignes courbes algébriques, en 1750. Cramer dio la fórmula para sistemas de $n\times n$. Su motivación había sido encontrar la ecuación de una curva plana que pasara por un número dado de puntos.
Bezout también hizo contribuciones en este campo: por ejemplo, en 1764, mostró que en un sistema homogéneo de $n$ ecuaciones lineales con $n$ incógnitas, existen soluciones no nulas si el determinante asociado de los coeficientes se anula.
Vandermonde se considera el primero en ofrecer una exposición consistente de la teoría de determinantes.
Laplace también generalizó, en 1771, algunos de los resultados de Vandermonde, Cramer y Bezout. De hecho, consideró imprácticos los métodos de Cramer y Bezout, en el contexto de un estudio sobre órbitas de los planetas interiores. Curiosamente, usó el término "resultante'' para referirse al determinante, el mismo que había usado Leibniz, sin saberlo Laplace. Hay una expansión de un determinante que lleva precisamente el nombre de Laplace.
Lagrange estudió identidades de determinantes funcionales de $3\times 3$ en 1773, aunque sin conectar con los trabajos de Laplace o Vandermonde.
El uso de determinantes también se dio para encontrar raíces comunes a dos polimomios de grados $m$ y $n$; un asunto que había investigado Newton, también Euler, aunque será un método de eliminación elaborado por Bezout el que se llegará aceptar plenamente por los matemáticos.
Ahora bien, fue Gauss, en su Disquisitiones Arithmeticae, quien había usado por primera vez el término determinante para el discriminante de la forma cuadrática

MATH

Sin embargo, el sentido que le dio al término no es el que nosotros le damos modernamente.
Gauss es, por supuesto, el creador del método de la eliminación gaussiana para resolver sistemas de ecuaciones. El método apareció en un trabajo en el que estudiaba la órbita del planetoide Pallas, donde emergió un sistema de 6 ecuaciones lineales con 6 incógnitas.
La historia de los determinantes en el siglo XIX empieza realmente con Cauchy y Jacobi. Cauchy usó el término de determinante pero ya en un sentido moderno. En el año 1812 Cauchy dictó una conferencia en la cual consideraba $n$ elementos

MATH
y realizaba el producto
MATH
MATH
de los $n$ elementos y todas las diferencias entre ellos.
Aquí procedía a la definición de determinante, por medio de una expresión en forma cuadrada:

MATH
MATH
..................................
MATH
en donde el segundo subíndice es la potencia del elemento $a_{i}$.
Cauchy llamaba a esto un "sistema simétrico de orden $n$''. Lo denotaba como

MATH
Poco tiempo después usó la expresión semejante

MATH
para referirse al producto

MATH
Cauchy consignó con precisión la multiplicación de 2 determinantes:

MATH
Cauchy probó el teorema de la multiplicación para matrices, dio los eigenvalores, ofreció resultados en la diagonalización de matrices (para convertir formas a la suma de cuadrados), dio la idea de matrices similares, y probó que una matriz simétrica real es diagonalizable.
Jacques Sturm dio una generalización del problema de los eigenvalores.
Heinrich F. Scherk, debe decirse, ofreció bastantes propiedades nuevas de los determinantes (Mathematische Abhanlungen, 1825).
Con gran relevancia, debe citarse el trabajo de Sylvester y su método dialítico para eliminar $x$ de polinomios de grado $m$ y $n$ respectivamente usando determinantes.
Jacobi usó, por ejemplo, ya en el año 1829, los determinantes que se llaman precisamente jacobianos, aunque no fuera el primero en utilizarlos. En 1841, publicó su obra: De determinantibus functionalibus, enteramente dedicada a los determinantes funcionales. Esto era muy relevante porque ahora las entradas no solo podían ser números sino que también funciones. Por ejemplo, si $f_{ij}$ son funciones de la variable $t$, con $F_{ij}$ el cofactor de $f_{ij} $ y $D$ es el determinante, entonces:
MATH y MATH
$f^{\prime }$ es la derivada de $f$ con respecto a $t$.
En el contexto del cambio de variables en la integración, se puede ver su uso:
Considérese la expresión

MATH
y ahora hágase el cambio de variable siguiente

MATH
Entonces, tenemos que

MATH
con MATH
Este determinante es precisamente el jacobiano de $x$ y $y$ con respecto a $u$ y $v$.
O simplemente: si $x=f(u,v)$ y $y=g(u,v)$, el jacobiano con respecto a $u$ y $v$ es
MATH
Otro asunto de interés aquí era lo siguiente:
Considere $f_{i}$$n$ funciones de $n$ variables $x_{j}$, lo que se busca es saber si las $f_{i}$ son no independientes, es decir que las $x_{j}$ puedan ser eliminadas de tal manera que las $f_{i}$ formen parte de una ecuación, ¿cuál? Todo se resume así: las $f_{i} $ no son independientes si y solamente si el jacobiano asociado se anula.
Los determinantes, como hemos mencionado, se usaron también en el tratamiento de formas cuadráticas.
Una forma cuadrática de 3 variables la escribimos de la siguiente manera:

MATH
que se puede poner usando determinantes así:

MATH
donde $b_{ik}=b_{ki}.$
Se llama ecuación característica de la forma a la siguiente expresión:

MATH
se llaman raíces características a aquellas que satisfacen esta ecuación.
Lagrange y Laplace habían usado el concepto de ecuación característica (en el marco de sistemas de ecuaciones diferenciales), aunque -se suele mencionar- que Euler lo había hecho antes de una manera implícita. Fue Cauchy quien consignó los términos de ecuación característica. Este matemático mostró la invariancia de esta ecuación al hacerse un cambio de ejes rectangulares y, también, logró determinar cuáles son los ejes principales para una forma de varias variables.
Sylvester fue quien creó en 1851 el concepto de divisores elementales.
Weierstrass, quien en 1858 había encontrado un método general para deducir 2 formas cuadráticas simultáneamente a sumas de cuadrados, completó la teoría de las formas cuadráticas y la extendió a las formas bilineales. Estas son expresiones como la siguiente:

MATH
Fue Henry J. S. Smith quien introdujo los términos de arreglo aumentado arreglo no aumentado en el manejo de los determinantes. Es decir:
si se tiene el sistema
$a_{1}x+a_{2}y=p$
$b_{1}x+b_{2}y=q$
el aumentado es

MATH
y el no aumentado

MATH
Fue dentro del estudio de las propiedades de los determinantes, lo que hemos reseñado, que surgió la noción de matriz, para expresar el arreglo en sí mismo, es decir: sin darle un valor (recuerde que un determinante simplemente refiere a un valor para un arreglo de coeficientes o elementos). Sylvester fue quien usó la palabra matriz por primera vez.

Capitulo_20__219.jpgCayley.

Cayley afirmaba correctamente que la noción de matriz era lógicamente previa a la noción de deteminante: se calcula el determinante, un valor, de una matriz. Primero está la matriz. Pero, históricamente, primero se desarrollaron los determinantes. A Cayley se le considera el creador de la teoría de matrices, debido a que fue el primero en darles un estatus independiente y en publicar una colección de artículos al respecto, pero, como vimos, las matrices estaban implícitamente presentes en el estudio de los determinantes. De hecho, el mismo Cayley las usó primeramente como un mecanismo para simplificar la notación en un estudio que realizaba sobre invariantes de transformaciones lineales.
Cayley definió la igualdad de matrices, la matriz nula, la unitaria, la suma y multiplicación de matrices, etc. Es decir, ofreció un álgebra de matrices. Dio una construcción explícita de la inversa de una matriz en términos de su determinante.
Tal vez sea interesante enfatizar que la multiplicación de matrices no es generalmente conmutativa. Otro caso en que, al igual que con los cuaterniones, se rompe con leyes fundamentales de los sistemas numéricos clásicos.
Cayley consideró la ecuación característica, aunque sin usar esos términos, así: si se tiene la matriz $M$ y $I$ es la matriz unidad, entonces la ecuación dada por el determinante

MATH
es la ecuación característica.
Probó en el caso de las matrices $2\times 2$ que la matriz satisface su propia ecuación característica. Precisamente, el teorema Cayley-Hamilton establece que una matriz satisface su ecuación característica. Hamilton había establecido el caso para $n=4$ dentro de su estudio de los cuaterniones.
Cayley introdujo, además, las líneas en los determinantes, por ejemplo en:

MATH
Sobre estos asuntos relacionados con la ecuación característica, dieron contribuciones otros matemáticos como Hermite, Clebsch, Arthur Buchheim, Henry Taber, William Henry Metzler, Frobenius y Kurt Hensel.

Capitulo_20__226.jpgFrobenius.

Fue Frobenius quien introdujo la noción de rango de una matriz, en 1879. Este matemático, que al parecer en un principio no conocía el trabajo de Cayley, también obtuvo resultados para matrices similares a aquellos que habían encontrado Sylvester y Weierstrass sobre los factores invariantes y los divisores elementales. Esto era importante para encontrar condiciones que establecieran la equivalencia de 2 matrices. Se dice que 2 matrices $A_{1}$ y $A_{2}$ son equivalentes si existen matrices no singulares $H$ y $L$ tal que $A_{1}=HA_{2}L$$A_{1}$ y $A_{2}$ son equivalentes si y solo si tienen los mismos divisores elementales.
Frobenius no usó el término matriz, pero probó resultados relevantes sobre matrices canónicas como representantes de clases de equivalencias de matrices. Fue el primero en probar el caso general del teorema de Cayley-Hamilton. Cuando se enteró en 1896 que Cayley lo había demostrado para $n=2$ y $n=3$, y aunque él lo había demostrado para el caso general, con gran generosidad adjudicó el nombre de Cayley al teorema.
Además, Frobenius dio la definición de matrices ortogonales (usada por Hermite en 1854): $A$ es ortogonal si y solamente si $A=(A^{T})^{-1}$, donde $A^{T}$ es la transpuesta de $A$ ($A^{T}$ es formada al intercambiar las filas por las columnas de $A$).
En el año 1870, Jordan introdujo lo que se llama "forma canónica de Jordan''.
Las matrices han sido consideradas, incluso, como argumentos de funciones trascendentes.
Metzler, en 1892, definió funciones en forma de serie; por ejemplo, si $A$ es una matriz, entonces, se puede definir

MATH
Una definición axiomática de determinante fue dada por Weierstrass, aparece en un libro póstumo de 1903.




Finalmente, debe decirse que se usaron también determinantes y matrices infinitas, sobre todo en el contexto de algunas aplicaciones en la física.

No hay comentarios.:

Publicar un comentario