Algebra Lineal
Transcript of Algebra Lineal
Algebra Lineal
Jorge Luis Arocha
version compilada el
25 de abril de 2011
Jorge Luis Arocha PerezInstituto de MatematicasUniversidad Nacional Autonoma de MexicoMexico D.F. 04510
BibTeX:
@textbookArochaLAAUTHOR = Arocha, Jorge L.
TITLE = \’Algebra LinealYEAR = 2011NOTE = Available at combinatoria.matem.unam.mx
Mathematics Subject Classification 2000: 00–01, 12–01, 15–01
c°2011 Jorge Luis Arocha PerezPermitida la reproduccion para uso individual y no comercial.Todos los demas derechos estan reservados.
IntroduccionEste libro lo escribı como texto basico para el curso de “Algebra Lineal” para estudiantes
de Licenciatura que he impartido por muchos anos en la Facultad de Ciencias de la Universidad Nacional Autonoma de Mexico.
Se presupone que los estudiantes hayan cursado ya las materias de “Algebra superior” y“Geometrıa Analıtica” o sea tengan ciertos conocimientos sobre matrices, vectores, polinomios, numeros complejos, etc.
El objetivo es desarrollar el algebra lineal sobre campos arbitrarios pero se hace enfasisen los reales, los complejos y los residuos modulo un numero primo. Despues de una introduccion corta a la teorıa de campos se estudian los espacios vectoriales, las transformacioneslineales, los determinantes y finalmente los teoremas de descomposicion de operadores.
Por ahora, este libro no contiene practicamente nada de transformaciones bilineales, productos escalares, espacios duales, ortogonalidad, tensores etc. En mis planes esta escribiruna segunda parte o aumentar este libro con capıtulos sobre estos temas.
El material que comprende este libro es demasiado para un semestre y usualmente yoimparto en un semestre de los capıtulos I—IV aquellas secciones que no estan marcadascomo avanzadas. Un segundo semestre podrıa comenzar con las secciones de polinomios sobre campos, continuar con la descomposicion de operadores lineales y terminar con aquellostemas que ya senale, faltan aquı. Otras secciones las escribı porque me parecieron un buenmaterial de lectura complementaria para los alumnos curiosos.
Este libro es inusualmente colorido y visualmente agresivo. La razon de esto es quecuando estaba en el papel de alumno yo preferıa estudiar por las libretas de notas de miscompaneras de clase. Se me hacıa muy facil memorizar la imagen completa de una paginallena de rayas, ores, corazones etc. y dentro de todo esto, las matematicas. La idea es quecada pagina luzca visualmente diferente. He tratado dentro de lo posible, lograr esto.
Los caracteres de matematicas estan en un color diferente. El texto y las secciones avanzadas estan marcados con un birrete. Uso unos lentes para marcar aquello que el lector nodebe dejar pasar. Errores comunas que cometen los que no estan familiarizados con el material estan marcados con calaveras. Los teoremas estan resaltados visualmente, etc.
Se incluyen mas de un centenar de ejercicios. Los ejercicios mas notables consisten enmaterial adicional que un estudiante de matematicas o fısica debe conocer tarde o temprano.Las soluciones de los ejercicios no rutinarios se dan al final del libro.
He compilado un glosario de terminos que es a la vez un ındice del libro y un diccionariode los conceptos introducidos y/o usados.
Finalmente, incluyo una guıa de estudio. De esta guıa yo escojo las preguntas para losexamenes. Esto representa una ventaja enorme para los estudiantes ya que una de las dificultades mas importantes de ser estudiante es comprender que es lo que se espera de ellos.
Jorge ArochaMexico D.F. Diciembre de 2010
IV
Capıtulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4).Distributividad (5). El algebra “abstracta”(5).
1.2 Numeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (7). Reales (8). Complejos (9).
1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composicion de morfismos (13).
1.4 Campos de restos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13El anillo de los enteros modulo n (14). Dominios de integridad (14). El campo de losenteros modulo p (15).
1.5 Campos primos. Caracterıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16Campos primos (16). Caracterıstica (18).
1.6 Aritmetica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18Multiplos y exponentes enteros (18). Asociatividad general (19). Distributividad general (19). Formula multinomial (19). La expansion de ΠΣαij (21).
*1.7 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21Suma y producto de polinomios (22). Division de polinomios (22). Factores y raices(23). Ideales de polinomios (24). Unicidad de la factorizacion en irreducibles. (25).Desarrollo de Taylor (26).
*1.8 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27Forma polar. Igualdad de Moivre (27). Continuidad (29). Lımite de sucesiones complejas (30). Teorema de Gauss (31).
*1.9 Factorizacion de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . . . . 32Caso Complejo (32). Caso real (33).
*1.10 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34Campos de fracciones (34). Funciones racionales (36).
*1.11 Anillos con division . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36Quaterniones (37). Caso finito (38).
Capıtulo 2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.1 El plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.2 Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
El espacio de nadas Kn (41). El espacio de polinomios K [x] (42). El espacio desucesiones KN (42). El espacio de series K [[x]] (42). El espacio de funciones KN(42). El espacio de Nadas KN (43). El espacio de Nadas con soporte finito KN(43). Subcampos (44). El espacio deNadas de vectores EN (44). El espacio de NMmatrices KNM (44). El espacio de tensores (45).
VI Contenido
2.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46Union e interseccion de subespacios (46). Combinaciones lineales (47). Cerradura lineal (48).
2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49Conjuntos generadores (49). Conjuntos linealmente independientes (50). Bases (51).Dimension (52). Bases canonicas (54).
2.5 Clasificacion de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55Isomorfismos lineales (55). Coordinatizacion (57). Clasificacion (57). Campos de Galois (58). Como pensar en espacios vectoriales (58).
2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59Subespacios de Rn (59). Suma de conjuntos y subespacios (60). La igualdad modular(61). Suma directa (62). Isomorfismo canonico entre la suma y la suma directa. (62).Subespacios complementarios (63). Espacios vectoriales versus conjuntos (64).
2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65Subespacios afines (65). El espacio cociente (66). El isomorfismo con los complementarios (67).
*2.8 El espacio afın. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68La regla del paralelogramo (69). Cerradura afın (69). Generadores e independencia(70). Bases afines (70).
*2.9 El caso de dimension infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72El Lema de Zorn (72). Existencia de bases (72). Cardinales (73). Equicardinalidad delas bases (73).
Capıtulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.1 Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75Imagenes de subespacios (75). Homotecias (76). Inmersiones (77). Proyecciones (77).
3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78El espacio vectorial de las transformaciones lineales (78). Composicion de transformaciones lineales (79). El algebra de operadores lineales (80). El grupo general lineal(81).
3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81Extensiones y restricciones (81). El isomorfismo entre FN y Mor (E,F) (82). Un criterio de isomorfismo (83).
3.4 Coordinatizacion de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 83El producto escalar canonico (85). El producto de matrices (85). Productos de matrices y vectores (86). La transformacion lineal de una matriz (86). La matriz de unatransformacion lineal (87). Composicion de TLs y producto de matrices (87). Matricesinversas (88).
3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89Cambios de base en un espacio vectorial (89). Cambios de base en el espacio de transformaciones lineales (90). Cambios de base en el espacio de operadores lineales (91).La transformacion lineal tanspuesta (92).
3.6 El nucleo y la imagen de una transformacion lineal . . . . . . . . . . . . . . . . . . . . . 93Definiciones (93). Transformaciones lineales con nucleo trivial (94). Descomposicionde transformaciones lineales (94). La descomposicion de la transpuesta (95). Un criterio de isomorfismo (95). Descomposicion canonica de transformaciones lineales (96).
VIIContenido
*3.7 Trasformaciones semilineales y coalineaciones . . . . . . . . . . . . . . . . . . . . . . . . . 97Trasformaciones semilineales reales (97). Propiedades de las transformaciones semilineales (98). Automorfismos semilineales. (98). Coalineaciones (99). Estructura de lascoalineaciones (100).
Capıtulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105El grupo simetrico (105). Ciclos (106). El grupo alternante (107). El signo de unapermutacion (108).
4.2 Propiedades basicas de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108Definicion de los determinantes (109). Determinantes de matrices pequenas (109). Eldeterminante de la identidad (110). Matrices con filas nulas (111). El determinantede la transpuesta (111). Matrices con filas iguales (111). Permutaciones de columnas yrenglones (112). El determinante del producto (112). Matrices de permutaciones (113).
4.3 Expansion de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114Cambios de ındices (114). Complementos algebraicos (116). La expansion de un determinante por sus renglones (116). La expansion de Laplace en forma grafica (117).Multinearidad de los determinantes (118). La inversa de una matriz (119). El determinante de un operador lineal (121).
*4.4 La expansion generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121Matrices diagonales y triangulares por bloques (122). La expansion generalizada deLaplace en forma grafica (123).
4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125Matrices no singulares (125). Espacios de columnas y renglones (125). Lema de aumento de matrices no singulares (126). Bases de una matriz (126).
4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127Regla de Cramer (128). Existencia de soluciones (129). Eliminacion de ecuacionesdependientes (130). El nucleo y la imagen de una matriz (131). Bases del subespacioafın de soluciones (131).
4.7 Metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132Transformaciones elementales (132). Ejemplo (133). El caso general (133). Solucionde ecuaciones matriciales, matriz inversa (134).
Capıtulo 5 Descomposicion de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
5.1 Suma directa de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137Subespacios invariantes, componentes irreducibles (138). Ejemplos en dimension 2(139). Las matrices y los subespacios invariantes (140).
5.2 Polinomios de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141El morfismo deK [x] en End (E) (141). La subalgebraK [h] (142). El polinomio mınimo (142). El perıodo de un vector (143). Anuladores (144). Nucleos de polinomios deoperadores lineales (144). Conjuntos de vectores y polinomios (145).
5.3 Subespacios radicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146Operadores lineales radicales (147). Componentes radicales (148). Existencia de unvector de perıodo maximo (149).
5.4 El espacio cociente por un subespacio invariante . . . . . . . . . . . . . . . . . . . . . . . 150Polinomios y el espacio cociente (151).
VIII Contenido
5.5 Subespacios cıclicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152Conjuntos hgeneradores (153). Conjuntos hindependientes (154). hbases (155).
5.6 Descomposicion en subespacios cıclicos radicales. . . . . . . . . . . . . . . . . . . . . . 156
5.7 Estructura de los operadores cıclicos radicales . . . . . . . . . . . . . . . . . . . . . . . . . . 161Subespacios invariantes (161). Formas canonicas (162). ∇ = 1 (165). ∇ = 2 (165).Usando la base canonica (167).
5.8 Polinomio caracterıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168Rectas invariantes (168). El polinomio caracterıstico de un operador lineal (168). Elpolinomio caracterıstico y el polinomio mınimo (169).
Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
Guıa de estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
IX
El algebra es la oferta hecha por el Diablo a los matematicos.El Diablo dice:
“Yo te dare a ti esta poderosa maquinariaque respondera cualquier pregunta que tu quieras.
Todo lo que se necesita que tu hagas es entregarme tu alma:dame la geometrıa y tendras esta maravillosa maquina”
... el dano a nuestra alma esta ahı,porque cuando usted pasa a hacer calculos algebraicos,
esencialmente usted deja de pensar ...
Sir Michael Atiyah
X
CamposCapítulo primeroCapítulo primero
l objeto del algebra lineal es el estudio de los espacios vectoriales. Estos espacios sonestructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares.Las operaciones definidas en los espacios vectoriales son la suma y resta de vectores,
la suma resta multiplicacion y division de escalares y la multiplicacion de escalares porvectores. La mayorıa de los temas estudiados en este libro no dependen del conjunto deescalares y el lector puede casi siempre considerar que los escalares son los reales R y queel espacio vectorial es el espacio “geometrico” comun Rn.
Sin embargo, como esta teorıa no depende (al menos en gran parte) del conjunto deescalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matematicas ylas ciencias naturales) es conveniente elevar un paso el nivel de abstraccion y pensar que elconjunto de escalares es un campo arbitrario K .
El primer objetivo de este capıtulo es dar al lector un conocimiento basico de lo que esun campo. Esto se pretende lograr por tres medios: dando la definicion formal, estudiandoalgunas propiedades (como la caracterıstica) de los mismos, viendo que las reglas usuales demanipulacion de formulas en un campo no se diferencian esencialmente de las formulas enlos reales y sobre todo, dando los ejemplos fundamentales de campos.
Posteriormente, estudiaremos las principales propiedades de los polinomios con coeficientes en un campo. En particular, los teoremas de descomposicion en factores de polinomios complejos y reales seran fundamentales para, en un capıtulo posterior, desarrollar ladescomposicion de Jordan de operadores lineales.
1.1 Operaciones binarias
SeaA un conjunto. Una operacion binaria es una funcion del producto cartesianoA×Aen A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A se le hacecorresponder un tercer elemento de A. Demos algunos ejemplos sencillos:
1) a+ b suma 5) ab exponenciacion2) a− b resta 6) loga b logaritmo3) ab producto 7) mcd (a, b) max comun divisor4) a
bdivision 8) mcm (a, b) mın comun multiplo
2 Capıtulo 1. Campos
Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cualconjunto esta definida la operacion. Esto no es correcto formalmente, ası por ejemplo ladivision es una operacion que no esta definida en el conjunto de los numeros enteros. Sinembargo el lector podra facilmente encontrar los conjuntos en los cuales estos ejemplos sonoperaciones binarias.
Ejercicio 1 ¿En cuales conjuntos las operaciones 18 estan correctamente definidas? [173]Ejercicio 2 ¿Que es una operacion unaria? De ejemplos. [173]Ejercicio 3 Dados tres numeros reales a, b, c definamos A (a, b, c) como el area del triangulo con lados a, b y c. ¿Es esta una operacion ternaria en R? [173]
Lo segundo que debemos de observar, es la variedad de notaciones usadas para representar las operaciones binarias. Sobre todo, son complicadas las notaciones de la operaciones46. Lo que tienen en comun, es que no nos alcanza una lınea de sımbolos para escribirlas.Necesitamos subir y/o bajar ademas de movernos de derecha a izquierda. O sea, necesitamosdos dimensiones para escribirlas.
Quiza sea mas ilustrativo, poner un ejemplo mas complejoπ/4R0
¡a sin x+ b sin x
2
¢dx
de notacion dos dimensional. La integral en el recuadro a laderecha esta bien definida para cualesquiera valores reales a, by por lo tanto es una operacion binaria definida en R.
Mas sencillos son los ejemplos de notaciones lineales 13,78. En realidad, para las notaciones lineales solo hay tres posibilidades:
(a, b) notacion prefija o funcionala b notacion operacional(a, b) notacion sufija
Las operaciones 13 estan en notacion operacional y las operaciones 78 estan en notacion prejija. La notacion sufija es util sobre todo en la programacion de compiladores paralenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo mas faciles decirle a una computadora “toma el numero a” , “toma el numero b” ,“sumalos” y nohacerlo de otra manera.
Ejercicio 4 La notacion sufija para a (b+ c) /2 es bc + a × 2÷ . ¿Cual sera la notacionsufija para la expresion (a+ b) (x+ y)? [173]
Cualquier intento, de tratar de unificar las notaciones usadas en la comunicacion entrehumanos, solo llevarıa a confusiones mucho peores. Sin embargo, tenemos la libertad de escoger una notacion unificada para las operaciones binarias abstractas que definamos. De unavez, postularemos que siempre usaremos la notacion operacional para definir operacionesbinarias abstractas.
3Seccion 1.1 Operaciones binarias
Recalquemos que una operacion “abstracta” no significa nada mas que es una operacionque puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2. Despues,tempranamente en el estudio de las matematicas, la expresion a+b significa que a un numeroa (no se sabe cual) le sumamos un numero b (tampoco se sabe cual). Ahora, la expresion a+b significara que a un objeto a (numero, polinomio, matriz , quien sabe que) le “sumamos”(no se sabe lo que quiere decir “suma”) un objeto b (del que tampoco se sabe mucho).
Conmutatividad
¿Es 3 + 2 igual a 2 + 3? Si. ¿Es 32 igual a 23? No. Una operacion binaria∀a, b ∈ Aa b = b a
denotada por y definida en el conjunto A se dice que es conmutativa sise cumple la propiedad en el recuadro a la izquierda. Ser o no conmutativa
es la propiedad mas sencilla que diferencia las operaciones binarias.
Ejercicio 5 ¿Cuales de las operaciones 19 son conmutativas? [173]
Asociatividad
¿Que quiere decir 2+3+5? ¿Acaso debemos sumar 2+3 y al resultado sumarle 5? ¿Nosera que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna diferenciaentre los dos procedimientos. Este hecho se expresa como (2+ 3) + 5 = 2+ (3+ 5) .
Una operacion binaria denotada por y definida en el con∀a, b, c ∈ Aa (b c) = (a b) c
junto A se dice que es asociativa si se cumple la propiedad enel recuadro de la derecha.
Los estudiantes preuniversitarios se encuentran por primeravez con la dificultad de una operacion no asociativa en el caso de la operacion de exponenciacion. A esta temprana edad es muy necesario insistir que la expresion 22
3
es ambigua
porque 2(23) = 256 6= 64 =
¡22¢3
.
Ejercicio 6 ¿Cuales de las operaciones 19 son asociativas? [173]
La asociatividad de una operacion es una propiedad crucial. Sin esta propiedad, el manejoalgebraico de una operacion se complica bastante.
Es mas, gracias a ella podemos introducir la notacion de la operacion “re11Pn=1
anpetida”. Si tenemos 11 elementos a1, a2, . . . , a11 entonces, para denotar la sumaa1+a2+ · · ·+a11 podemos usar la notacion (mucho mas comoda) que se muestraen el recuadro a la derecha. Esta notacion no requiere de la conmutatividad de laoperacion “suma” gracias a que los ındices tienen un orden y sabemos cual elemento debe irprimero y cual despues.
Si tenemos que la operacion es no solamente asociativa sino tambien conmutativa entonces podemos ser mas generosos con esta notacion.
4 Capıtulo 1. Campos
Supongamos que aρ, a`, aκ, a9 y a∇ son elementos de un conjunto con una sumaPn∈N
an asociativa y conmutativa. Entonces la suma de estos (¡no importa el orden!) lapodemos denotar por la expresion en el recuadro a la izquierda, donde N es el
conjunto de ındices ρ,κ, `,∇, 9.Si la operacion binaria definida no se llama “suma” sino “producto”, entonces es usual,
en lugar de usar la letra griegaP
(sigma mayuscula), usar la letra griegaQ
(pi mayuscula).Podemos, en este caso, usar la primera o segunda notacion dependendiendo de si nuestroproducto es conmutativo o no.
Elementos neutros
La suma de numeros naturales tiene un elemento especial y unico: el cero. Su propiedad definitoria es que cualquier numero sumado con cero da el mismo numero. La mismapropiedad la tiene el uno con respecto al producto de numeros naturales.
Para una operacion binaria denotada por y definida en el con ∀a ∈ Aa e = e a = ajunto A se dice que e ∈ A es un elemento neutro si este cumple la
propiedad en el recuadro.Una operacion binaria no puede tener mas de un elemento neutro. Efectivamente, sean
e y e0 elementos neutros. Por ser e neutro, tenemos e e0 = e0. Por ser e0 neutro, tenemose e0 = e. De estas dos igualdades obtenemos e = e0.
Ejercicio 7 ¿Cuales de las operaciones 19 tienen neutro? [173]
Los elementos neutros juegan un papel importante en las notaciones para operaciones
Qi∈Nai •
Qi∈M
ai =Q
i∈N∪Mai
repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean ademas Ny M dos conjuntos finitos de ındices disjuntos. Naturalmente, de la definicion se sigue la propiedad del recuadro a laizquierda.
Pero ¿que pasa si alguno de los conjuntos de ındices (digamosM) es vacıo? Si queremosque esta propiedad se conserve entonces observamos queY
i∈Nai •
Yi∈∅
ai =Yi∈N∪∅
ai =Yi∈N
ai
por lo que necesariamenteQ
i∈∅ ai tiene que ser el elemento neutro de nuestra operacion (sino hay neutro entonces estamos en problemas).
Es por esto, como el lector seguramente ya sabe, que la suma vacıa de numeros es iguala cero y el producto vacıo de numeros es igual a uno.
Elementos inversos
Para cada numero entero a hay un unico numero −a tal que sumado con a da cero. Ge
a b = b a = e
neralizemos esta propiedad a operaciones binarias arbitrarias. Sea una operacion binaria enel conjuntoA con elemento neutro. Se dice que a ∈ A tiene elementoinverso b si se cumple la propiedad en el recuadro a la izquierda.
5Seccion 1.1 Operaciones binarias
Para cualquier operacion binaria asociativa el elemento inverso de otro es unico. Efectivamente si b y c son inversos de a entonces b = be = b(a c) = (b a)c = ec = co sea que b y c tienen que ser el mismo.
Ejercicio 8 Describa los inversos en las operaciones 19. [174]
Distributividad
Frecuentemente nos encontramos con conjuntos en los cuales hay mas de una operacionbinaria definida. El ejemplo mas sencillo son los naturales en los que sabemos sumar y sabemos multiplicar. Estas dos operaciones estan relacionadas con la propiedad de que podemossacar factor comun o sea ax+ ay = a (x+ y).
Sean y ¦ dos operaciones binarias definidas en el ∀a, b, c ∈ Aa ¦ (b c) = (a ¦ b) (a ¦ c)(b c) ¦ a = (b ¦ a) (c ¦ a)
conjunto A. Se dice que la operacion ¦ es distributivarespecto a la operacion si se cumple la propiedad en elrecuadro.
Que ¦ sea distributiva respecto a no es lo mismo que sea distributiva respecto a¦. Por ejemplo, en los naturales el producto es distributivo con respecto a la suma:a (b+ c) = (ab) + (ac) y sin embargo, la suma de naturales no es distributiva
respecto al producto: a+ (bc) 6= (a+ b) (a+ c).
Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivasuna con respecto a la otra. [174]
El algebra “abstracta”
Filosoficamente, el concepto de “abstraccion” es la propiedad, que tiene el pensamientohumano, de que podemos fijarnos solamente en ciertas propiedades “esenciales” de un objetoo fenomeno, y olvidarnos de las restantes.
La abstraccion es imprescindible para el lenguaje. El concepto “silla” nos permite reconocer una silla, independientemente si esta es de madera, de hierro, plastica, grande, comoda,con tres, cuatro o cinco patas etc. Casi cada palabra del espanol (y de cualquier idioma) representa un concepto abstracto, sea esta verbo, sustantivo o adjetivo.
La ciencia lleva este nivel de abtraccion a un nivel aun mayor. Parte de este conocimiento cientıfico, pasa al conocimiento publico. Baste recordar conceptos como: velocidad,volumen, higiene, ADN, penicilina, electron, metal, colesterol, triangulo, etc. Algunos de losmencionados, son muy antiguos, otros surgieron hace muy poco. Sin embargo, la mayorıade estos conocimientos queda solamente en manos de los especialistas en la materia.
Con las matematicas pasa igual. No hace falta saber que la suma de naturales es unaoperacion binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto de
6 Capıtulo 1. Campos
“operacion” y que estas operaciones pueden cumplir o no ciertas propiedades es relativamente “nuevo”.
En la primera mitad del siglo XX, progresivamente, la comunidad matematica se fue dando cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstractas. Tanto fue el entusiasmo, que muchos, en un principio, le llamaron a esta forma de pensar“Algebra moderna”. Otros aun mas entusiastas, mas frıvolos y con muchas ganas de vendersus libros le llamaron “Matematica moderna”. En la actualidad este lenguaje es parte intrınseca e indivisible del pensamiento en matematicas y cualquier calificacion de “moderna”suena muy tonta.
Otros, por otro lado, prefierieron referirse a esta forma de pensar como “Algebra abstracta”. Esto, en mi opinion, aunque mas moderado, tampoco tiene ningun sentido. Toda algebraes abstracta, de hecho, todas las matematicas son abstractas. Estoy convencido de que, eltiempo se encargara de acabar con todos estos calificativos.
1.2 Numeros
En esta seccion repasaremos los principales tipos de numeros que el lector ya conoce:naturales, enteros, racionales, reales y complejos. Esto nos dara la posibilidad de introducirlas definiciones mas basicas del algebra: grupos, anillos y campos.
Naturales
Hay una frase famosa que dice “Dios hizo los naturalesab = a+ ...+ a| z
b veces
= b+ ...+ b| z a veces
y el hombre todo lo demas”. El conjunto de los numerosnaturalesN = 0, 1, 2, ... es el conjunto de los cardinales
de los conjuntos finitos. En N hay dos operaciones binarias bien definidas: la suma y elproducto. De hecho, el producto es una operacion derivada de la suma y la suma solo sepuede definir en terminos de conjuntos. Por ejemplo, a+ b es el cardinal de la union de dosconjuntos finitos y disjuntos uno de cardinal a y otro de cardinal b.
Como la union de conjuntos es asociativa tambien lo es la suma de naturales. De ladefinicion se obtiene que el producto de naturales tambien es asociativo. Tanto la suma comoel producto son conmutativos. La suma tiene elemento neutro 0 y el producto tiene elementoneutro 1. El producto es distributivo respecto a la suma.
Enteros
Ningun elemento de N salvo el cero tiene inverso para
−b+ a = c⇔ a = b+ c
−b+ (−a) = − (a+ b)
la suma. Para lograr la existencia de inversos inventamos losnumeros negativos Z− = −1,−2,−3, ... y en el conjuntoZ = N ∪ Z− de los numeros enteros definimos la suma comola operacion conmutativa definida por las propiedades en elrecuadro a la derecha.
7Seccion 1.2 Numeros
Grupos
Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada elemento
G1) la operacion es asociativaG2) tiene elemento neutroG3) todo elemento tiene inverso
tiene inverso. O sea los enteros dan el primer ejemplode grupo. A un conjunto no vacıo con una operacion binaria se le llama grupo si se cumplen los tres axiomas
G1G3. A los grupos cuya operacion esconmutativa se les llama abelianos en honor al matematico noruego NielsHenrik Abel (18021829). Abel fue el que resolvio el problema algebraicomas importante de su epoca. Demostro, que no existen formulas en radicalespara resolver las ecuaciones polinomiales de grado 5 o mayor (a diferenciade las ecuaciones de grado ≤ 4 para las cuales si hay formulas generales).Al momento de encontrar esta demostracion, el problema ya duraba variossiglos sin resolverse. Abel murio a los 26 anos a causa de una neumonıa.
Anillos
La operacion de producto de naturales se extiende facilmente ala (−b) = − (ab)
(−a)b = − (ab)(−a) (−b) = ab
conjunto de los enteros mediante las reglas en el recuadro. Nuevamenteel producto es asociativo,conmutativo y distributivo con respecto a lasuma. O sea los enteros tambien dan el primer ejemplo de anillo.
Un conjunto A no vacıo con dos operaciones biA1) (A,+) es un grupo abelianoA2) • es asociativaA3) • es distributiva con respecto a +A4) • tiene elemento neutro
narias + y • se le llama anillo si se cumplen losaxiomas en el recuadro a la izquierda. Si el anilloes tal que la operacion • es conmutativa entoncesse dice que tenemos un anillo conmutativo.
En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro para elproducto se le llama uno y se denota por 1. Al inverso de un elemento con respecto a la sumade un elemento se le llama su opuesto. Al inverso con respecto al producto de un elementose le llama inverso multiplicativo o simplemente inverso a secas.
Observemos que si a es un elemento de un anillo entonces a • 0+ a = a • (0+ 1) = ay debido a la unicidad del 0 obtenemos que a • 0 = 0. De la misma manera vemos que0 • a = 0. Si 1 = 0 entonces, a = 1 • a = 0 • a = 0 por lo que el anillo consta de unsolo elemento. Para descartar esta trivialidad supondremos siempre que 1 6= 0. De aquı sedesprende que 0 no puede tener inverso ya que 0 = a • 0 = 1 es una contradiccion.
En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de a.Como 1 × 1 = 1 tenemos 1−1 = 1. Tambien (−1)−1 = −1 ya que si a = −1 entonces0 = a (a+ 1) = aa+ a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todo anillo1 y −1 tienen inversos. En Z ningun elemento salvo 1 y −1 tiene inverso.
Normalmente en la definicion de anillo no se pide el axioma A4. En este caso, a los anillos quetienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo nounitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar, para nosotrostodos los anillos son unitarios.
8 Capıtulo 1. Campos
Racionales
Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio
a
b=c
d⇔ a • d = c • b
nes y con ellas el conjunto de numeros racionales Q. Una fraccion es un par ordenado denumeros enteros denotado por a/b donde b 6= 0. Dos fracciones son iguales cuando se cumple la igualdad en el recuadro.Los numeros racionales Q son las fracciones con la relacion de
igualdad ası definida. Los enteros son parte de los racionales por cuanto podemos identificarcada numero entero a ∈ Z con la fraccion a/1.
La suma y el producto de numeros racionales se definen pora
b+c
d=a • d+ c • b
b • da
b• cd=a • cb • d
las igualdades en el recuadro. Nuevamente los racionales con lasuma forman un grupo abeliano y otra vez el producto es asociativo, conmutativo, tiene elemento neutro y es distributivo conrespecto a la suma. La diferencia es que ahora todo elemento diferente de cero tiene inverso multiplicativo. O sea los racionalesnos dan el primer ejemplo de campo.
Un conjunto K no vacıo con dos operaciones biC1) (K,+) es un grupo abelianoC2) (K\0, •) es un grupo abelianoC3) • es distributiva con respecto a +
narias + y • se le llama campo si se cumplen lostres axiomas C1C3. En otras palabras un campoes un anillo conmutativo en la cual todo elementodiferente de cero tiene inverso multiplicativo.
Ejercicio 10 Si es una operacion en A entonces, en A2 esta definida la operacion porcoordenadas (x, y) (x0, y0) = (x x0, y y0). Pruebe que si (A, ) es un grupo entonces¡A2,
¢es un grupo, si (A,+, •) es un anilloentonces,
¡A2,+, •
¢es tambien un anillo.
Ejercicio 11 Sea (K,+, •) un campo. Como K es un anillo conmutativo entonces, por elejercicio anterior,
¡K2,+, •
¢tambien es un anillo conmutativo. ¿Sera K2 un campo? [174]
Reales
Dicen que cuando Pitagoras (Samos 569475 A.C.) descubrio que
1
1
√2
√2 6= p
q
la longitud de la hipotenusa de un triangulo rectangulo con catetos de longitud uno no es un numero racionalquedo horrorizado. A nosotros nos parece estouna exageracion. Sin embargo, si nos ponemosen el lugar de Pitagoras comprenderemos queen aquel momento era inconcebible que existannumeros que no sean cociente de dos enteros.La pintura a la izquierda es un detalle del fresco de Rafael “La escuela de Atenas” en la cualsupuestamente, se muestra a Pitagoras.
9Seccion 1.2 Numeros
Sigamos a Pitagoras y probemos que efectivamente√2 no es un racional. Para esto
denotemos por kak2 el numero de veces que el natural a se divide entre 2. Tenemos√2 =
p
q⇒ °°2q2°°
2=°°p2°°
2⇒ 1 + 2 kqk2 = 2 kpk2 lo que es una contradiccion ya que un
numero impar no puede ser igual a uno par.
Ejercicio 12 Sea n un numero natural. Pruebe que√n es un natural o no es racional. [174]
Ejercicio 13 Basandose en el anterior de otra prueba de que√2 no es racional. [174]
Esto motiva la construcion de los numeros reales R. La construcion de los reales esun proceso complicado y se han descubierto muchas formas de formalizar esta construcionsiendo la mas popular la de las cortaduras de Dedekind. Para nuestros propositos basta unadefinicion menos formal y mas intuitiva: un numero real es simplemente un lımite de racionales. Las propiedades de la suma y producto de racionales se traspasan facilmente a losreales usando las propiedades del lımite de sucesiones. De esta manera obtenemos nuestrocampo principal (R,+, •) . El campo de los reales se destaca porque es ordenado (siemprepodemos decidir si un numero real es mayor, menor o igual a cero) y porque es cerrado (ellımite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho deque el espacio en que vivimos es (o al menos nos parece que es) R3.
Ejercicio 14 Pruebe que la longitud de un segmento de recta es un numero real. [174]
Complejos
En 1546 Gerolamo Cardano publico su libro “Ars Magna” en el cual dio metodos (basados en parte en el trabajo de otros matematicos) para el calculo de las raices de los polinomiosde grado 3 y 4. Estos metodos, a veces requerıan el extraer raices cuadradas de numeros negativos, incluso cuando el resultado final era un numero real. Rafael Bombelli estudio esteasunto en detalle y es considerado como el descubridor de los numeros complejos.
Para lograr que todos los polinomios tengan raices inven(a+ bi) + (a0 + b0i) =
(a+ a0) + (b+ b0) i
tamos el imaginario i =√−1 y definimos que un numero
complejo es algo de la forma a + bi donde a, b ∈ R. Lasuma y el producto de complejos se definen por las formulasen los recuadros a la derecha y abajo a la izquierda.
Las propiedades de la suma y el producto se desprenden in(a+ bi) × (a0 + b0i) =
(aa0 − bb0) + (ab0 + a0b) i
mediatamente de sus definiciones y es facil comprobar que(C,+, •) es un anillo conmutativo. Para ver que es un campo, observamos que (a+ bi)−1 =
¡a2 + b2
¢−1(a− bi).
La principal propiedad que hace que para muchas cosas el campo C sea el mas simple esque el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de gradon > 0 con coeficientes en complejos tiene n raices complejas.
10 Capıtulo 1. Campos
1.3 Morfismos
En esta seccion estudiaremos las funciones entre conjuntos con operaciones binarias.
Morfismos de grupos
Sean y • operaciones binarias definidas en los conjuntos A y B respectivamente. Unafuncion f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A secumple que f (a1 a2) = f (a1) • f (a2).
Todo morfismo conserva las propiedades fundamentales de las operacionesbinarias. Mas precisamente, si f : (A, ) → (B, •) es un morfismo entonces,
1. • es una operacion binaria dentro de la imagen de f.2. Si es conmutativa entonces • es conmutativa en la imagen de f.3. Si es asociativa entonces • es asociativa en la imagen de f.4. Si e es neutro de entonces f (e) es neutro de • en la imagen de f.5. Si a0 es inverso de a en A entonces f (a0) es inverso de f (a) en B.
Prueba. Sean b1, b2 y b3 elementos cualesquiera en la imagen de f. Existen a1, a2 y a3 enA tales que f (ai) = bi para i ∈ 1, 2, 3. Como f es un morfismo, obtenemos la igualdad
b1 • b2 = f (a1) • f (a2) = f (a1 a2) (*)que prueba la primera afirmacion. Si es conmutativa entonces, usando (*) obtenemos
b1 • b2 = f (a1 a2) = f (a2 a1) = b2 • b1por lo que • es tambien conmutativa. Si es asociativa entonces, usando (*) obtenemos
(b1 • b2) • b3 = f (a1 a2) • f (a3) = f ((a1 a2) a3) == f (a1 (a2 a3)) = f (a1) • f (a2 a3) = b1 • (b2 • b3)
y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operacion entonces,b1 • f (e) = f (a1) • f (e) = f (a1 e) = f (a1) = b1f (e) • b1 = f (e) • f (a1) = f (e a1) = f (a1) = b1
por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces,f (a) • f (a0) = f (a a0) = f (e)f (a0) • f (a) = f (a0 a) = f (e)
de lo que concluimos que f (a0) es el inverso de f (a).
Ejercicio 15 Justifique todas las igualdades utilizadas en la prueba de 1.1.
¿Y porque siempre dentro de la imagen de f y no en todo B? La respuesta es que lo unicoque sabemos de B esta dado por el morfismo. Aquellos elementos de B que no tienen preimagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos.De aquı en lo adelante a la imagen de cualquier funcion f (y en particular de un morfismo)la denotaremos por Im f.
11Seccion 1.3 Morfismos
Si (A, ) es un grupo entonces (Im f, •) es un grupo.
Prueba. Por 1.1.1 • es una operacion binaria en Im f. Por 1.1.3 esta operacion es asociativa.Por 1.1.4 esta operacion tiene elemento neutro. Por 1.1.5 cada elemento b = f (a) ∈ Im ftiene su inverso f (a0) donde a0 es el inverso de a enA. Esto completa la prueba de todos losaxiomas de grupo.
Recordemos que si f : A→ B es una funcion entonces al conjuntoA se le llama dominiode f y al conjuntoB codominio de f. Si el dominio y el codominio de un morfismo son gruposentonces se dice que este es un morfismo de grupos.
Ejercicio 16 Construya un morfismo inyectivo de (R,+) en (R, •). ¿Cual es su imagen?
Morfismos de anillos
¿Y que pasa con la distributividad? ¿Tambien se conserva? El primer problema que tenemos que resolver es que en la distributividad estan involucradas dos operaciones. Sean(A,+, •) y (B,+, •) dos conjuntos cada uno con dos operaciones binarias. Observese queestas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajarcon cuatro sımbolos diferentes ya es demasiada confusion.
Una funcion f : A→ B se le llama morfismo si para cualesquiera a1 y a2 elementos deA se cumple que f (a1 + a2) = f (a1)+ f (a2) y f (a1 • a2) = f (a1) • f (a2). Recalquemosque el “y” quiere decir que se tienen que cumplir las dos propiedades. O sea, si hay dosoperaciones entonces, se requiere que la funcion sea morfismo para cada una de ellas.
Si • es distributiva con + en A entonces,• es distributiva con + en la imagen de f.
Prueba. Sean x, y, z ∈ A tales que f (x) = a, f (y) = b y f (z) = c. Tenemosa • (b+ c) = f (x) • (f (y) + f (z)) = f (x) • f (y+ z) = f (x • (y+ z)) =
= f (x • y+ x • z) = f (x • y) + f (x • z) = f (x) • f (y) + f (x) • f (z) = a • b+ a • cy esto prueba la tesis.
Si el dominio y el codominio de un morfismo son anillos entonces se dice que este es unmorfismo de anillos. Si el dominio y el codominio de un morfismo son campos entonces sedice que este es un morfismo de campos.
Ejercicio 17 Demuestre que si (A,+, •) es un anillo y f : A→ B es un morfismo entonces,(Im f,+, •) es un anillo. Demuestre que lo mismo ocurre para los campos.
12 Capıtulo 1. Campos
Ejercicio 18 Pruebe que si f : A→ B es un morfismo de anillos y A es un campo entoncesf es inyectivo. En particular todo morfismo de campos es inyectivo. [174]
Isomorfismos
A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto para conjuntos con una como tambien con dos operaciones binarias. Ası que tenemos isomorfismosde grupos, de anillos y de campos. Para cada isomorfismo f existe una funcion inversa f−1.¿Cuando sera f−1 un morfismo? La respuesta es que siempre.
La inversa de un isomorfismo es un isomorfismo.
Prueba. Sea f : (A, )→ (B, •) un isomorfismo. Sean b1, b2 cualesquiera elementos de B.Denotemos a1 = f−1 (b1) y a2 = f−1 (b2). Tenemosf−1 (b1 • b2) = f−1 (f (a1) • f (a2)) = f−1 (f (a1 a2)) = a1 a2 = f−1 (b1) f−1 (b2)
que es lo que se requerıa demostrar. Si el isomorfismo involucra dos operaciones binariasentonces el mismo argumento aplicado a las dos operaciones, nos da la prueba de la tesis.
Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, )→ (B, •) es un isomorfismoentonces de que • es conmutativa implica que es conmutativa y en conclusion es conmutativa si y solo si • es conmutativa. Lo mismo ocurre con la asociatividad, con la existenciade neutros e inversos y para el caso de dos operaciones con la distributividad. O sea que tiene exactamente las mismas propiedades de •.
Pero no solo son operaciones parecidas sino que son en cierto sentido la misma. Paraconvencernos de esto supongamos que conocemos la operacion y conocemos el isomorfismo f pero no sabemos nada de la operacion •. ¿Podremos calcular b1 • b2? La respuesta essi, lo podemos calcular por la identidad b1 • b2 = f
¡f−1 (b1) f−1 (b2)
¢. Recıprocamen
te, se define de forma unica por la operacion • y el isomorfismo f mediante la identidada1 • a2 = f−1 (f (a1) f (a2)). En conclusion ambas operaciones se definen una a otra.
Para que el lector comprenda mejor eso de que y u v
u u v
v v u
• 1 −1
1 1 −1
−1 −1 1
• son la misma operacion veamos un ejemplo. Sea A elconjunto de letras u, v y B el conjunto de los numeros1,−1. Definamos las operaciones y • mediante lastablas del recuadro a la derecha.
El lector debe observar que la segunda tabla es la tabla usual de multiplicacion de enteros.Ademas, para obtener la segunda tabla de la primera lo unico que necesitamos es cambiar por • , u por 1 y v por −1. Esto lo que quiere decir, es que la funcion u 7→ 1 , v 7→ −1 esun isomorfismo de (A, ) en (B, •). El lector puede ver que ambas tablas son en esencia lamisma, solamente que las notaciones para los elementos y la operacion estan cambiadas.
Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces sedice que ellos son isomorfos. Etimologicamente, la palabra “isomorfo” significa que “tie
13Seccion 1.3 Morfismos
nen la misma forma”. En forma intuitiva, que ellos sean isomorfos quiere decir que los dosson iguales con la salvedad de que podemos cambiar las notaciones de los elementos y lasoperaciones.
Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos seles llama epimorfismos, a los injectivos se les llama monomorfismos. A los morfismos deun conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos seles llama automorfismos.
En otras ramas de las matematicas tambien se definen morfismos e isomorfismos. Sin embargo nosiempre es suficiente la biyectividad para definir los isomorfismos. Por ejemplo, en topologıa losmorfismos son las funciones continuas. Pero la inversa de una biyeccion continua no siempre es
continua. Por esto, un isomorfismo de espacios topologicos hay que definirlo como una biyeccion continuacuya inversa es continua.
Composicion de morfismos
Sean A, B y C tres conjuntos y f : A → B , g : B → C dos funciones. A la funciong f : A→ C definida por (g f) (a) = g (f (a)) se le llama la composicion de f con g. Apartir de ahora el sımbolo solo lo utilizaremos para denotar la composicion de funciones.Observese el orden en que escribimos las funciones ya que la composicion de funciones noes conmutativa.
La composicion de funciones es asociativa.
Prueba. Sean f : A → B , g : B → C y h : C → D tres funciones. Por definicion decomposicion para cualquier a ∈ A tenemos(h (g f)) (a) = h ((g f) (a)) = h (g (f (a))) = (h g) (f (a)) = ((h g) f) (a)
que es lo que se querıa probar
Ahora, supongamos que en A, B y C hay definidas operaciones binarias. Entonces f, g yg f pueden ser morfismos o no. Sin embargo, si f y g lo son entonces f g tambien lo es.
Las composiciones de morfismos son morfismos.
Prueba. Denotemos las operaciones en A,B y C con el mismo sımbolo •. Como f y gson morfismos tenemos (g f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) •g (f (b)) = (g f) (a) • (g f) (b) que es lo que se necesitaba probar.
Ejercicio 19 Pruebe que el conjunto de todos los automorfismos de un conjunto con una odos operaciones binarias es un grupo con respecto a la composicion de funciones.
14 Capıtulo 1. Campos
1.4 Campos de restos
Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muyconocidos por el lector. Es imprescindible, para dar una intuicion saludable de lo que es uncampo, introducir otros que no sean tan usuales. En esta seccion presentaremos ciertos campos que tienen un numero finito de elementos. Para construirlos, usaremos las propiedadesde los morfismos de la seccion anterior.
El anillo de los enteros modulo n
Sea n un numero natural mayor que 1. Para un entero a la a¢ b = (a+ b)modna¡ b = (ab)modnnotacion amodn significa el resto de la division de a entre n.
O sea, el menor natural k tal que existe un entero t para loscuales a = k + tn. Por definicion amodn ∈ Zn = 0, 1, ..., n − 1 por lo que en Zn haynaturalmente definidas dos operaciones binarias como se muestra en el recuadro.
Ejercicio 20 Construya las tablas de sumar y multiplicar en Z2, Z3 y Z4.
(Zn,¢,¡) es un anillo conmutativo.
Prueba. Probemos que la funcion f : (Z,+, •)→ (Zn,¢,¡) dada por f (a) = amodn esun morfismo de anillos. Observemos que por definicion a¢b = f (a+ b) y a¡b = f (ab) .
Para cualesquiera x, y ∈ Z por definicion de f existen enteros p, q tales que x = f (x) +qn, y = f (y) + pn y por lo tanto f (x) = f (y) si y solo si x− y es multiplo de n.
Tenemos que f (x) + f (y) = x+ y− (q+ p)n y por lo tanto (f (x) + f (y))− (x+ y)es multiplo de n. Luego, f (x+ y) = f (f (x) + f (y)) o lo que es lo mismo, f (x+ y) =f (x)¢ f (y) y esto prueba que f es morfismo para la suma.
Por otro lado f (x) f (y) = (x− qn) (y− pn) = xy + (nqp− yq− xp)n y por lotanto (f (x) f (y)) − (xy) es multiplo de n. Luego, f (xy) = f (f (x) f (y)) o lo que es lomismo, f (xy) = f (x)¡ f (y) y esto prueba que f es morfismo para el producto.
Como f es sobre, (Z,+, •) es anillo conmutativo y los morfismos preservan las propiedades de las operaciones, concluimos que (Zn,¢,¡) es tambien un anillo conmutativo.
Hemos denotado la suma y el producto en Zn con los sımbolos extranos ¢ y¡. El objetivo de esto fue el asegurarnos que en la demostracion del resultadoanterior el lector no se confundiera con la suma y el producto habitual de nume
ros enteros. De ahora en lo adelante no haremos mas esto. La suma en Zn se denotara con elsımbolo + y el producto, con la ausencia de sımbolo alguno, o a lo mas, con un punto. Parapoder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) enque sentido estamos utilizando estas notaciones. Ası por ejemplo, 2+ 3 = 5 si la suma es lahabitual de enteros o es la de Z11 pero 2+ 3 = 1 si la suma es la de Z4.
15Seccion 1.4 Campos de restos
Dominios de integridad
Despues de saber que (Zn,+, ·) es un anillo conmutativo, lo natural es preguntarnos sieste es un campo, ya que lo unico que le falta a un anillo conmutativo para ser campo, es laexistencia de inversos para el producto. Veamos por ejemplo el caso de Z6. Aquı tenemos2 ·3 = 0. Que raro, el producto de dos numeros diferentes de cero es igual a cero. ¿Es posibleeso en un campo? Veremos que no.
Un anillo conmutativo se le llama dominio de integridad si el producto elementos distintos de cero es siempre diferente de cero. Sabemos que Z, Q, R y C son dominios deintegridad. Tambien, ya vimos que Z6 no es dominio de integridad.
Todo campo es un dominio de integridad.
Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por elinverso multiplicativo de p obtenemos 0 = p−10 = p−1pq = q. Luego, q = 0.
Luego, Z6 no es un campo. Este ejemplo se generaliza facilmente. Sea n = pq unadescomposicion en factores no triviales (ambos diferentes a 1) de n. Sabemos que p y qestan en Zn y que pq = n = 0modn. Luego, si n es un numero compuesto (no primo)entonces, Zn no es un dominio de integridad y por lo tanto no es un campo.
El campo de los enteros modulo p
Y ¿que pasa cuando p es primo?
Zp es un dominio de integridad.
Prueba. Sean x, y ∈ 1, . . . , p− 1 . Si xy = 0 en Zp entonces xy = 0modp. Luego, en Ztenemos que xy = kp. Como p es primo entonces, p divide a x o y pero esto no puede serya que ambos son menores que p.
Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios deintegridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado.
Todo dominio de integridad finito es un campo.
Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hay quedemostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario no nulo deA. Denotemos por fa la funcion A 3 x 7→ ax ∈ A. Esta funcion es inyectiva ya que
(ax = ay)⇒ (a (x− y) = 0)⇒ (x− y = 0)⇒ x = y
Como fa es una funcion inyectiva de un conjunto finito en si mismo es tambien sobreyectiva.Luego tiene que existir b tal que fa (b) = ab = 1. Como el producto es conmutativo, estodemuestra que a tiene inverso.
16 Capıtulo 1. Campos
Como Zp es finito, concluimos inmediatamente que Zp es un campo si ysolo si p es un numero primo. Los campos Zp son los primeros ejemplos decampos que tienen un numero finito de elementos. A los campos finitos seles lama campos de Galois en honor al matematico frances Evariste Galois(18111832). Al resolver el problema de encontrar cuales ecuaciones polinomiales son solubles en radicales y cuales no, Galois de facto invento laTeorıa de Grupos. Galois murio a los 20 anos en un duelo provocado por
asuntos amorosos y/o polıticos. El apellido Galois se pronuncia en espanol como “galua”
Ejercicio 21 Halle los inversos de los elementos no nulos de Z5. [174]Ejercicio 22 Demuestre que todo subgrupo finito con q elementos del grupo multiplicativode un campo es isomorfo a (Zq,+) . En particular, (Zp\0, •) es isomorfo a (Zp−1,+). [175]
Ejercicio 23 Demuestre que Z211 con las operaciones (a, b) + (a0, b0) = (a+ a0, b+ b0) y(a, b) (a0, b0) = (aa0 + 7bb0, ab0 + a0b) es un campo de 121 elementos. [176]
1.5 Campos primos. Caracterıstica
Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que escampo para las mismas operaciones. Si L es un subcampo de K entonces ∀a, b ∈ L ∀c ∈L\0 se tienen que cumplir las siguientes propiedades
1. a+ b ∈ L, −a ∈ L, (L es un subgrupo aditivo)2. ab ∈ L, c−1 ∈ L, (L\0 es un subgrupo multiplicativo)
Recıprocamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de suma,opuesto, producto e inverso estan correctamente definidas dentro de L y el tiene que contenera 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K, con mas razon secumplen dentro de L. Esto indica que para comprobar si L es un subcampo basta comprobarlas propiedades 1 y 2. El ejemplo mas sencillo de esto es Q, que es subcampo R, que a suvez es subcampo de C.
El concepto de subcampo incluye las operaciones. Si por un lado podemos considerar a Zp = 0, 1, ..., p − 1 como subconjunto de Q, por el otro, Zp NO es unsubcampo de Q (ya que por ejemplo 2 (p− 1) = p− 2 en Zp lo que no es ciertoen Q). De la misma manera, ningun Zp es subcampo de Zq para p 6= q.
Campos primos
Todo campo es subcampo de si mismo. A los campos que no tienen ningun subcampodistinto de si mismo se les llama campos primos. Los campos primos son los mas sencillosy deduciremos cuales todos ellos.
17Seccion 1.5 Campos primos. Caracterıstica
Todo campo K contiene un unico subcampo primoque esta contenido en cualquier subcampo de K.
Prueba. La interseccion de una coleccion arbitraria de subcampos de K es un subcampo.Para ver esto observamos que si a y b pertenecen a todos los subcampos de la coleccionentonces a + b tambien. Por lo tanto, a + b esta en la interseccion de ellos. Lo mismoocurre para el producto, para los neutros y los inversos. En particular, si nos fijamos en lainterseccion de todos los subcampos de K, vemos que esta es un subcampo que no contienesubcampos y que esta contenida en cualquier subcampo de K.
El campo Q de los numeros racionales es primo.
Prueba. SeaK un subcampo deQ. Tenemos 1 ∈ K y por lo tanto todas las sumas 1+ ...+1y sus opuestos aditivos tienen que estar en K. Luego, todos los enteros estan en K. Tambienlos inversos multiplicativos de los numeros enteros y sus productos tienen que estar todos enK. Luego, todos los racionales estan en K.
Los campos Zp de los restos modulo un numero primo son campos primos.
Prueba. SeaK un subcampo de Zp. Tenemos 1 ∈ K y por lo tanto todas las sumas 1+...+1estan en K. Como cualquier elemento de Zp es suma de unos obtenemos que Zp ⊆ K.
Teorema de Clasificacion de Campos Primos
Los campos Zp y el campo Q son los unicos campos primos.
Prueba. Sea un K campo primo. Para un numero natural n denotemos por n =
n vecesz | 1+ ...+ 1
donde 1 es el neutro multiplicativo de K. Observese que 0 = 0. Obviamente, n es un elemento del campo. Denotemos por P = n ∈ K | n ∈ N . Hay dos posibilidades excluyentes
1. La aplicacion n 7→ n es una biyeccion de en N en P.2. Existen dos naturales distintos n ym tales que n =m.
En el primer caso K contiene a los naturales. Como K es un campo tambien tiene quecontener a los opuestos de los naturales, o sea a los enteros. Por la misma razon, K tieneque contener a los inversos de los enteros con lo que se prueba que los racionales son unsubcampo de K. Como K es primo obtenemos que K = Q.
En el segundo caso, sea p el natural mas pequeno para el cual existe n < p tal quen = p.Tenemos n = p⇒ p−n = p− n = 0. Si n > 0 entonces, p−n < p y ademas p− n = 0lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0.
18 Capıtulo 1. Campos
Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen naturalesa, k tales que x = a+ kp y a < p. De aquı
x = a+ kp = a+ kp = a+
kp vecesz | 1+ · · ·+ 1| z
p veces
+ · · ·+ 1+ · · ·+ 1| z p veces
= a+
k vecesz | 0+ · · ·+ 0 = a
lo que muestra que P es el anillo Zp de los restos modulo p. Si p no es primo entonces, enZp ⊆ K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto no esposible entonces, deducimos que p es primo. Luego, Zp es un subcampo de K. Como K esprimo obtenemos que K = Zp.
Caracterıstica
Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp. Se dice que uncampo es de caracterıstica 0 si este contiene aQ. Se dice que un campo es de caracterısticap si este contiene a Zp. La caracterıstica de un campo es un numero primo o es cero. Lapropiedad fundamental de la caracterıstica de un campo es la siguiente:
Si K es un campo de caracterıstica tentonces, ta = 0 para cualquier a ∈ K.
Prueba. Si t = 0 la afirmacion es trivial. Si t es primo entonces, el campo contiene a Zt y
tx =
t vecesz | x+ ...+ x = 1x+ ...+ 1x = (t1) x
Como 1 ∈ Zt entonces tambien t1 ∈ Zt. En Zt se tiene que t1 = 0. Luego tx = 0x = 0.
Ejercicio 24 ¿Contradice o no 1.15 que todo campo es un dominio de integridad? [176]Ejercicio 25 ¿Es cierto o no que en todo campo (a = −a)⇒ (a = 0)? [176]
1.6 Aritmetica de campos
Los campos se comportan en la mayorıa de las cosas importantes como los numerosreales. Por mas que tratemos construir un campo raro pero muy raro (lo que es posible) nolograremos que se dejen de cumplir todas las propiedades de la aritmetica las cuales nosson familiares desde temprana edad. Pasemos a describir en toda su generalidad algunasconsecuencias simples y otras un poco mas complicadas de los axiomas de campo lo que nosconvencera de lo afirmado.
19Seccion 1.6 Aritmetica de campos
Multiplos y exponentes enteros
En todo campo para cualquier numero entero n y cualquier elemento del campo a seusan las siguientes notaciones
na =
⎧⎪⎨⎪⎩n vecesz |
a+ a+ ...+ a si n > 00 si n = 0
(−n) (−a) si n < 0
an =
⎧⎪⎨⎪⎩n vecesz | aa...a si n > 01 si n = 01
a−nsi n < 0
y se cumplen las propriedades usuales: (n+m)a = na+ma y an+m = anam .
Asociatividad general
Recordemos nuevamente el uso del sımbolo de sumatoria Σ. Si A es un conjuntonXi=1
aifinito de elementos del campo entonces podemos escribir la expresion en el recuadro a la izquierda para expresar que queremos sumar todos los elementos delconjunto A = a1, ..., an.
La asociatividad de la operacion de suma nos dice que esta expresion tiene sentido unicoya que no es necesario explicitar las sumas hay que realizar primero y cuales despues.
En realidad incluso esta notacion es redundante, mas consisa es esta otra nota Xa∈A
acion en el recuadro a la derecha que podemos usar gracias a la conmutatividad dela suma. O sea no importa si en la suma a1 esta delante de a2 o al revez. Solo esnecesario especificar cual es el conjunto A de elementos que se estan sumando.
Como tenemos que el producto de elementos de un campo es tambiennYi=1
ai =Ya∈A
aasociativo y conmutativo podemos usar las expresiones equivalentes dela izquierda para denotar el producto de todos los elementos del conjuntoA = a1, ..., an .
Distributividad general
Mucho mas difıcil es dar una forma general de la ley distributiva. Usando las leyes deÃXa∈A
a
!ÃXb∈B
b
!=Xa∈A
Xb∈B
ab
los campos obtenemos (a+ b) (c+ d) = a (c+ d)+b (c+ d) = ac+ad+bc+bd y el lector podra convencerse facilmente haciendo el calculo para conjuntospequenos A y B que en general se cumple la formulade la derecha.
Mas general, para muchos factores tenemosÃXa∈A
a
!ÃXb∈B
b
!· · ·ÃXc∈C
c
!=Xa∈A
Xb∈B
...Xc∈C
ab · · · c
A esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchasocaciones en que la usaremos.
20 Capıtulo 1. Campos
Formula multinomial
Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos seaniguales obtenemos la siguiente formula:ÃX
a∈Aa
!n=Xa1∈A
...Xan∈A
a1 · · ·an (*)
Esta formula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el producto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene(gracias a la asociatividad y conmutatividad del producto) una manera mucho mas sencillade expresarse como a4b3c3. Para arreglar este defecto, demosle nombres a los elementos deA y pongamos A = x1, ..., xm. Ahora si n1, ..., nm son naturales entonces, un monomioxn11 · · · xnmm aparece como sumando a la derecha en la formula (*) si y solo si
Pni = n (ya
que los sumandos en (*) son productos den elementos deA). Supongamos quePni = n. Si
todos los ni son uno o cero entonces en (*) hay n! sumandos iguales al monomio xn11 · · · xnmm(ya que podemos ordenarlos de ese numero de maneras). Si digamos n7 es mayor que 1 entonces tenemos que dividir por n7! ya que al permutar x7...x7 no obtenemos nuevos sumandos en (*). Lo mismo sucede con los otros ni. Como por definicion 0! = 1! = 1, finalmenteobtenemos la siguiente expresion conocida como formula multinomial.Ã
mXi=1
xi
!n=X n!
n1!...nm!xn11 · · · xnmm
donde la suma a la derecha de la igualdad recorre todas las soluciones en numeros naturalesde la ecuacion
Pni = n. En el caso particular m = 2, haciendo el cambio de variable
n1 = k obtenemos
(x+ y)n=
Xn1+n2=n
n!
n1!n2!xn1yn2 =
nXk=0
n!
k! (n− k) !xkyn−k
que es la famosa formula del binomio de Newton.Si bien las formulas que hemos demostrado parecen ser complicadaslos argumentos que llevan a ellas son muy sencillos. Es importanteque el estudiante que desee estudiar el algebra lineal a profundidadse familiarize bien con estos argumentos ya que las formas multilineales y en particular los determinantes son muy parecidos a la partederecha de la igualdad (*).
Sir Isaac Newton (Inglaterra 16431727). Probablemente el cientıfico mas renombrado de todos los tiempos. Fundador de la mecanica, la optica y el calculo diferencial. Sus tres leyes de la mecanicafundaron la base de la ingenierıa que llevo a la revolucion industrial.
21Seccion 1.6 Aritmetica de campos
Ejercicio 26 Sea K un campo de caracterıstica p > 0. Demuestre que la funcion K 3x 7→ xp ∈ K es un morfismo de campos. Demuestre que si K es un campo finito entoncesesta funcion es un automorfismo de K. A este automorfismo se le llama automorfismo deFrobenius. [176]
La expansion de ΠΣαij
Ahora deduciremos otra consecuencia de la forma general de la ley distri Yi∈N
Xj∈N
αijbutiva que usaremos mucho mas adelante. Supongamos queN es un conjuntofinito de ındices y que para cada pareja de ındices (i, j) tenemos un elementodel campo K que denotaremos por αij. Nuestro objetivo es usar la ley distributiva para expresar el elemento del campo del recuadro a la derecha como una suma deproductos.
Para esto lo mas comodo es pensar que el conjunto N es 1, . . . , n y expresar la formageneral de la ley distributiva en nuestro caso de la siguiente maneraÃX
j1∈Nα1j1
!· · ·ÃXjn∈N
αnjn
!=Xj1∈N
...Xjn∈N
α1j1 · · ·α1jn =XY
i∈Nαiji
donde la suma mas a la derecha en esta igualdad recorre todos los elementos (j1, . . . , jn)del producto cartesiano N × · · · × N de n copias de N o sea, Nn. Otra manera de pensara (j1, . . . , jn) es que tenemos una funcion f : N = 1, . . . , n 3 i 7→ ji = f (i) ∈ N y ennuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN detodas las funciones deN enN. Luego, en estas notaciones finalmente obtenemosY
i∈N
Xj∈N
αij =Xf∈NN
Yi∈N
αif(i)
que es una formula que ya no depende de cual es el conjuntoN.
Debemos recalcar una vez mas que todo lo dicho en esta seccion es valido para cualquier campo, sea este R, C, Q, Zp o cualquier otro campo que aun no conoscamos. Esta esla ventaja intrınseca de la abstraccion. No tenemos que demostrar el teorema de Pitagoraspara triangulos de acero, madera, etc. Estas propiedades no tienen nada que ver con que elcuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. De la mismamanera el binomio de Newton no tiene nada que ver con que si los numeros son reales ocomplejos u otros. Solo basta que nuestros numeros formen un campo.
Un lector atento, podrıa observar que en las pruebas de todas las formulas en ningun momento usamos la existencia de inversos en el campo. Luego, estas son validas en cualquier anillo conmutativo.A diferencia de las matematicas elementales en matematicas superiores, por aritmetica se entiende
el estudio de las propiedades de divisibilidad en anillos. En este sentido, la aritmetica de campos es trivial yaque todo elemento se divide entre cualquier otro no nulo.
22 Capıtulo 1. Campos
1.7 Polinomios sobre campos
Hay muchas maneras de ver los polinomios. La manera mas sencilla de vernXi=0
aixi
los es que un polinomio de grado n en la literal x es una expresion formal deltipo en el recuadro a la derecha donde los coeficientes a0, ..., an son elementosde cierto campoK y an 6= 0. Al coeficiente an se le llama coeficiente principaldel polinomio.
Suma y producto de polinomios
Aunque el lector seguramente conoce las definiciones de suma y producto de polinomios, nos parece apropiado recordar el porque de las mismas. Si interpretamos a x como unelemento del campo K entonces,
Paix
i tambien es un elemento del campo K. Esto quieredecir que un polinomio define una funcion K 3 x 7→P
aixi ∈ K y en esta interpretacion x
no es una literal sino una variable. Siendo esta interpretacion de los polinomios fundamental,necesitamos que la suma y producto de polinomios concuerde con la definicion de suma yproducto de funciones (f+ g) (x) = f (x) + g (x), (fg) (x) = f (x)g (x). Por esto, tenemos
nXi=0
aixi +
nXi=0
bixi =
nXi=0
¡aix
i + bixi¢=
nXi=0
(ai + bi) xi
donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distributividad. O sea, interpretamos al polinomio como la imagen por la funcion de evaluacionde la variable x que toma sus valores en el campo. Para el producto, usando la forma generalde la ley distributiva tenemosÃ
nXi=0
aixi
!ÃmXj=0
bjxj
!=
nXi=0
mXj=0
aibjxi+j =
n+mXk=0
⎛⎝ mın(n,k)Xi=max(0,k−m)
aibk−i
⎞⎠xkdonde la segunda igualdad se obtiene haciendo el cambio de variable k = i+ j y usando asociatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicar polinomiossin saberse estas formulas. Lo importante es saber aplicar sistematicamente asociatividad,conmutatividad y distributividad para obtener el resultado deseado. El conjunto de todos lospolinomios sobre un campo arbitrario K forma un anillo conmutativo (para ser campo solole falta la existencia de inversos multiplicativos). A este anillo se lo denota por K [x].
Division de polinomios
Division con Resto de Polinomios
Sean p y q dos polinomios. Existen polinomios c y r tales que1. p = cq+ r
2. El grado de r es estrictamente menor que el grado de q.
23Seccion 1.7 Polinomios sobre campos
Prueba. Sea p =Paix
i un polinomio de grado n y q =Pbix
i un polinomio de gradom. Si n < m entonces poniendo c = 0 y r = p terminamos.
Supongamos m ≤ n. Entonces, sacando cuentas nos podemos convencer
r1 =n−1Pi=0
aixi − c1
m−1Pi=0
bixi
c1 =xn−man
bm
de que p = c1q + r1 donde c1 y r1 son los polinomios en los recuadros.El grado de r1 es menor que el grado dep. Si el grado de r1 es menor que el grado
de q entonces ya terminamos, si no entonces, haciendo losmismos calculos podemos escribir r1 = c2q + r2 y vamosdisminuyendo el grado de ri hasta que este sea menor que el grado de q.
Luego, hay un i tal que p = (c1 + ...+ ci)q+ ri y el grado de ri es estrictamente menorque el grado de q. Al polinomio c = c1 + ... + ci se le llama cociente de p entre q; alpolinomio r = ri se le llama resto de p entre q.
Factores y raices
Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces se dice queq divide a p, o que q es un divisor de p, o que p es un multiplo de q. Obviamente, cualquierpolinomio de grado cero divide a cualquier otro polinomio (en un campo hay inversos).Diremos que q es un factor de p si q divide a p y el grado de q es al menos uno.
Sea p (x) =Pn
i=0 aixi un polinomio en K [x] . Sea b un elemento arbitrario del cam
po. ObviamentePn
i=0 aibi es tambien un elemento del campo ya que la suma, la multi
plicacion y las potencias estan bien definidas en un campo arbitrario. Es natural denotarp (b) =
Pn
i=0 aibi. Esto nos da una funcion K 3 b 7→ p (b) ∈ K llamada la funcion de
evaluacion del polinomio p. Los ceros de esta funcion son las raices del polinomio p, o season los elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lollamaremos nucleo de p y lo denotaremos por kerp (en ingles “nucleo” es “kernel”). Lasraices y los factores de un polinomio estan enlazados por el siguiente resultado:
Para que b sea una raız de p es necesarioy suficiente que (x− b) sea un factor de p.
Prueba. Dividamos con resto p entre (x− b). Sean c y r tales que p (x) = c (x) (x− b)+r.Como (x− b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtenemosp (b) = c (b) (b− b) + r = r. Luego, si b es raız entonces, r = 0 y recıprocamente.
Sea b una raız del polinomio p. Si n ≥ 1 es el mayor natural tal que (x− b)n es factorde p entonces a n se le llama multiplicidad de la raız b. Es muy incomodo trabajar con elconcepto de multiplicidad. Por ejemplo, tomemos la afirmacion: “Si b1 y b2 son dos raicesdel polinomio p entonces (x− b1) (x− b2) es un factor de p”. Esta afirmacion es cierta nosolo para cuando b1 6= b2 sino tambien cuando son iguales pero la raız tiene multiplicidadmayor que 2.
24 Capıtulo 1. Campos
Es mucho mas comodo pensar que si una raız tiene multiplicidad n entonceshay n “diferentes” raices todas del mismo “valor”. Este abuso del lenguajesera comun en este libro y a partir de ahora no tendremos necesidad de usar
continuamente el concepto de multiplicidad. Le dejamos al lector interesado la desagradabletarea, de ajustar los hechos expuestos a un lenguaje mas riguroso.
Ahora el nucleo de un polinomio no es exactamente un conjunto sino una “coleccion” deelementos del campo en la cual puede haber elementos repetidos. Ası por ejemplo tenemosKer
¡x3 − 6x2 + 9x− 4
¢= 1, 1, 4. Ajustada nuestra terminologıa, podemos establecer una
importante consecuencia del resultado anterior.
Un polinomio de grado n tiene a lo mas n raices.
Prueba. Si el polinomio p tiene como raices a b1, . . . , bn+1 entonces p tiene, por 1.18,como factor a
Qn+1i=1 (x− bi) que es un polinomio de grado n + 1. Esto contradice que p
tiene grado n.
Ideales de polinomios
Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades:
¨ Si p, q ∈ I entonces p+ q ∈ I.¨ Si p ∈ I y r ∈ K [x] entonces rp ∈ I.
En otras palabras, la suma es una operacion binaria dentro del ideal y cualquier multiplode un elemento del ideal tambien esta en el ideal. Los ideales mas sencillos son los quese forman tomando todos los multiplos de un polinomio fijo p. Si qp y q0p son dos talesmultiplos entonces qp + q0p = (q+ q0)p tambien es un multiplo de p. Esto demuestrala propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se les llama idealesprincipales. Lo asombroso es que todo ideal es ası.
Todo ideal de polinomios es principal.
Prueba. Sea I un ideal. Sea ahoram un polinomio no nulo de grado mınimo tal quem ∈ Iy denotemos por el conjunto de todos los multiplo dem o sea, Im = αm | α ∈ K [x]. Porla propiedad 1 se tiene que Im ⊆ I. Probemos que Im = I. Efectivamente, si g ∈ I entoncesdividiendo g entrem obtenemos polinomios α, r tales que g = αm+ r donde el grado de res menor que el grado dem o r es nulo. Tenemos r = g − αm y por las propiedades 1 y 2esto significa que r ∈ I. De la minimalidad del grado dem obtenemos r = 0. y por lo tantog ∈ Im. Esto prueba que Im = I o sea, que I es principal.
Observese que facilmente podemos definir los ideales en cualquier anillo conmutativo.Sin embargo, no siempre cualquier ideal es principal. Este es el caso por ejemplo, para elanillo de polinomios de dos variables K [x, y].
25Seccion 1.7 Polinomios sobre campos
Una primera consecuencia de 1.19 es el Teorema de Bezout, el cual tendremos muchısimas oportunidades para utilizarlo.
Teorema de Bezout
Sean p y q dos polinomios sin factores comunes.Existen polinomios α y β tales que αp+βq = 1.
Prueba. Denotemos por Ipq = αp+ βq | α,β ∈ K [x]. Probemos que Ipq es un ideal.Veamos primero que la suma de elementos de Ipq esta en Ipq. Efectivamente,
(αp+ βq) + (α0p+ β0q) = (α+ α0)p+ (β+ β0)q = α00p+ β00q
donde α00 = (α+ α0) y β00 = (β+ β0). Ahora, comprobemos que los multiplos de loselementos de Ipq estan en Ipq. Tenemos, γ (αp+ βq) = γαp + γβq = α0p + β0q dondeα0 = γα y β0 = γβ y con esto concluimos que Ipq es un ideal.
Como todo ideal de polinomios es principal, existe m tal que Ipq = αm | α ∈ K [x].Como p, q ∈ Ipq, existen polinomios α y β tales que p = αm y q = βm. Como p y q notienen factores comunes, esto significa que m es de grado cero y por lo tanto Ipq = K [x].En particular, 1 ∈ Ipq.
Etienne Bezout (Francia, 17301783). Famoso en su epoca sobre todo porlos seis volumenes de su libro de texto “Cours complet de mathematiques al’usage de marine et de l’artillerie” que por muchos anos fueron los librosque estudiaban los que aspiraban a ingresar a la “Ecole Polytechnique”. Suinvestigacion matematica la dedico al estudio de los determinantes y de lassoluciones de ecuaciones polinomiales.
Ejercicio 27 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin factorescomunes. Entonces, existen dos enteros α y β tales que αp+ βq = 1. [177]
Unicidad de la factorizacion en irreducibles.
Al descomponer un polinomio en factores causan muchos problemas de escritura los divisores que no son factores o sea, los polinomios de grado cero. Por esto es convenienteintroducir la siguiente definicion. Un polinomio se le llama monico si su coeficiente principal es 1. La ventaja de trabajar con polinomios monicos es que cualquier polinomio pse descompone como αp0 donde α es su coeficiente principal y p0 es monico. Luego, paradescomponer p en factores, solamente nos tenemos que fijar en los factores monicos de p0.Diremos que un factor q es factor propio del polinomio monico p, si q es monico y p 6= q.
Un polinomio se le llama irreducible si este es monico, tiene grado mayor que 1 y notiene factores propios. En otras palabras, cuando no se puede descomponer no trivialmente enproducto de dos factores. Cualquier polinomio p se puede descomponer como αp1p2 . . . pndonde α es su coeficiente principal y p1 · · ·pn son polinomios irreducibles. La prueba de
26 Capıtulo 1. Campos
esto es obvia. Si un polinomio no es irreducible puedo descomponerlo en producto de dosfactores. Si estos factores no son irreducibles puedo descomponer en factores cada uno deellos y ası sucesivamente llegamos a factores irreducibles.
Teorema de Factorizacion de Polinomios
Cualquier polinomio p se descompone como αp1p2 . . . pn donde αes su coeficiente principal y p1 · · ·pn son polinomios irreducibles.Esta descomposicion es unica salvo el orden de los factores.
Prueba. Solamente debemos probar la unicidad. Ademas, sacando como factor el coeficiente principal podemos suponer que p es monico. Si p es de grado 1 entonces no hay nada queprobar ya que entonces p es irreducible y la unica descomposicion de p es el mismo.
Supongamos que el teorema es cierto para cualquier polinomio de grado estrictamentemenor que k. Sea p monico de grado k que tiene dos descomposiciones en irreduciblesp1 . . . pn = p
01 . . . p
0m . Como todos los polinomios involucrados son irreducibles tiene que
existir un j tal que p0j = pn. Luego, para p/pn = p/p0j tenemos dos descomposiciones quepor hipotesis de induccion son iguales salvo orden.
Desarrollo de Taylor
Brook Taylor (Inglaterra 16851731). Entre las contribuciones de estematematico, se destacan: La invencion de la rama de las matematicasque hoy en dıa se conoce como Calculo en Diferencias, la invencion dela integracion por partes, y la formula llamada por su nombre. En 1772Lagrange proclamo esta formula como “el principio basico del calculodiferencial”. A esta formula, enunciada en la siguiente proposicion, sele llama Desarrollo de Taylor alrededor del punto x0. Como el lectorsabe de los cursos de calculo, este desarrollo es mucho mas general y
se cumple en cierta clase de funciones. Sin embargo para polinomios, su demostracion esindependiente del campo y puramente algebraica (no requiere del concepto de continuidad).
Desarrollo de Taylor
Para cualquier polinomio p (x) y cualquier elemento del campox0 existen unos unicos coeficientes α0,α1, . . . ,αn tales que
p (x) = α0 + α1 (x− x0) + · · ·+ αn (x− x0)n.
Prueba. Sea p (x) =Pakx
k un polinomio de grado n. Si x0 = 0 entonces, αk = ak.
27Seccion 1.8 Polinomios complejos. Teorema de Gauss
Supongamos que x0 6= 0. Por el binomio de Newton tenemosnXj=0
αj (x− x0)j =
nXj=0
αj
jXk=0
µj
k
¶xk (−x0)
j−k =
nXk=0
ÃnXj=k
µj
k
¶(−x0)
j−kαj
!xk
y para encontrar nuestros coeficientes αj tenemos para k ∈ 0, . . . , n las igualdades ak =Pn
j=k bkjαj donde bkj =¡j
k
¢(−x0)
j−k. Observese que bkk = 1 por lo que despejando obtenemos αk = ak −
Pn
j=k+1 bkjαj por lo que podemos hallar αn = an despues αn−1 yası sucesivamente todos.
Ejercicio 28 Demuestre que la expresionPi
j=k (−1)j−k¡j
k
¢¡i
j
¢es igual a la funcion delta
de Kronecker δik o sea, es cero si i 6= k y es uno si i = k. [177]Ejercicio 29 Demuestre que los coeficientes αj del Desarrollo de Taylor (1.22) del polinomio
Pakx
k son iguales a βj =Pn
i=j
¡i
j
¢aix
i−j0 . [177]
Ejercicio 30 Pruebe que los coeficientes αj del Desarrollo de Taylor (1.22) del polinomiop (x) son iguales a p(j) (x0) /j! donde p(j) (x) denota el polinomio derivado j veces. [177]
1.8 Polinomios complejos. Teorema de Gauss
En esta seccion demostraremos que el campo de los numeros complejos es algebraicamente cerrado. Como esta demostracion no es algebraica sino analıtica necesitaremos introducir algunos conceptos basicos de analisis complejo. Para esto, presupondremos que ellector conoce los correspondientes conceptos de analisis real.
Si bien, el contenido de esta seccion no es basico para la comprension del algebra lineal, por otro lado, si es fundamental queel lector conosca a la perfeccion el enunciado del teorema deGauss: todo polinomio complejo de grado al menos 1 tiene unaraız.
Johann Carl Friedrich Gauss (Alemania 19771855) fue elmas grande matematico de su epoca. Este teorema que lleva sunombre fue demostrado por primera vez en su tesis doctoral(1799). Este teorema es tambien conocido como el “teoremafundamental del algebra”. En este libro tendremos ocacion demencionar otros resultados de Gauss y cualquiera que se dedique a estudiar matematicas, estadısticas, fısica o astronomıaoira de este cientıfico en mas de una ocasion.
28 Capıtulo 1. Campos
Forma polar. Igualdad de Moivre
Todo numero complejo z se puede representar en la forma polar
r cosϕ
r sinϕr
ϕ
z = r (cosϕ+ i sinϕ) donde r es la longitud del vector−→0z en el
plano complejo yϕ es el angulo que forma dicho vector con el eje realde este plano (vease la figura). Al numero r se le llama modulo delnumero complejo y es comun que se denote por kzk. Al anguloϕ se lellama argumento del numero complejo. La forma polar hace muchomas facil calcular el producto y las potencias de numeros complejos.
Para hallar el producto de dos numeros complejos hayque multiplicar sus modulos y sumar sus argumentos.
Prueba. Sean r (cosϕ+ i sinϕ) y ρ (cosψ+ i sinψ) dos complejos. Tenemosr (cosϕ+ i sinϕ)ρ (cosψ+ i sinψ) =rρ ((cosψ cosϕ− sinψ sinϕ) + (cosψ sinϕ+ cosϕ sinψ) i) =rρ (cos (ϕ+ψ) + i sin (ϕ+ψ))
que es lo que se necesitaba probar.
Aplicando este resultado al caso de la potencia de numeroszn = rn (cosnϕ+ i sinnϕ) complejos obtenemos la igualdad mostrada en el recuadro ala izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una de sus consecuencias mas importantes es el siguiente resultado.
Los polinomios zn − a tienen exactamente n raices complejas.
Prueba. Sea a = rn (cosnϕ+ i sinnϕ). Para k ∈ 0, 1, ..., n− 1 denotemos xk el numero complejo con modulo n
√r y argumento (ϕ+ 2kπ) /n. Por la Igualdad de Moivre tenemos
xnk =¡n√r¢n µ
cosnϕ+ 2kπ
n+ i sinn
ϕ+ 2kπ
n
¶= r (cosϕ+ i sinϕ) = a
que es lo que se necesitaba probar.
Abraham de Moivre (Francia 16671754). Uno de los fundadores de laGeometrıa Analıtica y de la Teorıa de las Probabilidades. A pesar de suexelencia cientıfica, nunca tuvo la oportunidad de tener un puesto en algunauniversidad. Sus ingresos provenıan de dar clases privadas de Matematicasy murio en la pobreza. Moivre tambien es famoso por haber predicho el dıade su muerte. Descubrio que dormıa 15 minutos mas cada noche y sumando la progresion aritmetica calculo que morirıa en el dıa que dormirıa 24horas. ¡Tuvo razon!
29Seccion 1.8 Polinomios complejos. Teorema de Gauss
Ejercicio 31 Pruebe que el conjunto de raices complejas del polinomio zn − 1 es un grupopara el producto. ¿Que grupo es este? [177]
Continuidad
Una funcion f : C→ C es continua en el punto z0 si para todo real positivo ε existe otroreal positivo δ tal que se cumple que (kz− z0k < δ)⇒ (kf (z)− f (z0)k < ε). Una funcioncontinua en todo punto del plano complejo se le llama continua.
La funcion modulo z 7→ kzk es continua.
Prueba. Veamos la desigualdad kz− z0k ≥ kkzk− kz0kk. Esta desigualdad es equivalentea la siguiente: “En un triangulo el valor absoluto de la diferencia de dos de sus lados siemprees menor o igual que el tercero”. La prueba de esta la dejaremos en calidad de ejercicio.Por esta desigualdad, tenemos que ∀ε > 0 ∃δ = ε tal que si kz− z0k < δ entonces,kkzk− kz0kk ≤ kz− z0k < ε y esto prueba nuestra tesis.
Ejercicio 32 Pruebe que en un triangulo el valor absoluto de la diferencia las longitudes dedos de sus lados siempre es menor o igual que la longitud del tercero. [177]
La suma y el producto de funciones continuasen un punto z0 son continuas en el punto z0.
Prueba. Sean f y g funciones continuas en z0. Con el objetivo de ahorrar espacio denotemosfz = f (z), f0 = f (z0), gz = g (z) y g0 = g (z0). Para todo ε > 0 existen δ1 y δ2 tales que
(kz− z0k < δ1)⇒ (kfz − f0k < ε)(kz− z0k < δ2)⇒ (kgz − g0k < ε)
y en particular para el mınimo (que llamaremos δ) de δ1 y δ2 se cumplen las dos desigualdades a la derecha. Sumando y aplicando la desigualdad del triangulo obtenemos:θ = 2ε > kfz − f0k+ kgz − g0k ≥ kfz − f0 + gz − g0k = k(f+ g) (z)− (f+ g) (z0)k
Luego, para todo θ > 0 existe δ tal que (|z− z0 | < δ) ⇒ |(f+ g) (z)− (f+ g) (z0)| < θ
con lo que se prueba que la suma de continuas es continua.Por otro lado, por la desigualdad del triangulo y 1.23 tenemos
k(fg) (z)− (fg) (z0)k = kfzgz − f0g0k =k(fz − f0) (gz − g0) + (fz − f0)g0 + (gz − g0) f0k ≤
kfz − f0k kgz − g0k+ kfz − f0k kg0k+ kgz − g0k kf0k << ε2 + ε |g0 |+ ε |f0 | < (1+ |g0 |+ |f0 |) ε = cε = θ
donde la ultima desigualdad se da para ε < 1. Como c es una constante que no depende de z
30 Capıtulo 1. Campos
obtenemos que para todo θ > 0 existe δ tal que (|z− z0 | < δ)⇒ |(fg) (z)− (fg) (z0)| < θ
lo que prueba que el producto de continuas es continua.
Para cualquier polinomio complejo p la funcionde evaluacion C 3 z 7→ p (z) ∈ C es continua.
Prueba. La funcion de evaluacion de un polinomio se obtiene usando sumas y productosde funciones constantes y la funcion identidad f (z) = z. Estas funciones son continuas y de1.26 obtenemos la prueba.
Sea g una funcion continua en el punto z0 y f una funcion continua en elpunto g (z0) entonces, la composicion f g es continua en el punto z0.
Prueba. Por la continuidad de f en g (z0) tenemos que ∀ε > 0 ∃δ (kz− g (z0)k < δ) ⇒kf (z)− f (g (z0))k < ε. Por otro lado, de la continuidad de g en z0 sabemos que ∀δ > 0 ∃δ0(ky− z0k < δ0) ⇒ kg (y)− g (z0)k < δ. Componiendo estas dos propiedades obtenemos∀ε > 0 ∃δ0 (ky− z0k < δ0)⇒ kf (g (y))− f (g (z0))k < ε que es lo que necesitabamos.
El modulo de un polinomio es una funcion continua.
Prueba. Por 1.28 y porque los polinomios y el modulo son funciones continuas.
Lımite de sucesiones complejas
Una sucesion de numeros complejos zj = aj + bji tiene lımite z = a + bi si lassucesiones reales aj y bj tienen lımites a a y b respectivamente. Esto es equivalente aque los modulos y los argumentos de la sucesion converjan al modulo y al argumento dellımite. Tambien, esto es equivalente a que ∀ε > 0 ∃N tal que ∀k > N kzk − zk < ε. Unasucesion es convergente si esta tiene lımite. Por una propiedad analoga para las sucesionesreales se tiene que toda subsucesion de una sucesion convergente es convergente y convergeal mismo lımite. Una sucesion zj = aj + bji es acotada si ambas sucesiones aj y bjson acotadas. Esto es equivalente a que la sucesion real kzjk sea acotada. Es claro queuna sucesion no acotada no puede tener lımite. Tambien, que toda sucesion acotada tieneuna subsucesion convergente pues esta misma propiedad se cumple para sucesiones reales.Expongamos otras dos propiedades que son un poco mas difıciles de probar.
Sea f una funcion continua en z0 y zk una sucesion de numeroscomplejos que converge a z0. Entonces, lım f (zk) = f (lım zk).
31Seccion 1.8 Polinomios complejos. Teorema de Gauss
Prueba. Como f es continua en z0, por definicion tenemos que ∀ε > 0 ∃δ (kz− z0k < δ)⇒(kf (z)− f (z0)k < ε). Supongamos que lım zk = z0 entonces, ∀δ > 0 ∃N (k > N) ⇒(kzk − z0k < δ) .De transitividad de la implicacion obtenemos que ∀ε > 0 ∃N (k > N)⇒kf (zk)− f (z0)k < ε y esto quiere decir que lım f (zk) = f (z0).
Si zk es no acotada y p es un polinomio de grado almenos 1 entonces, la sucesion kp (zk)k es no acotada.
Prueba. Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular, tenemos
kp (z)k ≥nXi=0
°°aizi°° = nXi=0
kaik kzki = kank kzkn +n−1Xi=0
kaik kzki ≥ kank kzkn
Como zk no es acotada, tampoco lo son kank kzkkn y kp (zk)k.
Teorema de Gauss
Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un resultadopreliminar que hace la mayorıa del trabajo.
Sea p un polinomio complejo de grado al menos 1. Si z0 no esuna raız de p entonces, existe z ∈ C tal que kp (z)k < kp (z0)k.
Prueba. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0. Tenemos
p (z) =
nXj=0
αj (z− z0)j= p (z0) +
nXj=1
αj (z− z0)j
ya que α0 = p (z0) . Sea αk el primero de los αj | j > 0 diferente de cero y escojamosz = z0 + tθ donde θ es una (veease 1.24) de las raices de la ecuacion xk + p (z0) /αk = 0 yt es un real tal que 0 < t < 1 que definiremos despues. Por la definicion de θ, z y k tenemos
p (z)− p (z0) = αkθktk +
nXj=k+1
αjθjtj = −p (z0) t
k +
nXj=k+1
αjθjtj
y por lo tanto, de la desigualdad del triangulo obtenemos:
kp (z)k ≤¡1− tk
¢kp (z0)k+
nXj=k+1
°°αjθj°° tj = kp (z0)k+ tkq (t)donde q (t) denota el polinomio (con coeficientes re
− kp (z0)k+nX
j=k+1
°°αjθj°° tj−kales) del recuadro a la derecha. Observemos que se cumple la desigualdad q (0) = − kp (z0)k < 0.
Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente pequeno talque q (t0) < 0. Luego, kp (z0 + t0θ)k ≤ kp (z0)k+ tk0q (t0) < kp (z0)k.
32 Capıtulo 1. Campos
Ejercicio 33 ¿Donde se usa en la demostracion anterior que t < 1? [177]
Teorema de Gauss
Todo polinomio de grado mayor quecero tiene al menos una raız compleja.
Prueba. Sea p un polinomio. Denotemos A = kp (z)k : z ∈ C. El conjunto A es unconjunto de reales acotado inferiormente pues kp (z)k ≥ 0. Luego (por un teorema clasicode analisis matematico), A tiene un ınfimo que denotaremos por µ.
Demostremos que µ es el mınimo o sea, que µ ∈ A. Como µ es ınfimo hay una sucesionaj de elementos de A que converge a µ y por lo tanto hay una sucesion de complejoszj tales que lım kp (zj)k = µ. Si la sucesion zj no estuviera acotada entonces, por 1.31 lasucesion kp (zj)k tampoco lo serıa lo que contradice que esta sucesion converge a µ. Luego,zj es acotada y podemos escoger una subsucesion convergente que podemos suponer lamisma. Denotemos y = lım zj. Como el modulo de un polinomio es una funcion continuaentonces, por 1.30 tenemos µ = lım kp (zj)k = kp (lım zj)k = kp (y)k. Luego, µ ∈ A.
Si µ 6= 0 entonces, por 1.32 existirıa un y0 tal que kp (y0)k < kp (y)k = µ lo quecontradice que µ es el mınimo de A. Luego, kp (y)k = 0 y por lo tanto p tiene una raız.
1.9 Factorizacion de polinomios complejos y reales
En esta seccion utilizaremos el teorema de Gauss para averiguar cuales son todos lospolinomios irreducibles con coeficientes complejos y los polinomios irreducibles con coeficientes reales. Esto nos dara la posibilidad de encontrar la descomposicion en factores (unicasalvo orden de los factores) de los polinomios complejos y reales.
Caso Complejo
Clasificacion de los polinomios complejos irreducibles
Los polinomios complejos irreducibles sonexactamente los monicos de grado uno.
Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno.Por el Teorema de Gauss (1.33) este polinomio tiene una raız α. Por 1.17 el polinomio sedivide entre (x− α) y esto contradice que el polinomio es irreducible.
33Seccion 1.9 Factorizacion de polinomios complejos y reales
Este resultado nos da la posibilidad de factorizar completamente los
ankQj=1
(x− αj)nj polinomios complejos. Por el Teorema de Factorizacion de Polinomios
(1.21) cada polinomio complejo p (x) se tiene que descomponer comoen el recuadro a la izquierda. En esta formula, an es el coeficiente prin
cipal del polinomio. Los complejos αj son las diferentes raices de p (x). El natural nj es lamultiplicidad de la raız αj y n =
Pni es el grado de p (x). Nuevamente, por el Teorema de
Factorizacion de Polinomios (1.21) esta descomposicion es unica salvo orden de los factores.
Caso real
Recordemos que si a + bi es un numero complejo entonces1. z ∈ R⇒ z = z2. z+ u = z+ u
3. zu = zu
su complejo conjugado es a − bi. Denotaremos por z el complejo conjugado del numero complejo z. Es facil comprobar que laoperacion de conjugacion cumple las propiedades del recuadro a laderecha.
Ejercicio 34 Demuestre estas propiedades de la conjugacion compleja. [177]
Sea p un polinomio con coeficientes reales y α una raızcompleja de p. Entonces α es tambien una raız de p.
Prueba. Como α es raız de p =Paix
i y por las propiedades de la conjugacion tenemos
0 = 0 =X
aiαi =X
aiαi =
Xaiα
i
que es lo que se querıa probar.
Clasificacion de los polinomios reales irreducibles
Si p es un polinomio real irreducible entonces p es de laforma x − α o es de la forma (x− a)2 + b2 con b 6= 0.
Prueba. Si p es de grado 1 entonces necesariamente es igual a x − α para cierto numeroreal α. Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor x − α paracierto α complejo. Si α fuera real esto contradecirıa que p es irreducible. Luego, α = a+bicon b 6= 0. Por la proposicion anterior a− bi tambien es una raız de p por lo que
p (x) = (x− (a+ bi)) (x− (a− bi)) = (x− a)2+ b2
Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una raız complejaα. Si α fuera real entonces x − α serıa un factor de p. Si α = a + bi con b 6= 0 entonces(x− a)
2+ b2 serıa un factor de p. En ambos casos se contradice la suposicion de que p es
irreducible.
Ahora, ya podemos descomponer completamente en factores los polinomios con coefi
34 Capıtulo 1. Campos
cientes reales. Cada polinomio real p (x) se tiene que expresar como:
p (x) = an
kYj=1
(x− αj)nj
kY`=1
³(x− a`)
2+ b2`
´m`
En esta formula, an es el coeficiente principal del polinomio. Los numeros reales αj son lasdiferentes raices reales de p (x). El numero natural nj es la multiplicidad de la raız αj. Losnumeros complejos (a` + b`i) y (a` − b`i) son las diferentes raices complejas de p (x). Elnumero natural m` es la multiplicidad de la raız compleja (a` + b`i). Obviamente, n =Pni + 2
Pm` es el grado de p (x). Nuevamente, por el Teorema de Factorizacion de
Polinomios (1.21) esta descomposicion es unica salvo orden de los factores.La diferencia fundamental entre los numeros reales y los numeros complejos se expresa
de manera muy evidente en los resultados de esta seccion. Esta diferencia hara que posteriormente nos sea mucho mas facil clasificar los operadores lineales en un espacio vectorialcomplejo que en un espacio vectorial real. En general, todo es mas facil para los campos quecumplen el Teorema de Gauss o sea, los campos algebraicamente cerrados.
1.10 Campos de fracciones. Funciones racionales
Sea (A,+, ·) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 elneutro multiplicativo respectivamente . Queremos construir un campo que contenga a A.Esta es una situacion analoga a cuando construimos el campo de los racionales Q para quecontenga al anillo conmutativo Z . ¿Funcionara esta misma construccion en el caso general?Investiguemos para lograr una respuesta.
Campos de fracciones
Lo primero es definir las fracciones. Consideremos conjun ³ab=c
d
´⇔ (ad = bc)to de todas las fracciones a/b donde a ∈ A y b ∈ A\ 0. Dosfracciones las consideraremos iguales si se cumple la igualdaden el recuadro a la derecha.
Ejercicio 35 Pruebe que la igualdad de fracciones es una relacion de equivalencia. [178]
Ahora, necesitamos definir las operaciones entre fracciones. Primero el proa
b
c
d=ac
bdducto porque es el mas facil. Definamos el producto por la formula en el recuadro a la izquierda. Nos tenemos que convencer primero de que esta defi
nicion es correcta. O sea que si las fracciones son iguales sus productos son iguales. Masprecisamente, necesitamos ver que se cumple lo siguiente:µ
a
b=a0
b0yc
d=c0
d0
¶⇒ µac
bd=a0c0
b0d0
¶
35Seccion 1.10 Campos de fracciones. Funciones racionales
y efectivamente de las hipotesis de esta implicacion tenemos ab0 = a0b , cd0 = c0d ymultiplicando estas dos igualdades obtenemos acb0d0 = a0c0bd, lo que es equivalente a latesis de la implicacion.
Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen en los“numeradores” y en los “denominadores”. La fraccion 1/1 es neutro para el producto y cualquier fraccion a/b donde a 6= 0 tiene inverso multiplicativo b/a ya que ab/ba = 1/1 porla conmutatividad del producto en A. Todo esto significa que el conjunto de fracciones connumerador distinto de cero forman un grupo conmutativo.
Definamos ahora la suma de fracciones por la formula en el re a
b+c
d=ad+ cb
bdcuadro a la derecha. Para convencernos que la definicion es correctatenemos que probar que las sumas de fracciones iguales son iguales.O sea que: µ
a
b=a0
b0yc
d=c0
d0
¶⇒ µad+ cb
bd=a0d0 + c0b0
b0d0
¶y efectivamente haciendo algunos calculos inteligentes obtenemosµ
ab0 = a0b
cd0 = c0d
¶⇒ µ0 = (ab0 − a0b)dd0 =
= (c0d− cd0)bb0 = 0
¶⇒ µ(ad+ cb)b0d0 =
= (a0d0 + c0b0)bd
¶que era lo que se necesitaba probar.
La comprobacion de que esta suma es conmutativa es obvia. La asociatividad se comprueba calculando que a
b+c
d+u
v=adv+ cbv+ ubd
bdvindependientemente del orden en que se haga la suma. La fraccion 0/1 es neutro para lasuma y cualquier fraccion a/b tiene opuesto −a/b (para esto ultimo es necesario observarque 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones es un grupoabeliano respecto a la suma.
Solo nos falta la distributividad para comprobar que las fracciones con las operacionesdefinidas forman un campo y esto se comprueba con los siguientes calculos:
u
v
³ab+c
d
´=uad+ ucb
vbd=uad
vbd+ucb
vbd=ua
vb+uc
vd=u
v
a
b+u
v
c
d.
Por ultimo observemos que si identificamos al elemento a ∈ A con la fraccion a/1 podemospensar que el anillo A es un subconjunto de las fracciones ya que que la suma y el productode estas fracciones coinciden con la suma y el producto dentro de A.
Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afirmar queesto que hemos demostrado sirve para cualquier anillo conmutativo. El lector deberıa analizar cuidadosamente cada igualdad en los razonamientos anteriores para convencerse de quetodas ellas se desprenden de los axiomas de anillo conmutativo y de las definiciones de lasoperaciones entre fracciones. Al conjunto de todas las fracciones con las operaciones ası definidas se le llama el campo de fracciones del anillo conmutativo A.
MENTIRA, no hay tal campo de fracciones para cualquier anillo conmutativo.¿Puede usted encontrar el error? Si cree que puede regrese arriba y busquelo,si no, siga leyendo.
36 Capıtulo 1. Campos
El problema es el siguiente. Al definir el producto (a/b) (c/d) = (ac/bd) con b y ddistintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Esto no escierto en cualquier anillo conmutativo, por ejemplo en Z6 tenemos 2× 3 = 0. Si en el anillohay tales elementos no podemos definir adecuadamente el producto de fracciones (tampocola suma). Ya vimos, que si un anillo conmutativo es tal que para cualesquiera b y d distintosde cero se tiene que bd es distinto de cero entonces, se dice que este anillo es un dominio deintegridad. Ahora si, todo dominio de integridad tiene su campo de fracciones. El ejemploevidente de dominio de integridad es Z. Su campo de fracciones es Q.
Funciones racionales
El ejemplo por el cual hemos escrito esta seccion es el siguiente:
Todo anillo de polinomios con coeficientesen un campo es un dominio de integridad.
Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero es diferente de cero (recuerdese que un polinomio es cero cuando todos sus coeficientes son cero).
Sean p (x) =Pn
i=0 aixi y q (x) =
Pm
i=0 bixi dos polinomios cualesquiera de grados n
ym respectivamente. Denotemos p (x)q (x) =Pn+m
i=0 cixi. Por la formula del producto de
polinomios, tenemos cn+m = anbm . Como an 6= 0, bm 6= 0 y todo campo es dominio deintegridad obtenemos cn+m 6= 0 y por lo tanto p (x)q (x) 6= 0.
Observese que en la demostracion no se uso el hecho de que en el campo K hay inversos multiplicativos. Eso quiere decir que de hecho, hemos demostrado algo mucho mas fuerte: Los anillos depolinomios con coeficientes en un dominio de integridad son dominios de integridad.
Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo defracciones que se denota porK (x) .Notese la diferencia entreK [x] yK (x). A los elementosde K (x) se les llama funciones racionales (en la variable x). Las funciones racionales sonfraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a lasque todos estamos acostumbrados.
Ejercicio 36 ¿Conoce usted un campo infinito de caracterıstica 2? [178]Ejercicio 37 ¿Que pasa si construimos el campo de fracciones de un campo? [178]
1.11 Anillos con division
Si en los axiomas de campo eliminamos la condicion de que el producto es conmutativoobtenemos el concepto de anillo con division (tambien se le llama cuerpo).
37Seccion 1.11 Anillos con division
O sea, un anillo con division es un conjunto DAD1) (D,+) es un grupo abelianoAD2) (D\0, •) es un grupoAD3) • es distributivo con respecto a +
con una suma y un producto tal que se cumplenlos axiomas del recuadro a la izquierda. En particular, todo campo es anillo con division.
Ejercicio 38 Pruebe que si (D,+, •) es tal que (D,+) es un grupo, (D\ 0 , •) es un grupoy el producto es distributivo respecto a la suma entonces, la suma es conmutativa. En otraspalabras en los axiomas de anillo con division la conmutatividad de la suma es consecuenciadel resto de los axiomas. [178]
Quaterniones
No es muy facil construir anillos con division que no sean campos. Para esto, supongamos que en lugar de un solo numero imaginario i tenemos tres diferentes imaginarios i,j y k que cumplen que i2 = j2 = k2 = −1. Un quaternion es un numero de la formaa + bi + cj + dk donde a, b, c, d son numeros reales. El lector debe observar la analogıacon los numeros complejos. Podemos sumar quaterniones por coordenadas
(a+ bi+ cj+ dk) + (a0 + b0i+ c0j+ d0k)
= ((a+ a0) + (b+ b0) i+ (c+ c0) j+ (d+ d0)k)
y es facil comprobar que el conjunto de todos los quaterniones H es un grupo abelianorespecto a la suma.
Para poder mutiplicar quaterniones postulamos que si a es un real y x es un imaginarioentonces ax = xa. Tambien postulamos que si x y y son dos imaginarios distintos entoncesxy = −yx. Esto nos dice que nuestra multiplicacion de quaterniones no es conmutativa.
Ahora, si a+bi+cj+dk y a0+b0i+c0j+d0k son dos quaterniones arbitrarios entonces losmultiplicamos como si fueran polinomios en las variables no conmutativas i, j, k y usandolos postulados obtenemos que su producto es igual a
aa0 − bb0 − cc0 − dd0+
+(ab0 + ba0) i+ (ac0 + ca0) j+ (da0 + ad0)k+
+(bc0 − cb0) ij+ (cd0 − dc0) jk+ (db0 − bd0)ki.
Para poder concluir la definicion de la multiplicaciona00 = aa0 − bb0 − cc0 − dd0
b00 = ab0 + ba0 + cd0 − dc0
c00 = ac0 + ca0 + db0 − bd0
d00 = da0 + ad0 + bc0 − cb0
de quaterniones postulamos que ij = k, jk = i y ki = j.Ası definitivamente, obtenemos que el producto de nuestros quaterniones es (a00 + b00i+ c00j+ d00k) donde los coeficientes a00, b00, c00 y d00 son los definidos en el recuadroa la derecha. O sea, el producto de quaterniones es un quaternion. No es difıcil (pero simuy laborioso) probar directamente de la definicion que este producto es asociativo tieneelemento neutro 1 = 1+ 0i+ 0j+ 0k y que es distributivo respecto a la suma.
38 Capıtulo 1. Campos
Para comprobar la existencia de inversos multiplicativos definimos para un quaternion nonulo x = a+bi+cj+dk su quaternion conjugado x = a−bi−cj−dk. De la definicionde producto de quaterniones tenemos que xx = xx = a2 + b2 + c2 + d2 es un numero realque tiene inverso multiplicativo. De esto se deduce que x (xx)−1 es el inverso multiplicativode x. En resumen, el conjunto de los quaterniones H son un anillo con division pero no sonun campo.
Los quaterniones fueron descubiertos en 1843 por el fısico, matematico y astronomo irlandes Sir William Rowan Hamilton (1805– 1865). De aquı la notacion H para denotar el anillo de quaterniones. Los quaterniones jugaron un papel fundamental en lamatematica y la fısica del siglo XIX. Por ejemplo, James ClerkMaxwell uso los quaterniones para desarrollar sus equaciones delelectromagnetismo. En la actualidad son importantes por ejemplo,para las aplicaciones en las cuales se requiere describir en formaeficiente rotaciones espaciales (robotica, control de naves espaciales, graficos por computadoras, etc.).
Ejercicio 39 Muestre que la tabla de multiplicar de los imaginarios i, j, k es consecuenciade las igualdades de Hamilton i2 = j2 = k2 = ijk = −1. [178]Ejercicio 40 Muestre que los quaterniones que son raices cuadradas de −1 forman naturalmente una esfera en R3. Mas precisamente (a+ bi+ cj+ dk)2 = −1 si y solo si se cumpleque b2 + c2 + d2 = 1. [178]Ejercicio 41 Constraste 1.18 con el hecho de que hay un infinito numero de quaternionesque son raices de −1 (ejercicio 40). ¿Que falla en la prueba de 1.18 para el caso de losquaterniones?
Caso finito
Los quaterniones son un anillo con division infinito y es natural preguntarse si se puedenconstruir anillos con division finitos que no sean campos. El siguiente teorema responde estapregunta en forma negativa.
Teorema de Wedderburn
Todo anillo con division finito es un campo.
La prueba de este teorema involucra un analisis del grupo multiplicativo del anillo y usatecnicas de teorıa de grupos que se salen fuera de los objetivos de este libro.
Espacios VectorialesEspacios VectorialesCapítulo segundoCapítulo segundo
ste es el objeto central del algebra lineal. Motivaremos la introduccion de este concepto en el ejemplo geometrico del plano cartesiano. Daremos las definicion de espaciovectorial complementandola con los ejemplos mas fundamentales. Profundizaremos
en la estructura de estos estudiando sus subespacios, sus bases, su dimension etc. lo que nosllevara a entender todos los espacios vectoriales (al menos los de dimension finita). Finalizaremos este capıtulo con el estudio de las operaciones entre subespacios y subespacios afineslo que nos llevara a entender los espacios cocientes.
2.1 El plano cartesiano
Hubo algun tiempo, en que el algebra y la geometrıa eran dos cosas to
y
py
px
p
x
talmente aparte. Los algebristas trabajaban con numeros, polinomios,raices, formulas, etc. y los geometras con puntos, lineas, polıgonos,etc. Rene Descartes (Francia 15961650) fue el que tuvo la brillanteidea de introducir los ejes de coordenadas. Tomamos dos rectas perpendiculares, a la horizontal se le llama “ejede las equis” y a la vertical se le llama “ejede las yes”. Para cada punto del plano p tra
zamos la perpendicular al eje x y al eje y y de esta manera obtenemos los puntos px en el eje x y py en el eje y. Por cuanto, el ejede las x lo podemos identificar (escogiendo una unidad de medida)con R donde el cero es el origen de coordenadas (la interseccionde los dos ejes) por tanto, px es simplemente un numero real. De lamisma manera py es otro numero real. Ası, a cada punto del planop se le hace corresponder biunıvocamente una pareja de numerosreales (px, py). Ademas, es conveniente representar cada punto del plano como el segmentodirigido desde el origen de coordenadas hasta el punto o sea como vectores. A los elementosde R (para diferenciarlos de los vectores) los llamaremos escalares.
Desde ahora denotaremos los vectores por letras latinas en negritas. A diferencia de estos, los escalares se denotaran por letras latinas y griegas normales.
40 Capıtulo 2. Espacios vectoriales
Si a = (ax, ay) y b = (bx, by) son dos vectores la suma de los mismosy
aa+ b
b
x
se define comoa+ b = (ax + bx, ay + by) . La suma, geometricamente no es nada mas que la diagonal del paralelogramo generado por a yb . Del hecho que (R,+) es un grupo abeliano se desprende facilmenteque nuestro plano cartesiano R2 es tambien un grupo con respecto a lasuma de vectores.
Si a = (ax, ay) es un vector y α un escalar el producto αa se define y
a
2a
x
como (αax,αay) . Geometricamente este producto es aumentar (o reducir)en un factor α el vector a. Si el factor es negativo entonces el resultadoapunta en la direccion opuesta. Si el factor es cero entonces el vector sedegenera al origen de coordenadas.
El producto por escalares es distributivo con respecto a la sumaα (a+ b) = αa+αb
(α+ β)a =αa+βade vectores y tambien con respecto a la suma de escalares o sease cumplen las igualdades en el recuadro. Estas dos leyes distributivas (¡son diferentes!) se cumplen porque son ciertas en cada
coordenada. Ademas, obviamente tenemos que α (βa) = (αβ)a. Todo esto nos dice que elplano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.
Ejercicio 42 Demuestre geometricamente que la diagonal del paralelogramo generado pora y b tiene coordenadas (ax + bx, ay + by). [178]
Ejercicio 43 ¿Es la multiplicacion de un escalar por un vector una operacion binaria? [178]Ejercicio 44 ¿Cuantas diferentes operaciones hay en α (βa) y (αβ)a? [179]Ejercicio 45 ¿Que es la resta de dos vectores? ¿Cual es su interpretacion geometrica?
2.2 Definicion y ejemplos
La primera definicion de espacio vectorial la dio Giuseppe Peano (Italia,
E1) α (a+ b) = αa+αb
(α+ β)a =αa+βa
E2) α (βa) = (αβ)aE3) 1a = a
1858 1932), en su libro “Calculo Geometrico” publicado en 1888. Peano es mas conocido por su axiomatica de los numeros naturales, o por la“Curva de Peano” que es una inmersion continua sobreyectiva del intervalo en el cuadrado.
Sea K un campo cuyos elementos los llamaremos escalares y (E,+)un grupo abeliano cuyos elementos los llamaremos vectores. Diremosque es un espacio vectorial sobre K
si esta definida una operacion de producto de escalarespor vectores K×E→ E que cumple las propiedades E1E3. A los axiomas E1 y E2 se les llama distributividady asociatividad respectivamente del producto por escalares. El 1 que aparece en el axioma E3 es el 1 del campo.
41Seccion 2.2 Definicion y ejemplos
Como (E,+) es un grupo abeliano entonces, tiene que tener un vector neutro que denotaremos por 0. El opuesto del vector a se denota por −a. Por otro lado el campo de escalarestiene un neutro para la suma: el 0, un neutro para el producto: el 1, opuestos para la suma −αe inversos multiplicativos α−1. Las relaciones que cumplen estos con respecto al productopor escalares nos las da el siguiente resultado basico.
En todo espacio vectorial para cualquier vector a y cualquierescalar α se cumple que 0a = 0, (−1)a = −a y α0 = 0.
Prueba. La demostracion se realiza mediante las siguentes tres cadenas de igualdades
0aE3= 0a+ 1a− a
E1= (0+ 1)a− a = a− a = 0
(−1)aE3= (−1)a+ 1a− a
E1= (−1+ 1)a− a = 0a− a = −a
α0E3= α0+ 1 · 0 E1
= α¡0+ α−10
¢= α
¡α−10
¢ E2= 1 · 0 E3
= 0
donde signos “=” estan marcados con los axiomas por los que son validos.
Ejercicio 46 Demuestre que αa = 0⇒ α = 0 o a = 0. [179]Ejercicio 47 ¿Cual es el mınimo numero de elementos que puede tener un espacio vectorial? [179]
Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que el lectorno se pierda en la cantidad de “ejemplos” que sigue. La mayorıa de ellos son fundamentalespara entender este libro. En particular, introduciremos notaciones basicas que seran usadasconstantemente.
El espacio de nadas Kn
Consideremos el producto cartesiano den copias del Kn = (a1, a2, ..., an) | ai ∈ KcampoK. Este producto se denota porKn y esta formado por todas las nadas (a1, a2, ..., an). Al escalar ai se le llama la iesima coordenada dela nada (a1, a2, ..., an). Luego, una nada tiene n coordenadas.
Los vectores seran las nadas, los escalares seran los elementos(a1, ..., an)
+ (b1, ..., bn)
(a1 + b1, ..., an + bn)
deK. EnKn se introduce facilmente la suma por coordenadas como se muestra en el recuadro a la izquierda. Del hecho de que laspropiedades necesarias se cumplen en cada coordenada se desprende que (Kn,+) es un grupo abeliano.
La multiplicacion por escalares tambien se introduce por coor(a1, ..., an)
× α
(αa1,αa2, ...,αan)
denadas. El axioma E1 se reduce en cada coordenada a la distributividad del producto respecto a la suma en el campo K. El axiomaE2 a la asociatividad del producto en K. Finalmente, el axioma E3se reduce en cada coordenada a que 1 es el neutro para el productoen el campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.
42 Capıtulo 2. Espacios vectoriales
El espacio de polinomios K [x]
Podemos sumar polinomios, esta suma se hace coefi
K [x] =
±nXi=0
aixi |ai ∈ Kn ∈ N
²ciente por coeficiente. Tambien sabemos multiplicar unelemento de K por un polinomio. Es muy conocido quetodos los axiomas de espacio vectorial se cumplen. Encierto sentido este espacio vectorial es parecido al anterior. Podemos asociar a cada polinomio
Pn
i=0 aixi la (n+ 1)ada (a0, a1, , ..., an) y la multiplicacion por escalar es la misma
que en Kn+1. Para la suma podemos tener un problema si son de grados diferentes pero estose resuelve agregando suficientes ceros o sea si
Pm
i=0 bixi es otro polinomio con n > m
entonces podemos asociarle la nada (b0, b1, ..., bn, 0, ..., 0) con suficientes ceros para completar las n coordenadas y entonces la suma es la misma que en Kn+1. Aunque sepamosmultiplicar polinomios, esto no tiene ningun papel en el concepto de espacio vectorial.
El espacio de sucesiones KN
Dos sucesiones se suman por coordenadas como se muestra(a1, a2, ..., an, ...)
+ (b1, b2, ..., bn, ...)
(a1 + b1, , ..., an + bn, ....)
en el recuadro. La mutiplicacion un escalar es tambien porcoordenadas. Los axiomas de espacio vectorial se comprueban facilmente. El lector debe observar que los elementosde la sucesion pueden estar en un campo arbitrario y no ne
cesariamente en R como estamos acostumbrados. La nocion de convergencia de sucesionesno tiene nada que ver con el concepto de espacio vectorial.
El espacio de series K [[x]]
Las series se suman coeficiente por coeficiente. Para
K [[x]] =
± ∞Xi=0
aixi | ai ∈ K
²multiplicar por un escalar se multiplican todos los coeficientes por el escalar. Los axiomas de espacio vectorialse cumplen porque se cumplen para cada coeficiente. Dehecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie
P∞i=0 aix
i sedetermina unıvocamente por la sucesion (a0, a2, ..., an, ...) de sus coeficientes y no hay diferencia entre sumar series y sumar las correspondientes sucesiones. Lo mismo pasa con lamultiplicacion por un escalar. Al igual que con los polinomios, el concepto de producto deseries no juega ningun papel en el hecho de que K [[x]] sea un espacio vectorial.
El espacio de funciones KN
Hay una biyeccion natural entre lasnadas (a1, a2, ..., an) ∈ Kn y las funciones 1, ..., n 3i 7→ ai ∈ K. Igualmente las sucesiones (a0, a1, ..., an, ...) se corresponden biunıvocamente con las funciones N 3 i 7→ ai ∈ K. Ahora, generalicemos estos ejemplos. Si N es unconjunto arbitrario (no necesitamos de operacion alguna en N) entonces el conjunto de todas las funciones de N en K se denota por KN . Dadas dos funciones f, g ∈ KA la sumade ellas se define como es habitual por (f+ g) (i) = f (i) + g (i) para cualquier i ∈ N. Elproducto por un escalar se define por (λf) (i) = λf (i). Los axiomas de espacio vectorial se
43Seccion 2.2 Definicion y ejemplos
comprueban facilmente. Por ejemplo, la suma de funciones es conmutativa porque para cadai enN se cumple que f (i)+g (i) = g (i)+f (i) gracias a la conmutatividad de la suma en elcampo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particularde este ejemplo cuando N es 1, ..., n y N respectivamente. Ademas, ya observamos queK [[x]] = KN .
El espacio deNadas KN
En lo adelante una funcion en KN se denotara por αN . Mas precisamente, αNes la funcion que a cada i ∈ N le hace corresponder el escalar αi. Por ejemplo,si N = 1, . . . , n, entonces αN = (α1, . . . ,αn). La bondad de esta notacion
es que podemos pensar los elementos de KN (funciones) como si fueran nadas. Para poderseguir pensando en αN como si fuera en una nada necesitamos las palabras adecuadas. Alos elementos αN de KN los llamaremos Nadas. Al conjunto N lo llamaremos conjuntode ındices de αN y a los elementos deN los llamaremos ındices. Si i es un ındice, entoncesdiremos que αi es la iesima coordenada de αN . En estas notaciones la suma de dosNadases por coordenadas. O sea, la iesima coordenada de αN + βN es αi + βi. El producto porescalares tambien es por coordenadas. O sea, la iesima coordenada de λαN es λαi.
Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental entreuna Nada y una nada es que las coordenadas de la Nada no necesariamente estan ordenadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos notienen un orden natural. Para poder identificar una Nada de estos con una 3ada, necesitamos definir artificialmente cual es el primer vector cual es el segundo y cual es el tercero.Sin embargo, si al lector le cuesta trabajo pensar en lasNadas cuando N es un conjunto, lesugiero olvidarse de queN es un conjunto y pensar queN es un numero natural.
El espacio deNadas con soporte finito KN
Sea αN ∈ KN una Nada. El soporte αN es por definicion el conjunto de ındices i talesque αi 6= 0. Si el conjunto de ındices N es finito entonces, cualquier Nada tiene soportefinito (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el conjunto deındices es infinito entonces habraNadas con soporte infinito.
Si sumamos dos Nadas de soporte finito el resultado sera una Nada de soporte finito(porque 0 + 0 = 0). Si multiplicamos una Nada de soporte finito por un elemento delcampo el resultado sera una Nada de soporte finito (porque λ0 = 0). Los axiomas deespacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera Nadas.Al espacio deNadas con soporte finito se le denota por KN.
Como ejemplo de espacio deNadas de soporte finito veamos el siguiente. Cada polinomio
Pn
i=0 aixi determina unıvocamente una Nada aN donde ai = 0 si i > n. Esta Nada
es de soporte finito. Recıprocamente, si aN es una Nada de soporte finito entonces, necesariamente, hay un natural n tal que ai = 0 para cualquier i > n. Ası, le podemos hacercorresponder a aN el polinomio
Pn
i=0 aixi. Esta correspondencia es biunıvoca y las opera
44 Capıtulo 2. Espacios vectoriales
ciones son las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomioses el espacio de Nadas con soporte finito. En otras palabras KN = K [x].
Un caso importante es cuandoN es finito y en este caso KN = KN . O sea, cada Nadaes de soporte finito. En particular, si N = 1, . . . , n entonces KN = KN = Kn.
Subcampos
Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un elemento de L por uno de K obtenemos un elemento de K. Esto significa que tenemos unaoperacion binaria en K (la suma) y una multiplicacion por escalares L×K→ K. En estecaso, los axiomas de espacio vectorial se desprenden directamente de las definiciones decampo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy particular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante esque R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b)con coordenadas en R y la suma de complejos y el producto por un real son las mismasoperaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2.Otro ejemplo mas es que R es un espacio vectorial sobre Q. Este caso es suficientementecomplicado para que no digamos nada sobre el.
El espacio deNadas de vectores EN
Ahora, nos debemos preguntar, cual es el mınimo de condiciones que le debemos pedira las coordenadas de una Nada, para poder definir un espacio vectorial. Ya vimos que, silas coordenadas estan en un campo entonces, obtenemos un espacio vectorial. Pero esto espedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cadacoordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores.
Mas precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN
el conjunto de todas las Nadas de E. Si aN y bN son dos elementos de EN entonces, laiesima coordenada de aN + bN es ai + bi. Esto lo podemos hacer porque sabemos sumarlos elementos de E. Ahora, si λ es un elemento de K entonces, la iesima coordenada deλaN es λai. Esto lo podemos hacer porque sabemos multiplicar los escalares en K por losvectores en E. Los axiomas de espacio vectorial se demuestran facilmente debido a que secumplen en cada coordenada.
El espacio deNMmatrices KNM
Un caso particular de Nadas de vectores es cuando estos vectores sonMadas de esca
µα11 α12 α13α21 α22 α23
¶a1 = (α11,α12,α13)
a2 = (α21,α22,α23)
lares. Este espacio es¡KM
¢N. Para aclarar un poco que sucede en este caso, supongamos
queN = 1, 2 y queM = 1, 2, 3. Entonces, un elemento del espacio¡KM
¢Nes una 2ada
(a1,a2) de vectores y cada uno de ellos es una 3ada de escalares. Los dos vectores los podemos representar como en el recuadro ala izquierda y para simplificar nos quedamos con la tabla que vemos a la derecha.
45Seccion 2.2 Definicion y ejemplos
Esta tabla es un elemento del espacio de (N×M)adas KN×M , o sea, los ındices sonparejas en el producto cartesiano N ×M. Esto nos permite identificar
¡KM
¢Ncon KN×M
y como las operaciones en ambos espacios son las mismas estos espacios son en esencia elmismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades¡
KM¢N= KN×M = KM×N =
¡KN¢M
que el lector debe comparar con (ax)y = axy = ayx = (ay)x para numeros naturales a, x, y.Desde ahora, para simplificar la notacion, a una (N×M)ada cualquiera la llamaremos
NMada. Tambien, en lugar de usar la notacion α(N×M) para denotar unaNMada concreto,usaremos la notacion αNM . A una coordenada de esta NMada la denotaremos αij en lugarde usar la mas complicada α(i,j). En esta notacion, es mas comodo pensar que hay dos conjuntos de ındices (N yM) en lugar de uno solo (N×M). O sea, unaNMada es un conjuntode elementos del campo indexado por dos conjuntos de ındices. Cuando N = 1, . . . , n
y M = 1, . . . ,m entonces obtenemos una matriz con n renglones y m columnas. En elejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas.
Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jeroglıficos chinos), ladiferencia es que no hay un orden preestablecido entre los elementos de los conjuntos deındices por lo que no sabrıamos cual columna o renglon poner primero y cual despues. Comoesta diferencia no es tan importante y para no formar confusion en la terminologıa desdeahora, a las NMadas los llamaremos NMmatrices. Escribiremos KNM para denotar elespacio vectorial de todas lasNMmatrices. Como ya sabemos, en este espacio las matricesse suman por coordenadas y se multiplican por escalares tambien por coordenadas.
Sea αNM una NMmatriz. Es costumbre llamarle a las coordenadas αij de αNM entradas de la matriz. Si i ∈ N entonces laMada αiM ∈ KM es el iesimo renglon de la matrizαNM . Si j ∈ M entonces la Nada αNj ∈ KN es la jesima columna. Al conjunto N sele llama conjunto de ındices de los renglones. Analogamente, al conjunto M se le llamaconjunto de ındices de las columnas.
Si N0, M0 son subconjuntos no vacıos de N y M respectivamente entonces a la matrizαN0M0 se le llama submatriz de αNM . Si |N0| = |M0| = 1 entonces la submatriz es unaentrada. Un renglon es una submatriz donde |N0| = 1 y M0 = M o sea una submatriz deltipo αiM. Una columna es una submatriz donde |M0| = 1 y N = N0 o sea una submatrizdel tipo αNj. Una ultima observacion acerca de las matrices, es que toda esta terminologıade “columnas” y “renglones” viene de la manera usual en forma de tabla en que escribimosuna matriz concreta.
El espacio de tensores
Bueno, ¿y si tenemos mas de dos conjuntos de ındices? Pues es lo mismo. UnaNMLadaes una (N×M× L)ada. Al igual que en las matrices denotaremos por αNML a unaNMLada con tres conjuntos de ındices o sea un tensor de exponente 3. Las matrices son tensoresde exponente 2 y las Nadas son tensores de exponente 1. Los tensores de exponente 0 sonlos elementos del campo.
46 Capıtulo 2. Espacios vectoriales
Si bien podemos pensar un tensor de exponente 1, como una serie de elementos del campo uno al lado de otroy pensar los de exponente 2, como una tabla rectangular deelementos del campo, tambien podemos pensar los tensoresde exponente 3, como un conjunto de elementos del campodispuestos en un arreglo que llenan un cubo en el espacio.Para cada i ∈ N tenemos que αiML es un tensor de exponente 2 o sea una matriz. Todo αNML nos lo podemos imaginarcomo muchas matrices puestas una encima de la otra.
Sin embargo cuando el exponente del tensor es grande ya nuestra imaginacion no dapara visualizar geometricamente un arreglo de los elementos del campo dispuestos en uncubo de dimension grande. Es mucho mas util el manejo algebraico de estos, que tratarde visualizarlos. En este contexto, la terminologıa de “renglones” y “columnas” se haceinutilizable. Como es logico, los tensores con conjuntos de ındices fijos forman un espaciovectorial. La suma se hace por coordenadas y tambien la multiplicacion por un escalar.
2.3 Subespacios
Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vacıo de vectoresque es un espacio vectorial para las mismas operaciones.
Un conjunto de vectores F no vacıo es un subespacio si y solo si paracualesquiera a,b ∈ F y λ ∈ K los vectores a+ b y λa estan en F.
Prueba. Si F es un subespacio de E entonces, por definicion a+ b y λa estan en F.Recıprocamente, sea F un conjunto de vectores de E que cumple las hipotesis. Como lasuma de vectores es asociativa y conmutativa en E, tambien lo es en F. Sea a ∈ F (existe porser F no vacıo). Tenemos 0a = 0 ∈ F. Ademas ∀b ∈ F (−1)b = −b ∈ F. Con esto secomprueba que (F,+) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en Fpor ser este un subconjunto de E.
Union e interseccion de subespacios
¿Seran la interseccion (y la union) de subespacios un subespacio? La union de subespacios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano cartesiano(veremos prontamente que son subespacios) sin embargo, la union de los mismos no es unsubespacio ya que por ejemplo (0, 1)+(1, 0) = (1, 1) que no pertenece a la union de los dosejes. Por el contrario, la interseccion de subespacios si es un subespacio.
La interseccion de un conjunto de subespacios es un subespacio.
47Seccion 2.3 Subespacios
Prueba. La interseccion de subespacios nunca es vacıa porque cada subespacio contiene al0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces, a+ btambien esta en cada uno de los subespacios del conjunto. Lo mismo sucede para αa.
Combinaciones lineales
Veamos unos ejemplos importantes de subespacios. Sea a un vector
hai
ano nulo en R2. El conjunto hai = αa | α ∈ R de todos los multiplos delvectora es un subespacio deR2 ya queαa+ βa =(α+ β)a, yα (βa) =(αβ)a. Geometricamente, teniendo en cuenta la identificacion de vectorescon los puntos del plano cartesiano, podemos ver que los vectores en esteespacio son los puntos de la recta por el origen que pasa por a.
Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Consideremos elconjunto de vectores αa+ βb | α,β ∈ R. Este conjunto de vectores se denota por ha,biy es un subespacio ya que αa+βb+α0a+β0b =(α+ α0)a+(β+ β0)by λ (αa+ βb) =
λαa+λβb. Geometricamente, vemos que este conjunto contiene a la recta hai que pasa pora y a la lınea hbi que pasa por b.
EnR3 hay un solo plano que contiene estas dos rectas. ¿Sera es
pa
bha,bi
te plano el subespacio ha,bi? Pues, claro que si. Para cadapunto p de este plano dibujemos la paralela a la lınea hai quepasa por p obteniendo un punto de interseccion con la rectahbi el cual es βb para algun β ∈ R. Analogamente, dibujando la paralela a hbi obtenemos el punto αa en la recta hai yvemos que p = αa+ βb. Luego, p ∈ ha,bi.
Estos ejemplos nos motivan a la siguiente definicion. Sea N un conjunto de Xi∈N
αiivectores. Una combinacion lineal de N es cualquier vector de la forma que semuestra en el recuadro a la derecha. A los escalares αi se les llama coeficientesde la combinacion lineal.
Es posible que no se entienda esta notacion. El conjunto de ındices es el conjunto devectores N por lo que en la suma hay tantos sumandos como vectores hay en N. Ası porejemplo si N = a,b,c,d entonces una combinacion lineal de N es un vector de la formaαa+βb+ γc+δd. En otras palabras, la notacion
Pi∈N αii debe interpretarse ası: “tomese
los vectores deN, cada uno de ellos multiplıquese por un escalar y sumese los resultados”.Todo esto esta muy bien si el conjuntoN es finito. SiN es infinito tenemos un problema.
¿Que es una suma infinita de vectores? La manera de evitar este problema es que le pediremos a los coeficientes αi que todos salvo un numero finito sean cero o sea, que laNada αNcuyas coordenadas son los coeficientes de la combinacion lineal es de soporte finito. Comopodemos despreciar los sumandos iguales a cero, tenemos que una combinacion lineal essiempre una suma de un numero finito de vectores.
El conjunto de todas las combinaciones lineales deN es un subespacio.
48 Capıtulo 2. Espacios vectoriales
Prueba. SeanP
i∈N αii yP
i∈N βii dos combinaciones lineales de N entonces, de la asociatividad y conmutatividad de la suma de vectores y de la distributividad del producto porescalares obtenemos: X
i∈Nαii+
Xi∈N
βii =Xi∈N
(αi + βi) i
que es una combinacion lineal deN ya que todos los (αi + βi) salvo un numero finito tienenque ser cero. Lo mismo ocurre con γ
¡Pi∈N αii
¢=P
i∈N γαii.
Cerradura lineal
Denotaremos por hNi al conjunto de todas las combinaciones lineales deN.
Si F es un subespacio que contiene a N entonces, F contiene a hNi.
Prueba. Si F contiene a N entonces, F contiene a todos los multiplos de los vectores en Ny a todas sus sumas finitas. Luego, cualquier combinacion lineal deN esta en F.
Los siguientes tres conjuntos de vectores coinciden1. El conjunto de todas las combinaciones lineales deN.2. La interseccion de todos los subespacios que contienen aN.3. El subespacio mas pequeno que contiene aN.
Prueba. Denotemos por F1, F2 y F3 a los tres conjuntos del enunciado de la proposicion. Pordefinicion F1 = hNi. Por la proposicion 2.3 el conjunto F2 es un subespacio que contiene aN y de 2.5 obtenemos que F1 ⊆ F2. Por definicion de interseccion tenemos que F2 ⊆ F3.Por definicion, F3 esta contenido en cualquier subespacio que contiene a N y en particularF3 ⊆ F1. La prueba termina usando la transitividad de la inclusion de conjuntos.
A cualquiera de los tres conjuntos (¡son iguales!) de la proposicion anterior se le denotapor hNi y se le llama cerradura lineal deN o tambien el subespacio generado por N.
Propiedades de la cerradura lineal
La cerradura lineal cumple las siguientes propiedades:¨ N ⊆ hNi (incremento),¨ N ⊆M⇒ hNi ⊆ hMi (monotonıa),¨ hhNii = hNi (idempotencia).
Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N ⊆ M. Cualquiercombinacion lineal de N es tambien combinacion lineal de M (haciendo cero todos loscoeficientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio maspequeno que contiene a hNi. Como hNi es un subespacio entonces, hhNii = hNi.
49Seccion 2.4 Bases
En matematicas las palabras “clausura”, “cerradura” y “envoltura” son sinonimos. Poresto con el mismo exito, otros autores le llaman “clausura lineal” o “envoltura lineal” anuestro concepto de cerradura lineal. Ademas, es bueno que el lector encuentre el parecidoentre el concepto de cerradura lineal y el concepto de “cerradura” en analisis (la interseccionde todos los cerrados que contienen a un conjunto).
En general una funcion que a un conjuntoN le hace corresponder otro conjunto hNi y que cumplelas propiedades 13 se le llama operador de cerradura (clausura, envoltura). En este caso a losconjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las propiedades 13 es, en
general, equivalente a que el operador de cerradura se defina como la interseccion de todos los cerrados quecontienen al conjunto. En todas las ramas de las matematicas se encuentran operadores de cerradura.
Ejercicio 48 Demuestre que N es un subespacio si y solo si N = hNi.Ejercicio 49 Demuestre que (x ∈ hN ∪ yi \ hNi)⇒ (y ∈ hN ∪ xi). [179]
2.4 Bases
Observemos que la definicion de combinacion lineal deN deKN 3 αN 7→X
i∈Nαii ∈ E termina la funcion fN del recuadro a la izquierda que a ca
da Nada de soporte finito αN le hace corresponder el vectorPi∈N αii. Esta funcion no tiene porque que ser sobreyectiva ni inyectiva, depende del con
junto de vectores N. Por ejemplo, sea N = x,y,z donde x = (0, 0, 1), y = (0, 1, 0) yz = (0, 1, 1) son tres vectores en R3. En este caso fN (2, 2, 0) = fN (0, 0, 2) = (0, 2, 2) porlo que fN no es inyectiva. Tampoco es sobreyectiva porque (1, 0, 0) no tiene preimagen.
En esta seccion estableceremos que en todo espacio vectorial existen conjuntos N paralos cuales la funcion fN es biyectiva. Este hecho es fundamental, porque en este caso existe lafuncion inversa f−1N : E→ KN que nos permitira introducir coordenadas en cualquier espacio vectorial. Es mas, veremos que los conjuntos de vectores para los cuales fN es biyectivatienen la misma cantidad de vectores. Esto quiere decir que cada vector de E se define porun cierto numero de elementos del campo (coordenadas) y que este numero es independientedel vector a definir. Solo depende del espacio. Ası, en R2 nos hacen falta siempre dos realespara dar un vector y en R7 nos hacen falta siete.
Conjuntos generadores
Primero, lo mas facil. La imagen de la funcion fN es hNi , la cerradura de N. DiremosqueN es un conjunto generador si hNi es todo el espacio o sea, si fN es sobreyectiva.
Los generadores son un filtro
Todo sobreconjunto de un conjunto generador es generador.
50 Capıtulo 2. Espacios vectoriales
Prueba. SupongamosM ⊇ N. Por monotonıa de la cerradura lineal tenemos hNi ⊆ hMi.Si hNi es todo el espacio entonces, necesariamente hMi tambien lo es.
Conjuntos linealmente independientes
Ahora, veamos cuando fN es inyectiva. Observese que en un lenguaje mas descriptivo,un fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado.
Teorema de Caracterizacion de Conjuntos Linealmente Independientes
SeaN un conjunto de vectores. Las siguientes afirmaciones son equivalentes1. Cualquier subconjunto propio deN genera un subespacio mas pequeno
que todoN.2. Cualquier vector enN no es combinacion lineal de los restantes.3. Si dos combinaciones lineales de N son iguales entonces, todos sus
coeficientes son iguales.4. Si una combinacion lineal deN es cero entonces, todos sus coeficientes
son cero.
Prueba. (1⇔ 2) Si 1 no es cierto entonces existe a ∈ N tal que hNi = hN\ai peroentonces a ∈ hN\ai lo que contradice 2. Recıprocamente, si 2 no es cierto entonces existea ∈ N tal que a∈ hN\ai. Por incremento N\a ⊆ hN\ai y como ademas a ∈ hN\aientoncesN ⊆ hN\ai. Por monotonıa e idempotencia hNi ⊆ hN\ai lo que contradice 1.(3⇔ 4) Observese que
¡Pi∈N αii =
Pi∈N βii
¢ ⇔ ¡Pi∈N (αi − βi) i = 0
¢y ademas
(αi = βi)⇔ (αi − βi = 0). Luego, la existencia de combinaciones lineales iguales con algunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales igualesa cero con algunos coeficientes no cero.(2⇔ 4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinacion lineal de
N\a. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinacionlineal de N igual a cero con un coeficiente distinto de cero. Esto contradice 4. Recıprocamente, si no se cumple 4 entonces hay un vector a ∈ N y una combinacion lineal deN iguala cero y con αa 6= 0. Despejando a, obtenemos que a ∈ hN\ai. Esto contradice 2.
Ejercicio 50 Busque en la prueba del Teorema de Caracterizacion de Conjuntos Linealmente Independientes (2.9) donde se usan los inversos nultiplicativos. [179]
Diremos que un conjunto de vectores N es linealmente independiente si se cumplealguna (y por lo tanto todas) las afirmaciones de la proposicion anterior. Los conjuntos devectores que no son linealmente independiente se les llama linealmente dependientes.
51Seccion 2.4 Bases
A partir de ahora para no repetir constantemente frases largas a los conjuntosde vectores linealmente independientes los llamaremos conjuntos LI. Analogamente a los conjuntos de vectores linealmente dependientes los llamaremos
conjuntos LD. Estas notaciones se deben pronunciar “ele i” y “ele de”.
Los independientes son un ideal
Todo subconjunto de un conjunto LI es LI.
Prueba. Sea N ⊆M tal queM es LI. Cualquier combinacion lineal de N es combinacionlineal de M. Luego toda combinacion lineal de N igual a cero tiene todos sus coeficientesiguales a cero
Antes de pasar a la definicion de base, demostremos un pequeno resultado que usaremosrepetidamente en lo adelante.
Lema de Aumento de un Conjunto LI
SiN es independiente yN∪a es dependiente entonces a ∈ hNi.
Prueba. Si N ∪ a es LD entonces, por la caracterizacion 2.9.4 de los conjuntos LI, hayuna combinacion de N ∪ a igual a cero cuyos coeficientes no todos son igual a cero. Si elcoeficiente en a fuera igual a cero obtendrıamos una contradiccion con queN es LI. Luego,el coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi.
Bases
La relacion entre los conjuntos generadores y los conjun
Conjuntos generadores
Conjuntos LI
E
∅
tos LI la podemos ver intuitivamente en la figura a la derecha.Aquı estan representados los subconjuntos del espacio E queson generadores o que son LI. Mientras mas arriba mas grande es el subconjunto. Nuestro interes ahora se va a concentraren la franja del centro donde hay subconjuntos que a la vezson generadores y LI. La siguiente proposicion nos dice que“esta franja no puede ser muy ancha”.
Teorema de Caracterizacion de Bases
SeaN un conjunto de vectores. Las siguientes afirmaciones son equivalentes1. N es generador yN es LI,2. N es LI y cualquier sobreconjunto propio deN es LD,3. N es generador y cualquier subconjunto propio deN no es generador.
Prueba. (1⇒ 2) Sea N independiente y generador. Sea a /∈ N. Como N es generador
52 Capıtulo 2. Espacios vectoriales
a ∈ hNi . De la caracterizacion 2.9.2 de los conjuntos LI se sigue que N ∪ a es LD. Luegotodo sobreconjunto propio deN es LD.(2⇒ 3) Sea N independiente maximal. Por incremento N ⊆ hNi. Si a /∈ N entonces
N∪a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a ∈ hNi . Luego,N es generador. Si algun subconjunto propio deN fuera generador entonces existirıa a ∈ Ntal que a ∈ hN\ai y por la caracterizacion 2.9.2 de los conjuntos LI esto contradice lasuposicion de queN es LI.(3⇒ 1) Sea N generador minimal. Si N es LD entonces, por la caracterizacion 2.9.1
de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N esgenerador entoncesM tambien lo es. Esto contradice la suposicion de queN es minimal.
Sea F un subespacio. Un conjunto de vectores que es generador de F y que es LI se lellama base de F. Las bases de todo el espacio se llaman simplemente bases. El ser base esequivalente a ser un conjunto LI lo mas grande posible o ser un conjunto generador lo maschico posible. Tambien, el ser base es equivalente a que nuestra funcion fN del principio deesta seccion sea biyectiva.
Lema de Incomparabilidad de las Bases
Dos bases diferentes no estan contenidas una dentro de la otra.
Prueba. Si N ⊆M son dos bases diferentes entonces N es un subconjunto propio deM ypor el Teorema de Caracterizacion de Bases (2.12) esto es una contradiccion.
Teorema de Existencia de Bases
Sea N un conjunto generador y L ⊆ N un conjuntoLI. Entonces, existe una base M tal que L ⊆ M ⊆ N.
Prueba. Sean L y N como en las hipotesis del teorema. Sea M un conjunto LI tal queL ⊆ M ⊆ N. Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD)entonces, por el Lema de Aumento de un Conjunto LI (2.11) tenemos N ⊆ hMi. Como Nes generador, esto significa queM tambien lo es y por lo tantoM es una base.
Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es facil siel conjuntoN es finito. Primero ponemosM igual a L. SiM es maximal terminamos, si no,entonces existe a ∈ N\M tal que M ∪ a es LI. Agregamos a al conjunto M y repetimoseste proceso. ComoN es finito este proceso tiene que terminar.
Ejercicio 51 Pruebe que las siguientes afirmaciones son consecuencia directa del Teoremade Existencia de Bases (2.14): 1. Todo espacio vectorial tiene base. 2. Cualquier conjunto LIesta contenido en una base. 3. Cualquier conjunto generador contiene a una base. [179]
53Seccion 2.4 Bases
Dimension
Ahora lo que queremos ver es que todas las bases tienen el mismo numero de vectores.Para probar esto se necesita ver primero una propiedad clasica de las bases.
Propiedad del Cambio de las Bases
SiM yN son dos bases entonces, para cualquiera ∈M existe b ∈ N tal que (M\a)∪b es base.
Prueba. Sea a un vector fijo pero arbitrario en M. Para un vector b ∈ N denotemosMb = (M\a) ∪ b. Si para todos los b ∈ N\ (M\a) el conjunto Mb fuera LD entonces,por el Lema de Aumento de un Conjunto LI (2.11) todo b ∈ N serıa combinacion linealdeM\a. O sea, N ⊂ hM\ai y por monotonıa e idempotencia tendrıamos hNi ⊆ hM\ai .Como hNi es todo el espacio en particular tendrıamos a ∈ hM\ai lo que no es posible yaqueM es LI.
Hemos demostrado que existe b ∈ N\ (M\a) tal queMb es LI. Demostremos queMb
es generador. Sea v un vector arbitrario. Por serM base tenemos que b y v son combinaciones lineales deM o sea existen escalares apropiados tales que
b = αaa+Xx∈M\a
αxx v = λaa+X
x∈M\a
λxx
Como Mb es LI entonces, b no es una combinacion lineal de M\a y por lo tanto αa 6= 0.Luego, podemos despejar a de la primera ecuacion, substituirla en la segunda y ası obtenerque v ∈ hMbi. Esto significa queMb es generador.
Equicardinalidad de las Bases
Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.
Prueba. Sean A = a1, ...,an y B dos bases. Por la Propiedad del Cambio de las Bases(2.15) existe otra base A1 = b1,a2, ...,an donde b1 ∈ B. Observese que |A1 | = n yaque en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las Bases(2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos otra baseA2 = b1,b2,a3, ...,an tal que b2 ∈ B. Observese que |A2 | = n ya que en otro casoA2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Repitiendoeste proceso obtenemos basesA3,A4, ..., An todas con n vectores y ademasAn ⊆ B. ComoB es base obtenemos An = B y por lo tanto B tambien tiene n vectores.
Al cardinal de una base (cualquiera) se le llama dimension del espacio vectorial. La dimension de un espacio vectorial E se denotara por dimE. Los espacios vectoriales que tienenuna base finita se les llama finito dimensionales o de dimension finita. Por el contrario, sisus bases son infinitas entonces, el espacio vectorial es de dimension infinita. La teorıa delos espacios vectoriales de dimension finita es mas sencilla pero mas completa que la de los
54 Capıtulo 2. Espacios vectoriales
espacios de dimension infinita. Para darnos cuenta de que hay muchas cosas que se cumplenen el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemploel siguiente resultado que tendremos multiples ocaciones para utilizarlo.
Sea F un espacio vectorial finito dimensional y E unsubespacio de F. Si dimE = dimF entonces E = F.
Prueba. SeaN una base de E. Por el Teorema de Existencia de Bases (2.14) existe una baseM del espacio F que contiene a N. Como M es finita entonces, N tambien es finita. Comolas dimensiones coinciden, el numero de vectores enN es igual al numero de vectores enM.LuegoN =M y por lo tanto E = hNi = hMi = F.
Observese que la prueba de Equicardinalidad de las Bases (2.16) la hemos hecho solamente para el caso que el espacio tiene una base finita. Nuestra pruebadel Teorema de Existencia de Bases (2.14) es solo para el caso que el con
junto generador es finito. Finalmente, solo hemos probado que los espacios vectoriales quetienen un conjunto generador finito tienen base. Es importante que el lector sepa que estastres afirmaciones son validas en general. Sin embargo, las pruebas generales dependen de unconocimiento mas profundo de la Teorıa de Conjuntos que no presuponemos que lo posea ellector. A los interesados en esto les recomiendo leer ahora la ultima seccion de este capıtulo.
Ejercicio 52 Pruebe que si E un subespacio de F entonces dimE ≤ dimF. [179]Ejercicio 53 Encuentre un ejemplo donde no se cumple 2.17. [179]
Bases canonicas
Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen unabase sino muchas. Por esto es conveniente construir bases que son las mas “sencillas” paralos ejemplos de espacios vectoriales que construimos en la Seccion 2.2.
Comenzemos con R2. Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en R2tiene una manera de expresarse como combinacion lineal de N = e1,e2. Efectivamente,tenemos la igualdad (a, b) = ae1 + be2. Esto quiere decir que el conjuntoN es generador.Por otro lado, si αe1 + βe2 = (α,β) = 0 = (0, 0) entonces, necesariamente, α y β sonambos cero. De aquı obtenemos que conjuntoN es una base que la llamamos base canonicade R2. Los vectores e1 y e2 se pueden visualizar geometricamente como los dos vectores delongitud 1 en ambos ejes de coordenadas. Luego, la dimension de R2 es 2.
Pasemos ahora a Kn. Para cada i en el conjunto de ındices 1, . . . , n denotemos por eiel vector cuya iesima coordenada es 1 y todas las demas son cero (recuerde que todo campo tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos (α1, . . . ,αn) =Pn
i=1 αiei y esto significa que cada vector en Kn se expresa de forma unica como combina
55Seccion 2.5 Clasificacion de espacios vectoriales
cion lineal deN. O sea, N es generador y por la caracterizacion 2.9.3 de los conjuntos LI elconjuntoN es LI. A la baseN se le llama base canonica de Kn. La dimension de Kn es n.
Veamos el espacio de polinomios K [x]. Sea N el conjunto©xi | i ∈ N
ª. Es claro que
todo polinomio se puede escribir de forma unica como combinacion lineal finita de N. A labase N se le llama base canonica de K [x]. Luego, K [x] es de dimension infinita contable.Desafortunadamente, para el espacio de series no se puede dar explicitamente una base.
Para el espacioKM de todas lasMadas de soporte finito ya hicimos casi todo el trabajo(veaseKn). Para cada i en el conjunto de ındicesM denotemos por ei el vector cuya iesimacoordenada es 1 y las demas son cero. Sea N el conjunto de todos esos vectores. TenemosαN =
Pi∈N αieN donde los coeficientes son distintos de cero solamente en un subconjunto
finito de indices. Luego, N es una base de este espacio la cual es su base canonica. Ladimension de KM es el cardinal deN ya que hay una biyeccion entreN yM.
Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjuntoM es infinito. Si el conjunto de ındices es finito entonces estamos hablando de todas lasMadas o sea de KM . Luego, en el caso de queM es finito KM = KM y la base canonicade KM es la construida en el parrafo anterior. En el caso de que el conjunto M sea infinitoentonces el espacio KM no tiene una base canonica.
El campo de los numeros complejos como espacio vectorial sobre los reales tienen comobase canonica al conjunto 1, i y por lo tanto tiene dimension 2. Los reales como espaciovectorial sobre los racionales no tienen una base canonica.
Todos los espacios que hemos visto que no tienen base canonica son de dimension infinita. Sin embargo, no todos los espacios de dimension finita tienen una base canonica. Elejemplo mas sencillo de esto es tomar un subespacio de un espacio de dimension finita. Sieste subespacio es suficientemente general, entonces no hay manera de construir una basecanonica del mismo incluso en el caso de que todo el espacio tenga una base canonica.
Ejercicio 54 Demuestre que el conjunto (x− x0)i| i ∈ N es una base de K [x]. [179]
Ejercicio 55 ¿Cual es la base canonica del espacio de lasNMmatrices? [179]
2.5 Clasificacion de espacios vectoriales
En esta seccion veremos que todo espacio vectorial es isomorfo a un espacio de Nadas de soporte finito. Para el caso finito dimensional esto quiere decir que el unico (salvoisomorfismos) espacio vectorial de dimension n sobre un campo K que existe es el espaciode las nadas Kn.
Isomorfismos lineales
En el Capıtulo 1 vimos los morfismos de operaciones binarias, grupos, anillos y campos.Para los espacios vectoriales es igual, la unica diferencia es que en ellos hay definida una
56 Capıtulo 2. Espacios vectoriales
operacion que no es interna del espacio: el producto de un escalar por un vector. Sin embargo,esto no presenta mayores dificultades.
Sean E y F dos espacios vectoriales sobre el mismo campof (a+ b) = f (a) + f (b)
f (αa) = αf (a)K. Una funcion f : E→ F se le llama morfismo de espaciosvectoriales si para cualesquiera a,b ∈ E y cualquier α ∈ Kse cumplen las propiedades del recuadro.
A los morfismos de espacios vectoriales tambien se les llama transformaciones lineales.Esta ultima expresion sera la que usemos porque tiene dos importantes ventajas. Primero,es mas corta que la primera. Segundo es mucho mas antigua, hay mucha mas cantidad depersonas que la conoce y por lo tanto facilita la comunicacion con ingenieros y cientıficosde diversas areas.
Ejercicio 56 Demuestre que la composicion de morfismos es un morfismo. [179]
El estudio de las transformaciones lineales lo pospondremos hasta el siguiente capıtulo.Aquı estaremos interesados en los isomorfismos de espacios vectoriales. Una transformacionlineal f : E→ F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta esbiyectiva. Analogamente al caso de operaciones binarias tenemos el siguiente resultado:
La inversa de cualquier isomorfismo lineal es un isomorfismo lineal.
Prueba. Sea α ∈ K y x,y ∈ F. Como f es una biyeccion existen a,b ∈ E tales quef (a) = x , f (b) = y. Como f es isomorfismo tenemos
f−1 (x+ y) = f−1 (f (a) + f (b)) = f−1 (f (a+ b)) = a+ b = f−1 (x) + f−1 (y)
f−1 (αx) = f−1 (αf (a)) = f−1 (f (αa)) = αa =αf−1 (x)que es lo que se querıa demostrar.
Ya observamos, que los isomorfismos son nada mas que un cambio de los nombres de loselementos y las operaciones. Esto quiere decir que “cualquier propiedad” debe conservarseal aplicar un isomorfismo. La siguiente proposicion es un ejemplo de esta afirmacion.
Un isomorfismo transforma conjuntos LI en conjuntos LI, conjuntos generadores en conjuntos generadores y bases en bases.
Prueba. Sea f : E → F un isomorfismo de espacios vectoriales. Sea M ⊆ E y denotemosN = f (M) ⊆ F. Sean ademas x ∈ E , y = f (x) ∈ F. Como f es isomorfismo tenemosÃX
i∈Mαii = x
!⇔ ÃXi∈M
αif (i) = y
!⇔ ÃXj∈N
αjj = y
!donde el conjunto de coeficientes αi | i ∈M es exactamente el mismo que αj | j ∈ N.
SiM es generador entonces, para cualquier y ∈ F el vector x = f−1 (y) es combinacion
57Seccion 2.5 Clasificacion de espacios vectoriales
lineal deM y por la equivalencia anterior el vector y es combinacion lineal deN. Luego, siM es generador entoncesN tambien lo es.
Supongamos queM es LI entonces, poniendo x = 0 obtenemosÃXi∈M
αii = 0
!⇔ ÃXj∈N
αjj = 0
!luego, cualquier combinacion lineal deN que es nula tambien es combinacion lineal nula deM y por lo tanto todos sus coeficientes son cero. Luego,N es LI.
Ejercicio 57 Demuestre que los isomorfismos conmutan con el operador de cerradura linealy que trasforman subespacios en subespacios de la misma dimension.
Coordinatizacion
Sea N un conjunto de vectores del espacio vectorial F. Al principio de la seccion anterior introducimos la funcion fN que a cada Nada de soporte finito le hace corresponder lacombinacion lineal cuyos coeficientes son dicha Nada. Esta funcion es siempre una transformacion lineal ya que
fN (αN + βN) =Xi∈N
(αi + βi) i =Xi∈N
αii+Xi∈N
βii = fN (αN) + fN (βN)
fN (λαN) =Xi∈N
(λαi) i = λXi∈N
αii = λfN (αN) .
Por otro lado, ya vimos que fN es sobreyectiva si y solo siN es generador, que fN es inyectivasi y solo siN es LI y por lo tanto fN es un isomorfismo si y solo siN es una base. En el casode que N sea una base, la funcion inversa f−1N : F→ KN es un isomorfismo lineal llamadocoordinatizacion de F mediante la base N. En otras palabras, si N es una base de F, y x esun vector de F entonces, existe una unica Nada αN ∈ KN tal que x =
Pi∈N αii. En este
caso, a los coeficientes αi se les llama coordenadas de x en la baseN.
Clasificacion
Se dice que dos espacios son isomorfos si existe una funcion que es un isomorfismoentre ellos. No hay ninguna razon (por ahora) para que deseemos distinguir dos espaciosvectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los “nombres” de losvectores y las operaciones. La clave para ver que los espacios vectoriales son isomorfos esque estos tengan la misma dimension.
Dos espacios vectoriales sobre el mismo campo sonisomorfos si y solo si tienen la misma dimension.
Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19 unisomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro por
58 Capıtulo 2. Espacios vectoriales
lo que tienen la misma dimension. Recıprocamente, sean N y M bases de E y F respectivamente. Mediante los isomorfismos de coordinatizacion podemos pensar que E = KN yF = KM. Si los dos tienen la misma dimension entonces, hay una biyeccion f : M → N.Sea g : KN 3 αN 7→ βM ∈ KM la funcion tal que βi = αf(i). La funcion g la podemos pensar como la que simplemente le cambia el nombre a los ındices de una Nada.Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma deNadas es porcoordenadas y lo mismo con el producto por un escalar).
Esta proposicion nos permite saber como son TODOS los espacios vectoriales. Ya vimos(mediante la base canonica) que el espacio vectorial de todas las Nadas (funciones) desoporte finito tiene dimension |N|. Escogiendo el conjunto N adecuadamente obtenemostodas las dimensiones posibles. En el caso de queN sea finito con n elementos , este espacioes Kn por lo que es valido el siguiente teorema.
Teorema de Clasificacion de Espacios Vectoriales
Todo espacio vectorial es isomorfo a un espacio de Nadas de soportefinito. Todo espacio vectorial finito dimensional es isomorfo a Kn.
Campos de Galois
Una aplicacion sencilla del Teorema de Clasificacion de Espacios Vectoriales (2.21) esla siguiente. Sea E un espacio vectorial finito dimendional sobre el campo K. Tenemos paracierto natural n un isomorfismo E ←→ Kn y si el campo K es finito entonces en E hayexactamente |K|n vectores.
El numero de elementos en un campo finito es potencia de un numero primo.
Prueba. Ya vimos que siempre que se tenga un subcampo L del campoK entonces,K es unespacio vectorial sobre L. Esto es en esencia porque podemos sumar vectores (los elementosde K) y podemos multiplicar escalares (los elementos de L) por vectores.
SiK es finito entonces su caracterıstica no puede ser 0 y por lo tanto es igual a un numeroprimo p. Esto quiere decir queK contiene como subcampo Zp. La dimension deK sobre Zptiene que ser finita ya que si no, entonces K serıa infinito. Luego, K es isomorfo a Znp quetiene exactamente pn elementos.
Como pensar en espacios vectoriales
A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificacion deEspacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se debe pensarenR2 yR3. La interpretacion geometrica de estos dos espacios como los segmentos dirigidoscon origen en el cero da una intuicion saludable acerca de lo que es cierto y lo que no.
59Seccion 2.6 Suma de subespacios
En segundo lugar el lector debe pensar en el ejemplo Rn. Si el lector lo prefiere, elnumeron puede ser un numero fijo suficientemente grande digamosn = 11.Ya en este caso,para entender es necesario usar varios metodos: las analogıas geometricas en dimensionespequenas, el calculo algebraico con sımbolos y los razonamientos logicos. Casi todo lo quese puede demostrar para espacios vectoriales finito dimensionales se demuestra en el casoparticular de Rn con la misma complejidad. Las demostraciones de muchos hechos validosenRn se copian tal cual para espacios vectoriales de dimension finita sobre cualquier campo.
En tercer lugar se debe pensar en Cn. El espacio vectorial Cn es extremadamente importante dentro de las matematicas y la fısica. Ademas, el hecho de que C es algebraicamentecerrado hace que para Cn algunos problemas sean mas faciles que en Rn. Hay una manerade pensar en Cn que ayuda un poco para tener intuicion geometrica. Como ya vimos 1, ies una base de C como espacio vectorial sobre R. De la misma manera Cn es un espaciovectorial sobre R de dimension 2n o sea, hay una biyeccion natural entre Cn y R2n (la biyeccion es (a1 + b1i, a2 + b2i, ..., an + bni) 7→ (a1, b1, a2, b2, ..., an, bn)). Sin embargoesta biyeccion no es un isomorfismo. Si E es un subespacio de Cn sobre R entonces no necesariamente E es un subespacio de Cn sobre C . Desde este punto de vista podemos pensar(no rigurosamente) a Cn como un R2n en el que hay menos subespacios.
Los que se interesan en las ciencias de la computacion deben tambien pensar en Znp yen general en cualquier Kn donde K es un campo finito. Las aplicaciones mas relevantesincluyen la codificacion de informacion con recuperacion de errores y la criptografıa, que esla ciencia de cifrar mensajes.
Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos deeste libro) entonces, lo mas facil es pensar en Kn. Esto tiene una gran ventaja en el sentidode que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo.
Sin embargo, en el caso infinito dimensional la situacion es mas fea. Nuestros teoremasnos garantizan que hay un isomorfismo entre R como espacio vectorial sobreQ y las funciones de soporte finito de una base de este espacio a Q. El problema es que nadie conoce (niconocera nunca) una base de este espacio, ası que realmente, estos teoremas no dicen muchopara espacios vectoriales de dimension mayor que el cardinal de los naturales ℵ0.
2.6 Suma de subespacios
En esta seccion introduciremos las operaciones mas basicas entre subespacios. Pero antes, es saludable dar una interpretacion geometrica de los subespacios para que el lectorpueda comparar el caso general con el caso de los espacios R2 y R3.
Subespacios de Rn
¿Cuales son todos los subespacios de Rn? Del Teorema de Clasificacion de EspaciosVectoriales (2.21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ 0, 1, . . . , nsegun sea su dimension. Si i = 0 entonces todo el subespacio es el vector 0 (el origen decoordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego, los casos
60 Capıtulo 2. Espacios vectoriales
interesantes son los que 0 < i < n.Si i = 1 entonces, el subespacio tiene que ser isomorfo a R y tiene que tener una base
de un vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya vimos quehai es la recta que pasa por el origen y por el punto a que es el final del vector a. Luego,los subespacios de dimension 1 de Rn son las rectas que pasan por el origen. Para R2 esteanalisis termina con todas las posibilidades.
Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una basea,b de dos vectores. La base a,b tiene que ser LI y en este caso eso quiere decir que bno es un multiplo escalar de a. En otras palabras, los puntos finales de los vectores a, b yel origen de coordenadas no estan alineados. En este caso hay un unico plano (R2) que pasapor estos tres puntos y tambien ya vimos que este plano es ha,bi. Luego, los subespacios dedimension 2 de Rn son los planos que pasan por el origen. Para R3 este analisis termina contodas las posibilidades: sus subespacios son: el origen, las rectas por el origen, los planos porel origen y todo el espacio.
Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba laintuicion y la terminologıa geometrica. Por esto, pasemos al caso general. Un subespacio dedimension i en Rn esta generado por una base a1, . . . ,ai de i vectores LI. Que sean LIlo que quiere decir es que sus puntos y el origen no estan contenidos en un subespacio dedimension menor que i. Si este es el caso entonces hay un unico Ri que contiene a todosestos puntos y este es el subespacio ha1, . . . ,aii.
Suma de conjuntos y subespacios
Sean E y F dos subespacios sobre un campoK. En la proposicion 2.3 vimos que E∩F esun subespacio. Por definicion de interseccion E ∩ F es el subespacio mas grande contenidoen E y F. Ya observamos ademas que E ∪ F no es un subespacio. Sin embargo, hay unsubespacio que es el mas pequeno que contiene a los dos y este es hE ∪ Fi. El subespaciohE ∪ Fi tiene una estructura muy simple:
hE ∪ Fi = a+ b | a ∈ E, b ∈ F
Prueba. Todo a+ b es una combinacion lineal de E∪F. Recıpro Xx∈E
αxx+Xy∈F
βyycamente, toda combinacion lineal de E ∪ F se puede escribir comoen el recuadro a la derecha. Como E y F son subespacios entonces,el primero y el segundo sumando son elementos de E y F respectivamente. Esto quiere decirque todo elemento de hE ∪ Fi es de la forma a+ b con a en E y b en F.
Dados dos conjuntos cualesquiera de vectores A y BA+ B = a+ b | a ∈ A, b ∈ B definimos la suma de estos como en el recuadro a laizquierda. Despues de esta definicion el resultado 2.23 se puede reformular como hE ∪ Fi =E+ F. Es por esto que al subespacio hE ∪ Fi se le llama la suma de los subespacios E y Fy desde ahora se le denotara por E + F.
61Seccion 2.6 Suma de subespacios
La igualdad modular
Sean E y F dos subespacios. Ahora trataremos de calcular la dimension de E + F. Paraesto necesitaremos primero encontrar bases de E ∩ F y E + F.
Existen E una base de E y F una base de F tales queE ∩ F es base de E ∩ F y E ∪ F es base de E + F.
Prueba. SeaN una base de E∩F . ComoN es LI y esta contenida en E entonces, por el Teorema de Existencia de Bases (2.14) existe una base E de E que contiene aN. Analogamente,existe una base F de F que contiene aN.
Demostremos primero que E∩ F = N. Efectivamente, por la forma en que contruimos Ey F tenemosN ⊆ E∩ F. Para la prueba de la otra inclusion sea a ∈ E∩ F. ComoN∪a ⊆ Eentonces, tenemos queN ∪ a es LI. ComoN es base de E ∩ F y las bases son los conjuntosLI mas grandes, obtenemos que a ∈ N. Luego, E ∩ F ⊆ N.
Solo nos queda probar que E ∪ F es una base de E + F. En primer lugar, cualquiera+ b ∈ E + F es combinacion lineal de E ∪ F por lo que E ∪ F es generador de E + F.Necesitamos probar que E ∪ F es LI. Para esto supongamos que
0 =Xi∈E∪F
αii =Xi∈E\N
αii+Xi∈N
αii+Xi∈F\N
αii
y demostremos que todos los αi son cero. Sean x,y, z el primer, segundo y tercer sumandorespectivamente en la igualdad anterior. Por construccion, tenemos x ∈ E, y ∈ E ∩ F yz ∈ F. Ademas, como z = − (y+ x) y E es un subespacio, obtenemos z ∈ E ∩ F.
ComoN es una base deE∩F el vector z es combinacion lineal deN, o sea z =P
i∈N λii
para ciertos coeficientes λi. De aquı obtenemos que
0 = x+ y+ z =Xi∈E\N
αii+Xi∈N
(αi + λi) i
Como E es LI, todos los coeficientes de esta combinacion lineal son cero. En particular,αi = 0 para todo i ∈ E\N y por lo tanto x = 0. Substituyendo x obtenemos
0 = y+ z =Xi∈N
αii+Xi∈F\N
αii
y como F es LI deducimos que los restantes coeficientes tambien son cero.
Igualdad modular
Si E y F son dos subespacios entonces,dimE + dimF = dim (E + F) + dim (E ∩ F).
Prueba. Por 2.24 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩ Fes base de E ∩ F. Luego, la formula se reduce a la conocida igualdad entre cardinales deconjuntos |E|+ |F| = |E ∪ F|+ |E ∩ F|.
62 Capıtulo 2. Espacios vectoriales
Ejercicio 58 Use la igualdad modular para consE F (E + F)
1 1 11 1 21 2 2
E F (E + F)
1 2 32 2 32 2 4
truir ejemplos de subespacios reales E y F tales queellos y E + F tienen las dimensiones definidas en latabla del recuadro a la derecha. ¿Puede tener E + Fdimension diferente a las de la tabla?
Suma directa
Para dos espacios vectoriales Ey F (no necesariamente contenidos en otro espacio) sobreun mismo campo K definiremos la suma directa de ellos como el espacio vectorial
E⊕ F = (a,b) | a ∈ E, b ∈ F(a,b) +
¡a0,b0
¢=
¡a+ a0,b+ b0
¢λ (a,b) = (λa,λb)
Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. Ladiferencia esta en que la suma directa ya trae en su definicion las operaciones de suma devectores y multiplicacion por un escalar. Deberıamos probar que la suma directa es efectivamente un espacio vectorial, o sea que cumplen todos los axiomas. Nosotros omitiremos estaprueba por ser trivial y aburrida. Mejor nos concentraremos en algo mas interesante.
dim (E⊕ F) = dimE + dimF.
Prueba. Sea E0 = (a,0) | a ∈ E y F0 = (0,b) | b ∈ F. Es claro que los espacios E y E0
son isomorfos y por lo tanto tienen la misma dimension. Otro tanto ocurre con F y F0. Pordefinicion de suma de subespacios tenemos que E0 + F0 = E⊕ F . De la Igualdad modular(2.25) obtenemos dim (E0 + F0) = dimE0 + dimF0− dim (E0 ∩ F0) = dimE+ dimF.
Isomorfismo canonico entre la suma y la suma directa.
De esta ultima proposicion y de la igualdad modular se deduce que si dos subespacios Ey F son tales que E∩F = 0 entonces dim (E⊕ F) = dim (E + F) o sea E⊕F es isomorfoa E + F. A continuacion probaremos solo un poquito mas. Sin embargo, este poquito nosllevara a profundas reexiones.
Isomorfismo Canonico entre la Suma y la Suma directa
Si E y F son subespacios tales que E ∩ F = 0 entonces la funcionE⊕ F 3 (a,b) 7→ a+ b ∈ E + F
es un isomorfismo de espacios vectoriales.
63Seccion 2.6 Suma de subespacios
Prueba. Sea f la funcion definida en el enunciado. Tenemosf (λ (a,b)) = f (λa, λb) = λa+ λb = λ (a+ b) = λf (a,b)
f ((a,b) + (x,y)) = f (a+ x,b+ y) = a+ x+ b+ y = f (a,b) + f (x,y)
por lo que solo queda demostrar que f es biyectiva. Por definicion de suma de subespaciosf es sobreyectiva. Para probar la inyectividad supongamos que f (a,b) = f (x,y) entonces,a− x = y− b. Como a,x ∈ E entonces a− x ∈ E. Como b,y ∈ F entonces y− b ∈ F.Luego a− x = y− b ∈ E ∩ F = 0 por lo que a = x y b = y.
Observemos que el isomorfismo (a,b) 7→ a+ b no depende de escoger base algunaen E⊕ F. Todos los isomorfismos que construimos antes de esta proposicion se construyeron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no dependende escoger alguna base juegan un papel importante en el algebra lineal y se les llama isomorfismos canonicos. Decimos que dos espacios vectoriales son canonicamente isomorfossi existe un isomorfismo canonico entre ellos. Ası por ejemplo todo espacio vectorial E dedimension 3 es isomorfo a K3 pero no es canonicamente isomorfo a K3 porque no se puede construir de cualquier espacio vectorial de dimension 3 un isomorfismo con K3 que nodependa de escoger alguna base. Cuando veamos los productos escalares veremos que hayfuertes razones para que diferenciemos las bases. Los isomorfismos no canonicos no necesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorfismoscanonicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar igualesa dos espacios vectoriales isomorfos por el otro, los espacios canonicamente isomorfos nose diferencian en nada uno del otro, por lo que se puede pensar que es el mismo espacio.
Ejercicio 59 1. Demuestre que E⊕ F y F⊕ E son canonicamente isomorfos.2. ¿Como se debe llamar esta propiedad de la suma directa de espacios?3. Demuestre que la suma directa de espacios es asociativa.4. ¿Tiene la suma directa elemento neutro? [179]
Subespacios complementarios
Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F escomplementario de E enS siS = E⊕F. Esta igualdad por el Isomorfismo Canonico entrela Suma y la Suma directa (2.27) lo que quiere decir es que S = E + F y E ∩ F = 0. EnR2 dos rectas por el origen diferentes son complementarias una a otra. En R3 un plano y unarecta no contenida en el plano (ambos por el origen) son complementarios uno a otro.
Todo subespacio tiene complementario.
Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia deBases (2.14) hay una baseC deS que contiene aA. Sea F el espacio generado porB = C\A.Como C es generador deS, todo elemento en S es combinacion lineal de C y en particulartodo elemento deS se expresa como a+ b con a ∈ E y b ∈ F. LuegoS = E+ F.
64 Capıtulo 2. Espacios vectoriales
Por otro lado, si x ∈ E ∩ F entonces, tienen que existir combinaciones lineales tales queÃx =
Xa∈A
αaa =Xa∈B
αaa
!⇒ÃXa∈A
αaa−Xa∈B
αaa = 0
!.
Como C es LI entonces, por la caracterizacion 2.9.4 de los conjuntos LI la ultima combinacion lineal tiene todos sus coeficientes iguales a cero. Luego, E ∩ F = 0.
Si E y F son dos subespacios complementarios entonces cada vector xse expresa de forma unica como x = a+ b donde a ∈ E y b ∈ F.
Prueba. Si E y F son complementarios entonces E+F es todo el espacio y por lo tanto todovector es de la forma a+ b. Si a+ b = a0 + b0 entonces a− a0 = b0 − b ∈ E ∩ F = 0por lo que la descomposicion x = a+ b es unica.
Ejercicio 60 Demuestre el recıproco de 2.29: Si cada vector se expresa de forma unicacomo x = a+b con a ∈ E y b ∈ F entonces, los subespacios son complementarios. [180]Ejercicio 61 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E seexpresa de forma unica como x = x1 + · · · + xn con xi ∈ Ei. Sugerencia: Usar 2.29, elejercicio anterior y la asociatividad de la suma directa para aplicar induccion en el numerode sumandos n.
Espacios vectoriales versus conjuntos
Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teorıade Conjuntos y siempre es saludable establecer analogıas con resultados ya conocidos. Paraacentuar mas esta similitud hagamos un diccionario de traduccion
Conjunto ←→ Espacio vectorialSubconjunto ←→ Subespacio vectorialCardinal ←→ DimensionInterseccion de subconjuntos ←→ Interseccion de subespaciosUnion de subconjuntos ←→ Suma de subespaciosUnion disjunta ←→ Suma directaComplemento ←→ Subespacio complementarioBiyecciones ←→ Isomorfismos
Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espacios vectoriales tienen su contraparte valida para conjuntos usando el diccionario que hemosconstruido. Probablemente, el ejemplo mas notable de esto son las igualdades modularespara conjuntos y para espacios vectoriales.
Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a losespacios vectoriales. Por ejemplo, el complemento de un subconjunto es unico y no siemprehay un unico subespacio complementario. Otro ejemplo, un poco mas substancial, es que la
65Seccion 2.7 Espacios cocientes
interseccion de conjuntos distribuye con la union o sea A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) .Por otro lado la interseccion de subespacios en general no distribuye con la suma o sea, laigualdadA∩(B+C) = (A ∩ B)+(A ∩ C) no siempre es verdadera. Para ver esto tomese enR3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . CalculamosA ∩ (B+C) = h(1, 1, 0)i y (A ∩ B) + (A ∩ C) = (0, 0, 0) y vemos que son distintos.
Ejercicio 62 Si A y B son dos conjuntos entonces la diferencia simetrica de los mismos esel conjunto A +2 B = (A ∪ B) \ (A ∩ B). Demuestre que todos los conjuntos finitos de unconjunto cualquieraU forman un espacio vectorial de dimension |U| sobre el campo Z2 parala suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptos de nuestro diccionariode traduccion se aplican a este caso en forma directa.
2.7 Espacios cocientes
Ya vimos que para un subespacio E del espacio F, siempre existen subespacios complementarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hayuna manera canonica de escoger alguno de ellos. En esta seccion nos dedicaremos a construir canonicamente el espacio cociente F/E que es el espacio de todos los subespacios afinesparalelos a E y que es isomorfo a cualquier subespacio complementario de E.
Subespacios afines
Ya vimos que en el plano cartesiano R2 los subespacios son el origen
`
`0
x
R20, todo R2 y las rectas que pasan por el origen. Sin embargo, hay otrasrectas en el plano que no pasan por el origen. Para obtener una de estasrectas lo que tenemos que hacer es trasladar una recta por el origen `mediante un vector x (vease la figura). De esta manera, obtenemos larecta `0 que se obtiene sumandole x a cada vector en la lınea `. Observeseque si x 6= 0 entonces las rectas ` y `0 no se intersectan.
Esto nos motiva a la siguiente definicion. Sea A un conjunto de vectores y x un vector.Al conjunto A + x = a+ x | a ∈ A se le llama la traslacion de A con el vector x. Ellector debe observar que la operacion de trasladar es un caso particular (cuando uno de lossumandos solo contiene a un solo vector) de la operacion de suma de conjuntos de vectoresintroducida en la seccion anterior.
Un subespacio afın es el trasladado de un subespacio. En otras palabras, un conjunto devectores E es un subespacio afın si existen un subespacio E y un vector x tales que E = E+x.Observese que los subespacios son tambien subespacios afines. Basta trasladar con el vectorcero. Esto causa una confusion linguıstica: el adjetivo “afın” se usa para hacer el conceptode “subespacio” mas general, no mas especıfico. Por esto, cuando se habla de subespaciosafines es comun referirse a los subespacios como subespacios vectoriales.
66 Capıtulo 2. Espacios vectoriales
Las traslaciones de un subespacio cumplen una propiedad muy sencilla pero fundamental: que es posible trasladar el subespacio vectorial con diferentes vectores y obtener el mismo subespacio afın. Mas precisamente:
Si a ∈ E + x entonces, E + x = E + a.
E0
E + x = E+ axa
Prueba. Probemos primero el caso que x = 0. Tenemos y ∈ E⇔ y−a ∈ E⇔ y ∈ E+a.Ahora por el caso general. Sabemos que, z = a − x ∈ E y del primer caso, E = E + z.Luego, E+ x = E+ z+ x = E+ a.
Ahora observemos, que un trasladado de un subespacio afın es a su vez un subespacioafın ya que (E + x) + y = E + (x+ y). Dos subespacios afines se le llaman paralelossi uno es un trasladado del otro. La relacion de paralelismo entre subespacios afines es deequivalencia ya que si E = F+x yG = E+y entonces,G = F+(x+ y). Esto significa queel conjunto de los subespacios afines se parte en clases de paralelismo y dos subespaciosson paralelos si y solo si estan en la misma clase de paralelismo.
Ahora veremos que en cada clase de paralelismo hay un solo subespacio afın que pasapor el origen.
Todo subespacio afın es paralelo a un solo subespacio vectorial.
Prueba. Si E + x = F + y entonces, E = F + y − x. Como F + y − x contiene al ceroentonces, x−y ∈ F. Como F es un subespacio, y−x ∈ F y 2.30 nos da F = F+y−x.
Este resultado nos permite definir la dimension de un subespacio afın. Cada uno de elloses paralelo a un unico subespacio y su dimension es la dimension de ese subespacio. Enotras palabras, si E = E + x entonces dimE = dimE. Es comun utilizar la terminologıageometrica para hablar de los subespacios afines de dimension pequena. Ası, un punto esun subespacio afın de dimension cero, una recta es un subespacio afın de dimension uno, unplano es un subespacio afın de dimension dos.
Dos subespacios afines paralelos o son el mismo o no se intersectan.
Prueba. Si y ∈ (E + x) ∩ (E + x0) entonces, por 2.30, E + x = E+ y = E+ x0.
Es un error comun (debido al caso de rectas en el plano) pensar que es equivalenteque dos subespacios sean paralelos a que estos no se intersecten. Para convencersede que esto no es cierto, el lector debe pensar en dos rectas no coplanares en R3.
67Seccion 2.7 Espacios cocientes
El espacio cociente
SeaD un espacio vectorial y E un subespacio vectorial deD. Si
0
x+ x0
y+ y0
R2x
y
x0
y0
E = E+x y F = E+y son dos subespacios afines paralelos entoncesE+ F = (E + x) + (E + y) = (E + E) + (x+ y) = E + (x+ y)
lo que muestra que E + F esta en la misma clase de paralelismoque E y F. En otras palabras (vease la figura a la derecha) la sumade cualquier vector en E con cualquier otro en F esta en un mismoespacio paralelo a E y F.
Denotemos ahora por D/E al conjunto de todos los subespacios afines de D paralelos aE. Esta observacion nos dice que la suma de subespacios afines es una operacion binariadentro de D/E. Esta suma es asociativa y conmutativa debido a la asociatividad y conmutatividad de la suma de los vectores en D. El subespacio E es el neutro para esta operacion yel opuesto de E + x es E− x. Luego,D/E es un grupo abeliano para la suma.
Para convertir a D/E en un espacio vectorial nos falta el producto por escalares. Sea
λA = λa | a ∈ A A un conjunto arbitrario de vectores y λ un escalar. Definiremos λAcomo en el recuadro a la izquierda.
Sean E = E + x un subespacio afın paralelo a E y λ un escalar. Tenemos
0
2x
2y
R2x
y
λE = λ (E + x) = λE+λx = E+λx lo que muestra que λE esta en la mismaclase de paralelismo que E. En otras palabras (vease la figura a la derecha) elproducto de un escalar por todos los vectores en E resulta en espacio paraleloa E. Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de Dpor E.
Ejercicio 63 Compruebe los axiomas de espacio vectorial para el espacio cocienteD/E.
Ejercicio 64 ¿Cual es el espacio cociente de R3 por el plano xy?Ejercicio 65 ¿Que pasa si sumamos dos espacios afines no paralelos? [180]
El isomorfismo con los complementarios
Sea F un subespacio complementario a E.Entonces, cualquier subespacio afın paraleloa E intersecta a F en un y solo un vector. F E
R2
Prueba. Sea E = E + x cualquier subespacio afın paralelo a E. Como D = E⊕ F existenunos unicos vectoresy ∈ E y z ∈ F tales que x = y+z. Luego por 2.30E+x = E+y+z =E+z y por lo tanto z ∈ E+x o sea, z ∈ E∩F. Si z0 es otro vector en E∩F entonces, existea ∈ E tal que z0 = a+ x. De aquı x = −a+ z0 y por la unicidad de la descomposicion deun vector en suma de vectores de espacios complementarios, y = −a y z = z0.
68 Capıtulo 2. Espacios vectoriales
Sea F un subespacio complementario a E. Entonces,f : F 3 x 7→ (E + x) ∈ D/E
es un isomorfismo de espacios vectoriales.
Prueba. Por 2.33 la aplicacion f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cadaE + x ∈ D/E le hace corresponder el unico vector en (E + x) ∩ F). Luego, f es biyectiva.Ademas, f (x+ y) = E + (x+ y) = (E + x) + (E + y) = f (x) + f (y)
f (λx) = E + (λx) = λ (E + x) = λf (x)
por lo que f es un isomorfismo.
Observese que el isomorfismo f es canonico. Luego, cualquier subespacio complementario a E es canonicamente isomorfo a D/E. Esta proposicion tambien nos dice que la dimension deD/E es la misma que la de un complementario a E o sea, es dimD− dimE.
Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el algebra lineal sinla introduccion de los espacios cocientes. Si embargo, es mas comodo hacerlo con ellos. Ademases importante que el lector se familiarize con el concepto, ya que, en el estudio de estructuras
algebraicas mas generales, no siempre existen estructuras “complementarias” (por ejemplo en la teorıa degrupos). Por otro lado, las estructuras cocientes si se pueden construir. Por ejemplo, todo grupo tiene un cocientepor cualquier subgrupo normal.
2.8 El espacio afın
Recordemos de la seccion anterior que un subespacio afın del espacio vectorial F es eltrasladado E+x de un subespacio vectorial E de F. La dimension de E+x es por definicionla dimension de E.
Los subespacios afines de dimension pequena reciben nombres especiales segun la tradicion geometrica. Los de dimension 0 se le llaman puntos. Los de dimension 1 se le llamanrectas y los de dimension 2 se le llaman planos.
Un punto es, en otras palabras, un subespacio afın E + x donde E es de dimension cero.Pero el unico subespacio vectorial de dimension cero es 0 . Luego, un punto es un conjuntode la forma 0 + x = x. Esto nos da una biyeccion obvia x 7→ x entre los puntos delespacio afın y los vectores del espacio vectorial.
Al conjunto de todos los puntos del espacio vectorial F se le llama el espacio afın de F.Pero como, dira el lector, si la diferencia entre x y x es puramente formal entonces, ¿cuales la diferencia entre el espacio afın y el espacio vectorial? La respuesta es ambivalente pueses la misma pregunta que ¿que diferencia hay entre geometrıa y algebra? Antes de Descarteseran dos cosas completamente distintas, despues de el, son cosas muy parecidas.
Intuitivamente, un espacio afın es lo mismo que el espacio vectorial pero sin coordenadas.El espacio afin de R2 es el plano de Euclides en el que estudiamos la geometrıa mas clasicay elemental: congruencia de triangulos, teorema de Pitagoras, etc. Los resultados de estageometrıa no dependen de cual es el origen de coordenadas. Dos triangulos son congruentes
69Seccion 2.8 El espacio afın
o no independientemente de en que lugar del plano se encuentran.A un nivel mas alto, podemos pensar el espacio afın de un espacio vectorial como una
estructura matematica adecuada para poder estudiar las propiedades de los espacios vectoriales que son invariantes por traslaciones, o sea, que no cambian al mover un objeto de unlugar a otro en el espacio.
La regla del paralelogramo
La conocida regla del paralelogramo para la suma de vectores en el plano R2 se generalizaa todas las dimensiones y sobre cualquier campo.
Postularemos que el conjunto vacıo es un subespacio afın de dimension −1. Eso nosevitara muchos problemas en la formulacion de nuestros resultados.
La interseccion de subespacios afines es un subespacio afın.
Prueba. Sea x un punto en la interseccion. Cada uno de los subespacios afines, es E+x paracierto subespacio E del espacio vectorial. Si F es la interseccion de todos estos subespaciosentonces F + x es la interseccion de los subespacios afines.
Regla del paralelogramo
Si a y b son vectores LI de un espacio vectorial entonces, a + bes la interseccion de los subespacios afines hai + b y hbi + a.
Prueba. Obviamentea+b ∈ (hai+ b)∩(hbi+ a). Por otro lado, ambos hai+b y hbi+atienen dimension 1 y por lo tanto su interseccion tiene dimension 0 o 1. Si esta dimension escero entonces terminamos. Si esta dimension es uno entonces hai + b = hbi + a y por lotanto a ∈ hai+b. Por 2.30 tenemos que hai+b = hai+a = hai, Por lo tanto b ∈ hai yesto contradice que a,b es LI.
Cerradura afın
Para un conjuntoA de puntos en el espacio afın, la cerradura afın deA es la interseccionde todos los subespacios afines que contienen a A. A la cerradura afın de A la denotaremospor [A]. Esto la diferencia claramente de la cerradura lineal hAi.
Para la cerradura afin, tenemos las mismas propiedades que para la cerradura lineal.
[A] es el subespacio afin mas pequeno que contiene a A.
Prueba. [A] es un subespacio afin. Si B es un subespacio afın que contiene a A entonces[A] ⊆ B pues para hallar [A] tuvimos que intersectar con B.
70 Capıtulo 2. Espacios vectoriales
La cerradura afın cumple las siguientes propiedades:1. A ⊆ [A] (incremento)2. A ⊆ B⇒ [A] ⊆ [B] (monotonıa)3. [[A]] = [A] (idempotencia).
Prueba. La prueba es exactamente la misma que para el caso de la cerradura lineal.
Generadores e independencia
Un conjunto de puntosA es generador afın si [A] es todo el espacio afın. Los conjuntosafinmente independientes los definiremos con el siguiente resultado.
Definicion de conjuntos afinmente independientes
Sea A un conjunto de puntos. Las siguientes afirmaciones son equivalentes1. Cualquier subconjunto propio deA genera un subespacio afın mas pe
queno que todo A.2. Cualquier punto en A no esta en la cerradura afın de los restantes.
Prueba. Es analoga a la prueba (1⇔ 2) de la caracterizacion de conjuntos LI.
Los conjuntos de puntos que no son afinmente independientes los llamaremos afinmentedependientes.
Nuevamente para evitarnos largas oraciones, a los conjuntos afinmente independientes los llamaremos conjuntos AI y a los conjuntos afinmente dependientes los llamaremos conjuntos AD.
Todo sobreconjunto de un generador afin es un generador afin.Todo subconjunto de un conjunto AI es AI.
Prueba. Sea A un generador afın y B ⊇ A. Tenemos [A] ⊆ [B] y como [A] es todo elespacio afin entonces [B] tambien lo es.
Sea A que es AI y B ⊆ A. Si B fuera AD entonces existirıa b ∈ B tal que b ∈ [B\b] ⊆[A\b] y esto no puede ser pues A es AI.
Bases afines
Una base afin es un conjunto de puntos que es AI y generador afin. Ahora podriamosseguir por el mismo camino demostrando que las bases afines son los generadores afinesmas pequenos o los AI mas grandes. Despues, el teorema de existencia de base, el lema delcambio para las bases afines, la prueba de que dos bases afines tienen el mismo cardinal, etc.
71Seccion 2.8 El espacio afın
Este camino aunque se puede realizar, sin embargo, tiene dos desventajas. La primera esque aun no hemos definido combinaciones afines y estas se necesitan para probar todo esto.La segunda, y mas obvia, es que todo esto es muy largo. Por suerte, hay una sencilla relacionque enlaza las bases afines con las bases del espacio vectorial y esto nos ahorrara muchotrabajo.
Sea A = x0,x1, . . . , xn un conjunto de puntos. Definamos A0 = x1 − x0, . . . ,xn − x0. Entonces, A es una base afın si y solo si A0 es una base del espacio vectorial.
Prueba. Veamos que [A] = hA0i+ x0. Efectivamente, hA0i+ x0 es un subespacio afın quecontiene a A y por lo tanto [A] ⊆ hA0i+ x0. Por otro lado [A]− x0 es un subespacio por elorigen que contiene a A0 y por lo tanto [A]− x0 ⊇ hA0i.
De aquı inmediatamente obtenemos queA es generador afın si y solo siA0 es un generador. Luego, podemos suponer por el resto de la prueba que tantoA comoA0 son generadores.Nos queda probar que A es AI si y solo si A0 es LI.
Supongamos que A0 es LD. Sea B0 una base lineal tal que B0 ⊂ A0. Como al principiode la pruebaB = x0∪(B0 + x0) es un generador afın del espacio. ComoB0 6= A0 entonces,B 6= A y por lo tanto A es AD.
Supongamos que A es AD. Entonces, hay un subconjunto propio B de A que generaal espacio. Sea y ∈ B Como al principio de la prueba B0 = xi − y | xi ∈ B \ y es ungenerador lineal del espacio. Luego la dimension del espacio es estrictamente menor que ny por lo tanto A0 no puede ser LI.
Ahora podemos traspasar todos los resultados probados para las bases del espacio vectorial a las bases afines. En particular, es cierto que:
1. Las bases afines son los conjuntos generadores afines minimales por inclusion.2. Las bases afines son los conjuntos AI maximales por inclusion.3. Si A es un conjunto AI y B es un conjunto generador afın tal que A ⊆ B entonces hay
una base afın C tal que A ⊆ C ⊆ B.4. Dos bases afines cualequiera tienen el mismo numero de puntos (uno mas que la di
mension).
Las demostraciones de estos resultados son obvias dada la correspondencia entre lasbases afines y las bases del espacio vectorial.
Ejercicio 66 Formule el lema del cambio para las bases afines.
El siguiente resultado es el analogo del lema Lema de Aumento de un Conjunto LI (2.11)para el caso afın y es consecuencia directa de la correspondencia entre las bases afines y lasbases del espacio vectorial.
72 Capıtulo 2. Espacios vectoriales
Si A es un conjunto AI entonces A ∪ b es AD si y solo si b ∈ [A].
2.9 El caso de dimension infinita
En la Seccion 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equicardinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio tienedimension finita. En esta seccion demostramos estos resultados para los casos faltantes. Porque siempre aparece un curioso que quiere saber.
Como estas demostraciones dependen de resultados de Teorıa de Conjuntos y una exposicion de esta nos llevarıa a escribir otro libro, lo haremos todo en forma minimalista: Antesde cada una de las dos pruebas daremos las definiciones y resultados exclusivamente quenecesitamos. Los resultados complicados de Teorıa de Conjuntos no los demostraremos.
El Lema de Zorn
Un conjunto ordenado es un conjunto con una relacion de orden, o sea una relacionreexiva antisimetrica y transitiva (vease el glosario). Sea P un conjunto ordenado y A unsubconjunto de P. Diremos que x ∈ P es una cota superior de A si para cualquier y ∈ Ase cumple que y ≤ x. Diremos que x ∈ A es elemento maximal de A si para cualquiery ∈ A se cumple que x y. Se dice que A es una cadena si para cualesquiera x, y ∈ A secumple que x ≤ y o que y ≤ x. Diremos que A esta inductivamente ordenado si A 6= ∅ ycualquier cadena contenida enA tiene una cota superior que esta enA. El siguiente resultadoes clasico en teorıa de conjuntos.
Lema de Zorn
Cualquier conjunto inductivamente ordenado tiene un elemento maximal.
Existencia de bases
Teorema de Existencia de Bases (caso general)
Sea N un conjunto generador y L ⊆ N un conjuntoLI. Entonces, existe una base M tal que L ⊆ M ⊆ N.
Prueba. Sean L yN como en las hipotesis. DenotemosT = M |M es linealmente independiente y L ⊆M ⊆ N .
El conjunto T esta naturalmente ordenado por inclusion. SeaM un elemento maximal de T.Entonces ∀x ∈ N\M M∪x es dependiente y por el Lema de Aumento de un Conjunto LI
73Seccion 2.9 El caso de dimension infinita
(2.11) tenemos N ⊆ hMi. Como N es generador, esto significa que M tambien lo es y porlo tantoM es una base.
Nuestra tarea es encontrar un elemento maximal de T. Probemos que el conjunto Testa inductivamente ordenado. Efectivamente, T es no vacıo ya que L ∈ T. Sea Bii∈I unacadena arbitraria en T y denotemos B =
Si∈I Bi. El conjunto B es una cota superior de la
cadena Bii∈I y tenemos que convencernos que B esta en T. Como para cualquier i tenemosBi ⊆ N entonces, B ⊆ N. Supongamos que B es linealmente dependiente. Entonces, existeun subconjunto finito B0 de B y una combinacion lineal de B0 igual a cero tal que todos suscoeficientes son no cero, o sea B0 es linealmente dependiente. Como B0 es finito, y Bii∈I esuna cadena entonces, tiene que existir i0 tal que B0 ⊆ Bi0 y esto contradice que todo subconjunto de un conjunto linealmente independiente es linealmente independiente. Luego, Testa inductivamente ordenado y por el Lema de Zorn (2.43) el conjunto T tiene un elementomaximal.
Cardinales
Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyeccion de A en B.La relacion A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relacion de equivalenciaentre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le llamacardinal del conjunto A y se denota por |A|. Los cardinales estan ordenados por la relacionde orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El cardinal infinitomas pequeno es ℵ0 que es el cardinal de los naturales (ℵ es la primera letra del alfabetohebreo y se llama “alef”). La suma de cardinales se define como el cardinal de la union dedos conjuntos disjuntos. El producto de cardinales se define como el cardinal del productocartesiano de conjuntos.
Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es muysencillo y daremos una demostracion para el.
Si ∀i |Ai| ≤ t entonces,P
i∈I |Ai| ≤ t |I|.
Prueba. Podemos pensar que los Ai son disjuntos. Sea T un conjunto de cardinal t. Porhipotesis existen inyecciones fi : Ai 7→ T . Sea ϕ :
Si∈I Ai → T × I definida por ϕ (a) =
(fi (a) , i) si a ∈ Ai. Por definicion de ϕ si ϕ (a) = ϕ (b) entonces, a y b estan en elmismo conjunto Ai, fi (a) = fi (b) y por lo tanto a = b. Luego, ϕ es inyectiva.
El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teorıade Conjuntos (vease por ejemplo: Kamke E., Theory of sets. Dover, New York, 1950. pagina121). Nosotros omitiremos la prueba.
Si |A| es infinito entonces, ℵ0 |A| = |A|.
74 Capıtulo 2. Espacios vectoriales
Equicardinalidad de las bases
Equicardinalidad de las Bases (caso infinito)
Dos bases cualesquiera tienen el mismo cardinal.
Prueba. Sean A y B dos bases. Ya probamos el caso de que una de las dos bases es finita.Luego, podemos suponer que A y B son infinitos. Como B es una base y debido a la finitudde las combinaciones lineales entonces ∀a ∈ A el mınimo subconjunto Ba ⊆ B tal quea ∈ hBai existe y es finito.
Construyamos la relacion R ⊆ A × B de manera que (a,b) ∈ R si y solo si b ∈ Ba.Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ningun elemento deA entonces, A ⊆ hB\b0i y como A es base obtendrıamos que B\b0 es generador lo quecontradice que B es base.
Por otro lado, como |A| es infinito y |Ba| es finito entonces, usando 2.45 y 2.46 obtenemos
|B| ≤ |R| =Xa∈A
|Ba| ≤ ℵ0 |A| = |A| .
Luego |B| ≤ |A| y por simetrıa de nuestros razonamientos|A| ≤ |B|.
TransformacionesLineales
TransformacionesLineales
Capítulo terceroCapítulo tercero
as transformaciones lineales son uno de los objetos mas estudiados y mas importantes en las matematicas. El objetivo de este capıtulo es familiarizar al lector con elconcepto de transformacion lineal y sus propiedades basicas. Introduciremos las ma
trices y estudiaremos la relacion de las mismas con las transformaciones lineales. Veremosel concepto de nucleo e imagen de una transformacion lineal etc...
3.1 Definicion y ejemplos
Sean E y F dos espacios vectoriales sobre K. Una funcionf (a+ b) = f (a) + f (b)
f (λa) = λf (a)f : E→ F se le llama transformacion lineal de E en F si paracualesquiera vectores a y b y cualquier escalar λ se cumplenlas propiedades del recuadro a la derecha.
Nuevamente, para no reescribir constantemente frases largas, en lugar de decirque f es una transformacion lineal, diremos que f es una TL. En plural escribiremos TLs.
Imagenes de subespacios
Toda TL transforma subespacios en subespacios.
Prueba. Sea f : E→ F una TL y E0 un subespacio de E. Denotemos F0 = f (E0) la imagende E0. Sean a y b vectores en F0. Por definicion existen vectores x,y tales que f (x) = a yf (y) = b. Tenemos, f (x+ y) = a + b por lo que a + b ∈ F0. Sea ahora λ un escalar.Tenemos f (λx) = λa por lo que λa ∈ F0. Luego, F0 es un subespacio de F.
Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampococonjuntos generadores en conjuntos generadores.
76 Capıtulo 3. Transformaciones lineales
El recıproco de la proposicion anterior NO es cierto. Hay funciones que transforman subespaciosen subespacios y no son TLs. Un ejemplo sencillo es la funcion R 3 x 7→ x3 ∈ R. Esta manda elcero en el cero y a R en R. Sin embargo no es lineal. Para obtener una funcion contraejemplo en
Rn basta usar coordenadas esfericas, dejar fijos los angulos y elevar al cubo el modulo del vector.
Homotecias
Veamos el ejemplo mas simple de TL. Si a cada vector x de un espacio E le hacemoscorresponder el vector 2x obtenemos la funcion h2 : E 3 x 7→ 2x ∈ E . Esta funcion es unaTL ya que h2 (a+ b) = 2 (a+ b) = 2a+ 2b = h2 (a) + h2 (b)
h2 (λa) = 2λa = λ2a = λ = λh2 (a)
Observese que en la segunda recta usamos la conmutatividad del producto de escalares.Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K obtenien
do la TL dada por hα : E 3 x 7→ αx ∈ E. A las funciones hα se les llama homotecias.Hay dos casos particulares de homotecias especialmente importantes. Si α = 1 entonces
obtenemos la funcion identidad x 7→ x. A esta funcion se la denotara por Id. Si α = 0
entonces obtenemos la funcion nula tambien llamada funcion constante cero x 7→ 0.En el caso del campoR las homotecias tienen una interpretacion geometrica muy clara. Si
α > 0 entonces cada punto x ∈ Rn se transforma en el punto αx que esta en la misma rectapor el origen que x pero a una distancia del origen α veces mayor que x. Esto quiere decirque hα es la dilatacion de razon α. Si 0 < α < 1 entonces hα es realmente una contraccionpero interpretaremos las contracciones como dilataciones con razon mas pequena que 1.
En la figura de la derecha observamos la dilatacion x 7→ 2x en el
R2
v 7→ 2v
plano cartesiano R2. La curva interior (que es la grafica de la funcion5 + sin 5θ en coordenadas polares) se transforma en la misma curvapero del doble de tamano (10+ 2 sin 5θ).
Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llamafuncion antipodal. El nombre viene de la siguiente interpretacion. Sitrazamos una recta que pase por el centro de la Tierra intersectaremos lasuperficie en dos puntos. Estos puntos se dicen que son antıpodas o sea, nuestros antıpodasson la personas que viven “pies arriba” del “otro lado” de la Tierra. Si coordinatizamos laTierra con unos ejes de coordenadas con origen en el centro de la misma, nuestros antıpodasse obtienen multiplicando por −1.
En la figura de la izquierda esta representada la funcion antıpodal en
R2
v 7→ −v
R2. En ella hay dos curvas cerradas de cinco petalos. La primera esla misma que la de la figura anterior (10 + 2 sin 5θ). La segunda esla antıpoda de la primera (−10 − 2 sin 5θ). La figura es expresamentecomplicada para que el lector tenga la oportunidad de pensar un pocoen que punto se va a transformar cada punto. Cualquier homotecia hαcon α < 0 se puede representar como h−1 (h−α) por lo que hα se puede
interpretar geometricamente como una dilatacion seguida de la funcion antıpodal. A pesarde su simplicidad las homotecias juegan un papel fundamental en la comprension de las TLy este papel se debe a que ellas son todas las TL en dimension 1.
77Seccion 3.1 Definicion y ejemplos
Si dimE = 1 entonces toda TL de E en E es una homotecia.
Prueba. Sea a una base de E y f una TL de E en E. Como a es una base tiene que existirun escalar λ ∈ K tal que f (a) = λa. Sea x = αa un vector arbitrario en E . Como f eslineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que demuestra que f esuna homotecia.
Inmersiones
Hasta ahora las TL que hemos visto (las homotecias) estan definidas de un espacio ensi mismo. Las inmersiones son la TL mas simples que estan definidas de un espacio en otrodistinto. Sea E un subespacio de F. A la funcion i : E 3 x 7→ x ∈ F se le llama inmersionde E en F. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de lafuncion identidad. No hay mucho que decir de las inmersiones excepto de que hay una paracada subespacio.
Proyecciones
Ahora supongamos al reves (de las inmersiones) que F es subespacio de E . ¿Habra alguna TL natural de E en F? Lo que podemos hacer es buscarnos un espacioG complementariode F (existe por 2.28) De esta manera E = F⊕G y por 2.29 tenemos que cada vector x ∈ Ese descompone de manera unica como a+ b donde a es un vector en F y b es un vector enG . Ası para cada x ∈ E tenemos un unico a ∈ F y esto nos da una funcion que denotaremospor πF y la llamaremos proyeccion de E en F a lo largo de G . Cualquier proyeccion πFrestringida a F es la identidad por lo que necesariamente es sobreyectiva.
La notacion πF sugiere erroneamente que esta funcion solo depende del subespacio F . Esto no es cierto, el subespacio F puede tener muchos subespacios complementarios diferentes y la proyeccion depende del subespacio complementario queescojamos.
Las proyecciones son transformaciones lineales.
Prueba. Escojamos un subespacio G complementario de F . De esta manera πF es unafuncion fija y bien definida.
Si x,y son dos vectores entonces hay descomposiciones unicas x = πF (x) + πG (x) yy = πF (y) + πG (y) . Luego x+ y = (πF (x) + πF (y)) + (πG (x) + πG (y)) . El primersumando de la derecha esta en F y el segundo en G . Por la unicidad de la descomposicionnecesariamente tenemos πF (x+ y) = πF (x) + πF (y) .
Sea ahora λ ∈ K. Tenemos λx = λπF (x)+λπG (x) .Nuevamente, el primer sumando dela derecha esta en F y el segundo enG y por la unicidad de la descomposicion necesariamentetenemos πF (λx) = λπF (x) .
78 Capıtulo 3. Transformaciones lineales
¿Como son geometricamente las proyecciones? En esencia el problema es el siguiente.Dados dos espacios complementarios F , G y un vector a como hallar un vector en F y otroen G que sumados den a. Esto ya lo hicimos una vez cuando introducimos las coordenadascartesianas en R2. Dado un vector a trazamos la recta paralela al eje y que pasa por a yla interseccion del eje x con esta recta es un vector πx (a) . De manera analoga obtenemosπy (a) y sabemos que a = πx (a) + πy (a).
En el caso general es exactamente igual. Esta construccion se ilustra en la figura de la derecha. Tenemos que Fes un subespacio de dimension k y uno de sus complementarios G es de dimension n − k. Hay un solo subespacioafın paralelo a F que pasa por a y este es F + a. La interseccion (F + a) ∩ G es un solo punto y este punto esel vector πG (a) . Analogamente se observa que πF (a) =(G + a)∩F. Como es logico, no pudimos dibujar el espacioRn ası que el lector debera contentarse con el caso n = 3,k = 2 y con la prueba general.
Si F y G son complementarios entonces, para cualquiervector a se cumplea = ((G + a) ∩ F)+((F + a) ∩G).
Prueba. Como F yG son complementarios (G + a)∩F es un solo punto que denotaremosx. Sea −y ∈ G tal que x = −y + a. Tenemos que F + a = F + x + y = F + y y por lotanto y ∈ (F + a) . Luego y = (F + a) ∩G.
3.2 Operaciones entre transformaciones lineales
Ahora, veremos que operaciones se definen naturalmente entre las TLs.
El espacio vectorial de las transformaciones lineales
Sea f una TL y λ un escalar. Denotaremos por λf a la funcion a 7→ λf (a). A estaoperacion se le llama producto de un escalar por una TL.
El producto de un escalar por una TL es una TL.
Prueba. Efectivamente, tenemos(λf) (a+ b) = λf (a+ b) = λ (f (a) + f (b)) = (λf) (a) + (λf) (b)
(λf) (αa) = λf (αa) = λαf (a) = αλf (a) = α (λf) (a)
lo que significa que λf es una TL.
Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la funcion
79Seccion 3.2 Operaciones entre transformaciones lineales
a 7→ f (a) + g (a). A esta operacion se le llama suma de TLs.
La suma de dos TLs es una TL.
Prueba. Denotemos h = f+ g. Tenemosh (αa) = f (αa) + g (αa) = α (f (a) + g (a)) = αh (a)
h (a+ b) = f (a+ b) + g (a+ b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b)
lo que significa que h es una TL.
Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Losaxiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones.Por ejemplo, la prueba de la distributividad del producto por escalares con respecto a la suma es la siguiente: (λ (f+ g)) (a) = λ (f (a) + g (a)) = λf (a)+λg (a) = (λf+ λg) (a).Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos porMor (E,F). Esta notacion es debido que a las transformaciones lineales tambien se les llamamorfismos de espacios vectoriales. Debido a todo lo dicho es valido el siguiente resultado:
Mor (E,F) es un espacio vectorial.
Composicion de transformaciones lineales
Sean f ∈ Mor (E,F) y g ∈ Mor (F,G) dos TLs. La composicion h = g f se definecomo la funcion E 3 a 7→ g (f (a)) ∈ G. Demostremos que h = g f ∈ Mor (E,G) o sea,que h es una TL.
La composicion de TLs es una TL.
Prueba. Sea h = g f la composicion de dos TLs. Tenemosh (a+ b) = g (f (a+ b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b)
h (αa) = g (f (αa)) = g (αf (a)) = αg (f (a)) = αh (a)
que es lo que se querıa demostrar.
La composicion de TLs cumple las siguientes propiedades:1. f (g h) = (f g) h (asociatividad)2. f (g+ h) = f g+ f h (distributividad a la izquierda)3. (f+ g) h = f h+ g h (distributividad a la derecha)4. f λg = λf g = λ (f g) (conmuta con el producto por escalares)
Prueba. Como (f (g h)) (a) = f (g (h (a))) = ((f g) h) (a), la composicion es
80 Capıtulo 3. Transformaciones lineales
asociativa. Con (f (g+ h)) (a) = f ((g+ h) (a)) = f (g (a) + h (a)) == f (g (a)) + f (h (a)) = (f g) (a) + (f h) (a) = ((f g) + (f h)) (a)
probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos lasigualdades ((f+ g) h) (a) = (f+ g) (h (a)) = f (h (a)) + g (h (a)) =
= (f h) (a) + (g h) (a) = ((f h) + (g h)) (a)Finalmente para probar que la composicion conmuta con el producto por escalares tenemos
(f λg) (a) = f (λg (a)) = λf (g (a)) = (λ (f g)) (a) == λf (g (a)) = (λf) (g (a)) = (λf g) (a) .
El lector debe ya debe poder encontrar por si mismo el porque de la validez de cada unade las igualdades utilizadas en esta prueba.
El algebra de operadores lineales
A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nuevamente,usaremos la abreviatura OL para referirnos a los operadores lineales. Los OLs juegan (comoveremos mas adelante) un papel muy importante en el estudio de las TLs y por esto es quemerecen un nombre especial. El conjunto de todos los OLs de E se denotara por EndE. Lohacemos ası porque a los OLs tambien se les llama endomorfismos de un espacio vectorial.Por definicion tenemos EndE = Mor (E,E). La principal diferencia entre las TLs y los OLses que la operacion de composicion es una operacion interna en espacio vectorial EndE. Osea, si componemos dos OLs, obtenemos otro OL.
Si un espacio vectorial cualquiera (elAlg1) ∗ es asociativaAlg2) ∗ es distributiva con respecto a +Alg3) ∗ tiene elemento neutroAlg4) ∗ conmuta con el producto por escalares
cual ya trae definidos la suma y el producto por escalares) tiene otra operacionbinaria ∗ que cumple los axiomas en elrecuadro a la derecha entonces, se le llama algebra . Observese que los primeros tres axiomas los podemos resumir en uno: lasuma de vectores y ∗ definen un anillo en el espacio vectorial. El cuarto axioma lo quequiere decir es que para cualquier escalar λ y cualesquiera vectores a y b se cumple queλa ∗ b = a ∗ λb = λ (a ∗ b).
Ya vimos (3.9 ) que la operacion de composicion de OLs cumple los axiomas Alg1, Alg2y Alg4. Para ver que EndE es un algebra solo nos queda comprobar que la composicion tieneelemento neutro. Pero esto es obvio ya que la funcion identidad cumple que f I = I f = f.O sea, es el neutro para la composicion. Hemos demostrado el siguiente resultado
El espacio vectorial EndE en un algebra con respecto a la composicion.
Hay otras dos algebras importantes que deben ser muy conocidas por el lector. Primero,el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R,pero ademas sabemos multiplicar polinomios. Este producto cumple todos los axiomas deAlg1Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier campo. El segundo
81Seccion 3.3 Extensiones lineales
ejemplo son los numeros complejos. Estos son un espacio vectorial de dimension dos sobre los reales pero ademas sabemos multiplicar numeros complejos. La multiplicacion decomplejos tambien cumple todos los axiomas Alg1Alg4.
Un algebra se le llama conmutativa si el producto de vectores es conmutativo. El algebra de losnumeros complejos y el algebra de polinomios sobre un campo son conmutativas. Las algebrasEndE casi nunca son conmutativas (salvo en dimension 1). Por ejemplo en el plano cartesiano R2
la rotacion f en 45 y la reeccion g en el eje y son (como veremos despues) OLs. Sin embargo, (g f) (1, 0) =(−1, 1) 6= (−1,−1) = (f g) (1, 0).
El grupo general lineal
Una funcion cualquiera es biyectiva si y solo si esta tiene inversa. En el capıtulo anterior,cuando vimos los isomorfismos de espacios vectoriales, demostramos que si una TL tiene inversa entonces esta inversa tambien es una TL. En particular, la funcion inversa de un OL esun operador lineal. Un operador lineal se le llama singular si este no tiene inverso. En el casocontrario se le llama no singular. A los OLs no singulares tambien se les llama automorfismos del espacio vectorial. En otras palabras los automorfismos son los endomorfismosbiyectivos.
Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota porGL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la funcionnula cumple que 0 = f−f. Sin embargo, la composicion de OLs no singulares es siempre unOL no singular. Luego, la composicion es una operacion binaria en GL (E) que ya sabemosque es asociativa y tiene elemento neutro. Ademas, cada elemento tiene inverso ya que f f−1 = f−1 f = I. Luego, GL (E) es un grupo para la composicion al cual se llama grupogeneral lineal del espacio vectorial E.
3.3 Extensiones lineales
Estudiaremos en esta seccion una manera universal de construir TLs. Pero antes, veamosalgunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios.
Extensiones y restricciones
Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una funcionf : A → B tambien se tiene una funcion f0 : A0 → B definida por f0 (a) = f (a) paracualquier a ∈ A0. A la funcion f0 se le llama restriccion de f a A0 y la denotaremos por fA0 .Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0.
Si h y g son dos funciones tales que h es una restriccion de g entonces se dice que ges una extension de h. Si esta dada una funcion g : A0 → B y A es un sobreconjunto deA0 entonces, pueden haber muchas extensiones h : A → B de g, ya que podemos escogerarbitrariamente los valores de h (x) para todos los x ∈ A\A0.
Es un problema frecuente en matematicas el encontrar extensiones que cumplan ciertaspropiedades. En nuestro caso, debemos encontrar extensiones que sean TLs. Formulemos
82 Capıtulo 3. Transformaciones lineales
nuestro problema mas precisamente. Sean E y F dos espacios vectoriales sobre K y N unconjunto de vectores de E. Sea h : E → F una TL. Sabemos que N ⊂ E y por lo tantotenemos la restriccion hN : N → F. ¿Sera posible para cualquier funcion g : N → F
encontrar una extension h : E → F de g que sea TL? ¿Sera unica tal extension? Veremosque ambas preguntas tienen respuesta positiva siN es una base.
Para demostrar la existencia de la extension debemos construirla. Sea N una base de E
x 7→Xi∈N
αig (i)
y g : N → F una funcion arbitraria de N en F. Cualquier x ∈ E se expresa de forma unicacomo combinacion lineal de N o sea x =
Pi∈N αii. A la funcion h del
recuadro a la derecha se le llama extension lineal de g. Observese que(como debe ser) la restriccion de h a N es igual a g ya que si x ∈ Nentonces, la descomposicion de x en la baseN tiene coeficientes αi = 0para i 6= x y αi = 1 para i = x.
Las extensiones lineales son transformaciones lineales.
Prueba. Tenemosh (x+ y) =
Xi∈N
(αi + βi)g (i) =Xi∈N
αig (i) +Xi∈N
βig (i) = h (x) + h (y)
h (λx) =Xi∈N
λαig (i) = λXi∈N
αig (i) = λh (x)
y esto prueba que h es una TL.
Para demostrar la unicidad de la extension debemos convencernos de que dos TLs distintas no pueden coincidir en una base.
Las TLs estan predeterminadas por sus valores en una base.
Prueba. Sean f, g : E→ F dos TLs yN una base de E. Supongamos que f (i) = g (i) paracualquier i ∈ N. Cualquier x ∈ E se expresa de forma unica como combinacion lineal deNo sea x =
Pi∈N αii. Luego
f (x) = f
ÃXi∈N
αii
!=Xi∈N
αif (i) =Xi∈N
αig (i) = g
ÃXi∈N
αii
!= g (x)
y por lo tanto las TLs f y g son iguales.
El isomorfismo entre FN y Mor (E,F)
Recordemos ahora de la Seccion 2.2 que el conjunto de todas las funciones deN en F esel conjunto de las Nadas de vectores de F, que este es un espacio vectorial para la suma yel producto por escalares definidos por coordenadas y que se denota por FN .
Si N es una base de E entonces, hemos construido una correspondencia biunıvoca entreFN y Mor (E,F). A cadaNada hN ∈ FN le corresponde su extension lineal h ∈ Mor (E,F)
83Seccion 3.3 Extensiones lineales
y a cada TL h ∈ Mor (E,F) le corresponde hN su restriccion a N (que es una Nada).Queremos ver que esta correspondencia es un isomorfismo de espacios vectoriales.
Si N es una base de E entonces, la biyeccionr : Mor (E,F) 3 h 7→ hN ∈ FN
es un isomorfismo de espacios vectoriales.
Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 ∈ Mor (E,F) yλ un escalar. Tenemos
r (h+ h0) = (h+ h0)N = hN + h0N = r (h) + r (h
0)r (λh) = (λh)N = λhN = λr (h)
que se cumplen por las definiciones de suma y producto por escalares de lasNadas.
Un criterio de isomorfismo
Al establecer que los espacios Mor (E,F) y FN son isomorfos es natural que esperemos
(1, 0, 0) 7→ (1, 0)
(0, 1, 0) 7→ (0, 1)
(0, 0, 1) 7→ (0, 1)
que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de lasNadas de vectores. En este caso queremos hacer la traducion de la propiedad de una TLde ser o no un isomorfismo de espacios vectoriales. Ya vimos en el capıtulo anterior queun isomorfismo transforma una base del dominio en una base del codominio. ¿Sera estapropiedad suficiente para comprobar que una TL es un isomorfismo?. Larespuesta es NO. Por ejemplo, la extension lineal de la funcion definidaen la base canonica de R3 como en el recuadro a la derecha transforma aesta base en la base canonica de R2 y sin embargo no es inyectiva. Nosfalta la propiedad evidentemente necesaria de que la restriccion de la TL debe ser inyectiva.
Una TL es un isomorfismo si y solo si su restriccion a unabase es inyectiva y la imagen de esta restriccion es una base.
Prueba. Ya hemos probado la necesidad. Para la suficiencia seaN una base de E y hN ∈ FNuna Nada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) yque el conjunto de sus coordenadas (la imagen) es una baseM = h (N) de F. Probemos quela extension lineal h : E → F de hN es un isomorfismo. Efectivamente, si x =
Pi∈N αii y
y =P
i∈N βii son dos vectores cualesquiera en E y h (x) = h (y) entonces,Xi∈N
αih (i) =Xi∈N
βih (i)
y como todos los h (i) = hi son diferentes, estas son dos combinaciones lineales iguales dela base M. Por la caracterizacion 2.9.3 de los conjuntos LI los coeficientes de estas combinaciones lineales tienen que coincidir αi = βi y por lo tanto x = y. Luego, h es inyectiva.
Para ver que h es sobreyectiva sea z vector en F. Como M es una base de F existencoeficientes γi tales que z =
Pi∈N γih (i) y por lo tanto z = h (v) donde v =
Pi∈N γii.
84 Capıtulo 3. Transformaciones lineales
3.4 Coordinatizacion de transformaciones lineales
Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entrelos cuales esta definida la TL. Sean N y M bases de E y F respectivamente. Tenemos losisomorfismos de coordinatizacionE↔ KN y F↔ KM. Para cada f ∈ Mor (E,F) tenemos
la composicion g : KN → Ef→ F→ KM que es una TL en Mor
¡KN,KM
¢.
Recıprocamente para cada g ∈ Mor¡KN,KM
¢tenemos la
Ef−→ Fl l
KN −→g
KM
composicion f : E → KN g→ KM → F que es una TL enMor (E,F). Es facil ver y es intuitivamente claro que esta correspondencia biunıvoca Mor (E,F)↔ Mor
¡KN,KM
¢es un isomor
fismo de espacios vectoriales.
Ejercicio 67 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. Construya unisomorfismo Mor (E,F)↔ Mor (E0,F0).
Podemos pensar a N como la base canonica de KN. Luego, aplicando 3.13 obtenemosel isomorfismo Mor
¡KN,KM
¢ ↔ ¡KM
¢N= KM×N que es el conjunto de las MN
matrices tales que cada columna es de soporte finito. Para el caso que mas nos interesa enqueN yM son bases finitas obtenemos Mor (E,F)↔ ¡
KM¢N= KMN . Sea f ∈ Mor (E,F).
A la matriz αMN que le corresponde a f mediante el isomorfismo construido se le llamamatriz de la TL f en las basesM yN. Los resultados de la seccion anterior nos dicen comoconstruir αMN dada f. Para cada i ∈ N la columna αMi es el vector f (i) coordinatizado enla baseM. O sea f (i) =
Pa∈M αaia.
Ejercicio 68 Pruebe que la funcion K [x] 3Pn
i=0 aixi 7→ Pn
i=0 ai (x+ 1)i ∈ K [x] es un
isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz αNN de estaTL en la base canonica del espacio de polinomios. Demuestre que las entradas de esta matrizestan definidas por la ecuacion recursiva αkn = αk,(n−1) + α(k−1),(n−1) con las condicionesde frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n.
La formula f (i) =P
a∈M αaia nos dice tambien como construir f dada αMN . Lasimagenes de los i ∈ N las calculamos por la formula y a f la construimos por extensionlineal. O sea, si E 3 x =
Pi∈N βii entonces,
F 3 f (x) =Xi∈N
βif (i) =Xi∈N
βi
Xa∈M
αaia =Xa∈M
ÃXi∈N
αaiβi
!a
La expresionP
i∈N αaiβi es un escalar y hay uno para cada a ∈ M por lo que son lascoordenadas de una Mada. A esta Mada se le llama producto de la matriz αMN por elvector βN y se denota por αMNβN .
85Seccion 3.4 Coordinatizacion de transformaciones lineales
Observese que este producto lo podemos escribir como en el reαMNβN =
Xi∈N
αMiβi cuadro a la izquierda. Esto quiere decir que este producto se obtiene multiplicando las columnas de αMN por las correspondientes
coordenadas de βN y sumando los resultados. En otras palabras αMNβN es la combinacionlineal de las columnas de αMN cuyos coeficientes son las coordenadas de βN .
En esta seccion estudiaremos mas sistematicamente el isomorfismo entre las TLs y lasmatrices repitiendo mas detalladamente todo lo dicho en esta introduccion. Si el lector noentendio muy bien, le recomiendo seguir adelante y despues releer esta introduccion.
El producto escalar canonico
Sean αN y βN dos Nadas. El producto escalar de estas NadasαNβN =
Xi∈N
αiβies el escalar del recuadro a la derecha. De esta manera, el productoescalar de dos vectores es un elemento del campo.
No se debe confundir el “producto por un escalar” con el “producto escalar”. Elprimero es un producto de un escalar por un vector y el segundo es un producto de dos vectores. Mas adelante veremos que hay otros productos definidos en
cualquier espacio vectorial. Por esto a este producto lo llamaremos canonico y solamenteesta definido en el espacio vectorial de lasNadas para cierto conjunto finito de ındicesN.
El producto escalar cumple las siguientes propiedades:1. xy = yx (conmutatividad)2. x (y+ z) = xy+ xz (distributividad a la izquierda)3. (y+ z)x = yx+ zx (distributividad a la derecha)4. x (λy) = (λx)y = λ (xy) (conmuta con el producto por escalares)
Ejercicio 69 Pruebe las principales propiedades del producto de Nadas (3.15).
Ejercicio 70 Busque tres vectores x y z en el plano R2 tales que (xy)z 6= x (yz). [180]Ejercicio 71 Pruebe que ∀αN ∈ RN se cumple que α2N = αNαN ≥ 0.
El producto de matrices
Sean αMN y βNL dos matrices. Observese que el conjunto de ındices de las columnasde la primera, coincide con el conjunto de ındices de los renglones de la segunda. Ası, tantoun renglon αiN como una columna βNj son vectores del espacio KN de Nadas y podemosformar su producto αiNβNj. Cuando hacemos esto, para todos los i ∈ M y todos los j ∈ Lobtenemos una MLmatriz formada por todos estos productos. A esta matriz se le llama elproducto de las matrices αMN y βNL y se denotara por αMNβNL. Resumiendo, si γML =αMNβNL entonces γij = αiNβNj. Por ejemplo, si los conjuntos de ındices son M = 1, 2,
86 Capıtulo 3. Transformaciones lineales
N = 1, 2, 3 y L = 1, 2 entonces, en forma grafica tenemosµα11 α12 α13α21 α22 α23
¶⎛⎝ β11 β12β21 β22β31 β32
⎞⎠ =
µα1NβN1 α1NβN2α2NβN1 α2NβN2
¶y por definicion de producto escalar de vectores tenemosµ
α1NβN1 α1NβN2α2NβN1 α2NβN2
¶=
µ P3
i=1 α1iβi1P3
i=1 α1iβi2P3
i=1 α2iβi1P3
i=1 α2iβi2
¶.
Productos de matrices y vectores
Sean αMN y βNL dos matrices. Si el conjunto de indices L tiene un solo elemento entonces la matriz βNL tiene una sola columna. En este caso podemos escribir βNL = βN1y diremos que βN1 es un vector columna o una Nada columna. Obviamente, podemospensar que βN1 es una Nada βN . En este caso podemos hacer el producto de matricesαMNβN1 = αMNβN y este es el producto de una matriz por un vector definido al principio de esta seccion. Analogamente se define el producto por el otro lado. Si el conjunto deindicesM tiene un solo elemento entonces la matriz αMN tiene un solo renglon. En este casopodemos escribir αMN = α1N y diremos que α1N es un vector renglon o Nada renglon.Obviamente, podemos pensar que α1N es una Nada αN . En este caso podemos hacer elproducto de matrices α1NβNL = αNβNL y esta es la definicion del producto de un vectorpor una matriz.
En este libro, no haremos distinciones entre Nadas, Nadas columna y Nadas renglono sea α1N = αN1 = αN . Para esto, dimos las definiciones de producto de una matriz por unvector y al reves. Intuitivamente, el lector debe pensar que cuando aparesca un vector en unproducto de matrices este se convierte en vector fila o columna segun sea conveniente.
Claro, este abuso de la notacion aunque es muy comodo puede llevar (si nos ponemos pedantes) a contradicciones. Por ejemplo, podemos sumar dos Nadas perono podemos sumar unaNada columna con unaNada renglon.
Observese que, no solo el producto de matrices por vectores y al reves son casos particulares del producto de matrices, sino tambien el producto escalar de dos vectores al constatarque αNβN = α1NβN1.
Ejercicio 72 Tome dos matrices con entradas enteras y multiplıquelas. Repita este ejerciciohasta que usted comprenda muy bien el concepto de producto de matrices.
La transformacion lineal de una matriz
Sea αMN unaMNmatriz. Esta matriz define una funcion KN 3 βN → αMNβN ∈ KM .Esta funcion es una TL como ya vimos al principio de esta seccion utilizando el isomorfismoMor
¡KN,KM
¢↔ KMN . Sin embargo, la prueba directa de este hecho es muy sencilla.
87Seccion 3.4 Coordinatizacion de transformaciones lineales
El multiplicar una matriz fija porNadas es una TL.
Prueba. Sea αMN una matriz cualquiera pero fija. Por las propiedades del producto de vectores tenemos que para todo i ∈M se cumple que αiN (βN + γN) = αiNβN+αiNγN y queαiN (λβN) = λ (αiNβN). Esto significa que son validas las igualdades αMN (βN + γN) =
αMNβN + αMNγN y αMN (λβN) = λ (αMNβN).
La matriz de una transformacion lineal
En la proposicion anterior vimos que al mutiplicarMNmatrices porNadas obtenemosejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles, o sea, quecualquier TL de KN en KM se obtiene multiplicando por unaMNmatriz. En realidad, estoya lo probamos al principio de esta seccion al construir el isomorfismo Mor
¡KN,KM
¢ ↔KMN . Sin embargo, aquı es mas simple ya que tenemos bases canonicas de KN y KM . SeaE = ei : i ∈ N la base canonica de KN . Recordemos que ei es la Nada con coordenadasδji = 1 si i = j y δji = 0 si i 6= j. Sea f : KN → KM una TL. Denotemos αMi = f (ei) ∈KM . A la matriz αMN cuyas columnas son las imagenes de la base canonica mediante la TLf la llamaremos matriz de la TL f.
Sea f : KN → KM una TL y αMN su matriz. Entonces, para cualquier βN ∈ KN se cumple que f (βN) = αMNβN .
Prueba. Sea f0 : βN 7→ αMNβN . Sabemos que f y αMNei =P
j∈N αMjδji = αMif0 son TLs. Si i ∈ N entonces, por definicion de la basecanonica y del producto de una matriz por un vector tenemos la igualdad del recuadro. Luegof y f0 coinciden en la base canonica y por extension lineal ambas son la misma funcion.
Ejercicio 73 Halle la matriz de la rotacion con angulo α en R2. [180]
Composicion de TLs y producto de matrices
La matriz de la composicion de dos TLs esigual al producto de las matrices de las TLs.
Prueba. Sean f ∈ Mor¡KN,KM
¢y g ∈ Mor
¡KM,KL
¢dos TLs. Sean αMN y βLM las
matrices de f y g respectivamente. Para cualquier γN ∈ KN y cualquier i ∈ L tenemos
βiM (αMNγN) =Xj∈M
βij (αjNγN) =Xj∈M
βij
Xk∈N
αjkγk =
88 Capıtulo 3. Transformaciones lineales
=Xk∈N
Xj∈M
βijαjkγk =Xk∈N
(βiMαMk)γk = (βiMαMN)γN
y por lo tanto βLM (αMNγN) = (βLMαMN)γN . Como γN 7→ βLM (αMNγN) es la TL g fentonces, tenemos (g f) (γN) = (βLMαMN)γN que es lo que se querıa probar.
El producto de matrices es asociativo, distribuye por ambos ladoscon la suma de matrices y conmuta con el producto por un escalar.
Prueba. Sean f, g y h TLs cuyas matrices son αMN , βLM y γKL respectivamente. Lamatriz de (h g) f es (γKLβLM)αMN . La matriz de h (g f) es γKL (βLMαMN). Como la composicion de TLs es asociativa tenemos (h g) f = h (g f) y por lo tanto(γKLβLM)αMN = γKL (βLMαMN). Esto prueba la asociatividad.
Las demas propiedades se prueban exactamente igual o sea, se desprenden de las respectivas propiedades de las TLs y de la proposicion 3.18.
Ejercicio 74 Pruebe la asociatividad del producto de matrices directamente de la definicionde producto o sea, sin usar TLs. [180]
El espacio de todas lasNNmatriceses un algebra isomorfa a End
¡KN¢.
Prueba. Ya sabemos queKNN es un espacio vectorial para la suma de matrices y el productode una matriz por un escalar. El resultado anterior hace la mayor parte del trabajo necesariopara mostrar que KNN es un algebra. Solo falta el neutro para el producto que es la matrizde la identidad en KN . Esta matriz es INN que cumple que Iij = δij (el delta de Kronecker)y que la llamaremos matriz identidad.
Ademas, ya sabemos que la aplicacion que a un OL en KN le hace corresponder sumatriz es un isomorfismo de espacios vectoriales. La proposicion 3.18 completa la tarea dedemostrar que esta aplicacion es un isomorfismo de algebras.
Matrices inversas
Sea f ∈ Mor¡KN,KM
¢y αMN la matriz de f. La funcion f es biyectiva si y solo si,
existe la TL f−1 tal que f f−1 = I¡KN¢
y f−1 f = I¡KM
¢. A la matriz de la TL f−1 se
le llama matriz inversa de αMN y se denota por α−1MN . De la proposicion 3.18 obtenemos
que la matriz inversa cumple que α−1MNαMN = INN y αMNα−1
MN = IMM . Observese que elconjunto de ındices de las columnas de α−1
MN es M y no N. Analogamente, el conjunto deındices de los renglones de α−1
MN esN y noM.De la definicion es inmediato que una matriz tiene inversa si y solo si su TL es un iso
morfismo de espacios vectoriales. En particular los conjuntos de ındices N y M tienen que
89Seccion 3.5 Cambios de base
tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codominio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos preocuparemos en traducirnuestro criterio de isomorfismo 3.14 al lenguaje de matrices.
Una matriz cuadrada αMN tiene inversa si y solo si suscolumnas son todas diferentes y son una base de KM .
Prueba. Sea αMN una matriz cuadrada y f ∈ Mor¡KN,KM
¢su TL. La resticcion de f
a la base canonica de KN es la Nada de las columnas de la matriz αMN . Por 3.14 paraque f tenga funcion inversa es necesario y suficiente que esta restriccion sea inyectiva (lascolumnas diferentes) y que su imagen (el conjunto de columnas) sea una base de KM .
Es posible probar un criterio analogo al anterior substituyendo las columnas por los renglones. Sin embargo, su prueba aquı se nos harıa innecesariamente complicada. Mejor lodejaremos para el proximo capıtulo donde esto sera una facil consecuencia de un resultadomucho mas importante.
Ejercicio 75 Sean f y g las rotaciones del plano R2 en los angulos α y β respectivamente.Use el ejercicio 73 para hallar las matrices en la base canonica de f, g y f g. Use 3.18 parahallar formulas para el seno y el coseno de la suma de dos angulos. [180]
3.5 Cambios de base
Es usual en las aplicaciones que sea conveniente realizar ciertos calculos en un sistema decoordenadas y despues realizar otros calculos en otro sistema de coordenadas. En el algebralineal estos cambios de coordenadas son lineales o sea, la transformacion que lleva unascoordenadas a otras es una TL.
Cambios de base en un espacio vectorial
Sean V y N dos bases del espacio E. Conocemos los isomorfismos de coordinatizacionKV ↔ E ↔ KN . Nuestro problema ahora es: dado una Vada βV que son las coordenadasdel vector x en la base V como hallar las coordenadas γN de x en la baseN. En este caso lasletras V yN tienen el sentido de que V es la base “vieja” y queN es la base “nueva”.
Sea αNV la matriz cuyas columnas son los vectores de la base V exprev =
Xi∈N
αivisados en las coordenadas de N. O sea, para cualquier v ∈ V tenemos laformula en el recuadro a la derecha. A la matriz αNV se le llama matriz decambio de base (de V a N). Esta matriz no es otra cosa que la matriz delisomorfismo KV → E→ KN .
90 Capıtulo 3. Transformaciones lineales
Si βV es la Vada de las coordenadas de un vector en la base V entonces,αNVβV es la Nada de las coordenadas del mismo vector en la base N.
Prueba. Descompongamos x ∈ E en las dos bases. Tenemos, x =P
v∈V βvv =P
i∈N γii
y por lo tantox =
Xv∈V
βv
ÃXi∈N
αivi
!=Xi∈N
ÃXv∈V
αivβv
!i =
Xi∈N
γii
De la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdadPv∈V αivβv = γi que es la que se necesitaba demostrar.
Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) ∈ R2 en la baseN = a1,a2 donde a1 = (2, 3) y a2 = (1, 2). Las coordenadas (x, y) son las coordenadasde u en la base canonica. Luego, V = e1,e2 es la base canonica y para construir la matrizαNV de cambio de base necesitamos las coordenadas de V en la base N. Estas coordenadasse pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es mas sencillo usarla siguiente argumentacion. Como un cambio de base es un isomorfismo entonces la matrizαNV tiene inversa que es la matriz de cambio de la baseN a la base V . Las columnas de estamatriz ya las tenemos, son a1y a2. Luego, denotando p y q las coordenadas que buscamos,o sea, u = pa1 + qa2 tenemos:µ
p
q
¶=
µ2 1
3 2
¶−1 µx
y
¶=
µ2 −1
−3 2
¶µx
y
¶=
µ2x− y
2y− 3x
¶.
y en estos calculos lo unico que no conoce el lector es como calcular la matriz inversa. Pero,esto lo pospondremos hasta el proximo capıtulo.
Cambios de base en el espacio de transformaciones lineales
Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V , N dosbases del espacio E y W, M dos bases del espacio F. Conocemos los isomorfismos decoordinatizacion KWV ↔ Mor (E,F)↔ KMN . El problema ahora es: dada unaWVmatrizαWV que es la matriz de la TL f : E→ F en las bases V yW como hallar la matriz βMN de fen las basesN yM. Nuevamente, V,W son las bases “viejas” yM,N son las bases nuevas.
Sea γNV la matriz de cambio de base de V a N en E. Sea λMW lav =
Xi∈N
γivi
w =Xj∈M
λjwj
matriz de cambio de base de W a M en F. O sea, para cualquier v ∈ Vy cualquier w ∈ W tenemos las formulas en el recuadro a la derecha.Estas matrices no son otra cosa que las matrices de los isomorfismos decoordinatizacion KV → E→ KN y KW → F→ KM .
Si αWV es la matriz de f en las bases V yW entonces,λMWαWVγ
−1NV es la matriz de f en las bases N y M.
91Seccion 3.5 Cambios de base
Prueba. Las columnas de αWV son las imagenes por f de la basef (v) =
Xw∈W
αwvw
f (i) =Xj∈M
βjij
V expresadas en la base W o sea, ∀v ∈ V se cumple la formuladel recuadro a la derecha. Denotemos por βMN la matriz de f en las
bases N, M. Las columnas de βMN son las imagenes por f de la baseN expresadas en la base M. O sea, para cualquier i ∈ N se cumple laformula del recuadro a la izquierda.
Substituyendo en la formula de la derecha las formulas que definen las matrices λMW yγNV obtenemos X
i∈Nγivf (i) =
Xj∈M
ÃXw∈W
λjwαwv
!j
y en esta igualdad substituimos f (i) por la formula de la izquierda para obtenerXj∈M
ÃXi∈N
βjiγiv
!j =
Xj∈M
ÃXw∈W
λjwαwv
!j.
De la unicidad de la representacion de cualquier vector en la base M obtenemos que paracualesquiera j ∈ M y v ∈ V se cumple que
Pi∈N βjiγiv =
Pw∈W λjwαwv y por lo tanto
βMNγNV = λMWαWV . Como γNV es la matriz de un isomorfismo entonces, γNV tieneinversa por lo que podemos despejar βMN .
La proposicion anterior la podemos interpretar graficamenKV
αWV−→ KWγNV ↓ ↓ λMW
KN −→βMN
KM
te de la siguiente manera. Las matrices αWV , βMN , γNV , yλMW son las matrices de TLs entre espacios como se muestraen el diagrama a la izquierda. Se dice que un diagrama defunciones es conmutativo si cualesquiera dos caminos di
rigidos entre dos cualesquiera conjuntos son funciones iguales. En nuestro caso, el que eldiagrama a la izquierda sea conmutativo lo quiere decir es que βMNγNV = λMWαWV .
Cambios de base en el espacio de operadores lineales
Si f ∈ End (E) = Mor (E,E) es un OL entonces, no tiene sentido escoger bases diferen
KVαVV−→ KV
γNV ↓ ↓ γNVKN −→
βNNKN
tes para el dominio y el codominio ya que estos son iguales. Sean V , N dos bases de E. Elproblema ahora es: dada una VVmatriz αVV que es la matriz del OL f en la base V , hallar lamatriz βNN de f en la baseN. Sea γNV la matriz de cambio debase de V aN en E. En este caso, el diagrama es el de la derecha. Ya no hay que probar la conmutatividad de este ya que el,es un caso particular del anterior. Luego, βNNγNV = γNVαVVy despejando obtenemos que βNN = γNVαVVγ
−1NV .
Ejemplo. Sea f la TL del plano R2 que tiene la matriz del recuadro aµcosα − sinαsinα cosα
¶la izquierda en la base V = a1,a2 donde a1 = (2, 3) y a2 = (1, 2).¿Cual sera la matriz de f en la base canonica? La matriz de cambio
de base a la base canonica es la que tiene como columnas a los vectores a1 y a2. Luego, lamatriz de f en la base canonica esµ
2 1
3 2
¶µcosα − sinαsinα cosα
¶µ2 1
3 2
¶−1
=
µcosα+ 8 sinα −5 sinα13 sinα cosα− 8 sinα
¶
92 Capıtulo 3. Transformaciones lineales
y esto es una advertencia de que un operador lineal puede tener en una base una matriz quees igual a la de la rotacion en la base canonica y sin embargo no es una rotacion.
La transformacion lineal tanspuesta
Las formulas de cambios de base nos permiten definir propiedades de las transformaciones lineales que estan definidas solo para las matrices. La idea es la siguiente: para unatransformacion lineal f se encuentra su matriz A en ciertas bases se define la “propiedad”para la matriz A y definimos a esta como “propiedad” de f. Finalmente, se prueba que si Bes matriz de f en otras bases entonces, la “propiedad” de la matrizA es tambien “propiedad”de la matriz B. Con esto logramos que nuestra definicion de “propiedad” de f sea correcta osea, no depende de las bases en las cuales se definio. Ahora seguiremos esta idea para definirla transformacion lineal transpuesta.
Sea A = αNM una matriz. A la matriz B = βMN definida por βij = αji se le llama lamatriz transpuesta de A y se denotara por AT. Un ejemplo de matrices transpuestas es elsiguiente µ
1 2 3
6 5 4
¶T
=
⎛⎝ 1 6
2 5
3 4
⎞⎠o sea, los renglones de A son las columnas de AT y viceversa.
Es comodo pensar en la transpuesta como la operacion de transposicion que a una matrizle hace corresponder su transpuesta.
Las principales propiedades de la transposicion sonlas que se muestran en el recuadro a la derecha.
1)¡AT¢T
= A
2) (AB)T = BTAT
3)¡A−1
¢T=
¡AT¢−1
Prueba. La propiedad 1 es consecuencia trivial de la definicion. Para convencernos de lapropiedad 2 sean A = αNM , B = βML y γNL = αNMβML = AB. Denotemos AT = α0MN ,BT = β0LM y (AB)T = γ0LN . Tenemos que ∀i ∈ N y ∀j ∈M
γ0ji = αiMβMj =Xk∈M
αikβkj =Xk∈M
β0jkα0ki = β0jMα
0Mi
y esto prueba la propiedad 2. Para probar la propiedad 3 vemos que por la propiedad 2tenemos ¡
A−1¢TAT =
¡AA−1
¢T= IT = I
y la prueba concluye por la unicidad de los inversos.
Ahora, sea f : E → F una TL y A la matriz de f en ciertas bases. Definamos la TLtranspuesta fT : F → E como la TL de la matriz transpuesta AT. Tenemos que comprobarque esta definicion no depende de como escogimos las bases. Si B es la matriz de f en otrasbases entonces existen matrices invertibles C y D tales que B = CAD y por la propiedad2 tenemos BT = DTATCT. Por la propiedad 3 las matrices DT y CT son invertibles y estosignifica que BT es la matriz de fT en las nuevas bases.
93Seccion 3.6 El nucleo y la imagen de una transformacion lineal
La transpuesta de una inmersion es una proyeccion y recıprocamente.
Prueba. Sea F un subespacio de E y f : F → E la inmersion ⎛⎜⎜⎜⎜⎜⎜⎝1 · · · 0
· · · · · · · · ·0 · · · 1
0 · · · 0
· · · · · · · · ·0 · · · 0
⎞⎟⎟⎟⎟⎟⎟⎠correspondiente. SeaA una base de F. Por el Teorema de Existenciade Bases existe una base B de E que contiene a A. El conjunto devectoresC = B\A es una base de cierto subespacio complementarioG de tal manera que E = F ⊕ G. Si coordinatizamos a F con labase A y a E con la base B entonces, en estas bases, la matriz def se ve como en el recuadro a la derecha. O sea, en los renglonescorrespondientes a A tenemos la matriz identidad y en los renglones correspondientes a Ctenemos una matriz nula.
Si transponemos esta matriz entonces fTes la TL que a un vector a + b con a ∈ F yb ∈ G le hace corresponder a. Luego fT es la proyeccion de E a F a lo largo de G. El“recıprocamente” se obtiene de la propiedad 1 de la transposicion (
¡AT¢T= A).
3.6 El nucleo y la imagen de una transformacion lineal
En esta seccion queremos ver que para describir todas las transformaciones lineales noses suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Despues, veremos interesantes consecuencias de este resultado.
Definiciones
Para esto comenzaremos con dos definiciones fundamentales. Sea f : E→ F una TL.Al conjunto y ∈ F | ∃x ∈ E f (x) = y se le llama imagen de la TL. La imagen de f sedenotara por Im f. Al conjunto x ∈ E | f (x) = 0 se le llama nucleo de la TL. El nucleo def se denotara por ker f. Esta notacion es debido a que en ingles nucleo es “kernel”. Descriptivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen yel nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0.
La imagen y el nucleo de una TL son subespacios.
Prueba. Sean x,y vectores en Im f y λ ∈ K. Por definicion existen a,b tales que f (a) =x, f (b) = y. Como f es lineal tenemos f (a+ b) = f (a) + f (b) = x+ y y ademasf (λa) = λf (a) = λx. Esto quiere decir que Im f es un subespacio.
Sean a,b vectores en ker f y λ ∈ K. Tenemos f (a+ b) = f (a) + f (b) = 0+ 0 = 0 yf (λa) = λf (a) = λ0 = 0. Esto quiere decir que ker f es un subespacio.
94 Capıtulo 3. Transformaciones lineales
El nucleo y la imagen de una TL son subespacios de espacios diferentes. Si f :E→ F entonces ker f ⊂ E e Im f ⊂ F. Solamente en el caso que la TL es un OL osea, cuando E = F el nucleo y la imagen son subespacios del mismo espacio. Sin
embargo, como veremos mas adelante, en este caso pasan cosas raras ya que, aunque estossubespacios tienen dimensiones complementarias ellos NO son complementarios en general.
Transformaciones lineales con nucleo trivial
Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector cerosiempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se dice que ftiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso lapreimagen de cualquier vector es unica. Lo importante es que el recıproco tambien es cierto.
Una TL es inyectiva si y solo si su nucleo es trivial.
Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos(f (x) = f (y))⇔ (f (x)− f (y) = 0)⇔ (f (x− y) = 0)⇔ (x− y ∈ ker f)
y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalentea la existencia de un vector no nulo en el nucleo de la TL.
Descomposicion de transformaciones lineales
Ahora, demostraremos el resultado prometido al principio de la seccion. Sea f : E →F una TL. Sea K un subespacio complementario cualquiera pero fijo del ker f. Sea fK larestriccion de f al subespacio K. Denotemos i : Im f → F la inmersion del subespacio Im fen F. Por ultimo, denotemos πK : E³ K la proyeccion de E a K a lo largo del ker f.
Teorema de Descomposicion de una TL
f = i fK πK y fK es un isomorfismo.
Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.29 (pagina 64) existen unosunicos vectores a ∈ K, b ∈ ker f tales que x = a+ b. De aquı obtenemos
(i fK πK) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x)y con esto queda probado que f = i fK πK.
Para probar que fK es un isomorfismo sea f (x) ∈ Im f. Por 2.29 existen unos unicosvectores a ∈ K, b ∈ ker f tales que x = a+ b. Como fK (a) = f (a) = f (a) + f (b) =f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a− b) = 0. Como(a− b) ∈ K ∩ ker f entonces, a− b = 0 o sea a = b. Luego, fK es inyectiva.
Este teorema lo podemos visualizar mas facilmente si observaE
f−→ FπK ↓ ↑ iK −→
fKIm f
mos el diagrama de la derecha. La primera afirmacion del Teoremade Descomposicion de una TL (3.28) lo que dice es que este diagrama es conmutativo.
95Seccion 3.6 El nucleo y la imagen de una transformacion lineal
Para cualquier transformacion lineal f : E→ F,dimE = dimker f+ dim Im f.
Prueba. Por el teorema anterior Im f es isomorfo a un complementario de ker f.
La descomposicion de la transpuesta
Veamos una primera aplicacion del Teorema de Descomposicion de una TL (3.28). Comoveremos en el proximo capıtulo, este resultado es clave para poder encontrar el conjunto detodas las soluciones de un sistema de ecuaciones lineales.
Para cualquier transformacion lineal f : E→ F se cumpleque dim Im f = dim Im fT y que dimker f = dimker fT.
Prueba. Por 3.29 es suficiente demostrar la primera igualdad. Descompongamos f = igπdonde i es una inmersion, g un isomorfismo y π una proyeccion. O sea, f es la composicion
Eπ−→ K
g−→ Im f
i−→ F
Por 3.24.2 tenemos que fT = πT gT iT. Mas detalladamente, fT es la composicion
FiT−→ Im f
gT
−→ KπT
−→ E
De 3.24.3 obtenemos que gT es un isomorfismo y de 3.25 obtenemos que πT es una inmersiony que iT es una proyeccion. Como gT iT es sobreyectiva Im fT = ImπT y como πT es unainmersion ImπT = K. El hecho de que K y Im f son isomorfos termina nuestra prueba.
Un criterio de isomorfismo
Veamos otra aplicacion. Recordemos un sencillo resultado de teorıa de conjuntos: todafuncion inyectiva de un conjunto finito en otro con el mismo numero de elementos es biyectiva. De hecho, esto lo usamos en el primer capıtulo para probar que Zp es un campo parap primo. El objetivo ahora, es mostrar que “exactamente” el mismo resultado (simple peromuy util) se cumple para espacios vectoriales de dimension finita. Esto es una consecuenciadel Teorema de Descomposicion de una TL (3.28).
Sean E y F dos espacios de dimensiones finitas e iguales.Una TL f : E → F es inyectiva si y solo si es sobreyectiva.
Prueba. Por 3.29 tenemos dimker f = dimE − dim Im f. Si f es sobreyectiva entonces,F = Im f. Por hipotesis dimF = dimE. De aquı, debido a que todas las dimensiones sonfinitas, dimker f = 0 y por lo tanto ker f = 0. De 3.27 concluimos que f es inyectiva.
Si f es inyectiva entonces, la funcion f : E → Im f es un isomorfismo y por lo tantodimE = dim Im f. Por hipotesis dimF = dimE. Como Im f es un subespacio de F entonces,
96 Capıtulo 3. Transformaciones lineales
aplicando 2.17 (pagina 54) obtenemos F = Im f.
Como consecuencia de este resultado probaremos que para comprobar que dos operadores lineales f y g en un espacio de dimension finita son el inverso uno del otro, solo esnecesario comprobar una de las dos igualdades g f = I o f g = I.
Sean f, g : E → E dos OLs de un espacio finito dimensional. Entonces, f g = I si y solo si g f = I.
Prueba. La funcion identidad es sobreyectiva. Luego, si fg = I entonces, f es sobreyectiva.Por 3.31 f es inyectiva y por lo tanto tiene inversa f−1. Componiendo con f−1 obtenemosf−1 f g = f−1 I y por lo tanto g = f−1.
Descomposicion canonica de transformaciones lineales
Para aplicar el Teorema de Descomposicion de una TL (3.28) necesitamos escoger (yaque hay muchos) un subespacio complementario K del nucleo de f. Ya vimos (vease 2.34)que cualquier tal subespacio es isomorfo al cociente E/ ker f. Queremos substituir K porE/ ker f en el Teorema de Descomposicion de una TL (3.28) para ası obtener otra versiondel mismo que no dependa de escoger nada, o sea que sea canonico.
En el Teorema de Descomposicion de una TL (3.28) estan
Ef−→ F
? ↓ ↑ iE/ ker f ←→
?Im f
involucradas tres funciones: la proyeccion πK (que es sobreyectiva), la restriccion fK (que es biyectiva) y la inmersion i (que esinyectiva). Esta ultima no depende de K y podemos quedarnoscon ella. Ası que todas nuestras incognitas estan representadasen el diagrama de la derecha.
¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas va
x 7→ ker f+ xf (x) 7→ ker f+ x
riantes. El espacio cociente E/ ker f esta formado por todos los subespacios afines ker f+ x.El espacio Im f esta formado por todas las imagenes f (x). Luego, launica posible respuesta a nuestra pregunta son las funciones definidasen el recuadro a la izquierda.
La primera de estas funciones tiene dominio E, codominio E/ ker f, se le llama funcionnatural y se denota por “nat”. La funcion natural es una TL ya que
nat (x+ y) = ker f+ x+ y = ker f+ x+ ker f+ y = nat (x) + nat (y)nat (λx) = ker f+ λx = λ ker f+ λx = λ (ker f+ x) = λ nat (x)
y ademas es evidentemente sobreyectiva.La segunda de estas funciones es nuestra preocupacion fundamental ya que tenemos que
probar que es un isomorfismo. Esta funcion tiene dominio Im f, codominio E/ ker f y ladenotaremos por g. La funcion g es una TL ya que
g (f (x) + f (y)) = g (f (x+ y)) = ker f+ x+ y = g (f (x)) + g (f (y))g (λf (x)) = g (f (λx)) = ker f+ λx =λ (ker f+ x) = λg (f (x))
y es tambien evidentemente sobreyectiva.
97Seccion 3.7 Trasformaciones semilineales y coalineaciones
¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios afinesker f + x y ker f + y son el mismo entonces, f (x) = f (y). Como para un subespacio afınE paralelo al ker f se cumple que (E = ker f+ x)⇔ (x ∈ E) entonces, la inyectividad de ges equivalente a que la funcion f sea constante en cualquier subespacio afın paralelo al ker f.La cadena de equivalencias
(y ∈ ker f+ x)⇔ (∃a ∈ ker f | y = a+ x)⇔ (f (y− x) = 0)⇔ (f (y) = f (x))
nos convence de que g es inyectiva independientemente de quien sea f.
Los subespacios afines paralelos a ker f son precisamentelos conjuntos de vectores en que la funcion f es constante.
Luego, g es un isomorfismo y por lo tanto tiene un isomor
Ef−→ F
nat ↓ ↑ iE/ ker f −→
f0Im f
fismo inverso que denotaremos por f0. El isomorfismo f0 es elque a un subespacio afın ker f + x le hace corresponder f (x).Ası completamos nuestro diagrama como en el recuadro a laderecha. Solo nos falta demostrar que este es conmutativo. Sinembargo esto es muy facil porque la composicion de funciones
xnat7−→ ker f+ x
f07−→ f (x)i7−→ f (x)
es evidentemente igual a la funcion f.
3.7 Trasformaciones semilineales y coalineaciones
Una funcion f : E → F de espacios vectoriales sobre K sef(a+ b) = f(a) + f(b)
f (λa) = λf (a)le llama transformacion semilineal si existe un automorfismoλ 7→ λ del campo K tal que para cualesquiera vectores a, b ycualquier escalar λ se cumplen las propiedades del recuadro.
Observese que las trasformaciones lineales son semilineales usando como automorfismodel campo la funcion identidad. Para construir otras trasformaciones semilineales necesitamos automorfismos del campo que no sean la identidad. El ejemplo mas importante es laconjugacion a+bi 7→ a−bi en el campo de los numeros complejos (vease el ejercicio 34).
Ejercicio 76 Pruebe que para una transformacion semilineal no nula f el correspondienteautomorfismo del campo es unico. [180]
Trasformaciones semilineales reales
En el caso del campo de los numeros reales no hay trasformaciones semilineales que nosean lineales debido al siguiente resultado:
98 Capıtulo 3. Transformaciones lineales
El unico automorfismo de R es la identidad.
Prueba. Sea f un automorfismo de R. Supongamos que x > 0 y sea y =√x entonces,
f (x) = f(y2) = f (y)2> 0. En particular si x = b − a > 0 entonces f (b− a) =
f (b) − f (a) > 0. En otras palabras, f es monotona b > a ⇒ f (b) > f (a). Como f−1
tambien es monotona entonces, f conmuta con el supremo y el ınfimo (vease el ejercicio 77).Como f (1) = 1 y 1 es generador del grupo aditivo de Z obtenemos que f es la identidad
en Z. Como f (a/b) = f (a) /f (b) obtenemos que f es la identidad enQ. Sea x un irracionaly denotemos por A el conjunto de todos los racionales menores que x. Sabemos que x =supA y por lo tanto f (x) = f (supA) = sup f (A) = supA = x.
Ejercicio 77 Sea R un conjunto ordenado y f : R → R una isotonıa (biyeccion tal que f yf−1 son monotonas). Pruebe que si supA existe entonces, f (supA) = sup f (A). [180]Ejercicio 78 Sea f 6= I un automorfismo de C. Las siguientes afirmaciones son equivalentes: 1. f es la conjugacion compleja. 2. f es continua. 3. f es la identidad en R. [181]
Propiedades de las transformaciones semilineales
Al igual que las TL las transformaciones semilineales preservan subespacios.
Toda trasformacion semilineal transforma subespacios en subespacios.
Prueba. Sea f : E→ F una trasformacion semilineal y F un subespacio deE. Seana,b ∈ Fy α ∈ K. Tenemos f(a+ b) = f(a) + f(b) por lo que f (F) es cerrado para la suma. Seaλ ∈ K tal que λ = α. Tenemos αf (a) = λf (a) = f (λa) o sea f (E) es cerrado para elproducto por escalares.
Toda trasformacion semilineal transformasubespacios afines en subespacios afines.
Prueba. Sea f : E → F una trasformacion semilineal y F un subespacio de E. Si F + x esun subespacio afın entonces, f (F + x) = f (F) + f (x) que es tambien un subespacio afınpuesto que por el resultado anterior f (F) es un subespacio.
Automorfismos semilineales.
A diferencia de las TL las transformaciones semilineales no forman un espacio vectorial.Esto es debido a que si λ 7→ λ y λ 7→ eλ son dos automorfismos del campo entonces λ 7→ λ+eλ
99Seccion 3.7 Trasformaciones semilineales y coalineaciones
no necesariamente es un automorfismo. A las transformaciones semilineales f : E → E
biyectivas las llamaremos automorfismos semilineales.
La composicion de automorfismos semilineales es un automorfismo semilineal.
Prueba. Sean f y g dos automorfismos semilineales. De la misma manera que para losoperadores lineales se prueba que (f g) (a+ b) = (f g) (a) + (f g) (b). Sean λ 7→ λ
y λ 7→ λ los automorfismos del campo correspondientes a f y g respectivamente. Tenemos
que (f g) (λa) = f¡λa¢= eλa y la prueba termina al observar que λ 7→ eλ siendo una
composicion de automorfismos del campo es automorfismo del campo.
Ejercicio 79 Sea λ 7→ λ un automorfismo del campoK. Pruebe que la transformacionKn 3(x1, . . . , xn) 7→ (x1, . . . , xn) ∈ Kn es un automorfismo semilineal. A tales automorfismossemilineales los llamaremos estandar. Pruebe que toda transformacion semilineal de Kn enKn es la composicion de un automorfismo semilineal estandar con una TL. [181]
La inversa de un automorfismo semilineal es un automorfismo semilineal..
Prueba. Sea f : E → E una automorfismo semilineal. Sean λ ∈ K y x,y ∈ E. Seana,b ∈ E tales que f (a) = x , f (b) = y. Tenemos
f−1 (x+ y) = f−1 (f (a) + f (b)) = f−1 (f (a+ b)) = a+ b = f−1 (x) + f−1 (y)
f−1¡λx¢= f−1
¡λf (a)
¢= f−1 (f (λa)) = λa =λf−1 (x)
que es lo que se querıa demostrar puesto que la funcion λ 7→ λ es un automorfismo de K.
Estos dos ultimos resultados significan que el conjunto de todos los automorfismos semilineales forman un grupo respecto a la composicion de funciones.
Coalineaciones
Una biyeccion f : E→ E en un espacio vectorial sobre un campo le llama coalineacionsi la imagen de cualquier subespacio afın es un subespacio afın y la preimagen de cualquiersubespacio afın es un subespacio afın de E. En otras palabras, tanto f como f−1 transformansubespacios afines en subespacios afines. Obviamente, si f es una coalineacion entonces f−1
tambien lo es. El siguiente resultado nos dice que la definicion de coalineacion es posiblehacerla de diversas maneras.
100 Capıtulo 3. Transformaciones lineales
Sea f : E→ F una biyeccion entre dos espacios afines. Entonces, lassiguientes afirmaciones son equivalentes:
1. f y f−1 transforman subespacios afines en subespacios afines.2. f y f−1 transforman generadores afines en generadores afines.3. f y f−1 transforman bases afines en bases afines.4. f y f−1 transforman conjuntos AI en conjuntos AI.5. f y f−1 conmutan con la cerradura afın.
Prueba. (1⇒ 2) Sea A un conjunto generador afın de E y B = f (A). Sea C = f−1 [B]
que es un subespacio afın por ser la preimagen de un subespacio. Tenemos, B ⊆ [B] y porlo tanto A = f−1 (B) ⊆ f−1 [B] = C. Luego E = [A] ⊆ C y por lo tanto C = E. Deaquı f (E) = [B] y como f es sobreyectiva tenemos que B es generador. Por simetrıa, si B esgenerador entonces f−1 (B) tambien lo es.(2⇒ 3) Sea ahora A una base afın de E y B = f (A). Sabemos que B es generador afın.
Si B no fuera AI entonces existirıa b tal que B\b es generador y por lo tanto, tendrıamosque f−1 (B\b) = A\f−1 (b) es generador afın. Esto contradecirıa que A es una base afın.Por simetrıa, si B es una base afın entonces f−1 (B) tambien lo es.(3⇒ 4) Sea ahoraA un conjunto AI. SeaA0 una base afın que lo contiene. Sabemos que
f (A0) es una base afın. Como f (A) ⊆ f (A0) tenemos que f (A) es AI. Por simetrıa, si B esAI entonces f−1 (B) tambien lo es.(4⇒ 1) SeaA una base afın del subespacio afın [A]. ComoA es AI entonces B = f (A)
tambien lo es. Si b ∈ [A] entoncesA∪b es AD y por lo tanto B∪f (b) tambien lo es. Luego,por el corolario 2.42, tenemos f (b) ∈ [B] y por lo tanto f [A] ⊆ [B]. Si b ∈ [B] entoncesB∪b es AD y por lo tanto A∪ f−1 (b) tambien lo es. Luego, por el corolario 2.42, tenemosf−1 (b) ∈ [A] y por lo tanto [B] ⊆ f [A]. Esto significa que f transforma el subespacio [A]en el subespacio [B]. Por simetrıa, f−1 tambien transforma subespacios en subespacios.(5⇒ 1) Si f [A] = [f (A)] entonces la imagen del subespacio afın [A] es el subespa
cio afın [f (A)]. O sea, f trasforma subespacios en subespacios. Por simetrıa, f−1 tambientransforma subespacios en subespacios.(1⇒ 5) Sea f una coalineacion. SeaA un conjunto de puntos. Como f transforma subes
pacios afines en subespacios afines la restriccion de f a [A] es una coalineacion del espacioafin [A] en el espacio afin f [A]. Como esta restriccion transforma generadores en generadores tenemos que f (A) es generador de f [A]. Luego f [A] = [f (A)]. Para probar de que f−1
conmuta con la cerradura afın usamos que f−1 es una coalineacion.
Ejercicio 80 Sea A un conjunto con un operador de cerradura y f : A→ A una biyeccion.Si f y f−1 conmutan con el operador de cerradura entonces f es una isotonıa del conjuntoordenado de cerrados.
101Seccion 3.7 Trasformaciones semilineales y coalineaciones
Estructura de las coalineaciones
La composicion de coalineaciones de un espacio afın en si mismo es una coalineacion.Lo mismo sucede con la inversa de una coalineacion. Luego el conjunto de todas las coalineaciones de un espacio afın F es un grupo respecto a la composicion de funciones.
Si dimE = 1 entonces cualquier biyeccion de E en E es una coalineacion ya que en estecaso todos los subepacios afines son puntos y la condicion de preservar puntos no es ningunarestriccion.
Un importante subgrupo de colineaciones son las traslaciones o sea, las funciones de laforma ta : F 3 x 7→ x+a ∈ F y de estas hay una para cada vector a en el espacio vectorialF. Como ta tb = ta+b observamos que el subgrupo de traslaciones es isomorfo al grupoaditivo del espacio vectorial F.
Sea f una coalineacion en E. Denotemos a = f (0) y ta la traslacion x 7→ x+a. Observemos que la coalineacion f0 = t−a f es tal que f0 (0) = 0. Luego, cualquier coalineaciones la composicion f = ta f0de una coalineacion que preserva 0 seguida de una traslacion.
Si f es un automorfismo semilineal entonces f transforma subespacios afines en subespacios afines y por lo tanto es una coalineacion que preserva 0.
Ahora, comenzaremos a probar el resultado principal de esta seccion: que en dimensional menos 2 toda coalineacion que preserva 0 es semilineal. En todo lo que sigue, E es unespacio vectorial de dimension al menos 2 sobre el campo K.
Toda coalineacion en E preserva el paralelismo de rectas.
Prueba. Sea f una coalineacion y `, `0 dos rectas paralelas diferentes. Como f es un automorfismo del conjunto ordenado de subespacios afines dim [` ∪ `0] = dim f [` ∪ `0] =dim [f (`) ∪ f (`0)] y por lo tanto f (`) y f (`0) son coplanares.
Tambien dim [` ∩ `0] = dim f [` ∩ `0] = dim [f (`) ∩ f (`0)] y por lo tanto f (`) y f (`0) nose intersectan.
Toda coalineacion en E que preserva 0 es unautomorfismo del grupo aditivo de vectores.
Prueba. Sea f una coalineacion de E que preserva 0. Recordemos que para cualquier vectorx el subespacio hxi es la recta por el origen que pasa por x. Y como f preserva 0 tenemosf hxi = hf (x)i o sea, f tambien conmuta con la cerradura lineal.
Sean a,b ∈ E dos vectores. Tenemos que probar que f (a+ b) = f (a)+ f (b). Esto estrivial si a,b contiene a 0 por lo que podemos suponer que a 6= 0 y b 6= 0. Supongamosprimero que a,b es LI. Por la regla del paralelogramo sabemos que
a+ b = (hai+ b) ∩ (hbi+ a) ,f (a) + f (b) = (hf (a)i+ f (b)) ∩ (hf (b)i+ f (a)) .
102 Capıtulo 3. Transformaciones lineales
Como f preserva el paralelismo f (hai+ b) es una recta paralela a f (hai) = hf (a)ique pasa por f (b) , o sea f (hai+ b) = hf (a)i + f (b). Analogamente, f (hbi+ a) =hf (b)i+ f (a). Como f conmuta con la interseccion (el ınfimo) tenemosf (a+ b) = f (hai+ b)∩f (hbi+ a) = (hf (a)i+ f (b))∩(hf (b)i+ f (a)) = f (a)+f (b)y esto concluye el caso de que a,b es LI.
Es claro que si a,b es LI entonces, tambien lo es a− b,b y por lo tantof (a) = f (a− b+ b) = f (a− b) + f (b) .
Luego, si a,b es LI entonces, f (a− b) = f (a)− f (b).Supongamos que a,b es LD. Entonces, hai = hbi. Como dimE > 1 existe c /∈ hai
tal que los conjuntos a,c, b, c son LI.Si b 6= −a entonces, a+ c,b− c es LI y por el caso anterior tenemos que
f (a+ b) = f (a+ c+ b− c) = f (a+ c) + f (b− c) = f (a) + f (b)
y en particular cuando b = a obtenemos f (2a) = 2f (a).Si b = −a entonces, a+ c,b+ c es LI y tenemos que2f (c) = f (2c) = f (a+ c+ b+ c) = f (a+ c) + f (b+ c) = f (a) + f (b) + 2f (c)
y por lo tanto f (a) + f (b) = 0 = f (0) = f (a+ b).
Ejercicio 81 Complete la demostracion del resultado anterior mostrando que si a,c es LI,b = ρa y ρ 6= −1 entonces a+ c,b− c es un conjunto LI. [181]
Si f es una coalineacion en E que preserva 0 entonces, existe un automorfismo λ 7→ λ del campo K tal que f (λa) = λf (a) para todo vector a ∈ E.
Prueba. Sea a ∈ E\0. Como f preserva 0 tenemos que f (hai) = hf (a)i. Sabemos queαa ∈ hai y por lo tanto f (αa) ∈ hf (a)i. Como en hf (a)i estan precisamente los multiplosde f (a) existe un escalar que denotaremos αa tal que f (αa) = αaf (a). De esta maneraesta definida una funcion K 3 α 7→ αa ∈ K que es biyectiva pues f es una biyeccion de haien hf (a)i.
Queremos probar que αa no depende de a. O sea que para cualesquiera a,b ∈ E\0tenemos que αa = αb. Supongamos que a,b es LI. Usando 3.41 obtenemos que
αaf (a) + αbf (b) = f (αa) + f (αb) = f (αa+ αb) =
= f (α (a+ b)) = αa+bf (a+ b) = αa+bf (a) + αa+bf (b)
y como f (a) , f (b) es LI obtenemos αa = αa+b = αb.Supongamos que a,b es LD entonces, como dimE > 1 existe c tal que a,c y c,b
son dos conjuntos LI. Por el caso anterior αa = αc = αb.Como αa no depende de a denotaremos α = αa. Sabemos que para cualquier vector
a ∈ E tenemos f (αa) = αf (a). Solo falta probar que α 7→ α es un automorfismo de K.
103Seccion 3.7 Trasformaciones semilineales y coalineaciones
Sea a un vector no nulo. Usando 3.41 obtenemos que(α+ β)f (a) = f ((α+ β)a) = f (αa+ βa) = f (αa) + f (βa) =
¡α+ β
¢f (a)
(αβ)f (a) = f (αβa) = αf (βa) = αβf (a)
y como f (a) es no nulo obtenemos α+ β = α+ β y αβ = αβ.
Resumiendo los dos ultimos resultados obtenemos:
Caracterizacion de las coalineaciones
Si dimE ≥ 2 entonces, cualquier coalineacion enE que preseva 0 es un automorfismo semilineal.
Combinando esto con 3.34 vemos que el caso de los reales es mas sencillo.
Toda coalineacion en un espacio vectorial real de dimension doso mas es un automorfismo lineal seguido por una traslacion.
104
DeterminantesCapítulo cuartoCapítulo cuarto
os determinantes son una funcion que a cada matriz cuadrada le hace corresponderun elemento del campo. Todo lo que se digamos acerca de la importancia de los determinantes en las matematicas es poco. Este es uno de los conceptos sin los cuales
realmente no se puede entender nada en las matematicas superiores. En este capıtulo daremos la definicion de los determinantes, estudiaremos sus propiedades, metodos de calculoy seremos capaces, gracias a ellos, de resolver los sistemas de ecuaciones lineales de formageneral.
4.1 Permutaciones
La definicion de determinante de una matriz pasa inevitablemente por la definicion delsigno de una permutacion. El lector debe entender bien esta seccion para poder pasar alestudio de los determinantes.
El grupo simetrico
Sea N un conjunto finito. Una permutacion de N es una biyeccion de N en N. Alconjunto de todas las permutaciones deN lo denotaremos por SN . La composicion de biyecciones es una biyeccion y toda biyeccion tiene inversa, por lo tanto, SN es un grupo respectoa la composicion. Al grupo (SN, ) se le llama el grupo simetrico de N. Denotaremos porIN a la funcion identidad que es el neutro de SN . Es importante recordar nuestra notacion dela composicion (σ ω) (a) = σ (ω (a)) ya que la composicion no es conmutativa.
Si |M| = |N| entonces los grupos SM y SN son isomorfos.
Prueba. Sean M y N son dos conjuntos del mismo cardiM
σ−→ M
ω ↓ ↑ ω−1
N −→ωσω−1
N
nal. Si ω : M → N es una biyeccion entonces fijandonos enel diagrama conmutativo del recuadro a la derecha obtenemosuna funcion ∆ : SM 3 σ 7→ ωσω−1 ∈ SN . Observemos, que∆ tiene inversa SN 3 ρ 7→ ω−1ρω ∈ SM .
Ademas, ∆ (σθ) = ωσθω−1 = ωσω−1ωθω−1 = ∆ (σ)∆ (θ) y por lo tanto, ∆ es unisomorfismo de los grupos SM y SN .
106 Capıtulo 4. Determinantes
El lector debe interpretar este resultado como que, en el grupo SM podemos cambiarle elnombre a los elementos deM mediante la biyeccion δ :M→ N y obteniendo el grupo SN .En particular, el numero de elementos de SN solo depende del numero de elementos enN.
El numero de permutaciones de un conjunto con n elementos es n!.
Prueba. Para la prueba es mas claro encontrar ρ (n) el numero de biyecciones f :M→ N
donde |M| = |N| = n. Si n = 1 entonces ρ (n) = 1 = 1!. Hagamos induccion en n. Sii ∈ M entonces, el conjunto de biyecciones lo podemos partir en n partes disjuntas seguncual sea j = f (i). Cada parte tiene tantos elementos como biyecciones f : M\i → N\j ypor hipotesis de induccion este numero es (n− 1) !. Luego, ρ (n) = n (n− 1) ! = n!.
Ciclos
Sea M = x0, . . . , xn−1 ⊆ N. A la permutacionσ (y) =
¯xi+1modn si y = xiy si y /∈Mσ mostrada en el recuadro a la derecha se le llama ci
clo de orden n. A esta permutacion se le denotara por(x0, . . . , xn−1). . Dos ciclos (x0, . . . , xn−1) y (y0, . . . , ym−1) se les llama disjuntos si ningunxi es igual a algun yj.
Es importante notar que la composicion de ciclos disjuntos es conmutativa pero la composicion de ciclos en general no lo es. Tambien debemos notar que debido a las propiedadesde la funcion modn se tiene que (a, . . . , b, c) es la misma permutacion que (c, a, . . . , b) enotras palabras, siempre podemos escoger el principio del ciclo.
Sea σ ∈ SN una permutacion. La relacion en N definidapor ∃n ∈ Z tal que a = σn (b) es de equivalencia.
Prueba. Tenemos a = σ1 (a) y por lo tanto es reexiva. Si a = σn (b) y b = σm (c)entonces a = σn+m (c) y por lo tanto es transitiva. Si a = σn (b) entonces, b = σ−n (a)
por lo que la relacion es simetrica.
A las clases de equivalencia de esta relacion se le llaman orbitas de la permutacion.
La restriccion de una permutacion a una orbita es un ciclo.
Prueba. Supongamos queM es una orbita. Sea a ∈M. TenemosM = σn (a) | n ∈ Z. ElconjuntoM no puede ser infinito por lo que existe un natural p mas pequeno tal que σp (b)ya aparecio antes en la sucesion a,σ (a) , . . .. Observemos que σp (a) = a porque si no,habrıa un numero k mayor que cero y menor que p tal que σp (a) = σk (a) o sea, σk (a)tendrıa dos preimagenes diferentes σk−1 (a) 6= σp−1 (a) y esto no puede ser ya que σ es unabiyeccion. Dividiendo con resto cualquier entero n entre p tenemos que n = kp + r con
107Seccion 4.1 Permutaciones
0 ≤ r < p. Luego, σn (a) = σr¡σkp (a)
¢= σr (a) y M = σn (a) | n ∈ Zp. Esto quiere
decir que la restriccion de σ aM es el ciclo¡a,σ (a) , . . . ,σp−1 (a)
¢.
Supongamos que la restriccion de σ a M es el ciclo¡a,σ (a) , . . .σp−1 (a)
¢. Como
σ (M) =M tenemos que σp (a) ∈M y de la misma manera que antes vemos que σp (a) =a y queM = σn (a) | n ∈ Z es una orbita.
Toda permutacion es composicion de ciclos disjuntos.
Prueba. Solo tenemos que tomar los ciclos correspondientes a todas las orbitas y componerlos en cualquier orden.
Observese que la descomposicion en ciclos disjuntos de una permutacion es unica salvoel orden de la composicion.
El grupo alternante
Una permutacion se le llama par si en su descomposicion en ciclos disjuntos hay unnumero par de ciclos de orden par. En otro caso se le llama impar. A los ciclos de orden2 se les llama transposiciones. Las transposiciones son impares. La inversa de cualquiertransposicion es ella misma.
La composicion de una permutacion con una transposicion cambia la paridad de la permutacion.
Prueba. Sea σ una permutacion y τ = (a, b) una transposicion. Distingamos dos casos:que a y b estan en una misma orbita de σ o que no.
Si estan en la misma orbita M entonces escogiendo el principio del ciclo en M y renumerando los elementos de N podemos lograr que τ = (1, k) con k > 1 y que la restriccionde σ aM es (1, 2, . . . , n) con n ≥ k. Como τ (σ (k− 1)) = 1 y τ (σ (n)) = k, obtenemos
(1, k) (1, 2, . . . n) = (1, . . . , k− 1) (k, . . . , n) .Si n es par entonces, k − 1 y n − k + 1 tienen la misma paridad por lo que la paridad deσ cambia. Si n es impar entonces k − 1 y n − k + 1 tienen diferente paridad por lo que laparidad de σ cambia.
Si estan en diferentes orbitasM1 yM2 entonces escogiendo los principios de los ciclosen M1, M2 y renumerando los elementos de N podemos lograr que τ = (1, k) con k > 1y que la restriccion de σ a M1 es (1, . . . , k− 1) y la restriccion de σ a M2 es (k, . . . , n).Como τ (σ (k− 1)) = k y τ (σ (n)) = 1, obtenemos que
(1, k) (1, . . . , k− 1) (k, . . . , n) = (1, 2, . . . n)y ya vimos que (1, . . . , k− 1) (k, . . . , n) tiene paridad diferente que (1, 2, . . . n).
Con esto hemos demostrado que la paridad de τσ es diferente a la de σ. La demostracionde que a paridad de σ τ es diferente a la de σ es analoga.
108 Capıtulo 4. Determinantes
Toda permutacion es composicion de transposiciones.
Prueba. Se comprueba facilmente que (x0, . . . , xn−1) = (xn−1, x0). . .(x2, x0)(x1, x0) yesto demuestra que todo ciclo se descompone en composicion de transposiciones. La pruebase completa porque toda permutacion es composicion de ciclos.
Una consecuencia directa de 4.6 y 4.7 es que una permutacion es par si y solo si escomposicion de un numero par de transposiciones. Al conjunto de todas las permutacionespares de N se le denotara por AN . La composicion de dos permutaciones pares es par y lainversa de una permutacion par es tambien par. Luego AN es un grupo para la composiciony se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremospor A−
N y lo llamaremos la clase lateral de las permutaciones impares. Observese que ANy A−
N tienen la misma cantidad de permutaciones e igual a n!/2 ya que el componer con unatransposicion fija es una biyeccion entre AN y A−
N .
El signo de una permutacion
En todo campo K hay dos elementos notables, 1 y −1. El primero es el neutro parael producto y el segundo es el opuesto para la suma del primero. Observese que estos doselementos son diferentes si y solo si la caracterıstica del campo es diferente de 2. El signode una permutacion es la funcion sgn : SN → K que es 1 si la permutacion es par y es −1 sila permutacion es impar.
¨ sgn (π ρ) = sgnπ sgnρ¨ sgnπ−1 = sgnπ
Prueba. La composicion de dos permutaciones de la misma paridad es una permutacionpar. La composicion de dos permutaciones de diferente paridad es impar. Las orbitas de unapermutacion no cambian al tomar la inversa.
La funcion sgn jugara un papel vital en todo lo que sigue. En particular, en la definicionde determinante de una matriz los signos de los sumandos estan definidos precisamentemediante la funcion sgn. Por esto, el lector debe familiarizarse muy bien con la definicion deesta funcion y sus propiedades.
Ejercicio 82 Pruebe que sgn¡π−1 ρ
¢= sgn
¡π ρ−1
¢= sgn
¡ρ−1 π
¢.
El resultado 4.8 lo que quiere decir es que la funcion sgn : SN → K es un morfismo del grupoSN al grupo multiplicativo del campo. Su imagen es 1,−1 y su nucleo es AN si el campo es decaracterıstica diferente de dos.
109Seccion 4.2 Propiedades basicas de los determinantes
4.2 Propiedades basicas de los determinantes
Resolvamos el sistema de ecuaciones lineales de la iz
x =d− b
∆
y =a− c
∆
¯ax+ by = 1cx+ dy = 1 quierda. Denotemos ∆ = ad − bc. Despejando x en
la primera ecuacion y substituyendo en la segunda obtenemos y. Substituyendo este y en alguna de las ecuaciones obtendremosx. Esta solucion es la del recuadro a la derecha.
Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2
0
y
d
b
c a xp
qv
u
R2
0
y
xp
qR2
v
u
u+ v como se muestra en la figura a la izquierda. Estos dos vectoresdefinen un paralelogramo cuyos vertices son 0,u,u+ v,v. Queremos calcular el area de este paralelogramo. Para esto, sea q elpunto de interseccion de la recta u,u+ v con la recta paralela aleje x que pasa por v. Sea p el punto de interseccion de la rectau,u+ v con el eje x. Es facil ver que el triangulo v,q,u+ v es
igual al triangulo 0,p,u. Luego, el paralelogramo 0,u,u+ v, v tiene area igual a la delparalelogramo 0, v,q,p. En la figura a la derecha los triangulosp, a,u y 0,v,d tienen dos angulos iguales o sea son congruentes.De esto, por el Teorema de Tales obtenemos
(b÷ (a− p) = d÷ c)⇒ (pd = ad− cb)
Sabemos que, pd es el area (base por altura) del paralelogramo0,v,q,p. Luego, hemos demostrado que el area del paralelogramo 0,u,u+ v, v es igual a ∆ = ad− bc.
Estos dos ejemplos nos dan una idea de la importancia del numero ∆ = ad − bc parala solucion de sistemas de dos ecuaciones lineales y para el calculo de areas en R2. Losdeterminantes son la generalizacion de este numero a dimensiones arbitrarias.
Definicion de los determinantes
SeaN un conjunto finito. Recordemos que SN es el conjunto de todas las las permutaciones deN. Si σ ∈ SN e i ∈ N entonces, denotaremos por σi la imagen de i por la permutacionσ, o sea σi es una forma corta de escribir σ (i). Recordemos tambien que el signo de unapermutacion sgnσ es 1 si σ es par y es −1 si σ es impar.
El determinante de una matriz αNN es por definiciondetαNN =
Xσ∈ SN
sgnσYi∈N
αiσiel elemento del campo definido por la formula en el recuadro de la derecha. A esta formula se la conoce comoformula de Leibniz.
Recalquemos que los determinantes estan definidos solo cuando los conjuntosde ındices de renglones y columnas coinciden y es un conjunto finito. Por estemotivo en este capıtulo todos los espacios seran finito dimensionales y todos
los conjuntos de ındices seran finitos.
110 Capıtulo 4. Determinantes
Determinantes de matrices pequenas
Interpretemos esta definicion para conjuntosN con pocos elementos. Si |N| = 1 entoncesla matriz αNN consta de una sola entrada y su determinante es precisamente esta entrada.
Si, digamos N = 1, 2 entonces tenemos 2 permutaciones de N que sonµα11 α12α21 α22
¶+– I y (1, 2). A la primera le corresponde el sumando α11α12 y a la segunda
el sumando −α12α21. Graficamente, cuando N = 1, 2 un determinantees la suma de los dos productos que se muestran en el recuadro a la izquierda.
Pongamos ahora N = 1, 2, 3. Hay 6 permutaciones de N y estas son I, (1, 2, 3),
⎛⎝α11 α12 α13α21 α22 α23α31 α32 α33
⎞⎠(1, 3, 2), (2, 3), (1, 2) y (1, 3). Las tres primeras son de signo positivo y se corresponden conlos tres sumandos α11α22α33, α12α23α31 y α13α21α32. Graficamente,estos tres sumandos se pueden representar por la diagonal principalde la matriz y los dos “triangulos” con lados paralelos a esta diagonalcomo se muestra en el recuadro de la derecha.
Las otras tres permutaciones tienen signo negativo y se corresponden con los sumandos⎛⎝α11 α12 α13α21 α22 α23α31 α32 α33
⎞⎠ −α11α23α32, −α12α21α33 y −α13α22α31. Graficamente, estos tressumandos se pueden representar por la diagonal alterna de la matrizy los dos “triangulos” con lados paralelos a esta diagonal como semuestra en el recuadro de la izquierda.
El numero de sumandos en la definicion del determinante es SN = |N| !. Este numerocrece rapidamente con |N| como se ve en la siguiente tabla
n 1 2 3 4 5 6 7 8 9 10
n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800
Por esto, calcular determinantes con el uso directo de su definicion es muy ineficiente paramatrices de mas de tres renglones y columnas.
El determinante de la identidad
Ya vimos que el conjunto de matrices αNN es un algebra respecto al producto y suma
δij =
¯1 si i = j0 si i 6= jµ
1 0
0 1
¶de matrices y multiplicacion por elementos del campo. El elemento neutro para el productolo llamamos matriz identidad, denotamos INN y es la matriz cuyas entradas son iguales al delta de Kronecker δij definido en elrecuadro a la derecha. Cuando el conjunto de ındices esta ordena
do, la matriz identidad se puede representar graficamente como una que tieneunos en la diagonal y ceros en todas las demas entradas como se muestra en elrecuadro a la izquierda para una matriz de dos renglones y columnas.
El determinante de la matriz identidad es 1. det INN = 1
Prueba. Si la permutacion σ ∈ SN no es la identidad entonces hay un i ∈ N tal que i 6= σiy por lo tanto
Qi∈N δiσi = 0. Luego,
111Seccion 4.2 Propiedades basicas de los determinantes
det INN =Xσ∈SN
sgnσYi∈N
δiσi = sgn (IN)Yi∈N
δii = 1.
Matrices con filas nulas
Si una matriz tiene una columna o un renglon nulo entonces, su determinante es cero.
Prueba. Cada sumando de los determinantesQ
i∈N αiσi contiene como factor una entradade cada renglon. Si un renglon es nulo entonces, todos estos sumandos tienen un factor ceroy por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las columnas.
El determinante de la transpuesta
Recordemos del capıtulo anterior que dada una matriz ⎛⎜⎜⎝α11 α12 α13 α14α21 α22 α23 α24α31 α32 α33 α34α41 α42 α43 α44
⎞⎟⎟⎠ T
αMN su transpuesta se define como la matriz βNM =
αTMN tal que βij = αji. Graficamente la operacion de
transponer una matriz es hacer una reexion con respectoa la diagonal de la matriz. Observese que el conjunto deındices de los renglones de la matriz αT
NM es M y no Ncomo se podrıa pensar de los subındices. La notacion esası porque pensamos la transpuesta como la aplicacion de la operacion de transposicion.
El determinante no se altera al transponer una matriz. detA = detAT
Prueba. Tenemos que demostrar que detαNN = detαTNN . Efectivamente, por la definicion
detαTNN =Xσ∈ SN
sgnσYi∈N
ασi i =
∙cambio de variable
ω = σ−1
¸=Xω∈ SN
sgnωYi∈N
αω−1 (i)i =
=
∙cambio de variablej = ω−1 (i)
¸=Xω∈ SN
sgnωYj∈N
αjωj= detαNN.
Matrices con filas iguales
Si una matriz tiene dos columnas o dos renglones iguales entonces su determinante es cero.
Prueba. Supongamos que para αNN se tiene que αjM = αkM o sea, las columnas j y k soniguales. Todo sumando del determinante depende exactamente de una entrada en la columna
112 Capıtulo 4. Determinantes
j y de otra en la columna j. Luego, podemos escribir
detαNN =Xσ∈ SN
αjσjαkσk sgnσY
i∈N\j,k
αiσi .
Denotemos ρ la transposicion (j, k). La funcion Φ : SN 3 σ 7→ σ ρ ∈ SN es una biyecciony el sumando correspondiente a σ ρ es igual a
αjσkαkσj sgn (σ ρ)Y
i∈N\j,k
αiσi
pero como αjM = αkM entonces, αjσkαkσj sgn (σ ρ) = −αjσjαkσk sgnσ. Esto significa que Φ es una biyeccion que transforma a un sumando en su negativo y por lo tanto eldeterminante es cero. La prueba para los renglones se obtiene transponiendo la matriz.
Permutaciones de columnas y renglones
Dada una matriz αMN y una permutacion ω ∈ SN definimos la operacion de permu
⎛⎜⎜⎝α11 α12 α13 α14α21 α22 α23 α24α31 α32 α33 α34α41 α42 α43 α44
⎞⎟⎟⎠
tar las columnas de αMN mediante la permutacion ω como la que resulta en la matrizαMω(N) cuyas columnas son αMω−1 (i) (¡observese el uso de la permutacion inversa ω−1!).
Graficamente esta operacion resulta en cambiar el orden de lascolumnas. Ası por ejemplo, el aplicar el ciclo (1, 2, 4) resulta enel intercambio de columnas representado en el recuadro a la izquierda. Analogamente se define la operacion de permutar losrenglones, para una permutacion ρ ∈ SM la matriz αρ(M)N esaquella cuyos renglones son αρ−1 (j)N .
Al permutar las columnas o los renglones deuna matriz con la permutacion ω el determinante se altera por un factor igual a sgnω.
detαNω(N) = sgnω detαNN
Prueba. Sea ω ∈ SN una permutacion. Hay que demostrar detαNω(N) = sgnω detαNN.Efectivamente, por la definicion tenemos
detαNω(N) =Xσ∈ SN
sgnσYi∈N
αiω−1 (σi ) =
∙cambio de variable
ρ = ω−1 σ
¸=
=Xρ∈SN
sgn (ω ρ)Yi∈N
αiρi = sgnωXρ∈SN
sgnρYi∈N
αiρi = sgnω detαNN
Con esto demostramos la proposicion para las columnas. La demostracion para los renglonesse obtiene transponiendo la matriz.
El determinante del producto
La ultima propiedad basica de los determinantes es probablemente la mas importantepara el algebra lineal. Como la demostracion de esta propiedad es complicada, le recomiendoal lector omitirla en una primera lectura. La complejidad de esta demostracion es el precioque tenemos que pagar por dar una definicion directa del determinante.
113Seccion 4.2 Propiedades basicas de los determinantes
El determinante del producto de dos matrices es igualal producto de los determinantes de las dos matrices.
detAB = detA detB
Prueba. Sean A = αNN y B = βNN . Para el objeto de esta demostracion denotemos porFN el conjunto de todas las funciones deN enN. Claramente SN ⊂ FN. Denotemos ademasTN al conjunto FN \ SN que es el de todas las funciones no biyectivas deN enN.
Por la definicion de determinante y de producto de matrices tenemos
detAB =Xσ∈SN
sgnσYi∈N
Xj∈N
αijβjσi
y usando la formulaQ
i∈NP
j∈N γij =P
ω∈FNQ
i∈N γiωi(Sec. 1.6, pag. 21) obtenemos
detAB =Xσ∈SN
sgnσXω∈TN
Yi∈N
αiωiβωiσi
+Xσ∈ SN
sgnσXω∈ SN
Yi∈N
αiωiβωiσi
Denotando por∇ el primer sumando nuestro determinante se convierte en
= ∇+Xσ∈ SN
sgnσXω∈ SN
Yi∈N
αiωiβωiσi
=
∙cambio de variable
σ = ρ ω
¸=
= ∇+Xρ∈SN
Xω∈ SN
sgn (ρ ω)Yi∈N
αiωi
Yj∈N
βωjρ(ωj) =
∙cambio de vark = ωj
¸=
= ∇+ÃX
ω∈ SN
sgnωYi∈N
αiωi
!ÃXρ∈ SN
sgnρYk∈N
βkρk
!= ∇+ detA detB
O sea, para completar la demostracion tenemos que probar que∇ = 0. Para esto recordemosque AN es el subgrupo de las permutaciones pares e A−
N es la clase lateral de todas laspermutaciones impares. Si observamos detenidamente la definicion de∇
∇ =Xω∈TN
Xσ∈ SN
sgnσYi∈N
αiωiβωiσi
vemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyeccionf : AN → A−
N tal que si θ = f (σ) entonces,Yi∈N
αiωiβωiσi
=Yi∈N
αiωiβωiθi
Esto nos garantizara que cada sumando positivo se cancele con otro negativo.Sea ω ∈ TN arbitraria pero fija. Como ω no es una biyeccion existen j, k ∈ N tales que
ω (j) = ω (k) . Sea t ∈ A−N la transposicion que intercambia j y k. Sea f : AN 3 σ 7→
σ t ∈ A−N . La funcion f es biyectiva ya que su inversa es θ 7→ θ t. Ademas, tenemosY
i∈Nαiωi
βωi (σt)i = αjωjβωjσk
αkωkβωkσj
Yi∈N\j,k
αiωiβωiσi
=Yi∈N
αiωiβωiσi
donde la ultima igualdad es valida porque ωj = ωk.
114 Capıtulo 4. Determinantes
Matrices de permutaciones
Ahora queremos ver que 4.13 es un caso particular de 4.14. Esta es una buena disculpapara introducir las matrices de permutaciones. Sea INω(N) la matriz identidad a la que se lehan permutado las columnas con la permutacionω ∈ SN . A INω(N) se le llama matriz de lapermutacion ω. Lo interesante de las matrices de permutaciones es que al multiplicar porellas se permutan renglones o columnas.
El resultado del producto αMNINω(N) (de IMω(M)αMN) es lamatriz αMN a la que se le han permutado las columnas (losrenglones) usando la permutacion ω (la permutacion ω−1).
Prueba. Sea γMN = αMNINω(N). Tenemos γij =P
k∈N αikδkω−1 (j). Cada sumando escero a no ser que ω−1 (j) = k. Luego γij = αiω−1 (j) lo que prueba la proposicion para lascolumnas. La demostracion para los renglones es igual.
Observemos que det INω(N) = sgnω. Efectivamente, en la definicion de determinantecada producto
Qi∈N δiω−1 (σi ) es cero para cada ω 6= σ. Para ω = σ tenemos
Qi∈N δii = 1
que esta multiplicado por sgnω. De aquı, 4.14 y 4.15 dan una nueva prueba de 4.13.
Ejercicio 83 Haga la mutiplicacion de matrices del µ11 12 13
21 22 23
¶⎛⎝ 0 0 1
1 0 0
0 1 0
⎞⎠recuadro a la derecha. ¿La matriz de que permutacion esla de mas a la derecha? ¿Concuerdan o no sus calculoscon el resultado 4.15?
DenotemosM (ω) = INω(N). No es difıcil probar queM (σ ω) =M (σ)M (ω) y que cualquiermatriz de permutaciones tiene inversa (igual a su transpuesta). Luego M : SN → GL
¡KN
¢es un
morfismo de grupos que es inyectivo. Esto significa que las matrices de permutaciones son unsubgrupo de GL
¡KN
¢que es isomorfo a SN . Esto es valido para cualquier campo K.
4.3 Expansion de Laplace
En esta seccion encontraremos una descomposicion de los determinantes como una combinacion lineal de determinantes de matrices mas pequenas. Despues veremos dos importantes consecuencias de esta expansion: que los determinantes son funcionales multilineales yque una matriz tiene inversa si y solo si esta tiene determinante diferente de cero.
Cambios de ındices
Sea αMN y φ : N → L una biyeccion. Podemos construir una matriz βML = αMφ(N)
por la formula βij = αiφ−1 (j) (¡observese el uso de la inversa φ−1!). A esta operacion lallamaremos cambio de ındices de las columnas de la matriz αMN mediante la biyeccion
115Seccion 4.3 Expansion de Laplace
φ. De la misma manera se definen los cambios de ındices de los renglones. Observese quelas permutaciones de las columnas y los renglones son un caso particular de los cambios deındices ya que una permutacion no es mas que una biyeccion de un conjunto en si mismo.
Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinciden. A este numero comun se le llama orden de la matriz. Necesitaremos los cambios deındices para definir los determinantes de las matrices cuadradas. Ası, si φ : N→M es unabiyeccion entonces, podrıamos definir detαMN = detαMφ(N). El unico “pero” es que, enprincipio, esta definicion no solo depende de la matriz αNM sino tambien de la biyeccion φ.El cuanto depende esta definicion de φ lo responde la siguiente proposicion.
Si φ y ϕ son dos biyecciones de N enM entonces, detαMφ(N) = sgn
¡φ ϕ−1
¢detαMϕ(N).
Prueba. Observese que θ = φ ϕ−1es una permutacion deM y que las matrices αMφ(N) yαMϕ(N) solo se diferencian en la permutacion de las columnas θ. Aplıquese 4.13.
No podemos poner la conclusion de este resultado como sgnφ detαMφ(N) =sgnϕ detαMϕ(N) ya que como φ y ϕ son biyecciones de N en M ninguna delas dos tiene signo.
Como el signo de cualquier permutacion es o 1 o −1 esto quiere decir que el determinante detαNM esta definido “salvo signo” o sea, que hay un elemento a ∈ K tal que eldeterminante es a o es −a. En un campo de caracterıstica dos esto es irrelevante ya que eneste caso 1 = −1. Sin embargo en los casos mas importantes (R y C) de que el campo sea decaracterıstica diferente de dos tenemos una ambiguedad al definir el determinante detαNM .
Esta ambiguedad se resuelve en diferentes casos de varias maneras. En muchos casos nonos interesa el valor concreto detαMN sino solamente saber si es cierto o no que detαMN =0. Si este es el caso entonces, en realidad no nos importa que biyeccion se escogio paracalcular el determinante. Por ejemplo, una matriz cuadrada αMN se le llama singular sidetαMN = 0, en el caso contrario se le llama no singular. Es claro, que el ser singular o nosingular NO depende de la biyeccion escogida para definir detαMN . Otro ejemplo, es que siuna matriz tiene una columna o renglon nulo entonces su determinante es cero.
En otros casos lo importante no es el valor de algun determinante sino una igualdad entreestos. Al cambiar los ındices en ambos lados de la igualdad los determinantes cambian en elmismo signo y la igualdad es cierta independientemente de los cambios de ındices escogidos.Por ejemplo, las igualdades detαMN = detαTMN y det (αLMβMN) = detαLM detβMN sonvalidas independientemente de los cambios de ındices usados para definir los determinantes.
Ejercicio 84 Pruebe que det¡αω(L)MβMθ(N)
¢= detαω(L)M detβMθ(N) ∀ω,θ. [181]
En otros casos hay una biyeccion natural que nos dice cual debe ser el valor de detαMN.
116 Capıtulo 4. Determinantes
Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. En este casopodemos siempre escoger la unica biyeccion que conserva el orden. Por ejemplo si N =
2, 3, 7 yM = 1, 4, 5 entonces la biyeccion adecuada es 2→ 1, 3→ 4, 7→ 5.
¿Y por que no escoger de los dos posibles valores aquel que sea mayor que cero?Primero, a veces se necesita el valor del signo del determinante y segundo ¿quequiere decir que 0 < x ∈ Z5? La desigualdad 0 < x solo tiene sentido si en el
campo esta dada una relacion de orden. Este es el caso de R pero no el de Zp ni el de C.
En muchos de los textos de algebra lineal esta ambiguedad se resuelve postulando que los conjuntosde ındices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario, sinoque tambien hace la exposicion mas compleja y conceptualmente menos clara. Por ejemplo, las
matrices de cambio de bases estan naturalmente indexadas por conjuntos de vectores que no poseen un ordennatural. Mas aun, en algunos textos, las pruebas son incompletas ya que inevitablemente hay que renumerar losrenglones y/o columnas y no se demuestra que los resultados son independientes de la renumeracion.
Complementos algebraicos
Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todoes mas facil. Sea αNN una matriz y sean i, j ∈ N. La matriz αN\i N\j se obtiene de lamatriz αNN eliminando el renglon i y la columna j. ¿Habra una manera natural de definir eldeterminante de αN\i N\j?. Veremos que si.
Sea ϕ : N\j → N\i. una biyeccion cualquiera. Podemos definir ϕ (j) = i y de esta
sgnϕ detαN\i ϕ(N\j)manera ϕ se convierte en una permutacion de N. Definamos el determinante detαN\i N\j con la expresion del recuadro a la derecha.Parecerıa que no hemos hecho nada ya que en principio esta definicion depende de ϕ.
La expresion sgnϕ detαN\i ϕ(N\j) no depende de ϕ.
Prueba. Sea ω otra permutacion de N tal que ω (j) = i. Aquı hay que tener cuidado. Por un lado ω es una biyeccion de N\j en N\i y por otro es una permutacion de N.Otro tanto ocurre con ϕ. Para evitar confuciones, a las permutaciones deN las denotaremosen esta demostracion por ω y ϕ respectivamente. Por 4.16 tenemos que detαN\i ω(N\j) =sgn
¡ω ϕ−1
¢detαN\i ϕ(N\j). Observese queωϕ−1 es una permutacion deN\i. ¿Que pasa
con ωϕ−1? Pues, en todo elemento deN\i coincide conωϕ−1 y ademas ωϕ−1 (i) = i.Luego sgn
¡ω ϕ−1
¢= sgn
¡ω ϕ−1
¢y por las propiedades de la funcion signo se tiene
que sgn¡ω ϕ−1
¢= sgn ω sgn ϕ. Luego detαN\i ω(N\j) = sgn ω sgn ϕ detαN\i ϕ(N\j) y
pasando sgn ω al otro lado de la igualdad terminamos la prueba.
Ahora, podemos dar la siguiente definicion. Si αij es una entrada de la matriz A = αNNentonces el complemento algebraico de αij es α∗ij = sgnω detαN\iω(N\j) donde ω escualquier permutacion de N tal que ω (j) = i. A los complementos algebraicos tambien seles llama cofactores. La matriz α∗NN cuyas entradas son los complemento algebraicos α∗ij esla matriz de los complementos algebraicos de αNN o matriz de cofactores de αNN .
117Seccion 4.3 Expansion de Laplace
La expansion de un determinante por sus renglones
Teorema de Expansion de Laplace
SeaαiN un renglon arbitrario de la matriz αNN .El determinante de αNN es igual a la suma delas entradas del renglon por sus cofactores.
detαNN = αiNα∗iN =
Xj∈N
αijα∗ij
Prueba. Si i ∈ N entonces tenemos la particion del grupo simetrico en el [j∈NSi→jN
recuadro a la derecha donde Si→jN = σ ∈ SN | σ (i) = j . Luego, aplicando ladefinicion de determinante y sacando factor comun obtenemos
detαNN =Xj∈N
αijX
σ∈ Si→ jN
sgnσYn∈N\i
αnσn
Seaω una permutacion deN tal queω (j) = i. Hagamos el cambio de variable ρ = ωσen la sumatoria interior. Tenemos ρ (i) = i o sea, ρ ∈ Si→iN = SN\i. Luego,
detαNN =Xj∈N
αij sgnωX
ρ∈ SN\i
sgnρYn∈N\i
αnω−1 (ρn )=Xj∈N
αijα∗ij
donde la ultima igualdad se obtiene por la definicion de α∗ij.
Como es natural hay un teorema exactamente igual a este correspondiente a las columnas.
La expansion de Laplace en forma grafica
El Teorema de expansion de Laplace es la primera herramienta (aparte de la definicion)de que disponemos para calcular determinantes. Este reduce el problema a calcular variosdeterminantes de matrices mas pequenas. Es especialmente util cuando hay renglones (ocolumnas) con muchos ceros.
Sin embargo, todavıa debemos precisar el como calcular los cofactores en forma grafica.Si bien, la definicion de estos es sencilla necesitamos encontrar una biyeccion simple deN\ienN\j que facilite los calculos cuandoN esta ordenado o seaN = 1, ..., n.
Sea por ejemplo i = 2 y j = 7. En este caso la biyec1 3 4 5 6 7 8 ... n↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓1 2 3 4 5 6 8 ... n
cion natural de N\2 en N\7 es la que se muestra en elrecuadro a la izquierda y la llamaremos ϕ. Tenemos quedefinir ϕ (2) = 7 para completar una permutacion deN.
Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fijos a todos losdemas elementos de N. Luego, ϕ es un ciclo de longitud j− i + 1 (si i > j entonces es unciclo de longitud i− j+ 1).
Como todo ciclo de longitud par tiene signo negativo y todo de ⎛⎜⎜⎝+ − + −
− + − +
+ − + −
− + − +
⎞⎟⎟⎠longitud impar tiene signo positivo obtenemos sgnϕ = (−1)i+j lo
que es muy sencillo ya que es la “regla del tablero de ajedrez”. Ala derecha se muestra el sgnϕ para una matriz con 4 renglones ycolumnas. Observese el parecido con el tablero.
118 Capıtulo 4. Determinantes
Con estas permutaciones, los complementos algebraicos tienen una interpretacion grafi
− det
⎛⎜⎜⎝α11 α12 α13 α14α21 α22 α23 α24α31 α32 α33 α34α41 α42 α43 α44
⎞⎟⎟⎠ca muy sencilla. Si se quiere sacar el complemento algebraico de αij entonces tachese el
renglon i, tachese la columna j, saquese el determinante de la matriz que queda y finalmente multiplıquesepor el signo de la regla del tablero de ajedrez. Ası porejemplo, en el recuadro a la izquierda se muestra unamatriz de orden cuatro en la cual estamos calculando elcomplemento algebraico de α23.
Al matematico y fısico PierreSimon Laplace (Francia 17491827) se leconoce fundamentalmente por sus trabajos en mecanica celeste, ecuaciones diferenciales y teorıa de las probabilidades. El publico la demostraciondel Teorema de Expansion de Laplace (4.18) en 1772 en un artıculo dondeestudiaba las orbitas de los planetas interiores del sistema solar. En esteartıculo, Laplace analizo el problema de solucion de sistemas de ecuaciones lineales mediante el uso de determinantes.
Ejercicio 85 Tome una matriz y calcule su determinante usando el teorema de descomposicion de Laplace. Repita hasta que usted este satisfecho.
Ejercicio 86 Demuestre que el determinante de la matriz αij = xi−1jY
1≤i<j≤n(xj − xi)es igual a la expresion en el recuadro a la derecha. A este determinante
se le conoce como determinante de Vandermonde.[181]
La expansion de Laplace reduce el calculo del determinante de una matriz al calculo de determinantes de matrices mas pequenas. Por esto es tambien usada para dar la definicion de determinantemediante induccion. En este caso, la formula de Leibniz es una consecuencia de esta definicion.
Multinearidad de los determinantes
El determinante se puede ver como una funcion del espacio de matrices en el cam
A =
µ1 0
0 0
¶B =
µ0 0
0 1
¶po. ¿Sera el determinante una TL? ¿Se cumplira que det (A+ B) =detA+detB? La respuesta es NO. Para probar que no, basta ver un ejemplo. Consideremos las matrices A y B definidas a la izquierda. TenemosdetA + detB = 0 6= 1 = det (A+ B). Sin embargo, los determinantescumplen una propiedad bastante parecida.
Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama funcionales lineales del espacio E. En esta terminologıa vemos que la propiedad det (A+ B) 6=detA + detB lo que quiere decir es que el determinante NO es un funcional lineal del espacio vectorial de las matrices. Pasemos a considerar una funcion f con valor en K de dosvariables x, y que toman sus valores en E o sea, f : E2 3 (x,y) 7→ f (x,y) ∈ K. ComoE2 es un espacio vectorial sobre K entonces podrıa suceder que f sea un funcional lineal.
119Seccion 4.3 Expansion de Laplace
Sin embargo, hay una propiedad un poco mas sutil que podrıa cumplir la funcion f y esque sea lineal en la primera variable. En otras palabras, que ∀y ∈ E se cumple quef (a+ b,y) = f (a,y) + f (b,y) y f (λa,y) = λf (a,y). Analogamente, se define lapropiedad de que f sea lineal en la segunda variable. Si f es lineal en las dos variablesentonces, se dice que f es un funcional bilineal (el “bi” es porque son dos variables).
Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo casonos referiremos a los funcionales multilineales. Mas rigurosamente, sea f : EN → K unafuncion donde N es un conjunto de variables. Sea i ∈ N una variable. Podemos pensara f como una funcion de dos variables f : EN\i ⊕ E → K. Si ∀y ∈ EN\i la funcionE 3 x 7→ f (y,x) ∈ K es un funcional lineal entonces, diremos que f es lineal en lavariable i. Diremos que f es un funcional multilineal si f es lineal en todas sus variables.Por ejemplo, la funcion f : R3 3 (x, y, z) 7→ x+y+z ∈ R es un funcional lineal. La funciong : R3 3 (x, y, z) 7→ xyz ∈ R es un funcional multilineal porque (x+ x0)yz = xyz+ x0yzy tambien para las otras variables. Observese que f no es multilineal y que g no es lineal.
Ahora queremos ver que los determinantes son funcionales multilineales. El espacio dematricesKNN es isomorfo a
¡KN¢N
. Un isomorfismo de estos es el que a cada matriz le hacecorresponder la Nada de sus renglones. Luego, podemos pensar el determinante como unfuncional cuyas variables son los renglones y que toma valores en el campo.
El determinante es un funcional multilineal de los renglones.
Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en cadavariable. Sea i ∈ N arbitrario pero fijo en toda esta prueba. Sea A = αNN una matriz talque su iesimo renglon es la suma de dos Nadas xN y yN . Sea B la misma matriz que Aexcepto que su iesimo renglon es xN . Sea C la misma matriz que A excepto que su iesimorenglon es yN . Tenemos que probar que detA = detB + detC. (Si el lector no entiendeporque entonces, debe regresar al principio de esta seccion y volver a pensar la definicion defuncional multilineal y el porque el determinante es un funcional de los renglones.) Usandola descomposicion de Laplace por el renglon i obtenemos
detαNN = αiNα∗iN = (xN + yN)α
∗iN = xNα
∗iN + yNα
∗iN = detB+ detC
donde la ultima igualdad se cumple porque los cofactores de las matrices B y C de lasentradas del renglon i son los mismos que los de la matriz αNN .
Sea ahoraA = αNN una matriz tal que su iesimo renglon es λxN . Sea B la misma matrizque A excepto que su iesimo renglon es xN . Usando la descomposicion de Laplace por elrenglon i obtenemos detαNN = αiNα
∗iN = λxNα
∗iN = λ detB.
Por transposicion el determinante es tambien un funcional multilineal de las columnas.
Los determinantes son los unicos funcionales multilineales de los renglones que son iguales a 1en la matriz identidad y que cambian por un factor de sgnθ cuando se permutan los renglonescon la permutacion θ. Esto permite dar una definicion alternativa de los determinantes. El primer
problema aquı es demostrar la existencia del determinante.
120 Capıtulo 4. Determinantes
La inversa de una matriz
Recordemos que, dada una matriz αMN decimos que βNM = α−1MN es la matriz inversa
de αMN si se cumple que αMNα−1MN = IMM y α−1
MNαMN = INN . Mediante el isomorfismode las matrices con las TLs concluimos que αMN y α−1
MN son la matrices de dos TLs unala inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si αMN tiene inversaentonces, ella es cuadrada.
Sea ϕ : N → M cualquier biyeccion. Es facil ver usando la definicion de cambio deındices que βNM = α−1
MN si y solo si βϕ(N)M = α−1Mϕ(N). O sea, cualquier cambio de ındices
apropiado reduce el calculo de matrices inversas al caso en que el conjunto de columnascoincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ındices parapoder enunciar mas facilmente nuestros resultados.
La siguiente proposicion nos dice que para probar que una matriz es inversa de otra essuficiente comprobar una de las dos igualdades involucradas en la definicion. Aquı, la clavees que las matrices son finitas y cuadradas lo que significa que sus TLs son entre espacios dela misma dimension finita.
Si AB = I entonces, BA = I.
Prueba. Sea f, g : KM → KM las TLs de las matrices A y B respectivamente. Medianteel isomorfismo de las matrices con las TLs concluimos que f g = I. De 3.32 (pagina 96)obtenemos que g f = I y por lo tanto BA = I.
Si una matriz tiene inversa entonces ella esno singular. Ademas, detA−1 = (detA)−1.
Prueba. Por definicion de matriz inversa tenemos 1 = det I = det¡AA−1
¢= detA detA−1
y por lo tanto detA 6= 0 y detA−1 = (detA)−1.
Para probar que el recıproco de esta afirmacion tambien es cierto, lo que haremos esconstruir la matriz inversa en el caso de que el determinante sea diferente de cero.
Si A es una matriz no singular entonces, suinversa es la transpuesta de la matriz de suscofactores dividida por el determinante deA.
A−1 =A∗T
detA
Prueba. Para hacer la demostracion lo que hay que hacer es multiplicar. Sea αMM = A
y B = βMM = (detA)−1 A∗T . Tenemos βMj = (detA)−1 α∗jM y de la definicion de producto de matrices obtenemos que la entrada ij de la matriz AB es igual a αiMβMj =
(detA)−1 αiMα∗jM . Si i = j entonces αiMα∗jM es la expansion de Laplace del detA porel renglon i de lo que obtenemos que αiMβMj = 1.
121Seccion 4.4 La expansion generalizada de Laplace
Solo queda probar que αiMα∗jM = 0 si i 6= j. Si nos fijamos atentamente, vemos que estaes la expansion de Laplace por el renglon j del determinante de la matriz C obtenida de lamatriz A substituyendo el renglon j por el renglon i. Como la matriz C tiene dos renglonesiguales entonces, su determinante es cero y necesariamente αiMα∗jM = 0.
El determinante de un operador lineal
Sea f ∈ EndE un OL. Si escogemos una base de E entonces en esta base el OL f tienepor coordenadas una matriz A. Podrıamos definir det f = detA. Sin embargo, no nos quedaclaro si esta definicion depende o no de como hallamos escogido la base.
Si A y B son las matrices de f ∈ EndEen dos bases entonces, detA = detB.
Prueba. SeanA = αMM y B = βNN las matrices de f en las basesM yN respectivamente.Por la formula del cambio de bases para matrices (3.23) tenemos B = γNMAγ
−1NM donde
γNM es la matriz de cambio de la baseM a la baseN. TenemosdetβNN = det
¡γNMαMMγ
−1NM
¢= detγNM detαMM detγ−1
NM = detαMMya que por 4.21 la igualdad detγNM (detγNM)
−1= 1 es cierta e independiente del cambio
de ındices que se utilize para definir el determinante de γNM .
Luego, el determinante del OL f es por definicion del determinante de su matriz enalguna base y esto no depende de la base escogida.
4.4 La expansion generalizada de Laplace
Ahora generalizaremos dramaticamente el teorema de expansion de Laplace. Sea αNNuna matriz y I, J subconjuntos deN de la misma cardinalidad. Para ahorrarnos mucha escritura, denotemos I0 = N\I y J0 = N\J. Ademas, denotemos por ∇IJ = detαIJ el determinantede la matriz cuyas columnas son las de J y cuyos renglones son los de I. Claro, este determinante esta definido solo salvo signo. De los signos no nos preocuparemos ahora sinosolo mas adelante. Por otro lado, denotemos por ∆IJ = detαI0J0 el determinante de la matrizcuyas columnas son las que no estan en J y cuyos renglones son los que no estan en I (no nospreocupemos por los signos). En estas notaciones, un sumando del Teorema de expansion deLaplace es de la forma∇IJ∆IJ donde I y J son subconjuntos de cardinal 1. Nos gustarıa tenerun teorema de expansion donde los subconjuntos sean de un cardinal fijo pero arbitrario.
Para esto, ahora si nos tenemos que preocupar por los signos. Sin embargo, la siguiente
φ (x) =
¯φ1 (x) si x ∈ Jφ2 (x) si x ∈ L
proposicion nos dice que esto realmente no es un problema. Sean φ1 : J → I y φ2 : J
0 → I0 dos biyecciones.Denotemos φ = φ1 ∪ φ2 la permutacion deN definida enel recuadro a la derecha.
122 Capıtulo 4. Determinantes
La expresion sgnφ detαIφ1 (J) detαI0φ2 (J0)no depende de las biyecciones φ1 y φ2.
Prueba. Seanϕ1 yϕ2 otras dos biyecciones yϕ = ϕ1∪ϕ2. Por 4.16 tenemos detαIφ1 (J) =sgn
¡φ1 ϕ−1
1
¢detαIϕ1 (J) y detαI0φ2 (J0) = sgn
¡φ2 ϕ−1
2
¢detαI0ϕ2 (J0). Multiplicando estas
dos igualdades vemos que solo nos queda probar quesgn
¡φ1 ϕ−1
1
¢sgn
¡φ2 ϕ−1
2
¢= sgn
¡φ ϕ−1
¢.
Para esto, denotemos θ1 = φ1 ϕ−11 , θ2 = φ2 ϕ−1
2 y θ = φ ϕ−1. De las definiciones esinmediato que θ (y) = θ1 (y) si y ∈ I y θ (y) = θ2 (y) si y ∈ I0. Como θ1 ∈ SI, θ2 ∈ SI0 ,θ ∈ SN y los conjuntos I, I0 son complementarios en N entonces, θ = θ1 θ2 = θ2 θ1 yesto implica la igualdad de los signos que necesitabamos.
Ahora, para I, J subconjuntos de N definamos ∇IJ y ∆IJ con ∇IJ = detαIφ(J)∆IJ = sgnφ detαI0φ(J0)las formulas de la derecha donde φ denota una permutacion (ar
bitraria pero la misma para las dos definiciones) tal que φ (J) = I(y en consecuencia φ (J0) = I0). Esta definicion no es correcta en el sentido de que ambos∇IJ y ∆IJ dependen de φ. Sin embargo∇IJ∆IJ no depende de φ y esto es lo importante.
Expansion Generalizada de Laplace
Si I un conjunto de p renglones de la matriz αNN entonces, detαNN =
P∇IJ∆IJ donde la suma recorre to
dos los subconjuntos de columnas J de cardinalidad p.
detαNN =X|J|=p
∇IJ∆IJ
Prueba. Si I ⊆ N y |I| = p entonces, tenemos la particion del grupo simetrico [|J|=p
SI→JNa la derecha donde SI→JN = σ ∈ SN | σ (I) = J. Aplicando la definicion dedeterminante obtenemos detαNN =
X|J|=p
Xσ∈ SI→ J
N
sgnσYn∈N
αnσn
Sea φ una permutacion de N tal que φ (J) = I. Hagamos el cambio de variable ρ = φ σ.Entonces, detαNN =
X|J|=p
sgnφX
ρ∈ SI→IN
sgnρYn∈N
αiφ−1 (ρn )
Como ρ (I) = I entonces, ρ (I0) = I0. Luego ρ se puede descomponer en la composicion dedos permutaciones θ ω donde θ ∈ SI y ω ∈ SI0 . Substituyendo ρ por θ ω la suma seconvierte en suma doble y si sacamos factores comunes obtendremos:
detαNN =X|J|=p
sgnφ
ÃXθ∈SI
sgnθYn∈I
αiφ−1 (θn )
!⎛⎝Xω∈SI0
sgnωYn∈I0
αiφ−1 (ωn )
⎞⎠Lo contenido en el primer parentesis es detαIφ(J) = ∇IJ. Lo contenido en el segundoparentesis es detαI0φ(J0) y este determinante multiplicado por sgnφ es ∆IJ.
Como ya es costumbre tediosa, hagamos la observacion de que tambien es valida laExpansion Generalizada de Laplace cuando la hacemos por un conjunto de columnas.
123Seccion 4.4 La expansion generalizada de Laplace
Matrices diagonales y triangulares por bloques
Sea αMM una matriz. Supongamos que existe una particionM1 ∪ · · · ∪Mt =M y queαij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que αMM es diagonalpor bloques. Si cadaMi contiene un solo ındice entonces decimos que αMM es diagonal.
Supongamos ahora que, para la particionM1 ∪ · · ·∪Mt =M se cumple que si i ∈Mp,j ∈ Mq y p < q entonces αij = 0. En este caso, decimos que αMM es triangular porbloques. Si cada Mi tiene un solo ındice entonces decimos que αMM es triangular. Esclaro de las definiciones que toda matriz diagonal por bloques es triangular por bloques. Enparticular, toda matriz diagonal es triangular.
Si αMM es una matriz triangular por bloques entonces,
detαMM =Qt
i=1 detαMiMi.
Prueba. Haremos la prueba por induccion en el numero de bloques t. Para t = 1 la proposicion es trivial. DenotemosM0 =M\M1. Aplicando la expansion generalizada de Laplaceal conjunto de renglones I =M1 obtenemos detαMM =
P|J|=|I|∇IJ∆IJ.
Si J 6= I entonces, en αIJ hay una columna j /∈ M1 y por lo tanto j ∈ Mq con 1 < q.Luego, por definicion de matriz triangular, ∀i ∈ I = M1 se tiene que αij = 0. O sea, lacolumna j es cero en αIJ e independientemente de la biyeccion que se escoja para calcular el deteminante tenemos ∇IJ = 0. Luego, detαMM = ∇II∆II = detαM1M1
detαM0M0 .La matriz M0 es triangular por bloques con un bloque menos y por hipotesis de inducciondetαM0M0 =
Qt
i=2 detαMiMi.
Ejercicio 87 ¿Cuales de las siguentes matrices son triangulares?
A =
⎛⎝ a 0 0
1 b 0
1 1 c
⎞⎠B =⎛⎝ a 1 1
0 b 1
0 0 c
⎞⎠C =⎛⎝ a 1 1
0 b 0
0 1 c
⎞⎠ [182]
Ejercicio 88 Sean M = 1, . . . , 5 y αMM una matriz triangular por los bloques M1 =
1, 2,M2 = 3 yM3 = 4, 5. ¿Cual es el aspecto de αMM en forma grafica? [182]
La expansion generalizada de Laplace en forma grafica
Ahora, precisaremos los signos de las biyecciones en la expansion generalizada de Laplace cuando la matriz esta dada en forma grafica. Como esto es util solo para calcular eldeterminante de matrices concretas y hacerlo ası es por lo general extremadamente ineficiente y complicado, recomiendo omitir en una primera lectura lo que resta de esta seccion.
Si N = 1, . . . , n entonces, entre dos cualesquiera subconjuntos I, J ⊆ N del mismocardinal hay una biyeccion natural que conserva el orden. Para esto, introduscamos la notacion m1,m2, . . . ,mt< para senalar que ∀p ∈ 2, . . . , t se tiene que ip−1 < ip. Ahora, siI = i1, . . . , it< y J = j1, . . . , jt< entonces, la biyeccion es φ1 : I 3 ip 7→ jp ∈ J. Tam
124 Capıtulo 4. Determinantes
bien, tenemos una biyeccion natural entre los complementos de I y J. Para esto sean K =N\I = k1, . . . , ks< y L = N\J = `1, . . . , `s< y definamosφ2 : K 3 kp 7→ `p ∈ L. Luego,para cualesquiera subconjuntos I, J ⊆ N del mismo cardinal la permutacion φJI = φ1 ∪ φ2cumple lo necesario para calcular el signo de un sumando de la expansion generalizada deLaplace, o sea φJI (I) = J y φJI (N\I) = N\J.
Observese, que la biyeccion φ1 es la natural de renglones a columnas que se obtiene sien una matriz αNN tachamos todos los renglones con ındices en K y todas las columnas conındices en L. De la misma manera φ2 es la biyeccion de renglones a columnas si tachamostodos los renglones con ındices en I y todas las columnas con ındices en J.
Calculemos el signo deφJI. Al estudiar la expansion (normal) de Laplace en forma grafica
(j, j− 1, · · · , i+ 1, i) si j > i(j, j+ 1, · · · , i− 1, i) si j < i
vimos que si I = i y J = j entonces, φJI = φji es
el ciclo que se muestra a la derecha y por lo tantosgnφji = (−1)
i+j (la regla del “tablero de ajedrez”).
sgnφJI = sgnφj1i1 sgnφJ\j1I\i1
.
Prueba. Sea θ =¡φJI¢−1 φJ\j1
I\i1. Tenemos que demostrar que sgnθ = (−1)
i1+j1 . Para
(kp, kp+1, · · · , kq−1, i1) si p < q(kp−1, kp−2, · · · , kq, i1) si p > qI si p = q
esto, recordemos que K = N\I = k1, . . . , ks< y L = N\J = `1, . . . , `s< . Sea p el menorındice tal que i1 < kp y sea q el menor ındice tal que j1 < `q (es admisible que p = s+1 y/o
q = s + 1). Usando la definicion de θ calculamosque esta permutacion es igual a la del recuadro a laizquierda. Luego, θ es siempre un ciclo de longitud|p− q|+ 1 y por lo tanto sgnθ = (−1)p+q.
Como i1 y j1 son los elementos mas pequenos de I y J respectivamente entonces, tenemosque k1, . . . , kp−1, i1< = 1, . . . , p− 1, p y `1, . . . , `q−1, j1< = 1, . . . , q− 1, q y deaquı finalmente, p = i1 y q = j1.
Iterando este resultado obtenemos sgnφJI = sgnφj1i1 sgnφj2i2 · · · sgnφjtit . Observese queαir jr son las entradas en la diagonal de la submatriz αIJ de αNM . Luego, para hallar sgnφJI loque hay que hacer es multiplicar los signos de la regla del tablero de ajedrez de los elementosen la diagonal de αIJ. Tambien se puede hacer, calculando la paridad de
Pi∈I i+
Pj∈J j.
Ejemplo. Calculemos el determinante de una matriz αNN del recuadro⎛⎜⎜⎝4 5 1 1
1 2 3 2
4 5 2 3
1 2 3 4
⎞⎟⎟⎠ a la izquierda haciendo la expansion generalizada de Laplace por el conjunto I del segundo y cuarto renglones. Tenemos que recorrer todos lossubconjuntos J de dos columnas.
Observese, que si la columna 4 no esta en J entonces la matriz αIJ tiene dos renglonesiguales por lo que todos los sumandos correspondientes en la expansion seran cero. Ademas,para J = 3, 4 la matriz αN\I N\J tiene dos renglones iguales por lo que tambien el correspondiente sumando es cero.
125Seccion 4.5 El rango de una matriz
Solo nos quedan dos sumandos cuando J = 1, 4 y cuanJ = 1, 4 J = 2, 4µ− +
− +
¶ µ+ +
+ +
¶do J = 2, 4. Para ellos podemos extraer del tablero de ajedrez las submatrices del recuadro a la derecha y multiplicando los signos en las diagonales obtenemos sgnφ1,4I = −1 ysgnφ2,4I = 1. Luego, por la expansion generalizada de Laplace el determinante de nuestramatriz es igual a¯
2 2
2 4
¯ ¯4 1
4 2
¯−
¯1 2
1 4
¯ ¯5 1
5 2
¯= 4× 4− 2× 5 = 6
donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.
4.5 El rango de una matriz
En esta seccion definiremos las bases de una matriz como las submatrices mas grandescon determinante diferente de cero. Probaremos que las bases de una matriz definen y estandefinidas por las bases de los espacios de columnas y renglones. Esto es el fundamento delos diversos metodos de solucion de los sistemas de ecuaciones lineales.
Matrices no singulares
Agrupemos en un solo resultado lo que hemos probado para las matrices no singulares.
Caracterizacion de Matrices No Singulares
Para cualquier matriz cuadrada A lassiguientes afirmaciones son equivalentes:1. A tiene inversa, 3. los renglones de A son LI,2. A es no singular, 4. las columnas de A son LI.
Prueba. La implicacion 1⇒2 es el resultado 4.21. La implicacion 2⇒1 es el resultado 4.22.La equivalencia 1⇔4 es el resultado 3.21 (pagina 89). De aquı, 2⇔4 y como los determinantes no cambian por transposicion obtenemos 2⇔3.
Espacios de columnas y renglones
Al subespacio deKN generado por los renglones de la matriz αMN se le llama espacio derenglones de la matriz. Aquı tenemos un pequeno problema: es posible que halla renglonesiguales y los conjuntos no distinguen elementos iguales. Por esto, diremos que un conjuntode renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones dela matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio derenglones lo llamaremos base de los renglones de αMN . Analogamente se define el espaciode columnas de una matriz, los conjuntos de columnas LI y las bases de las columnas.
Reformulemos el resultado 3.30 (pagina 95) en el lenguaje de matrices.
126 Capıtulo 4. Determinantes
Las dimensiones del espacio de columnas y delespacio de renglones de una matriz coinciden.
Prueba. Sea αMN una matriz. Observemos que la TL de esta matriz definida por f : KN 3βN 7→ αMNβN ∈ KM tiene como imagen al espacio de columnas de la matriz αMN ya quef evaluada en los vectores de la base canonica de KN resulta en las columnas de αMN . Porlo mismo, la TL transpuesta fT tiene como imagen al espacio de renglones de αMN . Por 3.30las dimensiones de estos espacios coinciden.
A la dimension de los espacios de renglones y columnas se le llama rango de la matriz.
Lema de aumento de matrices no singulares
El siguiente lema es parte importante de las demostraciones de los que siguen. Su demostracion es clasica e ingeniosa. Este lema es en cierta manera analogo al lema de aumentode conjuntos LI que vimos en el Capıtulo 2.
Lema de Aumento de Submatrices No Singulares
Sea αIJ una submatriz cuadrada no singular de αMN . Seam ∈M\Ital que el conjunto de renglones indexado por I ∪ m es LI.Entonces, existe n ∈ N tal que la matriz αI∪m J∪n es no singular.
Prueba. Denotemos Bn = αI∪m J∪n. Al absurdo, supongamos que ∀n ∈ N\J se cumple
Bn =
µαIJ αInαmJ αmn
¶que detBn = 0.. Si n ∈ J entonces, denotemos por Bn la matriz αI∪m J a la que artificialmente le agregamos otra columna n. En este caso Bn tiene dos columnas iguales y porlo tanto tambien detBn = 0. Para cualquier n, podemos pensar la matriz Bn graficamentecomo se muestra en el recuadro. Sean Bin los cofactores de lasentradas de la ultima columna en la matriz Bn. Observemos queen la definicion de los Bin no estan involucradas las entradas dela ultima columna. Luego, Bin no depende de n y podemos denotar Bin = βi ∈ K. De laexpansion de Laplace por la ultima columna en la matriz Bn obtenemos:
0 = detBn =Xi∈M
αinBin =Xi∈M
αinβi.
Como esto es valido ∀n ∈ N concluimos que βMαMN = 0N . Como βm = detαIJ 6= 0 estosignifica que los renglones de αMN estan en una combinacion lineal nula con coeficientes notodos nulos. Esto contradice la hipotesis de que sus renglones son LI.
Bases de una matriz
Sea αMN una matriz. Entre las submatrices cuadradas no singulares de αMN tenemos larelacion de contencion
(αI0J0 ⊆ αIJ)⇔ (I0 ⊆ I y J0 ⊆ J)Una base de αMN es una submatriz no singular maximal por contencion.
127Seccion 4.5 El rango de una matriz
Caracterizacion de las Bases de una Matriz
Una submatriz αIJ es una base de una matriz si y solo si el conjunto de renglones indexado por I es una base de los renglones y elconjunto de columnas indexado por J es una base de las columnas.
Prueba. Sea αIJ una submatriz de αMN . Es conveniente denoαMN =
µαIJ αIYαXJ αXY
¶tar X =M \ I y Y = N \ J y pensar que αMN es de la forma enel recuadro a la derecha. Supongamos que αIJ es cuadrada y quees una base de αMN . Entonces, por la Caracterizacion de Matrices No Singulares (4.28) losrenglones y las columnas de αIJ son LI y con mas razon los renglones de αIN y las columnasde αMJ son LI .
Si estos renglones de αIN no son una base de los renglones de αMN entonces, existe otrorenglon indexado porm ∈ X tal que el conjunto de renglones indexado por I∪m es LI y porel Lema de Aumento de Submatrices No Singulares (4.30) existe n ∈ Y tal que αI∪m J∪n esno singular y esto contradice la suposicion de que αIJ es una base. Luego, los renglones deαIN son una base de los renglones y por 4.29 las columnas de αMJ son una base del espaciode columnas.
Recıprocamente, supongamos que los renglones de αIN y las columnas αMJ son basesde los renglones y las columnas de αMN respectivamente. Por 4.29, la submatriz αIJ escuadrada. Sabemos que los renglones de αIN son LI. Las columnas de αMJ es un generadordel espacio de columnas de αMN y con mas razon las columnas de αIJ son un generador delespacio de columnas de αIN . Aplicando 4.29 a la matriz αIN obtenemos que las columnasde αIJ son un generador con la misma cantidad de vectores que la dimension del espacio ypor lo tanto son LI. Por la Caracterizacion de Matrices No Singulares (4.28) la matriz αIJ esno singular.
Si hubiera una submatriz αI∪m J∪n no singular entonces por la Caracterizacion de Matrices No Singulares (4.28) sus renglones serıan LI y con mas razon los renglones de αI∪m N
serıan LI. Esto contradice que los renglones de αIN es una base de los renglones de αMN .Luego, αIJ es una base de la matriz αMN .
Una consecuencia importante de la Caracterizacion de las Bases de una Matriz (4.31) esque todas las bases de una matriz tienen orden igual al rango de la matriz.
Ejercicio 89 Sean E = F⊕G espacios vectoriales y xi = (yi, zi) vectores donde xi ∈ E,yi ∈ F y zi ∈ G. Pruebe que si los yi son LI entonces los xi son LI. Pruebe que si losxi son generadores entonces los yi son generadores. Esto es lo que se usa en la prueba dela Caracterizacion de las Bases de una Matriz (4.31) cada vez que se usa la frase “con masrazon”.
128 Capıtulo 4. Determinantes
4.6 Sistemas de ecuaciones lineales
Sea A = αNM una matriz y xM = xM1 una columna. El producto Xj∈M
αijxj = bide estas matrices es nuevamente una columna αNMxM1 = bN1 = bN. Sidesarrollamos este producto por la definicion de producto de matrices entonces obtenemos para cada i ∈ N la igualdad en el recuadro a la derecha.
Como ya es usual podemos interpretar la columna xM como un vector x en el espaciovectorialKM y a bN como un vector b en el espacioKN y en estas notaciones la igualdad seescribe en una forma mas simpleAx = b. Supongamos queA es una matriz fija. Si hacemosvariar x enKN entonces esta igualdad la podemos pensar como una TL deKM enKN. Comoes logico, si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax.Mas difıcil es el problema inverso, si se conoce b entonces, ¿como hallar x tal queAx = b?
A una igualdad de la forma Ax = b donde A y b son conocidos y x es incognitase le llama sistema de ecuaciones lineales. ¡Oh, gran confusion! ¿porque sistema? ¿porque ecuaciones en plural si nada mas tenemos UNA?. La respuesta a estas preguntas no esgran misterio, es un problema historico. Cuando sobre la faz de la Tierra aun no vivıan lasmatrices y los vectores, los humanos necesitaban encontrar unos numeritos xj tales que paracualquier i ∈ N se cumpla que
Pj∈M αijxj = bi. Observese que se necesitan encontrar |M|
numeritos. En el caso de que |N| = 1 se decıa que tenemos que resolver una ecuacion lineal.Para el caso |N| > 1 los numeritos xj deberıan de cumplir todas y cada una de las ecuaciones (para cada i ∈ N) y entonces, se decıa que se necesitaba resolver un sistema (conjunto,coleccion, cualquier cosa que signifique que hay muchas) de ecuaciones lineales. De hecho,para acercarnos mas a la verdad, debemos substituir en todo lo dicho los “se decıa” por “sedice” en presente. Luego, hay dos formas de ver los sistemas de ecuaciones lineales:
¨ Tenemos que encontrar |M| elementos del campo xj tales quepara cualquier i, se cumple la igualdad
Pj∈M αijxj = bi,
¨ Tenemos que encontrar un vector x ∈ KM tal que Ax = b.
Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo queencontrar todas sus coordenadas xj. Sin embargo, la elegancia de la segunda forma haceque nuestra manera de pensarlo sea mucho mas simple y sistematica (a costo de aprendersobre matrices y vectores). Por ejemplo, si ocurre que la matriz A es no singular entoncesmultiplicando porA−1 a la izquierda obtenemosAx = b⇒ A−1Ax = A−1b⇒ x = A−1b
y como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la soluciondel sistema de ecuaciones lineales esta a la mano. Esto no significa que ya sepamos resolvertodos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular senecesita primero que sea cuadrada y que ademas el determinante sea diferente de cero.
Regla de Cramer
Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz delsistema y al vector b lo llamaremos vector de coeficientes libres. Denotaremos porA (j) la
129Seccion 4.6 Sistemas de ecuaciones lineales
matriz obtenida de la matriz del sistema substituyendo la jesima columna por el vector decoeficientes libres. Un ejemplo de esta substitucion es el siguiente
A =
µ1 2 3
4 5 6
¶, b =
µ7
8
¶, A (2) =
µ1 7 3
4 8 6
¶.
Regla de Cramer
Si la matriz A es no singular entonces, la jesimacoordenada xj del vector x es igual al determinante de A (j) dividido entre el determinante de A.
xj =detA (j)detA
Prueba. SeaαNM es una matriz no singular. Ya observamos que en este caso necesariamentex = α−1
NMb. Denotemos por βij las entradas de α−1NM entonces, tenemos xj = βjNbN. Por
4.22 tenemos que βjN = α∗Nj/ detαNM y de aquı xj detαNM = bNα∗Nj. Para terminar la
demostracion basta observar que la expresion a la derecha de la igualdad es la expansion deLaplace de A (j) por la columna j.
Gabriel Cramer (Suiza 17041752) publico su famosa regla en el artıculo “Introduccion al analisis de las curvas algebraicas” (1750). Esta surgio del deseo de Cramer de encontrar la ecuacion de una curva plana quepasa por un conjunto de puntos dado. El escribe su regla en un apendicedel artıculo y no da prueba alguna para ella. Este es uno de los orıgeneshistoricos del concepto de determinante. Es curioso (y educativo) ver conque palabras Cramer formula su regla:
“Uno encuentra el valor de cada indeterminada formando nfracciones el comun denominador de las cuales tiene tantos terminoscomo las permutaciones de n cosas.”
Cramer continua explicando como se calculan estos terminos como productos de ciertoscoeficientes de las ecuaciones y como se determina el signo. El tambien senala como losnumeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de losdenominadores por los coeficientes libres del sistema.
Para nosotros, con mas de dos siglos de ventaja, es mucho mas facil. Las “n fracciones”son detA (j) / detA y el “comun denominador” es detA (que tiene tantos sumandos comolas permutaciones de n cosas).
La Regla de Cramer (4.32) tiene fundamentalmente un interes historico por ser uno delos orıgenes del concepto de determinante. Es necesario recalcar que esta regla solo funcionapara el caso de que la matriz es no singular. O sea, cuando en el sistema se tienen tantasincognitas como ecuaciones y el determinante de la matriz del sistema no es nulo.
130 Capıtulo 4. Determinantes
Existencia de soluciones
Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas:
¨ ¿Existe una solucion?¨ ¿Como encontrar una solucion en el caso de que exista?¨ ¿Como encontrar TODAS las soluciones?
La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz nosingular: la solucion existe, es unica y se halla por la Regla de Cramer. Ahora responderemosen general la primera pregunta.
Primero, una definicion. Si Ax = b es un sistema de ecuaciones lineales entonces lamatriz ampliada del sistema denotada por (A|b) es la matriz que se obtiene de la matrizdel sistema anadiendo el vector columna de coeficientes libres b.
Teorema de Existencia de Soluciones
El sistema Ax = b tiene una solucion si y solo si el rango de lamatriz del sistema coincide con el rango de la matriz ampliada.
Prueba. Por definicion de rango de una matriz siempre se tiene que rankA ≤ rank (A|b) .Que coincidan es equivalente por la Caracterizacion de las Bases de una Matriz (4.31) a queb sea combinacion lineal de las columnas de A. El que b sea combinacion lineal de lascolumnas de A es equivalente a la existencia de escalares xj tales que αiNxN = bi o sea aque Ax = b tenga al menos una solucion.
Eliminacion de ecuaciones dependientes
Lema de Eliminacion de Ecuaciones Dependientes
Sea I el conjunto de ındices de una base de renglones de la matriz ampliada (αMN |bM). Entonces, el conjunto de soluciones deαMNxN = bM es exactamente el mismo que el de αINxN = bI.
Prueba. Como αMNxN = bM tiene mas ecuaciones que αINxN = bI entonces cada solucion de αMNxN = bM es solucion de αINxN = bI.
Recıprocamente, sea xN tal que αINxN = bI ym ∈M\I. El renglon (αmN |bm) es com
αmN = λIαINbm = λIbI
binacion lineal de los indexados por I. Luego existen escalares λi tales quese cumplen las igualdades a la derecha. Multiplicando la primera igualdadpor xN y usando la definicion de xN obtenemos αmNxN = λIαINxN =
λIbI = bm y por lo tanto xN satisface todas las ecuaciones del sistema αMNxN .
Otra manera, mas algorıtmica, de ver este lema es que si tenemos un sistema de ecuaciones αMNxN = bM y un renglon de este sistema es combinacion lineal de los demas
131Seccion 4.6 Sistemas de ecuaciones lineales
entonces, debemos eliminar la ecuacion correspondiente a este renglon. El Lema de Eliminacion de Ecuaciones Dependientes (4.34) nos garantiza que esta operacion no altera elconjunto de soluciones. Repitiendo esta operacion una cierta cantidad de veces, obtenemosuna matriz ampliada con renglones LI.
El nucleo y la imagen de una matriz
Sea αMN una MNmatriz. Ella es la matriz de la TL f : KN 3 xN 7→ αMNxN ∈ KM .Luego, podemos definir la imagen de la matriz αMN como ImαMN = Im f y el nucleo dela matriz αMN como kerαMN = ker f. Pasemos ahora a analizar la imagen. Por definicionde imagen tenemos ImαMN = βM | ∃xN αMNxN = βM. O sea, ImαMN es el conjuntode vectores βM tales que el sistema de ecuaciones lineales αMNxN = βM tiene al menos unasolucion. Tenemos αMNxN =
Pi∈N αMixi que es una combinacion lineal de las columnas.
Luego, ImαMN es el subespacio generado por las columnas de la matriz αMN . Ademas, siγN es una solucion de αMNxN = βM entonces, 3.33 (pagina 97) nos dice que el conjuntode todas sus soluciones es el subespacio afın γN + kerαMN . Resumamos todo lo dicho en4.35 para referencias futuras.
¨ El subespacio kerαMN es el conjunto de soluciones de αMNxN = 0M .¨ El subespacio ImαMN es el generado por las columnas de αMN .¨ Si γN es una solucion de αMNxN = βM entonces, el conjunto de todassus soluciones es el subespacio afın γN + kerαMN .
Bases del subespacio afın de soluciones
Ahora daremos la solucion general de los sistemas de ecuaciones lineales. SeaαMNxN =bM un sistema de ecuaciones. Primero, podemos suponer que la matriz del sistema αMNtiene el mismo rango que la matriz ampliada [αMN |bM ] porque si no entonces, el conjuntode soluciones es vacıo. Segundo, podemos suponer que la matriz ampliada [αMN |bM ] tienerenglones linealmente independientes porque si no, entonces podemos descartar aquellos queson combinacion lineal de otros.
Luego existe un conjunto de columnas J ⊆ M tal que αMJ es una base de la matriz
αMJxJ + αMYxY = bM
ampliada [αMN |bM ]. Denotando por Y al conjunto de columnas que no estan en la base podemos representar nuestro sistema de ecuaciones lineales comose muestra en el recuadro a la izquierda.
Aquı las incognitas xJ y xY son aquellas que se corresponden con las columnas en J y Yrespectivamente. Por ejemplo, en el sistema de ecuaciones
2x1 + 1x2 + 1x3 + 0x4 = 5
3x1 + 2x2 + 0x3 + 1x4 = 5
podemos tomar J al conjunto de las dos primeras columnas y Y al conjunto de la tercera y
132 Capıtulo 4. Determinantes
cuarta columnas. Luego a este sistema lo podemos escribir comoµ2 1
3 2
¶µx1x2
¶+
µ1 0
0 1
¶µx3x4
¶=
µ5
5
¶.
Ahora, como la matriz αMJ tiene inversa, lo que hacemos es simplemente despejar xJ yobtenemos xJ = α−1
MJbM − α−1MJαMYxY . En nuestro ejemplo obtenemosµ
x1x2
¶=
µ5
−5
¶+
µ2 −1−3 2
¶µx3x4
¶=
µ2x3 − x4 + 5
−3x3 + 2x4 − 5
¶Esto describe en forma parametrica el conjunto de todas las soluciones, para cualquier
vector xY hay una solucion¡α−1MJbM − α−1
MJαMYxY, xY¢
del sistema. Otra manera de describir el conjunto solucion es ponerlo en la forma descrita en 4.35. Para encontrar una solucionponemos xY = 0 y en nuestro ejemplo el vector solucion es (5,−5, 0, 0). Para encontrarel nucleo de la matriz del sistema ponemos bM = 0. Para encontrar una base del nucleorecorremos con xY a la base canonica de KY . En nuestro ejemplo
(x3, x4) = (1, 0)⇒ (x1, x2) = (7,−8)
(x3, x4) = (0, 1)⇒ (x1, x2) = (4,−3)
y finalmente obtenemos que el conjunto de soluciones (x1, x2, x3, x4) es el subespacio afın
(5,−5, 0, 0) + ρ (1, 0, 7,−8) + τ (0, 1, 4,−3)
donde ρ y τ son escalares cualesquiera.
4.7 Metodo de eliminacion de Gauss
La idea del metodo de eliminacion de Gauss es realizar ciertas transformaciones de lasmatrices que no cambian lo que se pretende calcular y que convierte a las matrices en otrascon muchas entradas iguales a cero. Este es el metodo mas universal y eficiente (al menosmanualmente) para calcular los determinantes, el rango, el nucleo, las matrices inversas, etc.Aquı, estudiaremos brevemente este metodo.
Transformaciones elementales
Sea αMN una matriz. Sean αiN , αjN dos renglones de αMN y λ ∈ K un escalar. Denotemos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando el renglonαjN por la Nada βjN . A la operacion que dados αMN , i, j y λ obtenemos βMN se le llamatransformacion elemental de los renglones. Otra manera util de pensar las transformaciones elementales de los renglones es que en la matriz αMN al renglon αjN le sumamos elrenglon αiN multiplicado por λ. De forma analoga, se definen las transformaciones elementales de las columnas. Una transformacion elemental es de renglones o de columnas.
Las transformaciones elementales no cambian los determinantes.
Prueba. Sean αMM , βMM y γMM matrices que se diferencian solo en el renglon indexado
133Seccion 4.7 Metodo de eliminacion de Gauss
por j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . Como el determinante esun funcional lineal de los renglones tenemos detβMM = λ detγMM + detαMM y como lamatriz γMM tiene dos renglones iguales entonces, detβMM = detαMM . La prueba terminaal recordar que el determinante no cambia por transposicion de la matriz.
Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sussubmatrices y por lo tanto no son afectados por las transformaciones elementales. Sin embargo, las trasformaciones elementales de las columnas cambian los nucleos y el subespacioafın solucion de un sistema de ecuaciones lineales. Para las transformaciones elementales delos renglones la situacion es diferente.
Las transformaciones elementales de los renglones de la matriz ampliada nocambian el subespacio afın solucion de un sistema de ecuaciones lineales.
Prueba. Sea αMNxN = bM un sistema de ecuaciones lineales. Sea βMNxN = cM otrosistema que se diferencia solo en la ecuacion j para la cual se tiene βjN = λαiN + αjN ycj = λbi + bj. Si γN es una solucion del primer sistema entonces, βjNγN = λαiNγN +
αjNγN = λbi + bj = cj por lo que γN es una solucion del segundo sistema. Si γN es unasolucion del segundo sistema entonces, αjNγN = βjNγN − λαiNγN = cj − λbi = bj por loque γN es una solucion del primer sistema.
Ejemplo
El metodo de Gauss se puede precisar en todo detalle para convertirlo en un algoritmoprogramable en una computadora. Pero como tratamos de ensenar a humanos y no a computadoras la mejor manera no es dar todos los detalles sino dejar a la creatividad individual y ala imitacion de ejemplos el como aplicar las transformaciones elementales.
La matriz ampliada siguiente arriba a la izquierda representa un sistema de ecuacioneslineales. Despues de las 4 transformaciones elementales de los renglones que se muestranobtenemos la matriz de abajo a la derecha. La solucion del sistema de esta ultima es obvia.Ã
1 1 0
2 3 4
3 3 1
¯¯ 3
2
1
!r2 :=r2−2r1−→ Ã
1 1 0
0 1 4
3 3 1
¯¯ 3
−41
!r3 :=r3−3r1−→ Ã
1 1 0
0 1 4
0 0 1
¯¯ 3
−4−8
!
r2 :=r2−4r3−→ Ã1 1 0
0 1 0
0 0 1
¯¯ 3
28
−8
!r1 :=r1−r2−→ Ã
1 0 0
0 1 0
0 0 1
¯¯ −25
28
−8
!Aquı las transformaciones elementales realizadas estan marcadas en las echas. Por ejemplo,la primera es r2:= r2 − 2r1 lo que significa que al segundo renglon le sumamos el primeromultiplicado por −2. Observese que despues de dos transformaciones ya vemos que el determinante de la matriz del sistema es 1 porque en una matriz triangular el determinante esel producto de las entradas diagonales.
134 Capıtulo 4. Determinantes
El caso general
Para el calculo de los determinantes no hay mucho mas que decir. Podemos utilizar transformaciones elementales de columnas y renglones para convertir nuestra matriz cuadrada enmatriz triangular. Si en el proceso nos aparece un renglon o columna cero entonces el determinante es cero.
Para resolver los sistemas de ecuaciones lineales trabajamos con la matriz ampliada y solo podemos realizar transformaciones elementales de los renglones. Podemos ademas multiplicar un renglon por un escalar porque esto no afecta la ecuacion correspondiente al renglon.Si nos aparece un renglon cero podemos descartarlo como combinacion lineal de los otros.Si nos aparece un renglon que es cero en la matriz del sistema pero su coeficiente libre no escero entonces el sistema no tiene solucion porque el rango de la matriz ampliada es mayorque el rango de la matriz del sistema. Finalmente, si en algun momento nos aparece unaconfiguracion del tipo ⎛⎜⎝ a ∗ · · · ∗ ∗ ∗
0 b · · · ∗ ∗ ∗· · · · · · · · · · · · · · · · · ·0 0 · · · c ∗ ∗
¯¯ ∗∗· · ·∗
⎞⎟⎠donde a, b, . . . , c son diferentes de cero entonces las primeras columnas forman una base dela matriz y tenemos mas incognitas que ecuaciones. En este caso debemos seguir diagonalizando la parte correspondiente a las primeras columnas hasta obtener⎛⎜⎝ 1 0 · · · 0 ∗ ∗
0 1 · · · 0 ∗ ∗· · · · · · · · · · · · · · · · · ·0 0 · · · 1 ∗ ∗
¯¯ ∗∗· · ·∗
⎞⎟⎠ .Para este sistema procedemos como en la seccion anterior y pasamos restando las incognitasque sobran como parametros hacia la parte derecha del sistema de ecuaciones. Tomemos elmismo ejemplo de la seccion anteriorµ2 1 1 0
3 2 0 1
¯5
5
¶r2 :=3r2−2r1−→ µ
2 1 1 0
0 1 −3 2
¯5
−5
¶r1 :=
r1−r22−→ µ
1 0 2 −1
0 1 −3 2
¯5
−5
¶y por lo tanto la solucion de este sistema es x1 = 5− 2x3+x4 y x2 = −5+3x3−2x4 dondex3 y x4 pueden tomar cualquier valor.
Aquı es cuando el lector se preguntara ¿Para que diagonalizar la primera y segunda columna si ya la tercera y cuarta estan en forma diagonal? Pues tiene toda la razon, simplementeesta escogiendo otra base de la matriz. La solucion del sistema se obtiene directamente dela matriz ampliada original en la forma x3 = 5 − 2x1 − x2 y x4 = 5 − 3x1 − 2x2 donde x1y x2 pueden tomar cualquier valor. Que es mejor es cuestion de gustos u otras necesidades.Por ejemplo, si se necesita substituir x1 y x2 en otras formulas entonces, la mejor soluciones la primera. Si por el contrario se necesita substituir x3 y x4 en otras formulas entonces, lamejor solucion es la segunda.
135Seccion 4.7 Metodo de eliminacion de Gauss
Solucion de ecuaciones matriciales, matriz inversa
Si tenemos varios sistemas de ecuaciones lineales αMNxN1 = bM1, . . . ,αMNxN` = bM`todos con la misma matriz del sistema αMN entonces, podemos denotar L = 1, . . . , `
y escribirlos todos en la forma αMNxNL = bML. Esta ecuacion matricial tiene la matrizampliada [αMN |bML] y podemos aplicarle a esta matriz la eliminacion de Gauss para resolvertodos nuestros sistemas al mismo tiempo. Esto lo podremos hacer porque en la eliminacionde Gauss no se reordenan columnas y solo se aplican transformaciones elementales a losrenglones, ası que no nos importa cuantas columnas halla despues de la barra vertical.
En particular, si M = N entonces, la unica solucion posible (si existe) a la ecuacionmatricial αMMxMM = IMM serıa xMM = α−1
MM . Esta es la forma en que con el metodo deeliminacion de Gauss se calculan las matrices inversas. Por ejemplo:Ã
1 1 0
2 3 4
3 3 1
¯¯ 1 0 0
0 1 0
0 0 1
!r2 :=r2−2r1−→r3 :=r3−3r1
Ã1 1 0
0 1 4
0 0 1
¯¯ 1 0 0
−2 1 0
−3 0 1
!r2 :=r2−4r3−→
Ã1 1 0
0 1 0
0 0 1
¯¯ 1 0 0
10 1 −4
−3 0 1
!r1 :=r1−r2−→ Ã
1 0 0
0 1 0
0 0 1
¯¯ −9 −1 4
10 1 −4
−3 0 1
!y por lo tanto Ã
1 1 0
2 3 4
3 3 1
!Ã−9 −1 4
10 1 −4−3 0 1
!=
Ã1 0 0
0 1 0
0 0 1
!.
Ejercicio 90 Tome un sistema de ecuaciones lineales y resuelvalo por el metodo de eliminacion de Gauss. Repıta cuantas veces le sea necesario.
No esta de mas recalcar aquı que el metodo de eliminacion de Gauss funciona en espaciosvectoriales sobre cualquier campo sea este Q, R, C, Zp u otro campo cualquiera. Solo hayque realizar las operaciones de suma, producto y division como estan definidas en el campoen particular.
136
Descomposición deOperadores Lineales
Descomposición deOperadores Lineales
Capítulo quintoCapítulo quinto
ay dos teoremas que son muy conocidos por el lector y que son muy parecidos. Elprimero es que todo numero natural se descompone de forma unica salvo orden de losfactores en producto de numeros primos. El segundo es que todo polinomio se des
compone de forma unica salvo orden de los factores en producto de polinomios irreducibles.Para los operadores lineales hay un teorema parecido todo operador lineal se descompone ensuma directa de OLs irreducibles, el “tipo” de tal descomposicion es unico. En este capıtulodaremos la demostracion de este teorema y lo que es mas importante, encontraremos cualesson todos los OLs irreducibles de un espacio vectorial de dimension finita.
5.1 Suma directa de operadores lineales
Recordemos que el acronimo OL significa para nosotros un operador lineal, o sea unatransformacion lineal de un espacio en si mismo. Con otras palabras, un endomorfismodel espacio. Usaremos sistematicamente este acronimo. Sin embargo, al conjunto de todoslos OLs de un espacio vectorial E lo denotaremos por End (E). Ya vimos que el conjuntoEnd (E) es un algebra para la suma de funciones, la multiplicacion por escalares y la composicion de OLs. El conjunto End (E) contiene el neutro para la suma que es el operador linealO que a cualquier vector le hace corresponder el vector 0. Tambien contiene al neutro parala composicion de funciones I que es la identidad I (a) = a.
En este capıtulo todos los espacios vectoriales seran de dimension finita. Si f : E→ E yg : F→ F son dos OLs entonces, a la funcion
f⊕ g : E⊕ F 3 (a,b) 7→ (f (a) , g (b)) ∈ E⊕ Fse le llama suma directa de los OLs f y g. Es facil comprobar que la suma directa de dosOLs es un OL.
Ejercicio 91 Pruebe que la suma directa de OLs es siempre un OL. [182]
138 Capıtulo 5. Descomposicion de operadores lineales
El lector no debe confundir la suma directa de OLs con la habitual suma de funciones. Si f : E→ E y g : E→ E son dos OLs entonces su suma se define como(f+ g) (a) = f (a) + g (a).
Veamos ahora un ejemplo. Sea f : R2 → R2 la rotacion en el
[a, b, c]
[a, b]
α
[f⊕ g] [a, b, c]
c
2c
f [a, b]
angulo α en contra de las manecillas del reloj o en otras palabras(1, 0) 7→ (cosα, sinα) y (0, 1) 7→ (− sinα, cosα). Sea g : R→ Rla dilatacion de factor 2 o sea z 7→ 2z. El espacioR2⊕R lo podemospensar como R3 en el cual el primer sumando es el plano x, y yel segundo es el eje z. Sabemos como transforma f el plano x, y(rotando) y como transforma g el eje z (dilatando). Vease la figuraa la derecha.
Ahora si (a, b, c) es un vector arbitrario de R3 entonces podemos rotar a (a, b) en elplano xy obteniendo (a cosα− b sinα, b cosα+ a sinα) y dilatar c en el eje z obteniendo 2c. De esta manera, obtenemos el OL de todo R3 que a (a, b, c) le hace corresponder(a cosα− b sinα, b cosα+ a sinα, 2c) . Este OL es precisamente f⊕ g.
Ejercicio 92 Dado f⊕ g ∈ End (E⊕ F) podemos definir a f0 = f⊕ I y g0 = I⊕ g. Pruebeque f ⊕ g = f0 g0 = g0 f0. Esto significa que podemos pensar la suma directa como lacomposicion de dos OLs que conmutan. [182]
Subespacios invariantes, componentes irreducibles
A partir de ahora y en todo este capıtulo la funcion h : E → E es un OL delespacio vectorial finito dimensional E. La dimension de h es por definicion ladimension de E.
La simplicidad de la operacion de suma directa de OLs nos lleva a querer descomponerh en suma directa de otros OLs. La pregunta es: ¿Dado h sera posible encontrar OLs f yg tales que h = f ⊕ g?. Detallemos un poco mas el problema. Si F y G son subespacioscomplementarios de E entonces, por el isomorfismo canonico entre la suma de subespacioscomplementarios y la suma directa de subespacios tenemos E = F+G = F⊕G. La preguntaes ¿cuando existen OLs f : F→ F y g : G→ G tales que h = f⊕ g?
Supongamos que efectivamente h = f ⊕ g y sea a un vector en F. Por definicion def ⊕ g para calcular h (a) tenemos que expresar a como suma de un vector en F y otroen G. Esta descomposicion es unica y en este caso es a = a + 0 por lo que h (a) =f (a) + g (0) = f (a) + 0 = f (a). De aquı deducimos que h (a) ∈ F y como esto se hizopara un vector arbitrario en F obtenemos que h (F) = h (a) | a ∈ F ⊆ F. De la mismamanera se demuestra que h (G) ⊆ G.
Esto nos lleva a la siguiente definicion. Diremos que F ⊆ E es un subespacio invariantede h (o que F es hinvariante) si se cumple que h (F) ⊆ F.
139Seccion 5.1 Suma directa de operadores lineales
Un OL se descompone como suma directa de dos OLs si ysolo si el tiene dos subespacios invariantes complementarios.
Prueba. Ya demostramos la necesidad. Demostremos la suficiencia. Para esto supongamosque h : E → E tiene dos subespacios invariantes complementarios F y G. Tenemos E =F⊕G, h (F) ⊆ F y h (G) ⊆ G. Sean f : F→ F y g : G→ G las restricciones de la funcionh a los subespacios F y G respectivamente. Obviamente f y g son OLs. Sea x un vectorarbitrario en E. Existen unos unicos a ∈ F, b ∈ G tales que x = a + b y por linearidadtenemos h (x) = h (a+ b) = h (a) + h (b) = f (a) + g (b) por lo que h = f⊕ g.
Acabamos de traducir nuestro problema original al de la existencia de subespacios invariantes complementarios pero hay un caso degenerado que no nos facilita en nada las cosas.Todo el espacio E es invariante pues obviamente h (E) ⊆ E. Igualmente el subespacio 0formado solo por el origen es invariante ya que h (0) = 0. Ademas, los subespacios 0 y Eson complementarios y en este caso h se descompone como la suma directa de f : 0 7→ 0 yg = h. Tal descomposicion siempre existe pero no nos da nada pues g = h.
Un subespacio se le llama no trivial si el no es todo el espacio y no es el origen. Un OLse le llama reducible si el tiene dos subespacios invariantes complementarios no trivialesy en otro caso se le llama irreducible. A la restriccion de h a un subespacio invarianteno trivial que tiene un complementario invariante se le llama componente de h. En otraspalabras, f es una componente de h si existe g tal que h = f ⊕ g y esta descomposiciones no trivial. Los OLs irreducibles son exactamente aquellos cuya unica descomposicioncomo suma directa de dos es la trivial o sea, aquellos que no tienen componentes. Si unOL es reducible entonces, este se descompone como suma directa de dos componentes. Sialguno de las componentes es reducible entonces podemos descomponerla. Asi, vemos quecualquier OL es suma directa de componentes irreducibles.
Ejemplos en dimension 2
Todo OL de dimension 1 es irreducible pues los unicos subespacios posibles son lostriviales. Veamos el caso de dimension 2. Supongamos que E es de dimension 2. Si h esreducible entonces, E = F ⊕ G y necesariamente F y G son subespacios hinvariantes dedimension 1. Por la proposicion 3.2 las restricciones f y g de h a F y G respectivamente sonhomotecias, o sea, existen escalares α y β tales que f es la multiplicacion por α y g es lamultiplicacion por β.
Si x es una base de F y y es una base de G enR2
x 7→ 3x y 7→ 2y
y
x
µα 0
0 β
¶tonces la matriz de h en la base x,y es la del recuadro a la izquierda, o sea es diagonal. Hemos demostrado que cualquier operador lineal reducible de
dimension 2 cumple que existe una base en la cual su matriz es diagonal. En la figura de la derecha esta representada el OL de estetipo cuando E = R2 , x,y es la base canonica, α = 3 y β = 2.
140 Capıtulo 5. Descomposicion de operadores lineales
Una rotacion de R2 en un angulo α en contra de las manecillas del reloj es obviamenteirreducible para α /∈ 0, 180 ya que en este caso, ninguna recta por el origen se queda ensu lugar. O sea, las rotaciones no tienen subespacios invariantes no triviales.
Otro ejemplo es el que surge si a un cuadrado le aplicamos µλ 1
0 λ
¶R2 y
x
dos fuerzas en sentido contrario a dos de sus lados opuestos. Mas precisamente, al OL que tiene como matriz en labase canonica de R2 la del recuadro a la derecha la llamaremos λdeslizamiento. La figura de la izquierda muestra intuitivamentecomo se mueven los puntos de R2 al aplicar un 1deslizamiento. De estafigura, se ve que la unica recta por el origen que es invariante es el eje x.
Luego un λdeslizamiento es irreducible (λ 6= 0) ya que el eje x no tiene complementarioinvariante.
Las matrices y los subespacios invariantes
Sea F es un subespacio invariante del OL h : E→ E. Sea G un subespacio complementario a F. Escojamos basesA y B de F yG respectivamente. Sabemos queA∪B es una basede todo el espacio. Sea x un vector en la base A. Podemos hallar las coordenadas de h (x)en la base A ∪ B
h (x) =Xa∈A
αaa+Xb∈B
βbb
y como h (x) ∈ hAi entonces, todas las coordenadas βb son iguales a cero.
Estas coordenadas forman una columna de la matriz de h en la base A∪BµM ∗0 ∗
¶y por lo tanto despues de ordenar las bases, esta matriz tiene que versecomo en el recuadro a la izquierda. La matriz M es la de la restriccion deh a F. El 0 representa una submatriz con entradas cero con |A| columnas
y |B| renglones. Finalmente, los “*” representan submatrices de las dimensiones apropiadas.Resumiendo para futuras referencias:
Si F es un subespacio invariante de h y A es una base de todoel espacio que contiene a una base B de F entonces, la matrizde h en la base A es triangular por bloques y el bloque superiorizquierdo es la matriz de la restriccion de h a F en la base B.
Si ademas, G es h invariante entonces, el mismo razonamiento nos hace µM 0
0 M0
¶ver que el “*” superior derecho es una submatriz con entradas cero con|B| columnas y |A| renglones. En este caso la matriz tiene que verse comoen el recuadro a la derecha. La matrizM0 es la de la restriccion de h aG.Resumiendo para futuras referencias:
141Seccion 5.2 Polinomios de operadores lineales
Si F y G son un subespacios invariantes complementarios de hy los conjuntos A y B son bases de F y G respectivamente entonces, la matriz de h en la base A∪B es diagonal por bloquesy los bloques diagonales son las matrices de las restriccionesde h a F en la base A y de h a G en la base B respectivamente.
5.2 Polinomios de operadores lineales
En esta seccion introduciremos una herramienta para el calculo de los subespacios invariantes de un OL a saber, los polinomios de OLs. Se recomienda que el lector lea (o vuelvaa leer) la seccion 1.7 en la cual se introducen los ideales de polinomios y se demuestra quetodo ideal de K [x] es principal.
El morfismo de K [x] en End (E)
Para cualquier numero natural n el operador hn se
hn =
⎧⎨⎩n vecesz |
h ... h si n > 0I si n = 0
define como en el recuadro a la derecha. De aquı, comosabemos sumar OLs y multiplicar por escalares a los OLs,vemos que una expresion como por ejemplo h2−2h1+5Ies un OL que conocemos si tan solo conocemos a h
En general si p (x) =Pn
i=0 αixi ∈ K [x] es un polinomio arbitrario con coeficientes
en el campo del espacio vectorial E, entonces ph =Pn
i=0 αihi es un OL bien definido. Al
proceso de substituir la variable x por el OL h y de esta manera convertir el polinomio p (x)en el OL ph se le llama evaluacion de p en h.
Recordemos de la seccion 3.2 que un algebra es un espacio vectorial con un productode vectores asociativo, distributivo, con elemento neutro y que conmuta con el producto porescalares. Ya vimos, que el espacio vectorial End (E) es un algebra para la composicion deOL. Tambien vimos que el espacio vectorial de todos los polinomiosK [x] es un algebra parael producto de polinomios.
Una subalgebra es un subconjunto de una algebra que es algebra para las operacionesinducidas en el subconjunto. Un subconjunto de una algebra es subalgebra cuando es subespacio del espacio vectorial, es cerrado para el producto y contiene el 1.
Una transformacion lineal entre dos algebras es un morfismo de algebras si esta conmuta con el producto y preserva el 1.
La funcion de evaluacion de polinomios en unoperador lineal es un morfismo de algebras.
Prueba. La funcion de evaluacion K [x] 3 p (x) 7→ ph ∈ End (E) es una funcion cu
142 Capıtulo 5. Descomposicion de operadores lineales
yo dominio y codominio son algebras. Sean α0, ...,αn y β0, ...,βn los coeficientes de dospolinomios p y q respectivamente. Tenemos la misma cantidad de coeficientes en ambospolinomios ya que siempre podemos agregar suficientes ceros. Sea λ un escalar. Tenemos
(λp)h =nPi=0
λαihi = λ
nPi=0
αihi = λph
(p+ q)h =nPi=0
(αi + βi)hi =
nPi=0
αihi +
nPi=0
βihi = ph + qh
lo que muestra que la evaluacion en h es una TL.Por definicion de producto de polinomios, tenemos
(pq)h =
ÃnPi=0
nPj=0
αiβjxi+j
!h
=nPi=0
nPj=0
αiβjhi+j =
nPi=0
nPj=0
αiβj¡hi hj
¢=
=nPi=0
nPj=0
¡αih
i βjhj¢=
nPi=0
αihi
nPj=0
βjhj = ph qh
y finalmente, con 1h =¡x0¢h= h0 = I terminamos la prueba.
La subalgebra K [h]
El morfismo de evaluacion en h tiene como imagen el conjunto de todos los OL que sonla evaluacion en h de algun polinomio deK [x]. Este conjunto de OLs se denotara porK [h].Esto reeja que en la evaluacion lo que hacemos es substituir la variable x por el OL h.
K [h] es una subalgebra conmutativa del algebra de operadores lineales.
Prueba. Como la imagen de una transformacion lineal es un subespacio, obtenemos queK [h] es un subespacio de End (E). Como 1 (h) = I, obtenemos que I ∈ K [h]. Comoph qh = (pq)h obtenemos queK [h] es cerrado para la composicion. La conmutatividad sesigue de la conmutatividad del producto de polinomios. Efectivamente, ph qh = (pq)h =(qp)h = qh ph y por lo tanto, los OLs en K [h] conmutan entre ellos.
La conmutatividad deK [h] es un hecho trivial pero muy notable. Los operadores linealesen general no son conmutativos para la composicion. Sin embargo los que estan en K [h] siconmutan entre ellos. Esto va a jugar un papel importante en todo lo que sigue.
Cada vez que se tiene un morfismo de algebras, la imagen de este morfismo es una subalgebra delcodominio del morfismo. Si el dominio del morfismo es un algebra conmutativa entonces la imagenes una subalgebra conmutativa.
El polinomio mınimo
El morfismo de evaluacion en h (recordemos que este morfismo es una transformacionlineal) tiene como nucleo el conjunto de todos los polinomios p tales que ph = O.
143Seccion 5.2 Polinomios de operadores lineales
El nucleo del morfismo de evaluacion en h es un ideal de K [x].
Prueba. El nucleo de una transformacion lineal es un subespacio y por lo tanto si ph =qh = O entonces (p+ q)h = O. Sea r (x) cualquier polinomio. Necesitamos mostrar que(rq)h = O. Para cualquier a ∈ E tenemos
(rq)h (a) = (rh qh) (a) = rh (qh (a)) = rh (0) = 0y esto es todo lo que querıamos probar.
Por 1.19 todo ideal deK [x] es principal y por lo tanto existe un unico polinomio h (notesela letra gotica) de coeficiente principal 1 (o sea, monico) tal que si ph = O entonces, p esun multiplo de h. En sımbolos matematicos p (x) ∈ K [x] | ph = O = qh | q ∈ K [x]. Alpolinomio h se le llama polinomio mınimo de h. El polinomio mınimo de h es el polinomiomonico de grado mas pequeno que al evaluarlo en h se obtiene el OL nulo O . Por ahora, nosabemos mucho del polinomio mınimo de h, solo sabemos que existe y que es unico.
Otra manera mas descriptiva de ver el polinomio mınimo es la siguiente. Consideremosla sucesion infinita de operadores I, h, h2, . . .. Todos los elementos de esta sucesion nopueden ser LI en el espacio vectorial End (E) porque este espacio es de dimension finita eigual a (dimE)2. Esto quiere decir que hay un primer natural n y unos coeficientes escalaresαi tales que hn = α0h
0 + α1h1 + · · · + αr−1h
n−1. Denotando p (x) = xn − αr−1xn−1 −
· · · − α1x1 − α0x
0 vemos que ph = O y que este es el unico polinomio monico de gradomas pequeno que cumple esto. Luego, p es el polinomio mınimo de h.
El perıodo de un vector
Si p es un polinomio entonces ph es un OL. Si a es un vector entonces a la imagen porph de a se le denotara por ph (a). Luego, ph (a) se obtiene en dos pasos: primero tomamosel polinomio p lo evaluamos en h y ası obtenemos ph ; segundo la funcion ph la evaluamosen a y ası obtenemos ph (a).
Para cualquier vector a, el conjunto de todos lospolinomios p tales que ph (a) = 0, es un ideal.
Prueba. Si ph (a) = qh (a) = 0 y r es cualquier polinomio entonces(p+ q)h (a) = (ph + qh) (a) = ph (a) + qh (a) = 0
(rp)h (a) = rh (ph (a)) = rh (0) = 0
y esto es todo lo que se requerıa probar.
Nuevamente, como todo ideal de polinomios es principal entonces, existe un unico polinomio monico q tal que el conjunto p ∈ K [x] | ph (a) = 0 es exactamente el conjunto detodos polinomios que son multiplos de q. Al polinomio q se le llama el hperıodo del vectora o sencillamente el perıodo de a si esta implıcito cual es el operador h. En otras palabras,el perıodo de a es el polinomio q monico de grado mas pequeno tal que qh (a) = 0.
Mas descriptivamente, en la sucesion infinita de vectores a, h (a) , h2 (a) , . . . todos los
144 Capıtulo 5. Descomposicion de operadores lineales
elementos no pueden ser LI porque el espacio E es de dimension finita. Esto quiere decirque hay un primer natural n y unos coeficientes escalares αi tales que hn = α0h
0 (a) +
· · · + αr−1hn−1 (a). Denotando p (x) = xn − αn−1x
n−1 − · · · − α1x1 − α0x
0 vemos queph (a) = 0 y que este es el unico polinomio monico de grado mas pequeno que cumple esto.Luego, p (x) es el perıodo de a.
Ejercicio 93 Pruebe que el vector 0 es el unico vector cuyo perıodo es de grado cero.Ejercicio 94 Pruebe que los vectores cuyo perıodo es el polinomio x son exactamente aquellos que estan en el nucleo de h.
Anuladores
Sea ahora A ⊆ E un conjunto arbitrario de vectores. El hanulador de A es el conjuntode polinomios p ∈ K [x] | ∀a ∈ A ph (a) = 0. Previamente ya habıamos considerado visto dos anuladores. En el caso de que A es todo el espacio entonces el anulador es el idealusado para definir el polinomio mınimo. En el caso de que A es un solo vector entonces elanulador es el ideal usado para definir el perıodo del vector. Analogamente a las pruebasde 5.6 y 5.7 podemos probar que cualquier anulador es un ideal. Esto nos permite definirel hperıodo de un conjunto de vectores como el polinomio generador de su anulador. Elanulador de un conjunto de vectores es el conjunto de polinomios que son multiplos de superıodo.
De aquı en lo adelante denotaremos por perh (A) al hperıodo de un conjuntode vectores A. Ası, perh (a) es el perıodo del vector a y perh (E) es el hperıodo de todo el espacio o sea, el polinomio mınimo de h.
monotonıa del perıodo
Si A ⊆ B entonces, perh (A) es un divisor de perh (B).
Prueba. Sea A0 el hanulador de A. Si p es el perıodo de B entonces ph (b) = 0 paracualquier b ∈ B y por lo tanto ph (a) = 0 para cualquier a ∈ A. Luego p ∈ A0 y por lotanto es un multiplo del perıodo de A.
Nucleos de polinomios de operadores lineales
Los nucleos de los polinomios evaluados en un OL son un objeto importante para ladescomposicion de ese OL en componentes irreducibles. Su importancia esta dada por elsiguiente resultado.
145Seccion 5.2 Polinomios de operadores lineales
invariancia de los nucleos
El nucleo de cualquier operador enK [h] es un subespaciohinvariante.
Prueba. Sabemos que el nucleo de cualquier OL es un subespacio. Demostremos la invariancia. Sea a ∈ kerph entonces ph (a) = 0. Por la conmutatividad de los OL en K [h]tenemos ph (h (a)) = h (ph (a)) = h (0) = 0. O sea, h (a) ∈ kerph.
monotonıa de los nucleos
Si p es un divisor de q entonces Kerph ⊆ Kerqh.
Prueba. Sea q = p0p. Si x ∈ Kerph entonces qh (x) = p0h (ph (x)) = p0h (0) = 0 y por lo
tanto x ∈ Kerqh.
Conjuntos de vectores y polinomios
Los conjuntos de vectores estan ordenados naturalmente por Conjuntos de vectoresperh ↓ ↑ ker
Polinomios monicos
inclusion, y los polinomios monicos estan ordenados naturalmente por divisibilidad. Hemos establecido dos funciones monotonas entre estos dos conjuntos ordenados (vease el recuadroa la derecha). Sin embargo, estas funciones NO son una la inversa de la otra. La relacionentre ellas es un poco mas compleja y esta dada por el siguiente resultado.
perh (A) divide a p si y solo si A ⊆ kerph.
Prueba. Denotemos por q el perıodo de A. Si q divide p entonces, p esta en el anulador deA y por lo tanto para cualquier vector a enA se cumple que ph (a) = 0. Luego,A ⊆ kerph.Recıprocamente, si A ⊆ kerph entonces p esta en el anulador de A y por lo tanto q es undivisor de p.
perh (kerph) divide a p.
Prueba. Pongase A = kerph en 5.11.
perh (A) es el mınimo comun multiplode los perıodos de los vectores en A.
Prueba. Sea p = perh (A) y p0 el mınimo comun multiplo de los perıodos de los vectoresen A. Para cualquier vector a en A tenemos que ph (a) = p0 (a) = 0.
146 Capıtulo 5. Descomposicion de operadores lineales
Como p esta en el anulador de todos los vectores en A entonces es un multiplo comunde sus hperıodos y por lo tanto p es un multiplo de p0. Como p0 esta en el anulador de Aentonces p0 es un multiplo de p.
El polinomio mınimo de h es el mınimo comunmultiplo de los perıodos de todos los vectores.
Prueba. Pongase A igual a todo el espacio en 5.13
Sean A y B dos conjuntos ordenados. A una pareja de funciones monotonas f∗ : A → B y f∗ :B → A se les llama conexion de Galois si (f∗ (a) ≤ b) ⇔ (a ≤ f∗ (b)). El resultado 5.11 nosmuestra que si tomamos f∗ el perıodo y f∗ el nucleo entonces tenemos una conexion de Galois. En
toda conexion de Galois se tiene que f∗ (f∗ (x)) ≤ x, en nuestro caso, el resultado 5.12. En toda conexion deGalois se tiene que f∗ preserva los supremos y el resultado 5.13 es un caso particular de esto. Las conexionesde Galois aparecen muy frecuentemente en las matematicas.
5.3 Subespacios radicales
En lo que sigue muy frecuentemente nos encontraremos parejas de polinomios sin factores comunes. Necesitamos hacer un aparte para hablar de estas parejas. Primero, les daremosun nuevo nombre mas corto. Dos polinomios p y q se les llama coprimos si cualquier factorcomun a ambos es de grado 0. O sea, no tienen factores comunes no triviales. Dos polinomiosp y q son coprimos si y solo si los factores irreducibles de p son diferentes a los factoresirreducibles de q.
El siguiente resultado que usaremos mas adelante es facil consecuencia del teorema dedescomposicion de polinomios en factores irreducibles. Si al lector no le parece que esteresultado es obvio entonces, debe hacer un esfuerzo por demostrarlo.
Lema de igualdad de polinomios
Si p, q, p0 y q0 son monicos entonces,p0 divide a pq0 divide a qpq divide a p0q0
p y q son coprimos
⎫⎪⎪⎬⎪⎪⎭⇒¯p0 = p
q0 = q.
Ejercicio 95 Demuestre Lema de igualdad de polinomios (5.15). [182]
Ahora estamos listos para empezar a descomponer los operadores lineales.
147Seccion 5.3 Subespacios radicales
Lema de Descomposicion de Nucleos
Si p y q son polinomios coprimos entonces, ker (pq)h = kerph ⊕ kerqh.
Prueba. Todos los nucleos involucrados son subespacios. Lo que hay que probar es quekerph ∩ kerqh = 0 y que ker (pq)h = kerph + kerqh. O sea, es una suma directa.
Por el Teorema de Bezout existen polinomios r, s tales que rp+ sq = 1.Sea x ∈ kerph ∩ kerqh. Tenemos quex = 1h (x) = (rp+ sq)h (x) = rh (ph (x)) + sh (qh (x)) = rh (0) + sh (0) = 0
lo que prueba que kerph ∩ kerqh = 0.Sea x ∈ ker (pq)h y denotemos y = (sq)h (x), z = (rp)h (x). Como rp + sq = 1
tenemos z+ y = x. Ademas, por la conmutatividad tenemos queph (y) = (psq)h (x) = sh ((pq)h (x)) = sh (0) = 0
qh (z) = (qrp)h (x) = rh ((pq)h (x)) = rh (0) = 0
o sea, y ∈ kerph y z ∈ kerqh. Luego ker (pq)h ⊆ kerph + kerqh.Para probar la otra inclusion sean a ∈ kerp (h) y b ∈ kerq (h). Tenemos que
(pq)h (a+ b) = ph (qh (a+ b)) = ph (qh (a) + qh (b)) =
= ph (qh (a)) = qh (ph (a)) = qh (0) = 0
y por lo tanto kerph + kerqh ⊆ ker (pq)h.
Lema de los Perıodos de los Nucleos
Si p y q son polinomios monicos coprimos entonces,
pq = perh (ker (pq)h)⇐⇒ ¯p = perh (kerph)q = perh (kerqh)
Prueba. (=⇒) Denotemos por p0 = perh (kerph) y q0 = perh (kerqh). Usando 5.12 obtenemos que p0 divide a p y que q0 divide a q.
Por el Lema de Descomposicion de Nucleos (5.16) tenemos ker (pq)h = kerph+kerqh.Sean a ∈ kerph y b ∈ kerqh dos vectores. Por conmutatividad tenemos que
(p0q0)h (a+ b) = q0h (p
0h (a)) + p
0h (q
0h (a)) = 0+ 0 = 0
Luego p0q0 es un multiplo comun de los perıodos de todos los vectores en kerph + kerqh =ker (pq)h . Como el pq = perh (ker (pq)h) es el mınimo de estos multiplos comunes obtenemos que pq divide a p0q0. Usando el Lema de igualdad de polinomios (5.15) obtenemosp = p0 y q = q0.(⇐=) Supongamos que los polinomios monicos coprimos p y q cumplen que p =
perh (kerph) y q = perh (kerqh). Denotemos r = perh (ker (pq)h) Usando 5.12 obtenemos que r divide a pq. Como kerph ⊆ ker (pq)h entonces usando la monotonıa del perıodo(5.8) obtenemos que p divide a r. Por la misma razon q divide a r. Como p y q son coprimosentonces pq divide a r y por lo tanto r = pq
148 Capıtulo 5. Descomposicion de operadores lineales
Operadores lineales radicales
Por la invariancia de los nucleos (5.9) y el Lema de Descomposicion de Nucleos (5.16)si (pq)h = O y p, q son coprimos entonces, h tiene dos subespacios invariantes complementarios kerph y kerqh y podrıamos tener (si la descomposicion es no trivial) que h esreducible. El candidato que tenemos para el polinomio pq es el polinomio mınimo de h.
Un polinomio p se descompone en producto de dos factores coprimos si y solo si p tieneal menos dos factores irreducibles distintos. Esto nos lleva a la siguiente definicion. Diremosque h es radical de tipo p si el polinomio mınimo de h tiene un solo factor irreducible eigual a p. Equivalentemente, h es radical si el perıodo de cualquier vector es de la forma pm
donde p es un polinomio monico sin factores no triviales.
Si h es irreducible entonces, es radical.
Prueba. Si h no es radical entonces el polinomio mınimo h de h se descompone no trivialmente como un producto h = pq donde p y q son coprimos. Por el Lema de Descomposicionde Nucleos (5.16) tenemos E = ker (pq)h = kerph⊕kerqh siendo kerph y kerqh subespacios invariantes de h (por la invariancia de los nucleos (5.9)). Como p es un factor propio de hque es el mınimo comun multiplo de los perıodos de todos los vectores entonces, kerph 6= Ey por la misma razon kerqh 6= E. Esto quiere decir que la descomposicion kerph ⊕ kerqhes no trivial y por lo tanto h es reducible.
Este resultado no alcanza para caracterizar a los operadores lineales irreducibles. Porejemplo la identidad en R2 tiene polinomio mınimo x − 1 o sea es radical y sin embargo esevidentemente la suma directa de la identidad en el eje x y la identidad en el eje y, o sea, esreducible.
Componentes radicales
Un vector se le llama radical de tipo p si su perıodo es igual a pm y p es irreducible.Un conjunto de vectores se le llama radical de tipo p si todos sus vectores son radicales detipo p o equivalentemente si su perıodo es igual a pm . Recordemos que la multiplicidad deun factor es el numero de veces que podemos dividir sin resto por dicho factor.
Si p es factor irreducible de multiplicidad m del polinomio mınimo de hentonces, kerpmh es el conjunto de todos los vectores radicales de tipo p.
Prueba. Sea a un vector de perıodo pk. Si k > m entonces pk = perh (a) no divide alpolinomio mınimo y esto no puede ser. Luego k ≤m. De la monotonıa de los nucleos (5.10)obtenemos kerpkh ⊆ kerpmh y por lo tanto a ∈ kerpmh . Recıprocamente, si a ∈ kerpmhentonces pmh (a) = 0 y por lo tanto perh (a) es un divisor de pm . Como p es irreducible,necesariamente perh (a) es igual a pk para cierto k ≤m.
149Seccion 5.3 Subespacios radicales
Por el teorema de descomposicion de un polinomio en factores irreducibles el polinomio mınimo de h es igual a un producto
Qp∈P p
mp donde P es el conjunto de sus factoresirreducibles y mp es la multiplicidad del polinomio irreducible p. Por el resultado anterior,los espacios kerpmp
h son los subespacios radicales maximales de h. De la invariancia delos nucleos (5.9) sabemos que los subespacios radicales maximales son invariantes. A larestriccion de h a un subespacio radical maximal se le llama componente radical de h.
Teorema de Descomposicion en Componentes Radicales
Todo operador lineal es la suma directa de sus componentes radicales.
Prueba. Sea h =Q
p∈P pmp el polinomio mınimo de h. Si en P hay un solo polinomio irre
ducible entonces h es radical y no hay nada que probar. Hagamos induccion en el numero depolinomios irreducibles en P. Sea r un polinomio irreducible fijo pero arbitrario en P. Denotemos q = rmr y q0 =
Qp∈P\r p
mp . Tenemos que h = qq0 y que q, q0 son coprimos. DelLema de Descomposicion de Nucleos (5.16) obtenemos la descomposicion en subespaciosinvariantes complementarios E = F⊕G donde F = kerqh y G = kerq0h.
Sean f y g las restricciones de h a F y G respectivamente. Sean f y g los polinomiosmınimos de f y g respectivamente. Del Lema de los Perıodos de los Nucleos (5.17) f = qy g = q0. Luego, todas las componentes radicales de g son componentes radicales de h.Aplicando la hipotesis de induccion g es suma directa de sus componentes radicales. Comof es una componente radical de h entonces, h = f⊕ g es suma directa de sus componentesradicales.
Como la descomposicion de un polinomio en polinomios irreducibles es unica salvoorden de los factores entonces, la descomposicion de un operador lineal en componentesradicales es unica salvo orden de los sumandos.
Existencia de un vector de perıodo maximo
La descomposicion en componentes radicales nos permite limitarnos a considerar el casoen que el operador lineal h es radical. Esto simplifica mucho las cosas por la simplicidadde la relacion de divisibilidad entre los divisores de los polinomios tipo pn cuando p esirreducible. Esta relacion orden es total. Por ejemplo, si A es un conjunto de divisores de pn
entonces se cumple que el mınimo comun multiplo de A es un polinomio en A.
Para cualquier operador lineal h existe un vector talque su perıodo es igual al polinomio mınimo de h.
Prueba. Sea h el polinomio mınimo de h : E→ E. Primero para el caso de que h es radicalo sea cuando h = pk con p irreducible. El polinomio h es el mınimo comun multiplo de losperıodos de todos los vectores y estos son divisores de pk. Por la observacion que precede aeste resultado tiene que ocurrir que uno de esos perıodos es pk.
150 Capıtulo 5. Descomposicion de operadores lineales
El caso general por induccion en el numero de componentes radicales. Descompongamos h = f ⊕ g donde f es una componente radical. Esta descomposicion se correspondecon la descomposicion E = F⊕G en subespacios invariantes. Los operadores f y g son lasrestricciones de h a F y G respectivamente. Los polinomios mınimos f y g de f y g respectivamente son coprimos y cumplen que h = fg. Por hipotesis de induccion existen vectores ay b en F y G respectivamente tales que f = perh (a) y g = perh (b).
Denotemos p = perh (a− b). El polinomio p es un divisor de fg = h al ser este ultimoun comun multiplo de los perıodos de todos los vectores.
Tenemos (ph (a− b) = 0) ⇒ (ph (a) = ph (b)). Como F y G son invariantes F 3ph (a) = ph (b) ∈ G. Como F y G son complementarios ph (a) = ph (b) = 0. Entonces,p es un multiplo de f = perh (a) y es un multiplo de g = perh (b). Como f y g son coprimosentonces, p es un multiplo de fg = h.
5.4 El espacio cociente por un subespacio invariante
Los λdeslizamientos nos muestran que no todo subespacio invariante tiene complementario invariante. Por esto, los espacios cocientes juegan aquı un papel fundamental. En realidad, en este capıtulo no estamos interesados en los espacios cocientes per se. Por el contrario,solo los necesitamos como una herramienta para probar los resultados en los que si estamosinteresados: la descomposicion de OLs. Necesitamos por lo tanto aprender a manejar estaherramienta.
Sea h : E → E un OL y F un subespacio hinvariante o sea h (F) ⊆ F. El espaciocociente E/F es el conjunto de todos los subespacios afines paralelos a F. Lo que queremosver es que si los vectores a y b estan en un mismo subespacio afın paralelo a F entoncesh (a) y h (b) cumplen exactamente lo mismo.
Efectivamente, si a yb estan en un mismo subespacio afın paralelo a F entonces a−b ∈F. Como F es hinvariante entonces h (a) − h (b) = h (a− b) ∈ F y por lo tanto h (a) yh (b) estan en un mismo subespacio afın paralelo a F. Notese que aquı el argumento cruciales que F es hinvariante.
Esto nos permite definir la funcion eh en el espacio cociente con la igualdad eh (a+ F) =h (a) + F. La observacion precedente nos dice que esta funcion esta bien definida, o sea sia+F = b+F entonces, h (a) + F = h (b) + F. Observese que eh es un OL en E/F ya queeh (a+ F+ b+ F) = eh (a+ b+ F) = h (a+ b) + F =
= h (a) + F + h (b) + F = eh (a+ F) + eh (b+ F)y tambieneh (λ (a+ F)) = eh (λa+ F) = h (λa) + F =λh (a) + F = λ (h (a) + F) = λeh (a+ F) .
151Seccion 5.4 El espacio cociente por un subespacio invariante
¿Para que definir eh? ¿Acaso no se cumple que h (a+ F) = h (a) + F? Pues no, esto se cumplesolo cuando h es biyectiva. Inclusive si arbitrariamente pidieramos que h sea biyectiva esto no nosdarıa nada pues necesitaremos fph y los ph tienen nucleos grandes.
Necesitaremos conocer mejor los OLs del espacio cociente End (E/F).
El conjunto EndF (E) de todos los operadores linealesque dejan invariante F es una subalgebra de End (E).
Prueba. Sean f y g dos operadores en EndF (E). Sea λ un escalar. Para cualquier vectora ∈ F tenemos f (a) ∈ F y g (a) ∈ F y por lo tanto
(g+ f) (a) = g (a) + f (a) ∈ F ; I (a) ∈ F ;(g f) (a) = g (f (a)) ∈ F ; (λf) (a) = λf (a) ∈ F.
Luego, EndF (E) es una subalgebra.
La funcion EndF (E) 3 h 7→ eh ∈ End (E/F) es un morfismo de algebras.
Prueba. Probaremos que h 7→ eh es morfismo para la composiciongf g (a+ F) = (f g) (a) + F = f (g (a)) + F = ef (g (a) + F) == ef (g (a) + F) = ef (eg (a+ F)) = ³ef eg´ (a+ F) ;
y para la suma]f+ g (a+ F) = (f+ g) (a) + F = f (a) + F + g (a) + F =
= ef (a+ F) + eg (a+ F) = ³ef+ eg´ (a+ F) ;y para el producto por escalareseλf (a+ F) = (λf) (a) + F = f (λa) + F = ef (λa+ F) =
= ef (λ (a+ F)) = ³λef´ (a+ F) ;y que preserva la identidadeI (a+ F) = I (a) + F = a+ F = I (a+ F) .Ejercicio 96 Muestre que el morfismo h 7→ eh es sobreyectivo y su nucleo esta formado poraquellos operadores lineales cuya imagen es F. [182]
Polinomios y el espacio cociente
Sea F ⊆ E un subespacio hinvariante. Ya vimos como se define eh en E/F a sabereh (a+ F) = h (a) + F y comprobamos que esta definicion es correcta debido a la hinvariancia de F. Para poder definir fph (a+ F) = ph (a) + F necesitamos que F sea phinvariante. Por suerte, esto se cumple automaticamente.
152 Capıtulo 5. Descomposicion de operadores lineales
Sea p un polinomio. Si F es hinvariante entonces tambien es phinvariante.
Prueba. Como el conjunto de los operadores que preservan F es una subalgebra del algebrade todos los operadores entonces todos los hn estan ahı, tambien todas las combinacioneslineales de estos o sea, todos los polinomios evaluados en h.
Luego, fph es un OL bien definido en el espacio cociente. Por otro lado, si evaluamos elpolinomio p en el operador eh obtendremos p
hque es otro OL bien definido en el espacio
cociente.
fph = ph
Prueba. Sea p (x) = Σαixi. Como la funcion h 7→ hn es un morfismo de algebras, tenemosXn
i=0αihi =
Xn
i=0
gαihi =Xn
i=0αiehi =Xn
i=0αi
³eh´iy esto es lo que se necesitaba probar.
Esto es muy comodo, ya que para calcular perh(a+ F) en el cociente tenemos la formula
ph(a+ F) = ph (a) + F.
perh(a+ F) es un divisor de perh (a).
Prueba. Si p = perh (a) entonces ph(a+ F) = ph (a) + F = 0+ F = F y por lo tanto p
es un multiplo de perh(a+ F).
El polinomio mınimo de eh es un divisor del polinomio mınimo de h.
Prueba. Sean h y eh los polinomios mınimos de h y eh respectivamente. Para cualquier vectora tenemos que h
h(a+ F) = hh (a) + F = 0+ F = F. Luego, h es un multiplo de eh.
Ejercicio 97 Pruebe que si a es un vector tal que haih ∩ F = 0 y perh (a) es un multiplode perh (F) entonces, per
h(a+ F) = perh (a). [183]
153Seccion 5.5 Subespacios cıclicos
5.5 Subespacios cıclicos
Sea h : E → E un operador lineal. Sea V = v1, . . . , vn ⊆ E un conjunto de vectores.Una hcombinacion de V es un vector de la forma
ph (v1) + qh (v2) + · · ·+ rh (vn)donde los coeficientes p, q, ..., r son polinomios arbitrarios en K [x].
Le dejamos al lector hacer la definicion para el caso de que V es infinito. En este casohay que exigir soporte finito, o sea que el conjunto de coeficientes no nulos sea finito.
Las hcombinaciones son combinaciones lineales en el caso de que los coeficientes seanpolinomios de grado cero. Esto se ve de que si λ es un escalar entonces, λh (v) = λh0 (v) =λI (v) = λv. Recordemos que hVi denota el conjunto de todas las combinaciones lineales deV . Denotemos hVih el conjunto de todas las hcombinaciones de V . La observacion anteriorsignifica que hVi ⊆ hVih.
Ejercicio 98 Pruebe que hVi = hVih si y solo si h es una homotecia (h (x) = λx).
Conjuntos hgeneradores
El conjunto de todas las hcombinaciones de V es un subespacio invariante.
Prueba. Sea λ un escalar. Sean a = ph (v1) + · · ·+ qh (vn) y b = rh (v1) + · · ·+ sh (vn)dos hcombinaciones de V . Entonces,
a+ b = p0h (v1) + · · ·+ q0h (vn) donde p0 = p+ r, . . . , q0 = q+ s,λa = p0h (v1) + · · ·+ q0h (vn) donde p0 = λp, . . . , q0 = λq,
h (a) = p0h (v1) + · · ·+ q0h (vn) donde p0 (x) = xp (x) , . . . , q0 (x) = xq (x) .Las dos primeras igualdades prueban que es un subespacio. La tercera muestra que es invariante.
Ya es la tercera vez que nos tropezamos con una situacion similar. Las anteriores fueronla cerradura lineal y la cerradura afın. Los siguientes tres resultados muestran que la funcionV 7→ hVih es un operador de cerradura que llamaremos hcerradura.
La interseccion de subespacios invariantes es invariante.
hVih es la interseccion de todos los subespacios invariantes que contienen a V .
154 Capıtulo 5. Descomposicion de operadores lineales
La hcerradura cumple las siguientes propiedades:¨ V ⊆ hVih (incremento),¨ V 0 ⊆ V ⇒ hV 0ih ⊆ hVih (monotonıa),¨ hhVihih = hVih (idempotencia).
Ejercicio 99 Pruebe estos tres resultados.
A hVih le llamaremos el subespacio invariante hgenerado por V . Si hVih es todo elespacio diremos queV es unhgenerador. Obviamente los sobreconjuntos dehgeneradoresy los conjuntos generadores (sin la h) son hgeneradores.
perh hVih = perh V .
Prueba. Tenemos V ⊆ hVih y por la monotonıa del perıodo (5.8) sabemos que perh V es undivisor de perh hVih. Denotemos q = perh V . Si x ∈ hVih entonces x es una hcombinacionde V
x = ph (v1) + · · ·+ rh (vn)donde v1, . . . ,vn ⊆ V y por lo tantoqh (x) = qh (ph (v1)) + · · ·+ qh (rh (vn)) = ph (qh (v1)) + · · ·+ rh (qh (vn)) = 0.
Luego, q = perh V esta en el anulador de hVih y por lo tanto es un multiplo de perh hVih.Un subespacio invariante se le llama hcıclico si este esta hgenerado por un solo vector.
Los subespacios cıclicos son los hanalogos de las rectas por el origen que estan generadas(sin la h) por un solo vector. Al operador h se le llama cıclico si todo el espacio es hcıclico.
Conjuntos hindependientes
Un conjunto de vectores v1, . . . ,vn no nulos se le llama hindependiente si
(ph (v1) + · · ·+ qh (vn) = 0)⇒ (ph (v1) = · · · = qh (vn) = 0)Esto es equivalente a que si una hcombinacion de ellos es cero entonces, para todo i elcoeficiente de vi es un multiplo del perıodo de vi. Al considerar coeficientes de grado cero vemos que los conjuntos hindependientes siempre son linealmente independientes. Enparticular, el numero de elementos en un conjunto hindependiente no puede sobrepasar ladimension del espacio.
Si V = v1, . . . ,vn es hindependiente entonces hVih = hv1ih ⊕ · · ·⊕ hvnih.
Prueba. Por induccion en el natural n. Si n = 1 el resultado es obvio. Denotemos V 0 =v2, . . . ,vn. Tenemos que probar que hVih = hv1ih + hV 0ih y que hv1ih ∩ hV 0ih = 0.
155Seccion 5.5 Subespacios cıclicos
Sia ∈ hVih entonces existen coeficientes polinomiales tales quea = ph (v1)+qh (v2)+· · ·+ rh (vn). Obviamente, a0 = ph (v1) ∈ hv1ih , a00 = qh (v2) + · · ·+ rh (vn) ∈ hV 0ih ya = a0 + a00. Luego, hVih ⊆ hv1ih + hV 0ih. La otra inclusion se demuestra igual.
Supongamos que a ∈ hv1ih ∩ hV 0ih. Entonces, existen polinomios tales queph (v1) = a = qh (v2) + · · ·+ rh (vn)
por lo tantoph (v1)− qh (v2)− · · ·− rh (vn) = 0.
Como V es hindependiente entonces, a = ph (v1) = 0.
hbases
El resultado anterior es formidable. Si solo V ademas de hindependiente fuera hgenerador, obtendrıamos una descomposicion de todo el espacio en suma directa de subespaciosinvariantes hgenerados por un solo vector o sea cıclicos.
Una hbase es un conjunto de vectores que es hindependiente y hgenerador. El unicoproblema es que no sabemos si existen o no las hbases. Veremos en la siguiente seccion quesi existen sin embargo, el problema no es tan sencillo como en el caso de las bases ordinarias(sin la h). Hay que ir poco a poco.
Si p = xn − αn−1xn−1 − · · · − α1x− α0 es un polinomio monico arbitrario entonces a
la matriz ⎛⎜⎜⎜⎜⎝0 0 ... 0 α01 0 ... 0 α1... ... ... ... ...
0 0 ... 0 αn−20 0 ... 1 αn−1
⎞⎟⎟⎟⎟⎠se le llama matriz acompanante del polinomio p.
Sea h un OL cıclico con polinomio mınimo p de grado n. Sea a un vector hgenerador. El conjunto de vectores
©a, h (a) , . . . , hn−1 (a)
ªes una base del
espacio vectorial y la matriz de h en esta base es la matriz acompanante de p.
Prueba. Denotemos B =©a, h (a) , . . . , hn−1 (a)
ªy probaremos que B es una base del
espacio. Si hubiera una combinacion linealβ0a+ β1h (a) + · · ·+ βn−1h
n−1 (a) = 0
con no todos sus coeficientes nulos entonces, el polinomio no nuloq (x) = β0 + β1x+ · · ·+ βn−1x
n−1
serıa tal que qh (a) = 0 y esto contradice (q tiene grado menor que el grado de p) que lospolinomios en el anulador de a son los multiplos de p. Luego, A es LI.
Por otro lado, como a es hgenerador entonces para cualquier vector x existe un polinomio q tal que x = qh (a). Efectuando la division con resto obtenemos q = cp + r donde
156 Capıtulo 5. Descomposicion de operadores lineales
el grado de r es estrictamente menor que el grado de p. Luego, rh (a) es una combinacionlineal de B y rh (a) = (q− cp)h (a) = qh (a) − ch (ph (a)) = qh (a) = x. Esto significaque A es un conjunto generador y por lo tanto es una base.
Veamos como transforma h a los vectores en la base B. Denotemos vk = hk (a), Luego,B = v0, . . . ,vk−1 Tenemos que para k ∈ 0, . . . , n− 2 se cumple que h (vk) = vk+1lo que justifica las n − 1 primeras columnas de la matriz acompanante. Por otro lado sip = xn − αn−1x
n−1 − · · ·− α1x− α0 es el polinomio mınimo de h. entonces
h (vn−1) = hn (a) = ph (a) +
n−1Xi=0
αihi (a) = 0+
n−1Xi=0
αivi
y esto justifica la ultima columna de la matriz acompanante.
Si A es una hbase entonces, la dimension del espacio es iguala la suma de los grados de los hperıodos de los vectores en A.
Prueba. Como la dimension de la suma directa es la suma de las dimensiones de los sumandos entonces, usando 5.33 vemos que es suficiente probarlo para cuando A contiene un solovector a. Sea p = perh (a) y n el grado de p. Por 5.32 p = perh (haih). Como haih es porhipotesis todo el espacio entonces p es el polinomio mınimo de h. Usando 5.34 vemos quela dimension del espacio es n.
Si A es una hbase entonces, el polinomio mınimo de h es igualal mınimo comun multiplo de los hperıodos de los vectores enA.
Prueba. Sea p el mınimo comun multiplo de los hperıodos de los vectores en A. De 5.13sabemos que p = perh A. Sea h polinomio mınimo de h. Como h es el perıodo de todo elespacio E y hAih = E entonces, de 5.32 obtenemos p = perh A = perh hAih = h.
5.6 Descomposicion en subespacios cıclicos radicales.
Entre todos los subespacioshcıclicos los mas grandes son aquellos que estanhgeneradospor vectores de perıodo igual al polinomio mınimo. A estos les llamaremos les llamaremosmaximales. Por 5.21 siempre existe algun subespacio hcıclico maximal.
La estrategia para deshacernos del problema de que no cualquier subespacio invariantetiene complementario invariante es limitarnos a los operadores radicales, fijarnos solamenteen los subespacios invariantes maximales y construir un complementario que si es invariante.El siguiente resultado es la clave para lograr esto.
157Seccion 5.6 Descomposicion en subespacios cıclicos radicales.
Lema del Perıodo
Sea h ∈ End (E) radical y F un subespacio hcıclico maximal. Para cualquier v + F ∈ E/F existe b ∈ v + F tal que perh (b) = per
h(v+ F).
Prueba. Sea a un hgenerador de F. Sea pn (con p irreducible) el polinomio mınimo de h.Por 5.26 el per
h(v+ F) es un divisor comun a todos los hperıodos de los vectores en v+F.
Existe un natural ` tal que p` = perh(v+ F).
Queremos encontar un vector b en v+ F tal que perh (b) no solo es multiplo de p` sinoque es igual a p`. Tenemos p`h (v) ∈ F = haih y por lo tanto existe un polinomio q coprimocon p y un natural k tales que
p`h (v) =¡pkq
¢h(a) .
Si k ≥ n entonces, p`h (v) =¡pkq
¢h(a) = 0 por lo que perh (v) es un divisor de p` y
podemos tomar b = v.Supongamos que k < n. Como perh (a) = p
n, tenemos que perh¡¡pkq
¢h(a)¢= pn−k
y por lo tanto perh (v) = pn−k+`. Como pn es el polinomio mınimo entonces
(n− k+ ` ≤ n)⇒ (` ≤ k) .Denotemos
b = v−¡pk−`q
¢h(a)
Sabemos que¡pk−`q
¢h(a) ∈ haih = F y por lo tanto b ∈ v+ F. Ademas
p`h (b) = p`h
¡v−
¡pk−`q
¢h(a)¢= p`h (v)−
¡pkq
¢h(a) = 0
por lo que perh (b) es un divisor de p`. Esto significa que perh (b) = perh(v+ F).
Lema del Cociente
Sea h : E → E un operador radical y F = haih un subespacio hcıclicomaximal. Si v1 + F , . . . , vm + F es una ehbase del espacio cocienteE/F entonces, existen vectores b1 ∈ v1 + F, . . . ,bm ∈ vm + F tales quea,b1, . . . ,bm es una hbase de E.
Prueba. Seaa unhgenerador de F. Aplicando el Lema del Perıodo (5.37) a v1+F, . . . , vm+F, obtenemos b1 ∈ v1 + F, . . . ,bm ∈ vm + F tales que el hperıodo de bi es igual al ehperıodo de v1 + F, i ∈ 1, . . . ,m. Denotemos B = a,b1, . . . ,bm. Observese que
Br a = b1 + F, . . . ,bm + F = v1 + F, . . . ,vm + Fes una ehbase de E/F. Probemos que B es hgenerador de E. Si x ∈ E entonces x + F ∈Br a
®h, o sea, existen coeficientes polinomiales tales quex+ F = q
h(b1 + F) + · · ·+ rh (bm + F) = qh (b1) + · · ·+ rh (bm) + F
o lo que es lo mismo x−qh (b1)− · · ·− rh (bm) ∈ F = haih. Luego, existe otro polinomios tal que x− qh (b1)− · · ·− rh (bm) = sh (a) y por lo tanto
x = sh (a) + qh (b1) + · · ·+ rh (bm) ∈ hBih .
158 Capıtulo 5. Descomposicion de operadores lineales
Para probar que B es hindependiente supongamos que existen polinomios tales que0 = sh (a) + qh (b1) + · · ·+ rh (bm) . (*)
Pasando al cociente (sumando F) obtenemos0+ F = sh (a) + F + qh (b1) + F + · · ·+ rh (bm) + F =
= qh(b1 + F) + · · ·+ rh (bm + F)
y como Br a es independiente obtenemos queqh(b1 + F) = · · · = rh (bm + F) = 0+ F.
Como el hperıodo de bi es igual al de bi + F concluimos queqh (b1) = · · · = rh (bm) = 0.
Substituyendo esto en la igualdad (*) obtenemos sh (a) = 0.
Ejercicio 100 Compruebe que si eliminamos la condicion de que F es maximal entonces elLema del Cociente (5.38) no se cumple.
Teorema de Existencia de hbases
Cualquier operador lineal radical h tiene una hbase.
Prueba. Sea h : E → E un operador radical y F = haih subespacio hcıclico maximal.Hagamos induccion en dimh. Si dimh = 1 entonces F = E y por lo tanto a es una hbase.
Supongamos dimh > 1. Si F = E entonces otra vez a es una hbase. Si no, entoncesE/F es no trivial y dimE/F < dimh. Por hipotesis de induccion E/F tiene una ehbase ypor el Lema del Cociente (5.38) existe una hbase de E.
Ejercicio 101 Demuestre la siguente afirmacion. Sean h : E → E un OL y E = F ⊕ Guna descomposicion de E en subespacios hinvariantes. Si A es una hbase de E y B es unahbase de G entonces A ∪ B es una hbase de E. [183]Ejercicio 102 Use el ejercicio anterior, el Teorema de Descomposicion en ComponentesRadicales (5.20) y el Teorema de Existencia de hbases (5.39) para probar todo operadorlineal h tiene una hbase.
Teorema de Descomposicion en Componentes Radicales Cıclicas
Todo operador lineal es suma directa de componentes radicales cıclicas.
Prueba. Sea h : E → E un OL. Si h es radical entonces E tiene una hbase a1, . . . ,an.Por 5.33 E = ha1ih ⊕ · · · ⊕ hanih. Por 5.28 todos los ha1ih son subespacios invariantes.Denotando por fi la restriccion de h a haiih obtenemos h = f1 ⊕ · · · ⊕ fn. Si h no es
159Seccion 5.6 Descomposicion en subespacios cıclicos radicales.
radical entonces usando el Teorema de Descomposicion en Componentes Radicales (5.20)lo descomponemos en componentes radicales y posteriormente cada componente radical ladescomponemos en componentes cıclicas.
A diferencia de la descomposicion en componentes radicales una descomposicion encomponentes radicales cıclicas no es unica. Esto sucede porque hbases pueden haber muchas. Por ejemplo para la identidad en R2 cualesquiera dos rectas diferentes por el origenforman una descomposicion en subespacios invariantes radicales cıclicos. Sin embargo, loque si es unico es el “tipo” de la descomposicion.
Si h = f1 ⊕ · · · ⊕ fn es una descomposicion entonces, a la sucesion p, q, . . . , r de lospolinomios mınimos de las componentes se le llama el tipo de la descomposicion. Dos tiposse consideran iguales si uno se puede obtener del otro reordenando la sucesion.
Teorema de Unicidad del Tipo
Dos descomposiciones cualesquiera en componentes radicales cıclicas tienen el mismo tipo.
Prueba. De la definicion del tipo y de la unicidad de la descomposicion en componentesradicales queda claro que es suficiente demostrar el teorema para OLs radicales h cuyopolinomio mınimo es una potencia de un polinomio irreducible que denotaremos por p.
Lema 1. El subespacio F = ph (E) es invariante y dimF < dimE.Para cualquier vector x denotaremos x = ph (x)Lema 2. Para cualquier vector x se tiene que perh x = p× perh x.Para cualquier conjunto de vectores X denotaremos X = x | x ∈ X y x 6= 0.Lema 3. Si X es una hbase de E entonces X es una hbase de F = ph (E).Las pruebas de estos lemas no son difıciles y las pospondremos hasta el final para no
perder el hilo de la prueba del teorema.Sean E = ha1ih ⊕ · · · ⊕ hanih = hb1ih ⊕ · · · ⊕ hbmih dos descomposiciones en
subespacios cıclicos. Como h es radical los perıodos de todos sus vectores son potencias deun polinomio irreducible p. Sean pni los perıodos de los ai y pmi los perıodos de los bi.Los tipos de estas dos descomposiciones son pn1 , . . . , pnn y pm1 , . . . , pmm respectivamente.Reordenando los sumandos podemos suponer que n1 ≥ · · · ≥ nn y que m1 ≥ · · · ≥ mm .Tambien podemos suponer que n ≥ m. Tenemos que probar que n = m y que los ni soniguales a losmi.
Hagamos la prueba del teorema por inducccion en dimh. Si dimh = 1 entonces, necesariamente n =m = 1 y n1 =m1.
Los conjuntosA = a1, . . . ,an y B = b1, . . . ,bm son dos hbases de E. Por el Lema3 tenemos que A y B son bases de F = ph (E). Sea k tal que (i > k) ⇒ (ni = 1 o i > n).Analogamente se define ` para losmi. Por el definicionA = a1, . . . ,ak yB =
©b1, . . . ,b`
ª.
Luego, F = ha1ih ⊕ · · · ⊕ hakih =b1®h⊕ · · · ⊕
b`®h
son dos descomposiciones de F y por el Lema 2 los tipos de estas descomposiciones son pn1−1, . . . , pnk−1 y
160 Capıtulo 5. Descomposicion de operadores lineales
pm1−1, . . . , pm`−1. Como por el Lema 1 dimF < dimE, podemos aplicar hipotesis de induccion y ası obtenemos que
k = `, n1 − 1 =m1 − 1, · · · , nk − 1 =mk − 1.
O sea, todos los ni son iguales a losmi desde i = 1 hasta k = `.Sea∇ el grado de p. De 5.35 obtenemos que
(n1 + · · ·+ nn)∇ = dimE = (m1 + · · ·+mm)∇y por lo tanto
nk+1 + · · ·+ nn =mk+1 + · · ·+mm.
Todos los ni y losmi para i > k son iguales a 1 y por lo tanto n =m. Con esto, para todo iel natural ni es igual ami y termina la prueba en la suposicion que nuestros tres lemas seanverdaderos.
Prueba del Lema 1. El conjunto de vectores F = ph (E) es un subespacio ya que es laimagen del OL x 7→ ph (x). Es invariante ya que h (ph (x)) = ph (h (x)). Sea x un vectorno nulo de perıodo pk (claramente estamos asumiendo que E 6= 0). Si k = 1 entonces,x ∈ kerph. Si k > 1 entonces, el vector no nulo y = pk−1h (x) es tal que ph (y) = 0. Deaquı, el OL ph tiene nucleo no trivial y por lo tanto F 6= E. Luego, dimF < dimE. ¥
Prueba del Lema 2. Como p es irreducible, el perıodo de cualquier vector es un multiplode p. Si qp = perh (x) entonces, los polinomios r en el anulador de x son los multiplos depq y por lo tanto
(rh (x) = 0) = ((r0qp)h (x) = (r
0q)h (x) = 0) .
Luego, r esta en el anulador de x si y solo si r/p esta en el anulador de x. Esto quiere decirque q = perh (x). ¥
Prueba del Lema 3. Sea X = x1, . . . ,xk es una hbase de E. Comprobaremos queX = x | x ∈ X y x 6= 0 es una hbase de F. Efectivamente, si y ∈ F entonces, existencoeficientes polinomiales tales que
y = (q1)h (x1) + · · ·+ (qn)h (xn) = (q1)h (x1) + · · ·+ (qn)h (xn) .Es claro que en la suma de la derecha podemos descartar aquellos sumandos para los cualesai = 0. Luego, F ⊆
X®h
o sea, X es un hgenerador de F. Supongamos que para ciertospolinomios q1, . . . , qn se tiene que
0 = (q1)h (x1) + · · ·+ (qn)h (xn) = (q1p)h (x1) + · · ·+ (qnp)h (xn) .Como X es hindependiente, entonces
0 = (q1p)h (x1) = (q1)h (x1) = · · · = (qnp)h (xn) = (qn)h (xn)y por lo tanto X es hindependiente. Luego, X es una hbase de F. ¥
Una consecuencia de estos Teoremas es que ya sabemos cuales son los OLs irreducibles.
Teorema de Caracterizacion de los OLs irreducibles
Un operador lineal es irreducible si y solo si es cıclico y radical.
Prueba. Sea h un OL. Si h no es cıclico radical entonces por el Teorema de Descomposicion en Componentes Radicales Cıclicas (5.40) este se descompone no trivialmente. Si
161Seccion 5.7 Estructura de los operadores cıclicos radicales
h es cıclico radical y se descompone no trivialmente entonces habrıan dos descomposiciones en componentes cıclicas radicales con tipos diferentes. Esto contradecirıa el Teorema deUnicidad del Tipo (5.41).
Ejercicio 103 El tipo de un OL es el tipo de cualquiera de sus descomposiciones en componentes irreducibles. Se dice que dos OL f y g son conjugados si existe un OL invertible h talque f = hgh−1. Demuestre que dos OL tienen el mismo tipo si y solo si son conjugados.Ejercicio 104 Sean p = perh (a) y q = perh (b) los perıodos de dos vectores. Demuestreque si p y q son coprimos entonces haih∩hbih = 0 y el subespacio haih+hbih es cıclico.
Ejercicio 105 Use el ejercicio anterior y el Teorema de Descomposicion en ComponentesRadicales Cıclicas (5.40) para probar que para cualquier OL tiene una descomposicion enOL cıclicos f1 ⊕ · · · ⊕ fn en la cual el polinomio mınimo de cada fi divide al polinomiomınimo del siguiente.Ejercicio 106 Usando el Teorema de Unicidad del Tipo (5.41) demuestre que el tipo de lasdescomposiciones introducidas en el ejercicio anterior es unico.
5.7 Estructura de los operadores cıclicos radicales
En esta seccion el acronimo OLCR significara operador lineal cıclico radical.
Subespacios invariantes
Teniendo en cuenta el Teorema de Descomposicion en Componentes Radicales Cıclicas(5.40), observamos que todos los subespacios invariantes de cualquier OL estan determinados a priori por los subespacios invariantes de sus componentes cıclico radicales.
Como los OLCR son irreducibles estos no tienen subespacios invariantes complementarios. Sin embargo, si pueden tener subespacios invariantes no triviales. Queremos ver cualesson todos los subespacios invariantes de los OLCR. Sea h : E→ E un OLCR con polinomiomınimo pm . Denotemos por∇ el grado del polinomio p.
Los espacios Ek = kerpkh tienen las siguientes propiedades1. 0 = E0 ⊆ E1 ⊆ · · · ⊆ Em = E 2. Ek = ph (Ek+1)
3. (Ek = hxih)⇒ (Ek−1 = hph (x)ih) 4. dimEk = k∇5. son los unicos subespacios invariantes de h.
Prueba. Como h es cıclico existe un vector a de perıodo pm tal que E = haih.Propiedad 1. Las igualdades 0 = E0 y Em = E son obvias. Sea x ∈ Ek entonces pkh (x) =0 y por lo tanto pk+1h (x) = ph (0) = 0. Esto muestra que Ek ⊆ Ek+1.
162 Capıtulo 5. Descomposicion de operadores lineales
Propiedad 2. Sea x ∈ Ek entonces, pk−1h (ph (x)) = 0 o sea, ph (x) ∈ Ek−1. Comprobemos que los OLs ∂k : Ek 3 x 7→ ph (x) ∈ Ek−1 son sobreyectivos. Sea qh (a) cualquiervector en Ek−1. Sabemos que pk−1h (qh (a)) =
¡pk−1q
¢h(a) = 0. Como el perh (a) = p
m
entonces, pk−1q es un multiplo de pm . Luego, q es un multiplo de pm−k+1. Como k ≤ mentonces, p es un factor de q. Sea r un polinomio tal que rp = q. Tenemos pkh (rh (a)) =pk−1h (qh (a)) = 0 y por lo tanto rh (a) ∈ Ei+1. Ademas ∂i (rh (a)) = ph (rh (a)) = qh (a)y esto nos dice que ∂k es sobreyectiva.Propiedad 3. Sea x tal que Ek = hxih. Por la propiedad 2 tenemos que ph (x) ∈ Ek−1 y porla invariancia de los nucleos (5.9) hph (x)i ⊆ Ek−1. Sea y ∈ Ek−1. Por la propiedad 2 existez ∈ Ek tal que y = ph (z). Como Ek = hxih obtenemos que existe un polinomio q tal quez = qh (x) y por conmutatividad y = qh (ph (x)). Luego, hph (x)i = Ek−1.Propiedad 4. Por la definicion de a iterando la propiedad 3 obtenemos Ek =
pm−kh (a)
®h.
Como el perıodo de a es pm entonces el perıodo de pm−kh (a) es pk. Por 5.35 tenemos que
dimEk = grado¡pk¢= k∇.
Propiedad 5. Sea F cualquier subespacio hinvariante de E. Como p es irreducible, entoncesel orden de F es igual a pk con k ≤m y de aquı F ⊆ kerpkh = Ek. Por 5.21 existe un vectorx ∈ F de perıodo pk. Como F es invariante hxih ⊆ F. Por 5.35 y la propiedad 4 tenemosque dim hxih = k∇ = dimEk. Luego, las inclusiones hxih ⊆ F ⊆ Ek son en realidad unaigualdad.
Formas canonicas
Un OL h siempre se descompone en suma directa de sus componentes radicales cıclicas.Por lo tanto, existen bases del espacio vectorial en las cuales la matriz de h es diagonal porbloques. Los bloques son matrices de las componentes de h que son OLCRs. Nuestra tareaahora es encontrar bases en las cuales la matriz de un OLCR es lo mas “simple” posible.
Sea h un OLCR con polinomio mınimo pm y p de grado ∇. No podemos aspirar aencontrar una base en la cual la matriz de h sea diagonal por bloques ya que h es irreducible.Lo mas que podemos hacer es encontrar una base en la cual la matriz de h sea triangularpor bloques. Por 5.43.5, esta triangulacion se tiene que hacer escogiendo en cada conjuntokerpkh \ kerpk−1h un conjunto de vectores Ak que sea LI maximal. En este caso el conjuntoBk = A1 ∪ · · · ∪ Ak es una base de Ek = kerpkh y en particular Bm es una base de todo elespacio.
Haciendo un razonamiento analogo al de 5.2 vemos que ⎛⎜⎜⎝T11 T12 · · · T1m0 T22 · · · T2m· · · · · · · · · · · ·0 0 0 Tmm
⎞⎟⎟⎠la matriz de h en la base Bm tiene la forma que se muestra enel recuadro a la derecha. Observemos que por 5.43.4 se tieneque |A1 | = |A2 | = · · · = |Am | = ∇ y esto nos simplificamucho nuestra imagen de la matriz ya que todos los bloquesTij son cuadrados de orden∇.
Veamos cuales son los OLs de las matrices Tij Denotemos Fk = hAki. El subespacioFk es complementario a Ek−1 en Ek o sea Ek = Ek−1 ⊕ Fk o globalmente tenemos E =F1⊕ · · ·⊕Fm . Luego tenemos proyecciones πk : E→ Fk. Con ellas definimos τij : Fj → Fi
163Seccion 5.7 Estructura de los operadores cıclicos radicales
como la restriccion a Fj de πi h. Verbalmente, τij se obtiene tomando un vector en Fjhallandole su imagen por h y proyectando el resultado aFi. El bloque Tij es la matriz de τij enlas bases Aj de Fj y Aj de Fj. No tiene sentido dar argumentos a favor de esto. Simplementehay que entender bien que es la matriz de una transformacion lineal. Observese que si i > ientonces h (Fj) ⊆ Ej y πi (Ej) = 0 y por lo tanto τij es nulo. De aquı los ceros debajo dela diagonal.
Si no le ponemos mas restricciones a los Ak entonces no hay nada mas que decir. Unacondicion que es natural (por 5.43.2) pedirle a los Ak es que esten relacionados por lasigualdades Ak = ph (Ak+1). En este caso obtenemos por extension lineal que las funcionesFi+k 3 x 7→ pkh (x) ∈ Fi son isomorfismos de espacios vectoriales al transformar uno a unola base Ai+k en la base Ai. En este caso se cumple que τi+k,j+k = pkh τij
¡pkh¢−1
. Laprueba de esto la dejaremos en calidad de ejercicio. En el lenguaje de matrices esto quieredecir que Ti+k,j+k = Tij. Mas verbalmente, que los bloques en la diagonal y en cada paralelaa la diagonal coinciden.
Ejercicio 107 Pruebe que τi+k,j+k = pkh τij ¡pkh¢−1
. [183]
Ejercicio 108 Sean E,E0,F y F0, espacios vectoriales; i, j isomorfismosF
i←→ F0
f ↑ ↑ gE ←→
jE0
de espacios vectoriales y f, g transformaciones lineales que hacen conmutativo el diagrama del recuadro. Pruebe que si A y B son bases de Ey F respectivamente yM es la matriz de f en las bases A y B entonces,la mismaM es la matriz de g en las bases j (A) y i (B).
Para continuar simplificando nuestra matriz necesitamos hacer un aparte para exploraruna idea acerca de los polinomios. No es difıcil probar que cualquier sucesion de polinomiosr0, r1, . . . , ri, . . . que cumpla que el grado de ri es igual a i forma una base del espacio depolinomios. En nuestro caso, estamos interesados en la base
1, x, . . . , x∇−1, p, xp, . . . , x∇−1p, p2, xp2, . . . , x∇−1p2, p3, xp3, . . .
donde ∇ es el grado de nuestro polinomio irreducible p. Si expresamos un polinomio arbitrario q en esta base entonces, sacando factores comunes, vemos que existen unos unicospolinomios r, s, . . . , t de grado menor que∇ tales que
q = rp0 + sp1 + · · ·+ tpn.A esta representacion de q la llamaremos expansion de q en potencias de p.
Continuemos con nuestra construccion de una matriz para el OL h. Recordemos que hes cıclico o sea, el espacio tiene un vector a que es hgenerador. Luego, nuestro conjunto independiente Am (que contiene ∇ vectores) lo podemos escribir Am = rh (a) , . . . , sh (a)donde r, . . . , s son ciertos polinomios. Escribamos rh (a) segun la expansion de r en potencias de p
rh (a) =¡r0p
0¢h(a) +
¡r1p
1¢h(a) + · · ·+ (rnpn)h (a) .
Como A1 = pm−1h (Am) entonces A1 =
©¡rpm−1
¢h(a) , . . . ,
¡spm−1
¢h(a)ª
y la corres
164 Capıtulo 5. Descomposicion de operadores lineales
pondiente expansion de¡rpm−1
¢h(a) en potencias de p es¡
rpm−1¢h(a) =
¡r0p
m−1¢h(a) + (r1p
m)h (a) + · · ·+ (rnpm+n)h (a) .Observese que como a tiene hperıodo igual a pm entonces, todos los sumandos en la expresion anterior excepto el primero son iguales a cero. O sea,
¡rpm−1
¢h(a) no depende de
cuales son los polinomios son r1, . . . , rn. Como T11 depende exclusivamente de quien es A1entonces, si cambiamos algunos de los polinomios r1, . . . , rn no cambiaremos T11 y por lotanto ningun bloque Tii de la diagonal (todos son iguales). Pongamos r1 = . . . = rn = 0.Esto obviamente cambia nuestra matriz pero no la diagonal. Este razonamiento funcionaexactamente igual para cualquiera de los polinomios r, . . . , s que definen a Am . Por esto,postularemos que estos polinomios son todos de grado menor que ∇ y esto no afecta a cuales pueden ser nuestros bloques en la diagonal. Veamos como esto afecta a los otros bloques.
Los polinomios r, . . . , s, rp, . . . sp son LI porque de
αr+ · · ·+ βs+ γrp+ · · ·+ δsp = 0
obtenemos
α (r)h (a) + · · ·+ β (s)h (a) + γ (rp)h (a) + · · ·+ δ (sp)h (a) = 0
y como Am ∪Am−1 es LI, obtenemos que los coeficientes son cero. El espacio vectorial detodos los polinomios de grado menor que 2∇ tiene dimension 2∇. Como r, . . . , s, rp, . . . spson 2∇ polinomios LI de grado menor que 2∇ entonces, esta es una base de este espacio.
El grado del polinomio xr es∇ < 2∇. Luego, existen escalares tales que
h (rh (a)) = (xr)h (a) = αrh (a) + · · ·+ βsh (a) + γ (rp)h (a) + · · ·+ δ (sp)h (a)
o en otras palabras h (rh (a)) = am +am−1 donde am ∈ hAmi = Fm y am−1 ∈ hAm−1i =Fm−1. Esto quiere decir que la proyeccion de h (rh (a)) a Fm es am , la proyeccion deh (rh (a)) a Fm−1 es am−1 y todas las demas proyecciones son cero.
Este razonamiento funciona exactamente igual para cualquiera de los polinomios r, . . . , s
⎛⎜⎜⎜⎜⎝P M · · · 0 0
0 P · · · 0 0
· · · · · · · · · · · · · · ·0 0 · · · P M
0 0 · · · 0 P
⎞⎟⎟⎟⎟⎠
que definen a Am . Luego, las funciones τim : Fm → Fi son nulas para i ≥ m − 2 ypor lo tanto los bloques T1m, . . . , Tm−2,m y los bloquesen las paralelas a la diagonal correspondientes son todosnulos. Esto simplifica mucho la forma de nuestra matriz.que ahora tiene solamente la diagonal y la paralela mascercana diferentes de cero. Y en definitiva, se ve ahoracomo en el recuadro a la izquierda.
Esta forma nos permite simplificar mucho ciertas cosas. La mas obvia es que para calcular P podemos pensar que nuestro OCLR tiene polinomio mınimo p o sea, m = 1. Y paracalcular P y M podemos limitarnos a un OCLR con polinomio mınimo p2 o sea, m = 2.La segunda, menos obvia, es que el calculo de P y M no depende del operador lineal sinodel polinomio p. Mas detalladamente, debemos escoger una base q1, . . . , q∇ del espaciode polinomios de grado menor que ∇ y ver como se descompone el polinomio xqi somocombinacion lineal de los polinomios q1, . . . , q∇, q1p, . . . , q∇p. Los coeficientes de estacombinacion lineal son las entradas de la iesima columna de P yM.
Ahora, veremos tres casos particulares:∇ = 1, p es cuadratico en R [x] y finalmente es
165Seccion 5.7 Estructura de los operadores cıclicos radicales
tudiaremos que ocurre cuando tomamos q1, . . . , q∇ igual a la base canonica 1, x, . . . , x∇−1.
∇ = 1
Si ∇ = 1 entonces hay que escoger un polinomio de grado ⎛⎜⎜⎜⎜⎝λ 1 · · · 0
0 λ · · · 0
· · · · · · · · · · · ·0 0 · · · 1
0 0 · · · λ
⎞⎟⎟⎟⎟⎠0.Obviamente escogeremos q = 1. Como p es monico de grado1 lo podemos escribir en la forma p = x − λ. Tenemos xq =x = λ+(x− λ) = λq+1qp. Luego, P = λ yM = 1 y nuestramatriz se ve como en el recuadro a la derecha. A las matrices deeste tipo las llamaremos celdas de Jordan.
El caso ∇ = 1 nos parece ya muy sencillo pero es probablamente, el mas importante.Si nuestro campo es el de los numeros complejos entonces, por el Teorema de Gauss todopolinomio irreducible es de grado 1. Luego,∇ = 1 es el caso general si los escalares son loscomplejos.
Combinando el Teorema de Descomposicion en Componentes Radicales Cıclicas (5.40)con las celdas de Jordan obtenemos el siguiente.
Forma normal de Jordan
Si h es un operador lineal en un espacio vectorial finito dimensional sobreel campo de los numeros complejos entonces, existe una base del espaciovectorial en la cual la matriz del operador es diagonal por bloques y losbloques son celdas de Jordan.
Camille Jordan (Lyon 1838 Parıs 1922) Matematico e ingeniero. Conocido tanto por su trabajo sobre la teorıa de los grupos como por suinuyente libro “Cours d’analyse”. Su libro “Traite des substitutionset des equations algebriques” publicado en 1870 contiene su descubrimiento de las ahora conocidas como formas normales de Jordan. Fue elprimer matematico que realmente entendio a Galois despues de la publicacion postuma de los trabajos de Galois en 1846 y contribuyo notablemente a que la Teorıa de Grupos y la Teorıa de Galois fueran partede la corriente principal de las matematicas.
∇ = 2
Nos interesaremos en los polinomios irreducibles de grado 2 con coefi µa −b
b a
¶cientes reales. Sabemos que son de la forma (x− a)2 + b2 con b 6= 0. Unamatriz cuyo polinomio mınimo es de esta forma es la del recuadro a la derecha.
Como no hay un candidato mas simple para nuestros bloques diagonales aquı haremosµy u
z v
¶ las cosas al revez. Buscaremos nuestros polinomios para que P sea igual a estamatriz y veremos que matriz M podemos obtener. Denotemos las entradas dela matriz M como se muestra a la izquierda. Denotemos p = (x− a)
2+ b2.
Necesitamos dos polinomios de grado 1 para formar la base q = αx+ β y r = γx+ δ.
166 Capıtulo 5. Descomposicion de operadores lineales
Nuestra incognitas α,β,γ, δ, y, z, u y v deben cumplir dos ecuaciones polinomiales
xq = aq+ br+ ypq+ zprxr = ar− bq+ upq+ vpr
.
Igualando los coeficientes en las potencias de x obtenemos 8 ecuaciones. De estas, hay 2que son combinacion lineal de las demas por lo que tenemos 6 ecuaciones y 8 incognitas.Por esto, tomaremos α y γ como parametros. Resolviendo el sistema, obtenemos una unicasolucion:
β = bγ− aα , y =αγ
b (α2 + γ2), u =
γ2
b (α2 + γ2)
−δ = aγ+ bα , z =−α2
b (α2 + γ2), v =
−αγ
b (α2 + γ2).
Aquı tenemos la libertad de escoger α y γ y para cada una de ellas obtendrıamos matri⎛⎜⎜⎝a −b 0 1/b
b a 0 0
0 0 a −b
0 0 b a
⎞⎟⎟⎠ces M diferentes. Tomemos α = 0 y γ = 1 y obtenemos q = b,r = x − a, u = 1/b y las otras tres entradas de M son cero.Luego, si h : R4 → R4 es un OLCR con polinomio mınimo³(x− a)
2+ b2
´2tal que b 6= 0 entonces hay una base de R4
en la cual su matriz es igual a la del recuadro de la izquierda.
Lo que no nos gusta es el 1/b en la esquina superior derecha. ¿Podemos cambiarlo por1? La respuesta es si, pero para esto necesitamos cambiar la base de una manera no previstaen la teorıa general que desarrollamos. Nuestra base del espacio de polinomios es
b, x− a, bp, (x− a)p
y si la cambiamos porb, x− a,
bp
b, (x− a)
p
btodo permanece igual excepto que el 1/b se convierte en 1.
La clave del porque esto funcionara en general es que en nuestra teorıa nunca realmentese uso que p fuera monico.
Por esto, si cambiamos en la base p por p/b ⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝
a −b 0 1 · · · 0 0
b a 0 0 · · · 0 0
0 0 a −b · · · 0 0
0 0 b a · · · 0 0
· · · · · · · · · · · · · · · · · · · · ·0 0 0 0 · · · 0 1
0 0 0 0 · · · 0 0
0 0 0 0 · · · a −b0 0 0 0 · · · b a
⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠
entonces en nuestra matriz todo lo que esta porarriba de los bloques en la diagonal se multiplicara por b.
Luego, si h : R2m → R2m es un OLCR
con polinomio mınimo³(x− a)
2+ b2
´mtal
que b 6= 0 entonces hay una base de R2m enla cual su matriz es igual a la del recuadro. Alas matrices de este tipo las llamaremos celdascuadraticas.
Como en los reales tenemos polinomios irreducibles de dos tipos: lineales y cuadraticosentonces la forma normal es un poco mas complicada.
167Seccion 5.7 Estructura de los operadores cıclicos radicales
Forma normal real
Si h es un operador lineal en un espacio vectorial finito dimensional sobreel campo de los numeros reales entonces, existe una base del espacio vectorial en la cual la matriz del operador es diagonal por bloques y los bloquesson celdas de Jordan o celdas cuadraticas.
Usando la base canonica
Ahora regresemos al caso general. Sea p irreducible de grado ∇. El conjunto de polinomios
©1, x, . . . , x∇−1
ªes una base del espacio de polinomios de grado menor que ∇.
Denotemos qi = xi a los elementos de esa base.
Para k ≤ ∇ − 2 tenemos que xqi = qi+1. Si p = x∇ − α∇−1x∇ − · · · − α1x − α0
entonces,xq∇−1 = x
∇ = α0q0 + α1q1 + · · ·+ α∇−1q∇−1 + 1q0p
lo que quiere decir que nuestra matriz P es la matriz acompanante del polinomio p y nuestramatrizM es la que tiene un 1 en la esquina superior derecha y todas sus demas entradas soncero. O sea, nuestro OL (param = 2) se puede representar con la siguiente matriz⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝
0 ... 0 α01 ... 0 α1... ... ... ...
0 ... 1 α∇−1
0 ... 0 1
0 ... 0 0
... ... ... ...
0 ... 0 0
00 ... 0 α01 ... 0 α1... ... ... ...
0 ... 1 α∇−1
⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠Debe ser claro el tipo de la matriz para m mas grandes. A una matriz de este tipo la
llamaremos celda canonica. Observese que las celdas canonicas para ∇ = 1 son celdas deJordan. Sin embargo, para∇ = 2 las celdas canonicas y las celdas cuadraticas son diferentes.Efectivamente, supongamos m = 2. Como p = (x− a)2 + b2 = x2 − 2ax + c dondec = a2 + b2 entonces, en la desigualdad⎛⎜⎝ 0 −c 0 1
1 2a 0 0
0 0 0 −c0 0 1 2a
⎞⎟⎠ 6=
⎛⎜⎝ a −b 0 1
b a 0 0
0 0 a −b0 0 b a
⎞⎟⎠la celda canonica es la de la izquierda y la celda cuadratica es la de la derecha. La ventaja delas celdas cuadraticas es que son mas faciles de intuir geometricamente mediante rotaciones.La ventaja de las celdas canonicas es que siempre funcionan.
168 Capıtulo 5. Descomposicion de operadores lineales
Forma normal canonica
Si h es un operador lineal en un espacio vectorial finito dimensional sobrecualquier campo entonces, existe una base en la cual la matriz del operadores diagonal por bloques y los bloques son celdas canonicas.
5.8 Polinomio caracterıstico
Rectas invariantes
Los subespacios invariantes no triviales mas sencillos que nos podemos imaginar son losde dimension 1 o sea las rectas por el origen. Si h : E → E es un OL y F es invariantede dimension 1 entonces la restriccion de h a F es una homotecia. Sea a una base de F.Entonces, existe un escalar λ (la razon de la homotecia) tal que h (a)= λa.
Recıprocamente, supongamos que existen un escalar λ y un vector no nulo a tales queh (a)= λa entonces, al vector a se le llama vector propio del operador h y al escalar λ sele llama valor propio de h. Tambien decimos que λ es el valor propio correspondiente alvector propio a. Observese que el valor propio correspondiente a un vector es unico pues deλa = λ0a obtenemos (λ− λ0)a = 0 y como a 6= 0 esto implica que λ = λ0.
La recta hai es hinvariante si y solo si a es un vector propio de h.
Prueba. Ya vimos la parte “solo si”. Supongamos que a es un vector propio. Sea λ sucorrespondiente valor propio. Por linearidad de h, para cualquier escalar α se cumple queh (αa) = αh (a) = α (λa) = (αλ)a y esto significa que hai es hinvariante.
El polinomio caracterıstico de un operador lineal
Recordemos que el determinante de un OL esta bien definido como el determinante desu matriz en una base arbitraria.
El hecho de que h (a)= λa lo podemos expresar como que el operador λI−h evaluadoen el vector a es cero. O sea el vector esta en el nucleo de λI − h. Esto quiere decir queker (λI− h) es el conjunto de todos los vectores propios correspondientes a λ. Sabemos queker (λI− h) es no vacıo si y solo si det (λI− h) = 0. Luego, λ es un valor propio de h si ysolo si det (λI− h) = 0.
Ası para calcular los valores propios de h podrıamos probar todos los elementos λ delcampo y comprobar si det (λI− h) = 0. Esta estrategia es imposible de realizar si el campoK es infinito. Por esto es mejor considerar la funcionK 3 x 7→ det (xI− h) ∈ K y encontrarsus raices.
169Seccion 5.8 Polinomio caracterıstico
det (xI− h) es un polinomio monico de grado dimh en la variable x.
Prueba. Sabemos que el determinante de un OL no depende de la base en el cual se calcule.Tomemos una base cualquiera N del espacio vectorial. Tenemos |N| = dimh. Sea αNN lamatriz de h en la base N. La matriz de xI − h en la base N es βNN = xδNN − αNN dondeδNN es el delta de Kronecker (la matriz identidad). Las entradas de βNN son βii = x − αiiy βij = −αij para cualquier j 6= i.
El determinante lo calculamos por la definicion
detβNN =Xσ∈SN
sgnσYi∈N
βiσi .
Como los βij son polinomios, el producto y la suma de polinomios son polinomios, tenemosque detβNN es un polinomio. Observemos ademas que βNN solo contiene la variable x en ladiagonal. Por esto, la potencia mas grande de x en detβNN se obtiene cuando la permutacionσ es la identidad, o sea en el productoY
i∈Nβii =
Yi∈N
(x− αii) .
Aplicando la ley distributiva vemos que es de grado |N| y tiene coeficiente principal 1.
Al polinomio det (xI− h) se le llama polinomio caracteristico de h. De esta manera,los valores propios de h son las raices del polinomio caracterıstico. Si αNN es la matrizde h en la base N entonces, los vectores propios correspondientes a un valor propio λ sepueden hallar resolviendo el sistema de ecuaciones lineales (λδNN − αNN)aN = 0N . Estees un sistema de ecuaciones lineales homogeneo y su conjunto de soluciones es ker (λI− h).El conjunto ker (λI− h) es un subespacio invariante que se conoce como el subespaciopropio correspondiente al valor propio λ. La restriccion de h a un subespacio propio es unahomotecia. De hecho, los subespacios propios son los subespacios invariantes mas grandesen los que h es una homotecia.
Ejercicio 109 Demuestre que el coeficiente en xn−1 del polinomio caracterıstico multiplicado por −1 es la suma de las entradas diagonales de la matriz del operador en cualquierbase. A este escalar se le llama la traza del operador.
El polinomio caracterıstico y el polinomio mınimo
Si h = f ⊕ g entonces, el polinomio caracterıstico de h esigual al producto de los polinomios caracterısticos de f y g.
170 Capıtulo 5. Descomposicion de operadores lineales
Prueba. Sean F y G los subespacios invariantes en los cuales estan µM 0
0 M0
¶definidas f y g. Por 5.3, si A es una base de F y B es una base de Gentonces, en la base de todo el espacio A ∪ B, la matriz de xI − h esdiagonal por bloques. El determinante de cualquier matriz diagonal por bloques es igual alproducto de los determinantes de los bloques diagonales. El determinante del bloque superiorizquierdo es el de xI − f o sea, el polinomio caracterıstico de f. El determinante del bloqueinferior derecho es el de xI− g o sea, el polinomio caracterıstico de g. ¥
Si h es cıclico entonces, los polinomiosmınimo y caracterıstico de h coinciden.
Prueba. Si h es cıclico con polinomio mınimo ⎛⎜⎜⎜⎜⎝x 0 ... 0 −α0−1 x ... 0 −α1... ... ... ... ...
0 0 ... x −αn−20 0 ... −1 x− αn−1
⎞⎟⎟⎟⎟⎠p = xn − αn−1x
n−1 − · · · − α1x − α0 entonces de5.34 sabemos que en cierta base la matriz de h es lamatriz acompanante de p que denotaremos porA. Pordefinicion de matriz acompanante la matriz xI−A esla que se muestra a la derecha. El determinante de estamatriz es el polinomio caracterıstico de h.
Calculemoslo. Triangulando con el metodo de eliminacion de Gauss obtenemos que sudeterminante es igual al de la matriz⎛⎜⎜⎜⎜⎝
x 0 ... 0 −α00 x ... 0 −α1 − α0x
−1
... ... ... ... ...
0 0 ... x −αn−2 − αn−3x−1 − · · ·− α1x
−n+3 − α0x−n+2
0 0 ... 0 x− αn−1 − αn−2x−1 − · · ·− α1x
−n+2 − α0x−n+1
⎞⎟⎟⎟⎟⎠ .Multiplicando las entradas en la diagonal obtenemos p.
Teorema de HamiltonCaleyFrobenius
.51
5 El polinomio caracterıstico es un multiplo del polinomio mınimo.Estos dos polinomios tienen los mismos factores irreducibles.
Prueba. Por el Teorema de Descomposicion en Componentes Radicales Cıclicas (5.40) todoOL tiene una descomposicion en componentes cıclicas. Por 5.50 los polinomios mınimos ycaracterısticos coinciden en cada una de las componentes. Por 5.49 el polinomio caracterıstico es el producto de los de las componentes. Por 5.36 el polinomio mınimo es el mınimocomun multiplo de los de las componentes. El mınimo comun multiplo es siempre un divisor del producto. El mınimo comun multiplo siempre tiene los mismos factores irreduciblesque el producto.
La primera afirmacion se conoce en la literatura como Teorema de HamiltonCaley yes equivalente por definicion de polinomio mınimo a que el polinomio caracterıstico de h
171Seccion 5.8 Polinomio caracterıstico
evaluado en h es el operador nulo. La segunda se conoce como Teorema de Frobenius. Unacuriosidad historica es que fue Frobenius el que dio la primera prueba completa del Teoremade HamiltonCaley.
Es posible dar muchas diferentes demostraciones del Teorema de HamiltonCaley queno pasan por la descomposicion de un operador en componentes cıclicas (que es el resultado“duro” de esta teorıa). La idea de una de ellas es tomarse un vector a, observar que en elsubespacio invariante haih los polinomios caracterıstico y mınimo coinciden y por lo tanto elpolinomio caracterıstico esta en el hanulador de a. Como el vector a es arbitrario entoncesel polinomio caracterıstico esta en el hanulador de todo el espacio y por lo tanto es unmultiplo del polinomio mınimo.
El Teorema de Frobenius se prueba facilmente sobre los complejos ya que lo esencial aquı es saber que si p es un factor irreducible del polinomio caracterıstico entonces,ker (ph) 6= ∅ o sea, existen vectores de perıodo p. Esto es inmediato en el caso complejoporque todos los irreducibles son de grado 1 y todo valor propio tiene al menos un vectorpropio correspondiente. En el caso general, para que esto funcione, es necesaria la introduccion del campo de descomposicion de un polinomio y esto queda fuera de los objetivos deeste libro.
Por otro lado, el saber a priori la veracidad de estos dos teoremas no ayuda en muchopara la prueba de la existencia de hbases, o lo que es lo mismo, la existencia de una descomposicion en componentes cıclicas.
Ejercicio 110 Un OL es diagonalizable si existe una base en la cual su matriz es diagonal.Pruebe que un OL es diagonalizable si y solo si su polinomio mınimo es un producto dediferentes polinomios de grado 1.Ejercicio 111 Un OL es triangulable si existe una base ordenada en la cual su matriz estriangular. Pruebe que un OL es triangulable si y solo si su polinomio caracterıstico es unproducto de polinomios de grado 1. En particular, todo OL complejo es triangulable.
172
Ejercicio 1 (Seccion 1.1 pagina 2) La suma y el producto estan bien definidas en N, Z,Q, R y C. La resta en Z, Q, R y C. La division en Q, R y C. La exponenciacion es mascomplicada ya que aunque esta bien definida en N no esta bien definida en Z, Q y R ya
que¡2−1 = 1
2/∈ Z¢,³21/2 =
√2 /∈ Q
´y³(−1)
1/2= i /∈ R
´. Por otro lado, la exponencia
cion si esta bien definida en R+ (los mayores que cero). Para ver esto. usamos las formulas(p/q)
a= pa/qa, ap/q = q
√ap, (lımi→∞ ai)b = lımi→∞ abi y finalmente si c = lım
i→∞ aientonces bc = lımi→∞ bai . Con ellas reducimos la prueba a demostrar que n
√m es un re
al para cualesquiera (diferentes de cero) naturales n y m. Esto ultimo es equivalente a verque la funcion f (x) = xn −m alcanza el valor cero. Como f (x) es continua, f (1) ≤ 0 yf (m) ≥ 0 esto necesariamente tiene que ocurrir. No es difıcil ver, que la funcion y = ax
es estrictamente creciente en la variable x por lo que esta tiene una funcion inversa log aydefinida en R+. Las operaciones maximo comun divisor y mınimo comun multiplo estandefinidas para los naturales (y polinomios).
Ejercicio 2 (Seccion 1.1 pagina 2) Una operacion unaria en el conjunto A es una funcionde A en A. Por ejemplo para cada entero x hay otro entero −x. De esta manera la operacionx 7→ −x es una operacion unaria. Otros ejemplos comunes son el hallar el complemento deun conjunto o el hallar el complejo conjugado de un numero complejo.
Ejercicio 3 (Seccion 1.1 pagina 2) El area del triangulo con lados a, b y c no es una operacion ternaria en R ya que no para cualesquiera a, b y c existe un triangulo con lados de esaslongitudes.
Ejercicio 4 (Seccion 1.1 pagina 2) La formula (a+ b) (x+ y) se expresa en notacion sufijacomo ab+ xy+×.
Ejercicio 5 (Seccion 1.1 pagina 3) La suma, el producto, el maximo comun divisor el mınimo comun multiplo y el maximo son operaciones conmutativas. Las demas no lo son.
Ejercicio 6 (Seccion 1.1 pagina 3) Ya vimos en el texto que la exponenciacion no es asociativa. Observemos que 4 = 4− (2− 2) 6= (4− 2)−2 = 0 por lo que la resta no es asociativa.Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la division no es asociativa. Tampocoes asociativa el logaritmo. El resto de las operaciones si son asociativas.
Ejercicio 7 (Seccion 1.1 pagina 4) La resta no tiene elemento neutro ya que de a − e = a
se sigue que e = 0 pero por otro lado 0 − a = −a 6= a. Lo mismo ocurre con la division.La operacion de exponenciacion no tiene elemento neutro ya que e1 = 1 ⇒ e = 1 pero
174 Soluciones de ejercicios selectos
12 = 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de la suma es el cero, el neutro delproducto es el uno. El 1 tambien es el neutro para el mınimo comun multiplo. La operacionde maximo comun divisor no tiene neutro.
Ejercicio 8 (Seccion 1.1 pagina 5) Es importante senalar que el inverso tiene sentido solosi hay neutro. El inverso de a para la suma es −a, para el producto es 1
a. Aunque el mınimo
comun multiplo tiene neutro 1, esta operacion no tiene inversos.
Ejercicio 9 (Seccion 1.1 pagina 5) Fijemonos en un conjunto U y en el conjunto de todoslos subconjuntos de U que denotaremos por 2U . En 2U estan bien definidas las operacionesde union e interseccion de conjuntos. Estas operaciones cumplen las propiedades requeridascomo se puede observar en los dos siguientes diagramas de Venn.
A
B
C
A ∩ (B ∪ C) == (A ∩ B) ∪ (A ∩ C)
A
B
C
A ∪ (B ∩ C) == (A ∪ B) ∩ (A ∪ C)
Ejercicio 11 (Seccion 1.2 pagina 8) No porque (1, 0)× (0, 1) = (0, 0) lo que muestra queK2 no es dominio de integridad y por lo tanto no es un campo.
Ejercicio 12 (Seccion 1.2 pagina 9) Supongamos que√n es un racional. Decomponiendo
su numerador y denominador en factores primos obtenemos que√n = pn11 p
n22 . . . p
ntt para
ciertos naturales primos p1p2 . . . pt y ciertos numeros enteros n1, n2, . . . , nt. Pero entonces,n = p2n11 p2n22 . . . p2ntt y por lo tanto ∀i ∈ 1, ..., t 2ni ≥ 0. Luego, todos los ni sonnaturales lo que significa que
√n es natural.
Ejercicio 13 (Seccion 1.2 pagina 9) Tenemos 1 <√2 < 2 y por lo tanto
√2 no es natural.
Por el ejercicio anterior, no es racional.
Ejercicio 14 (Seccion 1.2 pagina 9) Siempre podemos medir un segmento de recta concada vez mas precision (al menos teoricamente). Cada medicion nos da un numero racional.Luego, la longitud del segmento es un lımite de racionales por lo que es un real.
Ejercicio 18 (Seccion 1.3 pagina 12) Por 1.1.4 sabemos que f (0) = 0 y f (1) = 1. Si f (a) =0 y a no fuera el cero de A entonces tendrıamos 1 = f (1) = f
¡aa−1
¢= f (a) f
¡a−1
¢=
0f¡a−1
¢= 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0. Luego, si f (x) = f (y)
entonces, f (x− y) = 0 y por lo tanto x = y.
Ejercicio 21 (Seccion 1.4 pagina 16)
175Soluciones de ejercicios selectos
La tabla de multiplicar en Z5 es la derecha. Luego el elemento in• 0 1 2 3 40 0 0 0 0 01 0 1 2 3 42 0 2 4 1 33 0 3 1 4 24 0 4 3 2 1
verso de 1 es 1, el elemento inverso de 2 es 3, el elemento inversode 3 es 2 y el elemento inverso de 4 es 4. Observese que en la tablade multiplicar de Z5\0 en cada columna y en cada renglon nos encontramos con todos los elementos posibles. Esto es una propiedadde las operaciones binarias de los grupos. De hecho, un conjuntocon una operacion binaria asociativa y con elemento neutro es ungrupo si y solo si su tabla de multiplicar cumple esta propiedad.
Ejercicio 22 (Seccion 1.4 pagina 16) SeaK un campo yG un subgrupo finito de (K \ 0, •).Si x ∈ G entonces al natural n mas pequeno tal que xn = 1 lo llamaremos orden de x.En este caso todos los elementos de hxi =
©1, x, x2 . . . xn−1
ªson diferentes y la funcion
f : (hxi , •) 3 xi 7→ i ∈ (Zn,+) es un isomorfismo de grupos. Luego, lo que hay que probares que en G existe un elemento de orden q = |G|.
1. Sea F un subgrupo de G. Para x ∈ G el conjunto xF = xf | f ∈ F se le llama claselateral de x. Tenemos que si f ∈ F entonces fF = F ya que F es un subgrupo. De
(y ∈ xF)⇒ (y = xf)⇒ ¡x = yf−1
¢⇒ ¡xF = yf−1F
¢⇒ (xF = yF)
(y ∈ xF ∩ zF)⇒ (xF = yF = zF)
obtenemos que las clases laterales forman una particion de G. La funcion F 3 f 7→xf ∈ xF es la inversa de xF 3 xf 7→ f ∈ F y por lo tanto cualquier clase lateral tiene lamisma cantidad de elementos que F. Luego |F| es un divisor de |G| y el cociente |G|÷|F|es el numero de clases laterales. Este hecho se conoce como Teorema de Lagrange.En particular, el orden de cada x ∈ G es un divisor de q = |G|.
2. Sea x de orden n y denotemos ϕ(n) el numero de elementos de orden n en hxi.Como x tiene orden n entonces, ϕ(n) ≥ 1. La funcion ϕ(n) no depende de x puescualesquiera dos x, y de orden n son tales que los grupos hxi y hyi son isomorfos.Luego, ϕ(n) solo depende del natural n.Como cualquier z ∈ hxi tiene cierto orden que por el Teorema de Lagrange es undivisor de n y el numero de elementos en hxi es n entonces,
Pd|n ϕ (d) = n donde
la suma recorre todos los divisores de n. A ϕ se la conoce como Funcion de Euler.3. Denotemos por ρ (n) al numero de elementos de orden n en nuestro grupo G. Como
cualquier z ∈ G tiene cierto orden que por el Teorema de Lagrange es un divisor de|G| = q entonces,
Pd|q ρ (d) = q donde la suma recorre los divisores de q.
4. Si en G no hay un elemento de orden n entonces ρ (n) = 0. Si por el contrario x ∈ Gtiene orden n entonces,∀y = xk ∈ hxi tenemos que yn =
¡xk¢n= (xn)k = 1. Luego,
todos losn elementos de hxi son raices del polinomio zn−1. Como el polinomio zn−1no puede tener mas de n raices en el campoK (vease el resultado 1.18) entonces, todoslos elementos de G de orden n estan en hxi y por lo tanto ρ (n) = ϕ (n). De aquı,para cualquier n se tiene que ϕ (n)− ρ (n) ≥ 0.
176 Soluciones de ejercicios selectos
5. De (2) y (3) tenemos que
0 =Xd|q
ϕ (d)−Xd|q
ρ (d) =Xd|q
(ϕ (d)− ρ (d))
y como por (4) ϕ (d) − ρ (d) ≥ 0 entonces, para cualquier d divisor de q = |G|
tenemosϕ (d) = ρ (d). En particular, ρ (q) = ϕ (q) ≥ 1. Esto significa que enG hayun elemento de orden q = |G|.
Ejercicio 23 (Seccion 1.4 pagina 16) La prueba de que es un anillo conmutativo es directa de las definiciones de suma y producto. Para ver que es un campo observamos que elproducto (a, b) (x, y) = (ax+ 7by, ay+ xb) tiene neutro (1, 0). Para hallar los inversosmultiplicativos resolvemos el sistema de ecuaciones lineales¯
ax+ 7by = 1
ay+ xb = 0
que tiene como solucion unica x = a/∆ , y = −b/∆ donde ∆ = a2 − 7b2. Nos quedacomprobar que si ∆ = 0 entonces a = b = 0. Efectivamente, observando la siguiente tablacalculada en Z11
x 1 2 3 4 5 6 7 8 9 10
x2 1 4 9 5 3 3 5 9 4 1
7x2 7 6 8 2 10 10 2 8 6 7
vemos que ningun a2 puede ser igual a un 7b2.
Ejercicio 24 (Seccion 1.5 pagina 18) No, porque t no es un elemento del campo al contrario,t es un numero natural. Lo que quiere decir tx es x+ · · ·+ x , t veces.
Ejercicio 25 (Seccion 1.5 pagina 18) De que a = −a obtenemos que
0 = a+ a = 1a+ 1a = (1+ 1)a
Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si lacaracterıstica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la afirmacion delejercicio es cierta. Si la caracterıstica del campo es 2 entonces, 1 + 1 = 0 y por lo tantoa = −a para cualquier elemento del campo.
Ejercicio 26 (Seccion 1.6 pagina 21) En cualquier campo (xy)p = xpyp. Por el binomio
de Newton (x+ y)p =pXk=0
p!
k! (p− k) !xkyn−k. El coeficiciente binomial p!/k! (p− k) !
se divide entre p si k ∈ [1, ..., n− 1]. Esto quiere decir (ver 1.15) que en un campo decaracterıstica p todos los sumandos del binomio de Newton excepto el primero y el ultimoson cero. Luego (x+ y)p = xp + yp. Esto muestra que x 7→ xp es un morfismo. Comotodo morfismo de campos es inyectivo (ver ejercicio 18) y toda funcion inyectiva de unconjunto finito en si mismo es sobreyectiva obtenemos que este morfismo es automorfismopara campos finitos.
Ejercicio 1.18 (Seccion 1.7 pagina 21) En los quaterniones (x− i) (x+ i) = x2 − ix +
177Soluciones de ejercicios selectos
xi + 1 6= x2 + 1 lo que quiere decir que no es posible definir correctamente el producto depolinomios.
Ejercicio 27 (Seccion 1.7 pagina 25) Idea: todo lo demostrado para polinomios se traducetal cual para los enteros. La unica diferencia es que en lugar de usar el concepto de grado deun polinomio hay que usar el concepto de valor absoluto de un entero.
Ejercicio 28 (Seccion 1.7 pagina 27) Si i < k entonces la suma es vacıa y por lo tanto escero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este sumando es uno.Supongamos i > k. Haciendo los cambios de variables t = j− k y n = i− k obtenemos
iXj=k
(−1)j−k
µj
k
¶µi
j
¶=
nXt=0
(−1)t (n+ k) !
k!t! (t− n) !=
µn+ k
k
¶ nXt=0
(−1)t
µn
t
¶y esta ultima expresion es cero ya que
Pn
t=0 (−1)t¡n
t
¢es el binomio de Newton de (x− 1)n
evaluado en x = 1.
Ejercicio 29 (Seccion 1.7 pagina 27) De la prueba del Desarrollo de Taylor (1.22) sabemosque si k ∈ 0, . . . , n entonces, ak =
Pn
j=k bkjαj donde bkj =¡j
k
¢(−x0)
j−k. Por el ejercicioanterior tenemosPn
j=k bkjβj =Pn
i=k
Pi
j=k (−1)j−k¡j
k
¢¡i
j
¢aix
i−k0 ==
Pn
i=k δikaixi−k0 = ak
Luego,Pn
j=k bkj¡βj − αj
¢= 0. Esto es un sistema de ecuaciones lineales con incogni
tas γj =¡βj − αj
¢. Definiendo bkj = 0 para k > j nuestro sistema se escribe comoPn
j=0 bkjγj = 0. La matriz de este sistema es triangular y de determinante 1 ya que bkk = 1.Luego el sistema tiene solucion unica βj = αj para j ∈ 0, . . . , n.
Ejercicio 30 (Seccion 1.7 pagina 27) Formalmente (¡y en cualquier campo!) la derivada dep (x) =
Pn
i=0 aixi es p(1) (x) =
Pn
i=1 iaixi−1 y por lo tanto p(j) (x) =
Pn
i=ji!
(i−j)!aix
i−j =
j!Pn
i=j
¡i
j
¢aix
i−j0 . Del ejercicio anterior obtenemos la prueba.
Ejercicio 31 (Seccion 1.8 pagina 29) Las raices del polinomio zn − 1 son xk = cosk2πn+
i sink2πn
para k ∈ 0, . . . , n− 1. Tenemos
xkxm = cos
µ(k+m)
2π
n
¶+ i sin
µ(k+m)
2π
n
¶= cos `
2π
n+ i sin `
2π
n= x`
donde ` = (k+m)modn. Para el producto, estas raices forman un grupo isomorfo a Zn.
Ejercicio 32 (Seccion 1.8 pagina 29) Sean a, b y c tres lados de un triangulo. Por simetrıasolo tenemos que probar que |a− b| ≤ c. Podemos suponer que a ≥ b. Por la desigualdaddel triangulo b+ c ≥ a y de aquı c ≥ a− b.
Ejercicio 33 (Seccion 1.8 pagina 32) Para usar°°¡1− tk¢p (z0)°° = ¡1− tk¢ kp (z0)k.
Ejercicio 34 (Seccion 1.9 pagina 33) La propiedad 1 es inmediata de la definicion. Para lapropiedad 2 vemos
178 Soluciones de ejercicios selectos
(a+ bi) + (c+ di) = (a+ c) + (b+ d) i =
= (a+ c)− (b+ d) i = (a− bi) + (c− di) = (a+ bi) + (c+ di)Finalmente, para probar la propiedad 3 vemos que
(a+ bi) (c+ di) = (ac− bd) + (ad+ bc) i =
= (ac− bd)− (ad+ bc) i = (a− bi) (c− di) = (a+ bi) (c+ di)
Ejercicio 35 (Seccion 1.10 pagina 34) Tenemos ab = ba por lo que (a, b) ∼ (a, b) lo quesignifica que la relacion es reexiva. De ad = bc obtenemos cb = da. Esto significa quesi (a, b) ∼ (c, d) entonces (c, d) ∼ (a, b) por lo que la relacion es simetrica. Si ad = bc ycf = de entonces adcf = bcde por lo que af = be. Esto significa que si (a, b) ∼ (c, d) y(c, d) ∼ (e, f) entonces (a, b) ∼ (e, f) por lo que la relacion es transitiva.
Ejercicio 36 (Seccion 1.10 pagina 36) El campo de fracciones Z2 (x) contiene a Z2 y por lotanto es de caracterıstica 2. Este campo tiene evidentemente un numero infinito de elementos.
Ejercicio 37 (Seccion 1.10 pagina 36) El campo de fracciones de un campo es el mismo.
Ejercicio 38 (Seccion 1.11 pagina 37) (a+ b) = a¡1+ a−1b
¢= a
¡a−1b+ 1
¢= (b+ a) .
Ejercicio 39 (Seccion 1.11 pagina 38) Las seis igualdades necesarias se pueden obtener dela siguiente manera
(ijk = −1) ⇒ (ijkk = −k) ⇒ (ij = k) ⇒ (ijj = kj) ⇒ (kj = −i)(ijk = −1) ⇒ (iijk = −i) ⇒ (jk = i) ⇒ (jkk = ik) ⇒ (ik = −j)
(ijk = −1) ⇒ (kijkkj = −kkj) ⇒ (ki = j) ⇒ (kii = ji) ⇒ (ji = −k)
Ejercicio 40 (Seccion 1.11 pagina 38) Por definicion de producto de quaterniones³(a+ bi+ cj+ dk)
2= −1
´⇔ µa2 −
¡b2 + c2 + d2
¢= −1
ab = ac = ad = 0
¶.
Como a es un real b2 + c2 + d2 6= 0 por lo que cualquier solucion de estas ecuacionesrequiere que a = 0.
Ejercicio 42 (Seccion 2.1 pagina 40)El triangulo abc es semejante al triangulo uvw de hecho son con
a
b c
u
w v
gruentes porque ac = uw (lados opuestos de un paralelogramo tienen la misma longitud). Luego bc = wv y por lo tanto la coordenadaen x del vector−→au es igual a la de−→awmas bc. La prueba para la otracoordenada es igual.
Ejercicio 43 (Seccion 2.1 pagina 40) Tecnicamente hablando no ya que en el Capıtulo 1definimos una operacion binaria como una funcion A × A → A y la multiplicacion de unescalar por un vector es una funcion del tipo B × A → A. Pero si es una operacion binariaen el sentido de que tiene dos argumentos.
179Soluciones de ejercicios selectos
Ejercicio 44 (Seccion 2.1 pagina 40) En la expresion α (βa) se utiliza un solo tipo deoperacion (la de un escalar por un vector). En la expresion (αβ)a se utilizan dos operacionesdiferentes primero la del producto de escalares y despues la de un escalar por un vector.
Ejercicio 46 (Seccion 2.2 pagina 41) Si α 6= 0 entonces tiene inverso y por lo tanto
αa = 0⇒ a = α−1αa = α−10 = 0
Ejercicio 47 (Seccion 2.2 pagina 41) El mınimo numero de elementos en un espacio vectorial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y efectivamenteun conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campodefiniendo α0 = 0 para cualquier α en el campo.
Ejercicio 49 (Seccion 2.3 pagina 49) Supongamos que x ∈ hN ∪ yi\ hNi. Entonces, existeuna combinacion lineal x = αyy +
Pi∈N αii. Tenemos que αy 6= 0 (ya que x /∈ hNi).
Luego, despejando y obtenemos que y ∈ hN ∪ xi.
Ejercicio 50 (Seccion 2.4 pagina 50) Solo en la prueba de que 2⇒4 al despejar a.
Ejercicio 51 (Seccion 2.4 pagina 52) 1. El conjunto vacıo es LI y todo el espacio E esgenerador. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. 2. Si M es LI entonces existeuna base N tal que M ⊆ N ⊆ E. 3. Si L es generador entonces existe una base N tal que∅ ⊆ N ⊆ L.
Ejercicio 52 (Seccion 2.4 pagina 54) SeaA una base deE. Como F es generador yA ⊆ F esLI entonces por el Teorema de Existencia de Bases (2.14) existe una baseB de F que contieneaA. De aquı tenemos dimE = |A| ≤ |B| = dimF. Esta prueba es valida independientementede si los cardinales de A y B son finitos o no.
Ejercicio 53 (Seccion 2.4 pagina 54) El conjunto de todos los polinomiosPaix
i tales quea0 = 0 es un subespacio de K [x] de la misma dimension que K [x].
Ejercicio 54 (Seccion 2.4 pagina 55) Es consecuencia directa del Desarrollo de Taylor(1.22) alrededor del punto x0.
Ejercicio 55 (Seccion 2.4 pagina 55) La diferencia entre el espacio de las (N×M)adasy las NMmatrices es solo en las notaciones. Luego, el espacio de las NMmatrices tienedimension |N×M| = |N| |M|. Para cada pareja i, j con i ∈ N y j ∈ M hay una matriz eijen la base canonica la cual tiene su entrada ij igual a 1 y todas las demas igual a cero.
Ejercicio 56 (Seccion 2.5 pagina 56) SeanEf→ F
g→ G transformaciones lineales. Tenemosque f (g (x+ y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) = f (λg (x)) =λf (g (x)) y esto era todo lo que se querıa probar.
Ejercicio 59 (Seccion 2.6 pagina 63) 1. Es facil probar que la aplicacion E⊕F 3 (a,b) 7→
180 Soluciones de ejercicios selectos
(b,a) ∈ F⊕E es un isomorfismo canonico. 2. Conmutatividad. 3. El isomorfismo canonico es ((a,b) , c) 7→ (a, (b,c)) 7→ (a,b, c). 4. Si, la aplicacion E⊕ 0 3 (a,0) 7→ a ∈ Ees un isomorfismo canonico. Por esto podemos considerar que E⊕ 0 = E.
Ejercicio 60 (Seccion 2.6 pagina 64) Denotemos porS a todo el espacio. Como cada vectorse expresa como a+ b con a ∈ E y b ∈ F tenemos S = E + F. Supongamos quea 6= 0 ∈ E ∩ F entonces 0 = 0+ 0 = a− a lo que contradice que la descomposicionde 0 es unica. Luego E ∩ F = 0 y por lo tantoS = E⊕ F.
Ejercicio 65 (Seccion 2.7 pagina 67) Si E = E + x y F = F + y son dos subespaciosparalelos o no entonces E+ F es igual a (E + F)+ (x+ y) o sea, es un espacio afın paraleloa E+F. Si E es paralelo a F entonces, E = F y por lo tanto E+F = E. Si E y F se intersectanen z entonces z ∈ hE ∪ zi ⊆ hE ∪ Fi = E+ F y por lo tanto E+ F = E+ F.
Ejercicio 70 (Seccion 3.4 pagina 85) Tomese x = (1, 0) , y = (0, 1) y z = (1, 1) . Tenemos(xy)z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy)z 6= x (yz) .
Ejercicio 73 (Seccion 3.4 pagina 87)µ
cosα − sinαsinα cosα
¶Ejercicio 74 (Seccion 3.4 pagina 88) Para cualesquiera n ∈ N y k ∈ K tenemos
(αnMβML)γLk =Xl∈L(αnM · βMl)γlk =
Xl∈L
Xm∈M
αnmβmlγlk =Xm∈M
αnmXl∈L
βmlγlk =Xm∈M
αnm (βmL · γLk) = αnM (βMLγLk)
Ejercicio 75 (Seccion 3.4 pagina 89) Las matrices de f, g y f g tienen que cumplir:µcos (α+ β) − sin (α+ β)
sin (α+ β) cos (α+ β)
¶=
µcosα − sinαsinα cosα
¶µcosβ − sinβsinβ cosβ
¶=
=
µcosα cosβ− sinα sinβ − cosα sinβ− sinα cosβcosα sinβ+ sinα cosβ cosα cosβ− sinα sinβ
¶y por lo tanto cos (α+ β) = cosα cosβ− sinα sinβ
sin (α+ β) = cosα sinβ+ sinα cosβ
Ejercicio 76 (Seccion 3.7 pagina 97) Sea f semilineal y σ y ρ dos automorfismos del campotales que para cualquier escalar λ y cualquier vector a se cumple que f (λa) = σ (λ) f (a) =
ρ (λ) f (a). Podemos escogera tal que f (a) 6= 0 y por lo tanto ((σ (λ)− ρ (λ)) f (a) = 0)⇒(σ (λ) = ρ (λ)).
Ejercicio 77 (Seccion 3.7 pagina 98) Supongamos que supA existe. Entonces, ∀b ∈ R tenemos (∀a ∈ A b ≥ a)⇒ (b ≥ supA) . Usando que f es una isotonıa vemos que ∀f (b) ∈f (R) = R tenemos (∀f (a) ∈ f (A) f (b) ≥ f (a)) ⇔ (∀a ∈ A b ≥ a) ⇒ (b ≥ supA) ⇒(f (b) ≥ f (supA)) y esto prueba que f (supA) = sup f (A).
181Soluciones de ejercicios selectos
Ejercicio 78 (Seccion 3.7 pagina 98) (1⇒ 2)La conjugacion compleja es continua. (2⇒ 3)
Tenemos (vease la prueba de 3.34) que f es la identidad enQ. De que los reales son los lımites de los racionales y f es continua obtenemos que f es la identidad en R. (3⇒ 1) Si f esla identidad en R entonces, f (a+ bi) = a+ bf (i). Como f (i)2 = f
¡i2¢= f (−1) = −1 y
f (i) 6= i entonces, f (i) = −i.Para ver que hay muchos automorfismos de C que no son la conjugacion compleja vease porejemplo: Yale, Paul B., Automorphisms of the complex numbers, Mathematics Magazine,MayJune 1966, 135–141.
Ejercicio 79 (Seccion 3.7 pagina 99) La funcion (x1, . . . , xn) 7→ (x1, . . . , xn) es biyectivaya que λ 7→ λ es biyectiva. Ademas, tenemos
(x1 + y1, . . . , xn + yn) = (x1 + y1, . . . , xn + yn) = (x1, . . . , xn) + (y1, . . . , yn)¡λx1, . . . , λxn
¢=¡λx1, . . . , λxn
¢= λ (x1, . . . , xn)
y esto muestra que la funcion es un automorfismo semilineal.Si f es una transformacion semilineal arbitraria cuyo automorfismo del campo es σ entonces, su composicion con el automorfismo semilineal estandar correspondiente a σ−1 es unatransformacion lineal.
Ejercicio 81 (Seccion 3.7 pagina 102) Supongamos que 0 = αa+αc+βb−βc =(α− β)c+
(α+ βρ)a. Como a,c es LI entonces, α = β y α (1+ ρ) = 0. Como ρ 6= −1 entonces,0 = α = β.
Ejercicio 84 (Seccion 4.3 pagina 115) Denotemos γMM = αω(L)M y ηMM = βMθ(N).Sabemos que det (γMMηMM) = det (γMM) det (ηMM) y esto es todo lo que se necesitabaprobar.
Ejercicio 86 (Seccion 4.3 pagina 118) Es saludable poner la matriz de Vandermonde enforma grafica como se muestra en el recuadro a la derecha. ⎛⎜⎜⎜⎜⎝
1 1 · · · 1
x1 x2 · · · xnx21 x22 · · · x2n· · · · · · · · · · · ·xn−11 xn−12 · · · xn−1n
⎞⎟⎟⎟⎟⎠Denotemos por v (x1, x2, . . . , xn) al determinante de estamatriz. Denotemos
f (x1, x2, . . . , xn) =Y
1≤i<j≤n(xj − xi)
Veamos que v (x1, x2, . . . , xn) = f (x1, x2, . . . , xn).Por induccion en n. Para n = 1 tenemos f (x1) = v (x1) = 1. Supongamos que esta probado hasta n − 1. Pongamos y = xn. Tenemos que probar que v (x1, . . . , xn−1, y) =f (x1, . . . , xn−1, y). Para esto veamos ambos lados de la igualdad como polinomios en lavariable y. Ambos polinomios tienen grado n− 1.Haciendo la expansion de Laplace por la ultima columna vemos que el coeficiente principalde v (x1, . . . , xn−1, y) es igual a v (x1, . . . , xn−1). Por otro lado
f (x1, . . . , xn−1, y) =Y
1≤i<j≤n−1(xj − xi)
Y1≤i≤n−1
(y− xi)
que tiene coeficiente principal f (x1, . . . , xn−1). Por hipotesis de induccion v (x1, . . . , xn−1) =
182 Soluciones de ejercicios selectos
f (x1, . . . , xn−1) y por lo tanto nuestros dos polinomios tienen el mismo coeficiente principal.Ademas, las raices de v (x1, . . . , xn−1, y) son x1, . . . , xn−1 porque evaluando y en estos valores obtenemos una matriz con dos columnas iguales. Es obvio que x1, . . . , xn−1 son tambienlas raices de f (x1, . . . , xn−1, y).Luego, v (x1, . . . , xn−1, y) y f (x1, . . . , xn−1, y) son dos polinomios del mismo grado, conlos mismos coeficientes principales y las mismas raices y por lo tanto son polinomios iguales.
Ejercicio 87 (Seccion 4.4 pagina 123) Las tres. Para la matrizA los bloques sonM1 = 1 ,
M2 = 2 yM3 = 3. Para la matriz B los bloques sonM1 = 3 , M2 = 2 yM3 = 3.Para la matriz C los bloques son M1 = 2 , M2 = 3 y M3 = 1 ya que α23 = α21 =
α31 = 0. Los determinantes de las tres matrices son iguales a abc.
Ejercicio 88 (Seccion 4.4 pagina 123)El aspecto es el del recuadro a la derecha. Aquı hemos denotado ∗ ∗
∗ ∗0
0
0 0
0 0
∗ ∗ ∗ 0 0
∗ ∗∗ ∗
∗∗
∗ ∗∗ ∗
por ∗ las entradas que pueden ser diferentes de cero. Las entradascon 0 son las que obligatoriamente tienen que ser cero. Ademas,hemos dividido con rectas los tres bloques de la matriz. El determinante de una matriz de este tipo es igual al producto de losdeterminantes de sus tres bloques diagonales.
Ejercicio 91 (Seccion 5.1 pagina 137) Sean (a,b), (a0,b0) ∈ E⊕ F. Tenemos(f⊕ g) ((a,b) + (a0,b0)) = (f⊕ g) (a+ a0,b+ b0) = (f (a+ a0) , g (b+ b0)) =
= (f (a) + f (a0) , g (b) + g (b0)) = (f (a)+, g (b)) + (f (a0) , g (b0)) == (f⊕ g) (a,b) + (f⊕ g) (a0,b0)
con lo que tenemos la primera propiedad de linearidad. Para la segunda vemos que(f⊕ g) (λ (a,b)) = (f⊕ g) (λa,λb) = λ (f (a) , g (b)) = λ ((f⊕ g) (a,b)).
Ejercicio 92 (Seccion 5.1 pagina 138)(f0 g0) (a,b) = f0 (g0 (a,b)) = f0 (a, g (b)) = (f (a) , g (b)) = (f⊕ g) (a,b).
Ejercicio 95 (Seccion 5.3 pagina 146) Como pq divide a p0q0 y p0q0 divide a pq entonces pq = p0q0. Sean p = pi11 · · ·piaa y q = q
j11 · · ·q
jbb las descomposiciones en factores
irreducibles. Como p y q son coprimos entonces, todos los p` son distintos a los q` y ladescomposicion pq = pi11 · · ·piaa q
j11 · · ·q
jbb es la descomposicion en factores irreducibles de
pq. Como p0 divide a p y q0 divide a q entonces, p0q0 = pi01
1 · · ·pi0aa q
j01
1 · · ·qj0b
b (donde i0` ≤ i`y j0` ≤ j`) es la descomposicion en irreducibles de pq. Como p0q0 = pq, de la unicidad de ladescomposicion en irreducibles, obtenemos i0` = i` y j0` = j` o sea, p = p y q = q.
Ejercicio 96 (Seccion 5.4 pagina 151) Sea f un operador lineal en End (E/F) y G unsubespacio complementario a F. Definimos h como la funcion nula en F, como h (a) =G ∩ f (a+ F) en G y en todo el espacio por extension lineal. Para ver que h es lineal solo hay que comprobar que es lineal en G. Esto es trivial porque en G la funcion h cumpleh = nat−1 f nat donde a
nat7−→ a + F es el isomorfismo canonico entre el cociente y un
183Soluciones de ejercicios selectos
complementario. Para ver que f = eh basta comprobarlo para los vectores a que estan en G.Pero f (a+ F) = h (a) + F ya que f = nat h nat−1.Para calcular el nucleo comprobamos que para cualquier vector a se cumple que³eh (a) = O (a)´⇔ (h (a) + F = F)⇔ (h (a) ∈ F).
Ejercicio 97 (Seccion 5.4 pagina 152) Sea p un polinomio cualquiera. Si ph (a) = 0 entonces p
h(a+ F) = ph (a) + F = F. Si p
h(a+ F) = F entonces, ph (a) ∈ haih ∩ F y
por hipotesis ph (a) = 0. Luego, el hanulador de a+ F es igual al ehanulador de a+ F ypor lo tanto per
h(a+ F) = perh (a+ F). Sea b ∈ F y q un polinomio. Como F y haih son
hinvariantes, tenemos que
(qh (a+ b) = 0)⇔ (qh (a) = −qh (b))⇔ (qh (a) = qh (b) = 0)⇔ (qh (a) = 0) .
La implicacion (qh (a) = 0) ⇒ (qh (a) = qh (b) = 0) es valida porque si qh (a) = 0
entonces q es un multiplo de perh (a) que es multiplo de perh (F) que a su vez es multiplode perh (b) y por lo tanto qh (b) = 0.Luego, el hanulador de a coincide con el hanulador de a + F. Esto quiere decir queperh (a+ F) = perh (a).
Ejercicio 101 (Seccion 5.6 pagina 158) Es facil ver que hA ∪ Bih ⊇ hAih + hBih = F +G = E y por lo tanto A ∪ B es hgenerador. Comprobemos que A ∪ B es hindependiente.Observese que A∩ B = ∅ ya que 0 no esta en ningun conjunto hindependiente y A∩ B ⊆F ∩G = 0. Luego una hcombinacion de A ∪ B es de la forma
ph (a1) + · · ·+ qh (an) + rh (b1) + · · ·+ sh (bn)donde A = a1, . . . ,an y B = b1, . . . ,bm. Si esta hcombinacion es igual cero entonces
F = hAih 3 ph (a1) + · · ·+ qh (an) = −rh (b1)− · · ·− sh (bn) ∈ hBih = Gy por lo tanto,
ph (a1) + · · ·+ qh (an) = rh (b1) + · · ·+ sh (bn) = 0y como A y B son hindependientes deducimos que
ph (a1) = · · · = qh (an) = rh (b1) = · · · = sh (bn) = 0.
Ejercicio 107 (Seccion 5.7 pagina 163) Queremos ver que el siguiente diagrama de transformaciones lineales es conmutativo:
Fjh−→ E
πi−→ Fipkh ↑ ↑ pkh ↑ pkhFj+k −→
hE −→
πi+kFi+k
El cuadrado de la izquierda es conmutativo por la conmutatividad de los polinomios evaluados en OL. Para probar la conmutatividad del cuadrado de la derecha comprobemosloen la base Bm = A1 ∪ · · · ∪ Am . Si x ∈ Ai+k entonces, pkh (x) ∈ Ai y por lo tantoπi pkh = I = pkh πi+k. Si x ∈ Bm \ Ai+k entonces pkh (x) ∈ Bm \ Ai y por lo tantoπi pkh = O = pkh πi+k. Luego, todo el diagrama es conmutativo y por lo tanto teniendoen cuenta la definicion de τij obtenemos que pkh τij = τi+k,j+k pkh. Como en este caso pkhes biyectiva obtenemos τi+k,j+k = pkh τij
¡pkh¢−1
.
184 Soluciones de ejercicios selectos
Algebra. Espacio vectorial con un productode vectores asociativo, distributivo, con elemento neutro y que conmuta con el productopor escalares. . . . . . . . . . . . . . . . . . . . .80, 88, 110
Algebra conmutativa.Algebra en la cual el producto de vectoreses conmutativo . . . . . . . . . . . . . . . . . . . . . .81, 142
Anillo. Conjunto condos operaciones binarias denotadas por + y• que es grupo abeliano para la suma, que elproducto es asociativo con elemento neutroy distributivo respecto a la suma . . 7, 11, 80
Anillo conmutativo. Anillo en el cual elproducto es conmutativo . . 7, 14, 21, 22, 34
Anulador de un conjunto de vectores. Lainterseccion de los anuladores de todos losvectores en el conjunto . . . . . . . . . . . . . . . . . .144
Anulador de un OL. El anulador de todo elespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .144
Anulador de un vector. El conjunto depolinomios p tales que ph (a) = 0 . . . . .144
Argumento de un complejo.El angulo que forma el vector
−→0z con el eje
real del plano complejo . . . . . . . . . . . . . . . . . . 28Asociatividad. Propiedad de algunas
operaciones binarias que consiste en quea (b c) = (a b) c
para cualesquiera elementos a, b y c delconjunto en el cual esta definida la operacion . . . . . . . . . . . . . . . . . . . . 3, 13, 19, 22, 79, 88
Asociatividad del producto por escalares.Axioma de espacio vectorial:(βa) = (αβ)a . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Automorfismo. Endomorfismo biyectivo . 13Automorfismo de Frobenius.
La funcion K 3 x 7→ xp ∈ K donde K esun campo finito de caracterıstica p > 0. . 21
Automorfismo semilineal.Transformacion semilineal biyectiva de unespacio en si mismo. . . . . . . . . . . . . . . . . . . . . . 98
Base. Conjunto de vectores que es generador yLI. Conjunto generador minimal. ConjuntoLI maximal . . . . . 52, 56, 61, 72, 82, 89, 125
Base canonica.El conjunto deNadas ei | i ∈ N donde lajesima coordenada de ei es el delta de Kronecker δij . . . . . . . . . . . . . . . . . . . . . . . . . 54, 87, 91
Base de las columnas. Conjuntode columnas diferentes que son una base delespacio de columnas . . . . . . . . . . . . . . . . . . . .125
Base de los renglones. Conjuntode renglones diferentes que son una base delespacio de renglones . . . . . . . . . . . . . . . . . . . .125
Base de una matriz. Submatriz no singularmaximal por contencion. . . . . . . . . . . 126, 132
Binomio de Newton.Formula para expandir (x+ y)n . . . . . 20, 27
Cadena.Subconjunto de un conjunto ordenado queesta totalmente ordenado. . . . . . . . . . . . . . *, 72
Cambio de ındices.Biyeccion mediante la cual los ındices deuna Nada (o columnas, o renglones) obtienen nuevos nombres. Es la operacion en queuna biyeccion ω : N → L se le aplica a lascolumnas de una matriz αMN para obtenerla matriz βML = αMω(N) que cumple queβij = αiω−1 (j). Analogamente se definenlos cambios de ındices de los renglones .114
Campo. Anillo conmutativo enel cual todo elemento diferente de cero tieneinverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 15, 16
Campo algebraicamente cerrado.Campo en el cual todo polinomio de gra
186 cam – cof
do al menos uno tiene una raız. Campo elcual los polinomios irreducibles son todosde grado uno . . . . . . . . . . . . . . . . . 10, 27, 34, 59
Campo de fracciones. Entrelas fracciones de un dominio de integridadse define la suma y el producto exactamente de la misma manera que se definen estasoperaciones en Q. Para estas operaciones elconjunto de fracciones es un campo . . . . . 35
Campo ordenado. Campo con una relacionde orden en el cual todo elemento es comparable con el cero. Los elementos mayoresque cero se les llama positivos y los menoresque cero negativos. Los axiomas que debecumplir la relacion de orden son:1. El opuesto de un positivo es negativo,2. El opuesto de un negativo es positivo,3. La suma de positivos es positiva,4. El producto de positivos es positivo.Los campos R y Q estan ordenados. Cualquier campo ordenado tiene que ser de caracterıstica cero. Ademas, C no se puede ordenar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 9, 116
Campo primo. Campo cuyo unico subcampoes el mismo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Caracterıstica de un campo.Es cero si el campo contiene como subcampo a Q. Es igual al numero primo psi el campo contiene como subcampo aZp . . . . . . . . . . . . . . . . . . . . . . . . . 18, 36, 108, 115
Celda canonica. Matriz cuadrada triangular superior por bloques de orden el gradode p, con la matriz acompanante de p en ladiagonal, en la paralela inmediatamente superior a la diagonal matrices nulas salvo laentrada superior derecha en que es 1 y cerosen las demas entradas. Todo OL sobre cualquier campo es diagonalizable por bloquesque son celdas canonicas. . . . . . . . . . . . . . . .167
Celda cuadratica. Matriz cuadradatriangular superior por bloques de orden 2
conµa −bb a
¶en la diagonal,
µ0 1
0 0
¶en la
paralela inmediatamente superior a la diago
nal y ceros en las demas entradas. Todo OLreal es diagonalizable por bloques que sonceldas de Jordan o celdas cuadraticas. . .166
Celda de Jordan. Matriz cuadrada triangularsuperior con λ en la diagonal, 1 en la paralela inmediatamente superior a la diagonal yceros en las demas entradas. Todo OL complejo es diagonalizable por bloques que sonceldas de Jordan. . . . . . . . . . . . . . . . . . . . . . . . .165
Cerradura lineal. El conjunto de todas las combinaciones lineales de unconjunto de vectores . . . . . . . . . . . . . 48, 57, 60
Ciclo. Permutacionσ del grupo simetrico de N que cambia unconjunto x0, . . . , xn−1 ⊆ N segun la reglaσ (xi) = xi+1modn y deja todos los demaselementos deN fijos . . . .106, 112, 117, 124
Ciclos disjuntos. Ciclos talesque los conjuntos de elementos que ellos nodejan fijos no se intersectan . . . . . . . . . . . . .106
Clases de equivalencia. Si ≈ es unarelacion de equivalencia en A entonces, lasclases de equivalencia son los subconjuntosde A para los cuales a ≈ b si y solo si a yb estan en la misma clase . . . . . . . . . *, 66, 73
Coalineacion. Funcion biyectiva deun espacio vectorial en si mismo que tal quef y f−1 preservan subespacios afines. . . . . 99
Cociente. Al efectuar la division con resto deun elemento p de un anillo conmutativo (Z,K [x]) entre otro q obtenemos la igualdadp = cq + r. Al elemento c se le llama cociente de la division de p entre q . . . . . . . . 23
Codominio de una funcion. Seaf : A→ B una funcion. Al conjunto B se lellama codominio de la funcion f . . . . . 11, 93
Coeficiente principal. El coeficiente diferentede cero de un polinomio que multiplica a lapotencia mas grande de la variable . . . . . . 22
Coeficientes de un polinomio.(vease polinomio) . . . . . . . . . . . . . . . . . . . . . . . . 22
Cofactor. De la entrada αij es el escalarsgnω detαN\iω(N\j)
donde ω es cualquier permutacion de N tal
187col – dia
que ω (j) = i . . . . . . . . . . . . . . . . . . . . . . . . . . . .116Columna de una matriz. Dada una matriz
αNM y j ∈M a laNadaαNj (j esta fijo, loselementos de N varıan) se le llama jesimacolumna de la matriz αNM . . . . . . . . . . 45, 85
Combinacion lineal. Los vectores dela forma
Pi∈N αii (donde solo un numero
finito de los ai es diferente de cero) . 47, 60Complemento algebraico. Cofactor . . .116Componente radical. Restriccion del OL a
un subespacio radical maximal . . . . . . . . .149Composicion de funciones.
Operacion entre dos funciones que consisteen aplicar primero una funcion y despues laotra . . . . . . . . . . . . . . . . . . . . . .13, 56, 79, 87, 105
Conexion de Galois (antıtona). Seobtiene de una conexion de Galois monotona invirtiendo la relacion de orden en uno delos conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . .146
Conexion de Galois (monotona). Unapareja de funciones monotonas f∗ : A → B
y f∗ : B → A tales que (f∗ (a) ≤ b) ⇔(a ≤ f∗ (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .146
Conjunto acotado inferiormente.Conjunto que tiene una cota inferior. . *, 32
Conjunto acotado superiormente.Conjunto que tiene una cota superior . . . . . *
Conjunto generador. Conjuntode vectores cuya cerradura lineal es todo elespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49, 56
Conjunto hindependiente.Conjunto de vectores no nulos tales que lossumandos de cualquier hcombinacion nulason nulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .154
Conjunto inductivamente ordenado.Conjunto ordenado no vacıo dentro del cualcada cadena tiene cota superior . . . . . . . . . . 72
Conjunto LD. Acronimo de conjuntolinealmente dependiente . . . . . . . . . . . . . . . . . 50
Conjunto LI. Acronimo de conjuntolinealmente independiente . . . . . . . . . . . . . . . 50
Conjunto linealmente dependiente.Conjunto de vectores que no es LI . . . . . . . 50
Conjunto linealmente independiente.
Conjunto de vectores A tal que ∀a ∈ A secumple que hA\ai 6= hAi. . . . . . . . . . .50, 125
Conjunto ordenado. Conjunto en el cualesta definida una relacion de orden . . . *, 72
Conjunto totalmente ordenado.Conjunto ordenado en el cual dos elementoscualesquiera son comparables . . . . . . . . . . . . *
Conmutatividad. Propiedad de algunasoperaciones binarias que consiste en que
a b = b a∀ elementos a y b del conjunto en el cualesta definida la operacion . . . . . . . . . . . . . . . . . 3
Contraccion. Homotecia cuyo escalar es unreal mayor que 0 y menor que 1 . . . . . . . . . 76
Coordenada. De la nada (a1, a2, ..., an) esalguno de los ai. De laNada aN es algunode los ai para i ∈ N . . . . . . . . . . . . . . . . . . . . . 41
Coordinatizacion.Dada una base N de F, es el isomorfismoF 3
Pi∈N αii 7→ αN ∈ KN . . . . . . . 57, 89
Cota inferior.Una cota inferior de un subconjuntoA de unconjunto ordenado B es un elemento b de Btal que cualquier elemento de A es mayor oigual que B . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 32
Cota superior. Una cota superior de un subconjuntoA de un conjunto ordenado B es unelemento b de B tal que cualquier elementode A es menor o igual que B . . . . . . . . . . *, 72
Delta de Kronecker.Funcion δij de dos variables que toma valor1 si i = j y toma valor 0 si i 6= j .27, 88, 110
Desarrollo de Taylor.Expresion de una funcion como serie de potencias f (x) =
Pai (x− x0)
i. El coeficiente de la serie ai es la iesima derivadade f evaluada en el punto x0 . . . . . . . . . 26, 31
Determinante. El determinante de αNN esPσ∈SN sgnσ
Qi∈N αiσi . . . . . 109, 20, 132
Determinante de un OL.Determinante de su matriz en una base. Nodepende de la base escogida . . . . . . . . . . . .121
Diagrama. Reperesentaciongrafica de una familia de conjuntos y de fun
188 dia – for
ciones entre ellos mediante la utilizacion deechas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
Diagrama conmutativo. Diagrama en el cualcualesquiera dos caminos dirigidos (que siguen el orden de las echas) de un conjuntoa otro representan dos descomposiciones dela misma funcion como composicion de lasfunciones de las echas de los caminos . 91
Dilatacion. Homotecia cuyo escalar es un realmayor que 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Dimension.El cardinal de cualquier base 53, 61, 66, 95
Dimension de un OL. Dimension del espaciodonde esta definido el operador . . . . . . . . .138
Dimension de un subespacio afın. Si E esuna traslacion del subespacio E entonces ladimension de E es la dimension de E . . . . 66
Distributividad. Relacion de una operacionbinaria ¦ con respecto a otra que consisteen que las igualdades
a ¦ (b c) = (a ¦ b) ¦ (a ¦ c)(b c) ¦ a = (b ¦ a) (c ¦ a)
se cumplen para cualesquiera elementos a,b y c del conjunto en el cual esta definida laoperacion . . . . . . . . . . . . . . . . . . . . . . 5, 19, 79, 88
Distributividad del producto por escalares.Axioma de espacio vectorial: α (a+ b) =αa+ αb y (α+ β)a =αa+βa . . . . . . . 41
Divisor. Para dos elementos p yq de un anillo con division se dice que q esun divisor de p si el resto de la division de pentre q es cero. . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Dominio de integridad.Anillo conmutativo en el cual el producto deelementos diferentes de cero es diferente decero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 18, 36
Dominio de una funcion. Sea f : A→ B unafuncion. Al conjunto A se le llama dominiode la funcion f . . . . . . . . . . . . . . . . . . . . . . . . 11, 93
Ecuacion lineal. Ecuacion αNxN = βNdonde lasNadas αN y βN son conocidos yel vector xN es incognito . . . . . . . . . . . . . . .128
Ecuacion matricial. Ecuacion AX = Bdonde la matrices A y B son conocidas y la
matriz X es incognita. . . . . . . . . . . . . . . . . . . .135Elemento maximal.
Elemento tal que cualquier otro no es mayorque el . . . . . . . . . . . . . . . . . . . . . . . . . *, 51, 72, 126
Elemento minimal. Elemento tal quecualquier otro no es menor que el. . . . . *, 51
Elementos comparables. Dos elementos a yb de un conjunto ordenado para los cuales oa ¹ b o b ¹ a o los dos . . . . . . . . . . . . . . *, 52
Endomorfismo. Morfismo cuyo dominio ycodominio coinciden . . . . . . . . . . . . . . . . . . . . . 13
Entension lineal de una funcion. Extensionque es transformacion lineal. Si la funciontiene como dominio una base, entonces laextension lineal existe y es unica . . . . . . . . 82
Entrada de una matriz.Coordenada de unaNMada . . . . . . . . . . . . 45
Epimorfismo. Morfismo sobreyectivo . . . 13Escalar. Elemento del cam
po (¡la escala!) sobre el cual esta definido elespacio vectorial . . . . . . . . . . . . . . . . . . . . . 39, 40
Espacio cociente. SiE es un subespacio de F entonces, el espacio cociente F/E es el conjunto de todos lossubespacios afines paralelos a E dotado conla suma de subespacios afines y el productode subespacios afines por escalares . . 67, 96
Espacio de columnas. El espacio generadopor las columnas de una matriz . . . . . . . . .125
Espacio de renglones. El espacio generadopor los renglones de una matriz . . . . . . . . .125
Espacio vectorial. Grupo abelianocon un producto por escalares distributivo,asociativo y con neutro. . . 41, 58, 65, 67, 79
Extension de una funcion.Si f es una restriccion de g entonces g esuna extension de f . . . . . . . . . . . . . . . . . . . . . . . . 81
Factor de un polinomio. Divisor de grado almenos 1 de un polinomio . . . . . . . . . . . . . . . . 23
Factor propio.Factor monico diferente al polinomio . . . 25
Forma polar de un complejo.Es la expresion r (cosϕ+ i sinϕ) donde res el modulo de z y ϕ es el argumento de
189for – hom
z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28Formula multinomial. Formu
la para expandir la nsima potencia de unasuma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Fraccion. Pareja de elementos de un dominiode integridad (por ejemploK (x) o Z) que sedenota por a/b. Dos fracciones a/b y c/dse consideran iguales si ad = bc . . . . . 34, 8
Funcion. Informalmente es una reglao procedimiento mediante el cual para cadaelemento de un conjunto a podemos obtener(calcular) otro unico elemento f (a) de otroconjunto y que llamamos la imagen de amediante la funcion f. Formalmente, unafuncion f : A→ B es un subconjunto delproducto cartesiano f ⊆ A× B que cumpleque para cualquier a ∈ A existe una unicapareja (a, b) ∈ f. . . . . . . . . . . . . . . . . . . . . . . . . . . *
Funcion antipodal. La funcion x 7→ −x . 76Funcion biyectiva. Funcion inyectiva. y
sobreyectiva . . . . . . . . . . . . . . . . . . . . .*, 105, 114Funcion continua. Funcion continua en todos
los puntos de su dominio. . . . . . . . . . . . . . . . . 29Funcion continua en un punto. La fun
cion f es continua en z0 si ∀ε > 0 ∃δ tal quekz− z0k < δ⇒ kf (z)− f (z0)k < ε . . . 29
Funcion de evaluacion.De un polinomio p (x) es la funcion:
p : K 3 b 7→ p (b) ∈ K. . . . . . . 23Funcion identidad. La que a todo elemento
le corresponde el mismo . . . . . . . . . . . . . . . . . 76Funcion inversa. La inversa de una
funcion f : A→ B es una funcion g tal quef g = IB y g f = IA . Una funcion tieneinversa si y solo si esta es biyectiva. . . *, 56
Funcion inyectiva. Cada elemento de laimagen tiene una unica preimagen. . . . *, 94
Funcion nula. La que a todo elemento lecorresponde el cero . . . . . . . . . . . . . . . . . . . . . . 76
Funcion racional.Fraccion de dos polinomios . . . . . . . . . . . . . . 36
Funcion sobreyectiva. Funcion tal que suimagen coincide con su codominio . . . *, 95
Funcional. Funcion de un espacio vectorial
en su campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . .118Funcional bilineal.
Funcional lineal en sus dos variables . . .118Funcional lineal.
Funcional que es una TL . . . . . . . . . . . . . . . .118Funcional lineal en una variable.
Funcion de muchas variables con imagenesen un campo que para cualesquiera valoresfijos de las demas variables determina unfuncional lineal de la variable que se trata. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .118
Funcional multilineal.Funcional lineal en todas sus variables .118
Grado de un polinomio. La potencia mayor de la variable con coeficiente diferentede cero. Si el grado es cero el polinomio esun elemento del campo. No esta definido elgrado del polinomio cero . . . . . . . . . . . . . . . . 22
Grupo. Conjunto con una operacion binaria asociativa que tiene elementoneutro y en el cual todo elemento tiene inverso . . . . . . . . . . . . . . 7, 11, 13, 16, 68, 81, 105
Grupo abeliano. Grupo en el cual laoperacion es conmutativa . . . . . . . . . . . . . . . . . 7
Grupo alternante.El subgrupo (del grupo simetrico) de todaslas permutaciones pares . . . . . . . . . . . . . . . . .108
Grupo general lineal. El grupo de automorfismos de un espacio vectorial. El grupode operadores lineales no singulares . . . . . 81
Grupo simetrico.El grupo de todas las permutaciones con laoperacion de composicion . . . . . . . . . . . . . .105
hbase. Conjunto hindependiente yhgenerador. Todo OL h tiene hbases .155
hcerradura. Conjunto de todas lashcombinaciones . . . . . . . . . . . . . . . . . . . . . . . .153
hcombinacion. Vector dela forma ph (v1) + qh (v2) + · · ·+ rh (vn)donde p, q, ..., r son polinomios . . . . . . . .152
hgenerador. Conjunto de vectores quehgenera a todo el espacio . . . . . . . . . . . . . .154
Homotecia. Transformacionlineal que consiste en la multiplicacion por
190 ide – mat
un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76Ideal. Subconjunto I de un anillo A tal que
1. ∀p, q ∈ I p+ q ∈ I,2. ∀p ∈ I ∀r ∈ A rp ∈ I . . . . . . . . . . . . . 24
Ideal principal. Ideal formado por todos losmultiplos de un polinomio . . . . . . . . . . . . . . . 24
Idempotencia. Propiedad de una funcion queconsiste en que f f = f2 = f . . . . . . . . . . . 48
Igualdad de Moivre. Formula para calcularla nesima potencia de un numero complejoen forma polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
Imagen de un elemento. (vease: Funcion) . *Imagen de una funcion. El conjunto de los
elementos del codominio que tienen algunapreimagen. Se denota por Im f . . . . . . . . *, 93
Imagen de una matriz.La imagen de su transformacion lineal.Su espacio de columnas . . . . . . . . . . . . . . . . .131
Infimo.El maximo de las cotas superiores . . . . *, 32
Infimo de un conjunto de reales.El numero maximo x tal que x ≤ a paracualquier a ∈ A. Para el ınfimo x de Asiempre existe una sucesion ak de elementos de A cuyo lımite es x . . . . . . . . . . . . . . . . . 32
Inmersion. Restriccion de la funcionidentidad a un subconjunto . . . . . . . . . . 77, 94
Inverso. De un elemento a para la operacionbinaria es un elemento b que cumple quea b = b a = e para cualquier elemento a del conjunto en el cual esta definida laoperacion. Si un elemento tiene inverso entonces este es unico. En los anillos y camposes el inverso para el producto . . . . . . . . . . . . . 5
Isomorfismo. Morfismo biyectivo. La inversa de cualquier isomorfismo estambien un isomorfismo . . . . . . . . . . . . . 12, 62
Isomorfismo canonico. Isomorfismo cuya construccion no depende de escoger algo(una base, un complementario, etc.) . 62, 68
Isomorfismo de espacios vectoriales.Transformacion lineal biyectiva . . . . . 56, 83
Isomorfismo lineal.Isomorfismo de espacios vectoriales . . . . . 56
Lımite de una sucesion.La sucesion zk tiene lımite z si ∀ε > 0 ∃Ntal que ∀k > N kzk − zk < ε . . . . . . . . . . . . 30
Matriz. Es unaNMada o sea un conjuntoindexado por dos conjuntos . . . . . . . . . . . . . . 45
Matriz acompanante de un polinomio.Matriz cuadrada cuya ultima columna es elvector de coeficientes del polinomio, la paralela inferior a la diagonal contiene unos ytodas las demas entradas son cero. . . . . . .155
Matriz ampliada.Del sistemaAx = b es la matriz (A|b) .130
Matriz cuadrada. Matriz con la mismacantidad de columnas y renglones . .115, 89
Matriz de cambio de base.Escogidas dos bases V y N de un espaciovectorial la matriz αNV cuyas columnas sonlos coeficientes de las expresiones de la base V como combinacion lineal de la baseN.O sea, para cualquier v ∈ V se cumple quev =
Pi∈N αivi. Si βV son las coordenadas
de un vector en la base V entonces αNVβVson las coordenadas del mismo vector en labaseN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
Matriz de permutacion. La matrizque se obtiene al permutar las columnas olos renglones de la matriz identidad. Matrizque tiene exactamente un 1 en cada renglony columna y todas las demas entradas soncero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .114
Matriz de una transformacion lineal.Escogidas una base N en el dominio y otraM en el codominio de una TL f la matrizαMN cuyas columnas son los coeficientesde las expresiones de las imagenes de la baseN como combinacion lineal de la baseM.O sea, para cualquier j ∈ N se cumple quef (j) =
Pi∈M αiji . . . . . . . . . . . . . . . 87, 84, 90
Matriz del sistema. La matriz A del sistemade ecuaciones lineales Ax = b . . . . . . . . .129
Matriz diagonal. Matriz αMM en la cual sii 6= j entonces, αij = 0 . . . . . . . . . . . . . . . . .123
Matriz diagonal por bloques. Matriz αMMen la cual hay una particion del conjunto de
191mat – nuc
ındicesM1 ∪ · · · ∪Mt =M y que αij = 0si i y j pertenecen a bloques diferentes .123
Matriz identidad.La matriz INN cuyas entradas son el deltade Kronecker: unos en la diagonal y cerosen el resto de las entradas. La matriz de latransformacion lineal identidad . . . . .88, 110
Matriz inversa. La matriz cuadrada αMNes la inversa de βNM si βNMαMN = INNy αMNβNM = IMM . Si ambos N yM sonfinitos entonces, basta comprobar una de lasdos igualdades. Una matriz cuadrada tieneinversa si y solo si su determinante es diferente de cero. . . . . . . . . . . . . . 88, 120, 125, 135
Matriz singular. Matriz cuadrada condeterminante igual a cero . . . . 115, 125, 129
Matriz triangular.Matriz triangular por bloques en la cual cadabloque es de cardinalidad 1 . . . . . . . . . . . . .123
Matriz triangular inferior. Matriz αMMen la cual M = 1, . . . ,m y tal que en surepresentacion grafica todas las entradas porencima de la diagonal son cero . . . . . . . . .123
Matriz triangular por bloques. Matriz αMMen la cual hay una particion del conjunto deındicesM1 ∪ · · · ∪Mt =M y que αij = 0si i ∈Mp , j ∈Mq y p < q . . . . . . . . . . . .123
Matriz triangular superior. Matriz αMMen la cual M = 1, . . . ,m y tal que en surepresentacion grafica todas las entradas pordebajo de la diagonal son cero . . . . . . . . . .123
Maximo. El maximo deun subconjunto A de un conjunto ordenadoB es una cota superior que pertenece aA. Siexiste entonces, el maximo es unico . . . . . . *
Mınimo. El mınimo deun subconjunto A de un conjunto ordenadoB es una cota inferior que pertenece a A. Siexiste entonces, el mınimo es unico . . *, 32
Modulo de un complejo. La longitud delvector
−→0z en el plano complejo . . . . . . . . . . 28
Monomorfismo. Morfismo inyectivo . . . 13Monotonıa. Propiedad de una
funcion de un conjunto ordenado a otro que
consiste en que x ≤ y⇒ f (x) ≤ f (y) . . 48Morfismo. Es una funcion f : A→ B que
cumple que f (x y) = f (x) • f (y) donde es una operacion definida en A y • es unaoperacion definida en B . . . . . . . . . . . . . . 10, 55
Morfismo de algebras. TL que conmuta conel producto y preserva el 1 . . . . . . . . . . . . . .141
Morfismo de anillos.Funcion entre dos anillos que es morfismopara la suma y para el producto . . . . . . . . . . 11
Morfismo de campos.Funcion entre dos campos que es morfismopara la suma y para el producto . . . . . . . . . . 11
Morfismo de espacios vectoriales.Funcion f de un espacio vectorial a otro sobre el mismo campo que es un morfismo delos grupos abelianos de vectores y que cumple f (αa) = αf (a) para cualquier vectora y cualquier escalar α . . . . . . . . . . . . . . . . . . 56
Morfismo de grupos.Morfismo cuyo dominio y codominios songrupos . . . . . . . . . . . . . . . . . . . . . . . . . 11, 105, 114
Multiplicidad de una raız. El elemento delcampo α es una raız de multiplicidad n delpolinomio p si n es el mayor natural tal quep es un multiplo de (x− α)n . . . . . . . . . . . . 23
Multiplo. Para dos elementos p yq de un anillo con division se dice que p esun multiplo de q si ∃c tal que p = cq . . . 23
nada. Elemento (a1, a2, ..., an) delproducto cartesiano An . . . . . . . . . . . . . . . . . . 41
Nada. Funcion en una notaciondiferente, αN : N 3 i→ αi ∈ A. AN se lellama el conjunto de ındices y a las αi se lellaman coordenadas . . . . . . . . . . . . . . . . . . 43, 86
Neutro.De una operacion binaria es un elemento eque cumple que ae = ea = a para cualquier a del conjunto en el cual esta definidala operacion. Si una operacion tiene neutroentonces este es unico . . . . . . . . . . . . . . . . . . . . . 4
Nucleo de un morfismo. El el casode grupos la preimagen del neutro. Para anillos y espacios vectoriales la preimagen del
192 nuc – pro
cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93Nucleo de un polinomio.
La coleccion de sus raices. Cada raız aparece tantas veces como su multiplicidad . . . 23
Nucleo de una matriz. El nucleo de sutransformacion lineal. El conjunto solucionde un sistema de ecuaciones con vector decoeficientes libres igual a cero . . . . . . . . . .131
Nucleo de una TL. La preimagen del cero 93Nucleo trivial. Nucleo igual a 0 . . . . . 94OL. Acronimo de operador lineal . . . . . 80Operacion binaria.
Funcion mediante la cual para cualesquierados elementos a y b de un conjunto A podemos encontrar otro elemento de A que esel resultado de la operacion . . . . . . . . . . . . . . . 2
Operador cıclico. OL h tal que todo elespacio es hcıclico . . . . . . . . . . . . . . . . . . . . .154
Operador diagonalizable. OLtal que existe una base en la cual su matrizes diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .171
Operador irreducible. OL que no se puededecomponer como suma directa . . . . . . . .139
Operador lineal. Transformacion lineal de unespacio en si mismo . . . . . . . . . . . . . . . . . . . . . . 80
Operador radical. OL cuyo polinomiomınimo (o caracterıstico) es potencia de unpolinomio irreducible . . . . . . . . . . . . . . . . . . .148
Operador singular. OL no biyectivo . . . 81Operador triangulable. OL
tal que existe una base ordenada en la cualsu matriz es triangular. . . . . . . . . . . . . . . . . . .171
Opuesto. El inverso de un elemento de unanillo o campo respecto a la suma . . . . . . . . 7
Orbita de una permutacion. Clasede equivalencia de la relacion (a ∼ b) ⇔(a = σn (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . .106
Orden de un ciclo. El numero de elementosque un ciclo no deja fijos. . . . . . . . . . . . . . . .106
Orden de una matriz.El numero de renglones y columnas de unamatriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . .115
Perıodo de un conjunto de vectores.El generador del anulador del conjunto de
vectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .144Perıodo de un vector. El polinomio
monico p mas pequeno tal que ph (a) = 0.El generador del anulador del vector . . .143
Permutacion. Biyeccion de un conjunto finitoen si mismo . . . . . . . . . . . . . . . . . . . . . . . 105, 114
Permutacion de las columnas. Esla operacion en que una permutacion ω sele aplica a las columnas de una matriz αMNpara obtener la matriz βMN = αMω(N) quecumple que βij = αiω−1 (j) . . . . . . . . . . . . .112
Permutacion de los renglones . Esla operacion en que una permutacion ω sele aplica a los renglones de una matriz αMNpara obtener la matriz βMN = αω(M)N quecumple que βij = αω−1 (i)j . . . . . . . . . . . . .112
Permutacion impar. Permutacionque se descompone en la composicion de unnumero impar de transposiciones . . . . . . .108
Permutacion par. Permutacionque se descompone en la composicion de unnumero par de transposiciones . . . . . . . . . .108
Plano.Subespacio afın de dimension dos . . . 66, 47
Polinomio. Expresionformal
Pni=0 aix
i donde los coeficientes aison elementos de un campo . . . . . . . . . . . . . . 22
Polinomio caracterıstico. El polinomiodet (xI− h). Es un multiplo del polinomiomınimo y tiene los mismos factores irreducibles que el polinomio mınimo . . . . . . . .169
Polinomio irreducible. Polinomio monico degrado al menos 1 sin factores propios . . . 25
Polinomio mınimo. El polinomio monico maspequeno que anula un OL. El generador delanulador del operador . . . . . . . . . . . . . . . . . . .143
Polinomio monico. Polinomio cuyocoeficiente principal es 1 . . . . . . . . . . . . . . . . . 25
Preimagen de un elemento.Sea b un elemento del codominio de f. Lapreimagen de b es el conjunto de todos x endominio tales que f (x) = b. . . . . . . . . . . *, 93
Producto de matrices.Si αMN y βNL son dos matrices entonces
193pro – sub
γML = αMNβN,L es la matriz cuyas entradas son los productos escalares canonicosγij = αiNβNj de los renglones de αMN porlas columnas de βNL . . . . . . . . . . . . . . . .85, 113
Producto de un escalar por una funcion.Si en el codominio de f esta definido un producto por escalares entonces λf es la funcion tal que (λf) (a) = f (λa) . . . . . . . . . . . 78
Producto de un vector por una matriz. Esla combinacion lineal de los renglones de lamatriz cuyos coeficientes son las coordenadas del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Producto de una matriz por un vector. Esla combinacion lineal de las columnas de lamatriz cuyos coeficientes son las coordenadas del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Producto escalar. Producto bilineal de dosvectores cuyo resultado es un escalar . . . . 85
Producto escalar canonico.Producto escalar definido en KN como:αNβN =
Pi∈N αiβi . . . . . . . . . . . . . . . . . . . . 85
Proyeccion. Si C = A× B entonces,la funcion f : c = (a, b) 7→ a se le llamaproyeccion de C aA a lo largo de B. En particular, nosotros la usamos en el caso de queE = F⊕G (¡la suma directa es un productocartesiano!). En este caso las proyeccionesson TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77, 94
Punto. Subespacio afın de dimension cero 66Raız de un polinomio. Elemento del
campo en el cual la funcion de evaluaciondel polinomio toma valor cero . . . . . . . . . . . 23
Rango de una matriz. El orden de sus bases.La dimension de su espacio de columnas.La dimension de su espacio de renglones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .127
Recta.Subespacio afın de dimension uno. . . 66, 47
Regla del tablero de ajedrez. Regla mediantela cual se hallan los signos de los cofactoresde una matriz en forma grafica. El signo delcofactor de αij es (−1)i+j . . . . . . . . . . . . . .117
Relacion antisimetrica.Si a ≈ b y b ≈ a entonces, a = b . . . . . . . *
Relacion de equivalencia. Relacionsimetrica, reexiva y transitiva. . . . . . . . *, 66
Relacion de orden. Relacion antisimetrica,reexiva y transitiva . . . . . . . . . . . . . . *, 72, 126
Relacion en un conjunto. Subconjunto delproducto cartesiano A×A = A2 . . . . . . . . *
Relacion reexiva.Para todo a se tiene a ≈ a . . . . . . . . . . . . . . . . *
Relacion simetrica. (a ≈ b)⇒ (b ≈ a) . *Relacion transitiva.
Si a ≈ b y b ≈ c entonces, b ≈ a . . . . . . . *Renglon de una matriz. Dada una matriz
αNM e i ∈ N a la Mada αiM (i esta fijo, los elementos de M varıan) se le llamaiesimo renglon de la matriz αNM . . 45, 85
Resto. Al efectuar la division con restode un elemento p de un anillo conmutativo(Z, K [x]) entre otro q obtenemos la igualdad p = cq + r. Al elemento r se le llamaresto de la division de p entre q . . . . . 23, 14
Restriccion de una funcion.Una funcion f : A0 → B se le llama restriccion de g : A→ B si A0 ⊆ A y para cualquier a ∈ A0 se cumple f (a) = g (a) . . . 81
Serie. Expresion formal deltipo
P∞i=0 aix
i. A los elementos del campoai se le llaman coeficientes de la serie. . . 42
Signo de una permutacion.Funcion que a cada permutacion le hace corresponder 1 si esta es par y −1 si esta esimpar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .108
Sistema de ecuaciones lineales.Ecuacion Ax = b donde la matriz A yel vector b son conocidos y el vector x esincognito . . . . . . . . . . . . . . . . . . . . . . . . . . . .128, 95
Soporte. De una funcion f esel conjunto de elementos del dominio cuyaimagen es diferente de cero. De una Nadaes el conjunto de ındices cuyas coordenadasson diferentes de cero. De una combinacionlineal es el conjunto de sumandos con coeficiente diferente de cero . . . . . . . . . . 43, 47, 58
Subalgebra. Subespacio vectorialque contiene al 1 y en el cual el producto es
194 sub – tra
interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .141Subanillo. Subconjunto de un anillo que
es un anillo para las mismas operaciones delanillo mas grande . . . . . . . . . . . . . . . . . . . . . . . . 16
Subcampo. Subconjunto deun campo que es un campo para las mismasoperaciones del campo mas grande . . 16, 44
Subespacio. Subconjuntode un espacio vectorial que es a su vez espacio vectorial para las mismas operacionesque las de todo el espacio . . . . 46, 59, 63, 93
Subespacio afın.Traslacion de un subespacio . . . . . 66, 78, 97
Subespacio generado. Cerradura lineal . . 48Subespacio hcıclico. Subespacio hgenerado
por un solo vector . . . . . . . . . . . . . . . . . . . . . . .154Subespacio hgenerado. La hcerradura de
un conjunto de vectores . . . . . . . . . . . . . . . . .154Subespacio invariante. Subespacio
donde esta bien definida la restriccion de unOL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .138
Subespacio radical. Subespacio invariante enel cual el operador es radical . . . . . . . . . . . .149
Subespacios afines paralelos.Dos subespacios afines son paralelos si unoes traslacion del otro . . . . . . . . . . . . . . . . . . . . . 66
Subespacios complementarios.Dos subespacios cuya suma es todo elespacio y cuya interseccion es el origen. . . . . . . . . . . . . . . . . . . . . . . . 63, 65, 67, 77, 94
Subgrupo. Subconjuntode un grupo que es un grupo para la mismaoperacion del grupo mas grande . . . . . . . . . 16
Submatriz. Dada una matriz αNM a cualquiermatriz αN0M0 tal queN0 ⊆ N yM0 ⊆M sele llama submatriz de αNM . . . . . . . . .45, 126
Sucesion. Elemento (a0, a1, ..., an, ...) delconjunto AN de funciones f : N→ A . . . 42
Sucesion acotada.La sucesion zk es acotada si existe un realM tal que ∀k kzkk ≤M . . . . . . . . . . . . . . . . . 30
Sucesion convergente.Una sucesion que tiene lımite . . . . . . . . . . . . 30
Suma de conjuntos.
Si A y B son conjuntos y entre sus elementos hay una operacion de suma entonces:A+ B = a+ b | a ∈ A y b ∈ B . . . . . . 60
Suma de funciones.Si en el codominio mutuo de f y g esta definida una suma entonces f + g es la funciontal que (λ+ g) (a) = f (a) + g (a) . . . . . 79
Suma directa de espacios. El producto cartesiano de los subespacios con la sumadefinida por coordenadas y tambien el producto por escalares. Si la interseccion de dossubespacios tiene dimension cero entonces,la suma directa de ellos es canonicamenteisomorfa a la suma . . . . . . . . . . . . . . . . . . . . . . . 62
Suma directa de OL. OLdefinido por coordenadas en la suma directade espacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .137
Supremo. El mınimo de las cotas inferiores *Tensor de exponente n. Un conjunto
indexado por n conjuntos de ındices . . . . 45Tipo de una descomposicion. Sih = f1⊕ · · ·⊕fn es una descomposicion deh entonces, su tipo es la sucesion de los polinomios mınimos de f1, . . . , fn . Dos tiposson iguales si uno se puede obtener del otroreordenando la sucesion. En el tipo puedenhaber polinomios iguales . . . . . . . . . . . . . . .158
TL. Acronimo de transformacion lineal . . 75Transformacion elemental. Una trans
formacion elemental de los renglones de unamatriz consiste en sumarle a un reglon otromultiplicado por un escalar. Analogamentese definen las transformaciones elementalesde las columnas . . . . . . . . . . . . . . . . . . . . . . . . .132
Transformacion lineal. Morfismo deespacios vectoriales . . . . . . . . . . . . . . 56, 75, 82
Transformacion lineal de una matriz.Dada la matriz αMN es la funcion:KN 3 βN → αMNβN ∈ KM . . . . . . . . . . . 86
Transformacion semilineal. Funcion de unespacio vectorial a otro que es morfismo para la suma y que cumple que f (λx) = λf (x)
para cierto automorfismo λ 7→ λ del campode escalares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
195tra – vec
Transposicion. Ciclo de orden dos . . . .107Transpuesta. Matriz que se obtiene de otra
intercambiando los subındices de sus entradas, o sea si A = αNM y AT = B = βMNentonces αij = βji . . . . . . . . . . . . . . . . . . . . . .111
Traslacion de un conjunto de vectores.SiA es un conjunto de vectores y x otro vector entoncesA+ x es la traslacion de A conel vector x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Valor propio. Escalar tal que para cierto vector propio a se tiene que h (a)= λa.Raız del polinomio caracterıstico . . . . . . .168
Vector. Elemento de un espacio vectorial. EnRn son los segmentos dirigidos del origen aun punto del espacio . . . . . . . . . . . . . . . . . 39, 40
Vector columna.Matriz con una sola columna . . . . . . . . . . . . 86
Vector de coeficientes libres. Elvector b del sistema de ecuaciones linealesAx = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .129
Vector propio. Vector a tal que la recta haies invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . .168
Vector renglon.Matriz con un solo renglon . . . . . . . . . . . . . . 86
196
∀ Para todo.∃ Existe.∃! Existe y es unico.P⇒ Q Si P entoncesQ.
P implicaQ.P es suficiente paraQ.
P⇐ Q P solo si Q.P es necesario paraQ.
P⇔ Q P si y solo siQ.P yQ son equivalentes.P es necesario y suficiente paraQ.
b ∈ B b pertenece a B.B 3 b B contiene a b.A ⊆ B A es subconjunto de B.A ⊇ B A es sobreconjunto de B.A Ã B A es subconjunto propio de B.
O sea, A ⊆ B y A 6= B.A ! B A es sobreconjunto propio de B.
O sea, A ⊇ B y A 6= B.A∪B La union de A y B.A∩B La interseccion de A y B.A\B La resta de conjuntos. El conjunto
de los elementos de A que no pertenecen a B.
A×B El producto cartesiano de dos conjuntos. El conjunto de todas las parejas (a, b) con a ∈ A y b ∈ B.
2A El conjunto de todos los subconjuntos del conjuntoA. El conjuntode todas las funciones
f : A→ 0, 1.An El producto cartesiano de A con
sigo mismo n veces. El conjuntode todos las nadas (a1, . . . , an)donde todos los ai estan en A.
AN El conjunto de todas las funcionesf : N → A. El conjunto de todoslas Nadas aN donde ∀i ∈ N elelemento ai pertenece aA. SiN =1, . . . , n entonces AN = An.
0 El vector cero. El origen de coordenadas.
0 Cero es elemento neutro para lasuma de un anillo o campo.
1 Uno es el elemento neutro para elproducto de un anillo o campo.
−1 Menos uno es el opuesto de 1 enun anillo o campo.
INN Matriz identidad.I La funcion identidad. La permuta
cion identidadO La funcion nula. La matriz nulaℵ0 El cardinal de N.
K Un campo arbitrario.Kn El espacio de las nadas.KN El espacio de lasNadas.K [x] El algebra de polinomios en la va
riable x con coeficientes en K.K [[x]] El algebra de series en la variable
x con coeficientes en K.K (x) El campo de funciones racionales
en x con coeficientes en K.
N El conjunto de los naturales.Z El anillo de los enteros.Zn El anillo de restos modulo n.
Para n primo Zn es un campo.Q El campo de los racionales.R El campo de los reales.C El campo de los complejos.SN El grupo simetrico deN.
198 Notaciones
AN El grupo alternante deN.A−N Las permutaciones impares deN.
f : A→ B
Una funcion que tiene dominio Ay codominio B.
f : A 3 a 7→ f (a) ∈ BUsada para denotar funciones concretas por ejemplo,
f : R 3 a 7→ a2 ∈ R+es la funcion con dominio R y codominioR+ que a cada real le hacecorresponder su cuadrado.
pmodq El resto de la division de p entreq. Esta bien definido en cualquieranillo con division. Por ejemplo,en los numeros enteros y en lospolinomios con coeficientes en uncampo.
n! El factorial del naturaln. Se definecomo n! = 1× 2× · · · × n.
|A| El cardinal del conjunto A. Puedeser finito o infinito.
kzk El modulo del numero complejo z.hNi La cerradura lineal de N. El con
junto de todas las combinacioneslineales deN.
lım zk El lımite de la sucesion zk.dimE La dimension de E.sgnπ El signo de la permutacion π.detA El determinante de la matriz A.Im f La imagen de la funcion f.ker f El nucleo del morfismo f.
A+B La suma de dos conjuntos de vec
tores.λA El producto de un escalar por un
conjunto de vectores.A+x El conjunto de vectores A trasla
dado mediante el vector x. Si A esun subespacio entonces, es un subespacio afın.
E⊕F La suma directa de dos espacios.Si E y F son subespacios que seintersectan solo en el origen entonces es canonicamente isomorfa a lasuma de E y F.
αMN Una matriz cuyos renglones estanindexados por M y cuyas columnas estan indexadas porN.
αij La entrada αij de una matriz αMN .αiN El iesimo renglon de la matriz
αNM .αMj La jesima columna de la matriz
αNM .αMω(N) Si ω es una permutacion de N,
es la matriz αMN cuyas columnasestan permutadas mediante ω. Siω : N→ L es una biyeccion, es lamatriz cuyas columnas estan indexadas por Lmediante el cambio deındices ω.
αω(M)N Lo mismo que el anterior pero para los renglones
α∗ij El cofactor de la entradaαij de unamatriz cuadrada.
A∗ La matriz de cofactores de A.AT La matriz transpuesta de A.(A|b) La matriz ampliada del sistema
Ax = b.
199Notaciones
Alfabeto gotico
A B C D E F G H I J K L MA B C D E F G H I J K L M
N O P Q R S T U V W X Y ZN O P Q R S T U V W X Y Z
a b c d e f g h i j k l ma b c d e f g h i j k l m
n o p q r s t u v w x y zn o p q r s t u v w x y z
Alfabeto caligrafico
A B C D E F G H I J K L MA B C D E F G H I J K L M
N O P Q R S T U V W X Y ZN O P Q R S T U V W X Y Z
Alfabeto griego
A B Γ ∆ E Z H Θ I
α β γ δ ² ε ζ η θ ϑ ι
alfa beta gamma delta epsilon zeta eta zita iota
K Λ M N Ξ O Π P Σ
κ κ λ µ ν ξ o π ρ σ
kappa lamda mu nu xi omicron pi ro sigma
T Υ Φ X Ψ Ω
τ υ φ ϕ χ ψ ω
tau upsilon fi chi psi omega
200
Capıtulo 1
1. Defina los siguientes conceptos:• Operacion binaria.• Propiedad conmutativa.• Propiedad asociativa.• Propiedad distributiva.• Elemento neutro.• Elemento inverso.
2. En cualquier campo 0x = 0.3. Defina los siguientes conceptos:• Grupo y grupo abeliano.• Anillo y anillo conmutativo.• Campo.
4. Defina los morfismos.5. Los morfismos preservan las operaciones bi
narias.6. Los morfismos preservan la conmutatividad.7. Los morfismos preservan la asociatividad.8. Los morfismos preservan el neutro.9. Los morfismos preservan el inverso.10. Los morfismos preservan la distributividad.11. La inversa de un isomorfismo es un isomor
fismo.12. Defina la suma y el producto en Zn .13. (Zn,+, •) es un anillo conmutativo.14. Todo campo es un dominio de integridad.15. Zn es un dominio de integridad si y solo sin es primo.
16. Todo dominio de integridad finito es uncampo.
17. Definicion de subcampo.18. Definicion de campo primo19. Todo campoK contiene un unico subcampo
primo que esta contenido en cualquier subcampo de K.
20. Q es un campo primo.
21. Los campos Zp son primos.22. Teorema de Clasificacion de Campos Pri
mos.23. Defina la caracterıstica de un campo.24. En un campo de caracterıstica t para cual
quier elemento x se cumple que tx = 0 .25. Demuestre la formula del binomio de New
ton en base a la formula multinomial.
Capıtulo 2
1. Definicion de espacio vectorial.2. ¿Que es una nada? ¿Que es una Nada?
¿Cual es su conjunto de ındices? ¿ Que sonsus coordenadas?
3. ¿Que es una NMmatriz? ¿Que es una entrada, renglon, columna?
4. Definicion de subespacio.5. Los subespacios son los conjuntos cerrados
para la suma y el producto por escalares.6. La union de subespacios no es un subespa
cio.7. La interseccion de subespacios es un subes
pacio.8. Definicion de combinacion lineal y sus co
eficientes.9. El conjunto de todas las combinaciones li
neales de un conjunto de vectores es un subespacio.
10. Los siguientes tres conjuntos de vectores coinciden:• El conjunto de todas las combinacioneslineales deN.• La interseccion de todos los subespaciosque contienen aN.• El subespacio mas pequeno que contieneaN.
11. Propiedades basicas de la cerradura lineal:
202 Guıa de estudio
• incremento,• monotonıa,• idempotencia.
12. Todo sobreconjunto de un conjunto generador es generador.
13. Teorema de caracterizacion de conjuntos LI.14. Todo subconjunto de un conjunto LI es LI.15. Lema de aumento de un conjunto LI.16. Teorema de caracterizacion de bases.17. Teorema de existencia de bases.18. Propiedad del cambio de las bases.19. Dos bases cualesquiera de un espacio vecto
rial tienen el mismo cardinal.20. Si E es un subespacio de F y dimE =
dimF <∞ entonces, E = F.21. Describa las bases canonicas de los espacios
vectoriales KN y K [x].22. La inversa de un isomorfismo lineal es un
isomorfismo lineal.23. Un isomorfismo transforma conjuntos LI en
conjuntos LI, conjuntos generadores en conjuntos generadores y bases en bases.
24. Describa el isomorfismo de coordinatizacion en una base.
25. Dos espacios vectoriales sobre un mismocampo son isomorfos si y solo si tienen lamisma dimension.
26. Todo espacio vectorial finito dimensional esisomorfo a Kn .
27. El numero de elementos en un campo finitoes potencia de un numero primo.
28. hE ∪ Fi = a+ b | a ∈ E, b ∈ F29. La igualdad modular (incluye la demostra
cion del lema).30. Si E y F son subespacios tales que E ∩ F =0 entonces la funcion
E⊕ F 3 (a,b) 7→ a+ b ∈ E + Fes un isomorfismo de espacios vectoriales.
31. Que es un isomorfismo canonico. Demuestre que E ⊕ F y F ⊕ E son canonicamenteisomorfos.
32. Todo subespacio tiene complementario.33. Si E y F son dos subespacios complemen
tarios entonces cada vector x se expresa de
forma unica como x = a+ b donde a ∈ Ey b ∈ F.
34. Defina los subespacios afines.35. ¿Que es el paralelismo de subespacios afi
nes?36. Todo subespacio afın es paralelo a un solo
subespacio vectorial.37. Dos diferentes subespacios afines paralelos
no se intersectan38. ¿Que es el espacio cociente? ¿Cuales son
sus operaciones?39. Cualquier subespacio complementario a E
intersecta al subespacio afın (E + x) en unsolo punto.
40.D/E es canonicamente isomorfo a cualquiercomplementario de E.
Capıtulo 3
1. Definicion de transformacion lineal.2. Toda TL transforma subespacios en subes
pacios.3. Toda TL de un espacio de dimension 1 es
una homotecia.4. Definicion de proyeccion. Toda proyeccion
es una TL.5. El producto de un escalar por una TL es una
TL.6. La suma de dos TLs es una TL.7. La composicion de TLs es una TL.8. Propiedades de la composicion de TLs: aso
ciatividad, distributividad y conmutatividadcon el producto por escalares.
9. Definicion de Algebra. De tres ejemplos dealgebras. ¿Que es el grupo general lineal?
10. Las extensiones lineales son TLs.11. Las TLs estan predeterminadas por sus va
lores en una base.12. Si N es una base de E entonces, la funcion
que a cada TL h ∈ Hom (E,F) le hace corresponder su restriccion hN ∈ FN es unisomorfismo de espacios vectoriales.
13. Una TL es un isomorfismo si y solo si su restriccion a una base es inyectiva y la imagende esta restriccion es una base.
203Guıa de estudio
14. Propiedades del producto escalar canonicodeNadas conmutatividad, distributividad yconmutatividad con el producto por escalares.
15. Definicion del producto de matrices.16. ¿Cual es la TL definida por una matriz?.
¿Cual es la matriz de una TL?17. La matriz de la composicion de dos TLs es
igual al producto de las matrices de las TLs.18. Defina las matrices de cambio de base.19. La Nada de las coordenadas de un vector
en la base nueva se obtiene multiplicando lamatriz de cambio de base por la Vada de lascoordenadas del vector en la base vieja.
20. Sea f : E→ F una TL. Sean B y C matricesde cambio de base en E y F respectivamente. Si A es la matriz de f en las bases viejasentonces CAB−1 es la matriz de f en las bases nuevas.
21. Propiedades principales de la transpuesta deuna matriz.
22. Defina la transpuesta de una TL.23. La transpuesta de una inmersion es una pro
yeccion.24. Definicion de nucleo e imagen de una TL.25. La imagen y el nucleo son subespacios.26. Una TL es injectiva si y solo si su nucleo es
trivial.27. Si K es un subespacio complementario a
ker f entonces, la restriccion de f a K es inyectiva.
28. Pruebe que dim Im f = dim Im fT y quedim ker f = dimker fT.
29. Sean E y F dos espacios tales que dimE =dimF < ∞. Una TL de E a F es inyectivasi y solo si es sobreyectiva.
30. Los subespacios afines paralelos a ker f sonprecisamente los conjuntos de vectores enque la TL f es constante.
Capıtulo 4
1. Si |M| = |N| entonces, los grupos simetricos SM y SN son isomorfos.
2. El numero de permutaciones de un conjunto
con n elementos es n!.3. Que son las orbitas de una permutacion.4. La restriccion de una permutacion a una
orbita es un ciclo.5. Definicion de permutaciones pares e impa
res. Definicion del signo.6. La composicion de una permutacion con
una transposicion cambia la paridad de lapermutacion.
7. Toda permutacion es composicion de transposiciones.
8. Pruebe que sgn (π ρ) = sgnπ sgnρ y quesgnπ−1 = sgnπ.
9. Definicion de determinante de una matriz.Regla del triangulo para los determinantesde orden 3.
10. El determinante de la matriz identidad es 1.11. Si una matriz tiene una columna o un ren
glon nulo entonces, su determinante es cero.12. El determinante no se altera al transponer
una matriz.13. Si una matriz tiene dos columnas iguales en
tonces, su determinante es cero.14. Al permutar las columnas o los renglones de
una matriz con la permutacionω el determinante se altera por un factor igual a sgnω.
15. Si φ y ϕ son dos cambios de ındices de NenM entonces, se cumple la igualdad:detαMφ(N) = sgn
¡φ ϕ−1
¢detαMϕ(N).
16. Definicion de matriz no singular.17. Definicion de cofactores de una entrada de
una matriz. Pruebe que los cofactores no dependen del cambio de ındices usado paracalcular el determinante.
18. Teorema de expansion de Laplace.19. Definicion de funcional multilineal20. El determinante es un funcional multilineal
de los renglones.21. detA−1 = (detA)−1.22. A−1 = A∗T / detA.23. El determinante de un OL no depende de la
base que se use para calcularlo.24. Enuncie la expansion generalizada de La
place
204 Guıa de estudio
25. El determinante de una matriz triangular porbloques es igual al producto de los determinantes de sus bloques.
26. Enuncie la caracterizacion de matrices nosingulares.
27. Las dimensiones del espacio de columnas ydel espacio de renglones de una matriz coinciden.
28. Lema de aumento de submatrices no singulares.
29. Caracterizacion de las bases de una matriz30. Regla de Cramer.31. Teorema de existencia de soluciones.32. Lema de eliminacion de ecuaciones depen
dientes.
33. Describa el procedimiento general de solucion de los sistemas de ecuaciones lineales.
34. Las transformaciones elementales no cambian los determinantes.
35. Las transformaciones elementales de losrenglones de la matriz ampliada no cambianel subespacio afın solucion de un sistema deecuaciones lineales.
36. Resuelva un sistema de ecuaciones linealespor el metodo de Gauss.
37. Encuentre la inversa de una matriz por elmetodo de eliminacion de Gauss
Capıtulo 5