Algebra Lineal

214
´ Algebra Lineal Jorge Luis Arocha versi´ on compilada el 25 de abril de 2011

Transcript of Algebra Lineal

Page 1: Algebra Lineal

Algebra Lineal

Jorge Luis Arocha

version compilada el

25 de abril de 2011

Page 2: Algebra Lineal

Jorge Luis Arocha PerezInstituto de MatematicasUniversidad Nacional Autonoma de MexicoMexico D.F. 04510

BibTeX:

@textbookArochaLAAUTHOR = Arocha, Jorge L.

TITLE = \’Algebra LinealYEAR = 2011NOTE = Available at combinatoria.matem.unam.mx

Mathematics Subject Classification 2000: 00–01, 12–01, 15–01

c°2011 Jorge Luis Arocha PerezPermitida la reproduccion para uso individual y no comercial.Todos los demas derechos estan reservados.

Page 3: Algebra Lineal

IntroduccionEste libro lo escribı como texto basico para el curso de “Algebra Lineal” para estudiantes

de Licenciatura que he impartido por muchos anos en la Facultad de Ciencias de la Univer­sidad Nacional Autonoma de Mexico.

Se presupone que los estudiantes hayan cursado ya las materias de “Algebra superior” y“Geometrıa Analıtica” o sea tengan ciertos conocimientos sobre matrices, vectores, polino­mios, numeros complejos, etc.

El objetivo es desarrollar el algebra lineal sobre campos arbitrarios pero se hace enfasisen los reales, los complejos y los residuos modulo un numero primo. Despues de una intro­duccion corta a la teorıa de campos se estudian los espacios vectoriales, las transformacioneslineales, los determinantes y finalmente los teoremas de descomposicion de operadores.

Por ahora, este libro no contiene practicamente nada de transformaciones bilineales, pro­ductos escalares, espacios duales, ortogonalidad, tensores etc. En mis planes esta escribiruna segunda parte o aumentar este libro con capıtulos sobre estos temas.

El material que comprende este libro es demasiado para un semestre y usualmente yoimparto en un semestre de los capıtulos I—IV aquellas secciones que no estan marcadascomo avanzadas. Un segundo semestre podrıa comenzar con las secciones de polinomios so­bre campos, continuar con la descomposicion de operadores lineales y terminar con aquellostemas que ya senale, faltan aquı. Otras secciones las escribı porque me parecieron un buenmaterial de lectura complementaria para los alumnos curiosos.

Este libro es inusualmente colorido y visualmente agresivo. La razon de esto es quecuando estaba en el papel de alumno yo preferıa estudiar por las libretas de notas de miscompaneras de clase. Se me hacıa muy facil memorizar la imagen completa de una paginallena de rayas, ores, corazones etc. y dentro de todo esto, las matematicas. La idea es quecada pagina luzca visualmente diferente. He tratado dentro de lo posible, lograr esto.

Los caracteres de matematicas estan en un color diferente. El texto y las secciones avan­zadas estan marcados con un birrete. Uso unos lentes para marcar aquello que el lector nodebe dejar pasar. Errores comunas que cometen los que no estan familiarizados con el mate­rial estan marcados con calaveras. Los teoremas estan resaltados visualmente, etc.

Se incluyen mas de un centenar de ejercicios. Los ejercicios mas notables consisten enmaterial adicional que un estudiante de matematicas o fısica debe conocer tarde o temprano.Las soluciones de los ejercicios no rutinarios se dan al final del libro.

He compilado un glosario de terminos que es a la vez un ındice del libro y un diccionariode los conceptos introducidos y/o usados.

Finalmente, incluyo una guıa de estudio. De esta guıa yo escojo las preguntas para losexamenes. Esto representa una ventaja enorme para los estudiantes ya que una de las dificul­tades mas importantes de ser estudiante es comprender que es lo que se espera de ellos.

Jorge ArochaMexico D.F. Diciembre de 2010

Page 4: Algebra Lineal

IV

Page 5: Algebra Lineal

Capıtulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (4).Distributividad (5). El algebra “abstracta”(5).

1.2 Numeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (7). Reales (8). Com­plejos (9).

1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composi­cion de morfismos (13).

1.4 Campos de restos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13El anillo de los enteros modulo n (14). Dominios de integridad (14). El campo de losenteros modulo p (15).

1.5 Campos primos. Caracterıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16Campos primos (16). Caracterıstica (18).

1.6 Aritmetica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18Multiplos y exponentes enteros (18). Asociatividad general (19). Distributividad gene­ral (19). Formula multinomial (19). La expansion de ΠΣαij (21).

*1.7 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21Suma y producto de polinomios (22). Division de polinomios (22). Factores y raices(23). Ideales de polinomios (24). Unicidad de la factorizacion en irreducibles. (25).Desarrollo de Taylor (26).

*1.8 Polinomios complejos. Teorema de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27Forma polar. Igualdad de Moivre (27). Continuidad (29). Lımite de sucesiones com­plejas (30). Teorema de Gauss (31).

*1.9 Factorizacion de polinomios complejos y reales . . . . . . . . . . . . . . . . . . . . . . . . 32Caso Complejo (32). Caso real (33).

*1.10 Campos de fracciones. Funciones racionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34Campos de fracciones (34). Funciones racionales (36).

*1.11 Anillos con division . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36Quaterniones (37). Caso finito (38).

Capıtulo 2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.1 El plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.2 Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

El espacio de n­adas Kn (41). El espacio de polinomios K [x] (42). El espacio desucesiones KN (42). El espacio de series K [[x]] (42). El espacio de funciones KN(42). El espacio de N­adas KN (43). El espacio de N­adas con soporte finito KN(43). Subcampos (44). El espacio deN­adas de vectores EN (44). El espacio de NM­matrices KNM (44). El espacio de tensores (45).

Page 6: Algebra Lineal

VI Contenido

2.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46Union e interseccion de subespacios (46). Combinaciones lineales (47). Cerradura li­neal (48).

2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49Conjuntos generadores (49). Conjuntos linealmente independientes (50). Bases (51).Dimension (52). Bases canonicas (54).

2.5 Clasificacion de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55Isomorfismos lineales (55). Coordinatizacion (57). Clasificacion (57). Campos de Ga­lois (58). Como pensar en espacios vectoriales (58).

2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59Subespacios de Rn (59). Suma de conjuntos y subespacios (60). La igualdad modular(61). Suma directa (62). Isomorfismo canonico entre la suma y la suma directa. (62).Subespacios complementarios (63). Espacios vectoriales versus conjuntos (64).

2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65Subespacios afines (65). El espacio cociente (66). El isomorfismo con los complemen­tarios (67).

*2.8 El espacio afın. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68La regla del paralelogramo (69). Cerradura afın (69). Generadores e independencia(70). Bases afines (70).

*2.9 El caso de dimension infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72El Lema de Zorn (72). Existencia de bases (72). Cardinales (73). Equicardinalidad delas bases (73).

Capıtulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

3.1 Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75Imagenes de subespacios (75). Homotecias (76). Inmersiones (77). Proyecciones (77).

3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78El espacio vectorial de las transformaciones lineales (78). Composicion de transfor­maciones lineales (79). El algebra de operadores lineales (80). El grupo general lineal(81).

3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81Extensiones y restricciones (81). El isomorfismo entre FN y Mor (E,F) (82). Un cri­terio de isomorfismo (83).

3.4 Coordinatizacion de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 83El producto escalar canonico (85). El producto de matrices (85). Productos de matri­ces y vectores (86). La transformacion lineal de una matriz (86). La matriz de unatransformacion lineal (87). Composicion de TLs y producto de matrices (87). Matricesinversas (88).

3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89Cambios de base en un espacio vectorial (89). Cambios de base en el espacio de trans­formaciones lineales (90). Cambios de base en el espacio de operadores lineales (91).La transformacion lineal tanspuesta (92).

3.6 El nucleo y la imagen de una transformacion lineal . . . . . . . . . . . . . . . . . . . . . 93Definiciones (93). Transformaciones lineales con nucleo trivial (94). Descomposicionde transformaciones lineales (94). La descomposicion de la transpuesta (95). Un crite­rio de isomorfismo (95). Descomposicion canonica de transformaciones lineales (96).

Page 7: Algebra Lineal

VIIContenido

*3.7 Trasformaciones semilineales y coalineaciones . . . . . . . . . . . . . . . . . . . . . . . . . 97Trasformaciones semilineales reales (97). Propiedades de las transformaciones semili­neales (98). Automorfismos semilineales. (98). Coalineaciones (99). Estructura de lascoalineaciones (100).

Capıtulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105El grupo simetrico (105). Ciclos (106). El grupo alternante (107). El signo de unapermutacion (108).

4.2 Propiedades basicas de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108Definicion de los determinantes (109). Determinantes de matrices pequenas (109). Eldeterminante de la identidad (110). Matrices con filas nulas (111). El determinantede la transpuesta (111). Matrices con filas iguales (111). Permutaciones de columnas yrenglones (112). El determinante del producto (112). Matrices de permutaciones (113).

4.3 Expansion de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114Cambios de ındices (114). Complementos algebraicos (116). La expansion de un de­terminante por sus renglones (116). La expansion de Laplace en forma grafica (117).Multinearidad de los determinantes (118). La inversa de una matriz (119). El determi­nante de un operador lineal (121).

*4.4 La expansion generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121Matrices diagonales y triangulares por bloques (122). La expansion generalizada deLaplace en forma grafica (123).

4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125Matrices no singulares (125). Espacios de columnas y renglones (125). Lema de au­mento de matrices no singulares (126). Bases de una matriz (126).

4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127Regla de Cramer (128). Existencia de soluciones (129). Eliminacion de ecuacionesdependientes (130). El nucleo y la imagen de una matriz (131). Bases del subespacioafın de soluciones (131).

4.7 Metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132Transformaciones elementales (132). Ejemplo (133). El caso general (133). Solucionde ecuaciones matriciales, matriz inversa (134).

Capıtulo 5 Descomposicion de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

5.1 Suma directa de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137Subespacios invariantes, componentes irreducibles (138). Ejemplos en dimension 2(139). Las matrices y los subespacios invariantes (140).

5.2 Polinomios de operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141El morfismo deK [x] en End (E) (141). La subalgebraK [h] (142). El polinomio mıni­mo (142). El perıodo de un vector (143). Anuladores (144). Nucleos de polinomios deoperadores lineales (144). Conjuntos de vectores y polinomios (145).

5.3 Subespacios radicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146Operadores lineales radicales (147). Componentes radicales (148). Existencia de unvector de perıodo maximo (149).

5.4 El espacio cociente por un subespacio invariante . . . . . . . . . . . . . . . . . . . . . . . 150Polinomios y el espacio cociente (151).

Page 8: Algebra Lineal

VIII Contenido

5.5 Subespacios cıclicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152Conjuntos h­generadores (153). Conjuntos h­independientes (154). h­bases (155).

5.6 Descomposicion en subespacios cıclicos radicales. . . . . . . . . . . . . . . . . . . . . . 156

5.7 Estructura de los operadores cıclicos radicales . . . . . . . . . . . . . . . . . . . . . . . . . . 161Subespacios invariantes (161). Formas canonicas (162). ∇ = 1 (165). ∇ = 2 (165).Usando la base canonica (167).

5.8 Polinomio caracterıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168Rectas invariantes (168). El polinomio caracterıstico de un operador lineal (168). Elpolinomio caracterıstico y el polinomio mınimo (169).

Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

Guıa de estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

Page 9: Algebra Lineal

IX

El algebra es la oferta hecha por el Diablo a los matematicos.El Diablo dice:

“Yo te dare a ti esta poderosa maquinariaque respondera cualquier pregunta que tu quieras.

Todo lo que se necesita que tu hagas es entregarme tu alma:dame la geometrıa y tendras esta maravillosa maquina”

... el dano a nuestra alma esta ahı,porque cuando usted pasa a hacer calculos algebraicos,

esencialmente usted deja de pensar ...

Sir Michael Atiyah

Page 10: Algebra Lineal

X

Page 11: Algebra Lineal

CamposCapítulo primeroCapítulo primero

l objeto del algebra lineal es el estudio de los espacios vectoriales. Estos espacios sonestructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares.Las operaciones definidas en los espacios vectoriales son la suma y resta de vectores,

la suma resta multiplicacion y division de escalares y la multiplicacion de escalares porvectores. La mayorıa de los temas estudiados en este libro no dependen del conjunto deescalares y el lector puede casi siempre considerar que los escalares son los reales R y queel espacio vectorial es el espacio “geometrico” comun Rn.

Sin embargo, como esta teorıa no depende (al menos en gran parte) del conjunto deescalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matematicas ylas ciencias naturales) es conveniente elevar un paso el nivel de abstraccion y pensar que elconjunto de escalares es un campo arbitrario K .

El primer objetivo de este capıtulo es dar al lector un conocimiento basico de lo que esun campo. Esto se pretende lograr por tres medios: dando la definicion formal, estudiandoalgunas propiedades (como la caracterıstica) de los mismos, viendo que las reglas usuales demanipulacion de formulas en un campo no se diferencian esencialmente de las formulas enlos reales y sobre todo, dando los ejemplos fundamentales de campos.

Posteriormente, estudiaremos las principales propiedades de los polinomios con coefi­cientes en un campo. En particular, los teoremas de descomposicion en factores de polino­mios complejos y reales seran fundamentales para, en un capıtulo posterior, desarrollar ladescomposicion de Jordan de operadores lineales.

1.1 Operaciones binarias

SeaA un conjunto. Una operacion binaria es una funcion del producto cartesianoA×Aen A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A se le hacecorresponder un tercer elemento de A. Demos algunos ejemplos sencillos:

1) a+ b suma 5) ab exponenciacion2) a− b resta 6) loga b logaritmo3) ab producto 7) mcd (a, b) max comun divisor4) a

bdivision 8) mcm (a, b) mın comun multiplo

Page 12: Algebra Lineal

2 Capıtulo 1. Campos

Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cualconjunto esta definida la operacion. Esto no es correcto formalmente, ası por ejemplo ladivision es una operacion que no esta definida en el conjunto de los numeros enteros. Sinembargo el lector podra facilmente encontrar los conjuntos en los cuales estos ejemplos sonoperaciones binarias.

Ejercicio 1 ¿En cuales conjuntos las operaciones 1­8 estan correctamente definidas? [173]Ejercicio 2 ¿Que es una operacion unaria? De ejemplos. [173]Ejercicio 3 Dados tres numeros reales a, b, c definamos A (a, b, c) como el area del trian­gulo con lados a, b y c. ¿Es esta una operacion ternaria en R? [173]

Lo segundo que debemos de observar, es la variedad de notaciones usadas para represen­tar las operaciones binarias. Sobre todo, son complicadas las notaciones de la operaciones4­6. Lo que tienen en comun, es que no nos alcanza una lınea de sımbolos para escribirlas.Necesitamos subir y/o bajar ademas de movernos de derecha a izquierda. O sea, necesitamosdos dimensiones para escribirlas.

Quiza sea mas ilustrativo, poner un ejemplo mas complejoπ/4R0

¡a sin x+ b sin x

2

¢dx

de notacion dos dimensional. La integral en el recuadro a laderecha esta bien definida para cualesquiera valores reales a, by por lo tanto es una operacion binaria definida en R.

Mas sencillos son los ejemplos de notaciones lineales 1­3,7­8. En realidad, para las no­taciones lineales solo hay tres posibilidades:

(a, b) notacion prefija o funcionala b notacion operacional(a, b) notacion sufija

Las operaciones 1­3 estan en notacion operacional y las operaciones 7­8 estan en nota­cion prejija. La notacion sufija es util sobre todo en la programacion de compiladores paralenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo mas faciles decirle a una computadora “toma el numero a” , “toma el numero b” ,“sumalos” y nohacerlo de otra manera.

Ejercicio 4 La notacion sufija para a (b+ c) /2 es bc + a × 2÷ . ¿Cual sera la notacionsufija para la expresion (a+ b) (x+ y)? [173]

Cualquier intento, de tratar de unificar las notaciones usadas en la comunicacion entrehumanos, solo llevarıa a confusiones mucho peores. Sin embargo, tenemos la libertad de es­coger una notacion unificada para las operaciones binarias abstractas que definamos. De unavez, postularemos que siempre usaremos la notacion operacional para definir operacionesbinarias abstractas.

Page 13: Algebra Lineal

3Seccion 1.1 Operaciones binarias

Recalquemos que una operacion “abstracta” no significa nada mas que es una operacionque puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2. Despues,tempranamente en el estudio de las matematicas, la expresion a+b significa que a un numeroa (no se sabe cual) le sumamos un numero b (tampoco se sabe cual). Ahora, la expresion a+b significara que a un objeto a (numero, polinomio, matriz , quien sabe que) le “sumamos”(no se sabe lo que quiere decir “suma”) un objeto b (del que tampoco se sabe mucho).

Conmutatividad

¿Es 3 + 2 igual a 2 + 3? Si. ¿Es 32 igual a 23? No. Una operacion binaria∀a, b ∈ Aa b = b a

denotada por y definida en el conjunto A se dice que es conmutativa sise cumple la propiedad en el recuadro a la izquierda. Ser o no conmutativa

es la propiedad mas sencilla que diferencia las operaciones binarias.

Ejercicio 5 ¿Cuales de las operaciones 1­9 son conmutativas? [173]

Asociatividad

¿Que quiere decir 2+3+5? ¿Acaso debemos sumar 2+3 y al resultado sumarle 5? ¿Nosera que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna diferenciaentre los dos procedimientos. Este hecho se expresa como (2+ 3) + 5 = 2+ (3+ 5) .

Una operacion binaria denotada por y definida en el con­∀a, b, c ∈ Aa (b c) = (a b) c

junto A se dice que es asociativa si se cumple la propiedad enel recuadro de la derecha.

Los estudiantes preuniversitarios se encuentran por primeravez con la dificultad de una operacion no asociativa en el caso de la operacion de exponen­ciacion. A esta temprana edad es muy necesario insistir que la expresion 22

3

es ambigua

porque 2(23) = 256 6= 64 =

¡22¢3

.

Ejercicio 6 ¿Cuales de las operaciones 1­9 son asociativas? [173]

La asociatividad de una operacion es una propiedad crucial. Sin esta propiedad, el manejoalgebraico de una operacion se complica bastante.

Es mas, gracias a ella podemos introducir la notacion de la operacion “re­11Pn=1

anpetida”. Si tenemos 11 elementos a1, a2, . . . , a11 entonces, para denotar la sumaa1+a2+ · · ·+a11 podemos usar la notacion (mucho mas comoda) que se muestraen el recuadro a la derecha. Esta notacion no requiere de la conmutatividad de laoperacion “suma” gracias a que los ındices tienen un orden y sabemos cual elemento debe irprimero y cual despues.

Si tenemos que la operacion es no solamente asociativa sino tambien conmutativa enton­ces podemos ser mas generosos con esta notacion.

Page 14: Algebra Lineal

4 Capıtulo 1. Campos

Supongamos que aρ, a`, aκ, a9 y a∇ son elementos de un conjunto con una sumaPn∈N

an asociativa y conmutativa. Entonces la suma de estos (¡no importa el orden!) lapodemos denotar por la expresion en el recuadro a la izquierda, donde N es el

conjunto de ındices ρ,κ, `,∇, 9.Si la operacion binaria definida no se llama “suma” sino “producto”, entonces es usual,

en lugar de usar la letra griegaP

(sigma mayuscula), usar la letra griegaQ

(pi mayuscula).Podemos, en este caso, usar la primera o segunda notacion dependendiendo de si nuestroproducto es conmutativo o no.

Elementos neutros

La suma de numeros naturales tiene un elemento especial y unico: el cero. Su propie­dad definitoria es que cualquier numero sumado con cero da el mismo numero. La mismapropiedad la tiene el uno con respecto al producto de numeros naturales.

Para una operacion binaria denotada por y definida en el con­ ∀a ∈ Aa e = e a = ajunto A se dice que e ∈ A es un elemento neutro si este cumple la

propiedad en el recuadro.Una operacion binaria no puede tener mas de un elemento neutro. Efectivamente, sean

e y e0 elementos neutros. Por ser e neutro, tenemos e e0 = e0. Por ser e0 neutro, tenemose e0 = e. De estas dos igualdades obtenemos e = e0.

Ejercicio 7 ¿Cuales de las operaciones 1­9 tienen neutro? [173]

Los elementos neutros juegan un papel importante en las notaciones para operaciones

Qi∈Nai •

Qi∈M

ai =Q

i∈N∪Mai

repetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean ademas Ny M dos conjuntos finitos de ındices disjuntos. Naturalmen­te, de la definicion se sigue la propiedad del recuadro a laizquierda.

Pero ¿que pasa si alguno de los conjuntos de ındices (digamosM) es vacıo? Si queremosque esta propiedad se conserve entonces observamos queY

i∈Nai •

Yi∈∅

ai =Yi∈N∪∅

ai =Yi∈N

ai

por lo que necesariamenteQ

i∈∅ ai tiene que ser el elemento neutro de nuestra operacion (sino hay neutro entonces estamos en problemas).

Es por esto, como el lector seguramente ya sabe, que la suma vacıa de numeros es iguala cero y el producto vacıo de numeros es igual a uno.

Elementos inversos

Para cada numero entero a hay un unico numero −a tal que sumado con a da cero. Ge­

a b = b a = e

neralizemos esta propiedad a operaciones binarias arbitrarias. Sea una operacion binaria enel conjuntoA con elemento neutro. Se dice que a ∈ A tiene elementoinverso b si se cumple la propiedad en el recuadro a la izquierda.

Page 15: Algebra Lineal

5Seccion 1.1 Operaciones binarias

Para cualquier operacion binaria asociativa el elemento inverso de otro es unico. Efecti­vamente si b y c son inversos de a entonces b = be = b(a c) = (b a)c = ec = co sea que b y c tienen que ser el mismo.

Ejercicio 8 Describa los inversos en las operaciones 1­9. [174]

Distributividad

Frecuentemente nos encontramos con conjuntos en los cuales hay mas de una operacionbinaria definida. El ejemplo mas sencillo son los naturales en los que sabemos sumar y sabe­mos multiplicar. Estas dos operaciones estan relacionadas con la propiedad de que podemossacar factor comun o sea ax+ ay = a (x+ y).

Sean y ¦ dos operaciones binarias definidas en el ∀a, b, c ∈ Aa ¦ (b c) = (a ¦ b) (a ¦ c)(b c) ¦ a = (b ¦ a) (c ¦ a)

conjunto A. Se dice que la operacion ¦ es distributivarespecto a la operacion si se cumple la propiedad en elrecuadro.

Que ¦ sea distributiva respecto a no es lo mismo que sea distributiva respecto a¦. Por ejemplo, en los naturales el producto es distributivo con respecto a la suma:a (b+ c) = (ab) + (ac) y sin embargo, la suma de naturales no es distributiva

respecto al producto: a+ (bc) 6= (a+ b) (a+ c).

Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivasuna con respecto a la otra. [174]

El algebra “abstracta”

Filosoficamente, el concepto de “abstraccion” es la propiedad, que tiene el pensamientohumano, de que podemos fijarnos solamente en ciertas propiedades “esenciales” de un objetoo fenomeno, y olvidarnos de las restantes.

La abstraccion es imprescindible para el lenguaje. El concepto “silla” nos permite reco­nocer una silla, independientemente si esta es de madera, de hierro, plastica, grande, comoda,con tres, cuatro o cinco patas etc. Casi cada palabra del espanol (y de cualquier idioma) re­presenta un concepto abstracto, sea esta verbo, sustantivo o adjetivo.

La ciencia lleva este nivel de abtraccion a un nivel aun mayor. Parte de este conoci­miento cientıfico, pasa al conocimiento publico. Baste recordar conceptos como: velocidad,volumen, higiene, ADN, penicilina, electron, metal, colesterol, triangulo, etc. Algunos de losmencionados, son muy antiguos, otros surgieron hace muy poco. Sin embargo, la mayorıade estos conocimientos queda solamente en manos de los especialistas en la materia.

Con las matematicas pasa igual. No hace falta saber que la suma de naturales es unaoperacion binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto de

Page 16: Algebra Lineal

6 Capıtulo 1. Campos

“operacion” y que estas operaciones pueden cumplir o no ciertas propiedades es relativa­mente “nuevo”.

En la primera mitad del siglo XX, progresivamente, la comunidad matematica se fue dan­do cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstrac­tas. Tanto fue el entusiasmo, que muchos, en un principio, le llamaron a esta forma de pensar“Algebra moderna”. Otros aun mas entusiastas, mas frıvolos y con muchas ganas de vendersus libros le llamaron “Matematica moderna”. En la actualidad este lenguaje es parte in­trınseca e indivisible del pensamiento en matematicas y cualquier calificacion de “moderna”suena muy tonta.

Otros, por otro lado, prefierieron referirse a esta forma de pensar como “Algebra abstrac­ta”. Esto, en mi opinion, aunque mas moderado, tampoco tiene ningun sentido. Toda algebraes abstracta, de hecho, todas las matematicas son abstractas. Estoy convencido de que, eltiempo se encargara de acabar con todos estos calificativos.

1.2 Numeros

En esta seccion repasaremos los principales tipos de numeros que el lector ya conoce:naturales, enteros, racionales, reales y complejos. Esto nos dara la posibilidad de introducirlas definiciones mas basicas del algebra: grupos, anillos y campos.

Naturales

Hay una frase famosa que dice “Dios hizo los naturalesab = a+ ...+ a| z

b veces

= b+ ...+ b| z a veces

y el hombre todo lo demas”. El conjunto de los numerosnaturalesN = 0, 1, 2, ... es el conjunto de los cardinales

de los conjuntos finitos. En N hay dos operaciones binarias bien definidas: la suma y elproducto. De hecho, el producto es una operacion derivada de la suma y la suma solo sepuede definir en terminos de conjuntos. Por ejemplo, a+ b es el cardinal de la union de dosconjuntos finitos y disjuntos uno de cardinal a y otro de cardinal b.

Como la union de conjuntos es asociativa tambien lo es la suma de naturales. De ladefinicion se obtiene que el producto de naturales tambien es asociativo. Tanto la suma comoel producto son conmutativos. La suma tiene elemento neutro 0 y el producto tiene elementoneutro 1. El producto es distributivo respecto a la suma.

Enteros

Ningun elemento de N salvo el cero tiene inverso para

−b+ a = c⇔ a = b+ c

−b+ (−a) = − (a+ b)

la suma. Para lograr la existencia de inversos inventamos losnumeros negativos Z− = −1,−2,−3, ... y en el conjuntoZ = N ∪ Z− de los numeros enteros definimos la suma comola operacion conmutativa definida por las propiedades en elrecuadro a la derecha.

Page 17: Algebra Lineal

7Seccion 1.2 Numeros

Grupos

Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada elemento

G1) la operacion es asociativaG2) tiene elemento neutroG3) todo elemento tiene inverso

tiene inverso. O sea los enteros dan el primer ejemplode grupo. A un conjunto no vacıo con una operacion bi­naria se le llama grupo si se cumplen los tres axiomas

G1­G3. A los grupos cuya operacion esconmutativa se les llama abelianos en honor al matematico noruego NielsHenrik Abel (1802­1829). Abel fue el que resolvio el problema algebraicomas importante de su epoca. Demostro, que no existen formulas en radicalespara resolver las ecuaciones polinomiales de grado 5 o mayor (a diferenciade las ecuaciones de grado ≤ 4 para las cuales si hay formulas generales).Al momento de encontrar esta demostracion, el problema ya duraba variossiglos sin resolverse. Abel murio a los 26 anos a causa de una neumonıa.

Anillos

La operacion de producto de naturales se extiende facilmente ala (−b) = − (ab)

(−a)b = − (ab)(−a) (−b) = ab

conjunto de los enteros mediante las reglas en el recuadro. Nuevamenteel producto es asociativo,conmutativo y distributivo con respecto a lasuma. O sea los enteros tambien dan el primer ejemplo de anillo.

Un conjunto A no vacıo con dos operaciones bi­A1) (A,+) es un grupo abelianoA2) • es asociativaA3) • es distributiva con respecto a +A4) • tiene elemento neutro

narias + y • se le llama anillo si se cumplen losaxiomas en el recuadro a la izquierda. Si el anilloes tal que la operacion • es conmutativa entoncesse dice que tenemos un anillo conmutativo.

En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro para elproducto se le llama uno y se denota por 1. Al inverso de un elemento con respecto a la sumade un elemento se le llama su opuesto. Al inverso con respecto al producto de un elementose le llama inverso multiplicativo o simplemente inverso a secas.

Observemos que si a es un elemento de un anillo entonces a • 0+ a = a • (0+ 1) = ay debido a la unicidad del 0 obtenemos que a • 0 = 0. De la misma manera vemos que0 • a = 0. Si 1 = 0 entonces, a = 1 • a = 0 • a = 0 por lo que el anillo consta de unsolo elemento. Para descartar esta trivialidad supondremos siempre que 1 6= 0. De aquı sedesprende que 0 no puede tener inverso ya que 0 = a • 0 = 1 es una contradiccion.

En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de a.Como 1 × 1 = 1 tenemos 1−1 = 1. Tambien (−1)−1 = −1 ya que si a = −1 entonces0 = a (a+ 1) = aa+ a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todo anillo1 y −1 tienen inversos. En Z ningun elemento salvo 1 y −1 tiene inverso.

Normalmente en la definicion de anillo no se pide el axioma A4. En este caso, a los anillos quetienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo nounitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar, para nosotrostodos los anillos son unitarios.

Page 18: Algebra Lineal

8 Capıtulo 1. Campos

Racionales

Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio­

a

b=c

d⇔ a • d = c • b

nes y con ellas el conjunto de numeros racionales Q. Una fraccion es un par ordenado denumeros enteros denotado por a/b donde b 6= 0. Dos fraccio­nes son iguales cuando se cumple la igualdad en el recuadro.Los numeros racionales Q son las fracciones con la relacion de

igualdad ası definida. Los enteros son parte de los racionales por cuanto podemos identificarcada numero entero a ∈ Z con la fraccion a/1.

La suma y el producto de numeros racionales se definen pora

b+c

d=a • d+ c • b

b • da

b• cd=a • cb • d

las igualdades en el recuadro. Nuevamente los racionales con lasuma forman un grupo abeliano y otra vez el producto es aso­ciativo, conmutativo, tiene elemento neutro y es distributivo conrespecto a la suma. La diferencia es que ahora todo elemento di­ferente de cero tiene inverso multiplicativo. O sea los racionalesnos dan el primer ejemplo de campo.

Un conjunto K no vacıo con dos operaciones bi­C1) (K,+) es un grupo abelianoC2) (K\0, •) es un grupo abelianoC3) • es distributiva con respecto a +

narias + y • se le llama campo si se cumplen lostres axiomas C1­C3. En otras palabras un campoes un anillo conmutativo en la cual todo elementodiferente de cero tiene inverso multiplicativo.

Ejercicio 10 Si es una operacion en A entonces, en A2 esta definida la operacion porcoordenadas (x, y) (x0, y0) = (x x0, y y0). Pruebe que si (A, ) es un grupo entonces¡A2,

¢es un grupo, si (A,+, •) es un anilloentonces,

¡A2,+, •

¢es tambien un anillo.

Ejercicio 11 Sea (K,+, •) un campo. Como K es un anillo conmutativo entonces, por elejercicio anterior,

¡K2,+, •

¢tambien es un anillo conmutativo. ¿Sera K2 un campo? [174]

Reales

Dicen que cuando Pitagoras (Samos 569­475 A.C.) descubrio que

1

1

√2

√2 6= p

q

la longitud de la hipotenusa de un triangulo rectangulo con cate­tos de longitud uno no es un numero racionalquedo horrorizado. A nosotros nos parece estouna exageracion. Sin embargo, si nos ponemosen el lugar de Pitagoras comprenderemos queen aquel momento era inconcebible que existannumeros que no sean cociente de dos enteros.La pintura a la izquierda es un detalle del fres­co de Rafael “La escuela de Atenas” en la cualsupuestamente, se muestra a Pitagoras.

Page 19: Algebra Lineal

9Seccion 1.2 Numeros

Sigamos a Pitagoras y probemos que efectivamente√2 no es un racional. Para esto

denotemos por kak2 el numero de veces que el natural a se divide entre 2. Tenemos√2 =

p

q⇒ °°2q2°°

2=°°p2°°

2⇒ 1 + 2 kqk2 = 2 kpk2 lo que es una contradiccion ya que un

numero impar no puede ser igual a uno par.

Ejercicio 12 Sea n un numero natural. Pruebe que√n es un natural o no es racional. [174]

Ejercicio 13 Basandose en el anterior de otra prueba de que√2 no es racional. [174]

Esto motiva la construcion de los numeros reales R. La construcion de los reales esun proceso complicado y se han descubierto muchas formas de formalizar esta construcionsiendo la mas popular la de las cortaduras de Dedekind. Para nuestros propositos basta unadefinicion menos formal y mas intuitiva: un numero real es simplemente un lımite de ra­cionales. Las propiedades de la suma y producto de racionales se traspasan facilmente a losreales usando las propiedades del lımite de sucesiones. De esta manera obtenemos nuestrocampo principal (R,+, •) . El campo de los reales se destaca porque es ordenado (siemprepodemos decidir si un numero real es mayor, menor o igual a cero) y porque es cerrado (ellımite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho deque el espacio en que vivimos es (o al menos nos parece que es) R3.

Ejercicio 14 Pruebe que la longitud de un segmento de recta es un numero real. [174]

Complejos

En 1546 Gerolamo Cardano publico su libro “Ars Magna” en el cual dio metodos (basa­dos en parte en el trabajo de otros matematicos) para el calculo de las raices de los polinomiosde grado 3 y 4. Estos metodos, a veces requerıan el extraer raices cuadradas de numeros ne­gativos, incluso cuando el resultado final era un numero real. Rafael Bombelli estudio esteasunto en detalle y es considerado como el descubridor de los numeros complejos.

Para lograr que todos los polinomios tengan raices inven­(a+ bi) + (a0 + b0i) =

(a+ a0) + (b+ b0) i

tamos el imaginario i =√−1 y definimos que un numero

complejo es algo de la forma a + bi donde a, b ∈ R. Lasuma y el producto de complejos se definen por las formulasen los recuadros a la derecha y abajo a la izquierda.

Las propiedades de la suma y el producto se desprenden in­(a+ bi) × (a0 + b0i) =

(aa0 − bb0) + (ab0 + a0b) i

mediatamente de sus definiciones y es facil comprobar que(C,+, •) es un anillo conmutativo. Para ver que es un cam­po, observamos que (a+ bi)−1 =

¡a2 + b2

¢−1(a− bi).

La principal propiedad que hace que para muchas cosas el campo C sea el mas simple esque el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de gradon > 0 con coeficientes en complejos tiene n raices complejas.

Page 20: Algebra Lineal

10 Capıtulo 1. Campos

1.3 Morfismos

En esta seccion estudiaremos las funciones entre conjuntos con operaciones binarias.

Morfismos de grupos

Sean y • operaciones binarias definidas en los conjuntos A y B respectivamente. Unafuncion f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A secumple que f (a1 a2) = f (a1) • f (a2).

Todo morfismo conserva las propiedades fundamentales de las operacionesbinarias. Mas precisamente, si f : (A, ) → (B, •) es un morfismo entonces,

1. • es una operacion binaria dentro de la imagen de f.2. Si es conmutativa entonces • es conmutativa en la imagen de f.3. Si es asociativa entonces • es asociativa en la imagen de f.4. Si e es neutro de entonces f (e) es neutro de • en la imagen de f.5. Si a0 es inverso de a en A entonces f (a0) es inverso de f (a) en B.

Prueba. Sean b1, b2 y b3 elementos cualesquiera en la imagen de f. Existen a1, a2 y a3 enA tales que f (ai) = bi para i ∈ 1, 2, 3. Como f es un morfismo, obtenemos la igualdad

b1 • b2 = f (a1) • f (a2) = f (a1 a2) (*)que prueba la primera afirmacion. Si es conmutativa entonces, usando (*) obtenemos

b1 • b2 = f (a1 a2) = f (a2 a1) = b2 • b1por lo que • es tambien conmutativa. Si es asociativa entonces, usando (*) obtenemos

(b1 • b2) • b3 = f (a1 a2) • f (a3) = f ((a1 a2) a3) == f (a1 (a2 a3)) = f (a1) • f (a2 a3) = b1 • (b2 • b3)

y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operacion entonces,b1 • f (e) = f (a1) • f (e) = f (a1 e) = f (a1) = b1f (e) • b1 = f (e) • f (a1) = f (e a1) = f (a1) = b1

por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces,f (a) • f (a0) = f (a a0) = f (e)f (a0) • f (a) = f (a0 a) = f (e)

de lo que concluimos que f (a0) es el inverso de f (a).

Ejercicio 15 Justifique todas las igualdades utilizadas en la prueba de 1.1.

¿Y porque siempre dentro de la imagen de f y no en todo B? La respuesta es que lo unicoque sabemos de B esta dado por el morfismo. Aquellos elementos de B que no tienen pre­imagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos.De aquı en lo adelante a la imagen de cualquier funcion f (y en particular de un morfismo)la denotaremos por Im f.

Page 21: Algebra Lineal

11Seccion 1.3 Morfismos

Si (A, ) es un grupo entonces (Im f, •) es un grupo.

Prueba. Por 1.1.1 • es una operacion binaria en Im f. Por 1.1.3 esta operacion es asociativa.Por 1.1.4 esta operacion tiene elemento neutro. Por 1.1.5 cada elemento b = f (a) ∈ Im ftiene su inverso f (a0) donde a0 es el inverso de a enA. Esto completa la prueba de todos losaxiomas de grupo.

Recordemos que si f : A→ B es una funcion entonces al conjuntoA se le llama dominiode f y al conjuntoB codominio de f. Si el dominio y el codominio de un morfismo son gruposentonces se dice que este es un morfismo de grupos.

Ejercicio 16 Construya un morfismo inyectivo de (R,+) en (R, •). ¿Cual es su imagen?

Morfismos de anillos

¿Y que pasa con la distributividad? ¿Tambien se conserva? El primer problema que te­nemos que resolver es que en la distributividad estan involucradas dos operaciones. Sean(A,+, •) y (B,+, •) dos conjuntos cada uno con dos operaciones binarias. Observese queestas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajarcon cuatro sımbolos diferentes ya es demasiada confusion.

Una funcion f : A→ B se le llama morfismo si para cualesquiera a1 y a2 elementos deA se cumple que f (a1 + a2) = f (a1)+ f (a2) y f (a1 • a2) = f (a1) • f (a2). Recalquemosque el “y” quiere decir que se tienen que cumplir las dos propiedades. O sea, si hay dosoperaciones entonces, se requiere que la funcion sea morfismo para cada una de ellas.

Si • es distributiva con + en A entonces,• es distributiva con + en la imagen de f.

Prueba. Sean x, y, z ∈ A tales que f (x) = a, f (y) = b y f (z) = c. Tenemosa • (b+ c) = f (x) • (f (y) + f (z)) = f (x) • f (y+ z) = f (x • (y+ z)) =

= f (x • y+ x • z) = f (x • y) + f (x • z) = f (x) • f (y) + f (x) • f (z) = a • b+ a • cy esto prueba la tesis.

Si el dominio y el codominio de un morfismo son anillos entonces se dice que este es unmorfismo de anillos. Si el dominio y el codominio de un morfismo son campos entonces sedice que este es un morfismo de campos.

Ejercicio 17 Demuestre que si (A,+, •) es un anillo y f : A→ B es un morfismo entonces,(Im f,+, •) es un anillo. Demuestre que lo mismo ocurre para los campos.

Page 22: Algebra Lineal

12 Capıtulo 1. Campos

Ejercicio 18 Pruebe que si f : A→ B es un morfismo de anillos y A es un campo entoncesf es inyectivo. En particular todo morfismo de campos es inyectivo. [174]

Isomorfismos

A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto para con­juntos con una como tambien con dos operaciones binarias. Ası que tenemos isomorfismosde grupos, de anillos y de campos. Para cada isomorfismo f existe una funcion inversa f−1.¿Cuando sera f−1 un morfismo? La respuesta es que siempre.

La inversa de un isomorfismo es un isomorfismo.

Prueba. Sea f : (A, )→ (B, •) un isomorfismo. Sean b1, b2 cualesquiera elementos de B.Denotemos a1 = f−1 (b1) y a2 = f−1 (b2). Tenemosf−1 (b1 • b2) = f−1 (f (a1) • f (a2)) = f−1 (f (a1 a2)) = a1 a2 = f−1 (b1) f−1 (b2)

que es lo que se requerıa demostrar. Si el isomorfismo involucra dos operaciones binariasentonces el mismo argumento aplicado a las dos operaciones, nos da la prueba de la tesis.

Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, )→ (B, •) es un isomorfismoentonces de que • es conmutativa implica que es conmutativa y en conclusion es conmu­tativa si y solo si • es conmutativa. Lo mismo ocurre con la asociatividad, con la existenciade neutros e inversos y para el caso de dos operaciones con la distributividad. O sea que tiene exactamente las mismas propiedades de •.

Pero no solo son operaciones parecidas sino que son en cierto sentido la misma. Paraconvencernos de esto supongamos que conocemos la operacion y conocemos el isomorfis­mo f pero no sabemos nada de la operacion •. ¿Podremos calcular b1 • b2? La respuesta essi, lo podemos calcular por la identidad b1 • b2 = f

¡f−1 (b1) f−1 (b2)

¢. Recıprocamen­

te, se define de forma unica por la operacion • y el isomorfismo f mediante la identidada1 • a2 = f−1 (f (a1) f (a2)). En conclusion ambas operaciones se definen una a otra.

Para que el lector comprenda mejor eso de que y u v

u u v

v v u

• 1 −1

1 1 −1

−1 −1 1

• son la misma operacion veamos un ejemplo. Sea A elconjunto de letras u, v y B el conjunto de los numeros1,−1. Definamos las operaciones y • mediante lastablas del recuadro a la derecha.

El lector debe observar que la segunda tabla es la tabla usual de multiplicacion de enteros.Ademas, para obtener la segunda tabla de la primera lo unico que necesitamos es cambiar por • , u por 1 y v por −1. Esto lo que quiere decir, es que la funcion u 7→ 1 , v 7→ −1 esun isomorfismo de (A, ) en (B, •). El lector puede ver que ambas tablas son en esencia lamisma, solamente que las notaciones para los elementos y la operacion estan cambiadas.

Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces sedice que ellos son isomorfos. Etimologicamente, la palabra “isomorfo” significa que “tie­

Page 23: Algebra Lineal

13Seccion 1.3 Morfismos

nen la misma forma”. En forma intuitiva, que ellos sean isomorfos quiere decir que los dosson iguales con la salvedad de que podemos cambiar las notaciones de los elementos y lasoperaciones.

Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos seles llama epimorfismos, a los injectivos se les llama monomorfismos. A los morfismos deun conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos seles llama automorfismos.

En otras ramas de las matematicas tambien se definen morfismos e isomorfismos. Sin embargo nosiempre es suficiente la biyectividad para definir los isomorfismos. Por ejemplo, en topologıa losmorfismos son las funciones continuas. Pero la inversa de una biyeccion continua no siempre es

continua. Por esto, un isomorfismo de espacios topologicos hay que definirlo como una biyeccion continuacuya inversa es continua.

Composicion de morfismos

Sean A, B y C tres conjuntos y f : A → B , g : B → C dos funciones. A la funciong f : A→ C definida por (g f) (a) = g (f (a)) se le llama la composicion de f con g. Apartir de ahora el sımbolo solo lo utilizaremos para denotar la composicion de funciones.Observese el orden en que escribimos las funciones ya que la composicion de funciones noes conmutativa.

La composicion de funciones es asociativa.

Prueba. Sean f : A → B , g : B → C y h : C → D tres funciones. Por definicion decomposicion para cualquier a ∈ A tenemos(h (g f)) (a) = h ((g f) (a)) = h (g (f (a))) = (h g) (f (a)) = ((h g) f) (a)

que es lo que se querıa probar

Ahora, supongamos que en A, B y C hay definidas operaciones binarias. Entonces f, g yg f pueden ser morfismos o no. Sin embargo, si f y g lo son entonces f g tambien lo es.

Las composiciones de morfismos son morfismos.

Prueba. Denotemos las operaciones en A,B y C con el mismo sımbolo •. Como f y gson morfismos tenemos (g f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) •g (f (b)) = (g f) (a) • (g f) (b) que es lo que se necesitaba probar.

Ejercicio 19 Pruebe que el conjunto de todos los automorfismos de un conjunto con una odos operaciones binarias es un grupo con respecto a la composicion de funciones.

Page 24: Algebra Lineal

14 Capıtulo 1. Campos

1.4 Campos de restos

Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muyconocidos por el lector. Es imprescindible, para dar una intuicion saludable de lo que es uncampo, introducir otros que no sean tan usuales. En esta seccion presentaremos ciertos cam­pos que tienen un numero finito de elementos. Para construirlos, usaremos las propiedadesde los morfismos de la seccion anterior.

El anillo de los enteros modulo n

Sea n un numero natural mayor que 1. Para un entero a la a¢ b = (a+ b)modna¡ b = (ab)modnnotacion amodn significa el resto de la division de a entre n.

O sea, el menor natural k tal que existe un entero t para loscuales a = k + tn. Por definicion amodn ∈ Zn = 0, 1, ..., n − 1 por lo que en Zn haynaturalmente definidas dos operaciones binarias como se muestra en el recuadro.

Ejercicio 20 Construya las tablas de sumar y multiplicar en Z2, Z3 y Z4.

(Zn,¢,¡) es un anillo conmutativo.

Prueba. Probemos que la funcion f : (Z,+, •)→ (Zn,¢,¡) dada por f (a) = amodn esun morfismo de anillos. Observemos que por definicion a¢b = f (a+ b) y a¡b = f (ab) .

Para cualesquiera x, y ∈ Z por definicion de f existen enteros p, q tales que x = f (x) +qn, y = f (y) + pn y por lo tanto f (x) = f (y) si y solo si x− y es multiplo de n.

Tenemos que f (x) + f (y) = x+ y− (q+ p)n y por lo tanto (f (x) + f (y))− (x+ y)es multiplo de n. Luego, f (x+ y) = f (f (x) + f (y)) o lo que es lo mismo, f (x+ y) =f (x)¢ f (y) y esto prueba que f es morfismo para la suma.

Por otro lado f (x) f (y) = (x− qn) (y− pn) = xy + (nqp− yq− xp)n y por lotanto (f (x) f (y)) − (xy) es multiplo de n. Luego, f (xy) = f (f (x) f (y)) o lo que es lomismo, f (xy) = f (x)¡ f (y) y esto prueba que f es morfismo para el producto.

Como f es sobre, (Z,+, •) es anillo conmutativo y los morfismos preservan las propie­dades de las operaciones, concluimos que (Zn,¢,¡) es tambien un anillo conmutativo.

Hemos denotado la suma y el producto en Zn con los sımbolos extranos ¢ y¡. El objetivo de esto fue el asegurarnos que en la demostracion del resultadoanterior el lector no se confundiera con la suma y el producto habitual de nume­

ros enteros. De ahora en lo adelante no haremos mas esto. La suma en Zn se denotara con elsımbolo + y el producto, con la ausencia de sımbolo alguno, o a lo mas, con un punto. Parapoder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) enque sentido estamos utilizando estas notaciones. Ası por ejemplo, 2+ 3 = 5 si la suma es lahabitual de enteros o es la de Z11 pero 2+ 3 = 1 si la suma es la de Z4.

Page 25: Algebra Lineal

15Seccion 1.4 Campos de restos

Dominios de integridad

Despues de saber que (Zn,+, ·) es un anillo conmutativo, lo natural es preguntarnos sieste es un campo, ya que lo unico que le falta a un anillo conmutativo para ser campo, es laexistencia de inversos para el producto. Veamos por ejemplo el caso de Z6. Aquı tenemos2 ·3 = 0. Que raro, el producto de dos numeros diferentes de cero es igual a cero. ¿Es posibleeso en un campo? Veremos que no.

Un anillo conmutativo se le llama dominio de integridad si el producto elementos dis­tintos de cero es siempre diferente de cero. Sabemos que Z, Q, R y C son dominios deintegridad. Tambien, ya vimos que Z6 no es dominio de integridad.

Todo campo es un dominio de integridad.

Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por elinverso multiplicativo de p obtenemos 0 = p−10 = p−1pq = q. Luego, q = 0.

Luego, Z6 no es un campo. Este ejemplo se generaliza facilmente. Sea n = pq unadescomposicion en factores no triviales (ambos diferentes a 1) de n. Sabemos que p y qestan en Zn y que pq = n = 0modn. Luego, si n es un numero compuesto (no primo)entonces, Zn no es un dominio de integridad y por lo tanto no es un campo.

El campo de los enteros modulo p

Y ¿que pasa cuando p es primo?

Zp es un dominio de integridad.

Prueba. Sean x, y ∈ 1, . . . , p− 1 . Si xy = 0 en Zp entonces xy = 0modp. Luego, en Ztenemos que xy = kp. Como p es primo entonces, p divide a x o y pero esto no puede serya que ambos son menores que p.

Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios deintegridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado.

Todo dominio de integridad finito es un campo.

Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hay quedemostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario no nulo deA. Denotemos por fa la funcion A 3 x 7→ ax ∈ A. Esta funcion es inyectiva ya que

(ax = ay)⇒ (a (x− y) = 0)⇒ (x− y = 0)⇒ x = y

Como fa es una funcion inyectiva de un conjunto finito en si mismo es tambien sobreyectiva.Luego tiene que existir b tal que fa (b) = ab = 1. Como el producto es conmutativo, estodemuestra que a tiene inverso.

Page 26: Algebra Lineal

16 Capıtulo 1. Campos

Como Zp es finito, concluimos inmediatamente que Zp es un campo si ysolo si p es un numero primo. Los campos Zp son los primeros ejemplos decampos que tienen un numero finito de elementos. A los campos finitos seles lama campos de Galois en honor al matematico frances Evariste Galois(1811­1832). Al resolver el problema de encontrar cuales ecuaciones poli­nomiales son solubles en radicales y cuales no, Galois de facto invento laTeorıa de Grupos. Galois murio a los 20 anos en un duelo provocado por

asuntos amorosos y/o polıticos. El apellido Galois se pronuncia en espanol como “galua”

Ejercicio 21 Halle los inversos de los elementos no nulos de Z5. [174]Ejercicio 22 Demuestre que todo subgrupo finito con q elementos del grupo multiplicativode un campo es isomorfo a (Zq,+) . En particular, (Zp\0, •) es isomorfo a (Zp−1,+). [175]

Ejercicio 23 Demuestre que Z211 con las operaciones (a, b) + (a0, b0) = (a+ a0, b+ b0) y(a, b) (a0, b0) = (aa0 + 7bb0, ab0 + a0b) es un campo de 121 elementos. [176]

1.5 Campos primos. Caracterıstica

Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que escampo para las mismas operaciones. Si L es un subcampo de K entonces ∀a, b ∈ L ∀c ∈L\0 se tienen que cumplir las siguientes propiedades

1. a+ b ∈ L, −a ∈ L, (L es un subgrupo aditivo)2. ab ∈ L, c−1 ∈ L, (L\0 es un subgrupo multiplicativo)

Recıprocamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de suma,opuesto, producto e inverso estan correctamente definidas dentro de L y el tiene que contenera 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K, con mas razon secumplen dentro de L. Esto indica que para comprobar si L es un subcampo basta comprobarlas propiedades 1 y 2. El ejemplo mas sencillo de esto es Q, que es subcampo R, que a suvez es subcampo de C.

El concepto de subcampo incluye las operaciones. Si por un lado podemos consi­derar a Zp = 0, 1, ..., p − 1 como subconjunto de Q, por el otro, Zp NO es unsubcampo de Q (ya que por ejemplo 2 (p− 1) = p− 2 en Zp lo que no es ciertoen Q). De la misma manera, ningun Zp es subcampo de Zq para p 6= q.

Campos primos

Todo campo es subcampo de si mismo. A los campos que no tienen ningun subcampodistinto de si mismo se les llama campos primos. Los campos primos son los mas sencillosy deduciremos cuales todos ellos.

Page 27: Algebra Lineal

17Seccion 1.5 Campos primos. Caracterıstica

Todo campo K contiene un unico subcampo primoque esta contenido en cualquier subcampo de K.

Prueba. La interseccion de una coleccion arbitraria de subcampos de K es un subcampo.Para ver esto observamos que si a y b pertenecen a todos los subcampos de la coleccionentonces a + b tambien. Por lo tanto, a + b esta en la interseccion de ellos. Lo mismoocurre para el producto, para los neutros y los inversos. En particular, si nos fijamos en lainterseccion de todos los subcampos de K, vemos que esta es un subcampo que no contienesubcampos y que esta contenida en cualquier subcampo de K.

El campo Q de los numeros racionales es primo.

Prueba. SeaK un subcampo deQ. Tenemos 1 ∈ K y por lo tanto todas las sumas 1+ ...+1y sus opuestos aditivos tienen que estar en K. Luego, todos los enteros estan en K. Tambienlos inversos multiplicativos de los numeros enteros y sus productos tienen que estar todos enK. Luego, todos los racionales estan en K.

Los campos Zp de los restos modulo un numero primo son campos primos.

Prueba. SeaK un subcampo de Zp. Tenemos 1 ∈ K y por lo tanto todas las sumas 1+...+1estan en K. Como cualquier elemento de Zp es suma de unos obtenemos que Zp ⊆ K.

Teorema de Clasificacion de Campos Primos

Los campos Zp y el campo Q son los unicos campos primos.

Prueba. Sea un K campo primo. Para un numero natural n denotemos por n =

n vecesz | 1+ ...+ 1

donde 1 es el neutro multiplicativo de K. Observese que 0 = 0. Obviamente, n es un ele­mento del campo. Denotemos por P = n ∈ K | n ∈ N . Hay dos posibilidades excluyentes

1. La aplicacion n 7→ n es una biyeccion de en N en P.2. Existen dos naturales distintos n ym tales que n =m.

En el primer caso K contiene a los naturales. Como K es un campo tambien tiene quecontener a los opuestos de los naturales, o sea a los enteros. Por la misma razon, K tieneque contener a los inversos de los enteros con lo que se prueba que los racionales son unsubcampo de K. Como K es primo obtenemos que K = Q.

En el segundo caso, sea p el natural mas pequeno para el cual existe n < p tal quen = p.Tenemos n = p⇒ p−n = p− n = 0. Si n > 0 entonces, p−n < p y ademas p− n = 0lo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0.

Page 28: Algebra Lineal

18 Capıtulo 1. Campos

Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen naturalesa, k tales que x = a+ kp y a < p. De aquı

x = a+ kp = a+ kp = a+

kp vecesz | 1+ · · ·+ 1| z

p veces

+ · · ·+ 1+ · · ·+ 1| z p veces

= a+

k vecesz | 0+ · · ·+ 0 = a

lo que muestra que P es el anillo Zp de los restos modulo p. Si p no es primo entonces, enZp ⊆ K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto no esposible entonces, deducimos que p es primo. Luego, Zp es un subcampo de K. Como K esprimo obtenemos que K = Zp.

Caracterıstica

Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp. Se dice que uncampo es de caracterıstica 0 si este contiene aQ. Se dice que un campo es de caracterısticap si este contiene a Zp. La caracterıstica de un campo es un numero primo o es cero. Lapropiedad fundamental de la caracterıstica de un campo es la siguiente:

Si K es un campo de caracterıstica tentonces, ta = 0 para cualquier a ∈ K.

Prueba. Si t = 0 la afirmacion es trivial. Si t es primo entonces, el campo contiene a Zt y

tx =

t vecesz | x+ ...+ x = 1x+ ...+ 1x = (t1) x

Como 1 ∈ Zt entonces tambien t1 ∈ Zt. En Zt se tiene que t1 = 0. Luego tx = 0x = 0.

Ejercicio 24 ¿Contradice o no 1.15 que todo campo es un dominio de integridad? [176]Ejercicio 25 ¿Es cierto o no que en todo campo (a = −a)⇒ (a = 0)? [176]

1.6 Aritmetica de campos

Los campos se comportan en la mayorıa de las cosas importantes como los numerosreales. Por mas que tratemos construir un campo raro pero muy raro (lo que es posible) nolograremos que se dejen de cumplir todas las propiedades de la aritmetica las cuales nosson familiares desde temprana edad. Pasemos a describir en toda su generalidad algunasconsecuencias simples y otras un poco mas complicadas de los axiomas de campo lo que nosconvencera de lo afirmado.

Page 29: Algebra Lineal

19Seccion 1.6 Aritmetica de campos

Multiplos y exponentes enteros

En todo campo para cualquier numero entero n y cualquier elemento del campo a seusan las siguientes notaciones

na =

⎧⎪⎨⎪⎩n vecesz |

a+ a+ ...+ a si n > 00 si n = 0

(−n) (−a) si n < 0

an =

⎧⎪⎨⎪⎩n vecesz | aa...a si n > 01 si n = 01

a−nsi n < 0

y se cumplen las propriedades usuales: (n+m)a = na+ma y an+m = anam .

Asociatividad general

Recordemos nuevamente el uso del sımbolo de sumatoria Σ. Si A es un conjuntonXi=1

aifinito de elementos del campo entonces podemos escribir la expresion en el re­cuadro a la izquierda para expresar que queremos sumar todos los elementos delconjunto A = a1, ..., an.

La asociatividad de la operacion de suma nos dice que esta expresion tiene sentido unicoya que no es necesario explicitar las sumas hay que realizar primero y cuales despues.

En realidad incluso esta notacion es redundante, mas consisa es esta otra nota­ Xa∈A

acion en el recuadro a la derecha que podemos usar gracias a la conmutatividad dela suma. O sea no importa si en la suma a1 esta delante de a2 o al revez. Solo esnecesario especificar cual es el conjunto A de elementos que se estan sumando.

Como tenemos que el producto de elementos de un campo es tambiennYi=1

ai =Ya∈A

aasociativo y conmutativo podemos usar las expresiones equivalentes dela izquierda para denotar el producto de todos los elementos del conjuntoA = a1, ..., an .

Distributividad general

Mucho mas difıcil es dar una forma general de la ley distributiva. Usando las leyes deÃXa∈A

a

!ÃXb∈B

b

!=Xa∈A

Xb∈B

ab

los campos obtenemos (a+ b) (c+ d) = a (c+ d)+b (c+ d) = ac+ad+bc+bd y el lector podra con­vencerse facilmente haciendo el calculo para conjuntospequenos A y B que en general se cumple la formulade la derecha.

Mas general, para muchos factores tenemosÃXa∈A

a

!ÃXb∈B

b

!· · ·ÃXc∈C

c

!=Xa∈A

Xb∈B

...Xc∈C

ab · · · c

A esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchasocaciones en que la usaremos.

Page 30: Algebra Lineal

20 Capıtulo 1. Campos

Formula multinomial

Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos seaniguales obtenemos la siguiente formula:ÃX

a∈Aa

!n=Xa1∈A

...Xan∈A

a1 · · ·an (*)

Esta formula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el pro­ducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene(gracias a la asociatividad y conmutatividad del producto) una manera mucho mas sencillade expresarse como a4b3c3. Para arreglar este defecto, demosle nombres a los elementos deA y pongamos A = x1, ..., xm. Ahora si n1, ..., nm son naturales entonces, un monomioxn11 · · · xnmm aparece como sumando a la derecha en la formula (*) si y solo si

Pni = n (ya

que los sumandos en (*) son productos den elementos deA). Supongamos quePni = n. Si

todos los ni son uno o cero entonces en (*) hay n! sumandos iguales al monomio xn11 · · · xnmm(ya que podemos ordenarlos de ese numero de maneras). Si digamos n7 es mayor que 1 en­tonces tenemos que dividir por n7! ya que al permutar x7...x7 no obtenemos nuevos suman­dos en (*). Lo mismo sucede con los otros ni. Como por definicion 0! = 1! = 1, finalmenteobtenemos la siguiente expresion conocida como formula multinomial.Ã

mXi=1

xi

!n=X n!

n1!...nm!xn11 · · · xnmm

donde la suma a la derecha de la igualdad recorre todas las soluciones en numeros naturalesde la ecuacion

Pni = n. En el caso particular m = 2, haciendo el cambio de variable

n1 = k obtenemos

(x+ y)n=

Xn1+n2=n

n!

n1!n2!xn1yn2 =

nXk=0

n!

k! (n− k) !xkyn−k

que es la famosa formula del binomio de Newton.Si bien las formulas que hemos demostrado parecen ser complicadaslos argumentos que llevan a ellas son muy sencillos. Es importanteque el estudiante que desee estudiar el algebra lineal a profundidadse familiarize bien con estos argumentos ya que las formas multili­neales y en particular los determinantes son muy parecidos a la partederecha de la igualdad (*).

Sir Isaac Newton (Inglaterra 1643­1727). Probablemente el cien­tıfico mas renombrado de todos los tiempos. Fundador de la mecani­ca, la optica y el calculo diferencial. Sus tres leyes de la mecanicafundaron la base de la ingenierıa que llevo a la revolucion industrial.

Page 31: Algebra Lineal

21Seccion 1.6 Aritmetica de campos

Ejercicio 26 Sea K un campo de caracterıstica p > 0. Demuestre que la funcion K 3x 7→ xp ∈ K es un morfismo de campos. Demuestre que si K es un campo finito entoncesesta funcion es un automorfismo de K. A este automorfismo se le llama automorfismo deFrobenius. [176]

La expansion de ΠΣαij

Ahora deduciremos otra consecuencia de la forma general de la ley distri­ Yi∈N

Xj∈N

αijbutiva que usaremos mucho mas adelante. Supongamos queN es un conjuntofinito de ındices y que para cada pareja de ındices (i, j) tenemos un elementodel campo K que denotaremos por αij. Nuestro objetivo es usar la ley distri­butiva para expresar el elemento del campo del recuadro a la derecha como una suma deproductos.

Para esto lo mas comodo es pensar que el conjunto N es 1, . . . , n y expresar la formageneral de la ley distributiva en nuestro caso de la siguiente maneraÃX

j1∈Nα1j1

!· · ·ÃXjn∈N

αnjn

!=Xj1∈N

...Xjn∈N

α1j1 · · ·α1jn =XY

i∈Nαiji

donde la suma mas a la derecha en esta igualdad recorre todos los elementos (j1, . . . , jn)del producto cartesiano N × · · · × N de n copias de N o sea, Nn. Otra manera de pensara (j1, . . . , jn) es que tenemos una funcion f : N = 1, . . . , n 3 i 7→ ji = f (i) ∈ N y ennuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN detodas las funciones deN enN. Luego, en estas notaciones finalmente obtenemosY

i∈N

Xj∈N

αij =Xf∈NN

Yi∈N

αif(i)

que es una formula que ya no depende de cual es el conjuntoN.

Debemos recalcar una vez mas que todo lo dicho en esta seccion es valido para cual­quier campo, sea este R, C, Q, Zp o cualquier otro campo que aun no conoscamos. Esta esla ventaja intrınseca de la abstraccion. No tenemos que demostrar el teorema de Pitagoraspara triangulos de acero, madera, etc. Estas propiedades no tienen nada que ver con que elcuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. De la mismamanera el binomio de Newton no tiene nada que ver con que si los numeros son reales ocomplejos u otros. Solo basta que nuestros numeros formen un campo.

Un lector atento, podrıa observar que en las pruebas de todas las formulas en ningun momento usa­mos la existencia de inversos en el campo. Luego, estas son validas en cualquier anillo conmutativo.A diferencia de las matematicas elementales en matematicas superiores, por aritmetica se entiende

el estudio de las propiedades de divisibilidad en anillos. En este sentido, la aritmetica de campos es trivial yaque todo elemento se divide entre cualquier otro no nulo.

Page 32: Algebra Lineal

22 Capıtulo 1. Campos

1.7 Polinomios sobre campos

Hay muchas maneras de ver los polinomios. La manera mas sencilla de ver­nXi=0

aixi

los es que un polinomio de grado n en la literal x es una expresion formal deltipo en el recuadro a la derecha donde los coeficientes a0, ..., an son elementosde cierto campoK y an 6= 0. Al coeficiente an se le llama coeficiente principaldel polinomio.

Suma y producto de polinomios

Aunque el lector seguramente conoce las definiciones de suma y producto de polino­mios, nos parece apropiado recordar el porque de las mismas. Si interpretamos a x como unelemento del campo K entonces,

Paix

i tambien es un elemento del campo K. Esto quieredecir que un polinomio define una funcion K 3 x 7→P

aixi ∈ K y en esta interpretacion x

no es una literal sino una variable. Siendo esta interpretacion de los polinomios fundamental,necesitamos que la suma y producto de polinomios concuerde con la definicion de suma yproducto de funciones (f+ g) (x) = f (x) + g (x), (fg) (x) = f (x)g (x). Por esto, tenemos

nXi=0

aixi +

nXi=0

bixi =

nXi=0

¡aix

i + bixi¢=

nXi=0

(ai + bi) xi

donde la primera igualdad se da por asociatividad y conmutatividad y la segunda por distri­butividad. O sea, interpretamos al polinomio como la imagen por la funcion de evaluacionde la variable x que toma sus valores en el campo. Para el producto, usando la forma generalde la ley distributiva tenemosÃ

nXi=0

aixi

!ÃmXj=0

bjxj

!=

nXi=0

mXj=0

aibjxi+j =

n+mXk=0

⎛⎝ mın(n,k)Xi=max(0,k−m)

aibk−i

⎞⎠xkdonde la segunda igualdad se obtiene haciendo el cambio de variable k = i+ j y usando aso­ciatividad, conmutatividad y distributividad. Se puede saber sumar y multiplicar polinomiossin saberse estas formulas. Lo importante es saber aplicar sistematicamente asociatividad,conmutatividad y distributividad para obtener el resultado deseado. El conjunto de todos lospolinomios sobre un campo arbitrario K forma un anillo conmutativo (para ser campo solole falta la existencia de inversos multiplicativos). A este anillo se lo denota por K [x].

Division de polinomios

Division con Resto de Polinomios

Sean p y q dos polinomios. Existen polinomios c y r tales que1. p = cq+ r

2. El grado de r es estrictamente menor que el grado de q.

Page 33: Algebra Lineal

23Seccion 1.7 Polinomios sobre campos

Prueba. Sea p =Paix

i un polinomio de grado n y q =Pbix

i un polinomio de gradom. Si n < m entonces poniendo c = 0 y r = p terminamos.

Supongamos m ≤ n. Entonces, sacando cuentas nos podemos convencer

r1 =n−1Pi=0

aixi − c1

m−1Pi=0

bixi

c1 =xn−man

bm

de que p = c1q + r1 donde c1 y r1 son los polinomios en los recuadros.El grado de r1 es menor que el grado dep. Si el grado de r1 es menor que el grado

de q entonces ya terminamos, si no entonces, haciendo losmismos calculos podemos escribir r1 = c2q + r2 y vamosdisminuyendo el grado de ri hasta que este sea menor que el grado de q.

Luego, hay un i tal que p = (c1 + ...+ ci)q+ ri y el grado de ri es estrictamente menorque el grado de q. Al polinomio c = c1 + ... + ci se le llama cociente de p entre q; alpolinomio r = ri se le llama resto de p entre q.

Factores y raices

Sean p y q dos polinomios. Si existe un polinomio c tal que p = cq entonces se dice queq divide a p, o que q es un divisor de p, o que p es un multiplo de q. Obviamente, cualquierpolinomio de grado cero divide a cualquier otro polinomio (en un campo hay inversos).Diremos que q es un factor de p si q divide a p y el grado de q es al menos uno.

Sea p (x) =Pn

i=0 aixi un polinomio en K [x] . Sea b un elemento arbitrario del cam­

po. ObviamentePn

i=0 aibi es tambien un elemento del campo ya que la suma, la multi­

plicacion y las potencias estan bien definidas en un campo arbitrario. Es natural denotarp (b) =

Pn

i=0 aibi. Esto nos da una funcion K 3 b 7→ p (b) ∈ K llamada la funcion de

evaluacion del polinomio p. Los ceros de esta funcion son las raices del polinomio p, o season los elementos del campo b tales que p (b) = 0. Al conjunto de todas las raices de p lollamaremos nucleo de p y lo denotaremos por kerp (en ingles “nucleo” es “kernel”). Lasraices y los factores de un polinomio estan enlazados por el siguiente resultado:

Para que b sea una raız de p es necesarioy suficiente que (x− b) sea un factor de p.

Prueba. Dividamos con resto p entre (x− b). Sean c y r tales que p (x) = c (x) (x− b)+r.Como (x− b) es de grado uno r tiene que ser de grado cero. Evaluando en b obtenemosp (b) = c (b) (b− b) + r = r. Luego, si b es raız entonces, r = 0 y recıprocamente.

Sea b una raız del polinomio p. Si n ≥ 1 es el mayor natural tal que (x− b)n es factorde p entonces a n se le llama multiplicidad de la raız b. Es muy incomodo trabajar con elconcepto de multiplicidad. Por ejemplo, tomemos la afirmacion: “Si b1 y b2 son dos raicesdel polinomio p entonces (x− b1) (x− b2) es un factor de p”. Esta afirmacion es cierta nosolo para cuando b1 6= b2 sino tambien cuando son iguales pero la raız tiene multiplicidadmayor que 2.

Page 34: Algebra Lineal

24 Capıtulo 1. Campos

Es mucho mas comodo pensar que si una raız tiene multiplicidad n entonceshay n “diferentes” raices todas del mismo “valor”. Este abuso del lenguajesera comun en este libro y a partir de ahora no tendremos necesidad de usar

continuamente el concepto de multiplicidad. Le dejamos al lector interesado la desagradabletarea, de ajustar los hechos expuestos a un lenguaje mas riguroso.

Ahora el nucleo de un polinomio no es exactamente un conjunto sino una “coleccion” deelementos del campo en la cual puede haber elementos repetidos. Ası por ejemplo tenemosKer

¡x3 − 6x2 + 9x− 4

¢= 1, 1, 4. Ajustada nuestra terminologıa, podemos establecer una

importante consecuencia del resultado anterior.

Un polinomio de grado n tiene a lo mas n raices.

Prueba. Si el polinomio p tiene como raices a b1, . . . , bn+1 entonces p tiene, por 1.18,como factor a

Qn+1i=1 (x− bi) que es un polinomio de grado n + 1. Esto contradice que p

tiene grado n.

Ideales de polinomios

Un conjunto I de polinomios se llama ideal si se cumplen las dos siguientes propiedades:

¨ Si p, q ∈ I entonces p+ q ∈ I.¨ Si p ∈ I y r ∈ K [x] entonces rp ∈ I.

En otras palabras, la suma es una operacion binaria dentro del ideal y cualquier multiplode un elemento del ideal tambien esta en el ideal. Los ideales mas sencillos son los quese forman tomando todos los multiplos de un polinomio fijo p. Si qp y q0p son dos talesmultiplos entonces qp + q0p = (q+ q0)p tambien es un multiplo de p. Esto demuestrala propiedad 1. La propiedad 2 se cumple obviamente. Estos ideales se les llama idealesprincipales. Lo asombroso es que todo ideal es ası.

Todo ideal de polinomios es principal.

Prueba. Sea I un ideal. Sea ahoram un polinomio no nulo de grado mınimo tal quem ∈ Iy denotemos por el conjunto de todos los multiplo dem o sea, Im = αm | α ∈ K [x]. Porla propiedad 1 se tiene que Im ⊆ I. Probemos que Im = I. Efectivamente, si g ∈ I entoncesdividiendo g entrem obtenemos polinomios α, r tales que g = αm+ r donde el grado de res menor que el grado dem o r es nulo. Tenemos r = g − αm y por las propiedades 1 y 2esto significa que r ∈ I. De la minimalidad del grado dem obtenemos r = 0. y por lo tantog ∈ Im. Esto prueba que Im = I o sea, que I es principal.

Observese que facilmente podemos definir los ideales en cualquier anillo conmutativo.Sin embargo, no siempre cualquier ideal es principal. Este es el caso por ejemplo, para elanillo de polinomios de dos variables K [x, y].

Page 35: Algebra Lineal

25Seccion 1.7 Polinomios sobre campos

Una primera consecuencia de 1.19 es el Teorema de Bezout, el cual tendremos muchısi­mas oportunidades para utilizarlo.

Teorema de Bezout

Sean p y q dos polinomios sin factores comunes.Existen polinomios α y β tales que αp+βq = 1.

Prueba. Denotemos por Ipq = αp+ βq | α,β ∈ K [x]. Probemos que Ipq es un ideal.Veamos primero que la suma de elementos de Ipq esta en Ipq. Efectivamente,

(αp+ βq) + (α0p+ β0q) = (α+ α0)p+ (β+ β0)q = α00p+ β00q

donde α00 = (α+ α0) y β00 = (β+ β0). Ahora, comprobemos que los multiplos de loselementos de Ipq estan en Ipq. Tenemos, γ (αp+ βq) = γαp + γβq = α0p + β0q dondeα0 = γα y β0 = γβ y con esto concluimos que Ipq es un ideal.

Como todo ideal de polinomios es principal, existe m tal que Ipq = αm | α ∈ K [x].Como p, q ∈ Ipq, existen polinomios α y β tales que p = αm y q = βm. Como p y q notienen factores comunes, esto significa que m es de grado cero y por lo tanto Ipq = K [x].En particular, 1 ∈ Ipq.

Etienne Bezout (Francia, 1730­1783). Famoso en su epoca sobre todo porlos seis volumenes de su libro de texto “Cours complet de mathematiques al’usage de marine et de l’artillerie” que por muchos anos fueron los librosque estudiaban los que aspiraban a ingresar a la “Ecole Polytechnique”. Suinvestigacion matematica la dedico al estudio de los determinantes y de lassoluciones de ecuaciones polinomiales.

Ejercicio 27 Demuestre el teorema de Bezout para Z: Sean p y q dos enteros sin factorescomunes. Entonces, existen dos enteros α y β tales que αp+ βq = 1. [177]

Unicidad de la factorizacion en irreducibles.

Al descomponer un polinomio en factores causan muchos problemas de escritura los di­visores que no son factores o sea, los polinomios de grado cero. Por esto es convenienteintroducir la siguiente definicion. Un polinomio se le llama monico si su coeficiente prin­cipal es 1. La ventaja de trabajar con polinomios monicos es que cualquier polinomio pse descompone como αp0 donde α es su coeficiente principal y p0 es monico. Luego, paradescomponer p en factores, solamente nos tenemos que fijar en los factores monicos de p0.Diremos que un factor q es factor propio del polinomio monico p, si q es monico y p 6= q.

Un polinomio se le llama irreducible si este es monico, tiene grado mayor que 1 y notiene factores propios. En otras palabras, cuando no se puede descomponer no trivialmente enproducto de dos factores. Cualquier polinomio p se puede descomponer como αp1p2 . . . pndonde α es su coeficiente principal y p1 · · ·pn son polinomios irreducibles. La prueba de

Page 36: Algebra Lineal

26 Capıtulo 1. Campos

esto es obvia. Si un polinomio no es irreducible puedo descomponerlo en producto de dosfactores. Si estos factores no son irreducibles puedo descomponer en factores cada uno deellos y ası sucesivamente llegamos a factores irreducibles.

Teorema de Factorizacion de Polinomios

Cualquier polinomio p se descompone como αp1p2 . . . pn donde αes su coeficiente principal y p1 · · ·pn son polinomios irreducibles.Esta descomposicion es unica salvo el orden de los factores.

Prueba. Solamente debemos probar la unicidad. Ademas, sacando como factor el coeficien­te principal podemos suponer que p es monico. Si p es de grado 1 entonces no hay nada queprobar ya que entonces p es irreducible y la unica descomposicion de p es el mismo.

Supongamos que el teorema es cierto para cualquier polinomio de grado estrictamentemenor que k. Sea p monico de grado k que tiene dos descomposiciones en irreduciblesp1 . . . pn = p

01 . . . p

0m . Como todos los polinomios involucrados son irreducibles tiene que

existir un j tal que p0j = pn. Luego, para p/pn = p/p0j tenemos dos descomposiciones quepor hipotesis de induccion son iguales salvo orden.

Desarrollo de Taylor

Brook Taylor (Inglaterra 1685­1731). Entre las contribuciones de estematematico, se destacan: La invencion de la rama de las matematicasque hoy en dıa se conoce como Calculo en Diferencias, la invencion dela integracion por partes, y la formula llamada por su nombre. En 1772Lagrange proclamo esta formula como “el principio basico del calculodiferencial”. A esta formula, enunciada en la siguiente proposicion, sele llama Desarrollo de Taylor alrededor del punto x0. Como el lectorsabe de los cursos de calculo, este desarrollo es mucho mas general y

se cumple en cierta clase de funciones. Sin embargo para polinomios, su demostracion esindependiente del campo y puramente algebraica (no requiere del concepto de continuidad).

Desarrollo de Taylor

Para cualquier polinomio p (x) y cualquier elemento del campox0 existen unos unicos coeficientes α0,α1, . . . ,αn tales que

p (x) = α0 + α1 (x− x0) + · · ·+ αn (x− x0)n.

Prueba. Sea p (x) =Pakx

k un polinomio de grado n. Si x0 = 0 entonces, αk = ak.

Page 37: Algebra Lineal

27Seccion 1.8 Polinomios complejos. Teorema de Gauss

Supongamos que x0 6= 0. Por el binomio de Newton tenemosnXj=0

αj (x− x0)j =

nXj=0

αj

jXk=0

µj

k

¶xk (−x0)

j−k =

nXk=0

ÃnXj=k

µj

k

¶(−x0)

j−kαj

!xk

y para encontrar nuestros coeficientes αj tenemos para k ∈ 0, . . . , n las igualdades ak =Pn

j=k bkjαj donde bkj =¡j

k

¢(−x0)

j−k. Observese que bkk = 1 por lo que despejando ob­tenemos αk = ak −

Pn

j=k+1 bkjαj por lo que podemos hallar αn = an despues αn−1 yası sucesivamente todos.

Ejercicio 28 Demuestre que la expresionPi

j=k (−1)j−k¡j

k

¢¡i

j

¢es igual a la funcion delta

de Kronecker δik o sea, es cero si i 6= k y es uno si i = k. [177]Ejercicio 29 Demuestre que los coeficientes αj del Desarrollo de Taylor (1.22) del polino­mio

Pakx

k son iguales a βj =Pn

i=j

¡i

j

¢aix

i−j0 . [177]

Ejercicio 30 Pruebe que los coeficientes αj del Desarrollo de Taylor (1.22) del polinomiop (x) son iguales a p(j) (x0) /j! donde p(j) (x) denota el polinomio derivado j veces. [177]

1.8 Polinomios complejos. Teorema de Gauss

En esta seccion demostraremos que el campo de los numeros complejos es algebraica­mente cerrado. Como esta demostracion no es algebraica sino analıtica necesitaremos in­troducir algunos conceptos basicos de analisis complejo. Para esto, presupondremos que ellector conoce los correspondientes conceptos de analisis real.

Si bien, el contenido de esta seccion no es basico para la com­prension del algebra lineal, por otro lado, si es fundamental queel lector conosca a la perfeccion el enunciado del teorema deGauss: todo polinomio complejo de grado al menos 1 tiene unaraız.

Johann Carl Friedrich Gauss (Alemania 1977­1855) fue elmas grande matematico de su epoca. Este teorema que lleva sunombre fue demostrado por primera vez en su tesis doctoral(1799). Este teorema es tambien conocido como el “teoremafundamental del algebra”. En este libro tendremos ocacion demencionar otros resultados de Gauss y cualquiera que se de­dique a estudiar matematicas, estadısticas, fısica o astronomıaoira de este cientıfico en mas de una ocasion.

Page 38: Algebra Lineal

28 Capıtulo 1. Campos

Forma polar. Igualdad de Moivre

Todo numero complejo z se puede representar en la forma polar

r cosϕ

r sinϕr

ϕ

z = r (cosϕ+ i sinϕ) donde r es la longitud del vector−→0z en el

plano complejo yϕ es el angulo que forma dicho vector con el eje realde este plano (vease la figura). Al numero r se le llama modulo delnumero complejo y es comun que se denote por kzk. Al anguloϕ se lellama argumento del numero complejo. La forma polar hace muchomas facil calcular el producto y las potencias de numeros complejos.

Para hallar el producto de dos numeros complejos hayque multiplicar sus modulos y sumar sus argumentos.

Prueba. Sean r (cosϕ+ i sinϕ) y ρ (cosψ+ i sinψ) dos complejos. Tenemosr (cosϕ+ i sinϕ)ρ (cosψ+ i sinψ) =rρ ((cosψ cosϕ− sinψ sinϕ) + (cosψ sinϕ+ cosϕ sinψ) i) =rρ (cos (ϕ+ψ) + i sin (ϕ+ψ))

que es lo que se necesitaba probar.

Aplicando este resultado al caso de la potencia de numeroszn = rn (cosnϕ+ i sinnϕ) complejos obtenemos la igualdad mostrada en el recuadro ala izquierda. Esta igualdad se conoce como la Igualdad de Moivre. Una de sus consecuen­cias mas importantes es el siguiente resultado.

Los polinomios zn − a tienen exactamente n raices complejas.

Prueba. Sea a = rn (cosnϕ+ i sinnϕ). Para k ∈ 0, 1, ..., n− 1 denotemos xk el nume­ro complejo con modulo n

√r y argumento (ϕ+ 2kπ) /n. Por la Igualdad de Moivre tenemos

xnk =¡n√r¢n µ

cosnϕ+ 2kπ

n+ i sinn

ϕ+ 2kπ

n

¶= r (cosϕ+ i sinϕ) = a

que es lo que se necesitaba probar.

Abraham de Moivre (Francia 1667­1754). Uno de los fundadores de laGeometrıa Analıtica y de la Teorıa de las Probabilidades. A pesar de suexelencia cientıfica, nunca tuvo la oportunidad de tener un puesto en algunauniversidad. Sus ingresos provenıan de dar clases privadas de Matematicasy murio en la pobreza. Moivre tambien es famoso por haber predicho el dıade su muerte. Descubrio que dormıa 15 minutos mas cada noche y suman­do la progresion aritmetica calculo que morirıa en el dıa que dormirıa 24horas. ¡Tuvo razon!

Page 39: Algebra Lineal

29Seccion 1.8 Polinomios complejos. Teorema de Gauss

Ejercicio 31 Pruebe que el conjunto de raices complejas del polinomio zn − 1 es un grupopara el producto. ¿Que grupo es este? [177]

Continuidad

Una funcion f : C→ C es continua en el punto z0 si para todo real positivo ε existe otroreal positivo δ tal que se cumple que (kz− z0k < δ)⇒ (kf (z)− f (z0)k < ε). Una funcioncontinua en todo punto del plano complejo se le llama continua.

La funcion modulo z 7→ kzk es continua.

Prueba. Veamos la desigualdad kz− z0k ≥ kkzk− kz0kk. Esta desigualdad es equivalentea la siguiente: “En un triangulo el valor absoluto de la diferencia de dos de sus lados siemprees menor o igual que el tercero”. La prueba de esta la dejaremos en calidad de ejercicio.Por esta desigualdad, tenemos que ∀ε > 0 ∃δ = ε tal que si kz− z0k < δ entonces,kkzk− kz0kk ≤ kz− z0k < ε y esto prueba nuestra tesis.

Ejercicio 32 Pruebe que en un triangulo el valor absoluto de la diferencia las longitudes dedos de sus lados siempre es menor o igual que la longitud del tercero. [177]

La suma y el producto de funciones continuasen un punto z0 son continuas en el punto z0.

Prueba. Sean f y g funciones continuas en z0. Con el objetivo de ahorrar espacio denotemosfz = f (z), f0 = f (z0), gz = g (z) y g0 = g (z0). Para todo ε > 0 existen δ1 y δ2 tales que

(kz− z0k < δ1)⇒ (kfz − f0k < ε)(kz− z0k < δ2)⇒ (kgz − g0k < ε)

y en particular para el mınimo (que llamaremos δ) de δ1 y δ2 se cumplen las dos desigualda­des a la derecha. Sumando y aplicando la desigualdad del triangulo obtenemos:θ = 2ε > kfz − f0k+ kgz − g0k ≥ kfz − f0 + gz − g0k = k(f+ g) (z)− (f+ g) (z0)k

Luego, para todo θ > 0 existe δ tal que (|z− z0 | < δ) ⇒ |(f+ g) (z)− (f+ g) (z0)| < θ

con lo que se prueba que la suma de continuas es continua.Por otro lado, por la desigualdad del triangulo y 1.23 tenemos

k(fg) (z)− (fg) (z0)k = kfzgz − f0g0k =k(fz − f0) (gz − g0) + (fz − f0)g0 + (gz − g0) f0k ≤

kfz − f0k kgz − g0k+ kfz − f0k kg0k+ kgz − g0k kf0k << ε2 + ε |g0 |+ ε |f0 | < (1+ |g0 |+ |f0 |) ε = cε = θ

donde la ultima desigualdad se da para ε < 1. Como c es una constante que no depende de z

Page 40: Algebra Lineal

30 Capıtulo 1. Campos

obtenemos que para todo θ > 0 existe δ tal que (|z− z0 | < δ)⇒ |(fg) (z)− (fg) (z0)| < θ

lo que prueba que el producto de continuas es continua.

Para cualquier polinomio complejo p la funcionde evaluacion C 3 z 7→ p (z) ∈ C es continua.

Prueba. La funcion de evaluacion de un polinomio se obtiene usando sumas y productosde funciones constantes y la funcion identidad f (z) = z. Estas funciones son continuas y de1.26 obtenemos la prueba.

Sea g una funcion continua en el punto z0 y f una funcion continua en elpunto g (z0) entonces, la composicion f g es continua en el punto z0.

Prueba. Por la continuidad de f en g (z0) tenemos que ∀ε > 0 ∃δ (kz− g (z0)k < δ) ⇒kf (z)− f (g (z0))k < ε. Por otro lado, de la continuidad de g en z0 sabemos que ∀δ > 0 ∃δ0(ky− z0k < δ0) ⇒ kg (y)− g (z0)k < δ. Componiendo estas dos propiedades obtenemos∀ε > 0 ∃δ0 (ky− z0k < δ0)⇒ kf (g (y))− f (g (z0))k < ε que es lo que necesitabamos.

El modulo de un polinomio es una funcion continua.

Prueba. Por 1.28 y porque los polinomios y el modulo son funciones continuas.

Lımite de sucesiones complejas

Una sucesion de numeros complejos zj = aj + bji tiene lımite z = a + bi si lassucesiones reales aj y bj tienen lımites a a y b respectivamente. Esto es equivalente aque los modulos y los argumentos de la sucesion converjan al modulo y al argumento dellımite. Tambien, esto es equivalente a que ∀ε > 0 ∃N tal que ∀k > N kzk − zk < ε. Unasucesion es convergente si esta tiene lımite. Por una propiedad analoga para las sucesionesreales se tiene que toda subsucesion de una sucesion convergente es convergente y convergeal mismo lımite. Una sucesion zj = aj + bji es acotada si ambas sucesiones aj y bjson acotadas. Esto es equivalente a que la sucesion real kzjk sea acotada. Es claro queuna sucesion no acotada no puede tener lımite. Tambien, que toda sucesion acotada tieneuna subsucesion convergente pues esta misma propiedad se cumple para sucesiones reales.Expongamos otras dos propiedades que son un poco mas difıciles de probar.

Sea f una funcion continua en z0 y zk una sucesion de numeroscomplejos que converge a z0. Entonces, lım f (zk) = f (lım zk).

Page 41: Algebra Lineal

31Seccion 1.8 Polinomios complejos. Teorema de Gauss

Prueba. Como f es continua en z0, por definicion tenemos que ∀ε > 0 ∃δ (kz− z0k < δ)⇒(kf (z)− f (z0)k < ε). Supongamos que lım zk = z0 entonces, ∀δ > 0 ∃N (k > N) ⇒(kzk − z0k < δ) .De transitividad de la implicacion obtenemos que ∀ε > 0 ∃N (k > N)⇒kf (zk)− f (z0)k < ε y esto quiere decir que lım f (zk) = f (z0).

Si zk es no acotada y p es un polinomio de grado almenos 1 entonces, la sucesion kp (zk)k es no acotada.

Prueba. Sea p (z) un polinomio de grado n > 1. Por la desigualdad triangular, tenemos

kp (z)k ≥nXi=0

°°aizi°° = nXi=0

kaik kzki = kank kzkn +n−1Xi=0

kaik kzki ≥ kank kzkn

Como zk no es acotada, tampoco lo son kank kzkkn y kp (zk)k.

Teorema de Gauss

Ya estamos listos para demostrar el Teorema de Gauss pero antes, veamos un resultadopreliminar que hace la mayorıa del trabajo.

Sea p un polinomio complejo de grado al menos 1. Si z0 no esuna raız de p entonces, existe z ∈ C tal que kp (z)k < kp (z0)k.

Prueba. Hagamos el desarrollo de Taylor de p (z) alrededor del punto z0. Tenemos

p (z) =

nXj=0

αj (z− z0)j= p (z0) +

nXj=1

αj (z− z0)j

ya que α0 = p (z0) . Sea αk el primero de los αj | j > 0 diferente de cero y escojamosz = z0 + tθ donde θ es una (veease 1.24) de las raices de la ecuacion xk + p (z0) /αk = 0 yt es un real tal que 0 < t < 1 que definiremos despues. Por la definicion de θ, z y k tenemos

p (z)− p (z0) = αkθktk +

nXj=k+1

αjθjtj = −p (z0) t

k +

nXj=k+1

αjθjtj

y por lo tanto, de la desigualdad del triangulo obtenemos:

kp (z)k ≤¡1− tk

¢kp (z0)k+

nXj=k+1

°°αjθj°° tj = kp (z0)k+ tkq (t)donde q (t) denota el polinomio (con coeficientes re­

− kp (z0)k+nX

j=k+1

°°αjθj°° tj−kales) del recuadro a la derecha. Observemos que se cum­ple la desigualdad q (0) = − kp (z0)k < 0.

Por continuidad (de los polinomios reales) existe un t0 > 0 suficientemente pequeno talque q (t0) < 0. Luego, kp (z0 + t0θ)k ≤ kp (z0)k+ tk0q (t0) < kp (z0)k.

Page 42: Algebra Lineal

32 Capıtulo 1. Campos

Ejercicio 33 ¿Donde se usa en la demostracion anterior que t < 1? [177]

Teorema de Gauss

Todo polinomio de grado mayor quecero tiene al menos una raız compleja.

Prueba. Sea p un polinomio. Denotemos A = kp (z)k : z ∈ C. El conjunto A es unconjunto de reales acotado inferiormente pues kp (z)k ≥ 0. Luego (por un teorema clasicode analisis matematico), A tiene un ınfimo que denotaremos por µ.

Demostremos que µ es el mınimo o sea, que µ ∈ A. Como µ es ınfimo hay una sucesionaj de elementos de A que converge a µ y por lo tanto hay una sucesion de complejoszj tales que lım kp (zj)k = µ. Si la sucesion zj no estuviera acotada entonces, por 1.31 lasucesion kp (zj)k tampoco lo serıa lo que contradice que esta sucesion converge a µ. Luego,zj es acotada y podemos escoger una subsucesion convergente que podemos suponer lamisma. Denotemos y = lım zj. Como el modulo de un polinomio es una funcion continuaentonces, por 1.30 tenemos µ = lım kp (zj)k = kp (lım zj)k = kp (y)k. Luego, µ ∈ A.

Si µ 6= 0 entonces, por 1.32 existirıa un y0 tal que kp (y0)k < kp (y)k = µ lo quecontradice que µ es el mınimo de A. Luego, kp (y)k = 0 y por lo tanto p tiene una raız.

1.9 Factorizacion de polinomios complejos y reales

En esta seccion utilizaremos el teorema de Gauss para averiguar cuales son todos lospolinomios irreducibles con coeficientes complejos y los polinomios irreducibles con coefi­cientes reales. Esto nos dara la posibilidad de encontrar la descomposicion en factores (unicasalvo orden de los factores) de los polinomios complejos y reales.

Caso Complejo

Clasificacion de los polinomios complejos irreducibles

Los polinomios complejos irreducibles sonexactamente los monicos de grado uno.

Prueba. Al absurdo supongamos que un polinomio irreducible tiene grado mayor que uno.Por el Teorema de Gauss (1.33) este polinomio tiene una raız α. Por 1.17 el polinomio sedivide entre (x− α) y esto contradice que el polinomio es irreducible.

Page 43: Algebra Lineal

33Seccion 1.9 Factorizacion de polinomios complejos y reales

Este resultado nos da la posibilidad de factorizar completamente los

ankQj=1

(x− αj)nj polinomios complejos. Por el Teorema de Factorizacion de Polinomios

(1.21) cada polinomio complejo p (x) se tiene que descomponer comoen el recuadro a la izquierda. En esta formula, an es el coeficiente prin­

cipal del polinomio. Los complejos αj son las diferentes raices de p (x). El natural nj es lamultiplicidad de la raız αj y n =

Pni es el grado de p (x). Nuevamente, por el Teorema de

Factorizacion de Polinomios (1.21) esta descomposicion es unica salvo orden de los factores.

Caso real

Recordemos que si a + bi es un numero complejo entonces1. z ∈ R⇒ z = z2. z+ u = z+ u

3. zu = zu

su complejo conjugado es a − bi. Denotaremos por z el comple­jo conjugado del numero complejo z. Es facil comprobar que laoperacion de conjugacion cumple las propiedades del recuadro a laderecha.

Ejercicio 34 Demuestre estas propiedades de la conjugacion compleja. [177]

Sea p un polinomio con coeficientes reales y α una raızcompleja de p. Entonces α es tambien una raız de p.

Prueba. Como α es raız de p =Paix

i y por las propiedades de la conjugacion tenemos

0 = 0 =X

aiαi =X

aiαi =

Xaiα

i

que es lo que se querıa probar.

Clasificacion de los polinomios reales irreducibles

Si p es un polinomio real irreducible entonces p es de laforma x − α o es de la forma (x− a)2 + b2 con b 6= 0.

Prueba. Si p es de grado 1 entonces necesariamente es igual a x − α para cierto numeroreal α. Si p es de grado 2 entonces por el teorema de Gauss este tiene un factor x − α paracierto α complejo. Si α fuera real esto contradecirıa que p es irreducible. Luego, α = a+bicon b 6= 0. Por la proposicion anterior a− bi tambien es una raız de p por lo que

p (x) = (x− (a+ bi)) (x− (a− bi)) = (x− a)2+ b2

Si p es de grado al menos 3 entonces, por el teorema de Gauss este tiene una raız complejaα. Si α fuera real entonces x − α serıa un factor de p. Si α = a + bi con b 6= 0 entonces(x− a)

2+ b2 serıa un factor de p. En ambos casos se contradice la suposicion de que p es

irreducible.

Ahora, ya podemos descomponer completamente en factores los polinomios con coefi­

Page 44: Algebra Lineal

34 Capıtulo 1. Campos

cientes reales. Cada polinomio real p (x) se tiene que expresar como:

p (x) = an

kYj=1

(x− αj)nj

kY`=1

³(x− a`)

2+ b2`

´m`

En esta formula, an es el coeficiente principal del polinomio. Los numeros reales αj son lasdiferentes raices reales de p (x). El numero natural nj es la multiplicidad de la raız αj. Losnumeros complejos (a` + b`i) y (a` − b`i) son las diferentes raices complejas de p (x). Elnumero natural m` es la multiplicidad de la raız compleja (a` + b`i). Obviamente, n =Pni + 2

Pm` es el grado de p (x). Nuevamente, por el Teorema de Factorizacion de

Polinomios (1.21) esta descomposicion es unica salvo orden de los factores.La diferencia fundamental entre los numeros reales y los numeros complejos se expresa

de manera muy evidente en los resultados de esta seccion. Esta diferencia hara que poste­riormente nos sea mucho mas facil clasificar los operadores lineales en un espacio vectorialcomplejo que en un espacio vectorial real. En general, todo es mas facil para los campos quecumplen el Teorema de Gauss o sea, los campos algebraicamente cerrados.

1.10 Campos de fracciones. Funciones racionales

Sea (A,+, ·) un anillo conmutativo y denotemos por 0 el neutro aditivo y por 1 elneutro multiplicativo respectivamente . Queremos construir un campo que contenga a A.Esta es una situacion analoga a cuando construimos el campo de los racionales Q para quecontenga al anillo conmutativo Z . ¿Funcionara esta misma construccion en el caso general?Investiguemos para lograr una respuesta.

Campos de fracciones

Lo primero es definir las fracciones. Consideremos conjun­ ³ab=c

d

´⇔ (ad = bc)to de todas las fracciones a/b donde a ∈ A y b ∈ A\ 0. Dosfracciones las consideraremos iguales si se cumple la igualdaden el recuadro a la derecha.

Ejercicio 35 Pruebe que la igualdad de fracciones es una relacion de equivalencia. [178]

Ahora, necesitamos definir las operaciones entre fracciones. Primero el pro­a

b

c

d=ac

bdducto porque es el mas facil. Definamos el producto por la formula en el re­cuadro a la izquierda. Nos tenemos que convencer primero de que esta defi­

nicion es correcta. O sea que si las fracciones son iguales sus productos son iguales. Masprecisamente, necesitamos ver que se cumple lo siguiente:µ

a

b=a0

b0yc

d=c0

d0

¶⇒ µac

bd=a0c0

b0d0

Page 45: Algebra Lineal

35Seccion 1.10 Campos de fracciones. Funciones racionales

y efectivamente de las hipotesis de esta implicacion tenemos ab0 = a0b , cd0 = c0d ymultiplicando estas dos igualdades obtenemos acb0d0 = a0c0bd, lo que es equivalente a latesis de la implicacion.

Este producto es conmutativo y asociativo ya que ambas propiedades se cumplen en los“numeradores” y en los “denominadores”. La fraccion 1/1 es neutro para el producto y cual­quier fraccion a/b donde a 6= 0 tiene inverso multiplicativo b/a ya que ab/ba = 1/1 porla conmutatividad del producto en A. Todo esto significa que el conjunto de fracciones connumerador distinto de cero forman un grupo conmutativo.

Definamos ahora la suma de fracciones por la formula en el re­ a

b+c

d=ad+ cb

bdcuadro a la derecha. Para convencernos que la definicion es correctatenemos que probar que las sumas de fracciones iguales son iguales.O sea que: µ

a

b=a0

b0yc

d=c0

d0

¶⇒ µad+ cb

bd=a0d0 + c0b0

b0d0

¶y efectivamente haciendo algunos calculos inteligentes obtenemosµ

ab0 = a0b

cd0 = c0d

¶⇒ µ0 = (ab0 − a0b)dd0 =

= (c0d− cd0)bb0 = 0

¶⇒ µ(ad+ cb)b0d0 =

= (a0d0 + c0b0)bd

¶que era lo que se necesitaba probar.

La comprobacion de que esta suma es conmutativa es obvia. La asociatividad se com­prueba calculando que a

b+c

d+u

v=adv+ cbv+ ubd

bdvindependientemente del orden en que se haga la suma. La fraccion 0/1 es neutro para lasuma y cualquier fraccion a/b tiene opuesto −a/b (para esto ultimo es necesario observarque 0/1 = 0/v para todo v 6= 0). Luego, el conjunto de todas las fracciones es un grupoabeliano respecto a la suma.

Solo nos falta la distributividad para comprobar que las fracciones con las operacionesdefinidas forman un campo y esto se comprueba con los siguientes calculos:

u

v

³ab+c

d

´=uad+ ucb

vbd=uad

vbd+ucb

vbd=ua

vb+uc

vd=u

v

a

b+u

v

c

d.

Por ultimo observemos que si identificamos al elemento a ∈ A con la fraccion a/1 podemospensar que el anillo A es un subconjunto de las fracciones ya que que la suma y el productode estas fracciones coinciden con la suma y el producto dentro de A.

Hemos hecho todas estas pruebas detalladamente para no equivocarnos al afirmar queesto que hemos demostrado sirve para cualquier anillo conmutativo. El lector deberıa anali­zar cuidadosamente cada igualdad en los razonamientos anteriores para convencerse de quetodas ellas se desprenden de los axiomas de anillo conmutativo y de las definiciones de lasoperaciones entre fracciones. Al conjunto de todas las fracciones con las operaciones ası de­finidas se le llama el campo de fracciones del anillo conmutativo A.

MENTIRA, no hay tal campo de fracciones para cualquier anillo conmutativo.¿Puede usted encontrar el error? Si cree que puede regrese arriba y busquelo,si no, siga leyendo.

Page 46: Algebra Lineal

36 Capıtulo 1. Campos

El problema es el siguiente. Al definir el producto (a/b) (c/d) = (ac/bd) con b y ddistintos de cero supusimos que necesariamente bd es DISTINTO DE CERO. Esto no escierto en cualquier anillo conmutativo, por ejemplo en Z6 tenemos 2× 3 = 0. Si en el anillohay tales elementos no podemos definir adecuadamente el producto de fracciones (tampocola suma). Ya vimos, que si un anillo conmutativo es tal que para cualesquiera b y d distintosde cero se tiene que bd es distinto de cero entonces, se dice que este anillo es un dominio deintegridad. Ahora si, todo dominio de integridad tiene su campo de fracciones. El ejemploevidente de dominio de integridad es Z. Su campo de fracciones es Q.

Funciones racionales

El ejemplo por el cual hemos escrito esta seccion es el siguiente:

Todo anillo de polinomios con coeficientesen un campo es un dominio de integridad.

Prueba. Tenemos que probar que el producto de dos polinomios diferentes de cero es dife­rente de cero (recuerdese que un polinomio es cero cuando todos sus coeficientes son cero).

Sean p (x) =Pn

i=0 aixi y q (x) =

Pm

i=0 bixi dos polinomios cualesquiera de grados n

ym respectivamente. Denotemos p (x)q (x) =Pn+m

i=0 cixi. Por la formula del producto de

polinomios, tenemos cn+m = anbm . Como an 6= 0, bm 6= 0 y todo campo es dominio deintegridad obtenemos cn+m 6= 0 y por lo tanto p (x)q (x) 6= 0.

Observese que en la demostracion no se uso el hecho de que en el campo K hay inversos multipli­cativos. Eso quiere decir que de hecho, hemos demostrado algo mucho mas fuerte: Los anillos depolinomios con coeficientes en un dominio de integridad son dominios de integridad.

Como el anillo de polinomios K [x] es un dominio de integridad este tiene su campo defracciones que se denota porK (x) .Notese la diferencia entreK [x] yK (x). A los elementosde K (x) se les llama funciones racionales (en la variable x). Las funciones racionales sonfraciones de polinomios p (x) /q (x) que se suman y multiplican mediante las reglas a lasque todos estamos acostumbrados.

Ejercicio 36 ¿Conoce usted un campo infinito de caracterıstica 2? [178]Ejercicio 37 ¿Que pasa si construimos el campo de fracciones de un campo? [178]

1.11 Anillos con division

Si en los axiomas de campo eliminamos la condicion de que el producto es conmutativoobtenemos el concepto de anillo con division (tambien se le llama cuerpo).

Page 47: Algebra Lineal

37Seccion 1.11 Anillos con division

O sea, un anillo con division es un conjunto DAD1) (D,+) es un grupo abelianoAD2) (D\0, •) es un grupoAD3) • es distributivo con respecto a +

con una suma y un producto tal que se cumplenlos axiomas del recuadro a la izquierda. En par­ticular, todo campo es anillo con division.

Ejercicio 38 Pruebe que si (D,+, •) es tal que (D,+) es un grupo, (D\ 0 , •) es un grupoy el producto es distributivo respecto a la suma entonces, la suma es conmutativa. En otraspalabras en los axiomas de anillo con division la conmutatividad de la suma es consecuenciadel resto de los axiomas. [178]

Quaterniones

No es muy facil construir anillos con division que no sean campos. Para esto, supon­gamos que en lugar de un solo numero imaginario i tenemos tres diferentes imaginarios i,j y k que cumplen que i2 = j2 = k2 = −1. Un quaternion es un numero de la formaa + bi + cj + dk donde a, b, c, d son numeros reales. El lector debe observar la analogıacon los numeros complejos. Podemos sumar quaterniones por coordenadas

(a+ bi+ cj+ dk) + (a0 + b0i+ c0j+ d0k)

= ((a+ a0) + (b+ b0) i+ (c+ c0) j+ (d+ d0)k)

y es facil comprobar que el conjunto de todos los quaterniones H es un grupo abelianorespecto a la suma.

Para poder mutiplicar quaterniones postulamos que si a es un real y x es un imaginarioentonces ax = xa. Tambien postulamos que si x y y son dos imaginarios distintos entoncesxy = −yx. Esto nos dice que nuestra multiplicacion de quaterniones no es conmutativa.

Ahora, si a+bi+cj+dk y a0+b0i+c0j+d0k son dos quaterniones arbitrarios entonces losmultiplicamos como si fueran polinomios en las variables no conmutativas i, j, k y usandolos postulados obtenemos que su producto es igual a

aa0 − bb0 − cc0 − dd0+

+(ab0 + ba0) i+ (ac0 + ca0) j+ (da0 + ad0)k+

+(bc0 − cb0) ij+ (cd0 − dc0) jk+ (db0 − bd0)ki.

Para poder concluir la definicion de la multiplicaciona00 = aa0 − bb0 − cc0 − dd0

b00 = ab0 + ba0 + cd0 − dc0

c00 = ac0 + ca0 + db0 − bd0

d00 = da0 + ad0 + bc0 − cb0

de quaterniones postulamos que ij = k, jk = i y ki = j.Ası definitivamente, obtenemos que el producto de nues­tros quaterniones es (a00 + b00i+ c00j+ d00k) donde los co­eficientes a00, b00, c00 y d00 son los definidos en el recuadroa la derecha. O sea, el producto de quaterniones es un quaternion. No es difıcil (pero simuy laborioso) probar directamente de la definicion que este producto es asociativo tieneelemento neutro 1 = 1+ 0i+ 0j+ 0k y que es distributivo respecto a la suma.

Page 48: Algebra Lineal

38 Capıtulo 1. Campos

Para comprobar la existencia de inversos multiplicativos definimos para un quaternion nonulo x = a+bi+cj+dk su quaternion conjugado x = a−bi−cj−dk. De la definicionde producto de quaterniones tenemos que xx = xx = a2 + b2 + c2 + d2 es un numero realque tiene inverso multiplicativo. De esto se deduce que x (xx)−1 es el inverso multiplicativode x. En resumen, el conjunto de los quaterniones H son un anillo con division pero no sonun campo.

Los quaterniones fueron descubiertos en 1843 por el fısico, ma­tematico y astronomo irlandes Sir William Rowan Hamilton (1805– 1865). De aquı la notacion H para denotar el anillo de qua­terniones. Los quaterniones jugaron un papel fundamental en lamatematica y la fısica del siglo XIX. Por ejemplo, James ClerkMaxwell uso los quaterniones para desarrollar sus equaciones delelectromagnetismo. En la actualidad son importantes por ejemplo,para las aplicaciones en las cuales se requiere describir en formaeficiente rotaciones espaciales (robotica, control de naves espacia­les, graficos por computadoras, etc.).

Ejercicio 39 Muestre que la tabla de multiplicar de los imaginarios i, j, k es consecuenciade las igualdades de Hamilton i2 = j2 = k2 = ijk = −1. [178]Ejercicio 40 Muestre que los quaterniones que son raices cuadradas de −1 forman natural­mente una esfera en R3. Mas precisamente (a+ bi+ cj+ dk)2 = −1 si y solo si se cumpleque b2 + c2 + d2 = 1. [178]Ejercicio 41 Constraste 1.18 con el hecho de que hay un infinito numero de quaternionesque son raices de −1 (ejercicio 40). ¿Que falla en la prueba de 1.18 para el caso de losquaterniones?

Caso finito

Los quaterniones son un anillo con division infinito y es natural preguntarse si se puedenconstruir anillos con division finitos que no sean campos. El siguiente teorema responde estapregunta en forma negativa.

Teorema de Wedderburn

Todo anillo con division finito es un campo.

La prueba de este teorema involucra un analisis del grupo multiplicativo del anillo y usatecnicas de teorıa de grupos que se salen fuera de los objetivos de este libro.

Page 49: Algebra Lineal

Espacios VectorialesEspacios VectorialesCapítulo segundoCapítulo segundo

ste es el objeto central del algebra lineal. Motivaremos la introduccion de este concep­to en el ejemplo geometrico del plano cartesiano. Daremos las definicion de espaciovectorial complementandola con los ejemplos mas fundamentales. Profundizaremos

en la estructura de estos estudiando sus subespacios, sus bases, su dimension etc. lo que nosllevara a entender todos los espacios vectoriales (al menos los de dimension finita). Finaliza­remos este capıtulo con el estudio de las operaciones entre subespacios y subespacios afineslo que nos llevara a entender los espacios cocientes.

2.1 El plano cartesiano

Hubo algun tiempo, en que el algebra y la geometrıa eran dos cosas to­

y

py

px

p

x

talmente aparte. Los algebristas trabajaban con numeros, polinomios,raices, formulas, etc. y los geometras con puntos, lineas, polıgonos,etc. Rene Descartes (Francia 1596­1650) fue el que tuvo la brillanteidea de introducir los ejes de coordenadas. Tomamos dos rectas per­pendiculares, a la horizontal se le llama “ejede las equis” y a la vertical se le llama “ejede las yes”. Para cada punto del plano p tra­

zamos la perpendicular al eje x y al eje y y de esta manera obte­nemos los puntos px en el eje x y py en el eje y. Por cuanto, el ejede las x lo podemos identificar (escogiendo una unidad de medida)con R donde el cero es el origen de coordenadas (la interseccionde los dos ejes) por tanto, px es simplemente un numero real. De lamisma manera py es otro numero real. Ası, a cada punto del planop se le hace corresponder biunıvocamente una pareja de numerosreales (px, py). Ademas, es conveniente representar cada punto del plano como el segmentodirigido desde el origen de coordenadas hasta el punto o sea como vectores. A los elementosde R (para diferenciarlos de los vectores) los llamaremos escalares.

Desde ahora denotaremos los vectores por letras latinas en negritas. A diferen­cia de estos, los escalares se denotaran por letras latinas y griegas normales.

Page 50: Algebra Lineal

40 Capıtulo 2. Espacios vectoriales

Si a = (ax, ay) y b = (bx, by) son dos vectores la suma de los mismosy

aa+ b

b

x

se define comoa+ b = (ax + bx, ay + by) . La suma, geometricamen­te no es nada mas que la diagonal del paralelogramo generado por a yb . Del hecho que (R,+) es un grupo abeliano se desprende facilmenteque nuestro plano cartesiano R2 es tambien un grupo con respecto a lasuma de vectores.

Si a = (ax, ay) es un vector y α un escalar el producto αa se define y

a

2a

x

como (αax,αay) . Geometricamente este producto es aumentar (o reducir)en un factor α el vector a. Si el factor es negativo entonces el resultadoapunta en la direccion opuesta. Si el factor es cero entonces el vector sedegenera al origen de coordenadas.

El producto por escalares es distributivo con respecto a la sumaα (a+ b) = αa+αb

(α+ β)a =αa+βade vectores y tambien con respecto a la suma de escalares o sease cumplen las igualdades en el recuadro. Estas dos leyes distri­butivas (¡son diferentes!) se cumplen porque son ciertas en cada

coordenada. Ademas, obviamente tenemos que α (βa) = (αβ)a. Todo esto nos dice que elplano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.

Ejercicio 42 Demuestre geometricamente que la diagonal del paralelogramo generado pora y b tiene coordenadas (ax + bx, ay + by). [178]

Ejercicio 43 ¿Es la multiplicacion de un escalar por un vector una operacion binaria? [178]Ejercicio 44 ¿Cuantas diferentes operaciones hay en α (βa) y (αβ)a? [179]Ejercicio 45 ¿Que es la resta de dos vectores? ¿Cual es su interpretacion geometrica?

2.2 Definicion y ejemplos

La primera definicion de espacio vectorial la dio Giuseppe Peano (Italia,

E1) α (a+ b) = αa+αb

(α+ β)a =αa+βa

E2) α (βa) = (αβ)aE3) 1a = a

1858 ­1932), en su libro “Calculo Geometrico” publicado en 1888. Pea­no es mas conocido por su axiomatica de los numeros naturales, o por la“Curva de Peano” que es una inmersion continua sobreyectiva del inter­valo en el cuadrado.

Sea K un campo cuyos elementos los llamaremos escalares y (E,+)un grupo abeliano cuyos elementos los llamaremos vectores. Diremosque es un espacio vectorial sobre K

si esta definida una operacion de producto de escalarespor vectores K×E→ E que cumple las propiedades E1­E3. A los axiomas E1 y E2 se les llama distributividady asociatividad respectivamente del producto por escala­res. El 1 que aparece en el axioma E3 es el 1 del campo.

Page 51: Algebra Lineal

41Seccion 2.2 Definicion y ejemplos

Como (E,+) es un grupo abeliano entonces, tiene que tener un vector neutro que deno­taremos por 0. El opuesto del vector a se denota por −a. Por otro lado el campo de escalarestiene un neutro para la suma: el 0, un neutro para el producto: el 1, opuestos para la suma −αe inversos multiplicativos α−1. Las relaciones que cumplen estos con respecto al productopor escalares nos las da el siguiente resultado basico.

En todo espacio vectorial para cualquier vector a y cualquierescalar α se cumple que 0a = 0, (−1)a = −a y α0 = 0.

Prueba. La demostracion se realiza mediante las siguentes tres cadenas de igualdades

0aE3= 0a+ 1a− a

E1= (0+ 1)a− a = a− a = 0

(−1)aE3= (−1)a+ 1a− a

E1= (−1+ 1)a− a = 0a− a = −a

α0E3= α0+ 1 · 0 E1

= α¡0+ α−10

¢= α

¡α−10

¢ E2= 1 · 0 E3

= 0

donde signos “=” estan marcados con los axiomas por los que son validos.

Ejercicio 46 Demuestre que αa = 0⇒ α = 0 o a = 0. [179]Ejercicio 47 ¿Cual es el mınimo numero de elementos que puede tener un espacio vecto­rial? [179]

Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que el lectorno se pierda en la cantidad de “ejemplos” que sigue. La mayorıa de ellos son fundamentalespara entender este libro. En particular, introduciremos notaciones basicas que seran usadasconstantemente.

El espacio de n­adas Kn

Consideremos el producto cartesiano den copias del Kn = (a1, a2, ..., an) | ai ∈ KcampoK. Este producto se denota porKn y esta forma­do por todas las n­adas (a1, a2, ..., an). Al escalar ai se le llama la i­esima coordenada dela n­ada (a1, a2, ..., an). Luego, una n­ada tiene n coordenadas.

Los vectores seran las n­adas, los escalares seran los elementos(a1, ..., an)

+ (b1, ..., bn)

(a1 + b1, ..., an + bn)

deK. EnKn se introduce facilmente la suma por coordenadas co­mo se muestra en el recuadro a la izquierda. Del hecho de que laspropiedades necesarias se cumplen en cada coordenada se des­prende que (Kn,+) es un grupo abeliano.

La multiplicacion por escalares tambien se introduce por coor­(a1, ..., an)

× α

(αa1,αa2, ...,αan)

denadas. El axioma E1 se reduce en cada coordenada a la distribu­tividad del producto respecto a la suma en el campo K. El axiomaE2 a la asociatividad del producto en K. Finalmente, el axioma E3se reduce en cada coordenada a que 1 es el neutro para el productoen el campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.

Page 52: Algebra Lineal

42 Capıtulo 2. Espacios vectoriales

El espacio de polinomios K [x]

Podemos sumar polinomios, esta suma se hace coefi­

K [x] =

±nXi=0

aixi |ai ∈ Kn ∈ N

²ciente por coeficiente. Tambien sabemos multiplicar unelemento de K por un polinomio. Es muy conocido quetodos los axiomas de espacio vectorial se cumplen. Encierto sentido este espacio vectorial es parecido al anterior. Podemos asociar a cada polino­mio

Pn

i=0 aixi la (n+ 1)­ada (a0, a1, , ..., an) y la multiplicacion por escalar es la misma

que en Kn+1. Para la suma podemos tener un problema si son de grados diferentes pero estose resuelve agregando suficientes ceros o sea si

Pm

i=0 bixi es otro polinomio con n > m

entonces podemos asociarle la n­ada (b0, b1, ..., bn, 0, ..., 0) con suficientes ceros para com­pletar las n coordenadas y entonces la suma es la misma que en Kn+1. Aunque sepamosmultiplicar polinomios, esto no tiene ningun papel en el concepto de espacio vectorial.

El espacio de sucesiones KN

Dos sucesiones se suman por coordenadas como se muestra(a1, a2, ..., an, ...)

+ (b1, b2, ..., bn, ...)

(a1 + b1, , ..., an + bn, ....)

en el recuadro. La mutiplicacion un escalar es tambien porcoordenadas. Los axiomas de espacio vectorial se comprue­ban facilmente. El lector debe observar que los elementosde la sucesion pueden estar en un campo arbitrario y no ne­

cesariamente en R como estamos acostumbrados. La nocion de convergencia de sucesionesno tiene nada que ver con el concepto de espacio vectorial.

El espacio de series K [[x]]

Las series se suman coeficiente por coeficiente. Para

K [[x]] =

± ∞Xi=0

aixi | ai ∈ K

²multiplicar por un escalar se multiplican todos los coefi­cientes por el escalar. Los axiomas de espacio vectorialse cumplen porque se cumplen para cada coeficiente. Dehecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie

P∞i=0 aix

i sedetermina unıvocamente por la sucesion (a0, a2, ..., an, ...) de sus coeficientes y no hay di­ferencia entre sumar series y sumar las correspondientes sucesiones. Lo mismo pasa con lamultiplicacion por un escalar. Al igual que con los polinomios, el concepto de producto deseries no juega ningun papel en el hecho de que K [[x]] sea un espacio vectorial.

El espacio de funciones KN

Hay una biyeccion natural entre lasn­adas (a1, a2, ..., an) ∈ Kn y las funciones 1, ..., n 3i 7→ ai ∈ K. Igualmente las sucesiones (a0, a1, ..., an, ...) se corresponden biunıvocamen­te con las funciones N 3 i 7→ ai ∈ K. Ahora, generalicemos estos ejemplos. Si N es unconjunto arbitrario (no necesitamos de operacion alguna en N) entonces el conjunto de to­das las funciones de N en K se denota por KN . Dadas dos funciones f, g ∈ KA la sumade ellas se define como es habitual por (f+ g) (i) = f (i) + g (i) para cualquier i ∈ N. Elproducto por un escalar se define por (λf) (i) = λf (i). Los axiomas de espacio vectorial se

Page 53: Algebra Lineal

43Seccion 2.2 Definicion y ejemplos

comprueban facilmente. Por ejemplo, la suma de funciones es conmutativa porque para cadai enN se cumple que f (i)+g (i) = g (i)+f (i) gracias a la conmutatividad de la suma en elcampo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particularde este ejemplo cuando N es 1, ..., n y N respectivamente. Ademas, ya observamos queK [[x]] = KN .

El espacio deN­adas KN

En lo adelante una funcion en KN se denotara por αN . Mas precisamente, αNes la funcion que a cada i ∈ N le hace corresponder el escalar αi. Por ejemplo,si N = 1, . . . , n, entonces αN = (α1, . . . ,αn). La bondad de esta notacion

es que podemos pensar los elementos de KN (funciones) como si fueran n­adas. Para poderseguir pensando en αN como si fuera en una n­ada necesitamos las palabras adecuadas. Alos elementos αN de KN los llamaremos N­adas. Al conjunto N lo llamaremos conjuntode ındices de αN y a los elementos deN los llamaremos ındices. Si i es un ındice, entoncesdiremos que αi es la i­esima coordenada de αN . En estas notaciones la suma de dosN­adases por coordenadas. O sea, la i­esima coordenada de αN + βN es αi + βi. El producto porescalares tambien es por coordenadas. O sea, la i­esima coordenada de λαN es λαi.

Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental entreuna N­ada y una n­ada es que las coordenadas de la N­ada no necesariamente estan or­denadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos notienen un orden natural. Para poder identificar una N­ada de estos con una 3­ada, necesita­mos definir artificialmente cual es el primer vector cual es el segundo y cual es el tercero.Sin embargo, si al lector le cuesta trabajo pensar en lasN­adas cuando N es un conjunto, lesugiero olvidarse de queN es un conjunto y pensar queN es un numero natural.

El espacio deN­adas con soporte finito KN

Sea αN ∈ KN una N­ada. El soporte αN es por definicion el conjunto de ındices i talesque αi 6= 0. Si el conjunto de ındices N es finito entonces, cualquier N­ada tiene soportefinito (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el conjunto deındices es infinito entonces habraN­adas con soporte infinito.

Si sumamos dos N­adas de soporte finito el resultado sera una N­ada de soporte finito(porque 0 + 0 = 0). Si multiplicamos una N­ada de soporte finito por un elemento delcampo el resultado sera una N­ada de soporte finito (porque λ0 = 0). Los axiomas deespacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera N­adas.Al espacio deN­adas con soporte finito se le denota por KN.

Como ejemplo de espacio deN­adas de soporte finito veamos el siguiente. Cada polino­mio

Pn

i=0 aixi determina unıvocamente una N­ada aN donde ai = 0 si i > n. Esta N­ada

es de soporte finito. Recıprocamente, si aN es una N­ada de soporte finito entonces, nece­sariamente, hay un natural n tal que ai = 0 para cualquier i > n. Ası, le podemos hacercorresponder a aN el polinomio

Pn

i=0 aixi. Esta correspondencia es biunıvoca y las opera­

Page 54: Algebra Lineal

44 Capıtulo 2. Espacios vectoriales

ciones son las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomioses el espacio de N­adas con soporte finito. En otras palabras KN = K [x].

Un caso importante es cuandoN es finito y en este caso KN = KN . O sea, cada N­adaes de soporte finito. En particular, si N = 1, . . . , n entonces KN = KN = Kn.

Subcampos

Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un ele­mento de L por uno de K obtenemos un elemento de K. Esto significa que tenemos unaoperacion binaria en K (la suma) y una multiplicacion por escalares L×K→ K. En estecaso, los axiomas de espacio vectorial se desprenden directamente de las definiciones decampo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy par­ticular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante esque R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b)con coordenadas en R y la suma de complejos y el producto por un real son las mismasoperaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2.Otro ejemplo mas es que R es un espacio vectorial sobre Q. Este caso es suficientementecomplicado para que no digamos nada sobre el.

El espacio deN­adas de vectores EN

Ahora, nos debemos preguntar, cual es el mınimo de condiciones que le debemos pedira las coordenadas de una N­ada, para poder definir un espacio vectorial. Ya vimos que, silas coordenadas estan en un campo entonces, obtenemos un espacio vectorial. Pero esto espedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cadacoordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores.

Mas precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN

el conjunto de todas las N­adas de E. Si aN y bN son dos elementos de EN entonces, lai­esima coordenada de aN + bN es ai + bi. Esto lo podemos hacer porque sabemos sumarlos elementos de E. Ahora, si λ es un elemento de K entonces, la i­esima coordenada deλaN es λai. Esto lo podemos hacer porque sabemos multiplicar los escalares en K por losvectores en E. Los axiomas de espacio vectorial se demuestran facilmente debido a que secumplen en cada coordenada.

El espacio deNM­matrices KNM

Un caso particular de N­adas de vectores es cuando estos vectores sonM­adas de esca­

µα11 α12 α13α21 α22 α23

¶a1 = (α11,α12,α13)

a2 = (α21,α22,α23)

lares. Este espacio es¡KM

¢N. Para aclarar un poco que sucede en este caso, supongamos

queN = 1, 2 y queM = 1, 2, 3. Entonces, un elemento del espacio¡KM

¢Nes una 2­ada

(a1,a2) de vectores y cada uno de ellos es una 3­ada de escalares. Los dos vectores los po­demos representar como en el recuadro ala izquierda y para simplificar nos queda­mos con la tabla que vemos a la derecha.

Page 55: Algebra Lineal

45Seccion 2.2 Definicion y ejemplos

Esta tabla es un elemento del espacio de (N×M)­adas KN×M , o sea, los ındices sonparejas en el producto cartesiano N ×M. Esto nos permite identificar

¡KM

¢Ncon KN×M

y como las operaciones en ambos espacios son las mismas estos espacios son en esencia elmismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades¡

KM¢N= KN×M = KM×N =

¡KN¢M

que el lector debe comparar con (ax)y = axy = ayx = (ay)x para numeros naturales a, x, y.Desde ahora, para simplificar la notacion, a una (N×M)­ada cualquiera la llamaremos

NM­ada. Tambien, en lugar de usar la notacion α(N×M) para denotar unaNM­ada concreto,usaremos la notacion αNM . A una coordenada de esta NM­ada la denotaremos αij en lugarde usar la mas complicada α(i,j). En esta notacion, es mas comodo pensar que hay dos con­juntos de ındices (N yM) en lugar de uno solo (N×M). O sea, unaNM­ada es un conjuntode elementos del campo indexado por dos conjuntos de ındices. Cuando N = 1, . . . , n

y M = 1, . . . ,m entonces obtenemos una matriz con n renglones y m columnas. En elejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas.

Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jeroglıficos chinos), ladiferencia es que no hay un orden preestablecido entre los elementos de los conjuntos deındices por lo que no sabrıamos cual columna o renglon poner primero y cual despues. Comoesta diferencia no es tan importante y para no formar confusion en la terminologıa desdeahora, a las NM­adas los llamaremos NM­matrices. Escribiremos KNM para denotar elespacio vectorial de todas lasNM­matrices. Como ya sabemos, en este espacio las matricesse suman por coordenadas y se multiplican por escalares tambien por coordenadas.

Sea αNM una NM­matriz. Es costumbre llamarle a las coordenadas αij de αNM entra­das de la matriz. Si i ∈ N entonces laM­ada αiM ∈ KM es el i­esimo renglon de la matrizαNM . Si j ∈ M entonces la N­ada αNj ∈ KN es la j­esima columna. Al conjunto N sele llama conjunto de ındices de los renglones. Analogamente, al conjunto M se le llamaconjunto de ındices de las columnas.

Si N0, M0 son subconjuntos no vacıos de N y M respectivamente entonces a la matrizαN0M0 se le llama submatriz de αNM . Si |N0| = |M0| = 1 entonces la submatriz es unaentrada. Un renglon es una submatriz donde |N0| = 1 y M0 = M o sea una submatriz deltipo αiM. Una columna es una submatriz donde |M0| = 1 y N = N0 o sea una submatrizdel tipo αNj. Una ultima observacion acerca de las matrices, es que toda esta terminologıade “columnas” y “renglones” viene de la manera usual en forma de tabla en que escribimosuna matriz concreta.

El espacio de tensores

Bueno, ¿y si tenemos mas de dos conjuntos de ındices? Pues es lo mismo. UnaNML­adaes una (N×M× L)­ada. Al igual que en las matrices denotaremos por αNML a unaNML­ada con tres conjuntos de ındices o sea un tensor de exponente 3. Las matrices son tensoresde exponente 2 y las N­adas son tensores de exponente 1. Los tensores de exponente 0 sonlos elementos del campo.

Page 56: Algebra Lineal

46 Capıtulo 2. Espacios vectoriales

Si bien podemos pensar un tensor de exponente 1, co­mo una serie de elementos del campo uno al lado de otroy pensar los de exponente 2, como una tabla rectangular deelementos del campo, tambien podemos pensar los tensoresde exponente 3, como un conjunto de elementos del campodispuestos en un arreglo que llenan un cubo en el espacio.Para cada i ∈ N tenemos que αiML es un tensor de exponen­te 2 o sea una matriz. Todo αNML nos lo podemos imaginarcomo muchas matrices puestas una encima de la otra.

Sin embargo cuando el exponente del tensor es grande ya nuestra imaginacion no dapara visualizar geometricamente un arreglo de los elementos del campo dispuestos en uncubo de dimension grande. Es mucho mas util el manejo algebraico de estos, que tratarde visualizarlos. En este contexto, la terminologıa de “renglones” y “columnas” se haceinutilizable. Como es logico, los tensores con conjuntos de ındices fijos forman un espaciovectorial. La suma se hace por coordenadas y tambien la multiplicacion por un escalar.

2.3 Subespacios

Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vacıo de vectoresque es un espacio vectorial para las mismas operaciones.

Un conjunto de vectores F no vacıo es un subespacio si y solo si paracualesquiera a,b ∈ F y λ ∈ K los vectores a+ b y λa estan en F.

Prueba. Si F es un subespacio de E entonces, por definicion a+ b y λa estan en F.Recıprocamente, sea F un conjunto de vectores de E que cumple las hipotesis. Como lasuma de vectores es asociativa y conmutativa en E, tambien lo es en F. Sea a ∈ F (existe porser F no vacıo). Tenemos 0a = 0 ∈ F. Ademas ∀b ∈ F (−1)b = −b ∈ F. Con esto secomprueba que (F,+) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en Fpor ser este un subconjunto de E.

Union e interseccion de subespacios

¿Seran la interseccion (y la union) de subespacios un subespacio? La union de subespa­cios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano cartesiano(veremos prontamente que son subespacios) sin embargo, la union de los mismos no es unsubespacio ya que por ejemplo (0, 1)+(1, 0) = (1, 1) que no pertenece a la union de los dosejes. Por el contrario, la interseccion de subespacios si es un subespacio.

La interseccion de un conjunto de subespacios es un subespacio.

Page 57: Algebra Lineal

47Seccion 2.3 Subespacios

Prueba. La interseccion de subespacios nunca es vacıa porque cada subespacio contiene al0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces, a+ btambien esta en cada uno de los subespacios del conjunto. Lo mismo sucede para αa.

Combinaciones lineales

Veamos unos ejemplos importantes de subespacios. Sea a un vector

hai

ano nulo en R2. El conjunto hai = αa | α ∈ R de todos los multiplos delvectora es un subespacio deR2 ya queαa+ βa =(α+ β)a, yα (βa) =(αβ)a. Geometricamente, teniendo en cuenta la identificacion de vectorescon los puntos del plano cartesiano, podemos ver que los vectores en esteespacio son los puntos de la recta por el origen que pasa por a.

Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Consideremos elconjunto de vectores αa+ βb | α,β ∈ R. Este conjunto de vectores se denota por ha,biy es un subespacio ya que αa+βb+α0a+β0b =(α+ α0)a+(β+ β0)by λ (αa+ βb) =

λαa+λβb. Geometricamente, vemos que este conjunto contiene a la recta hai que pasa pora y a la lınea hbi que pasa por b.

EnR3 hay un solo plano que contiene estas dos rectas. ¿Sera es­

pa

bha,bi

te plano el subespacio ha,bi? Pues, claro que si. Para cadapunto p de este plano dibujemos la paralela a la lınea hai quepasa por p obteniendo un punto de interseccion con la rectahbi el cual es βb para algun β ∈ R. Analogamente, dibujan­do la paralela a hbi obtenemos el punto αa en la recta hai yvemos que p = αa+ βb. Luego, p ∈ ha,bi.

Estos ejemplos nos motivan a la siguiente definicion. Sea N un conjunto de Xi∈N

αiivectores. Una combinacion lineal de N es cualquier vector de la forma que semuestra en el recuadro a la derecha. A los escalares αi se les llama coeficientesde la combinacion lineal.

Es posible que no se entienda esta notacion. El conjunto de ındices es el conjunto devectores N por lo que en la suma hay tantos sumandos como vectores hay en N. Ası porejemplo si N = a,b,c,d entonces una combinacion lineal de N es un vector de la formaαa+βb+ γc+δd. En otras palabras, la notacion

Pi∈N αii debe interpretarse ası: “tomese

los vectores deN, cada uno de ellos multiplıquese por un escalar y sumese los resultados”.Todo esto esta muy bien si el conjuntoN es finito. SiN es infinito tenemos un problema.

¿Que es una suma infinita de vectores? La manera de evitar este problema es que le pedire­mos a los coeficientes αi que todos salvo un numero finito sean cero o sea, que laN­ada αNcuyas coordenadas son los coeficientes de la combinacion lineal es de soporte finito. Comopodemos despreciar los sumandos iguales a cero, tenemos que una combinacion lineal essiempre una suma de un numero finito de vectores.

El conjunto de todas las combinaciones lineales deN es un subespacio.

Page 58: Algebra Lineal

48 Capıtulo 2. Espacios vectoriales

Prueba. SeanP

i∈N αii yP

i∈N βii dos combinaciones lineales de N entonces, de la aso­ciatividad y conmutatividad de la suma de vectores y de la distributividad del producto porescalares obtenemos: X

i∈Nαii+

Xi∈N

βii =Xi∈N

(αi + βi) i

que es una combinacion lineal deN ya que todos los (αi + βi) salvo un numero finito tienenque ser cero. Lo mismo ocurre con γ

¡Pi∈N αii

¢=P

i∈N γαii.

Cerradura lineal

Denotaremos por hNi al conjunto de todas las combinaciones lineales deN.

Si F es un subespacio que contiene a N entonces, F contiene a hNi.

Prueba. Si F contiene a N entonces, F contiene a todos los multiplos de los vectores en Ny a todas sus sumas finitas. Luego, cualquier combinacion lineal deN esta en F.

Los siguientes tres conjuntos de vectores coinciden1. El conjunto de todas las combinaciones lineales deN.2. La interseccion de todos los subespacios que contienen aN.3. El subespacio mas pequeno que contiene aN.

Prueba. Denotemos por F1, F2 y F3 a los tres conjuntos del enunciado de la proposicion. Pordefinicion F1 = hNi. Por la proposicion 2.3 el conjunto F2 es un subespacio que contiene aN y de 2.5 obtenemos que F1 ⊆ F2. Por definicion de interseccion tenemos que F2 ⊆ F3.Por definicion, F3 esta contenido en cualquier subespacio que contiene a N y en particularF3 ⊆ F1. La prueba termina usando la transitividad de la inclusion de conjuntos.

A cualquiera de los tres conjuntos (¡son iguales!) de la proposicion anterior se le denotapor hNi y se le llama cerradura lineal deN o tambien el subespacio generado por N.

Propiedades de la cerradura lineal

La cerradura lineal cumple las siguientes propiedades:¨ N ⊆ hNi (incremento),¨ N ⊆M⇒ hNi ⊆ hMi (monotonıa),¨ hhNii = hNi (idempotencia).

Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N ⊆ M. Cualquiercombinacion lineal de N es tambien combinacion lineal de M (haciendo cero todos loscoeficientes de los vectores en M\N). Finalmente, por 2.6.3 hhNii es el subespacio maspequeno que contiene a hNi. Como hNi es un subespacio entonces, hhNii = hNi.

Page 59: Algebra Lineal

49Seccion 2.4 Bases

En matematicas las palabras “clausura”, “cerradura” y “envoltura” son sinonimos. Poresto con el mismo exito, otros autores le llaman “clausura lineal” o “envoltura lineal” anuestro concepto de cerradura lineal. Ademas, es bueno que el lector encuentre el parecidoentre el concepto de cerradura lineal y el concepto de “cerradura” en analisis (la interseccionde todos los cerrados que contienen a un conjunto).

En general una funcion que a un conjuntoN le hace corresponder otro conjunto hNi y que cumplelas propiedades 1­3 se le llama operador de cerradura (clausura, envoltura). En este caso a losconjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las propiedades 1­3 es, en

general, equivalente a que el operador de cerradura se defina como la interseccion de todos los cerrados quecontienen al conjunto. En todas las ramas de las matematicas se encuentran operadores de cerradura.

Ejercicio 48 Demuestre que N es un subespacio si y solo si N = hNi.Ejercicio 49 Demuestre que (x ∈ hN ∪ yi \ hNi)⇒ (y ∈ hN ∪ xi). [179]

2.4 Bases

Observemos que la definicion de combinacion lineal deN de­KN 3 αN 7→X

i∈Nαii ∈ E termina la funcion fN del recuadro a la izquierda que a ca­

da N­ada de soporte finito αN le hace corresponder el vectorPi∈N αii. Esta funcion no tiene porque que ser sobreyectiva ni inyectiva, depende del con­

junto de vectores N. Por ejemplo, sea N = x,y,z donde x = (0, 0, 1), y = (0, 1, 0) yz = (0, 1, 1) son tres vectores en R3. En este caso fN (2, 2, 0) = fN (0, 0, 2) = (0, 2, 2) porlo que fN no es inyectiva. Tampoco es sobreyectiva porque (1, 0, 0) no tiene preimagen.

En esta seccion estableceremos que en todo espacio vectorial existen conjuntos N paralos cuales la funcion fN es biyectiva. Este hecho es fundamental, porque en este caso existe lafuncion inversa f−1N : E→ KN que nos permitira introducir coordenadas en cualquier espa­cio vectorial. Es mas, veremos que los conjuntos de vectores para los cuales fN es biyectivatienen la misma cantidad de vectores. Esto quiere decir que cada vector de E se define porun cierto numero de elementos del campo (coordenadas) y que este numero es independientedel vector a definir. Solo depende del espacio. Ası, en R2 nos hacen falta siempre dos realespara dar un vector y en R7 nos hacen falta siete.

Conjuntos generadores

Primero, lo mas facil. La imagen de la funcion fN es hNi , la cerradura de N. DiremosqueN es un conjunto generador si hNi es todo el espacio o sea, si fN es sobreyectiva.

Los generadores son un filtro

Todo sobreconjunto de un conjunto generador es generador.

Page 60: Algebra Lineal

50 Capıtulo 2. Espacios vectoriales

Prueba. SupongamosM ⊇ N. Por monotonıa de la cerradura lineal tenemos hNi ⊆ hMi.Si hNi es todo el espacio entonces, necesariamente hMi tambien lo es.

Conjuntos linealmente independientes

Ahora, veamos cuando fN es inyectiva. Observese que en un lenguaje mas descriptivo,un fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado.

Teorema de Caracterizacion de Conjuntos Linealmente Independientes

SeaN un conjunto de vectores. Las siguientes afirmaciones son equivalentes1. Cualquier subconjunto propio deN genera un subespacio mas pequeno

que todoN.2. Cualquier vector enN no es combinacion lineal de los restantes.3. Si dos combinaciones lineales de N son iguales entonces, todos sus

coeficientes son iguales.4. Si una combinacion lineal deN es cero entonces, todos sus coeficientes

son cero.

Prueba. (1⇔ 2) Si 1 no es cierto entonces existe a ∈ N tal que hNi = hN\ai peroentonces a ∈ hN\ai lo que contradice 2. Recıprocamente, si 2 no es cierto entonces existea ∈ N tal que a∈ hN\ai. Por incremento N\a ⊆ hN\ai y como ademas a ∈ hN\aientoncesN ⊆ hN\ai. Por monotonıa e idempotencia hNi ⊆ hN\ai lo que contradice 1.(3⇔ 4) Observese que

¡Pi∈N αii =

Pi∈N βii

¢ ⇔ ¡Pi∈N (αi − βi) i = 0

¢y ademas

(αi = βi)⇔ (αi − βi = 0). Luego, la existencia de combinaciones lineales iguales con al­gunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales igualesa cero con algunos coeficientes no cero.(2⇔ 4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinacion lineal de

N\a. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinacionlineal de N igual a cero con un coeficiente distinto de cero. Esto contradice 4. Recıproca­mente, si no se cumple 4 entonces hay un vector a ∈ N y una combinacion lineal deN iguala cero y con αa 6= 0. Despejando a, obtenemos que a ∈ hN\ai. Esto contradice 2.

Ejercicio 50 Busque en la prueba del Teorema de Caracterizacion de Conjuntos Linealmen­te Independientes (2.9) donde se usan los inversos nultiplicativos. [179]

Diremos que un conjunto de vectores N es linealmente independiente si se cumplealguna (y por lo tanto todas) las afirmaciones de la proposicion anterior. Los conjuntos devectores que no son linealmente independiente se les llama linealmente dependientes.

Page 61: Algebra Lineal

51Seccion 2.4 Bases

A partir de ahora para no repetir constantemente frases largas a los conjuntosde vectores linealmente independientes los llamaremos conjuntos LI. Analo­gamente a los conjuntos de vectores linealmente dependientes los llamaremos

conjuntos LD. Estas notaciones se deben pronunciar “ele i” y “ele de”.

Los independientes son un ideal

Todo subconjunto de un conjunto LI es LI.

Prueba. Sea N ⊆M tal queM es LI. Cualquier combinacion lineal de N es combinacionlineal de M. Luego toda combinacion lineal de N igual a cero tiene todos sus coeficientesiguales a cero

Antes de pasar a la definicion de base, demostremos un pequeno resultado que usaremosrepetidamente en lo adelante.

Lema de Aumento de un Conjunto LI

SiN es independiente yN∪a es dependiente entonces a ∈ hNi.

Prueba. Si N ∪ a es LD entonces, por la caracterizacion 2.9.4 de los conjuntos LI, hayuna combinacion de N ∪ a igual a cero cuyos coeficientes no todos son igual a cero. Si elcoeficiente en a fuera igual a cero obtendrıamos una contradiccion con queN es LI. Luego,el coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi.

Bases

La relacion entre los conjuntos generadores y los conjun­

Conjuntos generadores

Conjuntos LI

E

tos LI la podemos ver intuitivamente en la figura a la derecha.Aquı estan representados los subconjuntos del espacio E queson generadores o que son LI. Mientras mas arriba mas gran­de es el subconjunto. Nuestro interes ahora se va a concentraren la franja del centro donde hay subconjuntos que a la vezson generadores y LI. La siguiente proposicion nos dice que“esta franja no puede ser muy ancha”.

Teorema de Caracterizacion de Bases

SeaN un conjunto de vectores. Las siguientes afirmaciones son equivalentes1. N es generador yN es LI,2. N es LI y cualquier sobreconjunto propio deN es LD,3. N es generador y cualquier subconjunto propio deN no es generador.

Prueba. (1⇒ 2) Sea N independiente y generador. Sea a /∈ N. Como N es generador

Page 62: Algebra Lineal

52 Capıtulo 2. Espacios vectoriales

a ∈ hNi . De la caracterizacion 2.9.2 de los conjuntos LI se sigue que N ∪ a es LD. Luegotodo sobreconjunto propio deN es LD.(2⇒ 3) Sea N independiente maximal. Por incremento N ⊆ hNi. Si a /∈ N entonces

N∪a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a ∈ hNi . Luego,N es generador. Si algun subconjunto propio deN fuera generador entonces existirıa a ∈ Ntal que a ∈ hN\ai y por la caracterizacion 2.9.2 de los conjuntos LI esto contradice lasuposicion de queN es LI.(3⇒ 1) Sea N generador minimal. Si N es LD entonces, por la caracterizacion 2.9.1

de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N esgenerador entoncesM tambien lo es. Esto contradice la suposicion de queN es minimal.

Sea F un subespacio. Un conjunto de vectores que es generador de F y que es LI se lellama base de F. Las bases de todo el espacio se llaman simplemente bases. El ser base esequivalente a ser un conjunto LI lo mas grande posible o ser un conjunto generador lo maschico posible. Tambien, el ser base es equivalente a que nuestra funcion fN del principio deesta seccion sea biyectiva.

Lema de Incomparabilidad de las Bases

Dos bases diferentes no estan contenidas una dentro de la otra.

Prueba. Si N ⊆M son dos bases diferentes entonces N es un subconjunto propio deM ypor el Teorema de Caracterizacion de Bases (2.12) esto es una contradiccion.

Teorema de Existencia de Bases

Sea N un conjunto generador y L ⊆ N un conjuntoLI. Entonces, existe una base M tal que L ⊆ M ⊆ N.

Prueba. Sean L y N como en las hipotesis del teorema. Sea M un conjunto LI tal queL ⊆ M ⊆ N. Si M es maximal con estas propiedades (∀a ∈ N\M M ∪ a es LD)entonces, por el Lema de Aumento de un Conjunto LI (2.11) tenemos N ⊆ hMi. Como Nes generador, esto significa queM tambien lo es y por lo tantoM es una base.

Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es facil siel conjuntoN es finito. Primero ponemosM igual a L. SiM es maximal terminamos, si no,entonces existe a ∈ N\M tal que M ∪ a es LI. Agregamos a al conjunto M y repetimoseste proceso. ComoN es finito este proceso tiene que terminar.

Ejercicio 51 Pruebe que las siguientes afirmaciones son consecuencia directa del Teoremade Existencia de Bases (2.14): 1. Todo espacio vectorial tiene base. 2. Cualquier conjunto LIesta contenido en una base. 3. Cualquier conjunto generador contiene a una base. [179]

Page 63: Algebra Lineal

53Seccion 2.4 Bases

Dimension

Ahora lo que queremos ver es que todas las bases tienen el mismo numero de vectores.Para probar esto se necesita ver primero una propiedad clasica de las bases.

Propiedad del Cambio de las Bases

SiM yN son dos bases entonces, para cualquiera ∈M existe b ∈ N tal que (M\a)∪b es base.

Prueba. Sea a un vector fijo pero arbitrario en M. Para un vector b ∈ N denotemosMb = (M\a) ∪ b. Si para todos los b ∈ N\ (M\a) el conjunto Mb fuera LD entonces,por el Lema de Aumento de un Conjunto LI (2.11) todo b ∈ N serıa combinacion linealdeM\a. O sea, N ⊂ hM\ai y por monotonıa e idempotencia tendrıamos hNi ⊆ hM\ai .Como hNi es todo el espacio en particular tendrıamos a ∈ hM\ai lo que no es posible yaqueM es LI.

Hemos demostrado que existe b ∈ N\ (M\a) tal queMb es LI. Demostremos queMb

es generador. Sea v un vector arbitrario. Por serM base tenemos que b y v son combinacio­nes lineales deM o sea existen escalares apropiados tales que

b = αaa+Xx∈M\a

αxx v = λaa+X

x∈M\a

λxx

Como Mb es LI entonces, b no es una combinacion lineal de M\a y por lo tanto αa 6= 0.Luego, podemos despejar a de la primera ecuacion, substituirla en la segunda y ası obtenerque v ∈ hMbi. Esto significa queMb es generador.

Equicardinalidad de las Bases

Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.

Prueba. Sean A = a1, ...,an y B dos bases. Por la Propiedad del Cambio de las Bases(2.15) existe otra base A1 = b1,a2, ...,an donde b1 ∈ B. Observese que |A1 | = n yaque en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las Bases(2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos otra baseA2 = b1,b2,a3, ...,an tal que b2 ∈ B. Observese que |A2 | = n ya que en otro casoA2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Repitiendoeste proceso obtenemos basesA3,A4, ..., An todas con n vectores y ademasAn ⊆ B. ComoB es base obtenemos An = B y por lo tanto B tambien tiene n vectores.

Al cardinal de una base (cualquiera) se le llama dimension del espacio vectorial. La di­mension de un espacio vectorial E se denotara por dimE. Los espacios vectoriales que tienenuna base finita se les llama finito dimensionales o de dimension finita. Por el contrario, sisus bases son infinitas entonces, el espacio vectorial es de dimension infinita. La teorıa delos espacios vectoriales de dimension finita es mas sencilla pero mas completa que la de los

Page 64: Algebra Lineal

54 Capıtulo 2. Espacios vectoriales

espacios de dimension infinita. Para darnos cuenta de que hay muchas cosas que se cumplenen el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemploel siguiente resultado que tendremos multiples ocaciones para utilizarlo.

Sea F un espacio vectorial finito dimensional y E unsubespacio de F. Si dimE = dimF entonces E = F.

Prueba. SeaN una base de E. Por el Teorema de Existencia de Bases (2.14) existe una baseM del espacio F que contiene a N. Como M es finita entonces, N tambien es finita. Comolas dimensiones coinciden, el numero de vectores enN es igual al numero de vectores enM.LuegoN =M y por lo tanto E = hNi = hMi = F.

Observese que la prueba de Equicardinalidad de las Bases (2.16) la hemos he­cho solamente para el caso que el espacio tiene una base finita. Nuestra pruebadel Teorema de Existencia de Bases (2.14) es solo para el caso que el con­

junto generador es finito. Finalmente, solo hemos probado que los espacios vectoriales quetienen un conjunto generador finito tienen base. Es importante que el lector sepa que estastres afirmaciones son validas en general. Sin embargo, las pruebas generales dependen de unconocimiento mas profundo de la Teorıa de Conjuntos que no presuponemos que lo posea ellector. A los interesados en esto les recomiendo leer ahora la ultima seccion de este capıtulo.

Ejercicio 52 Pruebe que si E un subespacio de F entonces dimE ≤ dimF. [179]Ejercicio 53 Encuentre un ejemplo donde no se cumple 2.17. [179]

Bases canonicas

Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen unabase sino muchas. Por esto es conveniente construir bases que son las mas “sencillas” paralos ejemplos de espacios vectoriales que construimos en la Seccion 2.2.

Comenzemos con R2. Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en R2tiene una manera de expresarse como combinacion lineal de N = e1,e2. Efectivamente,tenemos la igualdad (a, b) = ae1 + be2. Esto quiere decir que el conjuntoN es generador.Por otro lado, si αe1 + βe2 = (α,β) = 0 = (0, 0) entonces, necesariamente, α y β sonambos cero. De aquı obtenemos que conjuntoN es una base que la llamamos base canonicade R2. Los vectores e1 y e2 se pueden visualizar geometricamente como los dos vectores delongitud 1 en ambos ejes de coordenadas. Luego, la dimension de R2 es 2.

Pasemos ahora a Kn. Para cada i en el conjunto de ındices 1, . . . , n denotemos por eiel vector cuya i­esima coordenada es 1 y todas las demas son cero (recuerde que todo cam­po tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos (α1, . . . ,αn) =Pn

i=1 αiei y esto significa que cada vector en Kn se expresa de forma unica como combina­

Page 65: Algebra Lineal

55Seccion 2.5 Clasificacion de espacios vectoriales

cion lineal deN. O sea, N es generador y por la caracterizacion 2.9.3 de los conjuntos LI elconjuntoN es LI. A la baseN se le llama base canonica de Kn. La dimension de Kn es n.

Veamos el espacio de polinomios K [x]. Sea N el conjunto©xi | i ∈ N

ª. Es claro que

todo polinomio se puede escribir de forma unica como combinacion lineal finita de N. A labase N se le llama base canonica de K [x]. Luego, K [x] es de dimension infinita contable.Desafortunadamente, para el espacio de series no se puede dar explicitamente una base.

Para el espacioKM de todas lasM­adas de soporte finito ya hicimos casi todo el trabajo(veaseKn). Para cada i en el conjunto de ındicesM denotemos por ei el vector cuya i­esimacoordenada es 1 y las demas son cero. Sea N el conjunto de todos esos vectores. TenemosαN =

Pi∈N αieN donde los coeficientes son distintos de cero solamente en un subconjunto

finito de indices. Luego, N es una base de este espacio la cual es su base canonica. Ladimension de KM es el cardinal deN ya que hay una biyeccion entreN yM.

Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjuntoM es infinito. Si el conjunto de ındices es finito entonces estamos hablando de todas lasM­adas o sea de KM . Luego, en el caso de queM es finito KM = KM y la base canonicade KM es la construida en el parrafo anterior. En el caso de que el conjunto M sea infinitoentonces el espacio KM no tiene una base canonica.

El campo de los numeros complejos como espacio vectorial sobre los reales tienen comobase canonica al conjunto 1, i y por lo tanto tiene dimension 2. Los reales como espaciovectorial sobre los racionales no tienen una base canonica.

Todos los espacios que hemos visto que no tienen base canonica son de dimension infi­nita. Sin embargo, no todos los espacios de dimension finita tienen una base canonica. Elejemplo mas sencillo de esto es tomar un subespacio de un espacio de dimension finita. Sieste subespacio es suficientemente general, entonces no hay manera de construir una basecanonica del mismo incluso en el caso de que todo el espacio tenga una base canonica.

Ejercicio 54 Demuestre que el conjunto (x− x0)i| i ∈ N es una base de K [x]. [179]

Ejercicio 55 ¿Cual es la base canonica del espacio de lasNM­matrices? [179]

2.5 Clasificacion de espacios vectoriales

En esta seccion veremos que todo espacio vectorial es isomorfo a un espacio de N­adas de soporte finito. Para el caso finito dimensional esto quiere decir que el unico (salvoisomorfismos) espacio vectorial de dimension n sobre un campo K que existe es el espaciode las n­adas Kn.

Isomorfismos lineales

En el Capıtulo 1 vimos los morfismos de operaciones binarias, grupos, anillos y campos.Para los espacios vectoriales es igual, la unica diferencia es que en ellos hay definida una

Page 66: Algebra Lineal

56 Capıtulo 2. Espacios vectoriales

operacion que no es interna del espacio: el producto de un escalar por un vector. Sin embargo,esto no presenta mayores dificultades.

Sean E y F dos espacios vectoriales sobre el mismo campof (a+ b) = f (a) + f (b)

f (αa) = αf (a)K. Una funcion f : E→ F se le llama morfismo de espaciosvectoriales si para cualesquiera a,b ∈ E y cualquier α ∈ Kse cumplen las propiedades del recuadro.

A los morfismos de espacios vectoriales tambien se les llama transformaciones lineales.Esta ultima expresion sera la que usemos porque tiene dos importantes ventajas. Primero,es mas corta que la primera. Segundo es mucho mas antigua, hay mucha mas cantidad depersonas que la conoce y por lo tanto facilita la comunicacion con ingenieros y cientıficosde diversas areas.

Ejercicio 56 Demuestre que la composicion de morfismos es un morfismo. [179]

El estudio de las transformaciones lineales lo pospondremos hasta el siguiente capıtulo.Aquı estaremos interesados en los isomorfismos de espacios vectoriales. Una transformacionlineal f : E→ F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta esbiyectiva. Analogamente al caso de operaciones binarias tenemos el siguiente resultado:

La inversa de cualquier isomorfismo lineal es un isomorfismo lineal.

Prueba. Sea α ∈ K y x,y ∈ F. Como f es una biyeccion existen a,b ∈ E tales quef (a) = x , f (b) = y. Como f es isomorfismo tenemos

f−1 (x+ y) = f−1 (f (a) + f (b)) = f−1 (f (a+ b)) = a+ b = f−1 (x) + f−1 (y)

f−1 (αx) = f−1 (αf (a)) = f−1 (f (αa)) = αa =αf−1 (x)que es lo que se querıa demostrar.

Ya observamos, que los isomorfismos son nada mas que un cambio de los nombres de loselementos y las operaciones. Esto quiere decir que “cualquier propiedad” debe conservarseal aplicar un isomorfismo. La siguiente proposicion es un ejemplo de esta afirmacion.

Un isomorfismo transforma conjuntos LI en conjuntos LI, con­juntos generadores en conjuntos generadores y bases en bases.

Prueba. Sea f : E → F un isomorfismo de espacios vectoriales. Sea M ⊆ E y denotemosN = f (M) ⊆ F. Sean ademas x ∈ E , y = f (x) ∈ F. Como f es isomorfismo tenemosÃX

i∈Mαii = x

!⇔ ÃXi∈M

αif (i) = y

!⇔ ÃXj∈N

αjj = y

!donde el conjunto de coeficientes αi | i ∈M es exactamente el mismo que αj | j ∈ N.

SiM es generador entonces, para cualquier y ∈ F el vector x = f−1 (y) es combinacion

Page 67: Algebra Lineal

57Seccion 2.5 Clasificacion de espacios vectoriales

lineal deM y por la equivalencia anterior el vector y es combinacion lineal deN. Luego, siM es generador entoncesN tambien lo es.

Supongamos queM es LI entonces, poniendo x = 0 obtenemosÃXi∈M

αii = 0

!⇔ ÃXj∈N

αjj = 0

!luego, cualquier combinacion lineal deN que es nula tambien es combinacion lineal nula deM y por lo tanto todos sus coeficientes son cero. Luego,N es LI.

Ejercicio 57 Demuestre que los isomorfismos conmutan con el operador de cerradura linealy que trasforman subespacios en subespacios de la misma dimension.

Coordinatizacion

Sea N un conjunto de vectores del espacio vectorial F. Al principio de la seccion ante­rior introducimos la funcion fN que a cada N­ada de soporte finito le hace corresponder lacombinacion lineal cuyos coeficientes son dicha N­ada. Esta funcion es siempre una trans­formacion lineal ya que

fN (αN + βN) =Xi∈N

(αi + βi) i =Xi∈N

αii+Xi∈N

βii = fN (αN) + fN (βN)

fN (λαN) =Xi∈N

(λαi) i = λXi∈N

αii = λfN (αN) .

Por otro lado, ya vimos que fN es sobreyectiva si y solo siN es generador, que fN es inyectivasi y solo siN es LI y por lo tanto fN es un isomorfismo si y solo siN es una base. En el casode que N sea una base, la funcion inversa f−1N : F→ KN es un isomorfismo lineal llamadocoordinatizacion de F mediante la base N. En otras palabras, si N es una base de F, y x esun vector de F entonces, existe una unica N­ada αN ∈ KN tal que x =

Pi∈N αii. En este

caso, a los coeficientes αi se les llama coordenadas de x en la baseN.

Clasificacion

Se dice que dos espacios son isomorfos si existe una funcion que es un isomorfismoentre ellos. No hay ninguna razon (por ahora) para que deseemos distinguir dos espaciosvectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los “nombres” de losvectores y las operaciones. La clave para ver que los espacios vectoriales son isomorfos esque estos tengan la misma dimension.

Dos espacios vectoriales sobre el mismo campo sonisomorfos si y solo si tienen la misma dimension.

Prueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19 unisomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro por

Page 68: Algebra Lineal

58 Capıtulo 2. Espacios vectoriales

lo que tienen la misma dimension. Recıprocamente, sean N y M bases de E y F respecti­vamente. Mediante los isomorfismos de coordinatizacion podemos pensar que E = KN yF = KM. Si los dos tienen la misma dimension entonces, hay una biyeccion f : M → N.Sea g : KN 3 αN 7→ βM ∈ KM la funcion tal que βi = αf(i). La funcion g la po­demos pensar como la que simplemente le cambia el nombre a los ındices de una N­ada.Esta es claramente un isomorfismo de espacios vectoriales (ya que la suma deN­adas es porcoordenadas y lo mismo con el producto por un escalar).

Esta proposicion nos permite saber como son TODOS los espacios vectoriales. Ya vimos(mediante la base canonica) que el espacio vectorial de todas las N­adas (funciones) desoporte finito tiene dimension |N|. Escogiendo el conjunto N adecuadamente obtenemostodas las dimensiones posibles. En el caso de queN sea finito con n elementos , este espacioes Kn por lo que es valido el siguiente teorema.

Teorema de Clasificacion de Espacios Vectoriales

Todo espacio vectorial es isomorfo a un espacio de N­adas de soportefinito. Todo espacio vectorial finito dimensional es isomorfo a Kn.

Campos de Galois

Una aplicacion sencilla del Teorema de Clasificacion de Espacios Vectoriales (2.21) esla siguiente. Sea E un espacio vectorial finito dimendional sobre el campo K. Tenemos paracierto natural n un isomorfismo E ←→ Kn y si el campo K es finito entonces en E hayexactamente |K|n vectores.

El numero de elementos en un campo finito es potencia de un numero primo.

Prueba. Ya vimos que siempre que se tenga un subcampo L del campoK entonces,K es unespacio vectorial sobre L. Esto es en esencia porque podemos sumar vectores (los elementosde K) y podemos multiplicar escalares (los elementos de L) por vectores.

SiK es finito entonces su caracterıstica no puede ser 0 y por lo tanto es igual a un numeroprimo p. Esto quiere decir queK contiene como subcampo Zp. La dimension deK sobre Zptiene que ser finita ya que si no, entonces K serıa infinito. Luego, K es isomorfo a Znp quetiene exactamente pn elementos.

Como pensar en espacios vectoriales

A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificacion deEspacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se debe pensarenR2 yR3. La interpretacion geometrica de estos dos espacios como los segmentos dirigidoscon origen en el cero da una intuicion saludable acerca de lo que es cierto y lo que no.

Page 69: Algebra Lineal

59Seccion 2.6 Suma de subespacios

En segundo lugar el lector debe pensar en el ejemplo Rn. Si el lector lo prefiere, elnumeron puede ser un numero fijo suficientemente grande digamosn = 11.Ya en este caso,para entender es necesario usar varios metodos: las analogıas geometricas en dimensionespequenas, el calculo algebraico con sımbolos y los razonamientos logicos. Casi todo lo quese puede demostrar para espacios vectoriales finito dimensionales se demuestra en el casoparticular de Rn con la misma complejidad. Las demostraciones de muchos hechos validosenRn se copian tal cual para espacios vectoriales de dimension finita sobre cualquier campo.

En tercer lugar se debe pensar en Cn. El espacio vectorial Cn es extremadamente impor­tante dentro de las matematicas y la fısica. Ademas, el hecho de que C es algebraicamentecerrado hace que para Cn algunos problemas sean mas faciles que en Rn. Hay una manerade pensar en Cn que ayuda un poco para tener intuicion geometrica. Como ya vimos 1, ies una base de C como espacio vectorial sobre R. De la misma manera Cn es un espaciovectorial sobre R de dimension 2n o sea, hay una biyeccion natural entre Cn y R2n (la bi­yeccion es (a1 + b1i, a2 + b2i, ..., an + bni) 7→ (a1, b1, a2, b2, ..., an, bn)). Sin embargoesta biyeccion no es un isomorfismo. Si E es un subespacio de Cn sobre R entonces no ne­cesariamente E es un subespacio de Cn sobre C . Desde este punto de vista podemos pensar(no rigurosamente) a Cn como un R2n en el que hay menos subespacios.

Los que se interesan en las ciencias de la computacion deben tambien pensar en Znp yen general en cualquier Kn donde K es un campo finito. Las aplicaciones mas relevantesincluyen la codificacion de informacion con recuperacion de errores y la criptografıa, que esla ciencia de cifrar mensajes.

Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos deeste libro) entonces, lo mas facil es pensar en Kn. Esto tiene una gran ventaja en el sentidode que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo.

Sin embargo, en el caso infinito dimensional la situacion es mas fea. Nuestros teoremasnos garantizan que hay un isomorfismo entre R como espacio vectorial sobreQ y las funcio­nes de soporte finito de una base de este espacio a Q. El problema es que nadie conoce (niconocera nunca) una base de este espacio, ası que realmente, estos teoremas no dicen muchopara espacios vectoriales de dimension mayor que el cardinal de los naturales ℵ0.

2.6 Suma de subespacios

En esta seccion introduciremos las operaciones mas basicas entre subespacios. Pero an­tes, es saludable dar una interpretacion geometrica de los subespacios para que el lectorpueda comparar el caso general con el caso de los espacios R2 y R3.

Subespacios de Rn

¿Cuales son todos los subespacios de Rn? Del Teorema de Clasificacion de EspaciosVectoriales (2.21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ 0, 1, . . . , nsegun sea su dimension. Si i = 0 entonces todo el subespacio es el vector 0 (el origen decoordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego, los casos

Page 70: Algebra Lineal

60 Capıtulo 2. Espacios vectoriales

interesantes son los que 0 < i < n.Si i = 1 entonces, el subespacio tiene que ser isomorfo a R y tiene que tener una base

de un vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya vimos quehai es la recta que pasa por el origen y por el punto a que es el final del vector a. Luego,los subespacios de dimension 1 de Rn son las rectas que pasan por el origen. Para R2 esteanalisis termina con todas las posibilidades.

Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una basea,b de dos vectores. La base a,b tiene que ser LI y en este caso eso quiere decir que bno es un multiplo escalar de a. En otras palabras, los puntos finales de los vectores a, b yel origen de coordenadas no estan alineados. En este caso hay un unico plano (R2) que pasapor estos tres puntos y tambien ya vimos que este plano es ha,bi. Luego, los subespacios dedimension 2 de Rn son los planos que pasan por el origen. Para R3 este analisis termina contodas las posibilidades: sus subespacios son: el origen, las rectas por el origen, los planos porel origen y todo el espacio.

Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba laintuicion y la terminologıa geometrica. Por esto, pasemos al caso general. Un subespacio dedimension i en Rn esta generado por una base a1, . . . ,ai de i vectores LI. Que sean LIlo que quiere decir es que sus puntos y el origen no estan contenidos en un subespacio dedimension menor que i. Si este es el caso entonces hay un unico Ri que contiene a todosestos puntos y este es el subespacio ha1, . . . ,aii.

Suma de conjuntos y subespacios

Sean E y F dos subespacios sobre un campoK. En la proposicion 2.3 vimos que E∩F esun subespacio. Por definicion de interseccion E ∩ F es el subespacio mas grande contenidoen E y F. Ya observamos ademas que E ∪ F no es un subespacio. Sin embargo, hay unsubespacio que es el mas pequeno que contiene a los dos y este es hE ∪ Fi. El subespaciohE ∪ Fi tiene una estructura muy simple:

hE ∪ Fi = a+ b | a ∈ E, b ∈ F

Prueba. Todo a+ b es una combinacion lineal de E∪F. Recıpro­ Xx∈E

αxx+Xy∈F

βyycamente, toda combinacion lineal de E ∪ F se puede escribir comoen el recuadro a la derecha. Como E y F son subespacios entonces,el primero y el segundo sumando son elementos de E y F respectivamente. Esto quiere decirque todo elemento de hE ∪ Fi es de la forma a+ b con a en E y b en F.

Dados dos conjuntos cualesquiera de vectores A y BA+ B = a+ b | a ∈ A, b ∈ B definimos la suma de estos como en el recuadro a laizquierda. Despues de esta definicion el resultado 2.23 se puede reformular como hE ∪ Fi =E+ F. Es por esto que al subespacio hE ∪ Fi se le llama la suma de los subespacios E y Fy desde ahora se le denotara por E + F.

Page 71: Algebra Lineal

61Seccion 2.6 Suma de subespacios

La igualdad modular

Sean E y F dos subespacios. Ahora trataremos de calcular la dimension de E + F. Paraesto necesitaremos primero encontrar bases de E ∩ F y E + F.

Existen E una base de E y F una base de F tales queE ∩ F es base de E ∩ F y E ∪ F es base de E + F.

Prueba. SeaN una base de E∩F . ComoN es LI y esta contenida en E entonces, por el Teo­rema de Existencia de Bases (2.14) existe una base E de E que contiene aN. Analogamente,existe una base F de F que contiene aN.

Demostremos primero que E∩ F = N. Efectivamente, por la forma en que contruimos Ey F tenemosN ⊆ E∩ F. Para la prueba de la otra inclusion sea a ∈ E∩ F. ComoN∪a ⊆ Eentonces, tenemos queN ∪ a es LI. ComoN es base de E ∩ F y las bases son los conjuntosLI mas grandes, obtenemos que a ∈ N. Luego, E ∩ F ⊆ N.

Solo nos queda probar que E ∪ F es una base de E + F. En primer lugar, cualquiera+ b ∈ E + F es combinacion lineal de E ∪ F por lo que E ∪ F es generador de E + F.Necesitamos probar que E ∪ F es LI. Para esto supongamos que

0 =Xi∈E∪F

αii =Xi∈E\N

αii+Xi∈N

αii+Xi∈F\N

αii

y demostremos que todos los αi son cero. Sean x,y, z el primer, segundo y tercer sumandorespectivamente en la igualdad anterior. Por construccion, tenemos x ∈ E, y ∈ E ∩ F yz ∈ F. Ademas, como z = − (y+ x) y E es un subespacio, obtenemos z ∈ E ∩ F.

ComoN es una base deE∩F el vector z es combinacion lineal deN, o sea z =P

i∈N λii

para ciertos coeficientes λi. De aquı obtenemos que

0 = x+ y+ z =Xi∈E\N

αii+Xi∈N

(αi + λi) i

Como E es LI, todos los coeficientes de esta combinacion lineal son cero. En particular,αi = 0 para todo i ∈ E\N y por lo tanto x = 0. Substituyendo x obtenemos

0 = y+ z =Xi∈N

αii+Xi∈F\N

αii

y como F es LI deducimos que los restantes coeficientes tambien son cero.

Igualdad modular

Si E y F son dos subespacios entonces,dimE + dimF = dim (E + F) + dim (E ∩ F).

Prueba. Por 2.24 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩ Fes base de E ∩ F. Luego, la formula se reduce a la conocida igualdad entre cardinales deconjuntos |E|+ |F| = |E ∪ F|+ |E ∩ F|.

Page 72: Algebra Lineal

62 Capıtulo 2. Espacios vectoriales

Ejercicio 58 Use la igualdad modular para cons­E F (E + F)

1 1 11 1 21 2 2

E F (E + F)

1 2 32 2 32 2 4

truir ejemplos de subespacios reales E y F tales queellos y E + F tienen las dimensiones definidas en latabla del recuadro a la derecha. ¿Puede tener E + Fdimension diferente a las de la tabla?

Suma directa

Para dos espacios vectoriales Ey F (no necesariamente contenidos en otro espacio) sobreun mismo campo K definiremos la suma directa de ellos como el espacio vectorial

E⊕ F = (a,b) | a ∈ E, b ∈ F(a,b) +

¡a0,b0

¢=

¡a+ a0,b+ b0

¢λ (a,b) = (λa,λb)

Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. Ladiferencia esta en que la suma directa ya trae en su definicion las operaciones de suma devectores y multiplicacion por un escalar. Deberıamos probar que la suma directa es efectiva­mente un espacio vectorial, o sea que cumplen todos los axiomas. Nosotros omitiremos estaprueba por ser trivial y aburrida. Mejor nos concentraremos en algo mas interesante.

dim (E⊕ F) = dimE + dimF.

Prueba. Sea E0 = (a,0) | a ∈ E y F0 = (0,b) | b ∈ F. Es claro que los espacios E y E0

son isomorfos y por lo tanto tienen la misma dimension. Otro tanto ocurre con F y F0. Pordefinicion de suma de subespacios tenemos que E0 + F0 = E⊕ F . De la Igualdad modular(2.25) obtenemos dim (E0 + F0) = dimE0 + dimF0− dim (E0 ∩ F0) = dimE+ dimF.

Isomorfismo canonico entre la suma y la suma directa.

De esta ultima proposicion y de la igualdad modular se deduce que si dos subespacios Ey F son tales que E∩F = 0 entonces dim (E⊕ F) = dim (E + F) o sea E⊕F es isomorfoa E + F. A continuacion probaremos solo un poquito mas. Sin embargo, este poquito nosllevara a profundas reexiones.

Isomorfismo Canonico entre la Suma y la Suma directa

Si E y F son subespacios tales que E ∩ F = 0 entonces la funcionE⊕ F 3 (a,b) 7→ a+ b ∈ E + F

es un isomorfismo de espacios vectoriales.

Page 73: Algebra Lineal

63Seccion 2.6 Suma de subespacios

Prueba. Sea f la funcion definida en el enunciado. Tenemosf (λ (a,b)) = f (λa, λb) = λa+ λb = λ (a+ b) = λf (a,b)

f ((a,b) + (x,y)) = f (a+ x,b+ y) = a+ x+ b+ y = f (a,b) + f (x,y)

por lo que solo queda demostrar que f es biyectiva. Por definicion de suma de subespaciosf es sobreyectiva. Para probar la inyectividad supongamos que f (a,b) = f (x,y) entonces,a− x = y− b. Como a,x ∈ E entonces a− x ∈ E. Como b,y ∈ F entonces y− b ∈ F.Luego a− x = y− b ∈ E ∩ F = 0 por lo que a = x y b = y.

Observemos que el isomorfismo (a,b) 7→ a+ b no depende de escoger base algunaen E⊕ F. Todos los isomorfismos que construimos antes de esta proposicion se construye­ron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no dependende escoger alguna base juegan un papel importante en el algebra lineal y se les llama iso­morfismos canonicos. Decimos que dos espacios vectoriales son canonicamente isomorfossi existe un isomorfismo canonico entre ellos. Ası por ejemplo todo espacio vectorial E dedimension 3 es isomorfo a K3 pero no es canonicamente isomorfo a K3 porque no se pue­de construir de cualquier espacio vectorial de dimension 3 un isomorfismo con K3 que nodependa de escoger alguna base. Cuando veamos los productos escalares veremos que hayfuertes razones para que diferenciemos las bases. Los isomorfismos no canonicos no ne­cesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorfismoscanonicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar igualesa dos espacios vectoriales isomorfos por el otro, los espacios canonicamente isomorfos nose diferencian en nada uno del otro, por lo que se puede pensar que es el mismo espacio.

Ejercicio 59 1. Demuestre que E⊕ F y F⊕ E son canonicamente isomorfos.2. ¿Como se debe llamar esta propiedad de la suma directa de espacios?3. Demuestre que la suma directa de espacios es asociativa.4. ¿Tiene la suma directa elemento neutro? [179]

Subespacios complementarios

Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F escomplementario de E enS siS = E⊕F. Esta igualdad por el Isomorfismo Canonico entrela Suma y la Suma directa (2.27) lo que quiere decir es que S = E + F y E ∩ F = 0. EnR2 dos rectas por el origen diferentes son complementarias una a otra. En R3 un plano y unarecta no contenida en el plano (ambos por el origen) son complementarios uno a otro.

Todo subespacio tiene complementario.

Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia deBases (2.14) hay una baseC deS que contiene aA. Sea F el espacio generado porB = C\A.Como C es generador deS, todo elemento en S es combinacion lineal de C y en particulartodo elemento deS se expresa como a+ b con a ∈ E y b ∈ F. LuegoS = E+ F.

Page 74: Algebra Lineal

64 Capıtulo 2. Espacios vectoriales

Por otro lado, si x ∈ E ∩ F entonces, tienen que existir combinaciones lineales tales queÃx =

Xa∈A

αaa =Xa∈B

αaa

!⇒ÃXa∈A

αaa−Xa∈B

αaa = 0

!.

Como C es LI entonces, por la caracterizacion 2.9.4 de los conjuntos LI la ultima combina­cion lineal tiene todos sus coeficientes iguales a cero. Luego, E ∩ F = 0.

Si E y F son dos subespacios complementarios entonces cada vector xse expresa de forma unica como x = a+ b donde a ∈ E y b ∈ F.

Prueba. Si E y F son complementarios entonces E+F es todo el espacio y por lo tanto todovector es de la forma a+ b. Si a+ b = a0 + b0 entonces a− a0 = b0 − b ∈ E ∩ F = 0por lo que la descomposicion x = a+ b es unica.

Ejercicio 60 Demuestre el recıproco de 2.29: Si cada vector se expresa de forma unicacomo x = a+b con a ∈ E y b ∈ F entonces, los subespacios son complementarios. [180]Ejercicio 61 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E seexpresa de forma unica como x = x1 + · · · + xn con xi ∈ Ei. Sugerencia: Usar 2.29, elejercicio anterior y la asociatividad de la suma directa para aplicar induccion en el numerode sumandos n.

Espacios vectoriales versus conjuntos

Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teorıade Conjuntos y siempre es saludable establecer analogıas con resultados ya conocidos. Paraacentuar mas esta similitud hagamos un diccionario de traduccion

Conjunto ←→ Espacio vectorialSubconjunto ←→ Subespacio vectorialCardinal ←→ DimensionInterseccion de subconjuntos ←→ Interseccion de subespaciosUnion de subconjuntos ←→ Suma de subespaciosUnion disjunta ←→ Suma directaComplemento ←→ Subespacio complementarioBiyecciones ←→ Isomorfismos

Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espa­cios vectoriales tienen su contraparte valida para conjuntos usando el diccionario que hemosconstruido. Probablemente, el ejemplo mas notable de esto son las igualdades modularespara conjuntos y para espacios vectoriales.

Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a losespacios vectoriales. Por ejemplo, el complemento de un subconjunto es unico y no siemprehay un unico subespacio complementario. Otro ejemplo, un poco mas substancial, es que la

Page 75: Algebra Lineal

65Seccion 2.7 Espacios cocientes

interseccion de conjuntos distribuye con la union o sea A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) .Por otro lado la interseccion de subespacios en general no distribuye con la suma o sea, laigualdadA∩(B+C) = (A ∩ B)+(A ∩ C) no siempre es verdadera. Para ver esto tomese enR3 los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . CalculamosA ∩ (B+C) = h(1, 1, 0)i y (A ∩ B) + (A ∩ C) = (0, 0, 0) y vemos que son distintos.

Ejercicio 62 Si A y B son dos conjuntos entonces la diferencia simetrica de los mismos esel conjunto A +2 B = (A ∪ B) \ (A ∩ B). Demuestre que todos los conjuntos finitos de unconjunto cualquieraU forman un espacio vectorial de dimension |U| sobre el campo Z2 parala suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptos de nuestro diccionariode traduccion se aplican a este caso en forma directa.

2.7 Espacios cocientes

Ya vimos que para un subespacio E del espacio F, siempre existen subespacios comple­mentarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hayuna manera canonica de escoger alguno de ellos. En esta seccion nos dedicaremos a cons­truir canonicamente el espacio cociente F/E que es el espacio de todos los subespacios afinesparalelos a E y que es isomorfo a cualquier subespacio complementario de E.

Subespacios afines

Ya vimos que en el plano cartesiano R2 los subespacios son el origen

`

`0

x

R20, todo R2 y las rectas que pasan por el origen. Sin embargo, hay otrasrectas en el plano que no pasan por el origen. Para obtener una de estasrectas lo que tenemos que hacer es trasladar una recta por el origen `mediante un vector x (vease la figura). De esta manera, obtenemos larecta `0 que se obtiene sumandole x a cada vector en la lınea `. Observeseque si x 6= 0 entonces las rectas ` y `0 no se intersectan.

Esto nos motiva a la siguiente definicion. Sea A un conjunto de vectores y x un vector.Al conjunto A + x = a+ x | a ∈ A se le llama la traslacion de A con el vector x. Ellector debe observar que la operacion de trasladar es un caso particular (cuando uno de lossumandos solo contiene a un solo vector) de la operacion de suma de conjuntos de vectoresintroducida en la seccion anterior.

Un subespacio afın es el trasladado de un subespacio. En otras palabras, un conjunto devectores E es un subespacio afın si existen un subespacio E y un vector x tales que E = E+x.Observese que los subespacios son tambien subespacios afines. Basta trasladar con el vectorcero. Esto causa una confusion linguıstica: el adjetivo “afın” se usa para hacer el conceptode “subespacio” mas general, no mas especıfico. Por esto, cuando se habla de subespaciosafines es comun referirse a los subespacios como subespacios vectoriales.

Page 76: Algebra Lineal

66 Capıtulo 2. Espacios vectoriales

Las traslaciones de un subespacio cumplen una propiedad muy sencilla pero fundamen­tal: que es posible trasladar el subespacio vectorial con diferentes vectores y obtener el mis­mo subespacio afın. Mas precisamente:

Si a ∈ E + x entonces, E + x = E + a.

E0

E + x = E+ axa

Prueba. Probemos primero el caso que x = 0. Tenemos y ∈ E⇔ y−a ∈ E⇔ y ∈ E+a.Ahora por el caso general. Sabemos que, z = a − x ∈ E y del primer caso, E = E + z.Luego, E+ x = E+ z+ x = E+ a.

Ahora observemos, que un trasladado de un subespacio afın es a su vez un subespacioafın ya que (E + x) + y = E + (x+ y). Dos subespacios afines se le llaman paralelossi uno es un trasladado del otro. La relacion de paralelismo entre subespacios afines es deequivalencia ya que si E = F+x yG = E+y entonces,G = F+(x+ y). Esto significa queel conjunto de los subespacios afines se parte en clases de paralelismo y dos subespaciosson paralelos si y solo si estan en la misma clase de paralelismo.

Ahora veremos que en cada clase de paralelismo hay un solo subespacio afın que pasapor el origen.

Todo subespacio afın es paralelo a un solo subespacio vectorial.

Prueba. Si E + x = F + y entonces, E = F + y − x. Como F + y − x contiene al ceroentonces, x−y ∈ F. Como F es un subespacio, y−x ∈ F y 2.30 nos da F = F+y−x.

Este resultado nos permite definir la dimension de un subespacio afın. Cada uno de elloses paralelo a un unico subespacio y su dimension es la dimension de ese subespacio. Enotras palabras, si E = E + x entonces dimE = dimE. Es comun utilizar la terminologıageometrica para hablar de los subespacios afines de dimension pequena. Ası, un punto esun subespacio afın de dimension cero, una recta es un subespacio afın de dimension uno, unplano es un subespacio afın de dimension dos.

Dos subespacios afines paralelos o son el mismo o no se intersectan.

Prueba. Si y ∈ (E + x) ∩ (E + x0) entonces, por 2.30, E + x = E+ y = E+ x0.

Es un error comun (debido al caso de rectas en el plano) pensar que es equivalenteque dos subespacios sean paralelos a que estos no se intersecten. Para convencersede que esto no es cierto, el lector debe pensar en dos rectas no coplanares en R3.

Page 77: Algebra Lineal

67Seccion 2.7 Espacios cocientes

El espacio cociente

SeaD un espacio vectorial y E un subespacio vectorial deD. Si

0

x+ x0

y+ y0

R2x

y

x0

y0

E = E+x y F = E+y son dos subespacios afines paralelos entoncesE+ F = (E + x) + (E + y) = (E + E) + (x+ y) = E + (x+ y)

lo que muestra que E + F esta en la misma clase de paralelismoque E y F. En otras palabras (vease la figura a la derecha) la sumade cualquier vector en E con cualquier otro en F esta en un mismoespacio paralelo a E y F.

Denotemos ahora por D/E al conjunto de todos los subespacios afines de D paralelos aE. Esta observacion nos dice que la suma de subespacios afines es una operacion binariadentro de D/E. Esta suma es asociativa y conmutativa debido a la asociatividad y conmuta­tividad de la suma de los vectores en D. El subespacio E es el neutro para esta operacion yel opuesto de E + x es E− x. Luego,D/E es un grupo abeliano para la suma.

Para convertir a D/E en un espacio vectorial nos falta el producto por escalares. Sea

λA = λa | a ∈ A A un conjunto arbitrario de vectores y λ un escalar. Definiremos λAcomo en el recuadro a la izquierda.

Sean E = E + x un subespacio afın paralelo a E y λ un escalar. Tenemos

0

2x

2y

R2x

y

λE = λ (E + x) = λE+λx = E+λx lo que muestra que λE esta en la mismaclase de paralelismo que E. En otras palabras (vease la figura a la derecha) elproducto de un escalar por todos los vectores en E resulta en espacio paraleloa E. Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de Dpor E.

Ejercicio 63 Compruebe los axiomas de espacio vectorial para el espacio cocienteD/E.

Ejercicio 64 ¿Cual es el espacio cociente de R3 por el plano xy?Ejercicio 65 ¿Que pasa si sumamos dos espacios afines no paralelos? [180]

El isomorfismo con los complementarios

Sea F un subespacio complementario a E.Entonces, cualquier subespacio afın paraleloa E intersecta a F en un y solo un vector. F E

R2

Prueba. Sea E = E + x cualquier subespacio afın paralelo a E. Como D = E⊕ F existenunos unicos vectoresy ∈ E y z ∈ F tales que x = y+z. Luego por 2.30E+x = E+y+z =E+z y por lo tanto z ∈ E+x o sea, z ∈ E∩F. Si z0 es otro vector en E∩F entonces, existea ∈ E tal que z0 = a+ x. De aquı x = −a+ z0 y por la unicidad de la descomposicion deun vector en suma de vectores de espacios complementarios, y = −a y z = z0.

Page 78: Algebra Lineal

68 Capıtulo 2. Espacios vectoriales

Sea F un subespacio complementario a E. Entonces,f : F 3 x 7→ (E + x) ∈ D/E

es un isomorfismo de espacios vectoriales.

Prueba. Por 2.33 la aplicacion f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cadaE + x ∈ D/E le hace corresponder el unico vector en (E + x) ∩ F). Luego, f es biyectiva.Ademas, f (x+ y) = E + (x+ y) = (E + x) + (E + y) = f (x) + f (y)

f (λx) = E + (λx) = λ (E + x) = λf (x)

por lo que f es un isomorfismo.

Observese que el isomorfismo f es canonico. Luego, cualquier subespacio complemen­tario a E es canonicamente isomorfo a D/E. Esta proposicion tambien nos dice que la di­mension deD/E es la misma que la de un complementario a E o sea, es dimD− dimE.

Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el algebra lineal sinla introduccion de los espacios cocientes. Si embargo, es mas comodo hacerlo con ellos. Ademases importante que el lector se familiarize con el concepto, ya que, en el estudio de estructuras

algebraicas mas generales, no siempre existen estructuras “complementarias” (por ejemplo en la teorıa degrupos). Por otro lado, las estructuras cocientes si se pueden construir. Por ejemplo, todo grupo tiene un cocientepor cualquier subgrupo normal.

2.8 El espacio afın

Recordemos de la seccion anterior que un subespacio afın del espacio vectorial F es eltrasladado E+x de un subespacio vectorial E de F. La dimension de E+x es por definicionla dimension de E.

Los subespacios afines de dimension pequena reciben nombres especiales segun la tradi­cion geometrica. Los de dimension 0 se le llaman puntos. Los de dimension 1 se le llamanrectas y los de dimension 2 se le llaman planos.

Un punto es, en otras palabras, un subespacio afın E + x donde E es de dimension cero.Pero el unico subespacio vectorial de dimension cero es 0 . Luego, un punto es un conjuntode la forma 0 + x = x. Esto nos da una biyeccion obvia x 7→ x entre los puntos delespacio afın y los vectores del espacio vectorial.

Al conjunto de todos los puntos del espacio vectorial F se le llama el espacio afın de F.Pero como, dira el lector, si la diferencia entre x y x es puramente formal entonces, ¿cuales la diferencia entre el espacio afın y el espacio vectorial? La respuesta es ambivalente pueses la misma pregunta que ¿que diferencia hay entre geometrıa y algebra? Antes de Descarteseran dos cosas completamente distintas, despues de el, son cosas muy parecidas.

Intuitivamente, un espacio afın es lo mismo que el espacio vectorial pero sin coordenadas.El espacio afin de R2 es el plano de Euclides en el que estudiamos la geometrıa mas clasicay elemental: congruencia de triangulos, teorema de Pitagoras, etc. Los resultados de estageometrıa no dependen de cual es el origen de coordenadas. Dos triangulos son congruentes

Page 79: Algebra Lineal

69Seccion 2.8 El espacio afın

o no independientemente de en que lugar del plano se encuentran.A un nivel mas alto, podemos pensar el espacio afın de un espacio vectorial como una

estructura matematica adecuada para poder estudiar las propiedades de los espacios vecto­riales que son invariantes por traslaciones, o sea, que no cambian al mover un objeto de unlugar a otro en el espacio.

La regla del paralelogramo

La conocida regla del paralelogramo para la suma de vectores en el plano R2 se generalizaa todas las dimensiones y sobre cualquier campo.

Postularemos que el conjunto vacıo es un subespacio afın de dimension −1. Eso nosevitara muchos problemas en la formulacion de nuestros resultados.

La interseccion de subespacios afines es un subespacio afın.

Prueba. Sea x un punto en la interseccion. Cada uno de los subespacios afines, es E+x paracierto subespacio E del espacio vectorial. Si F es la interseccion de todos estos subespaciosentonces F + x es la interseccion de los subespacios afines.

Regla del paralelogramo

Si a y b son vectores LI de un espacio vectorial entonces, a + bes la interseccion de los subespacios afines hai + b y hbi + a.

Prueba. Obviamentea+b ∈ (hai+ b)∩(hbi+ a). Por otro lado, ambos hai+b y hbi+atienen dimension 1 y por lo tanto su interseccion tiene dimension 0 o 1. Si esta dimension escero entonces terminamos. Si esta dimension es uno entonces hai + b = hbi + a y por lotanto a ∈ hai+b. Por 2.30 tenemos que hai+b = hai+a = hai, Por lo tanto b ∈ hai yesto contradice que a,b es LI.

Cerradura afın

Para un conjuntoA de puntos en el espacio afın, la cerradura afın deA es la interseccionde todos los subespacios afines que contienen a A. A la cerradura afın de A la denotaremospor [A]. Esto la diferencia claramente de la cerradura lineal hAi.

Para la cerradura afin, tenemos las mismas propiedades que para la cerradura lineal.

[A] es el subespacio afin mas pequeno que contiene a A.

Prueba. [A] es un subespacio afin. Si B es un subespacio afın que contiene a A entonces[A] ⊆ B pues para hallar [A] tuvimos que intersectar con B.

Page 80: Algebra Lineal

70 Capıtulo 2. Espacios vectoriales

La cerradura afın cumple las siguientes propiedades:1. A ⊆ [A] (incremento)2. A ⊆ B⇒ [A] ⊆ [B] (monotonıa)3. [[A]] = [A] (idempotencia).

Prueba. La prueba es exactamente la misma que para el caso de la cerradura lineal.

Generadores e independencia

Un conjunto de puntosA es generador afın si [A] es todo el espacio afın. Los conjuntosafinmente independientes los definiremos con el siguiente resultado.

Definicion de conjuntos afinmente independientes

Sea A un conjunto de puntos. Las siguientes afirmaciones son equivalentes1. Cualquier subconjunto propio deA genera un subespacio afın mas pe­

queno que todo A.2. Cualquier punto en A no esta en la cerradura afın de los restantes.

Prueba. Es analoga a la prueba (1⇔ 2) de la caracterizacion de conjuntos LI.

Los conjuntos de puntos que no son afinmente independientes los llamaremos afinmentedependientes.

Nuevamente para evitarnos largas oraciones, a los conjuntos afinmente inde­pendientes los llamaremos conjuntos AI y a los conjuntos afinmente depen­dientes los llamaremos conjuntos AD.

Todo sobreconjunto de un generador afin es un generador afin.Todo subconjunto de un conjunto AI es AI.

Prueba. Sea A un generador afın y B ⊇ A. Tenemos [A] ⊆ [B] y como [A] es todo elespacio afin entonces [B] tambien lo es.

Sea A que es AI y B ⊆ A. Si B fuera AD entonces existirıa b ∈ B tal que b ∈ [B\b] ⊆[A\b] y esto no puede ser pues A es AI.

Bases afines

Una base afin es un conjunto de puntos que es AI y generador afin. Ahora podriamosseguir por el mismo camino demostrando que las bases afines son los generadores afinesmas pequenos o los AI mas grandes. Despues, el teorema de existencia de base, el lema delcambio para las bases afines, la prueba de que dos bases afines tienen el mismo cardinal, etc.

Page 81: Algebra Lineal

71Seccion 2.8 El espacio afın

Este camino aunque se puede realizar, sin embargo, tiene dos desventajas. La primera esque aun no hemos definido combinaciones afines y estas se necesitan para probar todo esto.La segunda, y mas obvia, es que todo esto es muy largo. Por suerte, hay una sencilla relacionque enlaza las bases afines con las bases del espacio vectorial y esto nos ahorrara muchotrabajo.

Sea A = x0,x1, . . . , xn un conjunto de puntos. Defina­mos A0 = x1 − x0, . . . ,xn − x0. Entonces, A es una ba­se afın si y solo si A0 es una base del espacio vectorial.

Prueba. Veamos que [A] = hA0i+ x0. Efectivamente, hA0i+ x0 es un subespacio afın quecontiene a A y por lo tanto [A] ⊆ hA0i+ x0. Por otro lado [A]− x0 es un subespacio por elorigen que contiene a A0 y por lo tanto [A]− x0 ⊇ hA0i.

De aquı inmediatamente obtenemos queA es generador afın si y solo siA0 es un genera­dor. Luego, podemos suponer por el resto de la prueba que tantoA comoA0 son generadores.Nos queda probar que A es AI si y solo si A0 es LI.

Supongamos que A0 es LD. Sea B0 una base lineal tal que B0 ⊂ A0. Como al principiode la pruebaB = x0∪(B0 + x0) es un generador afın del espacio. ComoB0 6= A0 entonces,B 6= A y por lo tanto A es AD.

Supongamos que A es AD. Entonces, hay un subconjunto propio B de A que generaal espacio. Sea y ∈ B Como al principio de la prueba B0 = xi − y | xi ∈ B \ y es ungenerador lineal del espacio. Luego la dimension del espacio es estrictamente menor que ny por lo tanto A0 no puede ser LI.

Ahora podemos traspasar todos los resultados probados para las bases del espacio vecto­rial a las bases afines. En particular, es cierto que:

1. Las bases afines son los conjuntos generadores afines minimales por inclusion.2. Las bases afines son los conjuntos AI maximales por inclusion.3. Si A es un conjunto AI y B es un conjunto generador afın tal que A ⊆ B entonces hay

una base afın C tal que A ⊆ C ⊆ B.4. Dos bases afines cualequiera tienen el mismo numero de puntos (uno mas que la di­

mension).

Las demostraciones de estos resultados son obvias dada la correspondencia entre lasbases afines y las bases del espacio vectorial.

Ejercicio 66 Formule el lema del cambio para las bases afines.

El siguiente resultado es el analogo del lema Lema de Aumento de un Conjunto LI (2.11)para el caso afın y es consecuencia directa de la correspondencia entre las bases afines y lasbases del espacio vectorial.

Page 82: Algebra Lineal

72 Capıtulo 2. Espacios vectoriales

Si A es un conjunto AI entonces A ∪ b es AD si y solo si b ∈ [A].

2.9 El caso de dimension infinita

En la Seccion 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equicar­dinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio tienedimension finita. En esta seccion demostramos estos resultados para los casos faltantes. Por­que siempre aparece un curioso que quiere saber.

Como estas demostraciones dependen de resultados de Teorıa de Conjuntos y una expo­sicion de esta nos llevarıa a escribir otro libro, lo haremos todo en forma minimalista: Antesde cada una de las dos pruebas daremos las definiciones y resultados exclusivamente quenecesitamos. Los resultados complicados de Teorıa de Conjuntos no los demostraremos.

El Lema de Zorn

Un conjunto ordenado es un conjunto con una relacion de orden, o sea una relacionreexiva antisimetrica y transitiva (vease el glosario). Sea P un conjunto ordenado y A unsubconjunto de P. Diremos que x ∈ P es una cota superior de A si para cualquier y ∈ Ase cumple que y ≤ x. Diremos que x ∈ A es elemento maximal de A si para cualquiery ∈ A se cumple que x ­ y. Se dice que A es una cadena si para cualesquiera x, y ∈ A secumple que x ≤ y o que y ≤ x. Diremos que A esta inductivamente ordenado si A 6= ∅ ycualquier cadena contenida enA tiene una cota superior que esta enA. El siguiente resultadoes clasico en teorıa de conjuntos.

Lema de Zorn

Cualquier conjunto inductivamente ordenado tiene un elemento maximal.

Existencia de bases

Teorema de Existencia de Bases (caso general)

Sea N un conjunto generador y L ⊆ N un conjuntoLI. Entonces, existe una base M tal que L ⊆ M ⊆ N.

Prueba. Sean L yN como en las hipotesis. DenotemosT = M |M es linealmente independiente y L ⊆M ⊆ N .

El conjunto T esta naturalmente ordenado por inclusion. SeaM un elemento maximal de T.Entonces ∀x ∈ N\M M∪x es dependiente y por el Lema de Aumento de un Conjunto LI

Page 83: Algebra Lineal

73Seccion 2.9 El caso de dimension infinita

(2.11) tenemos N ⊆ hMi. Como N es generador, esto significa que M tambien lo es y porlo tantoM es una base.

Nuestra tarea es encontrar un elemento maximal de T. Probemos que el conjunto Testa inductivamente ordenado. Efectivamente, T es no vacıo ya que L ∈ T. Sea Bii∈I unacadena arbitraria en T y denotemos B =

Si∈I Bi. El conjunto B es una cota superior de la

cadena Bii∈I y tenemos que convencernos que B esta en T. Como para cualquier i tenemosBi ⊆ N entonces, B ⊆ N. Supongamos que B es linealmente dependiente. Entonces, existeun subconjunto finito B0 de B y una combinacion lineal de B0 igual a cero tal que todos suscoeficientes son no cero, o sea B0 es linealmente dependiente. Como B0 es finito, y Bii∈I esuna cadena entonces, tiene que existir i0 tal que B0 ⊆ Bi0 y esto contradice que todo sub­conjunto de un conjunto linealmente independiente es linealmente independiente. Luego, Testa inductivamente ordenado y por el Lema de Zorn (2.43) el conjunto T tiene un elementomaximal.

Cardinales

Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyeccion de A en B.La relacion A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relacion de equivalenciaentre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le llamacardinal del conjunto A y se denota por |A|. Los cardinales estan ordenados por la relacionde orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El cardinal infinitomas pequeno es ℵ0 que es el cardinal de los naturales (ℵ es la primera letra del alfabetohebreo y se llama “alef”). La suma de cardinales se define como el cardinal de la union dedos conjuntos disjuntos. El producto de cardinales se define como el cardinal del productocartesiano de conjuntos.

Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es muysencillo y daremos una demostracion para el.

Si ∀i |Ai| ≤ t entonces,P

i∈I |Ai| ≤ t |I|.

Prueba. Podemos pensar que los Ai son disjuntos. Sea T un conjunto de cardinal t. Porhipotesis existen inyecciones fi : Ai 7→ T . Sea ϕ :

Si∈I Ai → T × I definida por ϕ (a) =

(fi (a) , i) si a ∈ Ai. Por definicion de ϕ si ϕ (a) = ϕ (b) entonces, a y b estan en elmismo conjunto Ai, fi (a) = fi (b) y por lo tanto a = b. Luego, ϕ es inyectiva.

El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teorıade Conjuntos (vease por ejemplo: Kamke E., Theory of sets. Dover, New York, 1950. pagina121). Nosotros omitiremos la prueba.

Si |A| es infinito entonces, ℵ0 |A| = |A|.

Page 84: Algebra Lineal

74 Capıtulo 2. Espacios vectoriales

Equicardinalidad de las bases

Equicardinalidad de las Bases (caso infinito)

Dos bases cualesquiera tienen el mismo cardinal.

Prueba. Sean A y B dos bases. Ya probamos el caso de que una de las dos bases es finita.Luego, podemos suponer que A y B son infinitos. Como B es una base y debido a la finitudde las combinaciones lineales entonces ∀a ∈ A el mınimo subconjunto Ba ⊆ B tal quea ∈ hBai existe y es finito.

Construyamos la relacion R ⊆ A × B de manera que (a,b) ∈ R si y solo si b ∈ Ba.Tenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ningun elemento deA entonces, A ⊆ hB\b0i y como A es base obtendrıamos que B\b0 es generador lo quecontradice que B es base.

Por otro lado, como |A| es infinito y |Ba| es finito entonces, usando 2.45 y 2.46 obtenemos

|B| ≤ |R| =Xa∈A

|Ba| ≤ ℵ0 |A| = |A| .

Luego |B| ≤ |A| y por simetrıa de nuestros razonamientos|A| ≤ |B|.

Page 85: Algebra Lineal

TransformacionesLineales

TransformacionesLineales

Capítulo terceroCapítulo tercero

as transformaciones lineales son uno de los objetos mas estudiados y mas importan­tes en las matematicas. El objetivo de este capıtulo es familiarizar al lector con elconcepto de transformacion lineal y sus propiedades basicas. Introduciremos las ma­

trices y estudiaremos la relacion de las mismas con las transformaciones lineales. Veremosel concepto de nucleo e imagen de una transformacion lineal etc...

3.1 Definicion y ejemplos

Sean E y F dos espacios vectoriales sobre K. Una funcionf (a+ b) = f (a) + f (b)

f (λa) = λf (a)f : E→ F se le llama transformacion lineal de E en F si paracualesquiera vectores a y b y cualquier escalar λ se cumplenlas propiedades del recuadro a la derecha.

Nuevamente, para no reescribir constantemente frases largas, en lugar de decirque f es una transformacion lineal, diremos que f es una TL. En plural escribi­remos TLs.

Imagenes de subespacios

Toda TL transforma subespacios en subespacios.

Prueba. Sea f : E→ F una TL y E0 un subespacio de E. Denotemos F0 = f (E0) la imagende E0. Sean a y b vectores en F0. Por definicion existen vectores x,y tales que f (x) = a yf (y) = b. Tenemos, f (x+ y) = a + b por lo que a + b ∈ F0. Sea ahora λ un escalar.Tenemos f (λx) = λa por lo que λa ∈ F0. Luego, F0 es un subespacio de F.

Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampococonjuntos generadores en conjuntos generadores.

Page 86: Algebra Lineal

76 Capıtulo 3. Transformaciones lineales

El recıproco de la proposicion anterior NO es cierto. Hay funciones que transforman subespaciosen subespacios y no son TLs. Un ejemplo sencillo es la funcion R 3 x 7→ x3 ∈ R. Esta manda elcero en el cero y a R en R. Sin embargo no es lineal. Para obtener una funcion contraejemplo en

Rn basta usar coordenadas esfericas, dejar fijos los angulos y elevar al cubo el modulo del vector.

Homotecias

Veamos el ejemplo mas simple de TL. Si a cada vector x de un espacio E le hacemoscorresponder el vector 2x obtenemos la funcion h2 : E 3 x 7→ 2x ∈ E . Esta funcion es unaTL ya que h2 (a+ b) = 2 (a+ b) = 2a+ 2b = h2 (a) + h2 (b)

h2 (λa) = 2λa = λ2a = λ = λh2 (a)

Observese que en la segunda recta usamos la conmutatividad del producto de escalares.Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K obtenien­

do la TL dada por hα : E 3 x 7→ αx ∈ E. A las funciones hα se les llama homotecias.Hay dos casos particulares de homotecias especialmente importantes. Si α = 1 entonces

obtenemos la funcion identidad x 7→ x. A esta funcion se la denotara por Id. Si α = 0

entonces obtenemos la funcion nula tambien llamada funcion constante cero x 7→ 0.En el caso del campoR las homotecias tienen una interpretacion geometrica muy clara. Si

α > 0 entonces cada punto x ∈ Rn se transforma en el punto αx que esta en la misma rectapor el origen que x pero a una distancia del origen α veces mayor que x. Esto quiere decirque hα es la dilatacion de razon α. Si 0 < α < 1 entonces hα es realmente una contraccionpero interpretaremos las contracciones como dilataciones con razon mas pequena que 1.

En la figura de la derecha observamos la dilatacion x 7→ 2x en el

R2

v 7→ 2v

plano cartesiano R2. La curva interior (que es la grafica de la funcion5 + sin 5θ en coordenadas polares) se transforma en la misma curvapero del doble de tamano (10+ 2 sin 5θ).

Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llamafuncion antipodal. El nombre viene de la siguiente interpretacion. Sitrazamos una recta que pase por el centro de la Tierra intersectaremos lasuperficie en dos puntos. Estos puntos se dicen que son antıpodas o sea, nuestros antıpodasson la personas que viven “pies arriba” del “otro lado” de la Tierra. Si coordinatizamos laTierra con unos ejes de coordenadas con origen en el centro de la misma, nuestros antıpodasse obtienen multiplicando por −1.

En la figura de la izquierda esta representada la funcion antıpodal en

R2

v 7→ −v

R2. En ella hay dos curvas cerradas de cinco petalos. La primera esla misma que la de la figura anterior (10 + 2 sin 5θ). La segunda esla antıpoda de la primera (−10 − 2 sin 5θ). La figura es expresamentecomplicada para que el lector tenga la oportunidad de pensar un pocoen que punto se va a transformar cada punto. Cualquier homotecia hαcon α < 0 se puede representar como h−1 (h−α) por lo que hα se puede

interpretar geometricamente como una dilatacion seguida de la funcion antıpodal. A pesarde su simplicidad las homotecias juegan un papel fundamental en la comprension de las TLy este papel se debe a que ellas son todas las TL en dimension 1.

Page 87: Algebra Lineal

77Seccion 3.1 Definicion y ejemplos

Si dimE = 1 entonces toda TL de E en E es una homotecia.

Prueba. Sea a una base de E y f una TL de E en E. Como a es una base tiene que existirun escalar λ ∈ K tal que f (a) = λa. Sea x = αa un vector arbitrario en E . Como f eslineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que demuestra que f esuna homotecia.

Inmersiones

Hasta ahora las TL que hemos visto (las homotecias) estan definidas de un espacio ensi mismo. Las inmersiones son la TL mas simples que estan definidas de un espacio en otrodistinto. Sea E un subespacio de F. A la funcion i : E 3 x 7→ x ∈ F se le llama inmersionde E en F. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de lafuncion identidad. No hay mucho que decir de las inmersiones excepto de que hay una paracada subespacio.

Proyecciones

Ahora supongamos al reves (de las inmersiones) que F es subespacio de E . ¿Habra algu­na TL natural de E en F? Lo que podemos hacer es buscarnos un espacioG complementariode F (existe por 2.28) De esta manera E = F⊕G y por 2.29 tenemos que cada vector x ∈ Ese descompone de manera unica como a+ b donde a es un vector en F y b es un vector enG . Ası para cada x ∈ E tenemos un unico a ∈ F y esto nos da una funcion que denotaremospor πF y la llamaremos proyeccion de E en F a lo largo de G . Cualquier proyeccion πFrestringida a F es la identidad por lo que necesariamente es sobreyectiva.

La notacion πF sugiere erroneamente que esta funcion solo depende del subespa­cio F . Esto no es cierto, el subespacio F puede tener muchos subespacios comple­mentarios diferentes y la proyeccion depende del subespacio complementario queescojamos.

Las proyecciones son transformaciones lineales.

Prueba. Escojamos un subespacio G complementario de F . De esta manera πF es unafuncion fija y bien definida.

Si x,y son dos vectores entonces hay descomposiciones unicas x = πF (x) + πG (x) yy = πF (y) + πG (y) . Luego x+ y = (πF (x) + πF (y)) + (πG (x) + πG (y)) . El primersumando de la derecha esta en F y el segundo en G . Por la unicidad de la descomposicionnecesariamente tenemos πF (x+ y) = πF (x) + πF (y) .

Sea ahora λ ∈ K. Tenemos λx = λπF (x)+λπG (x) .Nuevamente, el primer sumando dela derecha esta en F y el segundo enG y por la unicidad de la descomposicion necesariamentetenemos πF (λx) = λπF (x) .

Page 88: Algebra Lineal

78 Capıtulo 3. Transformaciones lineales

¿Como son geometricamente las proyecciones? En esencia el problema es el siguiente.Dados dos espacios complementarios F , G y un vector a como hallar un vector en F y otroen G que sumados den a. Esto ya lo hicimos una vez cuando introducimos las coordenadascartesianas en R2. Dado un vector a trazamos la recta paralela al eje y que pasa por a yla interseccion del eje x con esta recta es un vector πx (a) . De manera analoga obtenemosπy (a) y sabemos que a = πx (a) + πy (a).

En el caso general es exactamente igual. Esta construc­cion se ilustra en la figura de la derecha. Tenemos que Fes un subespacio de dimension k y uno de sus complemen­tarios G es de dimension n − k. Hay un solo subespacioafın paralelo a F que pasa por a y este es F + a. La in­terseccion (F + a) ∩ G es un solo punto y este punto esel vector πG (a) . Analogamente se observa que πF (a) =(G + a)∩F. Como es logico, no pudimos dibujar el espacioRn ası que el lector debera contentarse con el caso n = 3,k = 2 y con la prueba general.

Si F y G son complementarios entonces, para cualquiervector a se cumplea = ((G + a) ∩ F)+((F + a) ∩G).

Prueba. Como F yG son complementarios (G + a)∩F es un solo punto que denotaremosx. Sea −y ∈ G tal que x = −y + a. Tenemos que F + a = F + x + y = F + y y por lotanto y ∈ (F + a) . Luego y = (F + a) ∩G.

3.2 Operaciones entre transformaciones lineales

Ahora, veremos que operaciones se definen naturalmente entre las TLs.

El espacio vectorial de las transformaciones lineales

Sea f una TL y λ un escalar. Denotaremos por λf a la funcion a 7→ λf (a). A estaoperacion se le llama producto de un escalar por una TL.

El producto de un escalar por una TL es una TL.

Prueba. Efectivamente, tenemos(λf) (a+ b) = λf (a+ b) = λ (f (a) + f (b)) = (λf) (a) + (λf) (b)

(λf) (αa) = λf (αa) = λαf (a) = αλf (a) = α (λf) (a)

lo que significa que λf es una TL.

Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la funcion

Page 89: Algebra Lineal

79Seccion 3.2 Operaciones entre transformaciones lineales

a 7→ f (a) + g (a). A esta operacion se le llama suma de TLs.

La suma de dos TLs es una TL.

Prueba. Denotemos h = f+ g. Tenemosh (αa) = f (αa) + g (αa) = α (f (a) + g (a)) = αh (a)

h (a+ b) = f (a+ b) + g (a+ b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b)

lo que significa que h es una TL.

Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Losaxiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones.Por ejemplo, la prueba de la distributividad del producto por escalares con respecto a la su­ma es la siguiente: (λ (f+ g)) (a) = λ (f (a) + g (a)) = λf (a)+λg (a) = (λf+ λg) (a).Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos porMor (E,F). Esta notacion es debido que a las transformaciones lineales tambien se les llamamorfismos de espacios vectoriales. Debido a todo lo dicho es valido el siguiente resultado:

Mor (E,F) es un espacio vectorial.

Composicion de transformaciones lineales

Sean f ∈ Mor (E,F) y g ∈ Mor (F,G) dos TLs. La composicion h = g f se definecomo la funcion E 3 a 7→ g (f (a)) ∈ G. Demostremos que h = g f ∈ Mor (E,G) o sea,que h es una TL.

La composicion de TLs es una TL.

Prueba. Sea h = g f la composicion de dos TLs. Tenemosh (a+ b) = g (f (a+ b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b)

h (αa) = g (f (αa)) = g (αf (a)) = αg (f (a)) = αh (a)

que es lo que se querıa demostrar.

La composicion de TLs cumple las siguientes propiedades:1. f (g h) = (f g) h (asociatividad)2. f (g+ h) = f g+ f h (distributividad a la izquierda)3. (f+ g) h = f h+ g h (distributividad a la derecha)4. f λg = λf g = λ (f g) (conmuta con el producto por escalares)

Prueba. Como (f (g h)) (a) = f (g (h (a))) = ((f g) h) (a), la composicion es

Page 90: Algebra Lineal

80 Capıtulo 3. Transformaciones lineales

asociativa. Con (f (g+ h)) (a) = f ((g+ h) (a)) = f (g (a) + h (a)) == f (g (a)) + f (h (a)) = (f g) (a) + (f h) (a) = ((f g) + (f h)) (a)

probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos lasigualdades ((f+ g) h) (a) = (f+ g) (h (a)) = f (h (a)) + g (h (a)) =

= (f h) (a) + (g h) (a) = ((f h) + (g h)) (a)Finalmente para probar que la composicion conmuta con el producto por escalares tenemos

(f λg) (a) = f (λg (a)) = λf (g (a)) = (λ (f g)) (a) == λf (g (a)) = (λf) (g (a)) = (λf g) (a) .

El lector debe ya debe poder encontrar por si mismo el porque de la validez de cada unade las igualdades utilizadas en esta prueba.

El algebra de operadores lineales

A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nuevamente,usaremos la abreviatura OL para referirnos a los operadores lineales. Los OLs juegan (comoveremos mas adelante) un papel muy importante en el estudio de las TLs y por esto es quemerecen un nombre especial. El conjunto de todos los OLs de E se denotara por EndE. Lohacemos ası porque a los OLs tambien se les llama endomorfismos de un espacio vectorial.Por definicion tenemos EndE = Mor (E,E). La principal diferencia entre las TLs y los OLses que la operacion de composicion es una operacion interna en espacio vectorial EndE. Osea, si componemos dos OLs, obtenemos otro OL.

Si un espacio vectorial cualquiera (elAlg1) ∗ es asociativaAlg2) ∗ es distributiva con respecto a +Alg3) ∗ tiene elemento neutroAlg4) ∗ conmuta con el producto por escalares

cual ya trae definidos la suma y el pro­ducto por escalares) tiene otra operacionbinaria ∗ que cumple los axiomas en elrecuadro a la derecha entonces, se le lla­ma algebra . Observese que los primeros tres axiomas los podemos resumir en uno: lasuma de vectores y ∗ definen un anillo en el espacio vectorial. El cuarto axioma lo quequiere decir es que para cualquier escalar λ y cualesquiera vectores a y b se cumple queλa ∗ b = a ∗ λb = λ (a ∗ b).

Ya vimos (3.9 ) que la operacion de composicion de OLs cumple los axiomas Alg1, Alg2y Alg4. Para ver que EndE es un algebra solo nos queda comprobar que la composicion tieneelemento neutro. Pero esto es obvio ya que la funcion identidad cumple que f I = I f = f.O sea, es el neutro para la composicion. Hemos demostrado el siguiente resultado

El espacio vectorial EndE en un algebra con respecto a la composicion.

Hay otras dos algebras importantes que deben ser muy conocidas por el lector. Primero,el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R,pero ademas sabemos multiplicar polinomios. Este producto cumple todos los axiomas deAlg1­Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier campo. El segundo

Page 91: Algebra Lineal

81Seccion 3.3 Extensiones lineales

ejemplo son los numeros complejos. Estos son un espacio vectorial de dimension dos so­bre los reales pero ademas sabemos multiplicar numeros complejos. La multiplicacion decomplejos tambien cumple todos los axiomas Alg1­Alg4.

Un algebra se le llama conmutativa si el producto de vectores es conmutativo. El algebra de losnumeros complejos y el algebra de polinomios sobre un campo son conmutativas. Las algebrasEndE casi nunca son conmutativas (salvo en dimension 1). Por ejemplo en el plano cartesiano R2

la rotacion f en 45 y la reeccion g en el eje y son (como veremos despues) OLs. Sin embargo, (g f) (1, 0) =(−1, 1) 6= (−1,−1) = (f g) (1, 0).

El grupo general lineal

Una funcion cualquiera es biyectiva si y solo si esta tiene inversa. En el capıtulo anterior,cuando vimos los isomorfismos de espacios vectoriales, demostramos que si una TL tiene in­versa entonces esta inversa tambien es una TL. En particular, la funcion inversa de un OL esun operador lineal. Un operador lineal se le llama singular si este no tiene inverso. En el casocontrario se le llama no singular. A los OLs no singulares tambien se les llama automor­fismos del espacio vectorial. En otras palabras los automorfismos son los endomorfismosbiyectivos.

Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota porGL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la funcionnula cumple que 0 = f−f. Sin embargo, la composicion de OLs no singulares es siempre unOL no singular. Luego, la composicion es una operacion binaria en GL (E) que ya sabemosque es asociativa y tiene elemento neutro. Ademas, cada elemento tiene inverso ya que f f−1 = f−1 f = I. Luego, GL (E) es un grupo para la composicion al cual se llama grupogeneral lineal del espacio vectorial E.

3.3 Extensiones lineales

Estudiaremos en esta seccion una manera universal de construir TLs. Pero antes, veamosalgunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios.

Extensiones y restricciones

Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una funcionf : A → B tambien se tiene una funcion f0 : A0 → B definida por f0 (a) = f (a) paracualquier a ∈ A0. A la funcion f0 se le llama restriccion de f a A0 y la denotaremos por fA0 .Todas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0.

Si h y g son dos funciones tales que h es una restriccion de g entonces se dice que ges una extension de h. Si esta dada una funcion g : A0 → B y A es un sobreconjunto deA0 entonces, pueden haber muchas extensiones h : A → B de g, ya que podemos escogerarbitrariamente los valores de h (x) para todos los x ∈ A\A0.

Es un problema frecuente en matematicas el encontrar extensiones que cumplan ciertaspropiedades. En nuestro caso, debemos encontrar extensiones que sean TLs. Formulemos

Page 92: Algebra Lineal

82 Capıtulo 3. Transformaciones lineales

nuestro problema mas precisamente. Sean E y F dos espacios vectoriales sobre K y N unconjunto de vectores de E. Sea h : E → F una TL. Sabemos que N ⊂ E y por lo tantotenemos la restriccion hN : N → F. ¿Sera posible para cualquier funcion g : N → F

encontrar una extension h : E → F de g que sea TL? ¿Sera unica tal extension? Veremosque ambas preguntas tienen respuesta positiva siN es una base.

Para demostrar la existencia de la extension debemos construirla. Sea N una base de E

x 7→Xi∈N

αig (i)

y g : N → F una funcion arbitraria de N en F. Cualquier x ∈ E se expresa de forma unicacomo combinacion lineal de N o sea x =

Pi∈N αii. A la funcion h del

recuadro a la derecha se le llama extension lineal de g. Observese que(como debe ser) la restriccion de h a N es igual a g ya que si x ∈ Nentonces, la descomposicion de x en la baseN tiene coeficientes αi = 0para i 6= x y αi = 1 para i = x.

Las extensiones lineales son transformaciones lineales.

Prueba. Tenemosh (x+ y) =

Xi∈N

(αi + βi)g (i) =Xi∈N

αig (i) +Xi∈N

βig (i) = h (x) + h (y)

h (λx) =Xi∈N

λαig (i) = λXi∈N

αig (i) = λh (x)

y esto prueba que h es una TL.

Para demostrar la unicidad de la extension debemos convencernos de que dos TLs dis­tintas no pueden coincidir en una base.

Las TLs estan predeterminadas por sus valores en una base.

Prueba. Sean f, g : E→ F dos TLs yN una base de E. Supongamos que f (i) = g (i) paracualquier i ∈ N. Cualquier x ∈ E se expresa de forma unica como combinacion lineal deNo sea x =

Pi∈N αii. Luego

f (x) = f

ÃXi∈N

αii

!=Xi∈N

αif (i) =Xi∈N

αig (i) = g

ÃXi∈N

αii

!= g (x)

y por lo tanto las TLs f y g son iguales.

El isomorfismo entre FN y Mor (E,F)

Recordemos ahora de la Seccion 2.2 que el conjunto de todas las funciones deN en F esel conjunto de las N­adas de vectores de F, que este es un espacio vectorial para la suma yel producto por escalares definidos por coordenadas y que se denota por FN .

Si N es una base de E entonces, hemos construido una correspondencia biunıvoca entreFN y Mor (E,F). A cadaN­ada hN ∈ FN le corresponde su extension lineal h ∈ Mor (E,F)

Page 93: Algebra Lineal

83Seccion 3.3 Extensiones lineales

y a cada TL h ∈ Mor (E,F) le corresponde hN su restriccion a N (que es una N­ada).Queremos ver que esta correspondencia es un isomorfismo de espacios vectoriales.

Si N es una base de E entonces, la biyeccionr : Mor (E,F) 3 h 7→ hN ∈ FN

es un isomorfismo de espacios vectoriales.

Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 ∈ Mor (E,F) yλ un escalar. Tenemos

r (h+ h0) = (h+ h0)N = hN + h0N = r (h) + r (h

0)r (λh) = (λh)N = λhN = λr (h)

que se cumplen por las definiciones de suma y producto por escalares de lasN­adas.

Un criterio de isomorfismo

Al establecer que los espacios Mor (E,F) y FN son isomorfos es natural que esperemos

(1, 0, 0) 7→ (1, 0)

(0, 1, 0) 7→ (0, 1)

(0, 0, 1) 7→ (0, 1)

que cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de lasN­adas de vectores. En este caso queremos hacer la traducion de la propiedad de una TLde ser o no un isomorfismo de espacios vectoriales. Ya vimos en el capıtulo anterior queun isomorfismo transforma una base del dominio en una base del codominio. ¿Sera estapropiedad suficiente para comprobar que una TL es un isomorfismo?. Larespuesta es NO. Por ejemplo, la extension lineal de la funcion definidaen la base canonica de R3 como en el recuadro a la derecha transforma aesta base en la base canonica de R2 y sin embargo no es inyectiva. Nosfalta la propiedad evidentemente necesaria de que la restriccion de la TL debe ser inyectiva.

Una TL es un isomorfismo si y solo si su restriccion a unabase es inyectiva y la imagen de esta restriccion es una base.

Prueba. Ya hemos probado la necesidad. Para la suficiencia seaN una base de E y hN ∈ FNuna N­ada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) yque el conjunto de sus coordenadas (la imagen) es una baseM = h (N) de F. Probemos quela extension lineal h : E → F de hN es un isomorfismo. Efectivamente, si x =

Pi∈N αii y

y =P

i∈N βii son dos vectores cualesquiera en E y h (x) = h (y) entonces,Xi∈N

αih (i) =Xi∈N

βih (i)

y como todos los h (i) = hi son diferentes, estas son dos combinaciones lineales iguales dela base M. Por la caracterizacion 2.9.3 de los conjuntos LI los coeficientes de estas combi­naciones lineales tienen que coincidir αi = βi y por lo tanto x = y. Luego, h es inyectiva.

Para ver que h es sobreyectiva sea z vector en F. Como M es una base de F existencoeficientes γi tales que z =

Pi∈N γih (i) y por lo tanto z = h (v) donde v =

Pi∈N γii.

Page 94: Algebra Lineal

84 Capıtulo 3. Transformaciones lineales

3.4 Coordinatizacion de transformaciones lineales

Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entrelos cuales esta definida la TL. Sean N y M bases de E y F respectivamente. Tenemos losisomorfismos de coordinatizacionE↔ KN y F↔ KM. Para cada f ∈ Mor (E,F) tenemos

la composicion g : KN → Ef→ F→ KM que es una TL en Mor

¡KN,KM

¢.

Recıprocamente para cada g ∈ Mor¡KN,KM

¢tenemos la

Ef−→ Fl l

KN −→g

KM

composicion f : E → KN g→ KM → F que es una TL enMor (E,F). Es facil ver y es intuitivamente claro que esta corres­pondencia biunıvoca Mor (E,F)↔ Mor

¡KN,KM

¢es un isomor­

fismo de espacios vectoriales.

Ejercicio 67 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. Construya unisomorfismo Mor (E,F)↔ Mor (E0,F0).

Podemos pensar a N como la base canonica de KN. Luego, aplicando 3.13 obtenemosel isomorfismo Mor

¡KN,KM

¢ ↔ ¡KM

¢N= KM×N que es el conjunto de las MN

matrices tales que cada columna es de soporte finito. Para el caso que mas nos interesa enqueN yM son bases finitas obtenemos Mor (E,F)↔ ¡

KM¢N= KMN . Sea f ∈ Mor (E,F).

A la matriz αMN que le corresponde a f mediante el isomorfismo construido se le llamamatriz de la TL f en las basesM yN. Los resultados de la seccion anterior nos dicen comoconstruir αMN dada f. Para cada i ∈ N la columna αMi es el vector f (i) coordinatizado enla baseM. O sea f (i) =

Pa∈M αaia.

Ejercicio 68 Pruebe que la funcion K [x] 3Pn

i=0 aixi 7→ Pn

i=0 ai (x+ 1)i ∈ K [x] es un

isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz αNN de estaTL en la base canonica del espacio de polinomios. Demuestre que las entradas de esta matrizestan definidas por la ecuacion recursiva αkn = αk,(n−1) + α(k−1),(n−1) con las condicionesde frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n.

La formula f (i) =P

a∈M αaia nos dice tambien como construir f dada αMN . Lasimagenes de los i ∈ N las calculamos por la formula y a f la construimos por extensionlineal. O sea, si E 3 x =

Pi∈N βii entonces,

F 3 f (x) =Xi∈N

βif (i) =Xi∈N

βi

Xa∈M

αaia =Xa∈M

ÃXi∈N

αaiβi

!a

La expresionP

i∈N αaiβi es un escalar y hay uno para cada a ∈ M por lo que son lascoordenadas de una M­ada. A esta M­ada se le llama producto de la matriz αMN por elvector βN y se denota por αMNβN .

Page 95: Algebra Lineal

85Seccion 3.4 Coordinatizacion de transformaciones lineales

Observese que este producto lo podemos escribir como en el re­αMNβN =

Xi∈N

αMiβi cuadro a la izquierda. Esto quiere decir que este producto se obtie­ne multiplicando las columnas de αMN por las correspondientes

coordenadas de βN y sumando los resultados. En otras palabras αMNβN es la combinacionlineal de las columnas de αMN cuyos coeficientes son las coordenadas de βN .

En esta seccion estudiaremos mas sistematicamente el isomorfismo entre las TLs y lasmatrices repitiendo mas detalladamente todo lo dicho en esta introduccion. Si el lector noentendio muy bien, le recomiendo seguir adelante y despues releer esta introduccion.

El producto escalar canonico

Sean αN y βN dos N­adas. El producto escalar de estas N­adasαNβN =

Xi∈N

αiβies el escalar del recuadro a la derecha. De esta manera, el productoescalar de dos vectores es un elemento del campo.

No se debe confundir el “producto por un escalar” con el “producto escalar”. Elprimero es un producto de un escalar por un vector y el segundo es un produc­to de dos vectores. Mas adelante veremos que hay otros productos definidos en

cualquier espacio vectorial. Por esto a este producto lo llamaremos canonico y solamenteesta definido en el espacio vectorial de lasN­adas para cierto conjunto finito de ındicesN.

El producto escalar cumple las siguientes propiedades:1. xy = yx (conmutatividad)2. x (y+ z) = xy+ xz (distributividad a la izquierda)3. (y+ z)x = yx+ zx (distributividad a la derecha)4. x (λy) = (λx)y = λ (xy) (conmuta con el producto por escalares)

Ejercicio 69 Pruebe las principales propiedades del producto de N­adas (3.15).

Ejercicio 70 Busque tres vectores x y z en el plano R2 tales que (xy)z 6= x (yz). [180]Ejercicio 71 Pruebe que ∀αN ∈ RN se cumple que α2N = αNαN ≥ 0.

El producto de matrices

Sean αMN y βNL dos matrices. Observese que el conjunto de ındices de las columnasde la primera, coincide con el conjunto de ındices de los renglones de la segunda. Ası, tantoun renglon αiN como una columna βNj son vectores del espacio KN de N­adas y podemosformar su producto αiNβNj. Cuando hacemos esto, para todos los i ∈ M y todos los j ∈ Lobtenemos una ML­matriz formada por todos estos productos. A esta matriz se le llama elproducto de las matrices αMN y βNL y se denotara por αMNβNL. Resumiendo, si γML =αMNβNL entonces γij = αiNβNj. Por ejemplo, si los conjuntos de ındices son M = 1, 2,

Page 96: Algebra Lineal

86 Capıtulo 3. Transformaciones lineales

N = 1, 2, 3 y L = 1, 2 entonces, en forma grafica tenemosµα11 α12 α13α21 α22 α23

¶⎛⎝ β11 β12β21 β22β31 β32

⎞⎠ =

µα1NβN1 α1NβN2α2NβN1 α2NβN2

¶y por definicion de producto escalar de vectores tenemosµ

α1NβN1 α1NβN2α2NβN1 α2NβN2

¶=

µ P3

i=1 α1iβi1P3

i=1 α1iβi2P3

i=1 α2iβi1P3

i=1 α2iβi2

¶.

Productos de matrices y vectores

Sean αMN y βNL dos matrices. Si el conjunto de indices L tiene un solo elemento en­tonces la matriz βNL tiene una sola columna. En este caso podemos escribir βNL = βN1y diremos que βN1 es un vector columna o una N­ada columna. Obviamente, podemospensar que βN1 es una N­ada βN . En este caso podemos hacer el producto de matricesαMNβN1 = αMNβN y este es el producto de una matriz por un vector definido al princi­pio de esta seccion. Analogamente se define el producto por el otro lado. Si el conjunto deindicesM tiene un solo elemento entonces la matriz αMN tiene un solo renglon. En este casopodemos escribir αMN = α1N y diremos que α1N es un vector renglon o N­ada renglon.Obviamente, podemos pensar que α1N es una N­ada αN . En este caso podemos hacer elproducto de matrices α1NβNL = αNβNL y esta es la definicion del producto de un vectorpor una matriz.

En este libro, no haremos distinciones entre N­adas, N­adas columna y N­adas renglono sea α1N = αN1 = αN . Para esto, dimos las definiciones de producto de una matriz por unvector y al reves. Intuitivamente, el lector debe pensar que cuando aparesca un vector en unproducto de matrices este se convierte en vector fila o columna segun sea conveniente.

Claro, este abuso de la notacion aunque es muy comodo puede llevar (si nos pone­mos pedantes) a contradicciones. Por ejemplo, podemos sumar dos N­adas perono podemos sumar unaN­ada columna con unaN­ada renglon.

Observese que, no solo el producto de matrices por vectores y al reves son casos particu­lares del producto de matrices, sino tambien el producto escalar de dos vectores al constatarque αNβN = α1NβN1.

Ejercicio 72 Tome dos matrices con entradas enteras y multiplıquelas. Repita este ejerciciohasta que usted comprenda muy bien el concepto de producto de matrices.

La transformacion lineal de una matriz

Sea αMN unaMN­matriz. Esta matriz define una funcion KN 3 βN → αMNβN ∈ KM .Esta funcion es una TL como ya vimos al principio de esta seccion utilizando el isomorfismoMor

¡KN,KM

¢↔ KMN . Sin embargo, la prueba directa de este hecho es muy sencilla.

Page 97: Algebra Lineal

87Seccion 3.4 Coordinatizacion de transformaciones lineales

El multiplicar una matriz fija porN­adas es una TL.

Prueba. Sea αMN una matriz cualquiera pero fija. Por las propiedades del producto de vec­tores tenemos que para todo i ∈M se cumple que αiN (βN + γN) = αiNβN+αiNγN y queαiN (λβN) = λ (αiNβN). Esto significa que son validas las igualdades αMN (βN + γN) =

αMNβN + αMNγN y αMN (λβN) = λ (αMNβN).

La matriz de una transformacion lineal

En la proposicion anterior vimos que al mutiplicarMN­matrices porN­adas obtenemosejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles, o sea, quecualquier TL de KN en KM se obtiene multiplicando por unaMN­matriz. En realidad, estoya lo probamos al principio de esta seccion al construir el isomorfismo Mor

¡KN,KM

¢ ↔KMN . Sin embargo, aquı es mas simple ya que tenemos bases canonicas de KN y KM . SeaE = ei : i ∈ N la base canonica de KN . Recordemos que ei es la N­ada con coordenadasδji = 1 si i = j y δji = 0 si i 6= j. Sea f : KN → KM una TL. Denotemos αMi = f (ei) ∈KM . A la matriz αMN cuyas columnas son las imagenes de la base canonica mediante la TLf la llamaremos matriz de la TL f.

Sea f : KN → KM una TL y αMN su matriz. Entonces, pa­ra cualquier βN ∈ KN se cumple que f (βN) = αMNβN .

Prueba. Sea f0 : βN 7→ αMNβN . Sabemos que f y αMNei =P

j∈N αMjδji = αMif0 son TLs. Si i ∈ N entonces, por definicion de la basecanonica y del producto de una matriz por un vector tenemos la igualdad del recuadro. Luegof y f0 coinciden en la base canonica y por extension lineal ambas son la misma funcion.

Ejercicio 73 Halle la matriz de la rotacion con angulo α en R2. [180]

Composicion de TLs y producto de matrices

La matriz de la composicion de dos TLs esigual al producto de las matrices de las TLs.

Prueba. Sean f ∈ Mor¡KN,KM

¢y g ∈ Mor

¡KM,KL

¢dos TLs. Sean αMN y βLM las

matrices de f y g respectivamente. Para cualquier γN ∈ KN y cualquier i ∈ L tenemos

βiM (αMNγN) =Xj∈M

βij (αjNγN) =Xj∈M

βij

Xk∈N

αjkγk =

Page 98: Algebra Lineal

88 Capıtulo 3. Transformaciones lineales

=Xk∈N

Xj∈M

βijαjkγk =Xk∈N

(βiMαMk)γk = (βiMαMN)γN

y por lo tanto βLM (αMNγN) = (βLMαMN)γN . Como γN 7→ βLM (αMNγN) es la TL g fentonces, tenemos (g f) (γN) = (βLMαMN)γN que es lo que se querıa probar.

El producto de matrices es asociativo, distribuye por ambos ladoscon la suma de matrices y conmuta con el producto por un escalar.

Prueba. Sean f, g y h TLs cuyas matrices son αMN , βLM y γKL respectivamente. Lamatriz de (h g) f es (γKLβLM)αMN . La matriz de h (g f) es γKL (βLMαMN). Co­mo la composicion de TLs es asociativa tenemos (h g) f = h (g f) y por lo tanto(γKLβLM)αMN = γKL (βLMαMN). Esto prueba la asociatividad.

Las demas propiedades se prueban exactamente igual o sea, se desprenden de las respec­tivas propiedades de las TLs y de la proposicion 3.18.

Ejercicio 74 Pruebe la asociatividad del producto de matrices directamente de la definicionde producto o sea, sin usar TLs. [180]

El espacio de todas lasNN­matriceses un algebra isomorfa a End

¡KN¢.

Prueba. Ya sabemos queKNN es un espacio vectorial para la suma de matrices y el productode una matriz por un escalar. El resultado anterior hace la mayor parte del trabajo necesariopara mostrar que KNN es un algebra. Solo falta el neutro para el producto que es la matrizde la identidad en KN . Esta matriz es INN que cumple que Iij = δij (el delta de Kronecker)y que la llamaremos matriz identidad.

Ademas, ya sabemos que la aplicacion que a un OL en KN le hace corresponder sumatriz es un isomorfismo de espacios vectoriales. La proposicion 3.18 completa la tarea dedemostrar que esta aplicacion es un isomorfismo de algebras.

Matrices inversas

Sea f ∈ Mor¡KN,KM

¢y αMN la matriz de f. La funcion f es biyectiva si y solo si,

existe la TL f−1 tal que f f−1 = I¡KN¢

y f−1 f = I¡KM

¢. A la matriz de la TL f−1 se

le llama matriz inversa de αMN y se denota por α−1MN . De la proposicion 3.18 obtenemos

que la matriz inversa cumple que α−1MNαMN = INN y αMNα−1

MN = IMM . Observese que elconjunto de ındices de las columnas de α−1

MN es M y no N. Analogamente, el conjunto deındices de los renglones de α−1

MN esN y noM.De la definicion es inmediato que una matriz tiene inversa si y solo si su TL es un iso­

morfismo de espacios vectoriales. En particular los conjuntos de ındices N y M tienen que

Page 99: Algebra Lineal

89Seccion 3.5 Cambios de base

tener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codo­minio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos preocuparemos en traducirnuestro criterio de isomorfismo 3.14 al lenguaje de matrices.

Una matriz cuadrada αMN tiene inversa si y solo si suscolumnas son todas diferentes y son una base de KM .

Prueba. Sea αMN una matriz cuadrada y f ∈ Mor¡KN,KM

¢su TL. La resticcion de f

a la base canonica de KN es la N­ada de las columnas de la matriz αMN . Por 3.14 paraque f tenga funcion inversa es necesario y suficiente que esta restriccion sea inyectiva (lascolumnas diferentes) y que su imagen (el conjunto de columnas) sea una base de KM .

Es posible probar un criterio analogo al anterior substituyendo las columnas por los ren­glones. Sin embargo, su prueba aquı se nos harıa innecesariamente complicada. Mejor lodejaremos para el proximo capıtulo donde esto sera una facil consecuencia de un resultadomucho mas importante.

Ejercicio 75 Sean f y g las rotaciones del plano R2 en los angulos α y β respectivamente.Use el ejercicio 73 para hallar las matrices en la base canonica de f, g y f g. Use 3.18 parahallar formulas para el seno y el coseno de la suma de dos angulos. [180]

3.5 Cambios de base

Es usual en las aplicaciones que sea conveniente realizar ciertos calculos en un sistema decoordenadas y despues realizar otros calculos en otro sistema de coordenadas. En el algebralineal estos cambios de coordenadas son lineales o sea, la transformacion que lleva unascoordenadas a otras es una TL.

Cambios de base en un espacio vectorial

Sean V y N dos bases del espacio E. Conocemos los isomorfismos de coordinatizacionKV ↔ E ↔ KN . Nuestro problema ahora es: dado una V­ada βV que son las coordenadasdel vector x en la base V como hallar las coordenadas γN de x en la baseN. En este caso lasletras V yN tienen el sentido de que V es la base “vieja” y queN es la base “nueva”.

Sea αNV la matriz cuyas columnas son los vectores de la base V expre­v =

Xi∈N

αivisados en las coordenadas de N. O sea, para cualquier v ∈ V tenemos laformula en el recuadro a la derecha. A la matriz αNV se le llama matriz decambio de base (de V a N). Esta matriz no es otra cosa que la matriz delisomorfismo KV → E→ KN .

Page 100: Algebra Lineal

90 Capıtulo 3. Transformaciones lineales

Si βV es la V­ada de las coordenadas de un vector en la base V entonces,αNVβV es la N­ada de las coordenadas del mismo vector en la base N.

Prueba. Descompongamos x ∈ E en las dos bases. Tenemos, x =P

v∈V βvv =P

i∈N γii

y por lo tantox =

Xv∈V

βv

ÃXi∈N

αivi

!=Xi∈N

ÃXv∈V

αivβv

!i =

Xi∈N

γii

De la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdadPv∈V αivβv = γi que es la que se necesitaba demostrar.

Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) ∈ R2 en la baseN = a1,a2 donde a1 = (2, 3) y a2 = (1, 2). Las coordenadas (x, y) son las coordenadasde u en la base canonica. Luego, V = e1,e2 es la base canonica y para construir la matrizαNV de cambio de base necesitamos las coordenadas de V en la base N. Estas coordenadasse pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es mas sencillo usarla siguiente argumentacion. Como un cambio de base es un isomorfismo entonces la matrizαNV tiene inversa que es la matriz de cambio de la baseN a la base V . Las columnas de estamatriz ya las tenemos, son a1y a2. Luego, denotando p y q las coordenadas que buscamos,o sea, u = pa1 + qa2 tenemos:µ

p

q

¶=

µ2 1

3 2

¶−1 µx

y

¶=

µ2 −1

−3 2

¶µx

y

¶=

µ2x− y

2y− 3x

¶.

y en estos calculos lo unico que no conoce el lector es como calcular la matriz inversa. Pero,esto lo pospondremos hasta el proximo capıtulo.

Cambios de base en el espacio de transformaciones lineales

Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V , N dosbases del espacio E y W, M dos bases del espacio F. Conocemos los isomorfismos decoordinatizacion KWV ↔ Mor (E,F)↔ KMN . El problema ahora es: dada unaWV­matrizαWV que es la matriz de la TL f : E→ F en las bases V yW como hallar la matriz βMN de fen las basesN yM. Nuevamente, V,W son las bases “viejas” yM,N son las bases nuevas.

Sea γNV la matriz de cambio de base de V a N en E. Sea λMW lav =

Xi∈N

γivi

w =Xj∈M

λjwj

matriz de cambio de base de W a M en F. O sea, para cualquier v ∈ Vy cualquier w ∈ W tenemos las formulas en el recuadro a la derecha.Estas matrices no son otra cosa que las matrices de los isomorfismos decoordinatizacion KV → E→ KN y KW → F→ KM .

Si αWV es la matriz de f en las bases V yW entonces,λMWαWVγ

−1NV es la matriz de f en las bases N y M.

Page 101: Algebra Lineal

91Seccion 3.5 Cambios de base

Prueba. Las columnas de αWV son las imagenes por f de la basef (v) =

Xw∈W

αwvw

f (i) =Xj∈M

βjij

V expresadas en la base W o sea, ∀v ∈ V se cumple la formuladel recuadro a la derecha. Denotemos por βMN la matriz de f en las

bases N, M. Las columnas de βMN son las imagenes por f de la baseN expresadas en la base M. O sea, para cualquier i ∈ N se cumple laformula del recuadro a la izquierda.

Substituyendo en la formula de la derecha las formulas que definen las matrices λMW yγNV obtenemos X

i∈Nγivf (i) =

Xj∈M

ÃXw∈W

λjwαwv

!j

y en esta igualdad substituimos f (i) por la formula de la izquierda para obtenerXj∈M

ÃXi∈N

βjiγiv

!j =

Xj∈M

ÃXw∈W

λjwαwv

!j.

De la unicidad de la representacion de cualquier vector en la base M obtenemos que paracualesquiera j ∈ M y v ∈ V se cumple que

Pi∈N βjiγiv =

Pw∈W λjwαwv y por lo tanto

βMNγNV = λMWαWV . Como γNV es la matriz de un isomorfismo entonces, γNV tieneinversa por lo que podemos despejar βMN .

La proposicion anterior la podemos interpretar graficamen­KV

αWV−→ KWγNV ↓ ↓ λMW

KN −→βMN

KM

te de la siguiente manera. Las matrices αWV , βMN , γNV , yλMW son las matrices de TLs entre espacios como se muestraen el diagrama a la izquierda. Se dice que un diagrama defunciones es conmutativo si cualesquiera dos caminos di­

rigidos entre dos cualesquiera conjuntos son funciones iguales. En nuestro caso, el que eldiagrama a la izquierda sea conmutativo lo quiere decir es que βMNγNV = λMWαWV .

Cambios de base en el espacio de operadores lineales

Si f ∈ End (E) = Mor (E,E) es un OL entonces, no tiene sentido escoger bases diferen­

KVαVV−→ KV

γNV ↓ ↓ γNVKN −→

βNNKN

tes para el dominio y el codominio ya que estos son iguales. Sean V , N dos bases de E. Elproblema ahora es: dada una VV­matriz αVV que es la matriz del OL f en la base V , hallar lamatriz βNN de f en la baseN. Sea γNV la matriz de cambio debase de V aN en E. En este caso, el diagrama es el de la dere­cha. Ya no hay que probar la conmutatividad de este ya que el,es un caso particular del anterior. Luego, βNNγNV = γNVαVVy despejando obtenemos que βNN = γNVαVVγ

−1NV .

Ejemplo. Sea f la TL del plano R2 que tiene la matriz del recuadro aµcosα − sinαsinα cosα

¶la izquierda en la base V = a1,a2 donde a1 = (2, 3) y a2 = (1, 2).¿Cual sera la matriz de f en la base canonica? La matriz de cambio

de base a la base canonica es la que tiene como columnas a los vectores a1 y a2. Luego, lamatriz de f en la base canonica esµ

2 1

3 2

¶µcosα − sinαsinα cosα

¶µ2 1

3 2

¶−1

=

µcosα+ 8 sinα −5 sinα13 sinα cosα− 8 sinα

Page 102: Algebra Lineal

92 Capıtulo 3. Transformaciones lineales

y esto es una advertencia de que un operador lineal puede tener en una base una matriz quees igual a la de la rotacion en la base canonica y sin embargo no es una rotacion.

La transformacion lineal tanspuesta

Las formulas de cambios de base nos permiten definir propiedades de las transforma­ciones lineales que estan definidas solo para las matrices. La idea es la siguiente: para unatransformacion lineal f se encuentra su matriz A en ciertas bases se define la “propiedad”para la matriz A y definimos a esta como “propiedad” de f. Finalmente, se prueba que si Bes matriz de f en otras bases entonces, la “propiedad” de la matrizA es tambien “propiedad”de la matriz B. Con esto logramos que nuestra definicion de “propiedad” de f sea correcta osea, no depende de las bases en las cuales se definio. Ahora seguiremos esta idea para definirla transformacion lineal transpuesta.

Sea A = αNM una matriz. A la matriz B = βMN definida por βij = αji se le llama lamatriz transpuesta de A y se denotara por AT. Un ejemplo de matrices transpuestas es elsiguiente µ

1 2 3

6 5 4

¶T

=

⎛⎝ 1 6

2 5

3 4

⎞⎠o sea, los renglones de A son las columnas de AT y viceversa.

Es comodo pensar en la transpuesta como la operacion de transposicion que a una matrizle hace corresponder su transpuesta.

Las principales propiedades de la transposicion sonlas que se muestran en el recuadro a la derecha.

1)¡AT¢T

= A

2) (AB)T = BTAT

3)¡A−1

¢T=

¡AT¢−1

Prueba. La propiedad 1 es consecuencia trivial de la definicion. Para convencernos de lapropiedad 2 sean A = αNM , B = βML y γNL = αNMβML = AB. Denotemos AT = α0MN ,BT = β0LM y (AB)T = γ0LN . Tenemos que ∀i ∈ N y ∀j ∈M

γ0ji = αiMβMj =Xk∈M

αikβkj =Xk∈M

β0jkα0ki = β0jMα

0Mi

y esto prueba la propiedad 2. Para probar la propiedad 3 vemos que por la propiedad 2tenemos ¡

A−1¢TAT =

¡AA−1

¢T= IT = I

y la prueba concluye por la unicidad de los inversos.

Ahora, sea f : E → F una TL y A la matriz de f en ciertas bases. Definamos la TLtranspuesta fT : F → E como la TL de la matriz transpuesta AT. Tenemos que comprobarque esta definicion no depende de como escogimos las bases. Si B es la matriz de f en otrasbases entonces existen matrices invertibles C y D tales que B = CAD y por la propiedad2 tenemos BT = DTATCT. Por la propiedad 3 las matrices DT y CT son invertibles y estosignifica que BT es la matriz de fT en las nuevas bases.

Page 103: Algebra Lineal

93Seccion 3.6 El nucleo y la imagen de una transformacion lineal

La transpuesta de una inmersion es una proyeccion y recıprocamente.

Prueba. Sea F un subespacio de E y f : F → E la inmersion ⎛⎜⎜⎜⎜⎜⎜⎝1 · · · 0

· · · · · · · · ·0 · · · 1

0 · · · 0

· · · · · · · · ·0 · · · 0

⎞⎟⎟⎟⎟⎟⎟⎠correspondiente. SeaA una base de F. Por el Teorema de Existenciade Bases existe una base B de E que contiene a A. El conjunto devectoresC = B\A es una base de cierto subespacio complementarioG de tal manera que E = F ⊕ G. Si coordinatizamos a F con labase A y a E con la base B entonces, en estas bases, la matriz def se ve como en el recuadro a la derecha. O sea, en los renglonescorrespondientes a A tenemos la matriz identidad y en los renglones correspondientes a Ctenemos una matriz nula.

Si transponemos esta matriz entonces fTes la TL que a un vector a + b con a ∈ F yb ∈ G le hace corresponder a. Luego fT es la proyeccion de E a F a lo largo de G. El“recıprocamente” se obtiene de la propiedad 1 de la transposicion (

¡AT¢T= A).

3.6 El nucleo y la imagen de una transformacion lineal

En esta seccion queremos ver que para describir todas las transformaciones lineales noses suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Despues, vere­mos interesantes consecuencias de este resultado.

Definiciones

Para esto comenzaremos con dos definiciones fundamentales. Sea f : E→ F una TL.Al conjunto y ∈ F | ∃x ∈ E f (x) = y se le llama imagen de la TL. La imagen de f sedenotara por Im f. Al conjunto x ∈ E | f (x) = 0 se le llama nucleo de la TL. El nucleo def se denotara por ker f. Esta notacion es debido a que en ingles nucleo es “kernel”. Descrip­tivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen yel nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0.

La imagen y el nucleo de una TL son subespacios.

Prueba. Sean x,y vectores en Im f y λ ∈ K. Por definicion existen a,b tales que f (a) =x, f (b) = y. Como f es lineal tenemos f (a+ b) = f (a) + f (b) = x+ y y ademasf (λa) = λf (a) = λx. Esto quiere decir que Im f es un subespacio.

Sean a,b vectores en ker f y λ ∈ K. Tenemos f (a+ b) = f (a) + f (b) = 0+ 0 = 0 yf (λa) = λf (a) = λ0 = 0. Esto quiere decir que ker f es un subespacio.

Page 104: Algebra Lineal

94 Capıtulo 3. Transformaciones lineales

El nucleo y la imagen de una TL son subespacios de espacios diferentes. Si f :E→ F entonces ker f ⊂ E e Im f ⊂ F. Solamente en el caso que la TL es un OL osea, cuando E = F el nucleo y la imagen son subespacios del mismo espacio. Sin

embargo, como veremos mas adelante, en este caso pasan cosas raras ya que, aunque estossubespacios tienen dimensiones complementarias ellos NO son complementarios en general.

Transformaciones lineales con nucleo trivial

Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector cerosiempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se dice que ftiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso lapreimagen de cualquier vector es unica. Lo importante es que el recıproco tambien es cierto.

Una TL es inyectiva si y solo si su nucleo es trivial.

Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos(f (x) = f (y))⇔ (f (x)− f (y) = 0)⇔ (f (x− y) = 0)⇔ (x− y ∈ ker f)

y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalentea la existencia de un vector no nulo en el nucleo de la TL.

Descomposicion de transformaciones lineales

Ahora, demostraremos el resultado prometido al principio de la seccion. Sea f : E →F una TL. Sea K un subespacio complementario cualquiera pero fijo del ker f. Sea fK larestriccion de f al subespacio K. Denotemos i : Im f → F la inmersion del subespacio Im fen F. Por ultimo, denotemos πK : E³ K la proyeccion de E a K a lo largo del ker f.

Teorema de Descomposicion de una TL

f = i fK πK y fK es un isomorfismo.

Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.29 (pagina 64) existen unosunicos vectores a ∈ K, b ∈ ker f tales que x = a+ b. De aquı obtenemos

(i fK πK) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x)y con esto queda probado que f = i fK πK.

Para probar que fK es un isomorfismo sea f (x) ∈ Im f. Por 2.29 existen unos unicosvectores a ∈ K, b ∈ ker f tales que x = a+ b. Como fK (a) = f (a) = f (a) + f (b) =f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a− b) = 0. Como(a− b) ∈ K ∩ ker f entonces, a− b = 0 o sea a = b. Luego, fK es inyectiva.

Este teorema lo podemos visualizar mas facilmente si observa­E

f−→ FπK ↓ ↑ iK −→

fKIm f

mos el diagrama de la derecha. La primera afirmacion del Teoremade Descomposicion de una TL (3.28) lo que dice es que este dia­grama es conmutativo.

Page 105: Algebra Lineal

95Seccion 3.6 El nucleo y la imagen de una transformacion lineal

Para cualquier transformacion lineal f : E→ F,dimE = dimker f+ dim Im f.

Prueba. Por el teorema anterior Im f es isomorfo a un complementario de ker f.

La descomposicion de la transpuesta

Veamos una primera aplicacion del Teorema de Descomposicion de una TL (3.28). Comoveremos en el proximo capıtulo, este resultado es clave para poder encontrar el conjunto detodas las soluciones de un sistema de ecuaciones lineales.

Para cualquier transformacion lineal f : E→ F se cumpleque dim Im f = dim Im fT y que dimker f = dimker fT.

Prueba. Por 3.29 es suficiente demostrar la primera igualdad. Descompongamos f = igπdonde i es una inmersion, g un isomorfismo y π una proyeccion. O sea, f es la composicion

Eπ−→ K

g−→ Im f

i−→ F

Por 3.24.2 tenemos que fT = πT gT iT. Mas detalladamente, fT es la composicion

FiT−→ Im f

gT

−→ KπT

−→ E

De 3.24.3 obtenemos que gT es un isomorfismo y de 3.25 obtenemos que πT es una inmersiony que iT es una proyeccion. Como gT iT es sobreyectiva Im fT = ImπT y como πT es unainmersion ImπT = K. El hecho de que K y Im f son isomorfos termina nuestra prueba.

Un criterio de isomorfismo

Veamos otra aplicacion. Recordemos un sencillo resultado de teorıa de conjuntos: todafuncion inyectiva de un conjunto finito en otro con el mismo numero de elementos es biyec­tiva. De hecho, esto lo usamos en el primer capıtulo para probar que Zp es un campo parap primo. El objetivo ahora, es mostrar que “exactamente” el mismo resultado (simple peromuy util) se cumple para espacios vectoriales de dimension finita. Esto es una consecuenciadel Teorema de Descomposicion de una TL (3.28).

Sean E y F dos espacios de dimensiones finitas e iguales.Una TL f : E → F es inyectiva si y solo si es sobreyectiva.

Prueba. Por 3.29 tenemos dimker f = dimE − dim Im f. Si f es sobreyectiva entonces,F = Im f. Por hipotesis dimF = dimE. De aquı, debido a que todas las dimensiones sonfinitas, dimker f = 0 y por lo tanto ker f = 0. De 3.27 concluimos que f es inyectiva.

Si f es inyectiva entonces, la funcion f : E → Im f es un isomorfismo y por lo tantodimE = dim Im f. Por hipotesis dimF = dimE. Como Im f es un subespacio de F entonces,

Page 106: Algebra Lineal

96 Capıtulo 3. Transformaciones lineales

aplicando 2.17 (pagina 54) obtenemos F = Im f.

Como consecuencia de este resultado probaremos que para comprobar que dos opera­dores lineales f y g en un espacio de dimension finita son el inverso uno del otro, solo esnecesario comprobar una de las dos igualdades g f = I o f g = I.

Sean f, g : E → E dos OLs de un espacio finito dimen­sional. Entonces, f g = I si y solo si g f = I.

Prueba. La funcion identidad es sobreyectiva. Luego, si fg = I entonces, f es sobreyectiva.Por 3.31 f es inyectiva y por lo tanto tiene inversa f−1. Componiendo con f−1 obtenemosf−1 f g = f−1 I y por lo tanto g = f−1.

Descomposicion canonica de transformaciones lineales

Para aplicar el Teorema de Descomposicion de una TL (3.28) necesitamos escoger (yaque hay muchos) un subespacio complementario K del nucleo de f. Ya vimos (vease 2.34)que cualquier tal subespacio es isomorfo al cociente E/ ker f. Queremos substituir K porE/ ker f en el Teorema de Descomposicion de una TL (3.28) para ası obtener otra versiondel mismo que no dependa de escoger nada, o sea que sea canonico.

En el Teorema de Descomposicion de una TL (3.28) estan

Ef−→ F

? ↓ ↑ iE/ ker f ←→

?Im f

involucradas tres funciones: la proyeccion πK (que es sobreyec­tiva), la restriccion fK (que es biyectiva) y la inmersion i (que esinyectiva). Esta ultima no depende de K y podemos quedarnoscon ella. Ası que todas nuestras incognitas estan representadasen el diagrama de la derecha.

¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas va­

x 7→ ker f+ xf (x) 7→ ker f+ x

riantes. El espacio cociente E/ ker f esta formado por todos los subespacios afines ker f+ x.El espacio Im f esta formado por todas las imagenes f (x). Luego, launica posible respuesta a nuestra pregunta son las funciones definidasen el recuadro a la izquierda.

La primera de estas funciones tiene dominio E, codominio E/ ker f, se le llama funcionnatural y se denota por “nat”. La funcion natural es una TL ya que

nat (x+ y) = ker f+ x+ y = ker f+ x+ ker f+ y = nat (x) + nat (y)nat (λx) = ker f+ λx = λ ker f+ λx = λ (ker f+ x) = λ nat (x)

y ademas es evidentemente sobreyectiva.La segunda de estas funciones es nuestra preocupacion fundamental ya que tenemos que

probar que es un isomorfismo. Esta funcion tiene dominio Im f, codominio E/ ker f y ladenotaremos por g. La funcion g es una TL ya que

g (f (x) + f (y)) = g (f (x+ y)) = ker f+ x+ y = g (f (x)) + g (f (y))g (λf (x)) = g (f (λx)) = ker f+ λx =λ (ker f+ x) = λg (f (x))

y es tambien evidentemente sobreyectiva.

Page 107: Algebra Lineal

97Seccion 3.7 Trasformaciones semilineales y coalineaciones

¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios afinesker f + x y ker f + y son el mismo entonces, f (x) = f (y). Como para un subespacio afınE paralelo al ker f se cumple que (E = ker f+ x)⇔ (x ∈ E) entonces, la inyectividad de ges equivalente a que la funcion f sea constante en cualquier subespacio afın paralelo al ker f.La cadena de equivalencias

(y ∈ ker f+ x)⇔ (∃a ∈ ker f | y = a+ x)⇔ (f (y− x) = 0)⇔ (f (y) = f (x))

nos convence de que g es inyectiva independientemente de quien sea f.

Los subespacios afines paralelos a ker f son precisamentelos conjuntos de vectores en que la funcion f es constante.

Luego, g es un isomorfismo y por lo tanto tiene un isomor­

Ef−→ F

nat ↓ ↑ iE/ ker f −→

f0Im f

fismo inverso que denotaremos por f0. El isomorfismo f0 es elque a un subespacio afın ker f + x le hace corresponder f (x).Ası completamos nuestro diagrama como en el recuadro a laderecha. Solo nos falta demostrar que este es conmutativo. Sinembargo esto es muy facil porque la composicion de funciones

xnat7−→ ker f+ x

f07−→ f (x)i7−→ f (x)

es evidentemente igual a la funcion f.

3.7 Trasformaciones semilineales y coalineaciones

Una funcion f : E → F de espacios vectoriales sobre K sef(a+ b) = f(a) + f(b)

f (λa) = λf (a)le llama transformacion semilineal si existe un automorfismoλ 7→ λ del campo K tal que para cualesquiera vectores a, b ycualquier escalar λ se cumplen las propiedades del recuadro.

Observese que las trasformaciones lineales son semilineales usando como automorfismodel campo la funcion identidad. Para construir otras trasformaciones semilineales necesita­mos automorfismos del campo que no sean la identidad. El ejemplo mas importante es laconjugacion a+bi 7→ a−bi en el campo de los numeros complejos (vease el ejercicio 34).

Ejercicio 76 Pruebe que para una transformacion semilineal no nula f el correspondienteautomorfismo del campo es unico. [180]

Trasformaciones semilineales reales

En el caso del campo de los numeros reales no hay trasformaciones semilineales que nosean lineales debido al siguiente resultado:

Page 108: Algebra Lineal

98 Capıtulo 3. Transformaciones lineales

El unico automorfismo de R es la identidad.

Prueba. Sea f un automorfismo de R. Supongamos que x > 0 y sea y =√x entonces,

f (x) = f(y2) = f (y)2> 0. En particular si x = b − a > 0 entonces f (b− a) =

f (b) − f (a) > 0. En otras palabras, f es monotona b > a ⇒ f (b) > f (a). Como f−1

tambien es monotona entonces, f conmuta con el supremo y el ınfimo (vease el ejercicio 77).Como f (1) = 1 y 1 es generador del grupo aditivo de Z obtenemos que f es la identidad

en Z. Como f (a/b) = f (a) /f (b) obtenemos que f es la identidad enQ. Sea x un irracionaly denotemos por A el conjunto de todos los racionales menores que x. Sabemos que x =supA y por lo tanto f (x) = f (supA) = sup f (A) = supA = x.

Ejercicio 77 Sea R un conjunto ordenado y f : R → R una isotonıa (biyeccion tal que f yf−1 son monotonas). Pruebe que si supA existe entonces, f (supA) = sup f (A). [180]Ejercicio 78 Sea f 6= I un automorfismo de C. Las siguientes afirmaciones son equivalen­tes: 1. f es la conjugacion compleja. 2. f es continua. 3. f es la identidad en R. [181]

Propiedades de las transformaciones semilineales

Al igual que las TL las transformaciones semilineales preservan subespacios.

Toda trasformacion semilineal trans­forma subespacios en subespacios.

Prueba. Sea f : E→ F una trasformacion semilineal y F un subespacio deE. Seana,b ∈ Fy α ∈ K. Tenemos f(a+ b) = f(a) + f(b) por lo que f (F) es cerrado para la suma. Seaλ ∈ K tal que λ = α. Tenemos αf (a) = λf (a) = f (λa) o sea f (E) es cerrado para elproducto por escalares.

Toda trasformacion semilineal transformasubespacios afines en subespacios afines.

Prueba. Sea f : E → F una trasformacion semilineal y F un subespacio de E. Si F + x esun subespacio afın entonces, f (F + x) = f (F) + f (x) que es tambien un subespacio afınpuesto que por el resultado anterior f (F) es un subespacio.

Automorfismos semilineales.

A diferencia de las TL las transformaciones semilineales no forman un espacio vectorial.Esto es debido a que si λ 7→ λ y λ 7→ eλ son dos automorfismos del campo entonces λ 7→ λ+eλ

Page 109: Algebra Lineal

99Seccion 3.7 Trasformaciones semilineales y coalineaciones

no necesariamente es un automorfismo. A las transformaciones semilineales f : E → E

biyectivas las llamaremos automorfismos semilineales.

La composicion de automorfismos semi­lineales es un automorfismo semilineal.

Prueba. Sean f y g dos automorfismos semilineales. De la misma manera que para losoperadores lineales se prueba que (f g) (a+ b) = (f g) (a) + (f g) (b). Sean λ 7→ λ

y λ 7→ λ los automorfismos del campo correspondientes a f y g respectivamente. Tenemos

que (f g) (λa) = f¡λa¢= eλa y la prueba termina al observar que λ 7→ eλ siendo una

composicion de automorfismos del campo es automorfismo del campo.

Ejercicio 79 Sea λ 7→ λ un automorfismo del campoK. Pruebe que la transformacionKn 3(x1, . . . , xn) 7→ (x1, . . . , xn) ∈ Kn es un automorfismo semilineal. A tales automorfismossemilineales los llamaremos estandar. Pruebe que toda transformacion semilineal de Kn enKn es la composicion de un automorfismo semilineal estandar con una TL. [181]

La inversa de un automorfismo semi­lineal es un automorfismo semilineal..

Prueba. Sea f : E → E una automorfismo semilineal. Sean λ ∈ K y x,y ∈ E. Seana,b ∈ E tales que f (a) = x , f (b) = y. Tenemos

f−1 (x+ y) = f−1 (f (a) + f (b)) = f−1 (f (a+ b)) = a+ b = f−1 (x) + f−1 (y)

f−1¡λx¢= f−1

¡λf (a)

¢= f−1 (f (λa)) = λa =λf−1 (x)

que es lo que se querıa demostrar puesto que la funcion λ 7→ λ es un automorfismo de K.

Estos dos ultimos resultados significan que el conjunto de todos los automorfismos se­milineales forman un grupo respecto a la composicion de funciones.

Coalineaciones

Una biyeccion f : E→ E en un espacio vectorial sobre un campo le llama coalineacionsi la imagen de cualquier subespacio afın es un subespacio afın y la preimagen de cualquiersubespacio afın es un subespacio afın de E. En otras palabras, tanto f como f−1 transformansubespacios afines en subespacios afines. Obviamente, si f es una coalineacion entonces f−1

tambien lo es. El siguiente resultado nos dice que la definicion de coalineacion es posiblehacerla de diversas maneras.

Page 110: Algebra Lineal

100 Capıtulo 3. Transformaciones lineales

Sea f : E→ F una biyeccion entre dos espacios afines. Entonces, lassiguientes afirmaciones son equivalentes:

1. f y f−1 transforman subespacios afines en subespacios afines.2. f y f−1 transforman generadores afines en generadores afines.3. f y f−1 transforman bases afines en bases afines.4. f y f−1 transforman conjuntos AI en conjuntos AI.5. f y f−1 conmutan con la cerradura afın.

Prueba. (1⇒ 2) Sea A un conjunto generador afın de E y B = f (A). Sea C = f−1 [B]

que es un subespacio afın por ser la preimagen de un subespacio. Tenemos, B ⊆ [B] y porlo tanto A = f−1 (B) ⊆ f−1 [B] = C. Luego E = [A] ⊆ C y por lo tanto C = E. Deaquı f (E) = [B] y como f es sobreyectiva tenemos que B es generador. Por simetrıa, si B esgenerador entonces f−1 (B) tambien lo es.(2⇒ 3) Sea ahora A una base afın de E y B = f (A). Sabemos que B es generador afın.

Si B no fuera AI entonces existirıa b tal que B\b es generador y por lo tanto, tendrıamosque f−1 (B\b) = A\f−1 (b) es generador afın. Esto contradecirıa que A es una base afın.Por simetrıa, si B es una base afın entonces f−1 (B) tambien lo es.(3⇒ 4) Sea ahoraA un conjunto AI. SeaA0 una base afın que lo contiene. Sabemos que

f (A0) es una base afın. Como f (A) ⊆ f (A0) tenemos que f (A) es AI. Por simetrıa, si B esAI entonces f−1 (B) tambien lo es.(4⇒ 1) SeaA una base afın del subespacio afın [A]. ComoA es AI entonces B = f (A)

tambien lo es. Si b ∈ [A] entoncesA∪b es AD y por lo tanto B∪f (b) tambien lo es. Luego,por el corolario 2.42, tenemos f (b) ∈ [B] y por lo tanto f [A] ⊆ [B]. Si b ∈ [B] entoncesB∪b es AD y por lo tanto A∪ f−1 (b) tambien lo es. Luego, por el corolario 2.42, tenemosf−1 (b) ∈ [A] y por lo tanto [B] ⊆ f [A]. Esto significa que f transforma el subespacio [A]en el subespacio [B]. Por simetrıa, f−1 tambien transforma subespacios en subespacios.(5⇒ 1) Si f [A] = [f (A)] entonces la imagen del subespacio afın [A] es el subespa­

cio afın [f (A)]. O sea, f trasforma subespacios en subespacios. Por simetrıa, f−1 tambientransforma subespacios en subespacios.(1⇒ 5) Sea f una coalineacion. SeaA un conjunto de puntos. Como f transforma subes­

pacios afines en subespacios afines la restriccion de f a [A] es una coalineacion del espacioafin [A] en el espacio afin f [A]. Como esta restriccion transforma generadores en generado­res tenemos que f (A) es generador de f [A]. Luego f [A] = [f (A)]. Para probar de que f−1

conmuta con la cerradura afın usamos que f−1 es una coalineacion.

Ejercicio 80 Sea A un conjunto con un operador de cerradura y f : A→ A una biyeccion.Si f y f−1 conmutan con el operador de cerradura entonces f es una isotonıa del conjuntoordenado de cerrados.

Page 111: Algebra Lineal

101Seccion 3.7 Trasformaciones semilineales y coalineaciones

Estructura de las coalineaciones

La composicion de coalineaciones de un espacio afın en si mismo es una coalineacion.Lo mismo sucede con la inversa de una coalineacion. Luego el conjunto de todas las coali­neaciones de un espacio afın F es un grupo respecto a la composicion de funciones.

Si dimE = 1 entonces cualquier biyeccion de E en E es una coalineacion ya que en estecaso todos los subepacios afines son puntos y la condicion de preservar puntos no es ningunarestriccion.

Un importante subgrupo de colineaciones son las traslaciones o sea, las funciones de laforma ta : F 3 x 7→ x+a ∈ F y de estas hay una para cada vector a en el espacio vectorialF. Como ta tb = ta+b observamos que el subgrupo de traslaciones es isomorfo al grupoaditivo del espacio vectorial F.

Sea f una coalineacion en E. Denotemos a = f (0) y ta la traslacion x 7→ x+a. Obser­vemos que la coalineacion f0 = t−a f es tal que f0 (0) = 0. Luego, cualquier coalineaciones la composicion f = ta f0de una coalineacion que preserva 0 seguida de una traslacion.

Si f es un automorfismo semilineal entonces f transforma subespacios afines en subes­pacios afines y por lo tanto es una coalineacion que preserva 0.

Ahora, comenzaremos a probar el resultado principal de esta seccion: que en dimensional menos 2 toda coalineacion que preserva 0 es semilineal. En todo lo que sigue, E es unespacio vectorial de dimension al menos 2 sobre el campo K.

Toda coalineacion en E preserva el paralelismo de rectas.

Prueba. Sea f una coalineacion y `, `0 dos rectas paralelas diferentes. Como f es un au­tomorfismo del conjunto ordenado de subespacios afines dim [` ∪ `0] = dim f [` ∪ `0] =dim [f (`) ∪ f (`0)] y por lo tanto f (`) y f (`0) son coplanares.

Tambien dim [` ∩ `0] = dim f [` ∩ `0] = dim [f (`) ∩ f (`0)] y por lo tanto f (`) y f (`0) nose intersectan.

Toda coalineacion en E que preserva 0 es unautomorfismo del grupo aditivo de vectores.

Prueba. Sea f una coalineacion de E que preserva 0. Recordemos que para cualquier vectorx el subespacio hxi es la recta por el origen que pasa por x. Y como f preserva 0 tenemosf hxi = hf (x)i o sea, f tambien conmuta con la cerradura lineal.

Sean a,b ∈ E dos vectores. Tenemos que probar que f (a+ b) = f (a)+ f (b). Esto estrivial si a,b contiene a 0 por lo que podemos suponer que a 6= 0 y b 6= 0. Supongamosprimero que a,b es LI. Por la regla del paralelogramo sabemos que

a+ b = (hai+ b) ∩ (hbi+ a) ,f (a) + f (b) = (hf (a)i+ f (b)) ∩ (hf (b)i+ f (a)) .

Page 112: Algebra Lineal

102 Capıtulo 3. Transformaciones lineales

Como f preserva el paralelismo f (hai+ b) es una recta paralela a f (hai) = hf (a)ique pasa por f (b) , o sea f (hai+ b) = hf (a)i + f (b). Analogamente, f (hbi+ a) =hf (b)i+ f (a). Como f conmuta con la interseccion (el ınfimo) tenemosf (a+ b) = f (hai+ b)∩f (hbi+ a) = (hf (a)i+ f (b))∩(hf (b)i+ f (a)) = f (a)+f (b)y esto concluye el caso de que a,b es LI.

Es claro que si a,b es LI entonces, tambien lo es a− b,b y por lo tantof (a) = f (a− b+ b) = f (a− b) + f (b) .

Luego, si a,b es LI entonces, f (a− b) = f (a)− f (b).Supongamos que a,b es LD. Entonces, hai = hbi. Como dimE > 1 existe c /∈ hai

tal que los conjuntos a,c, b, c son LI.Si b 6= −a entonces, a+ c,b− c es LI y por el caso anterior tenemos que

f (a+ b) = f (a+ c+ b− c) = f (a+ c) + f (b− c) = f (a) + f (b)

y en particular cuando b = a obtenemos f (2a) = 2f (a).Si b = −a entonces, a+ c,b+ c es LI y tenemos que2f (c) = f (2c) = f (a+ c+ b+ c) = f (a+ c) + f (b+ c) = f (a) + f (b) + 2f (c)

y por lo tanto f (a) + f (b) = 0 = f (0) = f (a+ b).

Ejercicio 81 Complete la demostracion del resultado anterior mostrando que si a,c es LI,b = ρa y ρ 6= −1 entonces a+ c,b− c es un conjunto LI. [181]

Si f es una coalineacion en E que preserva 0 entonces, existe un automorfis­mo λ 7→ λ del campo K tal que f (λa) = λf (a) para todo vector a ∈ E.

Prueba. Sea a ∈ E\0. Como f preserva 0 tenemos que f (hai) = hf (a)i. Sabemos queαa ∈ hai y por lo tanto f (αa) ∈ hf (a)i. Como en hf (a)i estan precisamente los multiplosde f (a) existe un escalar que denotaremos αa tal que f (αa) = αaf (a). De esta maneraesta definida una funcion K 3 α 7→ αa ∈ K que es biyectiva pues f es una biyeccion de haien hf (a)i.

Queremos probar que αa no depende de a. O sea que para cualesquiera a,b ∈ E\0tenemos que αa = αb. Supongamos que a,b es LI. Usando 3.41 obtenemos que

αaf (a) + αbf (b) = f (αa) + f (αb) = f (αa+ αb) =

= f (α (a+ b)) = αa+bf (a+ b) = αa+bf (a) + αa+bf (b)

y como f (a) , f (b) es LI obtenemos αa = αa+b = αb.Supongamos que a,b es LD entonces, como dimE > 1 existe c tal que a,c y c,b

son dos conjuntos LI. Por el caso anterior αa = αc = αb.Como αa no depende de a denotaremos α = αa. Sabemos que para cualquier vector

a ∈ E tenemos f (αa) = αf (a). Solo falta probar que α 7→ α es un automorfismo de K.

Page 113: Algebra Lineal

103Seccion 3.7 Trasformaciones semilineales y coalineaciones

Sea a un vector no nulo. Usando 3.41 obtenemos que(α+ β)f (a) = f ((α+ β)a) = f (αa+ βa) = f (αa) + f (βa) =

¡α+ β

¢f (a)

(αβ)f (a) = f (αβa) = αf (βa) = αβf (a)

y como f (a) es no nulo obtenemos α+ β = α+ β y αβ = αβ.

Resumiendo los dos ultimos resultados obtenemos:

Caracterizacion de las coalineaciones

Si dimE ≥ 2 entonces, cualquier coalineacion enE que preseva 0 es un automorfismo semilineal.

Combinando esto con 3.34 vemos que el caso de los reales es mas sencillo.

Toda coalineacion en un espacio vectorial real de dimension doso mas es un automorfismo lineal seguido por una traslacion.

Page 114: Algebra Lineal

104

Page 115: Algebra Lineal

DeterminantesCapítulo cuartoCapítulo cuarto

os determinantes son una funcion que a cada matriz cuadrada le hace corresponderun elemento del campo. Todo lo que se digamos acerca de la importancia de los de­terminantes en las matematicas es poco. Este es uno de los conceptos sin los cuales

realmente no se puede entender nada en las matematicas superiores. En este capıtulo dare­mos la definicion de los determinantes, estudiaremos sus propiedades, metodos de calculoy seremos capaces, gracias a ellos, de resolver los sistemas de ecuaciones lineales de formageneral.

4.1 Permutaciones

La definicion de determinante de una matriz pasa inevitablemente por la definicion delsigno de una permutacion. El lector debe entender bien esta seccion para poder pasar alestudio de los determinantes.

El grupo simetrico

Sea N un conjunto finito. Una permutacion de N es una biyeccion de N en N. Alconjunto de todas las permutaciones deN lo denotaremos por SN . La composicion de biyec­ciones es una biyeccion y toda biyeccion tiene inversa, por lo tanto, SN es un grupo respectoa la composicion. Al grupo (SN, ) se le llama el grupo simetrico de N. Denotaremos porIN a la funcion identidad que es el neutro de SN . Es importante recordar nuestra notacion dela composicion (σ ω) (a) = σ (ω (a)) ya que la composicion no es conmutativa.

Si |M| = |N| entonces los grupos SM y SN son isomorfos.

Prueba. Sean M y N son dos conjuntos del mismo cardi­M

σ−→ M

ω ↓ ↑ ω−1

N −→ωσω−1

N

nal. Si ω : M → N es una biyeccion entonces fijandonos enel diagrama conmutativo del recuadro a la derecha obtenemosuna funcion ∆ : SM 3 σ 7→ ωσω−1 ∈ SN . Observemos, que∆ tiene inversa SN 3 ρ 7→ ω−1ρω ∈ SM .

Ademas, ∆ (σθ) = ωσθω−1 = ωσω−1ωθω−1 = ∆ (σ)∆ (θ) y por lo tanto, ∆ es unisomorfismo de los grupos SM y SN .

Page 116: Algebra Lineal

106 Capıtulo 4. Determinantes

El lector debe interpretar este resultado como que, en el grupo SM podemos cambiarle elnombre a los elementos deM mediante la biyeccion δ :M→ N y obteniendo el grupo SN .En particular, el numero de elementos de SN solo depende del numero de elementos enN.

El numero de permutaciones de un conjunto con n elementos es n!.

Prueba. Para la prueba es mas claro encontrar ρ (n) el numero de biyecciones f :M→ N

donde |M| = |N| = n. Si n = 1 entonces ρ (n) = 1 = 1!. Hagamos induccion en n. Sii ∈ M entonces, el conjunto de biyecciones lo podemos partir en n partes disjuntas seguncual sea j = f (i). Cada parte tiene tantos elementos como biyecciones f : M\i → N\j ypor hipotesis de induccion este numero es (n− 1) !. Luego, ρ (n) = n (n− 1) ! = n!.

Ciclos

Sea M = x0, . . . , xn−1 ⊆ N. A la permutacionσ (y) =

¯xi+1modn si y = xiy si y /∈Mσ mostrada en el recuadro a la derecha se le llama ci­

clo de orden n. A esta permutacion se le denotara por(x0, . . . , xn−1). . Dos ciclos (x0, . . . , xn−1) y (y0, . . . , ym−1) se les llama disjuntos si ningunxi es igual a algun yj.

Es importante notar que la composicion de ciclos disjuntos es conmutativa pero la com­posicion de ciclos en general no lo es. Tambien debemos notar que debido a las propiedadesde la funcion modn se tiene que (a, . . . , b, c) es la misma permutacion que (c, a, . . . , b) enotras palabras, siempre podemos escoger el principio del ciclo.

Sea σ ∈ SN una permutacion. La relacion en N definidapor ∃n ∈ Z tal que a = σn (b) es de equivalencia.

Prueba. Tenemos a = σ1 (a) y por lo tanto es reexiva. Si a = σn (b) y b = σm (c)entonces a = σn+m (c) y por lo tanto es transitiva. Si a = σn (b) entonces, b = σ−n (a)

por lo que la relacion es simetrica.

A las clases de equivalencia de esta relacion se le llaman orbitas de la permutacion.

La restriccion de una permutacion a una orbita es un ciclo.

Prueba. Supongamos queM es una orbita. Sea a ∈M. TenemosM = σn (a) | n ∈ Z. ElconjuntoM no puede ser infinito por lo que existe un natural p mas pequeno tal que σp (b)ya aparecio antes en la sucesion a,σ (a) , . . .. Observemos que σp (a) = a porque si no,habrıa un numero k mayor que cero y menor que p tal que σp (a) = σk (a) o sea, σk (a)tendrıa dos preimagenes diferentes σk−1 (a) 6= σp−1 (a) y esto no puede ser ya que σ es unabiyeccion. Dividiendo con resto cualquier entero n entre p tenemos que n = kp + r con

Page 117: Algebra Lineal

107Seccion 4.1 Permutaciones

0 ≤ r < p. Luego, σn (a) = σr¡σkp (a)

¢= σr (a) y M = σn (a) | n ∈ Zp. Esto quiere

decir que la restriccion de σ aM es el ciclo¡a,σ (a) , . . . ,σp−1 (a)

¢.

Supongamos que la restriccion de σ a M es el ciclo¡a,σ (a) , . . .σp−1 (a)

¢. Como

σ (M) =M tenemos que σp (a) ∈M y de la misma manera que antes vemos que σp (a) =a y queM = σn (a) | n ∈ Z es una orbita.

Toda permutacion es composicion de ciclos disjuntos.

Prueba. Solo tenemos que tomar los ciclos correspondientes a todas las orbitas y compo­nerlos en cualquier orden.

Observese que la descomposicion en ciclos disjuntos de una permutacion es unica salvoel orden de la composicion.

El grupo alternante

Una permutacion se le llama par si en su descomposicion en ciclos disjuntos hay unnumero par de ciclos de orden par. En otro caso se le llama impar. A los ciclos de orden2 se les llama transposiciones. Las transposiciones son impares. La inversa de cualquiertransposicion es ella misma.

La composicion de una permutacion con una trans­posicion cambia la paridad de la permutacion.

Prueba. Sea σ una permutacion y τ = (a, b) una transposicion. Distingamos dos casos:que a y b estan en una misma orbita de σ o que no.

Si estan en la misma orbita M entonces escogiendo el principio del ciclo en M y renu­merando los elementos de N podemos lograr que τ = (1, k) con k > 1 y que la restriccionde σ aM es (1, 2, . . . , n) con n ≥ k. Como τ (σ (k− 1)) = 1 y τ (σ (n)) = k, obtenemos

(1, k) (1, 2, . . . n) = (1, . . . , k− 1) (k, . . . , n) .Si n es par entonces, k − 1 y n − k + 1 tienen la misma paridad por lo que la paridad deσ cambia. Si n es impar entonces k − 1 y n − k + 1 tienen diferente paridad por lo que laparidad de σ cambia.

Si estan en diferentes orbitasM1 yM2 entonces escogiendo los principios de los ciclosen M1, M2 y renumerando los elementos de N podemos lograr que τ = (1, k) con k > 1y que la restriccion de σ a M1 es (1, . . . , k− 1) y la restriccion de σ a M2 es (k, . . . , n).Como τ (σ (k− 1)) = k y τ (σ (n)) = 1, obtenemos que

(1, k) (1, . . . , k− 1) (k, . . . , n) = (1, 2, . . . n)y ya vimos que (1, . . . , k− 1) (k, . . . , n) tiene paridad diferente que (1, 2, . . . n).

Con esto hemos demostrado que la paridad de τσ es diferente a la de σ. La demostracionde que a paridad de σ τ es diferente a la de σ es analoga.

Page 118: Algebra Lineal

108 Capıtulo 4. Determinantes

Toda permutacion es composicion de transposiciones.

Prueba. Se comprueba facilmente que (x0, . . . , xn−1) = (xn−1, x0). . .(x2, x0)(x1, x0) yesto demuestra que todo ciclo se descompone en composicion de transposiciones. La pruebase completa porque toda permutacion es composicion de ciclos.

Una consecuencia directa de 4.6 y 4.7 es que una permutacion es par si y solo si escomposicion de un numero par de transposiciones. Al conjunto de todas las permutacionespares de N se le denotara por AN . La composicion de dos permutaciones pares es par y lainversa de una permutacion par es tambien par. Luego AN es un grupo para la composiciony se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremospor A−

N y lo llamaremos la clase lateral de las permutaciones impares. Observese que ANy A−

N tienen la misma cantidad de permutaciones e igual a n!/2 ya que el componer con unatransposicion fija es una biyeccion entre AN y A−

N .

El signo de una permutacion

En todo campo K hay dos elementos notables, 1 y −1. El primero es el neutro parael producto y el segundo es el opuesto para la suma del primero. Observese que estos doselementos son diferentes si y solo si la caracterıstica del campo es diferente de 2. El signode una permutacion es la funcion sgn : SN → K que es 1 si la permutacion es par y es −1 sila permutacion es impar.

¨ sgn (π ρ) = sgnπ sgnρ¨ sgnπ−1 = sgnπ

Prueba. La composicion de dos permutaciones de la misma paridad es una permutacionpar. La composicion de dos permutaciones de diferente paridad es impar. Las orbitas de unapermutacion no cambian al tomar la inversa.

La funcion sgn jugara un papel vital en todo lo que sigue. En particular, en la definicionde determinante de una matriz los signos de los sumandos estan definidos precisamentemediante la funcion sgn. Por esto, el lector debe familiarizarse muy bien con la definicion deesta funcion y sus propiedades.

Ejercicio 82 Pruebe que sgn¡π−1 ρ

¢= sgn

¡π ρ−1

¢= sgn

¡ρ−1 π

¢.

El resultado 4.8 lo que quiere decir es que la funcion sgn : SN → K es un morfismo del grupoSN al grupo multiplicativo del campo. Su imagen es 1,−1 y su nucleo es AN si el campo es decaracterıstica diferente de dos.

Page 119: Algebra Lineal

109Seccion 4.2 Propiedades basicas de los determinantes

4.2 Propiedades basicas de los determinantes

Resolvamos el sistema de ecuaciones lineales de la iz­

x =d− b

y =a− c

¯ax+ by = 1cx+ dy = 1 quierda. Denotemos ∆ = ad − bc. Despejando x en

la primera ecuacion y substituyendo en la segunda ob­tenemos y. Substituyendo este y en alguna de las ecuaciones obtendremosx. Esta solucion es la del recuadro a la derecha.

Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2

0

y

d

b

c a xp

qv

u

R2

0

y

xp

qR2

v

u

u+ v como se muestra en la figura a la izquierda. Estos dos vectoresdefinen un paralelogramo cuyos vertices son 0,u,u+ v,v. Que­remos calcular el area de este paralelogramo. Para esto, sea q elpunto de interseccion de la recta u,u+ v con la recta paralela aleje x que pasa por v. Sea p el punto de interseccion de la rectau,u+ v con el eje x. Es facil ver que el triangulo v,q,u+ v es

igual al triangulo 0,p,u. Luego, el paralelogramo 0,u,u+ v, v tiene area igual a la delparalelogramo 0, v,q,p. En la figura a la derecha los triangulosp, a,u y 0,v,d tienen dos angulos iguales o sea son congruentes.De esto, por el Teorema de Tales obtenemos

(b÷ (a− p) = d÷ c)⇒ (pd = ad− cb)

Sabemos que, pd es el area (base por altura) del paralelogramo0,v,q,p. Luego, hemos demostrado que el area del paralelogra­mo 0,u,u+ v, v es igual a ∆ = ad− bc.

Estos dos ejemplos nos dan una idea de la importancia del numero ∆ = ad − bc parala solucion de sistemas de dos ecuaciones lineales y para el calculo de areas en R2. Losdeterminantes son la generalizacion de este numero a dimensiones arbitrarias.

Definicion de los determinantes

SeaN un conjunto finito. Recordemos que SN es el conjunto de todas las las permutacio­nes deN. Si σ ∈ SN e i ∈ N entonces, denotaremos por σi la imagen de i por la permutacionσ, o sea σi es una forma corta de escribir σ (i). Recordemos tambien que el signo de unapermutacion sgnσ es 1 si σ es par y es −1 si σ es impar.

El determinante de una matriz αNN es por definiciondetαNN =

Xσ∈ SN

sgnσYi∈N

αiσiel elemento del campo definido por la formula en el re­cuadro de la derecha. A esta formula se la conoce comoformula de Leibniz.

Recalquemos que los determinantes estan definidos solo cuando los conjuntosde ındices de renglones y columnas coinciden y es un conjunto finito. Por estemotivo en este capıtulo todos los espacios seran finito dimensionales y todos

los conjuntos de ındices seran finitos.

Page 120: Algebra Lineal

110 Capıtulo 4. Determinantes

Determinantes de matrices pequenas

Interpretemos esta definicion para conjuntosN con pocos elementos. Si |N| = 1 entoncesla matriz αNN consta de una sola entrada y su determinante es precisamente esta entrada.

Si, digamos N = 1, 2 entonces tenemos 2 permutaciones de N que sonµα11 α12α21 α22

¶+– I y (1, 2). A la primera le corresponde el sumando α11α12 y a la segunda

el sumando −α12α21. Graficamente, cuando N = 1, 2 un determinantees la suma de los dos productos que se muestran en el recuadro a la izquierda.

Pongamos ahora N = 1, 2, 3. Hay 6 permutaciones de N y estas son I, (1, 2, 3),

⎛⎝α11 α12 α13α21 α22 α23α31 α32 α33

⎞⎠(1, 3, 2), (2, 3), (1, 2) y (1, 3). Las tres primeras son de signo positivo y se corresponden conlos tres sumandos α11α22α33, α12α23α31 y α13α21α32. Graficamente,estos tres sumandos se pueden representar por la diagonal principalde la matriz y los dos “triangulos” con lados paralelos a esta diagonalcomo se muestra en el recuadro de la derecha.

Las otras tres permutaciones tienen signo negativo y se corresponden con los sumandos⎛⎝α11 α12 α13α21 α22 α23α31 α32 α33

⎞⎠ −α11α23α32, −α12α21α33 y −α13α22α31. Graficamente, estos tressumandos se pueden representar por la diagonal alterna de la matrizy los dos “triangulos” con lados paralelos a esta diagonal como semuestra en el recuadro de la izquierda.

El numero de sumandos en la definicion del determinante es SN = |N| !. Este numerocrece rapidamente con |N| como se ve en la siguiente tabla

n 1 2 3 4 5 6 7 8 9 10

n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800

Por esto, calcular determinantes con el uso directo de su definicion es muy ineficiente paramatrices de mas de tres renglones y columnas.

El determinante de la identidad

Ya vimos que el conjunto de matrices αNN es un algebra respecto al producto y suma

δij =

¯1 si i = j0 si i 6= jµ

1 0

0 1

¶de matrices y multiplicacion por elementos del campo. El elemento neutro para el productolo llamamos matriz identidad, denotamos INN y es la matriz cu­yas entradas son iguales al delta de Kronecker δij definido en elrecuadro a la derecha. Cuando el conjunto de ındices esta ordena­

do, la matriz identidad se puede representar graficamente como una que tieneunos en la diagonal y ceros en todas las demas entradas como se muestra en elrecuadro a la izquierda para una matriz de dos renglones y columnas.

El determinante de la matriz identidad es 1. det INN = 1

Prueba. Si la permutacion σ ∈ SN no es la identidad entonces hay un i ∈ N tal que i 6= σiy por lo tanto

Qi∈N δiσi = 0. Luego,

Page 121: Algebra Lineal

111Seccion 4.2 Propiedades basicas de los determinantes

det INN =Xσ∈SN

sgnσYi∈N

δiσi = sgn (IN)Yi∈N

δii = 1.

Matrices con filas nulas

Si una matriz tiene una columna o un ren­glon nulo entonces, su determinante es cero.

Prueba. Cada sumando de los determinantesQ

i∈N αiσi contiene como factor una entradade cada renglon. Si un renglon es nulo entonces, todos estos sumandos tienen un factor ceroy por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las columnas.

El determinante de la transpuesta

Recordemos del capıtulo anterior que dada una matriz ⎛⎜⎜⎝α11 α12 α13 α14α21 α22 α23 α24α31 α32 α33 α34α41 α42 α43 α44

⎞⎟⎟⎠ T

αMN su transpuesta se define como la matriz βNM =

αTMN tal que βij = αji. Graficamente la operacion de

transponer una matriz es hacer una reexion con respectoa la diagonal de la matriz. Observese que el conjunto deındices de los renglones de la matriz αT

NM es M y no Ncomo se podrıa pensar de los subındices. La notacion esası porque pensamos la transpuesta como la aplicacion de la operacion de transposicion.

El determinante no se altera al transponer una matriz. detA = detAT

Prueba. Tenemos que demostrar que detαNN = detαTNN . Efectivamente, por la definicion

detαTNN =Xσ∈ SN

sgnσYi∈N

ασi i =

∙cambio de variable

ω = σ−1

¸=Xω∈ SN

sgnωYi∈N

αω−1 (i)i =

=

∙cambio de variablej = ω−1 (i)

¸=Xω∈ SN

sgnωYj∈N

αjωj= detαNN.

Matrices con filas iguales

Si una matriz tiene dos columnas o dos renglo­nes iguales entonces su determinante es cero.

Prueba. Supongamos que para αNN se tiene que αjM = αkM o sea, las columnas j y k soniguales. Todo sumando del determinante depende exactamente de una entrada en la columna

Page 122: Algebra Lineal

112 Capıtulo 4. Determinantes

j y de otra en la columna j. Luego, podemos escribir

detαNN =Xσ∈ SN

αjσjαkσk sgnσY

i∈N\j,k

αiσi .

Denotemos ρ la transposicion (j, k). La funcion Φ : SN 3 σ 7→ σ ρ ∈ SN es una biyecciony el sumando correspondiente a σ ρ es igual a

αjσkαkσj sgn (σ ρ)Y

i∈N\j,k

αiσi

pero como αjM = αkM entonces, αjσkαkσj sgn (σ ρ) = −αjσjαkσk sgnσ. Esto signifi­ca que Φ es una biyeccion que transforma a un sumando en su negativo y por lo tanto eldeterminante es cero. La prueba para los renglones se obtiene transponiendo la matriz.

Permutaciones de columnas y renglones

Dada una matriz αMN y una permutacion ω ∈ SN definimos la operacion de permu­

⎛⎜⎜⎝α11 α12 α13 α14α21 α22 α23 α24α31 α32 α33 α34α41 α42 α43 α44

⎞⎟⎟⎠

tar las columnas de αMN mediante la permutacion ω como la que resulta en la matrizαMω(N) cuyas columnas son αMω−1 (i) (¡observese el uso de la permutacion inversa ω−1!).

Graficamente esta operacion resulta en cambiar el orden de lascolumnas. Ası por ejemplo, el aplicar el ciclo (1, 2, 4) resulta enel intercambio de columnas representado en el recuadro a la iz­quierda. Analogamente se define la operacion de permutar losrenglones, para una permutacion ρ ∈ SM la matriz αρ(M)N esaquella cuyos renglones son αρ−1 (j)N .

Al permutar las columnas o los renglones deuna matriz con la permutacion ω el determi­nante se altera por un factor igual a sgnω.

detαNω(N) = sgnω detαNN

Prueba. Sea ω ∈ SN una permutacion. Hay que demostrar detαNω(N) = sgnω detαNN.Efectivamente, por la definicion tenemos

detαNω(N) =Xσ∈ SN

sgnσYi∈N

αiω−1 (σi ) =

∙cambio de variable

ρ = ω−1 σ

¸=

=Xρ∈SN

sgn (ω ρ)Yi∈N

αiρi = sgnωXρ∈SN

sgnρYi∈N

αiρi = sgnω detαNN

Con esto demostramos la proposicion para las columnas. La demostracion para los renglonesse obtiene transponiendo la matriz.

El determinante del producto

La ultima propiedad basica de los determinantes es probablemente la mas importantepara el algebra lineal. Como la demostracion de esta propiedad es complicada, le recomiendoal lector omitirla en una primera lectura. La complejidad de esta demostracion es el precioque tenemos que pagar por dar una definicion directa del determinante.

Page 123: Algebra Lineal

113Seccion 4.2 Propiedades basicas de los determinantes

El determinante del producto de dos matrices es igualal producto de los determinantes de las dos matrices.

detAB = detA detB

Prueba. Sean A = αNN y B = βNN . Para el objeto de esta demostracion denotemos porFN el conjunto de todas las funciones deN enN. Claramente SN ⊂ FN. Denotemos ademasTN al conjunto FN \ SN que es el de todas las funciones no biyectivas deN enN.

Por la definicion de determinante y de producto de matrices tenemos

detAB =Xσ∈SN

sgnσYi∈N

Xj∈N

αijβjσi

y usando la formulaQ

i∈NP

j∈N γij =P

ω∈FNQ

i∈N γiωi(Sec. 1.6, pag. 21) obtenemos

detAB =Xσ∈SN

sgnσXω∈TN

Yi∈N

αiωiβωiσi

+Xσ∈ SN

sgnσXω∈ SN

Yi∈N

αiωiβωiσi

Denotando por∇ el primer sumando nuestro determinante se convierte en

= ∇+Xσ∈ SN

sgnσXω∈ SN

Yi∈N

αiωiβωiσi

=

∙cambio de variable

σ = ρ ω

¸=

= ∇+Xρ∈SN

Xω∈ SN

sgn (ρ ω)Yi∈N

αiωi

Yj∈N

βωjρ(ωj) =

∙cambio de vark = ωj

¸=

= ∇+ÃX

ω∈ SN

sgnωYi∈N

αiωi

!ÃXρ∈ SN

sgnρYk∈N

βkρk

!= ∇+ detA detB

O sea, para completar la demostracion tenemos que probar que∇ = 0. Para esto recordemosque AN es el subgrupo de las permutaciones pares e A−

N es la clase lateral de todas laspermutaciones impares. Si observamos detenidamente la definicion de∇

∇ =Xω∈TN

Xσ∈ SN

sgnσYi∈N

αiωiβωiσi

vemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyeccionf : AN → A−

N tal que si θ = f (σ) entonces,Yi∈N

αiωiβωiσi

=Yi∈N

αiωiβωiθi

Esto nos garantizara que cada sumando positivo se cancele con otro negativo.Sea ω ∈ TN arbitraria pero fija. Como ω no es una biyeccion existen j, k ∈ N tales que

ω (j) = ω (k) . Sea t ∈ A−N la transposicion que intercambia j y k. Sea f : AN 3 σ 7→

σ t ∈ A−N . La funcion f es biyectiva ya que su inversa es θ 7→ θ t. Ademas, tenemosY

i∈Nαiωi

βωi (σt)i = αjωjβωjσk

αkωkβωkσj

Yi∈N\j,k

αiωiβωiσi

=Yi∈N

αiωiβωiσi

donde la ultima igualdad es valida porque ωj = ωk.

Page 124: Algebra Lineal

114 Capıtulo 4. Determinantes

Matrices de permutaciones

Ahora queremos ver que 4.13 es un caso particular de 4.14. Esta es una buena disculpapara introducir las matrices de permutaciones. Sea INω(N) la matriz identidad a la que se lehan permutado las columnas con la permutacionω ∈ SN . A INω(N) se le llama matriz de lapermutacion ω. Lo interesante de las matrices de permutaciones es que al multiplicar porellas se permutan renglones o columnas.

El resultado del producto αMNINω(N) (de IMω(M)αMN) es lamatriz αMN a la que se le han permutado las columnas (losrenglones) usando la permutacion ω (la permutacion ω−1).

Prueba. Sea γMN = αMNINω(N). Tenemos γij =P

k∈N αikδkω−1 (j). Cada sumando escero a no ser que ω−1 (j) = k. Luego γij = αiω−1 (j) lo que prueba la proposicion para lascolumnas. La demostracion para los renglones es igual.

Observemos que det INω(N) = sgnω. Efectivamente, en la definicion de determinantecada producto

Qi∈N δiω−1 (σi ) es cero para cada ω 6= σ. Para ω = σ tenemos

Qi∈N δii = 1

que esta multiplicado por sgnω. De aquı, 4.14 y 4.15 dan una nueva prueba de 4.13.

Ejercicio 83 Haga la mutiplicacion de matrices del µ11 12 13

21 22 23

¶⎛⎝ 0 0 1

1 0 0

0 1 0

⎞⎠recuadro a la derecha. ¿La matriz de que permutacion esla de mas a la derecha? ¿Concuerdan o no sus calculoscon el resultado 4.15?

DenotemosM (ω) = INω(N). No es difıcil probar queM (σ ω) =M (σ)M (ω) y que cualquiermatriz de permutaciones tiene inversa (igual a su transpuesta). Luego M : SN → GL

¡KN

¢es un

morfismo de grupos que es inyectivo. Esto significa que las matrices de permutaciones son unsubgrupo de GL

¡KN

¢que es isomorfo a SN . Esto es valido para cualquier campo K.

4.3 Expansion de Laplace

En esta seccion encontraremos una descomposicion de los determinantes como una com­binacion lineal de determinantes de matrices mas pequenas. Despues veremos dos importan­tes consecuencias de esta expansion: que los determinantes son funcionales multilineales yque una matriz tiene inversa si y solo si esta tiene determinante diferente de cero.

Cambios de ındices

Sea αMN y φ : N → L una biyeccion. Podemos construir una matriz βML = αMφ(N)

por la formula βij = αiφ−1 (j) (¡observese el uso de la inversa φ−1!). A esta operacion lallamaremos cambio de ındices de las columnas de la matriz αMN mediante la biyeccion

Page 125: Algebra Lineal

115Seccion 4.3 Expansion de Laplace

φ. De la misma manera se definen los cambios de ındices de los renglones. Observese quelas permutaciones de las columnas y los renglones son un caso particular de los cambios deındices ya que una permutacion no es mas que una biyeccion de un conjunto en si mismo.

Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinci­den. A este numero comun se le llama orden de la matriz. Necesitaremos los cambios deındices para definir los determinantes de las matrices cuadradas. Ası, si φ : N→M es unabiyeccion entonces, podrıamos definir detαMN = detαMφ(N). El unico “pero” es que, enprincipio, esta definicion no solo depende de la matriz αNM sino tambien de la biyeccion φ.El cuanto depende esta definicion de φ lo responde la siguiente proposicion.

Si φ y ϕ son dos biyecciones de N enM enton­ces, detαMφ(N) = sgn

¡φ ϕ−1

¢detαMϕ(N).

Prueba. Observese que θ = φ ϕ−1es una permutacion deM y que las matrices αMφ(N) yαMϕ(N) solo se diferencian en la permutacion de las columnas θ. Aplıquese 4.13.

No podemos poner la conclusion de este resultado como sgnφ detαMφ(N) =sgnϕ detαMϕ(N) ya que como φ y ϕ son biyecciones de N en M ninguna delas dos tiene signo.

Como el signo de cualquier permutacion es o 1 o −1 esto quiere decir que el determi­nante detαNM esta definido “salvo signo” o sea, que hay un elemento a ∈ K tal que eldeterminante es a o es −a. En un campo de caracterıstica dos esto es irrelevante ya que eneste caso 1 = −1. Sin embargo en los casos mas importantes (R y C) de que el campo sea decaracterıstica diferente de dos tenemos una ambiguedad al definir el determinante detαNM .

Esta ambiguedad se resuelve en diferentes casos de varias maneras. En muchos casos nonos interesa el valor concreto detαMN sino solamente saber si es cierto o no que detαMN =0. Si este es el caso entonces, en realidad no nos importa que biyeccion se escogio paracalcular el determinante. Por ejemplo, una matriz cuadrada αMN se le llama singular sidetαMN = 0, en el caso contrario se le llama no singular. Es claro, que el ser singular o nosingular NO depende de la biyeccion escogida para definir detαMN . Otro ejemplo, es que siuna matriz tiene una columna o renglon nulo entonces su determinante es cero.

En otros casos lo importante no es el valor de algun determinante sino una igualdad entreestos. Al cambiar los ındices en ambos lados de la igualdad los determinantes cambian en elmismo signo y la igualdad es cierta independientemente de los cambios de ındices escogidos.Por ejemplo, las igualdades detαMN = detαTMN y det (αLMβMN) = detαLM detβMN sonvalidas independientemente de los cambios de ındices usados para definir los determinantes.

Ejercicio 84 Pruebe que det¡αω(L)MβMθ(N)

¢= detαω(L)M detβMθ(N) ∀ω,θ. [181]

En otros casos hay una biyeccion natural que nos dice cual debe ser el valor de detαMN.

Page 126: Algebra Lineal

116 Capıtulo 4. Determinantes

Esto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. En este casopodemos siempre escoger la unica biyeccion que conserva el orden. Por ejemplo si N =

2, 3, 7 yM = 1, 4, 5 entonces la biyeccion adecuada es 2→ 1, 3→ 4, 7→ 5.

¿Y por que no escoger de los dos posibles valores aquel que sea mayor que cero?Primero, a veces se necesita el valor del signo del determinante y segundo ¿quequiere decir que 0 < x ∈ Z5? La desigualdad 0 < x solo tiene sentido si en el

campo esta dada una relacion de orden. Este es el caso de R pero no el de Zp ni el de C.

En muchos de los textos de algebra lineal esta ambiguedad se resuelve postulando que los conjuntosde ındices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario, sinoque tambien hace la exposicion mas compleja y conceptualmente menos clara. Por ejemplo, las

matrices de cambio de bases estan naturalmente indexadas por conjuntos de vectores que no poseen un ordennatural. Mas aun, en algunos textos, las pruebas son incompletas ya que inevitablemente hay que renumerar losrenglones y/o columnas y no se demuestra que los resultados son independientes de la renumeracion.

Complementos algebraicos

Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todoes mas facil. Sea αNN una matriz y sean i, j ∈ N. La matriz αN\i N\j se obtiene de lamatriz αNN eliminando el renglon i y la columna j. ¿Habra una manera natural de definir eldeterminante de αN\i N\j?. Veremos que si.

Sea ϕ : N\j → N\i. una biyeccion cualquiera. Podemos definir ϕ (j) = i y de esta

sgnϕ detαN\i ϕ(N\j)manera ϕ se convierte en una permutacion de N. Definamos el de­terminante detαN\i N\j con la expresion del recuadro a la derecha.Parecerıa que no hemos hecho nada ya que en principio esta definicion depende de ϕ.

La expresion sgnϕ detαN\i ϕ(N\j) no depende de ϕ.

Prueba. Sea ω otra permutacion de N tal que ω (j) = i. Aquı hay que tener cuida­do. Por un lado ω es una biyeccion de N\j en N\i y por otro es una permutacion de N.Otro tanto ocurre con ϕ. Para evitar confuciones, a las permutaciones deN las denotaremosen esta demostracion por ω y ϕ respectivamente. Por 4.16 tenemos que detαN\i ω(N\j) =sgn

¡ω ϕ−1

¢detαN\i ϕ(N\j). Observese queωϕ−1 es una permutacion deN\i. ¿Que pasa

con ωϕ−1? Pues, en todo elemento deN\i coincide conωϕ−1 y ademas ωϕ−1 (i) = i.Luego sgn

¡ω ϕ−1

¢= sgn

¡ω ϕ−1

¢y por las propiedades de la funcion signo se tiene

que sgn¡ω ϕ−1

¢= sgn ω sgn ϕ. Luego detαN\i ω(N\j) = sgn ω sgn ϕ detαN\i ϕ(N\j) y

pasando sgn ω al otro lado de la igualdad terminamos la prueba.

Ahora, podemos dar la siguiente definicion. Si αij es una entrada de la matriz A = αNNentonces el complemento algebraico de αij es α∗ij = sgnω detαN\iω(N\j) donde ω escualquier permutacion de N tal que ω (j) = i. A los complementos algebraicos tambien seles llama cofactores. La matriz α∗NN cuyas entradas son los complemento algebraicos α∗ij esla matriz de los complementos algebraicos de αNN o matriz de cofactores de αNN .

Page 127: Algebra Lineal

117Seccion 4.3 Expansion de Laplace

La expansion de un determinante por sus renglones

Teorema de Expansion de Laplace

SeaαiN un renglon arbitrario de la matriz αNN .El determinante de αNN es igual a la suma delas entradas del renglon por sus cofactores.

detαNN = αiNα∗iN =

Xj∈N

αijα∗ij

Prueba. Si i ∈ N entonces tenemos la particion del grupo simetrico en el [j∈NSi→jN

recuadro a la derecha donde Si→jN = σ ∈ SN | σ (i) = j . Luego, aplicando ladefinicion de determinante y sacando factor comun obtenemos

detαNN =Xj∈N

αijX

σ∈ Si→ jN

sgnσYn∈N\i

αnσn

Seaω una permutacion deN tal queω (j) = i. Hagamos el cambio de variable ρ = ωσen la sumatoria interior. Tenemos ρ (i) = i o sea, ρ ∈ Si→iN = SN\i. Luego,

detαNN =Xj∈N

αij sgnωX

ρ∈ SN\i

sgnρYn∈N\i

αnω−1 (ρn )=Xj∈N

αijα∗ij

donde la ultima igualdad se obtiene por la definicion de α∗ij.

Como es natural hay un teorema exactamente igual a este correspondiente a las columnas.

La expansion de Laplace en forma grafica

El Teorema de expansion de Laplace es la primera herramienta (aparte de la definicion)de que disponemos para calcular determinantes. Este reduce el problema a calcular variosdeterminantes de matrices mas pequenas. Es especialmente util cuando hay renglones (ocolumnas) con muchos ceros.

Sin embargo, todavıa debemos precisar el como calcular los cofactores en forma grafica.Si bien, la definicion de estos es sencilla necesitamos encontrar una biyeccion simple deN\ienN\j que facilite los calculos cuandoN esta ordenado o seaN = 1, ..., n.

Sea por ejemplo i = 2 y j = 7. En este caso la biyec­1 3 4 5 6 7 8 ... n↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓1 2 3 4 5 6 8 ... n

cion natural de N\2 en N\7 es la que se muestra en elrecuadro a la izquierda y la llamaremos ϕ. Tenemos quedefinir ϕ (2) = 7 para completar una permutacion deN.

Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fijos a todos losdemas elementos de N. Luego, ϕ es un ciclo de longitud j− i + 1 (si i > j entonces es unciclo de longitud i− j+ 1).

Como todo ciclo de longitud par tiene signo negativo y todo de ⎛⎜⎜⎝+ − + −

− + − +

+ − + −

− + − +

⎞⎟⎟⎠longitud impar tiene signo positivo obtenemos sgnϕ = (−1)i+j lo

que es muy sencillo ya que es la “regla del tablero de ajedrez”. Ala derecha se muestra el sgnϕ para una matriz con 4 renglones ycolumnas. Observese el parecido con el tablero.

Page 128: Algebra Lineal

118 Capıtulo 4. Determinantes

Con estas permutaciones, los complementos algebraicos tienen una interpretacion grafi­

− det

⎛⎜⎜⎝α11 α12 α13 α14α21 α22 α23 α24α31 α32 α33 α34α41 α42 α43 α44

⎞⎟⎟⎠ca muy sencilla. Si se quiere sacar el complemento algebraico de αij entonces tachese el

renglon i, tachese la columna j, saquese el determinan­te de la matriz que queda y finalmente multiplıquesepor el signo de la regla del tablero de ajedrez. Ası porejemplo, en el recuadro a la izquierda se muestra unamatriz de orden cuatro en la cual estamos calculando elcomplemento algebraico de α23.

Al matematico y fısico Pierre­Simon Laplace (Francia 1749­1827) se leconoce fundamentalmente por sus trabajos en mecanica celeste, ecuacio­nes diferenciales y teorıa de las probabilidades. El publico la demostraciondel Teorema de Expansion de Laplace (4.18) en 1772 en un artıculo dondeestudiaba las orbitas de los planetas interiores del sistema solar. En esteartıculo, Laplace analizo el problema de solucion de sistemas de ecuacio­nes lineales mediante el uso de determinantes.

Ejercicio 85 Tome una matriz y calcule su determinante usando el teorema de descompo­sicion de Laplace. Repita hasta que usted este satisfecho.

Ejercicio 86 Demuestre que el determinante de la matriz αij = xi−1jY

1≤i<j≤n(xj − xi)es igual a la expresion en el recuadro a la derecha. A este determinante

se le conoce como determinante de Vandermonde.[181]

La expansion de Laplace reduce el calculo del determinante de una matriz al calculo de determi­nantes de matrices mas pequenas. Por esto es tambien usada para dar la definicion de determinantemediante induccion. En este caso, la formula de Leibniz es una consecuencia de esta definicion.

Multinearidad de los determinantes

El determinante se puede ver como una funcion del espacio de matrices en el cam­

A =

µ1 0

0 0

¶B =

µ0 0

0 1

¶po. ¿Sera el determinante una TL? ¿Se cumplira que det (A+ B) =detA+detB? La respuesta es NO. Para probar que no, basta ver un ejem­plo. Consideremos las matrices A y B definidas a la izquierda. TenemosdetA + detB = 0 6= 1 = det (A+ B). Sin embargo, los determinantescumplen una propiedad bastante parecida.

Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama funcio­nales lineales del espacio E. En esta terminologıa vemos que la propiedad det (A+ B) 6=detA + detB lo que quiere decir es que el determinante NO es un funcional lineal del es­pacio vectorial de las matrices. Pasemos a considerar una funcion f con valor en K de dosvariables x, y que toman sus valores en E o sea, f : E2 3 (x,y) 7→ f (x,y) ∈ K. ComoE2 es un espacio vectorial sobre K entonces podrıa suceder que f sea un funcional lineal.

Page 129: Algebra Lineal

119Seccion 4.3 Expansion de Laplace

Sin embargo, hay una propiedad un poco mas sutil que podrıa cumplir la funcion f y esque sea lineal en la primera variable. En otras palabras, que ∀y ∈ E se cumple quef (a+ b,y) = f (a,y) + f (b,y) y f (λa,y) = λf (a,y). Analogamente, se define lapropiedad de que f sea lineal en la segunda variable. Si f es lineal en las dos variablesentonces, se dice que f es un funcional bilineal (el “bi” es porque son dos variables).

Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo casonos referiremos a los funcionales multilineales. Mas rigurosamente, sea f : EN → K unafuncion donde N es un conjunto de variables. Sea i ∈ N una variable. Podemos pensara f como una funcion de dos variables f : EN\i ⊕ E → K. Si ∀y ∈ EN\i la funcionE 3 x 7→ f (y,x) ∈ K es un funcional lineal entonces, diremos que f es lineal en lavariable i. Diremos que f es un funcional multilineal si f es lineal en todas sus variables.Por ejemplo, la funcion f : R3 3 (x, y, z) 7→ x+y+z ∈ R es un funcional lineal. La funciong : R3 3 (x, y, z) 7→ xyz ∈ R es un funcional multilineal porque (x+ x0)yz = xyz+ x0yzy tambien para las otras variables. Observese que f no es multilineal y que g no es lineal.

Ahora queremos ver que los determinantes son funcionales multilineales. El espacio dematricesKNN es isomorfo a

¡KN¢N

. Un isomorfismo de estos es el que a cada matriz le hacecorresponder la N­ada de sus renglones. Luego, podemos pensar el determinante como unfuncional cuyas variables son los renglones y que toma valores en el campo.

El determinante es un funcional multilineal de los renglones.

Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en cadavariable. Sea i ∈ N arbitrario pero fijo en toda esta prueba. Sea A = αNN una matriz talque su i­esimo renglon es la suma de dos N­adas xN y yN . Sea B la misma matriz que Aexcepto que su i­esimo renglon es xN . Sea C la misma matriz que A excepto que su i­esimorenglon es yN . Tenemos que probar que detA = detB + detC. (Si el lector no entiendeporque entonces, debe regresar al principio de esta seccion y volver a pensar la definicion defuncional multilineal y el porque el determinante es un funcional de los renglones.) Usandola descomposicion de Laplace por el renglon i obtenemos

detαNN = αiNα∗iN = (xN + yN)α

∗iN = xNα

∗iN + yNα

∗iN = detB+ detC

donde la ultima igualdad se cumple porque los cofactores de las matrices B y C de lasentradas del renglon i son los mismos que los de la matriz αNN .

Sea ahoraA = αNN una matriz tal que su i­esimo renglon es λxN . Sea B la misma matrizque A excepto que su i­esimo renglon es xN . Usando la descomposicion de Laplace por elrenglon i obtenemos detαNN = αiNα

∗iN = λxNα

∗iN = λ detB.

Por transposicion el determinante es tambien un funcional multilineal de las columnas.

Los determinantes son los unicos funcionales multilineales de los renglones que son iguales a 1en la matriz identidad y que cambian por un factor de sgnθ cuando se permutan los renglonescon la permutacion θ. Esto permite dar una definicion alternativa de los determinantes. El primer

problema aquı es demostrar la existencia del determinante.

Page 130: Algebra Lineal

120 Capıtulo 4. Determinantes

La inversa de una matriz

Recordemos que, dada una matriz αMN decimos que βNM = α−1MN es la matriz inversa

de αMN si se cumple que αMNα−1MN = IMM y α−1

MNαMN = INN . Mediante el isomorfismode las matrices con las TLs concluimos que αMN y α−1

MN son la matrices de dos TLs unala inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si αMN tiene inversaentonces, ella es cuadrada.

Sea ϕ : N → M cualquier biyeccion. Es facil ver usando la definicion de cambio deındices que βNM = α−1

MN si y solo si βϕ(N)M = α−1Mϕ(N). O sea, cualquier cambio de ındices

apropiado reduce el calculo de matrices inversas al caso en que el conjunto de columnascoincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ındices parapoder enunciar mas facilmente nuestros resultados.

La siguiente proposicion nos dice que para probar que una matriz es inversa de otra essuficiente comprobar una de las dos igualdades involucradas en la definicion. Aquı, la clavees que las matrices son finitas y cuadradas lo que significa que sus TLs son entre espacios dela misma dimension finita.

Si AB = I entonces, BA = I.

Prueba. Sea f, g : KM → KM las TLs de las matrices A y B respectivamente. Medianteel isomorfismo de las matrices con las TLs concluimos que f g = I. De 3.32 (pagina 96)obtenemos que g f = I y por lo tanto BA = I.

Si una matriz tiene inversa entonces ella esno singular. Ademas, detA−1 = (detA)−1.

Prueba. Por definicion de matriz inversa tenemos 1 = det I = det¡AA−1

¢= detA detA−1

y por lo tanto detA 6= 0 y detA−1 = (detA)−1.

Para probar que el recıproco de esta afirmacion tambien es cierto, lo que haremos esconstruir la matriz inversa en el caso de que el determinante sea diferente de cero.

Si A es una matriz no singular entonces, suinversa es la transpuesta de la matriz de suscofactores dividida por el determinante deA.

A−1 =A∗T

detA

Prueba. Para hacer la demostracion lo que hay que hacer es multiplicar. Sea αMM = A

y B = βMM = (detA)−1 A∗T . Tenemos βMj = (detA)−1 α∗jM y de la definicion de pro­ducto de matrices obtenemos que la entrada ij de la matriz AB es igual a αiMβMj =

(detA)−1 αiMα∗jM . Si i = j entonces αiMα∗jM es la expansion de Laplace del detA porel renglon i de lo que obtenemos que αiMβMj = 1.

Page 131: Algebra Lineal

121Seccion 4.4 La expansion generalizada de Laplace

Solo queda probar que αiMα∗jM = 0 si i 6= j. Si nos fijamos atentamente, vemos que estaes la expansion de Laplace por el renglon j del determinante de la matriz C obtenida de lamatriz A substituyendo el renglon j por el renglon i. Como la matriz C tiene dos renglonesiguales entonces, su determinante es cero y necesariamente αiMα∗jM = 0.

El determinante de un operador lineal

Sea f ∈ EndE un OL. Si escogemos una base de E entonces en esta base el OL f tienepor coordenadas una matriz A. Podrıamos definir det f = detA. Sin embargo, no nos quedaclaro si esta definicion depende o no de como hallamos escogido la base.

Si A y B son las matrices de f ∈ EndEen dos bases entonces, detA = detB.

Prueba. SeanA = αMM y B = βNN las matrices de f en las basesM yN respectivamente.Por la formula del cambio de bases para matrices (3.23) tenemos B = γNMAγ

−1NM donde

γNM es la matriz de cambio de la baseM a la baseN. TenemosdetβNN = det

¡γNMαMMγ

−1NM

¢= detγNM detαMM detγ−1

NM = detαMMya que por 4.21 la igualdad detγNM (detγNM)

−1= 1 es cierta e independiente del cambio

de ındices que se utilize para definir el determinante de γNM .

Luego, el determinante del OL f es por definicion del determinante de su matriz enalguna base y esto no depende de la base escogida.

4.4 La expansion generalizada de Laplace

Ahora generalizaremos dramaticamente el teorema de expansion de Laplace. Sea αNNuna matriz y I, J subconjuntos deN de la misma cardinalidad. Para ahorrarnos mucha escritu­ra, denotemos I0 = N\I y J0 = N\J. Ademas, denotemos por ∇IJ = detαIJ el determinantede la matriz cuyas columnas son las de J y cuyos renglones son los de I. Claro, este de­terminante esta definido solo salvo signo. De los signos no nos preocuparemos ahora sinosolo mas adelante. Por otro lado, denotemos por ∆IJ = detαI0J0 el determinante de la matrizcuyas columnas son las que no estan en J y cuyos renglones son los que no estan en I (no nospreocupemos por los signos). En estas notaciones, un sumando del Teorema de expansion deLaplace es de la forma∇IJ∆IJ donde I y J son subconjuntos de cardinal 1. Nos gustarıa tenerun teorema de expansion donde los subconjuntos sean de un cardinal fijo pero arbitrario.

Para esto, ahora si nos tenemos que preocupar por los signos. Sin embargo, la siguiente

φ (x) =

¯φ1 (x) si x ∈ Jφ2 (x) si x ∈ L

proposicion nos dice que esto realmente no es un proble­ma. Sean φ1 : J → I y φ2 : J

0 → I0 dos biyecciones.Denotemos φ = φ1 ∪ φ2 la permutacion deN definida enel recuadro a la derecha.

Page 132: Algebra Lineal

122 Capıtulo 4. Determinantes

La expresion sgnφ detαIφ1 (J) detαI0φ2 (J0)no depende de las biyecciones φ1 y φ2.

Prueba. Seanϕ1 yϕ2 otras dos biyecciones yϕ = ϕ1∪ϕ2. Por 4.16 tenemos detαIφ1 (J) =sgn

¡φ1 ϕ−1

1

¢detαIϕ1 (J) y detαI0φ2 (J0) = sgn

¡φ2 ϕ−1

2

¢detαI0ϕ2 (J0). Multiplicando estas

dos igualdades vemos que solo nos queda probar quesgn

¡φ1 ϕ−1

1

¢sgn

¡φ2 ϕ−1

2

¢= sgn

¡φ ϕ−1

¢.

Para esto, denotemos θ1 = φ1 ϕ−11 , θ2 = φ2 ϕ−1

2 y θ = φ ϕ−1. De las definiciones esinmediato que θ (y) = θ1 (y) si y ∈ I y θ (y) = θ2 (y) si y ∈ I0. Como θ1 ∈ SI, θ2 ∈ SI0 ,θ ∈ SN y los conjuntos I, I0 son complementarios en N entonces, θ = θ1 θ2 = θ2 θ1 yesto implica la igualdad de los signos que necesitabamos.

Ahora, para I, J subconjuntos de N definamos ∇IJ y ∆IJ con ∇IJ = detαIφ(J)∆IJ = sgnφ detαI0φ(J0)las formulas de la derecha donde φ denota una permutacion (ar­

bitraria pero la misma para las dos definiciones) tal que φ (J) = I(y en consecuencia φ (J0) = I0). Esta definicion no es correcta en el sentido de que ambos∇IJ y ∆IJ dependen de φ. Sin embargo∇IJ∆IJ no depende de φ y esto es lo importante.

Expansion Generalizada de Laplace

Si I un conjunto de p renglones de la matriz αNN en­tonces, detαNN =

P∇IJ∆IJ donde la suma recorre to­

dos los subconjuntos de columnas J de cardinalidad p.

detαNN =X|J|=p

∇IJ∆IJ

Prueba. Si I ⊆ N y |I| = p entonces, tenemos la particion del grupo simetrico [|J|=p

SI→JNa la derecha donde SI→JN = σ ∈ SN | σ (I) = J. Aplicando la definicion dedeterminante obtenemos detαNN =

X|J|=p

Xσ∈ SI→ J

N

sgnσYn∈N

αnσn

Sea φ una permutacion de N tal que φ (J) = I. Hagamos el cambio de variable ρ = φ σ.Entonces, detαNN =

X|J|=p

sgnφX

ρ∈ SI→IN

sgnρYn∈N

αiφ−1 (ρn )

Como ρ (I) = I entonces, ρ (I0) = I0. Luego ρ se puede descomponer en la composicion dedos permutaciones θ ω donde θ ∈ SI y ω ∈ SI0 . Substituyendo ρ por θ ω la suma seconvierte en suma doble y si sacamos factores comunes obtendremos:

detαNN =X|J|=p

sgnφ

ÃXθ∈SI

sgnθYn∈I

αiφ−1 (θn )

!⎛⎝Xω∈SI0

sgnωYn∈I0

αiφ−1 (ωn )

⎞⎠Lo contenido en el primer parentesis es detαIφ(J) = ∇IJ. Lo contenido en el segundoparentesis es detαI0φ(J0) y este determinante multiplicado por sgnφ es ∆IJ.

Como ya es costumbre tediosa, hagamos la observacion de que tambien es valida laExpansion Generalizada de Laplace cuando la hacemos por un conjunto de columnas.

Page 133: Algebra Lineal

123Seccion 4.4 La expansion generalizada de Laplace

Matrices diagonales y triangulares por bloques

Sea αMM una matriz. Supongamos que existe una particionM1 ∪ · · · ∪Mt =M y queαij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que αMM es diagonalpor bloques. Si cadaMi contiene un solo ındice entonces decimos que αMM es diagonal.

Supongamos ahora que, para la particionM1 ∪ · · ·∪Mt =M se cumple que si i ∈Mp,j ∈ Mq y p < q entonces αij = 0. En este caso, decimos que αMM es triangular porbloques. Si cada Mi tiene un solo ındice entonces decimos que αMM es triangular. Esclaro de las definiciones que toda matriz diagonal por bloques es triangular por bloques. Enparticular, toda matriz diagonal es triangular.

Si αMM es una matriz triangular por bloques entonces,

detαMM =Qt

i=1 detαMiMi.

Prueba. Haremos la prueba por induccion en el numero de bloques t. Para t = 1 la propo­sicion es trivial. DenotemosM0 =M\M1. Aplicando la expansion generalizada de Laplaceal conjunto de renglones I =M1 obtenemos detαMM =

P|J|=|I|∇IJ∆IJ.

Si J 6= I entonces, en αIJ hay una columna j /∈ M1 y por lo tanto j ∈ Mq con 1 < q.Luego, por definicion de matriz triangular, ∀i ∈ I = M1 se tiene que αij = 0. O sea, lacolumna j es cero en αIJ e independientemente de la biyeccion que se escoja para calcu­lar el deteminante tenemos ∇IJ = 0. Luego, detαMM = ∇II∆II = detαM1M1

detαM0M0 .La matriz M0 es triangular por bloques con un bloque menos y por hipotesis de inducciondetαM0M0 =

Qt

i=2 detαMiMi.

Ejercicio 87 ¿Cuales de las siguentes matrices son triangulares?

A =

⎛⎝ a 0 0

1 b 0

1 1 c

⎞⎠B =⎛⎝ a 1 1

0 b 1

0 0 c

⎞⎠C =⎛⎝ a 1 1

0 b 0

0 1 c

⎞⎠ [182]

Ejercicio 88 Sean M = 1, . . . , 5 y αMM una matriz triangular por los bloques M1 =

1, 2,M2 = 3 yM3 = 4, 5. ¿Cual es el aspecto de αMM en forma grafica? [182]

La expansion generalizada de Laplace en forma grafica

Ahora, precisaremos los signos de las biyecciones en la expansion generalizada de La­place cuando la matriz esta dada en forma grafica. Como esto es util solo para calcular eldeterminante de matrices concretas y hacerlo ası es por lo general extremadamente inefi­ciente y complicado, recomiendo omitir en una primera lectura lo que resta de esta seccion.

Si N = 1, . . . , n entonces, entre dos cualesquiera subconjuntos I, J ⊆ N del mismocardinal hay una biyeccion natural que conserva el orden. Para esto, introduscamos la nota­cion m1,m2, . . . ,mt< para senalar que ∀p ∈ 2, . . . , t se tiene que ip−1 < ip. Ahora, siI = i1, . . . , it< y J = j1, . . . , jt< entonces, la biyeccion es φ1 : I 3 ip 7→ jp ∈ J. Tam­

Page 134: Algebra Lineal

124 Capıtulo 4. Determinantes

bien, tenemos una biyeccion natural entre los complementos de I y J. Para esto sean K =N\I = k1, . . . , ks< y L = N\J = `1, . . . , `s< y definamosφ2 : K 3 kp 7→ `p ∈ L. Luego,para cualesquiera subconjuntos I, J ⊆ N del mismo cardinal la permutacion φJI = φ1 ∪ φ2cumple lo necesario para calcular el signo de un sumando de la expansion generalizada deLaplace, o sea φJI (I) = J y φJI (N\I) = N\J.

Observese, que la biyeccion φ1 es la natural de renglones a columnas que se obtiene sien una matriz αNN tachamos todos los renglones con ındices en K y todas las columnas conındices en L. De la misma manera φ2 es la biyeccion de renglones a columnas si tachamostodos los renglones con ındices en I y todas las columnas con ındices en J.

Calculemos el signo deφJI. Al estudiar la expansion (normal) de Laplace en forma grafica

(j, j− 1, · · · , i+ 1, i) si j > i(j, j+ 1, · · · , i− 1, i) si j < i

vimos que si I = i y J = j entonces, φJI = φji es

el ciclo que se muestra a la derecha y por lo tantosgnφji = (−1)

i+j (la regla del “tablero de ajedrez”).

sgnφJI = sgnφj1i1 sgnφJ\j1I\i1

.

Prueba. Sea θ =¡φJI¢−1 φJ\j1

I\i1. Tenemos que demostrar que sgnθ = (−1)

i1+j1 . Para

(kp, kp+1, · · · , kq−1, i1) si p < q(kp−1, kp−2, · · · , kq, i1) si p > qI si p = q

esto, recordemos que K = N\I = k1, . . . , ks< y L = N\J = `1, . . . , `s< . Sea p el menorındice tal que i1 < kp y sea q el menor ındice tal que j1 < `q (es admisible que p = s+1 y/o

q = s + 1). Usando la definicion de θ calculamosque esta permutacion es igual a la del recuadro a laizquierda. Luego, θ es siempre un ciclo de longitud|p− q|+ 1 y por lo tanto sgnθ = (−1)p+q.

Como i1 y j1 son los elementos mas pequenos de I y J respectivamente entonces, tenemosque k1, . . . , kp−1, i1< = 1, . . . , p− 1, p y `1, . . . , `q−1, j1< = 1, . . . , q− 1, q y deaquı finalmente, p = i1 y q = j1.

Iterando este resultado obtenemos sgnφJI = sgnφj1i1 sgnφj2i2 · · · sgnφjtit . Observese queαir jr son las entradas en la diagonal de la submatriz αIJ de αNM . Luego, para hallar sgnφJI loque hay que hacer es multiplicar los signos de la regla del tablero de ajedrez de los elementosen la diagonal de αIJ. Tambien se puede hacer, calculando la paridad de

Pi∈I i+

Pj∈J j.

Ejemplo. Calculemos el determinante de una matriz αNN del recuadro⎛⎜⎜⎝4 5 1 1

1 2 3 2

4 5 2 3

1 2 3 4

⎞⎟⎟⎠ a la izquierda haciendo la expansion generalizada de Laplace por el con­junto I del segundo y cuarto renglones. Tenemos que recorrer todos lossubconjuntos J de dos columnas.

Observese, que si la columna 4 no esta en J entonces la matriz αIJ tiene dos renglonesiguales por lo que todos los sumandos correspondientes en la expansion seran cero. Ademas,para J = 3, 4 la matriz αN\I N\J tiene dos renglones iguales por lo que tambien el corres­pondiente sumando es cero.

Page 135: Algebra Lineal

125Seccion 4.5 El rango de una matriz

Solo nos quedan dos sumandos cuando J = 1, 4 y cuan­J = 1, 4 J = 2, 4µ− +

− +

¶ µ+ +

+ +

¶do J = 2, 4. Para ellos podemos extraer del tablero de aje­drez las submatrices del recuadro a la derecha y multiplican­do los signos en las diagonales obtenemos sgnφ1,4I = −1 ysgnφ2,4I = 1. Luego, por la expansion generalizada de Laplace el determinante de nuestramatriz es igual a¯

2 2

2 4

¯ ¯4 1

4 2

¯−

¯1 2

1 4

¯ ¯5 1

5 2

¯= 4× 4− 2× 5 = 6

donde usamos las barras verticales para ahorrar espacio al denotar los determinantes.

4.5 El rango de una matriz

En esta seccion definiremos las bases de una matriz como las submatrices mas grandescon determinante diferente de cero. Probaremos que las bases de una matriz definen y estandefinidas por las bases de los espacios de columnas y renglones. Esto es el fundamento delos diversos metodos de solucion de los sistemas de ecuaciones lineales.

Matrices no singulares

Agrupemos en un solo resultado lo que hemos probado para las matrices no singulares.

Caracterizacion de Matrices No Singulares

Para cualquier matriz cuadrada A lassiguientes afirmaciones son equivalentes:1. A tiene inversa, 3. los renglones de A son LI,2. A es no singular, 4. las columnas de A son LI.

Prueba. La implicacion 1⇒2 es el resultado 4.21. La implicacion 2⇒1 es el resultado 4.22.La equivalencia 1⇔4 es el resultado 3.21 (pagina 89). De aquı, 2⇔4 y como los determi­nantes no cambian por transposicion obtenemos 2⇔3.

Espacios de columnas y renglones

Al subespacio deKN generado por los renglones de la matriz αMN se le llama espacio derenglones de la matriz. Aquı tenemos un pequeno problema: es posible que halla renglonesiguales y los conjuntos no distinguen elementos iguales. Por esto, diremos que un conjuntode renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones dela matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio derenglones lo llamaremos base de los renglones de αMN . Analogamente se define el espaciode columnas de una matriz, los conjuntos de columnas LI y las bases de las columnas.

Reformulemos el resultado 3.30 (pagina 95) en el lenguaje de matrices.

Page 136: Algebra Lineal

126 Capıtulo 4. Determinantes

Las dimensiones del espacio de columnas y delespacio de renglones de una matriz coinciden.

Prueba. Sea αMN una matriz. Observemos que la TL de esta matriz definida por f : KN 3βN 7→ αMNβN ∈ KM tiene como imagen al espacio de columnas de la matriz αMN ya quef evaluada en los vectores de la base canonica de KN resulta en las columnas de αMN . Porlo mismo, la TL transpuesta fT tiene como imagen al espacio de renglones de αMN . Por 3.30las dimensiones de estos espacios coinciden.

A la dimension de los espacios de renglones y columnas se le llama rango de la matriz.

Lema de aumento de matrices no singulares

El siguiente lema es parte importante de las demostraciones de los que siguen. Su de­mostracion es clasica e ingeniosa. Este lema es en cierta manera analogo al lema de aumentode conjuntos LI que vimos en el Capıtulo 2.

Lema de Aumento de Submatrices No Singulares

Sea αIJ una submatriz cuadrada no singular de αMN . Seam ∈M\Ital que el conjunto de renglones indexado por I ∪ m es LI.Entonces, existe n ∈ N tal que la matriz αI∪m J∪n es no singular.

Prueba. Denotemos Bn = αI∪m J∪n. Al absurdo, supongamos que ∀n ∈ N\J se cumple

Bn =

µαIJ αInαmJ αmn

¶que detBn = 0.. Si n ∈ J entonces, denotemos por Bn la matriz αI∪m J a la que artifi­cialmente le agregamos otra columna n. En este caso Bn tiene dos columnas iguales y porlo tanto tambien detBn = 0. Para cualquier n, podemos pensar la matriz Bn graficamentecomo se muestra en el recuadro. Sean Bin los cofactores de lasentradas de la ultima columna en la matriz Bn. Observemos queen la definicion de los Bin no estan involucradas las entradas dela ultima columna. Luego, Bin no depende de n y podemos denotar Bin = βi ∈ K. De laexpansion de Laplace por la ultima columna en la matriz Bn obtenemos:

0 = detBn =Xi∈M

αinBin =Xi∈M

αinβi.

Como esto es valido ∀n ∈ N concluimos que βMαMN = 0N . Como βm = detαIJ 6= 0 estosignifica que los renglones de αMN estan en una combinacion lineal nula con coeficientes notodos nulos. Esto contradice la hipotesis de que sus renglones son LI.

Bases de una matriz

Sea αMN una matriz. Entre las submatrices cuadradas no singulares de αMN tenemos larelacion de contencion

(αI0J0 ⊆ αIJ)⇔ (I0 ⊆ I y J0 ⊆ J)Una base de αMN es una submatriz no singular maximal por contencion.

Page 137: Algebra Lineal

127Seccion 4.5 El rango de una matriz

Caracterizacion de las Bases de una Matriz

Una submatriz αIJ es una base de una matriz si y solo si el con­junto de renglones indexado por I es una base de los renglones y elconjunto de columnas indexado por J es una base de las columnas.

Prueba. Sea αIJ una submatriz de αMN . Es conveniente deno­αMN =

µαIJ αIYαXJ αXY

¶tar X =M \ I y Y = N \ J y pensar que αMN es de la forma enel recuadro a la derecha. Supongamos que αIJ es cuadrada y quees una base de αMN . Entonces, por la Caracterizacion de Matrices No Singulares (4.28) losrenglones y las columnas de αIJ son LI y con mas razon los renglones de αIN y las columnasde αMJ son LI .

Si estos renglones de αIN no son una base de los renglones de αMN entonces, existe otrorenglon indexado porm ∈ X tal que el conjunto de renglones indexado por I∪m es LI y porel Lema de Aumento de Submatrices No Singulares (4.30) existe n ∈ Y tal que αI∪m J∪n esno singular y esto contradice la suposicion de que αIJ es una base. Luego, los renglones deαIN son una base de los renglones y por 4.29 las columnas de αMJ son una base del espaciode columnas.

Recıprocamente, supongamos que los renglones de αIN y las columnas αMJ son basesde los renglones y las columnas de αMN respectivamente. Por 4.29, la submatriz αIJ escuadrada. Sabemos que los renglones de αIN son LI. Las columnas de αMJ es un generadordel espacio de columnas de αMN y con mas razon las columnas de αIJ son un generador delespacio de columnas de αIN . Aplicando 4.29 a la matriz αIN obtenemos que las columnasde αIJ son un generador con la misma cantidad de vectores que la dimension del espacio ypor lo tanto son LI. Por la Caracterizacion de Matrices No Singulares (4.28) la matriz αIJ esno singular.

Si hubiera una submatriz αI∪m J∪n no singular entonces por la Caracterizacion de Matri­ces No Singulares (4.28) sus renglones serıan LI y con mas razon los renglones de αI∪m N

serıan LI. Esto contradice que los renglones de αIN es una base de los renglones de αMN .Luego, αIJ es una base de la matriz αMN .

Una consecuencia importante de la Caracterizacion de las Bases de una Matriz (4.31) esque todas las bases de una matriz tienen orden igual al rango de la matriz.

Ejercicio 89 Sean E = F⊕G espacios vectoriales y xi = (yi, zi) vectores donde xi ∈ E,yi ∈ F y zi ∈ G. Pruebe que si los yi son LI entonces los xi son LI. Pruebe que si losxi son generadores entonces los yi son generadores. Esto es lo que se usa en la prueba dela Caracterizacion de las Bases de una Matriz (4.31) cada vez que se usa la frase “con masrazon”.

Page 138: Algebra Lineal

128 Capıtulo 4. Determinantes

4.6 Sistemas de ecuaciones lineales

Sea A = αNM una matriz y xM = xM1 una columna. El producto Xj∈M

αijxj = bide estas matrices es nuevamente una columna αNMxM1 = bN1 = bN. Sidesarrollamos este producto por la definicion de producto de matrices en­tonces obtenemos para cada i ∈ N la igualdad en el recuadro a la derecha.

Como ya es usual podemos interpretar la columna xM como un vector x en el espaciovectorialKM y a bN como un vector b en el espacioKN y en estas notaciones la igualdad seescribe en una forma mas simpleAx = b. Supongamos queA es una matriz fija. Si hacemosvariar x enKN entonces esta igualdad la podemos pensar como una TL deKM enKN. Comoes logico, si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax.Mas difıcil es el problema inverso, si se conoce b entonces, ¿como hallar x tal queAx = b?

A una igualdad de la forma Ax = b donde A y b son conocidos y x es incognitase le llama sistema de ecuaciones lineales. ¡Oh, gran confusion! ¿porque sistema? ¿por­que ecuaciones en plural si nada mas tenemos UNA?. La respuesta a estas preguntas no esgran misterio, es un problema historico. Cuando sobre la faz de la Tierra aun no vivıan lasmatrices y los vectores, los humanos necesitaban encontrar unos numeritos xj tales que paracualquier i ∈ N se cumpla que

Pj∈M αijxj = bi. Observese que se necesitan encontrar |M|

numeritos. En el caso de que |N| = 1 se decıa que tenemos que resolver una ecuacion lineal.Para el caso |N| > 1 los numeritos xj deberıan de cumplir todas y cada una de las ecuacio­nes (para cada i ∈ N) y entonces, se decıa que se necesitaba resolver un sistema (conjunto,coleccion, cualquier cosa que signifique que hay muchas) de ecuaciones lineales. De hecho,para acercarnos mas a la verdad, debemos substituir en todo lo dicho los “se decıa” por “sedice” en presente. Luego, hay dos formas de ver los sistemas de ecuaciones lineales:

¨ Tenemos que encontrar |M| elementos del campo xj tales quepara cualquier i, se cumple la igualdad

Pj∈M αijxj = bi,

¨ Tenemos que encontrar un vector x ∈ KM tal que Ax = b.

Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo queencontrar todas sus coordenadas xj. Sin embargo, la elegancia de la segunda forma haceque nuestra manera de pensarlo sea mucho mas simple y sistematica (a costo de aprendersobre matrices y vectores). Por ejemplo, si ocurre que la matriz A es no singular entoncesmultiplicando porA−1 a la izquierda obtenemosAx = b⇒ A−1Ax = A−1b⇒ x = A−1b

y como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la soluciondel sistema de ecuaciones lineales esta a la mano. Esto no significa que ya sepamos resolvertodos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular senecesita primero que sea cuadrada y que ademas el determinante sea diferente de cero.

Regla de Cramer

Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz delsistema y al vector b lo llamaremos vector de coeficientes libres. Denotaremos porA (j) la

Page 139: Algebra Lineal

129Seccion 4.6 Sistemas de ecuaciones lineales

matriz obtenida de la matriz del sistema substituyendo la j­esima columna por el vector decoeficientes libres. Un ejemplo de esta substitucion es el siguiente

A =

µ1 2 3

4 5 6

¶, b =

µ7

8

¶, A (2) =

µ1 7 3

4 8 6

¶.

Regla de Cramer

Si la matriz A es no singular entonces, la j­esimacoordenada xj del vector x es igual al determi­nante de A (j) dividido entre el determinante de A.

xj =detA (j)detA

Prueba. SeaαNM es una matriz no singular. Ya observamos que en este caso necesariamentex = α−1

NMb. Denotemos por βij las entradas de α−1NM entonces, tenemos xj = βjNbN. Por

4.22 tenemos que βjN = α∗Nj/ detαNM y de aquı xj detαNM = bNα∗Nj. Para terminar la

demostracion basta observar que la expresion a la derecha de la igualdad es la expansion deLaplace de A (j) por la columna j.

Gabriel Cramer (Suiza 1704­1752) publico su famosa regla en el artıcu­lo “Introduccion al analisis de las curvas algebraicas” (1750). Esta sur­gio del deseo de Cramer de encontrar la ecuacion de una curva plana quepasa por un conjunto de puntos dado. El escribe su regla en un apendicedel artıculo y no da prueba alguna para ella. Este es uno de los orıgeneshistoricos del concepto de determinante. Es curioso (y educativo) ver conque palabras Cramer formula su regla:

“Uno encuentra el valor de cada indeterminada formando nfracciones el comun denominador de las cuales tiene tantos terminoscomo las permutaciones de n cosas.”

Cramer continua explicando como se calculan estos terminos como productos de ciertoscoeficientes de las ecuaciones y como se determina el signo. El tambien senala como losnumeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de losdenominadores por los coeficientes libres del sistema.

Para nosotros, con mas de dos siglos de ventaja, es mucho mas facil. Las “n fracciones”son detA (j) / detA y el “comun denominador” es detA (que tiene tantos sumandos comolas permutaciones de n cosas).

La Regla de Cramer (4.32) tiene fundamentalmente un interes historico por ser uno delos orıgenes del concepto de determinante. Es necesario recalcar que esta regla solo funcionapara el caso de que la matriz es no singular. O sea, cuando en el sistema se tienen tantasincognitas como ecuaciones y el determinante de la matriz del sistema no es nulo.

Page 140: Algebra Lineal

130 Capıtulo 4. Determinantes

Existencia de soluciones

Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas:

¨ ¿Existe una solucion?¨ ¿Como encontrar una solucion en el caso de que exista?¨ ¿Como encontrar TODAS las soluciones?

La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz nosingular: la solucion existe, es unica y se halla por la Regla de Cramer. Ahora responderemosen general la primera pregunta.

Primero, una definicion. Si Ax = b es un sistema de ecuaciones lineales entonces lamatriz ampliada del sistema denotada por (A|b) es la matriz que se obtiene de la matrizdel sistema anadiendo el vector columna de coeficientes libres b.

Teorema de Existencia de Soluciones

El sistema Ax = b tiene una solucion si y solo si el rango de lamatriz del sistema coincide con el rango de la matriz ampliada.

Prueba. Por definicion de rango de una matriz siempre se tiene que rankA ≤ rank (A|b) .Que coincidan es equivalente por la Caracterizacion de las Bases de una Matriz (4.31) a queb sea combinacion lineal de las columnas de A. El que b sea combinacion lineal de lascolumnas de A es equivalente a la existencia de escalares xj tales que αiNxN = bi o sea aque Ax = b tenga al menos una solucion.

Eliminacion de ecuaciones dependientes

Lema de Eliminacion de Ecuaciones Dependientes

Sea I el conjunto de ındices de una base de renglones de la ma­triz ampliada (αMN |bM). Entonces, el conjunto de soluciones deαMNxN = bM es exactamente el mismo que el de αINxN = bI.

Prueba. Como αMNxN = bM tiene mas ecuaciones que αINxN = bI entonces cada solu­cion de αMNxN = bM es solucion de αINxN = bI.

Recıprocamente, sea xN tal que αINxN = bI ym ∈M\I. El renglon (αmN |bm) es com­

αmN = λIαINbm = λIbI

binacion lineal de los indexados por I. Luego existen escalares λi tales quese cumplen las igualdades a la derecha. Multiplicando la primera igualdadpor xN y usando la definicion de xN obtenemos αmNxN = λIαINxN =

λIbI = bm y por lo tanto xN satisface todas las ecuaciones del sistema αMNxN .

Otra manera, mas algorıtmica, de ver este lema es que si tenemos un sistema de ecua­ciones αMNxN = bM y un renglon de este sistema es combinacion lineal de los demas

Page 141: Algebra Lineal

131Seccion 4.6 Sistemas de ecuaciones lineales

entonces, debemos eliminar la ecuacion correspondiente a este renglon. El Lema de Eli­minacion de Ecuaciones Dependientes (4.34) nos garantiza que esta operacion no altera elconjunto de soluciones. Repitiendo esta operacion una cierta cantidad de veces, obtenemosuna matriz ampliada con renglones LI.

El nucleo y la imagen de una matriz

Sea αMN una MN­matriz. Ella es la matriz de la TL f : KN 3 xN 7→ αMNxN ∈ KM .Luego, podemos definir la imagen de la matriz αMN como ImαMN = Im f y el nucleo dela matriz αMN como kerαMN = ker f. Pasemos ahora a analizar la imagen. Por definicionde imagen tenemos ImαMN = βM | ∃xN αMNxN = βM. O sea, ImαMN es el conjuntode vectores βM tales que el sistema de ecuaciones lineales αMNxN = βM tiene al menos unasolucion. Tenemos αMNxN =

Pi∈N αMixi que es una combinacion lineal de las columnas.

Luego, ImαMN es el subespacio generado por las columnas de la matriz αMN . Ademas, siγN es una solucion de αMNxN = βM entonces, 3.33 (pagina 97) nos dice que el conjuntode todas sus soluciones es el subespacio afın γN + kerαMN . Resumamos todo lo dicho en4.35 para referencias futuras.

¨ El subespacio kerαMN es el conjunto de soluciones de αMNxN = 0M .¨ El subespacio ImαMN es el generado por las columnas de αMN .¨ Si γN es una solucion de αMNxN = βM entonces, el conjunto de todassus soluciones es el subespacio afın γN + kerαMN .

Bases del subespacio afın de soluciones

Ahora daremos la solucion general de los sistemas de ecuaciones lineales. SeaαMNxN =bM un sistema de ecuaciones. Primero, podemos suponer que la matriz del sistema αMNtiene el mismo rango que la matriz ampliada [αMN |bM ] porque si no entonces, el conjuntode soluciones es vacıo. Segundo, podemos suponer que la matriz ampliada [αMN |bM ] tienerenglones linealmente independientes porque si no, entonces podemos descartar aquellos queson combinacion lineal de otros.

Luego existe un conjunto de columnas J ⊆ M tal que αMJ es una base de la matriz

αMJxJ + αMYxY = bM

ampliada [αMN |bM ]. Denotando por Y al conjunto de columnas que no estan en la base po­demos representar nuestro sistema de ecuaciones lineales comose muestra en el recuadro a la izquierda.

Aquı las incognitas xJ y xY son aquellas que se corresponden con las columnas en J y Yrespectivamente. Por ejemplo, en el sistema de ecuaciones

2x1 + 1x2 + 1x3 + 0x4 = 5

3x1 + 2x2 + 0x3 + 1x4 = 5

podemos tomar J al conjunto de las dos primeras columnas y Y al conjunto de la tercera y

Page 142: Algebra Lineal

132 Capıtulo 4. Determinantes

cuarta columnas. Luego a este sistema lo podemos escribir comoµ2 1

3 2

¶µx1x2

¶+

µ1 0

0 1

¶µx3x4

¶=

µ5

5

¶.

Ahora, como la matriz αMJ tiene inversa, lo que hacemos es simplemente despejar xJ yobtenemos xJ = α−1

MJbM − α−1MJαMYxY . En nuestro ejemplo obtenemosµ

x1x2

¶=

µ5

−5

¶+

µ2 −1−3 2

¶µx3x4

¶=

µ2x3 − x4 + 5

−3x3 + 2x4 − 5

¶Esto describe en forma parametrica el conjunto de todas las soluciones, para cualquier

vector xY hay una solucion¡α−1MJbM − α−1

MJαMYxY, xY¢

del sistema. Otra manera de descri­bir el conjunto solucion es ponerlo en la forma descrita en 4.35. Para encontrar una solucionponemos xY = 0 y en nuestro ejemplo el vector solucion es (5,−5, 0, 0). Para encontrarel nucleo de la matriz del sistema ponemos bM = 0. Para encontrar una base del nucleorecorremos con xY a la base canonica de KY . En nuestro ejemplo

(x3, x4) = (1, 0)⇒ (x1, x2) = (7,−8)

(x3, x4) = (0, 1)⇒ (x1, x2) = (4,−3)

y finalmente obtenemos que el conjunto de soluciones (x1, x2, x3, x4) es el subespacio afın

(5,−5, 0, 0) + ρ (1, 0, 7,−8) + τ (0, 1, 4,−3)

donde ρ y τ son escalares cualesquiera.

4.7 Metodo de eliminacion de Gauss

La idea del metodo de eliminacion de Gauss es realizar ciertas transformaciones de lasmatrices que no cambian lo que se pretende calcular y que convierte a las matrices en otrascon muchas entradas iguales a cero. Este es el metodo mas universal y eficiente (al menosmanualmente) para calcular los determinantes, el rango, el nucleo, las matrices inversas, etc.Aquı, estudiaremos brevemente este metodo.

Transformaciones elementales

Sea αMN una matriz. Sean αiN , αjN dos renglones de αMN y λ ∈ K un escalar. Deno­temos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando el renglonαjN por la N­ada βjN . A la operacion que dados αMN , i, j y λ obtenemos βMN se le llamatransformacion elemental de los renglones. Otra manera util de pensar las transformacio­nes elementales de los renglones es que en la matriz αMN al renglon αjN le sumamos elrenglon αiN multiplicado por λ. De forma analoga, se definen las transformaciones ele­mentales de las columnas. Una transformacion elemental es de renglones o de columnas.

Las transformaciones elementales no cambian los determinantes.

Prueba. Sean αMM , βMM y γMM matrices que se diferencian solo en el renglon indexado

Page 143: Algebra Lineal

133Seccion 4.7 Metodo de eliminacion de Gauss

por j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . Como el determinante esun funcional lineal de los renglones tenemos detβMM = λ detγMM + detαMM y como lamatriz γMM tiene dos renglones iguales entonces, detβMM = detαMM . La prueba terminaal recordar que el determinante no cambia por transposicion de la matriz.

Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sussubmatrices y por lo tanto no son afectados por las transformaciones elementales. Sin em­bargo, las trasformaciones elementales de las columnas cambian los nucleos y el subespacioafın solucion de un sistema de ecuaciones lineales. Para las transformaciones elementales delos renglones la situacion es diferente.

Las transformaciones elementales de los renglones de la matriz ampliada nocambian el subespacio afın solucion de un sistema de ecuaciones lineales.

Prueba. Sea αMNxN = bM un sistema de ecuaciones lineales. Sea βMNxN = cM otrosistema que se diferencia solo en la ecuacion j para la cual se tiene βjN = λαiN + αjN ycj = λbi + bj. Si γN es una solucion del primer sistema entonces, βjNγN = λαiNγN +

αjNγN = λbi + bj = cj por lo que γN es una solucion del segundo sistema. Si γN es unasolucion del segundo sistema entonces, αjNγN = βjNγN − λαiNγN = cj − λbi = bj por loque γN es una solucion del primer sistema.

Ejemplo

El metodo de Gauss se puede precisar en todo detalle para convertirlo en un algoritmoprogramable en una computadora. Pero como tratamos de ensenar a humanos y no a compu­tadoras la mejor manera no es dar todos los detalles sino dejar a la creatividad individual y ala imitacion de ejemplos el como aplicar las transformaciones elementales.

La matriz ampliada siguiente arriba a la izquierda representa un sistema de ecuacioneslineales. Despues de las 4 transformaciones elementales de los renglones que se muestranobtenemos la matriz de abajo a la derecha. La solucion del sistema de esta ultima es obvia.Ã

1 1 0

2 3 4

3 3 1

¯¯ 3

2

1

!r2 :=r2−2r1−→ Ã

1 1 0

0 1 4

3 3 1

¯¯ 3

−41

!r3 :=r3−3r1−→ Ã

1 1 0

0 1 4

0 0 1

¯¯ 3

−4−8

!

r2 :=r2−4r3−→ Ã1 1 0

0 1 0

0 0 1

¯¯ 3

28

−8

!r1 :=r1−r2−→ Ã

1 0 0

0 1 0

0 0 1

¯¯ −25

28

−8

!Aquı las transformaciones elementales realizadas estan marcadas en las echas. Por ejemplo,la primera es r2:= r2 − 2r1 lo que significa que al segundo renglon le sumamos el primeromultiplicado por −2. Observese que despues de dos transformaciones ya vemos que el de­terminante de la matriz del sistema es 1 porque en una matriz triangular el determinante esel producto de las entradas diagonales.

Page 144: Algebra Lineal

134 Capıtulo 4. Determinantes

El caso general

Para el calculo de los determinantes no hay mucho mas que decir. Podemos utilizar trans­formaciones elementales de columnas y renglones para convertir nuestra matriz cuadrada enmatriz triangular. Si en el proceso nos aparece un renglon o columna cero entonces el deter­minante es cero.

Para resolver los sistemas de ecuaciones lineales trabajamos con la matriz ampliada y so­lo podemos realizar transformaciones elementales de los renglones. Podemos ademas multi­plicar un renglon por un escalar porque esto no afecta la ecuacion correspondiente al renglon.Si nos aparece un renglon cero podemos descartarlo como combinacion lineal de los otros.Si nos aparece un renglon que es cero en la matriz del sistema pero su coeficiente libre no escero entonces el sistema no tiene solucion porque el rango de la matriz ampliada es mayorque el rango de la matriz del sistema. Finalmente, si en algun momento nos aparece unaconfiguracion del tipo ⎛⎜⎝ a ∗ · · · ∗ ∗ ∗

0 b · · · ∗ ∗ ∗· · · · · · · · · · · · · · · · · ·0 0 · · · c ∗ ∗

¯¯ ∗∗· · ·∗

⎞⎟⎠donde a, b, . . . , c son diferentes de cero entonces las primeras columnas forman una base dela matriz y tenemos mas incognitas que ecuaciones. En este caso debemos seguir diagonali­zando la parte correspondiente a las primeras columnas hasta obtener⎛⎜⎝ 1 0 · · · 0 ∗ ∗

0 1 · · · 0 ∗ ∗· · · · · · · · · · · · · · · · · ·0 0 · · · 1 ∗ ∗

¯¯ ∗∗· · ·∗

⎞⎟⎠ .Para este sistema procedemos como en la seccion anterior y pasamos restando las incognitasque sobran como parametros hacia la parte derecha del sistema de ecuaciones. Tomemos elmismo ejemplo de la seccion anteriorµ2 1 1 0

3 2 0 1

¯5

5

¶r2 :=3r2−2r1−→ µ

2 1 1 0

0 1 −3 2

¯5

−5

¶r1 :=

r1−r22−→ µ

1 0 2 −1

0 1 −3 2

¯5

−5

¶y por lo tanto la solucion de este sistema es x1 = 5− 2x3+x4 y x2 = −5+3x3−2x4 dondex3 y x4 pueden tomar cualquier valor.

Aquı es cuando el lector se preguntara ¿Para que diagonalizar la primera y segunda co­lumna si ya la tercera y cuarta estan en forma diagonal? Pues tiene toda la razon, simplementeesta escogiendo otra base de la matriz. La solucion del sistema se obtiene directamente dela matriz ampliada original en la forma x3 = 5 − 2x1 − x2 y x4 = 5 − 3x1 − 2x2 donde x1y x2 pueden tomar cualquier valor. Que es mejor es cuestion de gustos u otras necesidades.Por ejemplo, si se necesita substituir x1 y x2 en otras formulas entonces, la mejor soluciones la primera. Si por el contrario se necesita substituir x3 y x4 en otras formulas entonces, lamejor solucion es la segunda.

Page 145: Algebra Lineal

135Seccion 4.7 Metodo de eliminacion de Gauss

Solucion de ecuaciones matriciales, matriz inversa

Si tenemos varios sistemas de ecuaciones lineales αMNxN1 = bM1, . . . ,αMNxN` = bM`todos con la misma matriz del sistema αMN entonces, podemos denotar L = 1, . . . , `

y escribirlos todos en la forma αMNxNL = bML. Esta ecuacion matricial tiene la matrizampliada [αMN |bML] y podemos aplicarle a esta matriz la eliminacion de Gauss para resolvertodos nuestros sistemas al mismo tiempo. Esto lo podremos hacer porque en la eliminacionde Gauss no se reordenan columnas y solo se aplican transformaciones elementales a losrenglones, ası que no nos importa cuantas columnas halla despues de la barra vertical.

En particular, si M = N entonces, la unica solucion posible (si existe) a la ecuacionmatricial αMMxMM = IMM serıa xMM = α−1

MM . Esta es la forma en que con el metodo deeliminacion de Gauss se calculan las matrices inversas. Por ejemplo:Ã

1 1 0

2 3 4

3 3 1

¯¯ 1 0 0

0 1 0

0 0 1

!r2 :=r2−2r1−→r3 :=r3−3r1

Ã1 1 0

0 1 4

0 0 1

¯¯ 1 0 0

−2 1 0

−3 0 1

!r2 :=r2−4r3−→

Ã1 1 0

0 1 0

0 0 1

¯¯ 1 0 0

10 1 −4

−3 0 1

!r1 :=r1−r2−→ Ã

1 0 0

0 1 0

0 0 1

¯¯ −9 −1 4

10 1 −4

−3 0 1

!y por lo tanto Ã

1 1 0

2 3 4

3 3 1

!Ã−9 −1 4

10 1 −4−3 0 1

!=

Ã1 0 0

0 1 0

0 0 1

!.

Ejercicio 90 Tome un sistema de ecuaciones lineales y resuelvalo por el metodo de elimi­nacion de Gauss. Repıta cuantas veces le sea necesario.

No esta de mas recalcar aquı que el metodo de eliminacion de Gauss funciona en espaciosvectoriales sobre cualquier campo sea este Q, R, C, Zp u otro campo cualquiera. Solo hayque realizar las operaciones de suma, producto y division como estan definidas en el campoen particular.

Page 146: Algebra Lineal

136

Page 147: Algebra Lineal

Descomposición deOperadores Lineales

Descomposición deOperadores Lineales

Capítulo quintoCapítulo quinto

ay dos teoremas que son muy conocidos por el lector y que son muy parecidos. Elprimero es que todo numero natural se descompone de forma unica salvo orden de losfactores en producto de numeros primos. El segundo es que todo polinomio se des­

compone de forma unica salvo orden de los factores en producto de polinomios irreducibles.Para los operadores lineales hay un teorema parecido todo operador lineal se descompone ensuma directa de OLs irreducibles, el “tipo” de tal descomposicion es unico. En este capıtulodaremos la demostracion de este teorema y lo que es mas importante, encontraremos cualesson todos los OLs irreducibles de un espacio vectorial de dimension finita.

5.1 Suma directa de operadores lineales

Recordemos que el acronimo OL significa para nosotros un operador lineal, o sea unatransformacion lineal de un espacio en si mismo. Con otras palabras, un endomorfismodel espacio. Usaremos sistematicamente este acronimo. Sin embargo, al conjunto de todoslos OLs de un espacio vectorial E lo denotaremos por End (E). Ya vimos que el conjuntoEnd (E) es un algebra para la suma de funciones, la multiplicacion por escalares y la compo­sicion de OLs. El conjunto End (E) contiene el neutro para la suma que es el operador linealO que a cualquier vector le hace corresponder el vector 0. Tambien contiene al neutro parala composicion de funciones I que es la identidad I (a) = a.

En este capıtulo todos los espacios vectoriales seran de dimension finita. Si f : E→ E yg : F→ F son dos OLs entonces, a la funcion

f⊕ g : E⊕ F 3 (a,b) 7→ (f (a) , g (b)) ∈ E⊕ Fse le llama suma directa de los OLs f y g. Es facil comprobar que la suma directa de dosOLs es un OL.

Ejercicio 91 Pruebe que la suma directa de OLs es siempre un OL. [182]

Page 148: Algebra Lineal

138 Capıtulo 5. Descomposicion de operadores lineales

El lector no debe confundir la suma directa de OLs con la habitual suma de fun­ciones. Si f : E→ E y g : E→ E son dos OLs entonces su suma se define como(f+ g) (a) = f (a) + g (a).

Veamos ahora un ejemplo. Sea f : R2 → R2 la rotacion en el

[a, b, c]

[a, b]

α

[f⊕ g] [a, b, c]

c

2c

f [a, b]

angulo α en contra de las manecillas del reloj o en otras palabras(1, 0) 7→ (cosα, sinα) y (0, 1) 7→ (− sinα, cosα). Sea g : R→ Rla dilatacion de factor 2 o sea z 7→ 2z. El espacioR2⊕R lo podemospensar como R3 en el cual el primer sumando es el plano x, y yel segundo es el eje z. Sabemos como transforma f el plano x, y(rotando) y como transforma g el eje z (dilatando). Vease la figuraa la derecha.

Ahora si (a, b, c) es un vector arbitrario de R3 entonces podemos rotar a (a, b) en elplano xy obteniendo (a cosα− b sinα, b cosα+ a sinα) y dilatar c en el eje z obtenien­do 2c. De esta manera, obtenemos el OL de todo R3 que a (a, b, c) le hace corresponder(a cosα− b sinα, b cosα+ a sinα, 2c) . Este OL es precisamente f⊕ g.

Ejercicio 92 Dado f⊕ g ∈ End (E⊕ F) podemos definir a f0 = f⊕ I y g0 = I⊕ g. Pruebeque f ⊕ g = f0 g0 = g0 f0. Esto significa que podemos pensar la suma directa como lacomposicion de dos OLs que conmutan. [182]

Subespacios invariantes, componentes irreducibles

A partir de ahora y en todo este capıtulo la funcion h : E → E es un OL delespacio vectorial finito dimensional E. La dimension de h es por definicion ladimension de E.

La simplicidad de la operacion de suma directa de OLs nos lleva a querer descomponerh en suma directa de otros OLs. La pregunta es: ¿Dado h sera posible encontrar OLs f yg tales que h = f ⊕ g?. Detallemos un poco mas el problema. Si F y G son subespacioscomplementarios de E entonces, por el isomorfismo canonico entre la suma de subespacioscomplementarios y la suma directa de subespacios tenemos E = F+G = F⊕G. La preguntaes ¿cuando existen OLs f : F→ F y g : G→ G tales que h = f⊕ g?

Supongamos que efectivamente h = f ⊕ g y sea a un vector en F. Por definicion def ⊕ g para calcular h (a) tenemos que expresar a como suma de un vector en F y otroen G. Esta descomposicion es unica y en este caso es a = a + 0 por lo que h (a) =f (a) + g (0) = f (a) + 0 = f (a). De aquı deducimos que h (a) ∈ F y como esto se hizopara un vector arbitrario en F obtenemos que h (F) = h (a) | a ∈ F ⊆ F. De la mismamanera se demuestra que h (G) ⊆ G.

Esto nos lleva a la siguiente definicion. Diremos que F ⊆ E es un subespacio invariantede h (o que F es h­invariante) si se cumple que h (F) ⊆ F.

Page 149: Algebra Lineal

139Seccion 5.1 Suma directa de operadores lineales

Un OL se descompone como suma directa de dos OLs si ysolo si el tiene dos subespacios invariantes complementarios.

Prueba. Ya demostramos la necesidad. Demostremos la suficiencia. Para esto supongamosque h : E → E tiene dos subespacios invariantes complementarios F y G. Tenemos E =F⊕G, h (F) ⊆ F y h (G) ⊆ G. Sean f : F→ F y g : G→ G las restricciones de la funcionh a los subespacios F y G respectivamente. Obviamente f y g son OLs. Sea x un vectorarbitrario en E. Existen unos unicos a ∈ F, b ∈ G tales que x = a + b y por linearidadtenemos h (x) = h (a+ b) = h (a) + h (b) = f (a) + g (b) por lo que h = f⊕ g.

Acabamos de traducir nuestro problema original al de la existencia de subespacios inva­riantes complementarios pero hay un caso degenerado que no nos facilita en nada las cosas.Todo el espacio E es invariante pues obviamente h (E) ⊆ E. Igualmente el subespacio 0formado solo por el origen es invariante ya que h (0) = 0. Ademas, los subespacios 0 y Eson complementarios y en este caso h se descompone como la suma directa de f : 0 7→ 0 yg = h. Tal descomposicion siempre existe pero no nos da nada pues g = h.

Un subespacio se le llama no trivial si el no es todo el espacio y no es el origen. Un OLse le llama reducible si el tiene dos subespacios invariantes complementarios no trivialesy en otro caso se le llama irreducible. A la restriccion de h a un subespacio invarianteno trivial que tiene un complementario invariante se le llama componente de h. En otraspalabras, f es una componente de h si existe g tal que h = f ⊕ g y esta descomposiciones no trivial. Los OLs irreducibles son exactamente aquellos cuya unica descomposicioncomo suma directa de dos es la trivial o sea, aquellos que no tienen componentes. Si unOL es reducible entonces, este se descompone como suma directa de dos componentes. Sialguno de las componentes es reducible entonces podemos descomponerla. Asi, vemos quecualquier OL es suma directa de componentes irreducibles.

Ejemplos en dimension 2

Todo OL de dimension 1 es irreducible pues los unicos subespacios posibles son lostriviales. Veamos el caso de dimension 2. Supongamos que E es de dimension 2. Si h esreducible entonces, E = F ⊕ G y necesariamente F y G son subespacios h­invariantes dedimension 1. Por la proposicion 3.2 las restricciones f y g de h a F y G respectivamente sonhomotecias, o sea, existen escalares α y β tales que f es la multiplicacion por α y g es lamultiplicacion por β.

Si x es una base de F y y es una base de G en­R2

x 7→ 3x y 7→ 2y

y

x

µα 0

0 β

¶tonces la matriz de h en la base x,y es la del re­cuadro a la izquierda, o sea es diagonal. Hemos de­mostrado que cualquier operador lineal reducible de

dimension 2 cumple que existe una base en la cual su matriz es dia­gonal. En la figura de la derecha esta representada el OL de estetipo cuando E = R2 , x,y es la base canonica, α = 3 y β = 2.

Page 150: Algebra Lineal

140 Capıtulo 5. Descomposicion de operadores lineales

Una rotacion de R2 en un angulo α en contra de las manecillas del reloj es obviamenteirreducible para α /∈ 0, 180 ya que en este caso, ninguna recta por el origen se queda ensu lugar. O sea, las rotaciones no tienen subespacios invariantes no triviales.

Otro ejemplo es el que surge si a un cuadrado le aplicamos µλ 1

0 λ

¶R2 y

x

dos fuerzas en sentido contrario a dos de sus lados opues­tos. Mas precisamente, al OL que tiene como matriz en labase canonica de R2 la del recuadro a la derecha la llama­remos λ­deslizamiento. La figura de la izquierda muestra intuitivamentecomo se mueven los puntos de R2 al aplicar un 1­deslizamiento. De estafigura, se ve que la unica recta por el origen que es invariante es el eje x.

Luego un λ­deslizamiento es irreducible (λ 6= 0) ya que el eje x no tiene complementarioinvariante.

Las matrices y los subespacios invariantes

Sea F es un subespacio invariante del OL h : E→ E. Sea G un subespacio complemen­tario a F. Escojamos basesA y B de F yG respectivamente. Sabemos queA∪B es una basede todo el espacio. Sea x un vector en la base A. Podemos hallar las coordenadas de h (x)en la base A ∪ B

h (x) =Xa∈A

αaa+Xb∈B

βbb

y como h (x) ∈ hAi entonces, todas las coordenadas βb son iguales a cero.

Estas coordenadas forman una columna de la matriz de h en la base A∪BµM ∗0 ∗

¶y por lo tanto despues de ordenar las bases, esta matriz tiene que versecomo en el recuadro a la izquierda. La matriz M es la de la restriccion deh a F. El 0 representa una submatriz con entradas cero con |A| columnas

y |B| renglones. Finalmente, los “*” representan submatrices de las dimensiones apropiadas.Resumiendo para futuras referencias:

Si F es un subespacio invariante de h y A es una base de todoel espacio que contiene a una base B de F entonces, la matrizde h en la base A es triangular por bloques y el bloque superiorizquierdo es la matriz de la restriccion de h a F en la base B.

Si ademas, G es h invariante entonces, el mismo razonamiento nos hace µM 0

0 M0

¶ver que el “*” superior derecho es una submatriz con entradas cero con|B| columnas y |A| renglones. En este caso la matriz tiene que verse comoen el recuadro a la derecha. La matrizM0 es la de la restriccion de h aG.Resumiendo para futuras referencias:

Page 151: Algebra Lineal

141Seccion 5.2 Polinomios de operadores lineales

Si F y G son un subespacios invariantes complementarios de hy los conjuntos A y B son bases de F y G respectivamente en­tonces, la matriz de h en la base A∪B es diagonal por bloquesy los bloques diagonales son las matrices de las restriccionesde h a F en la base A y de h a G en la base B respectivamente.

5.2 Polinomios de operadores lineales

En esta seccion introduciremos una herramienta para el calculo de los subespacios inva­riantes de un OL a saber, los polinomios de OLs. Se recomienda que el lector lea (o vuelvaa leer) la seccion 1.7 en la cual se introducen los ideales de polinomios y se demuestra quetodo ideal de K [x] es principal.

El morfismo de K [x] en End (E)

Para cualquier numero natural n el operador hn se

hn =

⎧⎨⎩n vecesz |

h ... h si n > 0I si n = 0

define como en el recuadro a la derecha. De aquı, comosabemos sumar OLs y multiplicar por escalares a los OLs,vemos que una expresion como por ejemplo h2−2h1+5Ies un OL que conocemos si tan solo conocemos a h

En general si p (x) =Pn

i=0 αixi ∈ K [x] es un polinomio arbitrario con coeficientes

en el campo del espacio vectorial E, entonces ph =Pn

i=0 αihi es un OL bien definido. Al

proceso de substituir la variable x por el OL h y de esta manera convertir el polinomio p (x)en el OL ph se le llama evaluacion de p en h.

Recordemos de la seccion 3.2 que un algebra es un espacio vectorial con un productode vectores asociativo, distributivo, con elemento neutro y que conmuta con el producto porescalares. Ya vimos, que el espacio vectorial End (E) es un algebra para la composicion deOL. Tambien vimos que el espacio vectorial de todos los polinomiosK [x] es un algebra parael producto de polinomios.

Una subalgebra es un subconjunto de una algebra que es algebra para las operacionesinducidas en el subconjunto. Un subconjunto de una algebra es subalgebra cuando es subes­pacio del espacio vectorial, es cerrado para el producto y contiene el 1.

Una transformacion lineal entre dos algebras es un morfismo de algebras si esta con­muta con el producto y preserva el 1.

La funcion de evaluacion de polinomios en unoperador lineal es un morfismo de algebras.

Prueba. La funcion de evaluacion K [x] 3 p (x) 7→ ph ∈ End (E) es una funcion cu­

Page 152: Algebra Lineal

142 Capıtulo 5. Descomposicion de operadores lineales

yo dominio y codominio son algebras. Sean α0, ...,αn y β0, ...,βn los coeficientes de dospolinomios p y q respectivamente. Tenemos la misma cantidad de coeficientes en ambospolinomios ya que siempre podemos agregar suficientes ceros. Sea λ un escalar. Tenemos

(λp)h =nPi=0

λαihi = λ

nPi=0

αihi = λph

(p+ q)h =nPi=0

(αi + βi)hi =

nPi=0

αihi +

nPi=0

βihi = ph + qh

lo que muestra que la evaluacion en h es una TL.Por definicion de producto de polinomios, tenemos

(pq)h =

ÃnPi=0

nPj=0

αiβjxi+j

!h

=nPi=0

nPj=0

αiβjhi+j =

nPi=0

nPj=0

αiβj¡hi hj

¢=

=nPi=0

nPj=0

¡αih

i βjhj¢=

nPi=0

αihi

nPj=0

βjhj = ph qh

y finalmente, con 1h =¡x0¢h= h0 = I terminamos la prueba.

La subalgebra K [h]

El morfismo de evaluacion en h tiene como imagen el conjunto de todos los OL que sonla evaluacion en h de algun polinomio deK [x]. Este conjunto de OLs se denotara porK [h].Esto reeja que en la evaluacion lo que hacemos es substituir la variable x por el OL h.

K [h] es una subalgebra conmutativa del algebra de operadores lineales.

Prueba. Como la imagen de una transformacion lineal es un subespacio, obtenemos queK [h] es un subespacio de End (E). Como 1 (h) = I, obtenemos que I ∈ K [h]. Comoph qh = (pq)h obtenemos queK [h] es cerrado para la composicion. La conmutatividad sesigue de la conmutatividad del producto de polinomios. Efectivamente, ph qh = (pq)h =(qp)h = qh ph y por lo tanto, los OLs en K [h] conmutan entre ellos.

La conmutatividad deK [h] es un hecho trivial pero muy notable. Los operadores linealesen general no son conmutativos para la composicion. Sin embargo los que estan en K [h] siconmutan entre ellos. Esto va a jugar un papel importante en todo lo que sigue.

Cada vez que se tiene un morfismo de algebras, la imagen de este morfismo es una subalgebra delcodominio del morfismo. Si el dominio del morfismo es un algebra conmutativa entonces la imagenes una subalgebra conmutativa.

El polinomio mınimo

El morfismo de evaluacion en h (recordemos que este morfismo es una transformacionlineal) tiene como nucleo el conjunto de todos los polinomios p tales que ph = O.

Page 153: Algebra Lineal

143Seccion 5.2 Polinomios de operadores lineales

El nucleo del morfismo de evaluacion en h es un ideal de K [x].

Prueba. El nucleo de una transformacion lineal es un subespacio y por lo tanto si ph =qh = O entonces (p+ q)h = O. Sea r (x) cualquier polinomio. Necesitamos mostrar que(rq)h = O. Para cualquier a ∈ E tenemos

(rq)h (a) = (rh qh) (a) = rh (qh (a)) = rh (0) = 0y esto es todo lo que querıamos probar.

Por 1.19 todo ideal deK [x] es principal y por lo tanto existe un unico polinomio h (notesela letra gotica) de coeficiente principal 1 (o sea, monico) tal que si ph = O entonces, p esun multiplo de h. En sımbolos matematicos p (x) ∈ K [x] | ph = O = qh | q ∈ K [x]. Alpolinomio h se le llama polinomio mınimo de h. El polinomio mınimo de h es el polinomiomonico de grado mas pequeno que al evaluarlo en h se obtiene el OL nulo O . Por ahora, nosabemos mucho del polinomio mınimo de h, solo sabemos que existe y que es unico.

Otra manera mas descriptiva de ver el polinomio mınimo es la siguiente. Consideremosla sucesion infinita de operadores I, h, h2, . . .. Todos los elementos de esta sucesion nopueden ser LI en el espacio vectorial End (E) porque este espacio es de dimension finita eigual a (dimE)2. Esto quiere decir que hay un primer natural n y unos coeficientes escalaresαi tales que hn = α0h

0 + α1h1 + · · · + αr−1h

n−1. Denotando p (x) = xn − αr−1xn−1 −

· · · − α1x1 − α0x

0 vemos que ph = O y que este es el unico polinomio monico de gradomas pequeno que cumple esto. Luego, p es el polinomio mınimo de h.

El perıodo de un vector

Si p es un polinomio entonces ph es un OL. Si a es un vector entonces a la imagen porph de a se le denotara por ph (a). Luego, ph (a) se obtiene en dos pasos: primero tomamosel polinomio p lo evaluamos en h y ası obtenemos ph ; segundo la funcion ph la evaluamosen a y ası obtenemos ph (a).

Para cualquier vector a, el conjunto de todos lospolinomios p tales que ph (a) = 0, es un ideal.

Prueba. Si ph (a) = qh (a) = 0 y r es cualquier polinomio entonces(p+ q)h (a) = (ph + qh) (a) = ph (a) + qh (a) = 0

(rp)h (a) = rh (ph (a)) = rh (0) = 0

y esto es todo lo que se requerıa probar.

Nuevamente, como todo ideal de polinomios es principal entonces, existe un unico poli­nomio monico q tal que el conjunto p ∈ K [x] | ph (a) = 0 es exactamente el conjunto detodos polinomios que son multiplos de q. Al polinomio q se le llama el h­perıodo del vectora o sencillamente el perıodo de a si esta implıcito cual es el operador h. En otras palabras,el perıodo de a es el polinomio q monico de grado mas pequeno tal que qh (a) = 0.

Mas descriptivamente, en la sucesion infinita de vectores a, h (a) , h2 (a) , . . . todos los

Page 154: Algebra Lineal

144 Capıtulo 5. Descomposicion de operadores lineales

elementos no pueden ser LI porque el espacio E es de dimension finita. Esto quiere decirque hay un primer natural n y unos coeficientes escalares αi tales que hn = α0h

0 (a) +

· · · + αr−1hn−1 (a). Denotando p (x) = xn − αn−1x

n−1 − · · · − α1x1 − α0x

0 vemos queph (a) = 0 y que este es el unico polinomio monico de grado mas pequeno que cumple esto.Luego, p (x) es el perıodo de a.

Ejercicio 93 Pruebe que el vector 0 es el unico vector cuyo perıodo es de grado cero.Ejercicio 94 Pruebe que los vectores cuyo perıodo es el polinomio x son exactamente aque­llos que estan en el nucleo de h.

Anuladores

Sea ahora A ⊆ E un conjunto arbitrario de vectores. El h­anulador de A es el conjuntode polinomios p ∈ K [x] | ∀a ∈ A ph (a) = 0. Previamente ya habıamos considerado vis­to dos anuladores. En el caso de que A es todo el espacio entonces el anulador es el idealusado para definir el polinomio mınimo. En el caso de que A es un solo vector entonces elanulador es el ideal usado para definir el perıodo del vector. Analogamente a las pruebasde 5.6 y 5.7 podemos probar que cualquier anulador es un ideal. Esto nos permite definirel h­perıodo de un conjunto de vectores como el polinomio generador de su anulador. Elanulador de un conjunto de vectores es el conjunto de polinomios que son multiplos de superıodo.

De aquı en lo adelante denotaremos por perh (A) al h­perıodo de un conjuntode vectores A. Ası, perh (a) es el perıodo del vector a y perh (E) es el h­perıodo de todo el espacio o sea, el polinomio mınimo de h.

monotonıa del perıodo

Si A ⊆ B entonces, perh (A) es un divisor de perh (B).

Prueba. Sea A0 el h­anulador de A. Si p es el perıodo de B entonces ph (b) = 0 paracualquier b ∈ B y por lo tanto ph (a) = 0 para cualquier a ∈ A. Luego p ∈ A0 y por lotanto es un multiplo del perıodo de A.

Nucleos de polinomios de operadores lineales

Los nucleos de los polinomios evaluados en un OL son un objeto importante para ladescomposicion de ese OL en componentes irreducibles. Su importancia esta dada por elsiguiente resultado.

Page 155: Algebra Lineal

145Seccion 5.2 Polinomios de operadores lineales

invariancia de los nucleos

El nucleo de cualquier operador enK [h] es un subespacioh­invariante.

Prueba. Sabemos que el nucleo de cualquier OL es un subespacio. Demostremos la inva­riancia. Sea a ∈ kerph entonces ph (a) = 0. Por la conmutatividad de los OL en K [h]tenemos ph (h (a)) = h (ph (a)) = h (0) = 0. O sea, h (a) ∈ kerph.

monotonıa de los nucleos

Si p es un divisor de q entonces Kerph ⊆ Kerqh.

Prueba. Sea q = p0p. Si x ∈ Kerph entonces qh (x) = p0h (ph (x)) = p0h (0) = 0 y por lo

tanto x ∈ Kerqh.

Conjuntos de vectores y polinomios

Los conjuntos de vectores estan ordenados naturalmente por Conjuntos de vectoresperh ↓ ↑ ker

Polinomios monicos

inclusion, y los polinomios monicos estan ordenados natural­mente por divisibilidad. Hemos establecido dos funciones mo­notonas entre estos dos conjuntos ordenados (vease el recuadroa la derecha). Sin embargo, estas funciones NO son una la inversa de la otra. La relacionentre ellas es un poco mas compleja y esta dada por el siguiente resultado.

perh (A) divide a p si y solo si A ⊆ kerph.

Prueba. Denotemos por q el perıodo de A. Si q divide p entonces, p esta en el anulador deA y por lo tanto para cualquier vector a enA se cumple que ph (a) = 0. Luego,A ⊆ kerph.Recıprocamente, si A ⊆ kerph entonces p esta en el anulador de A y por lo tanto q es undivisor de p.

perh (kerph) divide a p.

Prueba. Pongase A = kerph en 5.11.

perh (A) es el mınimo comun multiplode los perıodos de los vectores en A.

Prueba. Sea p = perh (A) y p0 el mınimo comun multiplo de los perıodos de los vectoresen A. Para cualquier vector a en A tenemos que ph (a) = p0 (a) = 0.

Page 156: Algebra Lineal

146 Capıtulo 5. Descomposicion de operadores lineales

Como p esta en el anulador de todos los vectores en A entonces es un multiplo comunde sus h­perıodos y por lo tanto p es un multiplo de p0. Como p0 esta en el anulador de Aentonces p0 es un multiplo de p.

El polinomio mınimo de h es el mınimo comunmultiplo de los perıodos de todos los vectores.

Prueba. Pongase A igual a todo el espacio en 5.13

Sean A y B dos conjuntos ordenados. A una pareja de funciones monotonas f∗ : A → B y f∗ :B → A se les llama conexion de Galois si (f∗ (a) ≤ b) ⇔ (a ≤ f∗ (b)). El resultado 5.11 nosmuestra que si tomamos f∗ el perıodo y f∗ el nucleo entonces tenemos una conexion de Galois. En

toda conexion de Galois se tiene que f∗ (f∗ (x)) ≤ x, en nuestro caso, el resultado 5.12. En toda conexion deGalois se tiene que f∗ preserva los supremos y el resultado 5.13 es un caso particular de esto. Las conexionesde Galois aparecen muy frecuentemente en las matematicas.

5.3 Subespacios radicales

En lo que sigue muy frecuentemente nos encontraremos parejas de polinomios sin facto­res comunes. Necesitamos hacer un aparte para hablar de estas parejas. Primero, les daremosun nuevo nombre mas corto. Dos polinomios p y q se les llama coprimos si cualquier factorcomun a ambos es de grado 0. O sea, no tienen factores comunes no triviales. Dos polinomiosp y q son coprimos si y solo si los factores irreducibles de p son diferentes a los factoresirreducibles de q.

El siguiente resultado que usaremos mas adelante es facil consecuencia del teorema dedescomposicion de polinomios en factores irreducibles. Si al lector no le parece que esteresultado es obvio entonces, debe hacer un esfuerzo por demostrarlo.

Lema de igualdad de polinomios

Si p, q, p0 y q0 son monicos entonces,p0 divide a pq0 divide a qpq divide a p0q0

p y q son coprimos

⎫⎪⎪⎬⎪⎪⎭⇒¯p0 = p

q0 = q.

Ejercicio 95 Demuestre Lema de igualdad de polinomios (5.15). [182]

Ahora estamos listos para empezar a descomponer los operadores lineales.

Page 157: Algebra Lineal

147Seccion 5.3 Subespacios radicales

Lema de Descomposicion de Nucleos

Si p y q son polinomios coprimos entonces, ker (pq)h = kerph ⊕ kerqh.

Prueba. Todos los nucleos involucrados son subespacios. Lo que hay que probar es quekerph ∩ kerqh = 0 y que ker (pq)h = kerph + kerqh. O sea, es una suma directa.

Por el Teorema de Bezout existen polinomios r, s tales que rp+ sq = 1.Sea x ∈ kerph ∩ kerqh. Tenemos quex = 1h (x) = (rp+ sq)h (x) = rh (ph (x)) + sh (qh (x)) = rh (0) + sh (0) = 0

lo que prueba que kerph ∩ kerqh = 0.Sea x ∈ ker (pq)h y denotemos y = (sq)h (x), z = (rp)h (x). Como rp + sq = 1

tenemos z+ y = x. Ademas, por la conmutatividad tenemos queph (y) = (psq)h (x) = sh ((pq)h (x)) = sh (0) = 0

qh (z) = (qrp)h (x) = rh ((pq)h (x)) = rh (0) = 0

o sea, y ∈ kerph y z ∈ kerqh. Luego ker (pq)h ⊆ kerph + kerqh.Para probar la otra inclusion sean a ∈ kerp (h) y b ∈ kerq (h). Tenemos que

(pq)h (a+ b) = ph (qh (a+ b)) = ph (qh (a) + qh (b)) =

= ph (qh (a)) = qh (ph (a)) = qh (0) = 0

y por lo tanto kerph + kerqh ⊆ ker (pq)h.

Lema de los Perıodos de los Nucleos

Si p y q son polinomios monicos coprimos entonces,

pq = perh (ker (pq)h)⇐⇒ ¯p = perh (kerph)q = perh (kerqh)

Prueba. (=⇒) Denotemos por p0 = perh (kerph) y q0 = perh (kerqh). Usando 5.12 obte­nemos que p0 divide a p y que q0 divide a q.

Por el Lema de Descomposicion de Nucleos (5.16) tenemos ker (pq)h = kerph+kerqh.Sean a ∈ kerph y b ∈ kerqh dos vectores. Por conmutatividad tenemos que

(p0q0)h (a+ b) = q0h (p

0h (a)) + p

0h (q

0h (a)) = 0+ 0 = 0

Luego p0q0 es un multiplo comun de los perıodos de todos los vectores en kerph + kerqh =ker (pq)h . Como el pq = perh (ker (pq)h) es el mınimo de estos multiplos comunes obte­nemos que pq divide a p0q0. Usando el Lema de igualdad de polinomios (5.15) obtenemosp = p0 y q = q0.(⇐=) Supongamos que los polinomios monicos coprimos p y q cumplen que p =

perh (kerph) y q = perh (kerqh). Denotemos r = perh (ker (pq)h) Usando 5.12 obtene­mos que r divide a pq. Como kerph ⊆ ker (pq)h entonces usando la monotonıa del perıodo(5.8) obtenemos que p divide a r. Por la misma razon q divide a r. Como p y q son coprimosentonces pq divide a r y por lo tanto r = pq

Page 158: Algebra Lineal

148 Capıtulo 5. Descomposicion de operadores lineales

Operadores lineales radicales

Por la invariancia de los nucleos (5.9) y el Lema de Descomposicion de Nucleos (5.16)si (pq)h = O y p, q son coprimos entonces, h tiene dos subespacios invariantes comple­mentarios kerph y kerqh y podrıamos tener (si la descomposicion es no trivial) que h esreducible. El candidato que tenemos para el polinomio pq es el polinomio mınimo de h.

Un polinomio p se descompone en producto de dos factores coprimos si y solo si p tieneal menos dos factores irreducibles distintos. Esto nos lleva a la siguiente definicion. Diremosque h es radical de tipo p si el polinomio mınimo de h tiene un solo factor irreducible eigual a p. Equivalentemente, h es radical si el perıodo de cualquier vector es de la forma pm

donde p es un polinomio monico sin factores no triviales.

Si h es irreducible entonces, es radical.

Prueba. Si h no es radical entonces el polinomio mınimo h de h se descompone no trivial­mente como un producto h = pq donde p y q son coprimos. Por el Lema de Descomposicionde Nucleos (5.16) tenemos E = ker (pq)h = kerph⊕kerqh siendo kerph y kerqh subespa­cios invariantes de h (por la invariancia de los nucleos (5.9)). Como p es un factor propio de hque es el mınimo comun multiplo de los perıodos de todos los vectores entonces, kerph 6= Ey por la misma razon kerqh 6= E. Esto quiere decir que la descomposicion kerph ⊕ kerqhes no trivial y por lo tanto h es reducible.

Este resultado no alcanza para caracterizar a los operadores lineales irreducibles. Porejemplo la identidad en R2 tiene polinomio mınimo x − 1 o sea es radical y sin embargo esevidentemente la suma directa de la identidad en el eje x y la identidad en el eje y, o sea, esreducible.

Componentes radicales

Un vector se le llama radical de tipo p si su perıodo es igual a pm y p es irreducible.Un conjunto de vectores se le llama radical de tipo p si todos sus vectores son radicales detipo p o equivalentemente si su perıodo es igual a pm . Recordemos que la multiplicidad deun factor es el numero de veces que podemos dividir sin resto por dicho factor.

Si p es factor irreducible de multiplicidad m del polinomio mınimo de hentonces, kerpmh es el conjunto de todos los vectores radicales de tipo p.

Prueba. Sea a un vector de perıodo pk. Si k > m entonces pk = perh (a) no divide alpolinomio mınimo y esto no puede ser. Luego k ≤m. De la monotonıa de los nucleos (5.10)obtenemos kerpkh ⊆ kerpmh y por lo tanto a ∈ kerpmh . Recıprocamente, si a ∈ kerpmhentonces pmh (a) = 0 y por lo tanto perh (a) es un divisor de pm . Como p es irreducible,necesariamente perh (a) es igual a pk para cierto k ≤m.

Page 159: Algebra Lineal

149Seccion 5.3 Subespacios radicales

Por el teorema de descomposicion de un polinomio en factores irreducibles el polino­mio mınimo de h es igual a un producto

Qp∈P p

mp donde P es el conjunto de sus factoresirreducibles y mp es la multiplicidad del polinomio irreducible p. Por el resultado anterior,los espacios kerpmp

h son los subespacios radicales maximales de h. De la invariancia delos nucleos (5.9) sabemos que los subespacios radicales maximales son invariantes. A larestriccion de h a un subespacio radical maximal se le llama componente radical de h.

Teorema de Descomposicion en Componentes Radicales

Todo operador lineal es la suma directa de sus componentes radicales.

Prueba. Sea h =Q

p∈P pmp el polinomio mınimo de h. Si en P hay un solo polinomio irre­

ducible entonces h es radical y no hay nada que probar. Hagamos induccion en el numero depolinomios irreducibles en P. Sea r un polinomio irreducible fijo pero arbitrario en P. Deno­temos q = rmr y q0 =

Qp∈P\r p

mp . Tenemos que h = qq0 y que q, q0 son coprimos. DelLema de Descomposicion de Nucleos (5.16) obtenemos la descomposicion en subespaciosinvariantes complementarios E = F⊕G donde F = kerqh y G = kerq0h.

Sean f y g las restricciones de h a F y G respectivamente. Sean f y g los polinomiosmınimos de f y g respectivamente. Del Lema de los Perıodos de los Nucleos (5.17) f = qy g = q0. Luego, todas las componentes radicales de g son componentes radicales de h.Aplicando la hipotesis de induccion g es suma directa de sus componentes radicales. Comof es una componente radical de h entonces, h = f⊕ g es suma directa de sus componentesradicales.

Como la descomposicion de un polinomio en polinomios irreducibles es unica salvoorden de los factores entonces, la descomposicion de un operador lineal en componentesradicales es unica salvo orden de los sumandos.

Existencia de un vector de perıodo maximo

La descomposicion en componentes radicales nos permite limitarnos a considerar el casoen que el operador lineal h es radical. Esto simplifica mucho las cosas por la simplicidadde la relacion de divisibilidad entre los divisores de los polinomios tipo pn cuando p esirreducible. Esta relacion orden es total. Por ejemplo, si A es un conjunto de divisores de pn

entonces se cumple que el mınimo comun multiplo de A es un polinomio en A.

Para cualquier operador lineal h existe un vector talque su perıodo es igual al polinomio mınimo de h.

Prueba. Sea h el polinomio mınimo de h : E→ E. Primero para el caso de que h es radicalo sea cuando h = pk con p irreducible. El polinomio h es el mınimo comun multiplo de losperıodos de todos los vectores y estos son divisores de pk. Por la observacion que precede aeste resultado tiene que ocurrir que uno de esos perıodos es pk.

Page 160: Algebra Lineal

150 Capıtulo 5. Descomposicion de operadores lineales

El caso general por induccion en el numero de componentes radicales. Descomponga­mos h = f ⊕ g donde f es una componente radical. Esta descomposicion se correspondecon la descomposicion E = F⊕G en subespacios invariantes. Los operadores f y g son lasrestricciones de h a F y G respectivamente. Los polinomios mınimos f y g de f y g respecti­vamente son coprimos y cumplen que h = fg. Por hipotesis de induccion existen vectores ay b en F y G respectivamente tales que f = perh (a) y g = perh (b).

Denotemos p = perh (a− b). El polinomio p es un divisor de fg = h al ser este ultimoun comun multiplo de los perıodos de todos los vectores.

Tenemos (ph (a− b) = 0) ⇒ (ph (a) = ph (b)). Como F y G son invariantes F 3ph (a) = ph (b) ∈ G. Como F y G son complementarios ph (a) = ph (b) = 0. Entonces,p es un multiplo de f = perh (a) y es un multiplo de g = perh (b). Como f y g son coprimosentonces, p es un multiplo de fg = h.

5.4 El espacio cociente por un subespacio invariante

Los λ­deslizamientos nos muestran que no todo subespacio invariante tiene complemen­tario invariante. Por esto, los espacios cocientes juegan aquı un papel fundamental. En reali­dad, en este capıtulo no estamos interesados en los espacios cocientes per se. Por el contrario,solo los necesitamos como una herramienta para probar los resultados en los que si estamosinteresados: la descomposicion de OLs. Necesitamos por lo tanto aprender a manejar estaherramienta.

Sea h : E → E un OL y F un subespacio h­invariante o sea h (F) ⊆ F. El espaciocociente E/F es el conjunto de todos los subespacios afines paralelos a F. Lo que queremosver es que si los vectores a y b estan en un mismo subespacio afın paralelo a F entoncesh (a) y h (b) cumplen exactamente lo mismo.

Efectivamente, si a yb estan en un mismo subespacio afın paralelo a F entonces a−b ∈F. Como F es h­invariante entonces h (a) − h (b) = h (a− b) ∈ F y por lo tanto h (a) yh (b) estan en un mismo subespacio afın paralelo a F. Notese que aquı el argumento cruciales que F es h­invariante.

Esto nos permite definir la funcion eh en el espacio cociente con la igualdad eh (a+ F) =h (a) + F. La observacion precedente nos dice que esta funcion esta bien definida, o sea sia+F = b+F entonces, h (a) + F = h (b) + F. Observese que eh es un OL en E/F ya queeh (a+ F+ b+ F) = eh (a+ b+ F) = h (a+ b) + F =

= h (a) + F + h (b) + F = eh (a+ F) + eh (b+ F)y tambieneh (λ (a+ F)) = eh (λa+ F) = h (λa) + F =λh (a) + F = λ (h (a) + F) = λeh (a+ F) .

Page 161: Algebra Lineal

151Seccion 5.4 El espacio cociente por un subespacio invariante

¿Para que definir eh? ¿Acaso no se cumple que h (a+ F) = h (a) + F? Pues no, esto se cumplesolo cuando h es biyectiva. Inclusive si arbitrariamente pidieramos que h sea biyectiva esto no nosdarıa nada pues necesitaremos fph y los ph tienen nucleos grandes.

Necesitaremos conocer mejor los OLs del espacio cociente End (E/F).

El conjunto EndF (E) de todos los operadores linealesque dejan invariante F es una subalgebra de End (E).

Prueba. Sean f y g dos operadores en EndF (E). Sea λ un escalar. Para cualquier vectora ∈ F tenemos f (a) ∈ F y g (a) ∈ F y por lo tanto

(g+ f) (a) = g (a) + f (a) ∈ F ; I (a) ∈ F ;(g f) (a) = g (f (a)) ∈ F ; (λf) (a) = λf (a) ∈ F.

Luego, EndF (E) es una subalgebra.

La funcion EndF (E) 3 h 7→ eh ∈ End (E/F) es un morfismo de algebras.

Prueba. Probaremos que h 7→ eh es morfismo para la composiciongf g (a+ F) = (f g) (a) + F = f (g (a)) + F = ef (g (a) + F) == ef (g (a) + F) = ef (eg (a+ F)) = ³ef eg´ (a+ F) ;

y para la suma]f+ g (a+ F) = (f+ g) (a) + F = f (a) + F + g (a) + F =

= ef (a+ F) + eg (a+ F) = ³ef+ eg´ (a+ F) ;y para el producto por escalareseλf (a+ F) = (λf) (a) + F = f (λa) + F = ef (λa+ F) =

= ef (λ (a+ F)) = ³λef´ (a+ F) ;y que preserva la identidadeI (a+ F) = I (a) + F = a+ F = I (a+ F) .Ejercicio 96 Muestre que el morfismo h 7→ eh es sobreyectivo y su nucleo esta formado poraquellos operadores lineales cuya imagen es F. [182]

Polinomios y el espacio cociente

Sea F ⊆ E un subespacio h­invariante. Ya vimos como se define eh en E/F a sabereh (a+ F) = h (a) + F y comprobamos que esta definicion es correcta debido a la h­invariancia de F. Para poder definir fph (a+ F) = ph (a) + F necesitamos que F sea ph­invariante. Por suerte, esto se cumple automaticamente.

Page 162: Algebra Lineal

152 Capıtulo 5. Descomposicion de operadores lineales

Sea p un polinomio. Si F es h­invariante entonces tambien es ph­invariante.

Prueba. Como el conjunto de los operadores que preservan F es una subalgebra del algebrade todos los operadores entonces todos los hn estan ahı, tambien todas las combinacioneslineales de estos o sea, todos los polinomios evaluados en h.

Luego, fph es un OL bien definido en el espacio cociente. Por otro lado, si evaluamos elpolinomio p en el operador eh obtendremos p

hque es otro OL bien definido en el espacio

cociente.

fph = ph

Prueba. Sea p (x) = Σαixi. Como la funcion h 7→ hn es un morfismo de algebras, tenemosXn

i=0αihi =

Xn

i=0

gαihi =Xn

i=0αiehi =Xn

i=0αi

³eh´iy esto es lo que se necesitaba probar.

Esto es muy comodo, ya que para calcular perh(a+ F) en el cociente tenemos la formula

ph(a+ F) = ph (a) + F.

perh(a+ F) es un divisor de perh (a).

Prueba. Si p = perh (a) entonces ph(a+ F) = ph (a) + F = 0+ F = F y por lo tanto p

es un multiplo de perh(a+ F).

El polinomio mınimo de eh es un divisor del polinomio mınimo de h.

Prueba. Sean h y eh los polinomios mınimos de h y eh respectivamente. Para cualquier vectora tenemos que h

h(a+ F) = hh (a) + F = 0+ F = F. Luego, h es un multiplo de eh.

Ejercicio 97 Pruebe que si a es un vector tal que haih ∩ F = 0 y perh (a) es un multiplode perh (F) entonces, per

h(a+ F) = perh (a). [183]

Page 163: Algebra Lineal

153Seccion 5.5 Subespacios cıclicos

5.5 Subespacios cıclicos

Sea h : E → E un operador lineal. Sea V = v1, . . . , vn ⊆ E un conjunto de vectores.Una h­combinacion de V es un vector de la forma

ph (v1) + qh (v2) + · · ·+ rh (vn)donde los coeficientes p, q, ..., r son polinomios arbitrarios en K [x].

Le dejamos al lector hacer la definicion para el caso de que V es infinito. En este casohay que exigir soporte finito, o sea que el conjunto de coeficientes no nulos sea finito.

Las h­combinaciones son combinaciones lineales en el caso de que los coeficientes seanpolinomios de grado cero. Esto se ve de que si λ es un escalar entonces, λh (v) = λh0 (v) =λI (v) = λv. Recordemos que hVi denota el conjunto de todas las combinaciones lineales deV . Denotemos hVih el conjunto de todas las h­combinaciones de V . La observacion anteriorsignifica que hVi ⊆ hVih.

Ejercicio 98 Pruebe que hVi = hVih si y solo si h es una homotecia (h (x) = λx).

Conjuntos h­generadores

El conjunto de todas las h­combinaciones de V es un subespacio invariante.

Prueba. Sea λ un escalar. Sean a = ph (v1) + · · ·+ qh (vn) y b = rh (v1) + · · ·+ sh (vn)dos h­combinaciones de V . Entonces,

a+ b = p0h (v1) + · · ·+ q0h (vn) donde p0 = p+ r, . . . , q0 = q+ s,λa = p0h (v1) + · · ·+ q0h (vn) donde p0 = λp, . . . , q0 = λq,

h (a) = p0h (v1) + · · ·+ q0h (vn) donde p0 (x) = xp (x) , . . . , q0 (x) = xq (x) .Las dos primeras igualdades prueban que es un subespacio. La tercera muestra que es inva­riante.

Ya es la tercera vez que nos tropezamos con una situacion similar. Las anteriores fueronla cerradura lineal y la cerradura afın. Los siguientes tres resultados muestran que la funcionV 7→ hVih es un operador de cerradura que llamaremos h­cerradura.

La interseccion de subespacios invariantes es invariante.

hVih es la interseccion de todos los sub­espacios invariantes que contienen a V .

Page 164: Algebra Lineal

154 Capıtulo 5. Descomposicion de operadores lineales

La h­cerradura cumple las siguientes propiedades:¨ V ⊆ hVih (incremento),¨ V 0 ⊆ V ⇒ hV 0ih ⊆ hVih (monotonıa),¨ hhVihih = hVih (idempotencia).

Ejercicio 99 Pruebe estos tres resultados.

A hVih le llamaremos el subespacio invariante h­generado por V . Si hVih es todo elespacio diremos queV es unh­generador. Obviamente los sobreconjuntos deh­generadoresy los conjuntos generadores (sin la h) son h­generadores.

perh hVih = perh V .

Prueba. Tenemos V ⊆ hVih y por la monotonıa del perıodo (5.8) sabemos que perh V es undivisor de perh hVih. Denotemos q = perh V . Si x ∈ hVih entonces x es una h­combinacionde V

x = ph (v1) + · · ·+ rh (vn)donde v1, . . . ,vn ⊆ V y por lo tantoqh (x) = qh (ph (v1)) + · · ·+ qh (rh (vn)) = ph (qh (v1)) + · · ·+ rh (qh (vn)) = 0.

Luego, q = perh V esta en el anulador de hVih y por lo tanto es un multiplo de perh hVih.Un subespacio invariante se le llama h­cıclico si este esta h­generado por un solo vector.

Los subespacios cıclicos son los h­analogos de las rectas por el origen que estan generadas(sin la h) por un solo vector. Al operador h se le llama cıclico si todo el espacio es h­cıclico.

Conjuntos h­independientes

Un conjunto de vectores v1, . . . ,vn no nulos se le llama h­independiente si

(ph (v1) + · · ·+ qh (vn) = 0)⇒ (ph (v1) = · · · = qh (vn) = 0)Esto es equivalente a que si una h­combinacion de ellos es cero entonces, para todo i elcoeficiente de vi es un multiplo del perıodo de vi. Al considerar coeficientes de grado ce­ro vemos que los conjuntos h­independientes siempre son linealmente independientes. Enparticular, el numero de elementos en un conjunto h­independiente no puede sobrepasar ladimension del espacio.

Si V = v1, . . . ,vn es h­independiente entonces hVih = hv1ih ⊕ · · ·⊕ hvnih.

Prueba. Por induccion en el natural n. Si n = 1 el resultado es obvio. Denotemos V 0 =v2, . . . ,vn. Tenemos que probar que hVih = hv1ih + hV 0ih y que hv1ih ∩ hV 0ih = 0.

Page 165: Algebra Lineal

155Seccion 5.5 Subespacios cıclicos

Sia ∈ hVih entonces existen coeficientes polinomiales tales quea = ph (v1)+qh (v2)+· · ·+ rh (vn). Obviamente, a0 = ph (v1) ∈ hv1ih , a00 = qh (v2) + · · ·+ rh (vn) ∈ hV 0ih ya = a0 + a00. Luego, hVih ⊆ hv1ih + hV 0ih. La otra inclusion se demuestra igual.

Supongamos que a ∈ hv1ih ∩ hV 0ih. Entonces, existen polinomios tales queph (v1) = a = qh (v2) + · · ·+ rh (vn)

por lo tantoph (v1)− qh (v2)− · · ·− rh (vn) = 0.

Como V es h­independiente entonces, a = ph (v1) = 0.

h­bases

El resultado anterior es formidable. Si solo V ademas de h­independiente fuera h­gene­rador, obtendrıamos una descomposicion de todo el espacio en suma directa de subespaciosinvariantes h­generados por un solo vector o sea cıclicos.

Una h­base es un conjunto de vectores que es h­independiente y h­generador. El unicoproblema es que no sabemos si existen o no las h­bases. Veremos en la siguiente seccion quesi existen sin embargo, el problema no es tan sencillo como en el caso de las bases ordinarias(sin la h). Hay que ir poco a poco.

Si p = xn − αn−1xn−1 − · · · − α1x− α0 es un polinomio monico arbitrario entonces a

la matriz ⎛⎜⎜⎜⎜⎝0 0 ... 0 α01 0 ... 0 α1... ... ... ... ...

0 0 ... 0 αn−20 0 ... 1 αn−1

⎞⎟⎟⎟⎟⎠se le llama matriz acompanante del polinomio p.

Sea h un OL cıclico con polinomio mınimo p de grado n. Sea a un vector h­generador. El conjunto de vectores

©a, h (a) , . . . , hn−1 (a)

ªes una base del

espacio vectorial y la matriz de h en esta base es la matriz acompanante de p.

Prueba. Denotemos B =©a, h (a) , . . . , hn−1 (a)

ªy probaremos que B es una base del

espacio. Si hubiera una combinacion linealβ0a+ β1h (a) + · · ·+ βn−1h

n−1 (a) = 0

con no todos sus coeficientes nulos entonces, el polinomio no nuloq (x) = β0 + β1x+ · · ·+ βn−1x

n−1

serıa tal que qh (a) = 0 y esto contradice (q tiene grado menor que el grado de p) que lospolinomios en el anulador de a son los multiplos de p. Luego, A es LI.

Por otro lado, como a es h­generador entonces para cualquier vector x existe un polino­mio q tal que x = qh (a). Efectuando la division con resto obtenemos q = cp + r donde

Page 166: Algebra Lineal

156 Capıtulo 5. Descomposicion de operadores lineales

el grado de r es estrictamente menor que el grado de p. Luego, rh (a) es una combinacionlineal de B y rh (a) = (q− cp)h (a) = qh (a) − ch (ph (a)) = qh (a) = x. Esto significaque A es un conjunto generador y por lo tanto es una base.

Veamos como transforma h a los vectores en la base B. Denotemos vk = hk (a), Luego,B = v0, . . . ,vk−1 Tenemos que para k ∈ 0, . . . , n− 2 se cumple que h (vk) = vk+1lo que justifica las n − 1 primeras columnas de la matriz acompanante. Por otro lado sip = xn − αn−1x

n−1 − · · ·− α1x− α0 es el polinomio mınimo de h. entonces

h (vn−1) = hn (a) = ph (a) +

n−1Xi=0

αihi (a) = 0+

n−1Xi=0

αivi

y esto justifica la ultima columna de la matriz acompanante.

Si A es una h­base entonces, la dimension del espacio es iguala la suma de los grados de los h­perıodos de los vectores en A.

Prueba. Como la dimension de la suma directa es la suma de las dimensiones de los suman­dos entonces, usando 5.33 vemos que es suficiente probarlo para cuando A contiene un solovector a. Sea p = perh (a) y n el grado de p. Por 5.32 p = perh (haih). Como haih es porhipotesis todo el espacio entonces p es el polinomio mınimo de h. Usando 5.34 vemos quela dimension del espacio es n.

Si A es una h­base entonces, el polinomio mınimo de h es igualal mınimo comun multiplo de los h­perıodos de los vectores enA.

Prueba. Sea p el mınimo comun multiplo de los h­perıodos de los vectores en A. De 5.13sabemos que p = perh A. Sea h polinomio mınimo de h. Como h es el perıodo de todo elespacio E y hAih = E entonces, de 5.32 obtenemos p = perh A = perh hAih = h.

5.6 Descomposicion en subespacios cıclicos radicales.

Entre todos los subespaciosh­cıclicos los mas grandes son aquellos que estanh­generadospor vectores de perıodo igual al polinomio mınimo. A estos les llamaremos les llamaremosmaximales. Por 5.21 siempre existe algun subespacio h­cıclico maximal.

La estrategia para deshacernos del problema de que no cualquier subespacio invariantetiene complementario invariante es limitarnos a los operadores radicales, fijarnos solamenteen los subespacios invariantes maximales y construir un complementario que si es invariante.El siguiente resultado es la clave para lograr esto.

Page 167: Algebra Lineal

157Seccion 5.6 Descomposicion en subespacios cıclicos radicales.

Lema del Perıodo

Sea h ∈ End (E) radical y F un subespacio h­cıclico maximal. Para cual­quier v + F ∈ E/F existe b ∈ v + F tal que perh (b) = per

h(v+ F).

Prueba. Sea a un h­generador de F. Sea pn (con p irreducible) el polinomio mınimo de h.Por 5.26 el per

h(v+ F) es un divisor comun a todos los h­perıodos de los vectores en v+F.

Existe un natural ` tal que p` = perh(v+ F).

Queremos encontar un vector b en v+ F tal que perh (b) no solo es multiplo de p` sinoque es igual a p`. Tenemos p`h (v) ∈ F = haih y por lo tanto existe un polinomio q coprimocon p y un natural k tales que

p`h (v) =¡pkq

¢h(a) .

Si k ≥ n entonces, p`h (v) =¡pkq

¢h(a) = 0 por lo que perh (v) es un divisor de p` y

podemos tomar b = v.Supongamos que k < n. Como perh (a) = p

n, tenemos que perh¡¡pkq

¢h(a)¢= pn−k

y por lo tanto perh (v) = pn−k+`. Como pn es el polinomio mınimo entonces

(n− k+ ` ≤ n)⇒ (` ≤ k) .Denotemos

b = v−¡pk−`q

¢h(a)

Sabemos que¡pk−`q

¢h(a) ∈ haih = F y por lo tanto b ∈ v+ F. Ademas

p`h (b) = p`h

¡v−

¡pk−`q

¢h(a)¢= p`h (v)−

¡pkq

¢h(a) = 0

por lo que perh (b) es un divisor de p`. Esto significa que perh (b) = perh(v+ F).

Lema del Cociente

Sea h : E → E un operador radical y F = haih un subespacio h­cıclicomaximal. Si v1 + F , . . . , vm + F es una eh­base del espacio cocienteE/F entonces, existen vectores b1 ∈ v1 + F, . . . ,bm ∈ vm + F tales quea,b1, . . . ,bm es una h­base de E.

Prueba. Seaa unh­generador de F. Aplicando el Lema del Perıodo (5.37) a v1+F, . . . , vm+F, obtenemos b1 ∈ v1 + F, . . . ,bm ∈ vm + F tales que el h­perıodo de bi es igual al eh­perıodo de v1 + F, i ∈ 1, . . . ,m. Denotemos B = a,b1, . . . ,bm. Observese que

Br a = b1 + F, . . . ,bm + F = v1 + F, . . . ,vm + Fes una eh­base de E/F. Probemos que B es h­generador de E. Si x ∈ E entonces x + F ∈­Br a

®h, o sea, existen coeficientes polinomiales tales quex+ F = q

h(b1 + F) + · · ·+ rh (bm + F) = qh (b1) + · · ·+ rh (bm) + F

o lo que es lo mismo x−qh (b1)− · · ·− rh (bm) ∈ F = haih. Luego, existe otro polinomios tal que x− qh (b1)− · · ·− rh (bm) = sh (a) y por lo tanto

x = sh (a) + qh (b1) + · · ·+ rh (bm) ∈ hBih .

Page 168: Algebra Lineal

158 Capıtulo 5. Descomposicion de operadores lineales

Para probar que B es h­independiente supongamos que existen polinomios tales que0 = sh (a) + qh (b1) + · · ·+ rh (bm) . (*)

Pasando al cociente (sumando F) obtenemos0+ F = sh (a) + F + qh (b1) + F + · · ·+ rh (bm) + F =

= qh(b1 + F) + · · ·+ rh (bm + F)

y como Br a es independiente obtenemos queqh(b1 + F) = · · · = rh (bm + F) = 0+ F.

Como el h­perıodo de bi es igual al de bi + F concluimos queqh (b1) = · · · = rh (bm) = 0.

Substituyendo esto en la igualdad (*) obtenemos sh (a) = 0.

Ejercicio 100 Compruebe que si eliminamos la condicion de que F es maximal entonces elLema del Cociente (5.38) no se cumple.

Teorema de Existencia de h­bases

Cualquier operador lineal radical h tiene una h­base.

Prueba. Sea h : E → E un operador radical y F = haih subespacio h­cıclico maximal.Hagamos induccion en dimh. Si dimh = 1 entonces F = E y por lo tanto a es una h­base.

Supongamos dimh > 1. Si F = E entonces otra vez a es una h­base. Si no, entoncesE/F es no trivial y dimE/F < dimh. Por hipotesis de induccion E/F tiene una eh­base ypor el Lema del Cociente (5.38) existe una h­base de E.

Ejercicio 101 Demuestre la siguente afirmacion. Sean h : E → E un OL y E = F ⊕ Guna descomposicion de E en subespacios h­invariantes. Si A es una h­base de E y B es unah­base de G entonces A ∪ B es una h­base de E. [183]Ejercicio 102 Use el ejercicio anterior, el Teorema de Descomposicion en ComponentesRadicales (5.20) y el Teorema de Existencia de h­bases (5.39) para probar todo operadorlineal h tiene una h­base.

Teorema de Descomposicion en Componentes Radicales Cıclicas

Todo operador lineal es suma directa de componentes radicales cıclicas.

Prueba. Sea h : E → E un OL. Si h es radical entonces E tiene una h­base a1, . . . ,an.Por 5.33 E = ha1ih ⊕ · · · ⊕ hanih. Por 5.28 todos los ha1ih son subespacios invariantes.Denotando por fi la restriccion de h a haiih obtenemos h = f1 ⊕ · · · ⊕ fn. Si h no es

Page 169: Algebra Lineal

159Seccion 5.6 Descomposicion en subespacios cıclicos radicales.

radical entonces usando el Teorema de Descomposicion en Componentes Radicales (5.20)lo descomponemos en componentes radicales y posteriormente cada componente radical ladescomponemos en componentes cıclicas.

A diferencia de la descomposicion en componentes radicales una descomposicion encomponentes radicales cıclicas no es unica. Esto sucede porque h­bases pueden haber mu­chas. Por ejemplo para la identidad en R2 cualesquiera dos rectas diferentes por el origenforman una descomposicion en subespacios invariantes radicales cıclicos. Sin embargo, loque si es unico es el “tipo” de la descomposicion.

Si h = f1 ⊕ · · · ⊕ fn es una descomposicion entonces, a la sucesion p, q, . . . , r de lospolinomios mınimos de las componentes se le llama el tipo de la descomposicion. Dos tiposse consideran iguales si uno se puede obtener del otro reordenando la sucesion.

Teorema de Unicidad del Tipo

Dos descomposiciones cualesquiera en compo­nentes radicales cıclicas tienen el mismo tipo.

Prueba. De la definicion del tipo y de la unicidad de la descomposicion en componentesradicales queda claro que es suficiente demostrar el teorema para OLs radicales h cuyopolinomio mınimo es una potencia de un polinomio irreducible que denotaremos por p.

Lema 1. El subespacio F = ph (E) es invariante y dimF < dimE.Para cualquier vector x denotaremos x = ph (x)Lema 2. Para cualquier vector x se tiene que perh x = p× perh x.Para cualquier conjunto de vectores X denotaremos X = x | x ∈ X y x 6= 0.Lema 3. Si X es una h­base de E entonces X es una h­base de F = ph (E).Las pruebas de estos lemas no son difıciles y las pospondremos hasta el final para no

perder el hilo de la prueba del teorema.Sean E = ha1ih ⊕ · · · ⊕ hanih = hb1ih ⊕ · · · ⊕ hbmih dos descomposiciones en

subespacios cıclicos. Como h es radical los perıodos de todos sus vectores son potencias deun polinomio irreducible p. Sean pni los perıodos de los ai y pmi los perıodos de los bi.Los tipos de estas dos descomposiciones son pn1 , . . . , pnn y pm1 , . . . , pmm respectivamente.Reordenando los sumandos podemos suponer que n1 ≥ · · · ≥ nn y que m1 ≥ · · · ≥ mm .Tambien podemos suponer que n ≥ m. Tenemos que probar que n = m y que los ni soniguales a losmi.

Hagamos la prueba del teorema por inducccion en dimh. Si dimh = 1 entonces, nece­sariamente n =m = 1 y n1 =m1.

Los conjuntosA = a1, . . . ,an y B = b1, . . . ,bm son dos h­bases de E. Por el Lema3 tenemos que A y B son bases de F = ph (E). Sea k tal que (i > k) ⇒ (ni = 1 o i > n).Analogamente se define ` para losmi. Por el definicionA = a1, . . . ,ak yB =

©b1, . . . ,b`

ª.

Luego, F = ha1ih ⊕ · · · ⊕ hakih =­b1®h⊕ · · · ⊕

­b`®h

son dos descomposicio­nes de F y por el Lema 2 los tipos de estas descomposiciones son pn1−1, . . . , pnk−1 y

Page 170: Algebra Lineal

160 Capıtulo 5. Descomposicion de operadores lineales

pm1−1, . . . , pm`−1. Como por el Lema 1 dimF < dimE, podemos aplicar hipotesis de in­duccion y ası obtenemos que

k = `, n1 − 1 =m1 − 1, · · · , nk − 1 =mk − 1.

O sea, todos los ni son iguales a losmi desde i = 1 hasta k = `.Sea∇ el grado de p. De 5.35 obtenemos que

(n1 + · · ·+ nn)∇ = dimE = (m1 + · · ·+mm)∇y por lo tanto

nk+1 + · · ·+ nn =mk+1 + · · ·+mm.

Todos los ni y losmi para i > k son iguales a 1 y por lo tanto n =m. Con esto, para todo iel natural ni es igual ami y termina la prueba en la suposicion que nuestros tres lemas seanverdaderos.

Prueba del Lema 1. El conjunto de vectores F = ph (E) es un subespacio ya que es laimagen del OL x 7→ ph (x). Es invariante ya que h (ph (x)) = ph (h (x)). Sea x un vectorno nulo de perıodo pk (claramente estamos asumiendo que E 6= 0). Si k = 1 entonces,x ∈ kerph. Si k > 1 entonces, el vector no nulo y = pk−1h (x) es tal que ph (y) = 0. Deaquı, el OL ph tiene nucleo no trivial y por lo tanto F 6= E. Luego, dimF < dimE. ¥

Prueba del Lema 2. Como p es irreducible, el perıodo de cualquier vector es un multiplode p. Si qp = perh (x) entonces, los polinomios r en el anulador de x son los multiplos depq y por lo tanto

(rh (x) = 0) = ((r0qp)h (x) = (r

0q)h (x) = 0) .

Luego, r esta en el anulador de x si y solo si r/p esta en el anulador de x. Esto quiere decirque q = perh (x). ¥

Prueba del Lema 3. Sea X = x1, . . . ,xk es una h­base de E. Comprobaremos queX = x | x ∈ X y x 6= 0 es una h­base de F. Efectivamente, si y ∈ F entonces, existencoeficientes polinomiales tales que

y = (q1)h (x1) + · · ·+ (qn)h (xn) = (q1)h (x1) + · · ·+ (qn)h (xn) .Es claro que en la suma de la derecha podemos descartar aquellos sumandos para los cualesai = 0. Luego, F ⊆

­X®h

o sea, X es un h­generador de F. Supongamos que para ciertospolinomios q1, . . . , qn se tiene que

0 = (q1)h (x1) + · · ·+ (qn)h (xn) = (q1p)h (x1) + · · ·+ (qnp)h (xn) .Como X es h­independiente, entonces

0 = (q1p)h (x1) = (q1)h (x1) = · · · = (qnp)h (xn) = (qn)h (xn)y por lo tanto X es h­independiente. Luego, X es una h­base de F. ¥

Una consecuencia de estos Teoremas es que ya sabemos cuales son los OLs irreducibles.

Teorema de Caracterizacion de los OLs irreducibles

Un operador lineal es irreducible si y solo si es cıclico y radical.

Prueba. Sea h un OL. Si h no es cıclico radical entonces por el Teorema de Descompo­sicion en Componentes Radicales Cıclicas (5.40) este se descompone no trivialmente. Si

Page 171: Algebra Lineal

161Seccion 5.7 Estructura de los operadores cıclicos radicales

h es cıclico radical y se descompone no trivialmente entonces habrıan dos descomposicio­nes en componentes cıclicas radicales con tipos diferentes. Esto contradecirıa el Teorema deUnicidad del Tipo (5.41).

Ejercicio 103 El tipo de un OL es el tipo de cualquiera de sus descomposiciones en compo­nentes irreducibles. Se dice que dos OL f y g son conjugados si existe un OL invertible h talque f = hgh−1. Demuestre que dos OL tienen el mismo tipo si y solo si son conjugados.Ejercicio 104 Sean p = perh (a) y q = perh (b) los perıodos de dos vectores. Demuestreque si p y q son coprimos entonces haih∩hbih = 0 y el subespacio haih+hbih es cıclico.

Ejercicio 105 Use el ejercicio anterior y el Teorema de Descomposicion en ComponentesRadicales Cıclicas (5.40) para probar que para cualquier OL tiene una descomposicion enOL cıclicos f1 ⊕ · · · ⊕ fn en la cual el polinomio mınimo de cada fi divide al polinomiomınimo del siguiente.Ejercicio 106 Usando el Teorema de Unicidad del Tipo (5.41) demuestre que el tipo de lasdescomposiciones introducidas en el ejercicio anterior es unico.

5.7 Estructura de los operadores cıclicos radicales

En esta seccion el acronimo OLCR significara operador lineal cıclico radical.

Subespacios invariantes

Teniendo en cuenta el Teorema de Descomposicion en Componentes Radicales Cıclicas(5.40), observamos que todos los subespacios invariantes de cualquier OL estan determina­dos a priori por los subespacios invariantes de sus componentes cıclico radicales.

Como los OLCR son irreducibles estos no tienen subespacios invariantes complementa­rios. Sin embargo, si pueden tener subespacios invariantes no triviales. Queremos ver cualesson todos los subespacios invariantes de los OLCR. Sea h : E→ E un OLCR con polinomiomınimo pm . Denotemos por∇ el grado del polinomio p.

Los espacios Ek = kerpkh tienen las siguientes propiedades1. 0 = E0 ⊆ E1 ⊆ · · · ⊆ Em = E 2. Ek = ph (Ek+1)

3. (Ek = hxih)⇒ (Ek−1 = hph (x)ih) 4. dimEk = k∇5. son los unicos subespacios invariantes de h.

Prueba. Como h es cıclico existe un vector a de perıodo pm tal que E = haih.Propiedad 1. Las igualdades 0 = E0 y Em = E son obvias. Sea x ∈ Ek entonces pkh (x) =0 y por lo tanto pk+1h (x) = ph (0) = 0. Esto muestra que Ek ⊆ Ek+1.

Page 172: Algebra Lineal

162 Capıtulo 5. Descomposicion de operadores lineales

Propiedad 2. Sea x ∈ Ek entonces, pk−1h (ph (x)) = 0 o sea, ph (x) ∈ Ek−1. Comprobe­mos que los OLs ∂k : Ek 3 x 7→ ph (x) ∈ Ek−1 son sobreyectivos. Sea qh (a) cualquiervector en Ek−1. Sabemos que pk−1h (qh (a)) =

¡pk−1q

¢h(a) = 0. Como el perh (a) = p

m

entonces, pk−1q es un multiplo de pm . Luego, q es un multiplo de pm−k+1. Como k ≤ mentonces, p es un factor de q. Sea r un polinomio tal que rp = q. Tenemos pkh (rh (a)) =pk−1h (qh (a)) = 0 y por lo tanto rh (a) ∈ Ei+1. Ademas ∂i (rh (a)) = ph (rh (a)) = qh (a)y esto nos dice que ∂k es sobreyectiva.Propiedad 3. Sea x tal que Ek = hxih. Por la propiedad 2 tenemos que ph (x) ∈ Ek−1 y porla invariancia de los nucleos (5.9) hph (x)i ⊆ Ek−1. Sea y ∈ Ek−1. Por la propiedad 2 existez ∈ Ek tal que y = ph (z). Como Ek = hxih obtenemos que existe un polinomio q tal quez = qh (x) y por conmutatividad y = qh (ph (x)). Luego, hph (x)i = Ek−1.Propiedad 4. Por la definicion de a iterando la propiedad 3 obtenemos Ek =

­pm−kh (a)

®h.

Como el perıodo de a es pm entonces el perıodo de pm−kh (a) es pk. Por 5.35 tenemos que

dimEk = grado¡pk¢= k∇.

Propiedad 5. Sea F cualquier subespacio h­invariante de E. Como p es irreducible, entoncesel orden de F es igual a pk con k ≤m y de aquı F ⊆ kerpkh = Ek. Por 5.21 existe un vectorx ∈ F de perıodo pk. Como F es invariante hxih ⊆ F. Por 5.35 y la propiedad 4 tenemosque dim hxih = k∇ = dimEk. Luego, las inclusiones hxih ⊆ F ⊆ Ek son en realidad unaigualdad.

Formas canonicas

Un OL h siempre se descompone en suma directa de sus componentes radicales cıclicas.Por lo tanto, existen bases del espacio vectorial en las cuales la matriz de h es diagonal porbloques. Los bloques son matrices de las componentes de h que son OLCRs. Nuestra tareaahora es encontrar bases en las cuales la matriz de un OLCR es lo mas “simple” posible.

Sea h un OLCR con polinomio mınimo pm y p de grado ∇. No podemos aspirar aencontrar una base en la cual la matriz de h sea diagonal por bloques ya que h es irreducible.Lo mas que podemos hacer es encontrar una base en la cual la matriz de h sea triangularpor bloques. Por 5.43.5, esta triangulacion se tiene que hacer escogiendo en cada conjuntokerpkh \ kerpk−1h un conjunto de vectores Ak que sea LI maximal. En este caso el conjuntoBk = A1 ∪ · · · ∪ Ak es una base de Ek = kerpkh y en particular Bm es una base de todo elespacio.

Haciendo un razonamiento analogo al de 5.2 vemos que ⎛⎜⎜⎝T11 T12 · · · T1m0 T22 · · · T2m· · · · · · · · · · · ·0 0 0 Tmm

⎞⎟⎟⎠la matriz de h en la base Bm tiene la forma que se muestra enel recuadro a la derecha. Observemos que por 5.43.4 se tieneque |A1 | = |A2 | = · · · = |Am | = ∇ y esto nos simplificamucho nuestra imagen de la matriz ya que todos los bloquesTij son cuadrados de orden∇.

Veamos cuales son los OLs de las matrices Tij Denotemos Fk = hAki. El subespacioFk es complementario a Ek−1 en Ek o sea Ek = Ek−1 ⊕ Fk o globalmente tenemos E =F1⊕ · · ·⊕Fm . Luego tenemos proyecciones πk : E→ Fk. Con ellas definimos τij : Fj → Fi

Page 173: Algebra Lineal

163Seccion 5.7 Estructura de los operadores cıclicos radicales

como la restriccion a Fj de πi h. Verbalmente, τij se obtiene tomando un vector en Fjhallandole su imagen por h y proyectando el resultado aFi. El bloque Tij es la matriz de τij enlas bases Aj de Fj y Aj de Fj. No tiene sentido dar argumentos a favor de esto. Simplementehay que entender bien que es la matriz de una transformacion lineal. Observese que si i > ientonces h (Fj) ⊆ Ej y πi (Ej) = 0 y por lo tanto τij es nulo. De aquı los ceros debajo dela diagonal.

Si no le ponemos mas restricciones a los Ak entonces no hay nada mas que decir. Unacondicion que es natural (por 5.43.2) pedirle a los Ak es que esten relacionados por lasigualdades Ak = ph (Ak+1). En este caso obtenemos por extension lineal que las funcionesFi+k 3 x 7→ pkh (x) ∈ Fi son isomorfismos de espacios vectoriales al transformar uno a unola base Ai+k en la base Ai. En este caso se cumple que τi+k,j+k = pkh τij

¡pkh¢−1

. Laprueba de esto la dejaremos en calidad de ejercicio. En el lenguaje de matrices esto quieredecir que Ti+k,j+k = Tij. Mas verbalmente, que los bloques en la diagonal y en cada paralelaa la diagonal coinciden.

Ejercicio 107 Pruebe que τi+k,j+k = pkh τij ¡pkh¢−1

. [183]

Ejercicio 108 Sean E,E0,F y F0, espacios vectoriales; i, j isomorfismosF

i←→ F0

f ↑ ↑ gE ←→

jE0

de espacios vectoriales y f, g transformaciones lineales que hacen con­mutativo el diagrama del recuadro. Pruebe que si A y B son bases de Ey F respectivamente yM es la matriz de f en las bases A y B entonces,la mismaM es la matriz de g en las bases j (A) y i (B).

Para continuar simplificando nuestra matriz necesitamos hacer un aparte para exploraruna idea acerca de los polinomios. No es difıcil probar que cualquier sucesion de polinomiosr0, r1, . . . , ri, . . . que cumpla que el grado de ri es igual a i forma una base del espacio depolinomios. En nuestro caso, estamos interesados en la base

1, x, . . . , x∇−1, p, xp, . . . , x∇−1p, p2, xp2, . . . , x∇−1p2, p3, xp3, . . .

donde ∇ es el grado de nuestro polinomio irreducible p. Si expresamos un polinomio ar­bitrario q en esta base entonces, sacando factores comunes, vemos que existen unos unicospolinomios r, s, . . . , t de grado menor que∇ tales que

q = rp0 + sp1 + · · ·+ tpn.A esta representacion de q la llamaremos expansion de q en potencias de p.

Continuemos con nuestra construccion de una matriz para el OL h. Recordemos que hes cıclico o sea, el espacio tiene un vector a que es h­generador. Luego, nuestro conjunto in­dependiente Am (que contiene ∇ vectores) lo podemos escribir Am = rh (a) , . . . , sh (a)donde r, . . . , s son ciertos polinomios. Escribamos rh (a) segun la expansion de r en poten­cias de p

rh (a) =¡r0p

0¢h(a) +

¡r1p

1¢h(a) + · · ·+ (rnpn)h (a) .

Como A1 = pm−1h (Am) entonces A1 =

©¡rpm−1

¢h(a) , . . . ,

¡spm−1

¢h(a)ª

y la corres­

Page 174: Algebra Lineal

164 Capıtulo 5. Descomposicion de operadores lineales

pondiente expansion de¡rpm−1

¢h(a) en potencias de p es¡

rpm−1¢h(a) =

¡r0p

m−1¢h(a) + (r1p

m)h (a) + · · ·+ (rnpm+n)h (a) .Observese que como a tiene h­perıodo igual a pm entonces, todos los sumandos en la ex­presion anterior excepto el primero son iguales a cero. O sea,

¡rpm−1

¢h(a) no depende de

cuales son los polinomios son r1, . . . , rn. Como T11 depende exclusivamente de quien es A1entonces, si cambiamos algunos de los polinomios r1, . . . , rn no cambiaremos T11 y por lotanto ningun bloque Tii de la diagonal (todos son iguales). Pongamos r1 = . . . = rn = 0.Esto obviamente cambia nuestra matriz pero no la diagonal. Este razonamiento funcionaexactamente igual para cualquiera de los polinomios r, . . . , s que definen a Am . Por esto,postularemos que estos polinomios son todos de grado menor que ∇ y esto no afecta a cua­les pueden ser nuestros bloques en la diagonal. Veamos como esto afecta a los otros bloques.

Los polinomios r, . . . , s, rp, . . . sp son LI porque de

αr+ · · ·+ βs+ γrp+ · · ·+ δsp = 0

obtenemos

α (r)h (a) + · · ·+ β (s)h (a) + γ (rp)h (a) + · · ·+ δ (sp)h (a) = 0

y como Am ∪Am−1 es LI, obtenemos que los coeficientes son cero. El espacio vectorial detodos los polinomios de grado menor que 2∇ tiene dimension 2∇. Como r, . . . , s, rp, . . . spson 2∇ polinomios LI de grado menor que 2∇ entonces, esta es una base de este espacio.

El grado del polinomio xr es∇ < 2∇. Luego, existen escalares tales que

h (rh (a)) = (xr)h (a) = αrh (a) + · · ·+ βsh (a) + γ (rp)h (a) + · · ·+ δ (sp)h (a)

o en otras palabras h (rh (a)) = am +am−1 donde am ∈ hAmi = Fm y am−1 ∈ hAm−1i =Fm−1. Esto quiere decir que la proyeccion de h (rh (a)) a Fm es am , la proyeccion deh (rh (a)) a Fm−1 es am−1 y todas las demas proyecciones son cero.

Este razonamiento funciona exactamente igual para cualquiera de los polinomios r, . . . , s

⎛⎜⎜⎜⎜⎝P M · · · 0 0

0 P · · · 0 0

· · · · · · · · · · · · · · ·0 0 · · · P M

0 0 · · · 0 P

⎞⎟⎟⎟⎟⎠

que definen a Am . Luego, las funciones τim : Fm → Fi son nulas para i ≥ m − 2 ypor lo tanto los bloques T1m, . . . , Tm−2,m y los bloquesen las paralelas a la diagonal correspondientes son todosnulos. Esto simplifica mucho la forma de nuestra matriz.que ahora tiene solamente la diagonal y la paralela mascercana diferentes de cero. Y en definitiva, se ve ahoracomo en el recuadro a la izquierda.

Esta forma nos permite simplificar mucho ciertas cosas. La mas obvia es que para calcu­lar P podemos pensar que nuestro OCLR tiene polinomio mınimo p o sea, m = 1. Y paracalcular P y M podemos limitarnos a un OCLR con polinomio mınimo p2 o sea, m = 2.La segunda, menos obvia, es que el calculo de P y M no depende del operador lineal sinodel polinomio p. Mas detalladamente, debemos escoger una base q1, . . . , q∇ del espaciode polinomios de grado menor que ∇ y ver como se descompone el polinomio xqi somocombinacion lineal de los polinomios q1, . . . , q∇, q1p, . . . , q∇p. Los coeficientes de estacombinacion lineal son las entradas de la i­esima columna de P yM.

Ahora, veremos tres casos particulares:∇ = 1, p es cuadratico en R [x] y finalmente es­

Page 175: Algebra Lineal

165Seccion 5.7 Estructura de los operadores cıclicos radicales

tudiaremos que ocurre cuando tomamos q1, . . . , q∇ igual a la base canonica 1, x, . . . , x∇−1.

∇ = 1

Si ∇ = 1 entonces hay que escoger un polinomio de grado ⎛⎜⎜⎜⎜⎝λ 1 · · · 0

0 λ · · · 0

· · · · · · · · · · · ·0 0 · · · 1

0 0 · · · λ

⎞⎟⎟⎟⎟⎠0.Obviamente escogeremos q = 1. Como p es monico de grado1 lo podemos escribir en la forma p = x − λ. Tenemos xq =x = λ+(x− λ) = λq+1qp. Luego, P = λ yM = 1 y nuestramatriz se ve como en el recuadro a la derecha. A las matrices deeste tipo las llamaremos celdas de Jordan.

El caso ∇ = 1 nos parece ya muy sencillo pero es probablamente, el mas importante.Si nuestro campo es el de los numeros complejos entonces, por el Teorema de Gauss todopolinomio irreducible es de grado 1. Luego,∇ = 1 es el caso general si los escalares son loscomplejos.

Combinando el Teorema de Descomposicion en Componentes Radicales Cıclicas (5.40)con las celdas de Jordan obtenemos el siguiente.

Forma normal de Jordan

Si h es un operador lineal en un espacio vectorial finito dimensional sobreel campo de los numeros complejos entonces, existe una base del espaciovectorial en la cual la matriz del operador es diagonal por bloques y losbloques son celdas de Jordan.

Camille Jordan (Lyon 1838 ­ Parıs 1922) Matematico e ingeniero. Co­nocido tanto por su trabajo sobre la teorıa de los grupos como por suinuyente libro “Cours d’analyse”. Su libro “Traite des substitutionset des equations algebriques” publicado en 1870 contiene su descubri­miento de las ahora conocidas como formas normales de Jordan. Fue elprimer matematico que realmente entendio a Galois despues de la pu­blicacion postuma de los trabajos de Galois en 1846 y contribuyo nota­blemente a que la Teorıa de Grupos y la Teorıa de Galois fueran partede la corriente principal de las matematicas.

∇ = 2

Nos interesaremos en los polinomios irreducibles de grado 2 con coefi­ µa −b

b a

¶cientes reales. Sabemos que son de la forma (x− a)2 + b2 con b 6= 0. Unamatriz cuyo polinomio mınimo es de esta forma es la del recuadro a la derecha.

Como no hay un candidato mas simple para nuestros bloques diagonales aquı haremosµy u

z v

¶ las cosas al revez. Buscaremos nuestros polinomios para que P sea igual a estamatriz y veremos que matriz M podemos obtener. Denotemos las entradas dela matriz M como se muestra a la izquierda. Denotemos p = (x− a)

2+ b2.

Necesitamos dos polinomios de grado 1 para formar la base q = αx+ β y r = γx+ δ.

Page 176: Algebra Lineal

166 Capıtulo 5. Descomposicion de operadores lineales

Nuestra incognitas α,β,γ, δ, y, z, u y v deben cumplir dos ecuaciones polinomiales

xq = aq+ br+ ypq+ zprxr = ar− bq+ upq+ vpr

.

Igualando los coeficientes en las potencias de x obtenemos 8 ecuaciones. De estas, hay 2que son combinacion lineal de las demas por lo que tenemos 6 ecuaciones y 8 incognitas.Por esto, tomaremos α y γ como parametros. Resolviendo el sistema, obtenemos una unicasolucion:

β = bγ− aα , y =αγ

b (α2 + γ2), u =

γ2

b (α2 + γ2)

−δ = aγ+ bα , z =−α2

b (α2 + γ2), v =

−αγ

b (α2 + γ2).

Aquı tenemos la libertad de escoger α y γ y para cada una de ellas obtendrıamos matri­⎛⎜⎜⎝a −b 0 1/b

b a 0 0

0 0 a −b

0 0 b a

⎞⎟⎟⎠ces M diferentes. Tomemos α = 0 y γ = 1 y obtenemos q = b,r = x − a, u = 1/b y las otras tres entradas de M son cero.Luego, si h : R4 → R4 es un OLCR con polinomio mınimo³(x− a)

2+ b2

´2tal que b 6= 0 entonces hay una base de R4

en la cual su matriz es igual a la del recuadro de la izquierda.

Lo que no nos gusta es el 1/b en la esquina superior derecha. ¿Podemos cambiarlo por1? La respuesta es si, pero para esto necesitamos cambiar la base de una manera no previstaen la teorıa general que desarrollamos. Nuestra base del espacio de polinomios es

b, x− a, bp, (x− a)p

y si la cambiamos porb, x− a,

bp

b, (x− a)

p

btodo permanece igual excepto que el 1/b se convierte en 1.

La clave del porque esto funcionara en general es que en nuestra teorıa nunca realmentese uso que p fuera monico.

Por esto, si cambiamos en la base p por p/b ⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a −b 0 1 · · · 0 0

b a 0 0 · · · 0 0

0 0 a −b · · · 0 0

0 0 b a · · · 0 0

· · · · · · · · · · · · · · · · · · · · ·0 0 0 0 · · · 0 1

0 0 0 0 · · · 0 0

0 0 0 0 · · · a −b0 0 0 0 · · · b a

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

entonces en nuestra matriz todo lo que esta porarriba de los bloques en la diagonal se multipli­cara por b.

Luego, si h : R2m → R2m es un OLCR

con polinomio mınimo³(x− a)

2+ b2

´mtal

que b 6= 0 entonces hay una base de R2m enla cual su matriz es igual a la del recuadro. Alas matrices de este tipo las llamaremos celdascuadraticas.

Como en los reales tenemos polinomios irreducibles de dos tipos: lineales y cuadraticosentonces la forma normal es un poco mas complicada.

Page 177: Algebra Lineal

167Seccion 5.7 Estructura de los operadores cıclicos radicales

Forma normal real

Si h es un operador lineal en un espacio vectorial finito dimensional sobreel campo de los numeros reales entonces, existe una base del espacio vecto­rial en la cual la matriz del operador es diagonal por bloques y los bloquesson celdas de Jordan o celdas cuadraticas.

Usando la base canonica

Ahora regresemos al caso general. Sea p irreducible de grado ∇. El conjunto de po­linomios

©1, x, . . . , x∇−1

ªes una base del espacio de polinomios de grado menor que ∇.

Denotemos qi = xi a los elementos de esa base.

Para k ≤ ∇ − 2 tenemos que xqi = qi+1. Si p = x∇ − α∇−1x∇ − · · · − α1x − α0

entonces,xq∇−1 = x

∇ = α0q0 + α1q1 + · · ·+ α∇−1q∇−1 + 1q0p

lo que quiere decir que nuestra matriz P es la matriz acompanante del polinomio p y nuestramatrizM es la que tiene un 1 en la esquina superior derecha y todas sus demas entradas soncero. O sea, nuestro OL (param = 2) se puede representar con la siguiente matriz⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 ... 0 α01 ... 0 α1... ... ... ...

0 ... 1 α∇−1

0 ... 0 1

0 ... 0 0

... ... ... ...

0 ... 0 0

00 ... 0 α01 ... 0 α1... ... ... ...

0 ... 1 α∇−1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠Debe ser claro el tipo de la matriz para m mas grandes. A una matriz de este tipo la

llamaremos celda canonica. Observese que las celdas canonicas para ∇ = 1 son celdas deJordan. Sin embargo, para∇ = 2 las celdas canonicas y las celdas cuadraticas son diferentes.Efectivamente, supongamos m = 2. Como p = (x− a)2 + b2 = x2 − 2ax + c dondec = a2 + b2 entonces, en la desigualdad⎛⎜⎝ 0 −c 0 1

1 2a 0 0

0 0 0 −c0 0 1 2a

⎞⎟⎠ 6=

⎛⎜⎝ a −b 0 1

b a 0 0

0 0 a −b0 0 b a

⎞⎟⎠la celda canonica es la de la izquierda y la celda cuadratica es la de la derecha. La ventaja delas celdas cuadraticas es que son mas faciles de intuir geometricamente mediante rotaciones.La ventaja de las celdas canonicas es que siempre funcionan.

Page 178: Algebra Lineal

168 Capıtulo 5. Descomposicion de operadores lineales

Forma normal canonica

Si h es un operador lineal en un espacio vectorial finito dimensional sobrecualquier campo entonces, existe una base en la cual la matriz del operadores diagonal por bloques y los bloques son celdas canonicas.

5.8 Polinomio caracterıstico

Rectas invariantes

Los subespacios invariantes no triviales mas sencillos que nos podemos imaginar son losde dimension 1 o sea las rectas por el origen. Si h : E → E es un OL y F es invariantede dimension 1 entonces la restriccion de h a F es una homotecia. Sea a una base de F.Entonces, existe un escalar λ (la razon de la homotecia) tal que h (a)= λa.

Recıprocamente, supongamos que existen un escalar λ y un vector no nulo a tales queh (a)= λa entonces, al vector a se le llama vector propio del operador h y al escalar λ sele llama valor propio de h. Tambien decimos que λ es el valor propio correspondiente alvector propio a. Observese que el valor propio correspondiente a un vector es unico pues deλa = λ0a obtenemos (λ− λ0)a = 0 y como a 6= 0 esto implica que λ = λ0.

La recta hai es h­invariante si y solo si a es un vector propio de h.

Prueba. Ya vimos la parte “solo si”. Supongamos que a es un vector propio. Sea λ sucorrespondiente valor propio. Por linearidad de h, para cualquier escalar α se cumple queh (αa) = αh (a) = α (λa) = (αλ)a y esto significa que hai es h­invariante.

El polinomio caracterıstico de un operador lineal

Recordemos que el determinante de un OL esta bien definido como el determinante desu matriz en una base arbitraria.

El hecho de que h (a)= λa lo podemos expresar como que el operador λI−h evaluadoen el vector a es cero. O sea el vector esta en el nucleo de λI − h. Esto quiere decir queker (λI− h) es el conjunto de todos los vectores propios correspondientes a λ. Sabemos queker (λI− h) es no vacıo si y solo si det (λI− h) = 0. Luego, λ es un valor propio de h si ysolo si det (λI− h) = 0.

Ası para calcular los valores propios de h podrıamos probar todos los elementos λ delcampo y comprobar si det (λI− h) = 0. Esta estrategia es imposible de realizar si el campoK es infinito. Por esto es mejor considerar la funcionK 3 x 7→ det (xI− h) ∈ K y encontrarsus raices.

Page 179: Algebra Lineal

169Seccion 5.8 Polinomio caracterıstico

det (xI− h) es un polinomio monico de grado dimh en la variable x.

Prueba. Sabemos que el determinante de un OL no depende de la base en el cual se calcule.Tomemos una base cualquiera N del espacio vectorial. Tenemos |N| = dimh. Sea αNN lamatriz de h en la base N. La matriz de xI − h en la base N es βNN = xδNN − αNN dondeδNN es el delta de Kronecker (la matriz identidad). Las entradas de βNN son βii = x − αiiy βij = −αij para cualquier j 6= i.

El determinante lo calculamos por la definicion

detβNN =Xσ∈SN

sgnσYi∈N

βiσi .

Como los βij son polinomios, el producto y la suma de polinomios son polinomios, tenemosque detβNN es un polinomio. Observemos ademas que βNN solo contiene la variable x en ladiagonal. Por esto, la potencia mas grande de x en detβNN se obtiene cuando la permutacionσ es la identidad, o sea en el productoY

i∈Nβii =

Yi∈N

(x− αii) .

Aplicando la ley distributiva vemos que es de grado |N| y tiene coeficiente principal 1.

Al polinomio det (xI− h) se le llama polinomio caracteristico de h. De esta manera,los valores propios de h son las raices del polinomio caracterıstico. Si αNN es la matrizde h en la base N entonces, los vectores propios correspondientes a un valor propio λ sepueden hallar resolviendo el sistema de ecuaciones lineales (λδNN − αNN)aN = 0N . Estees un sistema de ecuaciones lineales homogeneo y su conjunto de soluciones es ker (λI− h).El conjunto ker (λI− h) es un subespacio invariante que se conoce como el subespaciopropio correspondiente al valor propio λ. La restriccion de h a un subespacio propio es unahomotecia. De hecho, los subespacios propios son los subespacios invariantes mas grandesen los que h es una homotecia.

Ejercicio 109 Demuestre que el coeficiente en xn−1 del polinomio caracterıstico multipli­cado por −1 es la suma de las entradas diagonales de la matriz del operador en cualquierbase. A este escalar se le llama la traza del operador.

El polinomio caracterıstico y el polinomio mınimo

Si h = f ⊕ g entonces, el polinomio caracterıstico de h esigual al producto de los polinomios caracterısticos de f y g.

Page 180: Algebra Lineal

170 Capıtulo 5. Descomposicion de operadores lineales

Prueba. Sean F y G los subespacios invariantes en los cuales estan µM 0

0 M0

¶definidas f y g. Por 5.3, si A es una base de F y B es una base de Gentonces, en la base de todo el espacio A ∪ B, la matriz de xI − h esdiagonal por bloques. El determinante de cualquier matriz diagonal por bloques es igual alproducto de los determinantes de los bloques diagonales. El determinante del bloque superiorizquierdo es el de xI − f o sea, el polinomio caracterıstico de f. El determinante del bloqueinferior derecho es el de xI− g o sea, el polinomio caracterıstico de g. ¥

Si h es cıclico entonces, los polinomiosmınimo y caracterıstico de h coinciden.

Prueba. Si h es cıclico con polinomio mınimo ⎛⎜⎜⎜⎜⎝x 0 ... 0 −α0−1 x ... 0 −α1... ... ... ... ...

0 0 ... x −αn−20 0 ... −1 x− αn−1

⎞⎟⎟⎟⎟⎠p = xn − αn−1x

n−1 − · · · − α1x − α0 entonces de5.34 sabemos que en cierta base la matriz de h es lamatriz acompanante de p que denotaremos porA. Pordefinicion de matriz acompanante la matriz xI−A esla que se muestra a la derecha. El determinante de estamatriz es el polinomio caracterıstico de h.

Calculemoslo. Triangulando con el metodo de eliminacion de Gauss obtenemos que sudeterminante es igual al de la matriz⎛⎜⎜⎜⎜⎝

x 0 ... 0 −α00 x ... 0 −α1 − α0x

−1

... ... ... ... ...

0 0 ... x −αn−2 − αn−3x−1 − · · ·− α1x

−n+3 − α0x−n+2

0 0 ... 0 x− αn−1 − αn−2x−1 − · · ·− α1x

−n+2 − α0x−n+1

⎞⎟⎟⎟⎟⎠ .Multiplicando las entradas en la diagonal obtenemos p.

Teorema de Hamilton­Caley­Frobenius

.51

5 El polinomio caracterıstico es un multiplo del polinomio mınimo.Estos dos polinomios tienen los mismos factores irreducibles.

Prueba. Por el Teorema de Descomposicion en Componentes Radicales Cıclicas (5.40) todoOL tiene una descomposicion en componentes cıclicas. Por 5.50 los polinomios mınimos ycaracterısticos coinciden en cada una de las componentes. Por 5.49 el polinomio caracterısti­co es el producto de los de las componentes. Por 5.36 el polinomio mınimo es el mınimocomun multiplo de los de las componentes. El mınimo comun multiplo es siempre un divi­sor del producto. El mınimo comun multiplo siempre tiene los mismos factores irreduciblesque el producto.

La primera afirmacion se conoce en la literatura como Teorema de Hamilton­Caley yes equivalente por definicion de polinomio mınimo a que el polinomio caracterıstico de h

Page 181: Algebra Lineal

171Seccion 5.8 Polinomio caracterıstico

evaluado en h es el operador nulo. La segunda se conoce como Teorema de Frobenius. Unacuriosidad historica es que fue Frobenius el que dio la primera prueba completa del Teoremade Hamilton­Caley.

Es posible dar muchas diferentes demostraciones del Teorema de Hamilton­Caley queno pasan por la descomposicion de un operador en componentes cıclicas (que es el resultado“duro” de esta teorıa). La idea de una de ellas es tomarse un vector a, observar que en elsubespacio invariante haih los polinomios caracterıstico y mınimo coinciden y por lo tanto elpolinomio caracterıstico esta en el h­anulador de a. Como el vector a es arbitrario entoncesel polinomio caracterıstico esta en el h­anulador de todo el espacio y por lo tanto es unmultiplo del polinomio mınimo.

El Teorema de Frobenius se prueba facilmente sobre los complejos ya que lo esen­cial aquı es saber que si p es un factor irreducible del polinomio caracterıstico entonces,ker (ph) 6= ∅ o sea, existen vectores de perıodo p. Esto es inmediato en el caso complejoporque todos los irreducibles son de grado 1 y todo valor propio tiene al menos un vectorpropio correspondiente. En el caso general, para que esto funcione, es necesaria la introduc­cion del campo de descomposicion de un polinomio y esto queda fuera de los objetivos deeste libro.

Por otro lado, el saber a priori la veracidad de estos dos teoremas no ayuda en muchopara la prueba de la existencia de h­bases, o lo que es lo mismo, la existencia de una des­composicion en componentes cıclicas.

Ejercicio 110 Un OL es diagonalizable si existe una base en la cual su matriz es diagonal.Pruebe que un OL es diagonalizable si y solo si su polinomio mınimo es un producto dediferentes polinomios de grado 1.Ejercicio 111 Un OL es triangulable si existe una base ordenada en la cual su matriz estriangular. Pruebe que un OL es triangulable si y solo si su polinomio caracterıstico es unproducto de polinomios de grado 1. En particular, todo OL complejo es triangulable.

Page 182: Algebra Lineal

172

Page 183: Algebra Lineal

Ejercicio 1 (Seccion 1.1 pagina 2) La suma y el producto estan bien definidas en N, Z,Q, R y C. La resta en Z, Q, R y C. La division en Q, R y C. La exponenciacion es mascomplicada ya que aunque esta bien definida en N no esta bien definida en Z, Q y R ya

que¡2−1 = 1

2/∈ Z¢,³21/2 =

√2 /∈ Q

´y³(−1)

1/2= i /∈ R

´. Por otro lado, la exponencia­

cion si esta bien definida en R+ (los mayores que cero). Para ver esto. usamos las formulas(p/q)

a= pa/qa, ap/q = q

√ap, (lımi→∞ ai)b = lımi→∞ abi y finalmente si c = lım

i→∞ aientonces bc = lımi→∞ bai . Con ellas reducimos la prueba a demostrar que n

√m es un re­

al para cualesquiera (diferentes de cero) naturales n y m. Esto ultimo es equivalente a verque la funcion f (x) = xn −m alcanza el valor cero. Como f (x) es continua, f (1) ≤ 0 yf (m) ≥ 0 esto necesariamente tiene que ocurrir. No es difıcil ver, que la funcion y = ax

es estrictamente creciente en la variable x por lo que esta tiene una funcion inversa log aydefinida en R+. Las operaciones maximo comun divisor y mınimo comun multiplo estandefinidas para los naturales (y polinomios).

Ejercicio 2 (Seccion 1.1 pagina 2) Una operacion unaria en el conjunto A es una funcionde A en A. Por ejemplo para cada entero x hay otro entero −x. De esta manera la operacionx 7→ −x es una operacion unaria. Otros ejemplos comunes son el hallar el complemento deun conjunto o el hallar el complejo conjugado de un numero complejo.

Ejercicio 3 (Seccion 1.1 pagina 2) El area del triangulo con lados a, b y c no es una opera­cion ternaria en R ya que no para cualesquiera a, b y c existe un triangulo con lados de esaslongitudes.

Ejercicio 4 (Seccion 1.1 pagina 2) La formula (a+ b) (x+ y) se expresa en notacion sufijacomo ab+ xy+×.

Ejercicio 5 (Seccion 1.1 pagina 3) La suma, el producto, el maximo comun divisor el mıni­mo comun multiplo y el maximo son operaciones conmutativas. Las demas no lo son.

Ejercicio 6 (Seccion 1.1 pagina 3) Ya vimos en el texto que la exponenciacion no es asocia­tiva. Observemos que 4 = 4− (2− 2) 6= (4− 2)−2 = 0 por lo que la resta no es asociativa.Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la division no es asociativa. Tampocoes asociativa el logaritmo. El resto de las operaciones si son asociativas.

Ejercicio 7 (Seccion 1.1 pagina 4) La resta no tiene elemento neutro ya que de a − e = a

se sigue que e = 0 pero por otro lado 0 − a = −a 6= a. Lo mismo ocurre con la division.La operacion de exponenciacion no tiene elemento neutro ya que e1 = 1 ⇒ e = 1 pero

Page 184: Algebra Lineal

174 Soluciones de ejercicios selectos

12 = 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de la suma es el cero, el neutro delproducto es el uno. El 1 tambien es el neutro para el mınimo comun multiplo. La operacionde maximo comun divisor no tiene neutro.

Ejercicio 8 (Seccion 1.1 pagina 5) Es importante senalar que el inverso tiene sentido solosi hay neutro. El inverso de a para la suma es −a, para el producto es 1

a. Aunque el mınimo

comun multiplo tiene neutro 1, esta operacion no tiene inversos.

Ejercicio 9 (Seccion 1.1 pagina 5) Fijemonos en un conjunto U y en el conjunto de todoslos subconjuntos de U que denotaremos por 2U . En 2U estan bien definidas las operacionesde union e interseccion de conjuntos. Estas operaciones cumplen las propiedades requeridascomo se puede observar en los dos siguientes diagramas de Venn.

A

B

C

A ∩ (B ∪ C) == (A ∩ B) ∪ (A ∩ C)

A

B

C

A ∪ (B ∩ C) == (A ∪ B) ∩ (A ∪ C)

Ejercicio 11 (Seccion 1.2 pagina 8) No porque (1, 0)× (0, 1) = (0, 0) lo que muestra queK2 no es dominio de integridad y por lo tanto no es un campo.

Ejercicio 12 (Seccion 1.2 pagina 9) Supongamos que√n es un racional. Decomponiendo

su numerador y denominador en factores primos obtenemos que√n = pn11 p

n22 . . . p

ntt para

ciertos naturales primos p1p2 . . . pt y ciertos numeros enteros n1, n2, . . . , nt. Pero entonces,n = p2n11 p2n22 . . . p2ntt y por lo tanto ∀i ∈ 1, ..., t 2ni ≥ 0. Luego, todos los ni sonnaturales lo que significa que

√n es natural.

Ejercicio 13 (Seccion 1.2 pagina 9) Tenemos 1 <√2 < 2 y por lo tanto

√2 no es natural.

Por el ejercicio anterior, no es racional.

Ejercicio 14 (Seccion 1.2 pagina 9) Siempre podemos medir un segmento de recta concada vez mas precision (al menos teoricamente). Cada medicion nos da un numero racional.Luego, la longitud del segmento es un lımite de racionales por lo que es un real.

Ejercicio 18 (Seccion 1.3 pagina 12) Por 1.1.4 sabemos que f (0) = 0 y f (1) = 1. Si f (a) =0 y a no fuera el cero de A entonces tendrıamos 1 = f (1) = f

¡aa−1

¢= f (a) f

¡a−1

¢=

0f¡a−1

¢= 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0. Luego, si f (x) = f (y)

entonces, f (x− y) = 0 y por lo tanto x = y.

Ejercicio 21 (Seccion 1.4 pagina 16)

Page 185: Algebra Lineal

175Soluciones de ejercicios selectos

La tabla de multiplicar en Z5 es la derecha. Luego el elemento in­• 0 1 2 3 40 0 0 0 0 01 0 1 2 3 42 0 2 4 1 33 0 3 1 4 24 0 4 3 2 1

verso de 1 es 1, el elemento inverso de 2 es 3, el elemento inversode 3 es 2 y el elemento inverso de 4 es 4. Observese que en la tablade multiplicar de Z5\0 en cada columna y en cada renglon nos en­contramos con todos los elementos posibles. Esto es una propiedadde las operaciones binarias de los grupos. De hecho, un conjuntocon una operacion binaria asociativa y con elemento neutro es ungrupo si y solo si su tabla de multiplicar cumple esta propiedad.

Ejercicio 22 (Seccion 1.4 pagina 16) SeaK un campo yG un subgrupo finito de (K \ 0, •).Si x ∈ G entonces al natural n mas pequeno tal que xn = 1 lo llamaremos orden de x.En este caso todos los elementos de hxi =

©1, x, x2 . . . xn−1

ªson diferentes y la funcion

f : (hxi , •) 3 xi 7→ i ∈ (Zn,+) es un isomorfismo de grupos. Luego, lo que hay que probares que en G existe un elemento de orden q = |G|.

1. Sea F un subgrupo de G. Para x ∈ G el conjunto xF = xf | f ∈ F se le llama claselateral de x. Tenemos que si f ∈ F entonces fF = F ya que F es un subgrupo. De

(y ∈ xF)⇒ (y = xf)⇒ ¡x = yf−1

¢⇒ ¡xF = yf−1F

¢⇒ (xF = yF)

(y ∈ xF ∩ zF)⇒ (xF = yF = zF)

obtenemos que las clases laterales forman una particion de G. La funcion F 3 f 7→xf ∈ xF es la inversa de xF 3 xf 7→ f ∈ F y por lo tanto cualquier clase lateral tiene lamisma cantidad de elementos que F. Luego |F| es un divisor de |G| y el cociente |G|÷|F|es el numero de clases laterales. Este hecho se conoce como Teorema de Lagrange.En particular, el orden de cada x ∈ G es un divisor de q = |G|.

2. Sea x de orden n y denotemos ϕ(n) el numero de elementos de orden n en hxi.Como x tiene orden n entonces, ϕ(n) ≥ 1. La funcion ϕ(n) no depende de x puescualesquiera dos x, y de orden n son tales que los grupos hxi y hyi son isomorfos.Luego, ϕ(n) solo depende del natural n.Como cualquier z ∈ hxi tiene cierto orden que por el Teorema de Lagrange es undivisor de n y el numero de elementos en hxi es n entonces,

Pd|n ϕ (d) = n donde

la suma recorre todos los divisores de n. A ϕ se la conoce como Funcion de Euler.3. Denotemos por ρ (n) al numero de elementos de orden n en nuestro grupo G. Como

cualquier z ∈ G tiene cierto orden que por el Teorema de Lagrange es un divisor de|G| = q entonces,

Pd|q ρ (d) = q donde la suma recorre los divisores de q.

4. Si en G no hay un elemento de orden n entonces ρ (n) = 0. Si por el contrario x ∈ Gtiene orden n entonces,∀y = xk ∈ hxi tenemos que yn =

¡xk¢n= (xn)k = 1. Luego,

todos losn elementos de hxi son raices del polinomio zn−1. Como el polinomio zn−1no puede tener mas de n raices en el campoK (vease el resultado 1.18) entonces, todoslos elementos de G de orden n estan en hxi y por lo tanto ρ (n) = ϕ (n). De aquı,para cualquier n se tiene que ϕ (n)− ρ (n) ≥ 0.

Page 186: Algebra Lineal

176 Soluciones de ejercicios selectos

5. De (2) y (3) tenemos que

0 =Xd|q

ϕ (d)−Xd|q

ρ (d) =Xd|q

(ϕ (d)− ρ (d))

y como por (4) ϕ (d) − ρ (d) ≥ 0 entonces, para cualquier d divisor de q = |G|

tenemosϕ (d) = ρ (d). En particular, ρ (q) = ϕ (q) ≥ 1. Esto significa que enG hayun elemento de orden q = |G|.

Ejercicio 23 (Seccion 1.4 pagina 16) La prueba de que es un anillo conmutativo es direc­ta de las definiciones de suma y producto. Para ver que es un campo observamos que elproducto (a, b) (x, y) = (ax+ 7by, ay+ xb) tiene neutro (1, 0). Para hallar los inversosmultiplicativos resolvemos el sistema de ecuaciones lineales¯

ax+ 7by = 1

ay+ xb = 0

que tiene como solucion unica x = a/∆ , y = −b/∆ donde ∆ = a2 − 7b2. Nos quedacomprobar que si ∆ = 0 entonces a = b = 0. Efectivamente, observando la siguiente tablacalculada en Z11

x 1 2 3 4 5 6 7 8 9 10

x2 1 4 9 5 3 3 5 9 4 1

7x2 7 6 8 2 10 10 2 8 6 7

vemos que ningun a2 puede ser igual a un 7b2.

Ejercicio 24 (Seccion 1.5 pagina 18) No, porque t no es un elemento del campo al contrario,t es un numero natural. Lo que quiere decir tx es x+ · · ·+ x , t veces.

Ejercicio 25 (Seccion 1.5 pagina 18) De que a = −a obtenemos que

0 = a+ a = 1a+ 1a = (1+ 1)a

Como todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si lacaracterıstica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la afirmacion delejercicio es cierta. Si la caracterıstica del campo es 2 entonces, 1 + 1 = 0 y por lo tantoa = −a para cualquier elemento del campo.

Ejercicio 26 (Seccion 1.6 pagina 21) En cualquier campo (xy)p = xpyp. Por el binomio

de Newton (x+ y)p =pXk=0

p!

k! (p− k) !xkyn−k. El coeficiciente binomial p!/k! (p− k) !

se divide entre p si k ∈ [1, ..., n− 1]. Esto quiere decir (ver 1.15) que en un campo decaracterıstica p todos los sumandos del binomio de Newton excepto el primero y el ultimoson cero. Luego (x+ y)p = xp + yp. Esto muestra que x 7→ xp es un morfismo. Comotodo morfismo de campos es inyectivo (ver ejercicio 18) y toda funcion inyectiva de unconjunto finito en si mismo es sobreyectiva obtenemos que este morfismo es automorfismopara campos finitos.

Ejercicio 1.18 (Seccion 1.7 pagina 21) En los quaterniones (x− i) (x+ i) = x2 − ix +

Page 187: Algebra Lineal

177Soluciones de ejercicios selectos

xi + 1 6= x2 + 1 lo que quiere decir que no es posible definir correctamente el producto depolinomios.

Ejercicio 27 (Seccion 1.7 pagina 25) Idea: todo lo demostrado para polinomios se traducetal cual para los enteros. La unica diferencia es que en lugar de usar el concepto de grado deun polinomio hay que usar el concepto de valor absoluto de un entero.

Ejercicio 28 (Seccion 1.7 pagina 27) Si i < k entonces la suma es vacıa y por lo tanto escero. Si i = k entonces, hay un solo sumando en el cual i = j = k y este sumando es uno.Supongamos i > k. Haciendo los cambios de variables t = j− k y n = i− k obtenemos

iXj=k

(−1)j−k

µj

k

¶µi

j

¶=

nXt=0

(−1)t (n+ k) !

k!t! (t− n) !=

µn+ k

k

¶ nXt=0

(−1)t

µn

t

¶y esta ultima expresion es cero ya que

Pn

t=0 (−1)t¡n

t

¢es el binomio de Newton de (x− 1)n

evaluado en x = 1.

Ejercicio 29 (Seccion 1.7 pagina 27) De la prueba del Desarrollo de Taylor (1.22) sabemosque si k ∈ 0, . . . , n entonces, ak =

Pn

j=k bkjαj donde bkj =¡j

k

¢(−x0)

j−k. Por el ejercicioanterior tenemosPn

j=k bkjβj =Pn

i=k

Pi

j=k (−1)j−k¡j

k

¢¡i

j

¢aix

i−k0 ==

Pn

i=k δikaixi−k0 = ak

Luego,Pn

j=k bkj¡βj − αj

¢= 0. Esto es un sistema de ecuaciones lineales con incogni­

tas γj =¡βj − αj

¢. Definiendo bkj = 0 para k > j nuestro sistema se escribe comoPn

j=0 bkjγj = 0. La matriz de este sistema es triangular y de determinante 1 ya que bkk = 1.Luego el sistema tiene solucion unica βj = αj para j ∈ 0, . . . , n.

Ejercicio 30 (Seccion 1.7 pagina 27) Formalmente (¡y en cualquier campo!) la derivada dep (x) =

Pn

i=0 aixi es p(1) (x) =

Pn

i=1 iaixi−1 y por lo tanto p(j) (x) =

Pn

i=ji!

(i−j)!aix

i−j =

j!Pn

i=j

¡i

j

¢aix

i−j0 . Del ejercicio anterior obtenemos la prueba.

Ejercicio 31 (Seccion 1.8 pagina 29) Las raices del polinomio zn − 1 son xk = cosk2πn+

i sink2πn

para k ∈ 0, . . . , n− 1. Tenemos

xkxm = cos

µ(k+m)

n

¶+ i sin

µ(k+m)

n

¶= cos `

n+ i sin `

n= x`

donde ` = (k+m)modn. Para el producto, estas raices forman un grupo isomorfo a Zn.

Ejercicio 32 (Seccion 1.8 pagina 29) Sean a, b y c tres lados de un triangulo. Por simetrıasolo tenemos que probar que |a− b| ≤ c. Podemos suponer que a ≥ b. Por la desigualdaddel triangulo b+ c ≥ a y de aquı c ≥ a− b.

Ejercicio 33 (Seccion 1.8 pagina 32) Para usar°°¡1− tk¢p (z0)°° = ¡1− tk¢ kp (z0)k.

Ejercicio 34 (Seccion 1.9 pagina 33) La propiedad 1 es inmediata de la definicion. Para lapropiedad 2 vemos

Page 188: Algebra Lineal

178 Soluciones de ejercicios selectos

(a+ bi) + (c+ di) = (a+ c) + (b+ d) i =

= (a+ c)− (b+ d) i = (a− bi) + (c− di) = (a+ bi) + (c+ di)Finalmente, para probar la propiedad 3 vemos que

(a+ bi) (c+ di) = (ac− bd) + (ad+ bc) i =

= (ac− bd)− (ad+ bc) i = (a− bi) (c− di) = (a+ bi) (c+ di)

Ejercicio 35 (Seccion 1.10 pagina 34) Tenemos ab = ba por lo que (a, b) ∼ (a, b) lo quesignifica que la relacion es reexiva. De ad = bc obtenemos cb = da. Esto significa quesi (a, b) ∼ (c, d) entonces (c, d) ∼ (a, b) por lo que la relacion es simetrica. Si ad = bc ycf = de entonces adcf = bcde por lo que af = be. Esto significa que si (a, b) ∼ (c, d) y(c, d) ∼ (e, f) entonces (a, b) ∼ (e, f) por lo que la relacion es transitiva.

Ejercicio 36 (Seccion 1.10 pagina 36) El campo de fracciones Z2 (x) contiene a Z2 y por lotanto es de caracterıstica 2. Este campo tiene evidentemente un numero infinito de elementos.

Ejercicio 37 (Seccion 1.10 pagina 36) El campo de fracciones de un campo es el mismo.

Ejercicio 38 (Seccion 1.11 pagina 37) (a+ b) = a¡1+ a−1b

¢= a

¡a−1b+ 1

¢= (b+ a) .

Ejercicio 39 (Seccion 1.11 pagina 38) Las seis igualdades necesarias se pueden obtener dela siguiente manera

(ijk = −1) ⇒ (ijkk = −k) ⇒ (ij = k) ⇒ (ijj = kj) ⇒ (kj = −i)(ijk = −1) ⇒ (iijk = −i) ⇒ (jk = i) ⇒ (jkk = ik) ⇒ (ik = −j)

(ijk = −1) ⇒ (kijkkj = −kkj) ⇒ (ki = j) ⇒ (kii = ji) ⇒ (ji = −k)

Ejercicio 40 (Seccion 1.11 pagina 38) Por definicion de producto de quaterniones³(a+ bi+ cj+ dk)

2= −1

´⇔ µa2 −

¡b2 + c2 + d2

¢= −1

ab = ac = ad = 0

¶.

Como a es un real b2 + c2 + d2 6= 0 por lo que cualquier solucion de estas ecuacionesrequiere que a = 0.

Ejercicio 42 (Seccion 2.1 pagina 40)El triangulo abc es semejante al triangulo uvw de hecho son con­

a

b c

u

w v

gruentes porque ac = uw (lados opuestos de un paralelogramo tie­nen la misma longitud). Luego bc = wv y por lo tanto la coordenadaen x del vector−→au es igual a la de−→awmas bc. La prueba para la otracoordenada es igual.

Ejercicio 43 (Seccion 2.1 pagina 40) Tecnicamente hablando no ya que en el Capıtulo 1definimos una operacion binaria como una funcion A × A → A y la multiplicacion de unescalar por un vector es una funcion del tipo B × A → A. Pero si es una operacion binariaen el sentido de que tiene dos argumentos.

Page 189: Algebra Lineal

179Soluciones de ejercicios selectos

Ejercicio 44 (Seccion 2.1 pagina 40) En la expresion α (βa) se utiliza un solo tipo deoperacion (la de un escalar por un vector). En la expresion (αβ)a se utilizan dos operacionesdiferentes primero la del producto de escalares y despues la de un escalar por un vector.

Ejercicio 46 (Seccion 2.2 pagina 41) Si α 6= 0 entonces tiene inverso y por lo tanto

αa = 0⇒ a = α−1αa = α−10 = 0

Ejercicio 47 (Seccion 2.2 pagina 41) El mınimo numero de elementos en un espacio vecto­rial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y efectivamenteun conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campodefiniendo α0 = 0 para cualquier α en el campo.

Ejercicio 49 (Seccion 2.3 pagina 49) Supongamos que x ∈ hN ∪ yi\ hNi. Entonces, existeuna combinacion lineal x = αyy +

Pi∈N αii. Tenemos que αy 6= 0 (ya que x /∈ hNi).

Luego, despejando y obtenemos que y ∈ hN ∪ xi.

Ejercicio 50 (Seccion 2.4 pagina 50) Solo en la prueba de que 2⇒4 al despejar a.

Ejercicio 51 (Seccion 2.4 pagina 52) 1.­ El conjunto vacıo es LI y todo el espacio E esgenerador. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. 2.­ Si M es LI entonces existeuna base N tal que M ⊆ N ⊆ E. 3.­ Si L es generador entonces existe una base N tal que∅ ⊆ N ⊆ L.

Ejercicio 52 (Seccion 2.4 pagina 54) SeaA una base deE. Como F es generador yA ⊆ F esLI entonces por el Teorema de Existencia de Bases (2.14) existe una baseB de F que contieneaA. De aquı tenemos dimE = |A| ≤ |B| = dimF. Esta prueba es valida independientementede si los cardinales de A y B son finitos o no.

Ejercicio 53 (Seccion 2.4 pagina 54) El conjunto de todos los polinomiosPaix

i tales quea0 = 0 es un subespacio de K [x] de la misma dimension que K [x].

Ejercicio 54 (Seccion 2.4 pagina 55) Es consecuencia directa del Desarrollo de Taylor(1.22) alrededor del punto x0.

Ejercicio 55 (Seccion 2.4 pagina 55) La diferencia entre el espacio de las (N×M)­adasy las NM­matrices es solo en las notaciones. Luego, el espacio de las NM­matrices tienedimension |N×M| = |N| |M|. Para cada pareja i, j con i ∈ N y j ∈ M hay una matriz eijen la base canonica la cual tiene su entrada ij igual a 1 y todas las demas igual a cero.

Ejercicio 56 (Seccion 2.5 pagina 56) SeanEf→ F

g→ G transformaciones lineales. Tenemosque f (g (x+ y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) = f (λg (x)) =λf (g (x)) y esto era todo lo que se querıa probar.

Ejercicio 59 (Seccion 2.6 pagina 63) 1.­ Es facil probar que la aplicacion E⊕F 3 (a,b) 7→

Page 190: Algebra Lineal

180 Soluciones de ejercicios selectos

(b,a) ∈ F⊕E es un isomorfismo canonico. 2.­ Conmutatividad. 3.­ El isomorfismo canoni­co es ((a,b) , c) 7→ (a, (b,c)) 7→ (a,b, c). 4.­ Si, la aplicacion E⊕ 0 3 (a,0) 7→ a ∈ Ees un isomorfismo canonico. Por esto podemos considerar que E⊕ 0 = E.

Ejercicio 60 (Seccion 2.6 pagina 64) Denotemos porS a todo el espacio. Como cada vectorse expresa como a+ b con a ∈ E y b ∈ F tenemos S = E + F. Supongamos quea 6= 0 ∈ E ∩ F entonces 0 = 0+ 0 = a− a lo que contradice que la descomposicionde 0 es unica. Luego E ∩ F = 0 y por lo tantoS = E⊕ F.

Ejercicio 65 (Seccion 2.7 pagina 67) Si E = E + x y F = F + y son dos subespaciosparalelos o no entonces E+ F es igual a (E + F)+ (x+ y) o sea, es un espacio afın paraleloa E+F. Si E es paralelo a F entonces, E = F y por lo tanto E+F = E. Si E y F se intersectanen z entonces z ∈ hE ∪ zi ⊆ hE ∪ Fi = E+ F y por lo tanto E+ F = E+ F.

Ejercicio 70 (Seccion 3.4 pagina 85) Tomese x = (1, 0) , y = (0, 1) y z = (1, 1) . Tenemos(xy)z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy)z 6= x (yz) .

Ejercicio 73 (Seccion 3.4 pagina 87)µ

cosα − sinαsinα cosα

¶Ejercicio 74 (Seccion 3.4 pagina 88) Para cualesquiera n ∈ N y k ∈ K tenemos

(αnMβML)γLk =Xl∈L(αnM · βMl)γlk =

Xl∈L

Xm∈M

αnmβmlγlk =Xm∈M

αnmXl∈L

βmlγlk =Xm∈M

αnm (βmL · γLk) = αnM (βMLγLk)

Ejercicio 75 (Seccion 3.4 pagina 89) Las matrices de f, g y f g tienen que cumplir:µcos (α+ β) − sin (α+ β)

sin (α+ β) cos (α+ β)

¶=

µcosα − sinαsinα cosα

¶µcosβ − sinβsinβ cosβ

¶=

=

µcosα cosβ− sinα sinβ − cosα sinβ− sinα cosβcosα sinβ+ sinα cosβ cosα cosβ− sinα sinβ

¶y por lo tanto cos (α+ β) = cosα cosβ− sinα sinβ

sin (α+ β) = cosα sinβ+ sinα cosβ

Ejercicio 76 (Seccion 3.7 pagina 97) Sea f semilineal y σ y ρ dos automorfismos del campotales que para cualquier escalar λ y cualquier vector a se cumple que f (λa) = σ (λ) f (a) =

ρ (λ) f (a). Podemos escogera tal que f (a) 6= 0 y por lo tanto ((σ (λ)− ρ (λ)) f (a) = 0)⇒(σ (λ) = ρ (λ)).

Ejercicio 77 (Seccion 3.7 pagina 98) Supongamos que supA existe. Entonces, ∀b ∈ R te­nemos (∀a ∈ A b ≥ a)⇒ (b ≥ supA) . Usando que f es una isotonıa vemos que ∀f (b) ∈f (R) = R tenemos (∀f (a) ∈ f (A) f (b) ≥ f (a)) ⇔ (∀a ∈ A b ≥ a) ⇒ (b ≥ supA) ⇒(f (b) ≥ f (supA)) y esto prueba que f (supA) = sup f (A).

Page 191: Algebra Lineal

181Soluciones de ejercicios selectos

Ejercicio 78 (Seccion 3.7 pagina 98) (1⇒ 2)La conjugacion compleja es continua. (2⇒ 3)

Tenemos (vease la prueba de 3.34) que f es la identidad enQ. De que los reales son los lımi­tes de los racionales y f es continua obtenemos que f es la identidad en R. (3⇒ 1) Si f esla identidad en R entonces, f (a+ bi) = a+ bf (i). Como f (i)2 = f

¡i2¢= f (−1) = −1 y

f (i) 6= i entonces, f (i) = −i.Para ver que hay muchos automorfismos de C que no son la conjugacion compleja vease porejemplo: Yale, Paul B., Automorphisms of the complex numbers, Mathematics Magazine,May­June 1966, 135–141.

Ejercicio 79 (Seccion 3.7 pagina 99) La funcion (x1, . . . , xn) 7→ (x1, . . . , xn) es biyectivaya que λ 7→ λ es biyectiva. Ademas, tenemos

(x1 + y1, . . . , xn + yn) = (x1 + y1, . . . , xn + yn) = (x1, . . . , xn) + (y1, . . . , yn)¡λx1, . . . , λxn

¢=¡λx1, . . . , λxn

¢= λ (x1, . . . , xn)

y esto muestra que la funcion es un automorfismo semilineal.Si f es una transformacion semilineal arbitraria cuyo automorfismo del campo es σ enton­ces, su composicion con el automorfismo semilineal estandar correspondiente a σ−1 es unatransformacion lineal.

Ejercicio 81 (Seccion 3.7 pagina 102) Supongamos que 0 = αa+αc+βb−βc =(α− β)c+

(α+ βρ)a. Como a,c es LI entonces, α = β y α (1+ ρ) = 0. Como ρ 6= −1 entonces,0 = α = β.

Ejercicio 84 (Seccion 4.3 pagina 115) Denotemos γMM = αω(L)M y ηMM = βMθ(N).Sabemos que det (γMMηMM) = det (γMM) det (ηMM) y esto es todo lo que se necesitabaprobar.

Ejercicio 86 (Seccion 4.3 pagina 118) Es saludable poner la matriz de Vandermonde enforma grafica como se muestra en el recuadro a la derecha. ⎛⎜⎜⎜⎜⎝

1 1 · · · 1

x1 x2 · · · xnx21 x22 · · · x2n· · · · · · · · · · · ·xn−11 xn−12 · · · xn−1n

⎞⎟⎟⎟⎟⎠Denotemos por v (x1, x2, . . . , xn) al determinante de estamatriz. Denotemos

f (x1, x2, . . . , xn) =Y

1≤i<j≤n(xj − xi)

Veamos que v (x1, x2, . . . , xn) = f (x1, x2, . . . , xn).Por induccion en n. Para n = 1 tenemos f (x1) = v (x1) = 1. Supongamos que esta pro­bado hasta n − 1. Pongamos y = xn. Tenemos que probar que v (x1, . . . , xn−1, y) =f (x1, . . . , xn−1, y). Para esto veamos ambos lados de la igualdad como polinomios en lavariable y. Ambos polinomios tienen grado n− 1.Haciendo la expansion de Laplace por la ultima columna vemos que el coeficiente principalde v (x1, . . . , xn−1, y) es igual a v (x1, . . . , xn−1). Por otro lado

f (x1, . . . , xn−1, y) =Y

1≤i<j≤n−1(xj − xi)

Y1≤i≤n−1

(y− xi)

que tiene coeficiente principal f (x1, . . . , xn−1). Por hipotesis de induccion v (x1, . . . , xn−1) =

Page 192: Algebra Lineal

182 Soluciones de ejercicios selectos

f (x1, . . . , xn−1) y por lo tanto nuestros dos polinomios tienen el mismo coeficiente principal.Ademas, las raices de v (x1, . . . , xn−1, y) son x1, . . . , xn−1 porque evaluando y en estos valo­res obtenemos una matriz con dos columnas iguales. Es obvio que x1, . . . , xn−1 son tambienlas raices de f (x1, . . . , xn−1, y).Luego, v (x1, . . . , xn−1, y) y f (x1, . . . , xn−1, y) son dos polinomios del mismo grado, conlos mismos coeficientes principales y las mismas raices y por lo tanto son polinomios iguales.

Ejercicio 87 (Seccion 4.4 pagina 123) Las tres. Para la matrizA los bloques sonM1 = 1 ,

M2 = 2 yM3 = 3. Para la matriz B los bloques sonM1 = 3 , M2 = 2 yM3 = 3.Para la matriz C los bloques son M1 = 2 , M2 = 3 y M3 = 1 ya que α23 = α21 =

α31 = 0. Los determinantes de las tres matrices son iguales a abc.

Ejercicio 88 (Seccion 4.4 pagina 123)El aspecto es el del recuadro a la derecha. Aquı hemos denotado ∗ ∗

∗ ∗0

0

0 0

0 0

∗ ∗ ∗ 0 0

∗ ∗∗ ∗

∗∗

∗ ∗∗ ∗

por ∗ las entradas que pueden ser diferentes de cero. Las entradascon 0 son las que obligatoriamente tienen que ser cero. Ademas,hemos dividido con rectas los tres bloques de la matriz. El de­terminante de una matriz de este tipo es igual al producto de losdeterminantes de sus tres bloques diagonales.

Ejercicio 91 (Seccion 5.1 pagina 137) Sean (a,b), (a0,b0) ∈ E⊕ F. Tenemos(f⊕ g) ((a,b) + (a0,b0)) = (f⊕ g) (a+ a0,b+ b0) = (f (a+ a0) , g (b+ b0)) =

= (f (a) + f (a0) , g (b) + g (b0)) = (f (a)+, g (b)) + (f (a0) , g (b0)) == (f⊕ g) (a,b) + (f⊕ g) (a0,b0)

con lo que tenemos la primera propiedad de linearidad. Para la segunda vemos que(f⊕ g) (λ (a,b)) = (f⊕ g) (λa,λb) = λ (f (a) , g (b)) = λ ((f⊕ g) (a,b)).

Ejercicio 92 (Seccion 5.1 pagina 138)(f0 g0) (a,b) = f0 (g0 (a,b)) = f0 (a, g (b)) = (f (a) , g (b)) = (f⊕ g) (a,b).

Ejercicio 95 (Seccion 5.3 pagina 146) Como pq divide a p0q0 y p0q0 divide a pq enton­ces pq = p0q0. Sean p = pi11 · · ·piaa y q = q

j11 · · ·q

jbb las descomposiciones en factores

irreducibles. Como p y q son coprimos entonces, todos los p` son distintos a los q` y ladescomposicion pq = pi11 · · ·piaa q

j11 · · ·q

jbb es la descomposicion en factores irreducibles de

pq. Como p0 divide a p y q0 divide a q entonces, p0q0 = pi01

1 · · ·pi0aa q

j01

1 · · ·qj0b

b (donde i0` ≤ i`y j0` ≤ j`) es la descomposicion en irreducibles de pq. Como p0q0 = pq, de la unicidad de ladescomposicion en irreducibles, obtenemos i0` = i` y j0` = j` o sea, p = p y q = q.

Ejercicio 96 (Seccion 5.4 pagina 151) Sea f un operador lineal en End (E/F) y G unsubespacio complementario a F. Definimos h como la funcion nula en F, como h (a) =G ∩ f (a+ F) en G y en todo el espacio por extension lineal. Para ver que h es lineal so­lo hay que comprobar que es lineal en G. Esto es trivial porque en G la funcion h cumpleh = nat−1 f nat donde a

nat7−→ a + F es el isomorfismo canonico entre el cociente y un

Page 193: Algebra Lineal

183Soluciones de ejercicios selectos

complementario. Para ver que f = eh basta comprobarlo para los vectores a que estan en G.Pero f (a+ F) = h (a) + F ya que f = nat h nat−1.Para calcular el nucleo comprobamos que para cualquier vector a se cumple que³eh (a) = O (a)´⇔ (h (a) + F = F)⇔ (h (a) ∈ F).

Ejercicio 97 (Seccion 5.4 pagina 152) Sea p un polinomio cualquiera. Si ph (a) = 0 en­tonces p

h(a+ F) = ph (a) + F = F. Si p

h(a+ F) = F entonces, ph (a) ∈ haih ∩ F y

por hipotesis ph (a) = 0. Luego, el h­anulador de a+ F es igual al eh­anulador de a+ F ypor lo tanto per

h(a+ F) = perh (a+ F). Sea b ∈ F y q un polinomio. Como F y haih son

h­invariantes, tenemos que

(qh (a+ b) = 0)⇔ (qh (a) = −qh (b))⇔ (qh (a) = qh (b) = 0)⇔ (qh (a) = 0) .

La implicacion (qh (a) = 0) ⇒ (qh (a) = qh (b) = 0) es valida porque si qh (a) = 0

entonces q es un multiplo de perh (a) que es multiplo de perh (F) que a su vez es multiplode perh (b) y por lo tanto qh (b) = 0.Luego, el h­anulador de a coincide con el h­anulador de a + F. Esto quiere decir queperh (a+ F) = perh (a).

Ejercicio 101 (Seccion 5.6 pagina 158) Es facil ver que hA ∪ Bih ⊇ hAih + hBih = F +G = E y por lo tanto A ∪ B es h­generador. Comprobemos que A ∪ B es h­independiente.Observese que A∩ B = ∅ ya que 0 no esta en ningun conjunto h­independiente y A∩ B ⊆F ∩G = 0. Luego una h­combinacion de A ∪ B es de la forma

ph (a1) + · · ·+ qh (an) + rh (b1) + · · ·+ sh (bn)donde A = a1, . . . ,an y B = b1, . . . ,bm. Si esta h­combinacion es igual cero entonces

F = hAih 3 ph (a1) + · · ·+ qh (an) = −rh (b1)− · · ·− sh (bn) ∈ hBih = Gy por lo tanto,

ph (a1) + · · ·+ qh (an) = rh (b1) + · · ·+ sh (bn) = 0y como A y B son h­independientes deducimos que

ph (a1) = · · · = qh (an) = rh (b1) = · · · = sh (bn) = 0.

Ejercicio 107 (Seccion 5.7 pagina 163) Queremos ver que el siguiente diagrama de trans­formaciones lineales es conmutativo:

Fjh−→ E

πi−→ Fipkh ↑ ↑ pkh ↑ pkhFj+k −→

hE −→

πi+kFi+k

El cuadrado de la izquierda es conmutativo por la conmutatividad de los polinomios eva­luados en OL. Para probar la conmutatividad del cuadrado de la derecha comprobemosloen la base Bm = A1 ∪ · · · ∪ Am . Si x ∈ Ai+k entonces, pkh (x) ∈ Ai y por lo tantoπi pkh = I = pkh πi+k. Si x ∈ Bm \ Ai+k entonces pkh (x) ∈ Bm \ Ai y por lo tantoπi pkh = O = pkh πi+k. Luego, todo el diagrama es conmutativo y por lo tanto teniendoen cuenta la definicion de τij obtenemos que pkh τij = τi+k,j+k pkh. Como en este caso pkhes biyectiva obtenemos τi+k,j+k = pkh τij

¡pkh¢−1

.

Page 194: Algebra Lineal

184 Soluciones de ejercicios selectos

Page 195: Algebra Lineal

Algebra. Espacio vectorial con un productode vectores asociativo, distributivo, con ele­mento neutro y que conmuta con el productopor escalares. . . . . . . . . . . . . . . . . . . . .80, 88, 110

Algebra conmutativa.Algebra en la cual el producto de vectoreses conmutativo . . . . . . . . . . . . . . . . . . . . . .81, 142

Anillo. Conjunto condos operaciones binarias denotadas por + y• que es grupo abeliano para la suma, que elproducto es asociativo con elemento neutroy distributivo respecto a la suma . . 7, 11, 80

Anillo conmutativo. Anillo en el cual elproducto es conmutativo . . 7, 14, 21, 22, 34

Anulador de un conjunto de vectores. Lainterseccion de los anuladores de todos losvectores en el conjunto . . . . . . . . . . . . . . . . . .144

Anulador de un OL. El anulador de todo elespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .144

Anulador de un vector. El conjunto depolinomios p tales que ph (a) = 0 . . . . .144

Argumento de un complejo.El angulo que forma el vector

−→0z con el eje

real del plano complejo . . . . . . . . . . . . . . . . . . 28Asociatividad. Propiedad de algunas

operaciones binarias que consiste en quea (b c) = (a b) c

para cualesquiera elementos a, b y c delconjunto en el cual esta definida la opera­cion . . . . . . . . . . . . . . . . . . . . 3, 13, 19, 22, 79, 88

Asociatividad del producto por escalares.Axioma de espacio vectorial:(βa) = (αβ)a . . . . . . . . . . . . . . . . . . . . . . . . . . 41

Automorfismo. Endomorfismo biyectivo . 13Automorfismo de Frobenius.

La funcion K 3 x 7→ xp ∈ K donde K esun campo finito de caracterıstica p > 0. . 21

Automorfismo semilineal.Transformacion semilineal biyectiva de unespacio en si mismo. . . . . . . . . . . . . . . . . . . . . . 98

Base. Conjunto de vectores que es generador yLI. Conjunto generador minimal. ConjuntoLI maximal . . . . . 52, 56, 61, 72, 82, 89, 125

Base canonica.El conjunto deN­adas ei | i ∈ N donde laj­esima coordenada de ei es el delta de Kro­necker δij . . . . . . . . . . . . . . . . . . . . . . . . . 54, 87, 91

Base de las columnas. Conjuntode columnas diferentes que son una base delespacio de columnas . . . . . . . . . . . . . . . . . . . .125

Base de los renglones. Conjuntode renglones diferentes que son una base delespacio de renglones . . . . . . . . . . . . . . . . . . . .125

Base de una matriz. Submatriz no singularmaximal por contencion. . . . . . . . . . . 126, 132

Binomio de Newton.Formula para expandir (x+ y)n . . . . . 20, 27

Cadena.Subconjunto de un conjunto ordenado queesta totalmente ordenado. . . . . . . . . . . . . . *, 72

Cambio de ındices.Biyeccion mediante la cual los ındices deuna N­ada (o columnas, o renglones) obtie­nen nuevos nombres. Es la operacion en queuna biyeccion ω : N → L se le aplica a lascolumnas de una matriz αMN para obtenerla matriz βML = αMω(N) que cumple queβij = αiω−1 (j). Analogamente se definenlos cambios de ındices de los renglones .114

Campo. Anillo conmutativo enel cual todo elemento diferente de cero tieneinverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 15, 16

Campo algebraicamente cerrado.Campo en el cual todo polinomio de gra­

Page 196: Algebra Lineal

186 cam – cof

do al menos uno tiene una raız. Campo elcual los polinomios irreducibles son todosde grado uno . . . . . . . . . . . . . . . . . 10, 27, 34, 59

Campo de fracciones. Entrelas fracciones de un dominio de integridadse define la suma y el producto exactamen­te de la misma manera que se definen estasoperaciones en Q. Para estas operaciones elconjunto de fracciones es un campo . . . . . 35

Campo ordenado. Campo con una relacionde orden en el cual todo elemento es com­parable con el cero. Los elementos mayoresque cero se les llama positivos y los menoresque cero negativos. Los axiomas que debecumplir la relacion de orden son:1. El opuesto de un positivo es negativo,2. El opuesto de un negativo es positivo,3. La suma de positivos es positiva,4. El producto de positivos es positivo.Los campos R y Q estan ordenados. Cual­quier campo ordenado tiene que ser de ca­racterıstica cero. Ademas, C no se puede or­denar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 9, 116

Campo primo. Campo cuyo unico subcampoes el mismo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

Caracterıstica de un campo.Es cero si el campo contiene como sub­campo a Q. Es igual al numero primo psi el campo contiene como subcampo aZp . . . . . . . . . . . . . . . . . . . . . . . . . 18, 36, 108, 115

Celda canonica. Matriz cuadrada trian­gular superior por bloques de orden el gradode p, con la matriz acompanante de p en ladiagonal, en la paralela inmediatamente su­perior a la diagonal matrices nulas salvo laentrada superior derecha en que es 1 y cerosen las demas entradas. Todo OL sobre cual­quier campo es diagonalizable por bloquesque son celdas canonicas. . . . . . . . . . . . . . . .167

Celda cuadratica. Matriz cuadradatriangular superior por bloques de orden 2

conµa −bb a

¶en la diagonal,

µ0 1

0 0

¶en la

paralela inmediatamente superior a la diago­

nal y ceros en las demas entradas. Todo OLreal es diagonalizable por bloques que sonceldas de Jordan o celdas cuadraticas. . .166

Celda de Jordan. Matriz cuadrada triangularsuperior con λ en la diagonal, 1 en la para­lela inmediatamente superior a la diagonal yceros en las demas entradas. Todo OL com­plejo es diagonalizable por bloques que sonceldas de Jordan. . . . . . . . . . . . . . . . . . . . . . . . .165

Cerradura lineal. El conjun­to de todas las combinaciones lineales de unconjunto de vectores . . . . . . . . . . . . . 48, 57, 60

Ciclo. Permutacionσ del grupo simetrico de N que cambia unconjunto x0, . . . , xn−1 ⊆ N segun la reglaσ (xi) = xi+1modn y deja todos los demaselementos deN fijos . . . .106, 112, 117, 124

Ciclos disjuntos. Ciclos talesque los conjuntos de elementos que ellos nodejan fijos no se intersectan . . . . . . . . . . . . .106

Clases de equivalencia. Si ≈ es unarelacion de equivalencia en A entonces, lasclases de equivalencia son los subconjuntosde A para los cuales a ≈ b si y solo si a yb estan en la misma clase . . . . . . . . . *, 66, 73

Coalineacion. Funcion biyectiva deun espacio vectorial en si mismo que tal quef y f−1 preservan subespacios afines. . . . . 99

Cociente. Al efectuar la division con resto deun elemento p de un anillo conmutativo (Z,K [x]) entre otro q obtenemos la igualdadp = cq + r. Al elemento c se le llama co­ciente de la division de p entre q . . . . . . . . 23

Codominio de una funcion. Seaf : A→ B una funcion. Al conjunto B se lellama codominio de la funcion f . . . . . 11, 93

Coeficiente principal. El coeficiente diferentede cero de un polinomio que multiplica a lapotencia mas grande de la variable . . . . . . 22

Coeficientes de un polinomio.(vease polinomio) . . . . . . . . . . . . . . . . . . . . . . . . 22

Cofactor. De la entrada αij es el escalarsgnω detαN\iω(N\j)

donde ω es cualquier permutacion de N tal

Page 197: Algebra Lineal

187col – dia

que ω (j) = i . . . . . . . . . . . . . . . . . . . . . . . . . . . .116Columna de una matriz. Dada una matriz

αNM y j ∈M a laN­adaαNj (j esta fijo, loselementos de N varıan) se le llama j­esimacolumna de la matriz αNM . . . . . . . . . . 45, 85

Combinacion lineal. Los vectores dela forma

Pi∈N αii (donde solo un numero

finito de los ai es diferente de cero) . 47, 60Complemento algebraico. Cofactor . . .116Componente radical. Restriccion del OL a

un subespacio radical maximal . . . . . . . . .149Composicion de funciones.

Operacion entre dos funciones que consisteen aplicar primero una funcion y despues laotra . . . . . . . . . . . . . . . . . . . . . .13, 56, 79, 87, 105

Conexion de Galois (antıtona). Seobtiene de una conexion de Galois monoto­na invirtiendo la relacion de orden en uno delos conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . .146

Conexion de Galois (monotona). Unapareja de funciones monotonas f∗ : A → B

y f∗ : B → A tales que (f∗ (a) ≤ b) ⇔(a ≤ f∗ (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .146

Conjunto acotado inferiormente.Conjunto que tiene una cota inferior. . *, 32

Conjunto acotado superiormente.Conjunto que tiene una cota superior . . . . . *

Conjunto generador. Conjuntode vectores cuya cerradura lineal es todo elespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49, 56

Conjunto h­independiente.Conjunto de vectores no nulos tales que lossumandos de cualquier h­combinacion nulason nulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .154

Conjunto inductivamente ordenado.Conjunto ordenado no vacıo dentro del cualcada cadena tiene cota superior . . . . . . . . . . 72

Conjunto LD. Acronimo de conjuntolinealmente dependiente . . . . . . . . . . . . . . . . . 50

Conjunto LI. Acronimo de conjuntolinealmente independiente . . . . . . . . . . . . . . . 50

Conjunto linealmente dependiente.Conjunto de vectores que no es LI . . . . . . . 50

Conjunto linealmente independiente.

Conjunto de vectores A tal que ∀a ∈ A secumple que hA\ai 6= hAi. . . . . . . . . . .50, 125

Conjunto ordenado. Conjunto en el cualesta definida una relacion de orden . . . *, 72

Conjunto totalmente ordenado.Conjunto ordenado en el cual dos elementoscualesquiera son comparables . . . . . . . . . . . . *

Conmutatividad. Propiedad de algunasoperaciones binarias que consiste en que

a b = b a∀ elementos a y b del conjunto en el cualesta definida la operacion . . . . . . . . . . . . . . . . . 3

Contraccion. Homotecia cuyo escalar es unreal mayor que 0 y menor que 1 . . . . . . . . . 76

Coordenada. De la n­ada (a1, a2, ..., an) esalguno de los ai. De laN­ada aN es algunode los ai para i ∈ N . . . . . . . . . . . . . . . . . . . . . 41

Coordinatizacion.Dada una base N de F, es el isomorfismoF 3

Pi∈N αii 7→ αN ∈ KN . . . . . . . 57, 89

Cota inferior.Una cota inferior de un subconjuntoA de unconjunto ordenado B es un elemento b de Btal que cualquier elemento de A es mayor oigual que B . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 32

Cota superior. Una cota superior de un sub­conjuntoA de un conjunto ordenado B es unelemento b de B tal que cualquier elementode A es menor o igual que B . . . . . . . . . . *, 72

Delta de Kronecker.Funcion δij de dos variables que toma valor1 si i = j y toma valor 0 si i 6= j .27, 88, 110

Desarrollo de Taylor.Expresion de una funcion como serie de po­tencias f (x) =

Pai (x− x0)

i. El coefi­ciente de la serie ai es la i­esima derivadade f evaluada en el punto x0 . . . . . . . . . 26, 31

Determinante. El determinante de αNN esPσ∈SN sgnσ

Qi∈N αiσi . . . . . 109, 20, 132

Determinante de un OL.Determinante de su matriz en una base. Nodepende de la base escogida . . . . . . . . . . . .121

Diagrama. Reperesentaciongrafica de una familia de conjuntos y de fun­

Page 198: Algebra Lineal

188 dia – for

ciones entre ellos mediante la utilizacion deechas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

Diagrama conmutativo. Diagrama en el cualcualesquiera dos caminos dirigidos (que si­guen el orden de las echas) de un conjuntoa otro representan dos descomposiciones dela misma funcion como composicion de lasfunciones de las echas de los caminos . 91

Dilatacion. Homotecia cuyo escalar es un realmayor que 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

Dimension.El cardinal de cualquier base 53, 61, 66, 95

Dimension de un OL. Dimension del espaciodonde esta definido el operador . . . . . . . . .138

Dimension de un subespacio afın. Si E esuna traslacion del subespacio E entonces ladimension de E es la dimension de E . . . . 66

Distributividad. Relacion de una operacionbinaria ¦ con respecto a otra que consisteen que las igualdades

a ¦ (b c) = (a ¦ b) ¦ (a ¦ c)(b c) ¦ a = (b ¦ a) (c ¦ a)

se cumplen para cualesquiera elementos a,b y c del conjunto en el cual esta definida laoperacion . . . . . . . . . . . . . . . . . . . . . . 5, 19, 79, 88

Distributividad del producto por escalares.Axioma de espacio vectorial: α (a+ b) =αa+ αb y (α+ β)a =αa+βa . . . . . . . 41

Divisor. Para dos elementos p yq de un anillo con division se dice que q esun divisor de p si el resto de la division de pentre q es cero. . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Dominio de integridad.Anillo conmutativo en el cual el producto deelementos diferentes de cero es diferente decero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 18, 36

Dominio de una funcion. Sea f : A→ B unafuncion. Al conjunto A se le llama dominiode la funcion f . . . . . . . . . . . . . . . . . . . . . . . . 11, 93

Ecuacion lineal. Ecuacion αNxN = βNdonde lasN­adas αN y βN son conocidos yel vector xN es incognito . . . . . . . . . . . . . . .128

Ecuacion matricial. Ecuacion AX = Bdonde la matrices A y B son conocidas y la

matriz X es incognita. . . . . . . . . . . . . . . . . . . .135Elemento maximal.

Elemento tal que cualquier otro no es mayorque el . . . . . . . . . . . . . . . . . . . . . . . . . *, 51, 72, 126

Elemento minimal. Elemento tal quecualquier otro no es menor que el. . . . . *, 51

Elementos comparables. Dos elementos a yb de un conjunto ordenado para los cuales oa ¹ b o b ¹ a o los dos . . . . . . . . . . . . . . *, 52

Endomorfismo. Morfismo cuyo dominio ycodominio coinciden . . . . . . . . . . . . . . . . . . . . . 13

Entension lineal de una funcion. Extensionque es transformacion lineal. Si la funciontiene como dominio una base, entonces laextension lineal existe y es unica . . . . . . . . 82

Entrada de una matriz.Coordenada de unaNM­ada . . . . . . . . . . . . 45

Epimorfismo. Morfismo sobreyectivo . . . 13Escalar. Elemento del cam­

po (¡la escala!) sobre el cual esta definido elespacio vectorial . . . . . . . . . . . . . . . . . . . . . 39, 40

Espacio cociente. SiE es un subespacio de F entonces, el espa­cio cociente F/E es el conjunto de todos lossubespacios afines paralelos a E dotado conla suma de subespacios afines y el productode subespacios afines por escalares . . 67, 96

Espacio de columnas. El espacio generadopor las columnas de una matriz . . . . . . . . .125

Espacio de renglones. El espacio generadopor los renglones de una matriz . . . . . . . . .125

Espacio vectorial. Grupo abelianocon un producto por escalares distributivo,asociativo y con neutro. . . 41, 58, 65, 67, 79

Extension de una funcion.Si f es una restriccion de g entonces g esuna extension de f . . . . . . . . . . . . . . . . . . . . . . . . 81

Factor de un polinomio. Divisor de grado almenos 1 de un polinomio . . . . . . . . . . . . . . . . 23

Factor propio.Factor monico diferente al polinomio . . . 25

Forma polar de un complejo.Es la expresion r (cosϕ+ i sinϕ) donde res el modulo de z y ϕ es el argumento de

Page 199: Algebra Lineal

189for – hom

z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28Formula multinomial. Formu­

la para expandir la n­sima potencia de unasuma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

Fraccion. Pareja de elementos de un dominiode integridad (por ejemploK (x) o Z) que sedenota por a/b. Dos fracciones a/b y c/dse consideran iguales si ad = bc . . . . . 34, 8

Funcion. Informalmente es una reglao procedimiento mediante el cual para cadaelemento de un conjunto a podemos obtener(calcular) otro unico elemento f (a) de otroconjunto y que llamamos la imagen de amediante la funcion f. Formalmente, unafuncion f : A→ B es un subconjunto delproducto cartesiano f ⊆ A× B que cumpleque para cualquier a ∈ A existe una unicapareja (a, b) ∈ f. . . . . . . . . . . . . . . . . . . . . . . . . . . *

Funcion antipodal. La funcion x 7→ −x . 76Funcion biyectiva. Funcion inyectiva. y

sobreyectiva . . . . . . . . . . . . . . . . . . . . .*, 105, 114Funcion continua. Funcion continua en todos

los puntos de su dominio. . . . . . . . . . . . . . . . . 29Funcion continua en un punto. La fun­

cion f es continua en z0 si ∀ε > 0 ∃δ tal quekz− z0k < δ⇒ kf (z)− f (z0)k < ε . . . 29

Funcion de evaluacion.De un polinomio p (x) es la funcion:

p : K 3 b 7→ p (b) ∈ K. . . . . . . 23Funcion identidad. La que a todo elemento

le corresponde el mismo . . . . . . . . . . . . . . . . . 76Funcion inversa. La inversa de una

funcion f : A→ B es una funcion g tal quef g = IB y g f = IA . Una funcion tieneinversa si y solo si esta es biyectiva. . . *, 56

Funcion inyectiva. Cada elemento de laimagen tiene una unica preimagen. . . . *, 94

Funcion nula. La que a todo elemento lecorresponde el cero . . . . . . . . . . . . . . . . . . . . . . 76

Funcion racional.Fraccion de dos polinomios . . . . . . . . . . . . . . 36

Funcion sobreyectiva. Funcion tal que suimagen coincide con su codominio . . . *, 95

Funcional. Funcion de un espacio vectorial

en su campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . .118Funcional bilineal.

Funcional lineal en sus dos variables . . .118Funcional lineal.

Funcional que es una TL . . . . . . . . . . . . . . . .118Funcional lineal en una variable.

Funcion de muchas variables con imagenesen un campo que para cualesquiera valoresfijos de las demas variables determina unfuncional lineal de la variable que se tra­ta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .118

Funcional multilineal.Funcional lineal en todas sus variables .118

Grado de un polinomio. La potencia ma­yor de la variable con coeficiente diferentede cero. Si el grado es cero el polinomio esun elemento del campo. No esta definido elgrado del polinomio cero . . . . . . . . . . . . . . . . 22

Grupo. Conjunto con una ope­racion binaria asociativa que tiene elementoneutro y en el cual todo elemento tiene in­verso . . . . . . . . . . . . . . 7, 11, 13, 16, 68, 81, 105

Grupo abeliano. Grupo en el cual laoperacion es conmutativa . . . . . . . . . . . . . . . . . 7

Grupo alternante.El subgrupo (del grupo simetrico) de todaslas permutaciones pares . . . . . . . . . . . . . . . . .108

Grupo general lineal. El grupo de auto­morfismos de un espacio vectorial. El grupode operadores lineales no singulares . . . . . 81

Grupo simetrico.El grupo de todas las permutaciones con laoperacion de composicion . . . . . . . . . . . . . .105

h­base. Conjunto h­independiente yh­generador. Todo OL h tiene h­bases .155

h­cerradura. Conjunto de todas lash­combinaciones . . . . . . . . . . . . . . . . . . . . . . . .153

h­combinacion. Vector dela forma ph (v1) + qh (v2) + · · ·+ rh (vn)donde p, q, ..., r son polinomios . . . . . . . .152

h­generador. Conjunto de vectores queh­genera a todo el espacio . . . . . . . . . . . . . .154

Homotecia. Transformacionlineal que consiste en la multiplicacion por

Page 200: Algebra Lineal

190 ide – mat

un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76Ideal. Subconjunto I de un anillo A tal que

1. ∀p, q ∈ I p+ q ∈ I,2. ∀p ∈ I ∀r ∈ A rp ∈ I . . . . . . . . . . . . . 24

Ideal principal. Ideal formado por todos losmultiplos de un polinomio . . . . . . . . . . . . . . . 24

Idempotencia. Propiedad de una funcion queconsiste en que f f = f2 = f . . . . . . . . . . . 48

Igualdad de Moivre. Formula para calcularla n­esima potencia de un numero complejoen forma polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

Imagen de un elemento. (vease: Funcion) . *Imagen de una funcion. El conjunto de los

elementos del codominio que tienen algunapreimagen. Se denota por Im f . . . . . . . . *, 93

Imagen de una matriz.La imagen de su transformacion lineal.Su espacio de columnas . . . . . . . . . . . . . . . . .131

Infimo.El maximo de las cotas superiores . . . . *, 32

Infimo de un conjunto de reales.El numero maximo x tal que x ≤ a paracualquier a ∈ A. Para el ınfimo x de Asiempre existe una sucesion ak de elemen­tos de A cuyo lımite es x . . . . . . . . . . . . . . . . . 32

Inmersion. Restriccion de la funcionidentidad a un subconjunto . . . . . . . . . . 77, 94

Inverso. De un elemento a para la operacionbinaria es un elemento b que cumple quea b = b a = e para cualquier elemen­to a del conjunto en el cual esta definida laoperacion. Si un elemento tiene inverso en­tonces este es unico. En los anillos y camposes el inverso para el producto . . . . . . . . . . . . . 5

Isomorfismo. Morfismo biyec­tivo. La inversa de cualquier isomorfismo estambien un isomorfismo . . . . . . . . . . . . . 12, 62

Isomorfismo canonico. Isomorfismo cu­ya construccion no depende de escoger algo(una base, un complementario, etc.) . 62, 68

Isomorfismo de espacios vectoriales.Transformacion lineal biyectiva . . . . . 56, 83

Isomorfismo lineal.Isomorfismo de espacios vectoriales . . . . . 56

Lımite de una sucesion.La sucesion zk tiene lımite z si ∀ε > 0 ∃Ntal que ∀k > N kzk − zk < ε . . . . . . . . . . . . 30

Matriz. Es unaNM­ada o sea un conjuntoindexado por dos conjuntos . . . . . . . . . . . . . . 45

Matriz acompanante de un polinomio.Matriz cuadrada cuya ultima columna es elvector de coeficientes del polinomio, la pa­ralela inferior a la diagonal contiene unos ytodas las demas entradas son cero. . . . . . .155

Matriz ampliada.Del sistemaAx = b es la matriz (A|b) .130

Matriz cuadrada. Matriz con la mismacantidad de columnas y renglones . .115, 89

Matriz de cambio de base.Escogidas dos bases V y N de un espaciovectorial la matriz αNV cuyas columnas sonlos coeficientes de las expresiones de la ba­se V como combinacion lineal de la baseN.O sea, para cualquier v ∈ V se cumple quev =

Pi∈N αivi. Si βV son las coordenadas

de un vector en la base V entonces αNVβVson las coordenadas del mismo vector en labaseN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

Matriz de permutacion. La matrizque se obtiene al permutar las columnas olos renglones de la matriz identidad. Matrizque tiene exactamente un 1 en cada renglony columna y todas las demas entradas soncero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .114

Matriz de una transformacion lineal.Escogidas una base N en el dominio y otraM en el codominio de una TL f la matrizαMN cuyas columnas son los coeficientesde las expresiones de las imagenes de la ba­seN como combinacion lineal de la baseM.O sea, para cualquier j ∈ N se cumple quef (j) =

Pi∈M αiji . . . . . . . . . . . . . . . 87, 84, 90

Matriz del sistema. La matriz A del sistemade ecuaciones lineales Ax = b . . . . . . . . .129

Matriz diagonal. Matriz αMM en la cual sii 6= j entonces, αij = 0 . . . . . . . . . . . . . . . . .123

Matriz diagonal por bloques. Matriz αMMen la cual hay una particion del conjunto de

Page 201: Algebra Lineal

191mat – nuc

ındicesM1 ∪ · · · ∪Mt =M y que αij = 0si i y j pertenecen a bloques diferentes .123

Matriz identidad.La matriz INN cuyas entradas son el deltade Kronecker: unos en la diagonal y cerosen el resto de las entradas. La matriz de latransformacion lineal identidad . . . . .88, 110

Matriz inversa. La matriz cuadrada αMNes la inversa de βNM si βNMαMN = INNy αMNβNM = IMM . Si ambos N yM sonfinitos entonces, basta comprobar una de lasdos igualdades. Una matriz cuadrada tieneinversa si y solo si su determinante es dife­rente de cero. . . . . . . . . . . . . . 88, 120, 125, 135

Matriz singular. Matriz cuadrada condeterminante igual a cero . . . . 115, 125, 129

Matriz triangular.Matriz triangular por bloques en la cual cadabloque es de cardinalidad 1 . . . . . . . . . . . . .123

Matriz triangular inferior. Matriz αMMen la cual M = 1, . . . ,m y tal que en surepresentacion grafica todas las entradas porencima de la diagonal son cero . . . . . . . . .123

Matriz triangular por bloques. Matriz αMMen la cual hay una particion del conjunto deındicesM1 ∪ · · · ∪Mt =M y que αij = 0si i ∈Mp , j ∈Mq y p < q . . . . . . . . . . . .123

Matriz triangular superior. Matriz αMMen la cual M = 1, . . . ,m y tal que en surepresentacion grafica todas las entradas pordebajo de la diagonal son cero . . . . . . . . . .123

Maximo. El maximo deun subconjunto A de un conjunto ordenadoB es una cota superior que pertenece aA. Siexiste entonces, el maximo es unico . . . . . . *

Mınimo. El mınimo deun subconjunto A de un conjunto ordenadoB es una cota inferior que pertenece a A. Siexiste entonces, el mınimo es unico . . *, 32

Modulo de un complejo. La longitud delvector

−→0z en el plano complejo . . . . . . . . . . 28

Monomorfismo. Morfismo inyectivo . . . 13Monotonıa. Propiedad de una

funcion de un conjunto ordenado a otro que

consiste en que x ≤ y⇒ f (x) ≤ f (y) . . 48Morfismo. Es una funcion f : A→ B que

cumple que f (x y) = f (x) • f (y) donde es una operacion definida en A y • es unaoperacion definida en B . . . . . . . . . . . . . . 10, 55

Morfismo de algebras. TL que conmuta conel producto y preserva el 1 . . . . . . . . . . . . . .141

Morfismo de anillos.Funcion entre dos anillos que es morfismopara la suma y para el producto . . . . . . . . . . 11

Morfismo de campos.Funcion entre dos campos que es morfismopara la suma y para el producto . . . . . . . . . . 11

Morfismo de espacios vectoriales.Funcion f de un espacio vectorial a otro so­bre el mismo campo que es un morfismo delos grupos abelianos de vectores y que cum­ple f (αa) = αf (a) para cualquier vectora y cualquier escalar α . . . . . . . . . . . . . . . . . . 56

Morfismo de grupos.Morfismo cuyo dominio y codominios songrupos . . . . . . . . . . . . . . . . . . . . . . . . . 11, 105, 114

Multiplicidad de una raız. El elemento delcampo α es una raız de multiplicidad n delpolinomio p si n es el mayor natural tal quep es un multiplo de (x− α)n . . . . . . . . . . . . 23

Multiplo. Para dos elementos p yq de un anillo con division se dice que p esun multiplo de q si ∃c tal que p = cq . . . 23

n­ada. Elemento (a1, a2, ..., an) delproducto cartesiano An . . . . . . . . . . . . . . . . . . 41

N­ada. Funcion en una notaciondiferente, αN : N 3 i→ αi ∈ A. AN se lellama el conjunto de ındices y a las αi se lellaman coordenadas . . . . . . . . . . . . . . . . . . 43, 86

Neutro.De una operacion binaria es un elemento eque cumple que ae = ea = a para cual­quier a del conjunto en el cual esta definidala operacion. Si una operacion tiene neutroentonces este es unico . . . . . . . . . . . . . . . . . . . . . 4

Nucleo de un morfismo. El el casode grupos la preimagen del neutro. Para ani­llos y espacios vectoriales la preimagen del

Page 202: Algebra Lineal

192 nuc – pro

cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93Nucleo de un polinomio.

La coleccion de sus raices. Cada raız apare­ce tantas veces como su multiplicidad . . . 23

Nucleo de una matriz. El nucleo de sutransformacion lineal. El conjunto solucionde un sistema de ecuaciones con vector decoeficientes libres igual a cero . . . . . . . . . .131

Nucleo de una TL. La preimagen del cero 93Nucleo trivial. Nucleo igual a 0 . . . . . 94OL. Acronimo de operador lineal . . . . . 80Operacion binaria.

Funcion mediante la cual para cualesquierados elementos a y b de un conjunto A po­demos encontrar otro elemento de A que esel resultado de la operacion . . . . . . . . . . . . . . . 2

Operador cıclico. OL h tal que todo elespacio es h­cıclico . . . . . . . . . . . . . . . . . . . . .154

Operador diagonalizable. OLtal que existe una base en la cual su matrizes diagonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .171

Operador irreducible. OL que no se puededecomponer como suma directa . . . . . . . .139

Operador lineal. Transformacion lineal de unespacio en si mismo . . . . . . . . . . . . . . . . . . . . . . 80

Operador radical. OL cuyo polinomiomınimo (o caracterıstico) es potencia de unpolinomio irreducible . . . . . . . . . . . . . . . . . . .148

Operador singular. OL no biyectivo . . . 81Operador triangulable. OL

tal que existe una base ordenada en la cualsu matriz es triangular. . . . . . . . . . . . . . . . . . .171

Opuesto. El inverso de un elemento de unanillo o campo respecto a la suma . . . . . . . . 7

Orbita de una permutacion. Clasede equivalencia de la relacion (a ∼ b) ⇔(a = σn (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . .106

Orden de un ciclo. El numero de elementosque un ciclo no deja fijos. . . . . . . . . . . . . . . .106

Orden de una matriz.El numero de renglones y columnas de unamatriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . .115

Perıodo de un conjunto de vectores.El generador del anulador del conjunto de

vectores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .144Perıodo de un vector. El polinomio

monico p mas pequeno tal que ph (a) = 0.El generador del anulador del vector . . .143

Permutacion. Biyeccion de un conjunto finitoen si mismo . . . . . . . . . . . . . . . . . . . . . . . 105, 114

Permutacion de las columnas. Esla operacion en que una permutacion ω sele aplica a las columnas de una matriz αMNpara obtener la matriz βMN = αMω(N) quecumple que βij = αiω−1 (j) . . . . . . . . . . . . .112

Permutacion de los renglones . Esla operacion en que una permutacion ω sele aplica a los renglones de una matriz αMNpara obtener la matriz βMN = αω(M)N quecumple que βij = αω−1 (i)j . . . . . . . . . . . . .112

Permutacion impar. Permutacionque se descompone en la composicion de unnumero impar de transposiciones . . . . . . .108

Permutacion par. Permutacionque se descompone en la composicion de unnumero par de transposiciones . . . . . . . . . .108

Plano.Subespacio afın de dimension dos . . . 66, 47

Polinomio. Expresionformal

Pni=0 aix

i donde los coeficientes aison elementos de un campo . . . . . . . . . . . . . . 22

Polinomio caracterıstico. El polinomiodet (xI− h). Es un multiplo del polinomiomınimo y tiene los mismos factores irredu­cibles que el polinomio mınimo . . . . . . . .169

Polinomio irreducible. Polinomio monico degrado al menos 1 sin factores propios . . . 25

Polinomio mınimo. El polinomio monico maspequeno que anula un OL. El generador delanulador del operador . . . . . . . . . . . . . . . . . . .143

Polinomio monico. Polinomio cuyocoeficiente principal es 1 . . . . . . . . . . . . . . . . . 25

Preimagen de un elemento.Sea b un elemento del codominio de f. Lapreimagen de b es el conjunto de todos x endominio tales que f (x) = b. . . . . . . . . . . *, 93

Producto de matrices.Si αMN y βNL son dos matrices entonces

Page 203: Algebra Lineal

193pro – sub

γML = αMNβN,L es la matriz cuyas en­tradas son los productos escalares canonicosγij = αiNβNj de los renglones de αMN porlas columnas de βNL . . . . . . . . . . . . . . . .85, 113

Producto de un escalar por una funcion.Si en el codominio de f esta definido un pro­ducto por escalares entonces λf es la fun­cion tal que (λf) (a) = f (λa) . . . . . . . . . . . 78

Producto de un vector por una matriz. Esla combinacion lineal de los renglones de lamatriz cuyos coeficientes son las coordena­das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

Producto de una matriz por un vector. Esla combinacion lineal de las columnas de lamatriz cuyos coeficientes son las coordena­das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

Producto escalar. Producto bilineal de dosvectores cuyo resultado es un escalar . . . . 85

Producto escalar canonico.Producto escalar definido en KN como:αNβN =

Pi∈N αiβi . . . . . . . . . . . . . . . . . . . . 85

Proyeccion. Si C = A× B entonces,la funcion f : c = (a, b) 7→ a se le llamaproyeccion de C aA a lo largo de B. En par­ticular, nosotros la usamos en el caso de queE = F⊕G (¡la suma directa es un productocartesiano!). En este caso las proyeccionesson TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77, 94

Punto. Subespacio afın de dimension cero 66Raız de un polinomio. Elemento del

campo en el cual la funcion de evaluaciondel polinomio toma valor cero . . . . . . . . . . . 23

Rango de una matriz. El orden de sus bases.La dimension de su espacio de columnas.La dimension de su espacio de renglo­nes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .127

Recta.Subespacio afın de dimension uno. . . 66, 47

Regla del tablero de ajedrez. Regla mediantela cual se hallan los signos de los cofactoresde una matriz en forma grafica. El signo delcofactor de αij es (−1)i+j . . . . . . . . . . . . . .117

Relacion antisimetrica.Si a ≈ b y b ≈ a entonces, a = b . . . . . . . *

Relacion de equivalencia. Relacionsimetrica, reexiva y transitiva. . . . . . . . *, 66

Relacion de orden. Relacion antisimetrica,reexiva y transitiva . . . . . . . . . . . . . . *, 72, 126

Relacion en un conjunto. Subconjunto delproducto cartesiano A×A = A2 . . . . . . . . *

Relacion reexiva.Para todo a se tiene a ≈ a . . . . . . . . . . . . . . . . *

Relacion simetrica. (a ≈ b)⇒ (b ≈ a) . *Relacion transitiva.

Si a ≈ b y b ≈ c entonces, b ≈ a . . . . . . . *Renglon de una matriz. Dada una matriz

αNM e i ∈ N a la M­ada αiM (i esta fi­jo, los elementos de M varıan) se le llamai­esimo renglon de la matriz αNM . . 45, 85

Resto. Al efectuar la division con restode un elemento p de un anillo conmutativo(Z, K [x]) entre otro q obtenemos la igual­dad p = cq + r. Al elemento r se le llamaresto de la division de p entre q . . . . . 23, 14

Restriccion de una funcion.Una funcion f : A0 → B se le llama restric­cion de g : A→ B si A0 ⊆ A y para cual­quier a ∈ A0 se cumple f (a) = g (a) . . . 81

Serie. Expresion formal deltipo

P∞i=0 aix

i. A los elementos del campoai se le llaman coeficientes de la serie. . . 42

Signo de una permutacion.Funcion que a cada permutacion le hace co­rresponder 1 si esta es par y −1 si esta esimpar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .108

Sistema de ecuaciones lineales.Ecuacion Ax = b donde la matriz A yel vector b son conocidos y el vector x esincognito . . . . . . . . . . . . . . . . . . . . . . . . . . . .128, 95

Soporte. De una funcion f esel conjunto de elementos del dominio cuyaimagen es diferente de cero. De una N­adaes el conjunto de ındices cuyas coordenadasson diferentes de cero. De una combinacionlineal es el conjunto de sumandos con coefi­ciente diferente de cero . . . . . . . . . . 43, 47, 58

Subalgebra. Subespacio vectorialque contiene al 1 y en el cual el producto es

Page 204: Algebra Lineal

194 sub – tra

interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .141Subanillo. Subconjunto de un anillo que

es un anillo para las mismas operaciones delanillo mas grande . . . . . . . . . . . . . . . . . . . . . . . . 16

Subcampo. Subconjunto deun campo que es un campo para las mismasoperaciones del campo mas grande . . 16, 44

Subespacio. Subconjuntode un espacio vectorial que es a su vez es­pacio vectorial para las mismas operacionesque las de todo el espacio . . . . 46, 59, 63, 93

Subespacio afın.Traslacion de un subespacio . . . . . 66, 78, 97

Subespacio generado. Cerradura lineal . . 48Subespacio h­cıclico. Subespacio h­generado

por un solo vector . . . . . . . . . . . . . . . . . . . . . . .154Subespacio h­generado. La h­cerradura de

un conjunto de vectores . . . . . . . . . . . . . . . . .154Subespacio invariante. Subespacio

donde esta bien definida la restriccion de unOL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .138

Subespacio radical. Subespacio invariante enel cual el operador es radical . . . . . . . . . . . .149

Subespacios afines paralelos.Dos subespacios afines son paralelos si unoes traslacion del otro . . . . . . . . . . . . . . . . . . . . . 66

Subespacios complementarios.Dos subespacios cuya suma es todo elespacio y cuya interseccion es el ori­gen. . . . . . . . . . . . . . . . . . . . . . . . 63, 65, 67, 77, 94

Subgrupo. Subconjuntode un grupo que es un grupo para la mismaoperacion del grupo mas grande . . . . . . . . . 16

Submatriz. Dada una matriz αNM a cualquiermatriz αN0M0 tal queN0 ⊆ N yM0 ⊆M sele llama submatriz de αNM . . . . . . . . .45, 126

Sucesion. Elemento (a0, a1, ..., an, ...) delconjunto AN de funciones f : N→ A . . . 42

Sucesion acotada.La sucesion zk es acotada si existe un realM tal que ∀k kzkk ≤M . . . . . . . . . . . . . . . . . 30

Sucesion convergente.Una sucesion que tiene lımite . . . . . . . . . . . . 30

Suma de conjuntos.

Si A y B son conjuntos y entre sus elemen­tos hay una operacion de suma entonces:A+ B = a+ b | a ∈ A y b ∈ B . . . . . . 60

Suma de funciones.Si en el codominio mutuo de f y g esta defi­nida una suma entonces f + g es la funciontal que (λ+ g) (a) = f (a) + g (a) . . . . . 79

Suma directa de espacios. El produc­to cartesiano de los subespacios con la sumadefinida por coordenadas y tambien el pro­ducto por escalares. Si la interseccion de dossubespacios tiene dimension cero entonces,la suma directa de ellos es canonicamenteisomorfa a la suma . . . . . . . . . . . . . . . . . . . . . . . 62

Suma directa de OL. OLdefinido por coordenadas en la suma directade espacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .137

Supremo. El mınimo de las cotas inferiores *Tensor de exponente n. Un conjunto

indexado por n conjuntos de ındices . . . . 45Tipo de una descomposicion. Sih = f1⊕ · · ·⊕fn es una descomposicion deh entonces, su tipo es la sucesion de los po­linomios mınimos de f1, . . . , fn . Dos tiposson iguales si uno se puede obtener del otroreordenando la sucesion. En el tipo puedenhaber polinomios iguales . . . . . . . . . . . . . . .158

TL. Acronimo de transformacion lineal . . 75Transformacion elemental. Una trans­

formacion elemental de los renglones de unamatriz consiste en sumarle a un reglon otromultiplicado por un escalar. Analogamentese definen las transformaciones elementalesde las columnas . . . . . . . . . . . . . . . . . . . . . . . . .132

Transformacion lineal. Morfismo deespacios vectoriales . . . . . . . . . . . . . . 56, 75, 82

Transformacion lineal de una matriz.Dada la matriz αMN es la funcion:KN 3 βN → αMNβN ∈ KM . . . . . . . . . . . 86

Transformacion semilineal. Funcion de unespacio vectorial a otro que es morfismo pa­ra la suma y que cumple que f (λx) = λf (x)

para cierto automorfismo λ 7→ λ del campode escalares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

Page 205: Algebra Lineal

195tra – vec

Transposicion. Ciclo de orden dos . . . .107Transpuesta. Matriz que se obtiene de otra

intercambiando los subındices de sus entra­das, o sea si A = αNM y AT = B = βMNentonces αij = βji . . . . . . . . . . . . . . . . . . . . . .111

Traslacion de un conjunto de vectores.SiA es un conjunto de vectores y x otro vec­tor entoncesA+ x es la traslacion de A conel vector x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

Valor propio. Escalar tal que para cier­to vector propio a se tiene que h (a)= λa.Raız del polinomio caracterıstico . . . . . . .168

Vector. Elemento de un espacio vectorial. EnRn son los segmentos dirigidos del origen aun punto del espacio . . . . . . . . . . . . . . . . . 39, 40

Vector columna.Matriz con una sola columna . . . . . . . . . . . . 86

Vector de coeficientes libres. Elvector b del sistema de ecuaciones linealesAx = b . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .129

Vector propio. Vector a tal que la recta haies invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . .168

Vector renglon.Matriz con un solo renglon . . . . . . . . . . . . . . 86

Page 206: Algebra Lineal

196

Page 207: Algebra Lineal

∀ Para todo.∃ Existe.∃! Existe y es unico.P⇒ Q Si P entoncesQ.

P implicaQ.P es suficiente paraQ.

P⇐ Q P solo si Q.P es necesario paraQ.

P⇔ Q P si y solo siQ.P yQ son equivalentes.P es necesario y suficiente paraQ.

b ∈ B b pertenece a B.B 3 b B contiene a b.A ⊆ B A es subconjunto de B.A ⊇ B A es sobreconjunto de B.A Ã B A es subconjunto propio de B.

O sea, A ⊆ B y A 6= B.A ! B A es sobreconjunto propio de B.

O sea, A ⊇ B y A 6= B.A∪B La union de A y B.A∩B La interseccion de A y B.A\B La resta de conjuntos. El conjunto

de los elementos de A que no per­tenecen a B.

A×B El producto cartesiano de dos con­juntos. El conjunto de todas las pa­rejas (a, b) con a ∈ A y b ∈ B.

2A El conjunto de todos los subcon­juntos del conjuntoA. El conjuntode todas las funciones

f : A→ 0, 1.An El producto cartesiano de A con­

sigo mismo n veces. El conjuntode todos las n­adas (a1, . . . , an)donde todos los ai estan en A.

AN El conjunto de todas las funcionesf : N → A. El conjunto de todoslas N­adas aN donde ∀i ∈ N elelemento ai pertenece aA. SiN =1, . . . , n entonces AN = An.

0 El vector cero. El origen de coor­denadas.

0 Cero es elemento neutro para lasuma de un anillo o campo.

1 Uno es el elemento neutro para elproducto de un anillo o campo.

−1 Menos uno es el opuesto de 1 enun anillo o campo.

INN Matriz identidad.I La funcion identidad. La permuta­

cion identidadO La funcion nula. La matriz nulaℵ0 El cardinal de N.

K Un campo arbitrario.Kn El espacio de las n­adas.KN El espacio de lasN­adas.K [x] El algebra de polinomios en la va­

riable x con coeficientes en K.K [[x]] El algebra de series en la variable

x con coeficientes en K.K (x) El campo de funciones racionales

en x con coeficientes en K.

N El conjunto de los naturales.Z El anillo de los enteros.Zn El anillo de restos modulo n.

Para n primo Zn es un campo.Q El campo de los racionales.R El campo de los reales.C El campo de los complejos.SN El grupo simetrico deN.

Page 208: Algebra Lineal

198 Notaciones

AN El grupo alternante deN.A−N Las permutaciones impares deN.

f : A→ B

Una funcion que tiene dominio Ay codominio B.

f : A 3 a 7→ f (a) ∈ BUsada para denotar funciones con­cretas por ejemplo,

f : R 3 a 7→ a2 ∈ R+es la funcion con dominio R y co­dominioR+ que a cada real le hacecorresponder su cuadrado.

pmodq El resto de la division de p entreq. Esta bien definido en cualquieranillo con division. Por ejemplo,en los numeros enteros y en lospolinomios con coeficientes en uncampo.

n! El factorial del naturaln. Se definecomo n! = 1× 2× · · · × n.

|A| El cardinal del conjunto A. Puedeser finito o infinito.

kzk El modulo del numero complejo z.hNi La cerradura lineal de N. El con­

junto de todas las combinacioneslineales deN.

lım zk El lımite de la sucesion zk.dimE La dimension de E.sgnπ El signo de la permutacion π.detA El determinante de la matriz A.Im f La imagen de la funcion f.ker f El nucleo del morfismo f.

A+B La suma de dos conjuntos de vec­

tores.λA El producto de un escalar por un

conjunto de vectores.A+x El conjunto de vectores A trasla­

dado mediante el vector x. Si A esun subespacio entonces, es un sub­espacio afın.

E⊕F La suma directa de dos espacios.Si E y F son subespacios que seintersectan solo en el origen enton­ces es canonicamente isomorfa a lasuma de E y F.

αMN Una matriz cuyos renglones estanindexados por M y cuyas colum­nas estan indexadas porN.

αij La entrada αij de una matriz αMN .αiN El i­esimo renglon de la matriz

αNM .αMj La j­esima columna de la matriz

αNM .αMω(N) Si ω es una permutacion de N,

es la matriz αMN cuyas columnasestan permutadas mediante ω. Siω : N→ L es una biyeccion, es lamatriz cuyas columnas estan inde­xadas por Lmediante el cambio deındices ω.

αω(M)N Lo mismo que el anterior pero pa­ra los renglones

α∗ij El cofactor de la entradaαij de unamatriz cuadrada.

A∗ La matriz de cofactores de A.AT La matriz transpuesta de A.(A|b) La matriz ampliada del sistema

Ax = b.

Page 209: Algebra Lineal

199Notaciones

Alfabeto gotico

A B C D E F G H I J K L MA B C D E F G H I J K L M

N O P Q R S T U V W X Y ZN O P Q R S T U V W X Y Z

a b c d e f g h i j k l ma b c d e f g h i j k l m

n o p q r s t u v w x y zn o p q r s t u v w x y z

Alfabeto caligrafico

A B C D E F G H I J K L MA B C D E F G H I J K L M

N O P Q R S T U V W X Y ZN O P Q R S T U V W X Y Z

Alfabeto griego

A B Γ ∆ E Z H Θ I

α β γ δ ² ε ζ η θ ϑ ι

alfa beta gamma delta epsilon zeta eta zita iota

K Λ M N Ξ O Π P Σ

κ κ λ µ ν ξ o π ρ σ

kappa lamda mu nu xi omicron pi ro sigma

T Υ Φ X Ψ Ω

τ υ φ ϕ χ ψ ω

tau upsilon fi chi psi omega

Page 210: Algebra Lineal

200

Page 211: Algebra Lineal

Capıtulo 1

1. Defina los siguientes conceptos:• Operacion binaria.• Propiedad conmutativa.• Propiedad asociativa.• Propiedad distributiva.• Elemento neutro.• Elemento inverso.

2. En cualquier campo 0x = 0.3. Defina los siguientes conceptos:• Grupo y grupo abeliano.• Anillo y anillo conmutativo.• Campo.

4. Defina los morfismos.5. Los morfismos preservan las operaciones bi­

narias.6. Los morfismos preservan la conmutatividad.7. Los morfismos preservan la asociatividad.8. Los morfismos preservan el neutro.9. Los morfismos preservan el inverso.10. Los morfismos preservan la distributividad.11. La inversa de un isomorfismo es un isomor­

fismo.12. Defina la suma y el producto en Zn .13. (Zn,+, •) es un anillo conmutativo.14. Todo campo es un dominio de integridad.15. Zn es un dominio de integridad si y solo sin es primo.

16. Todo dominio de integridad finito es uncampo.

17. Definicion de subcampo.18. Definicion de campo primo19. Todo campoK contiene un unico subcampo

primo que esta contenido en cualquier sub­campo de K.

20. Q es un campo primo.

21. Los campos Zp son primos.22. Teorema de Clasificacion de Campos Pri­

mos.23. Defina la caracterıstica de un campo.24. En un campo de caracterıstica t para cual­

quier elemento x se cumple que tx = 0 .25. Demuestre la formula del binomio de New­

ton en base a la formula multinomial.

Capıtulo 2

1. Definicion de espacio vectorial.2. ¿Que es una n­ada? ¿Que es una N­ada?

¿Cual es su conjunto de ındices? ¿ Que sonsus coordenadas?

3. ¿Que es una NM­matriz? ¿Que es una en­trada, renglon, columna?

4. Definicion de subespacio.5. Los subespacios son los conjuntos cerrados

para la suma y el producto por escalares.6. La union de subespacios no es un subespa­

cio.7. La interseccion de subespacios es un subes­

pacio.8. Definicion de combinacion lineal y sus co­

eficientes.9. El conjunto de todas las combinaciones li­

neales de un conjunto de vectores es un su­bespacio.

10. Los siguientes tres conjuntos de vectores co­inciden:• El conjunto de todas las combinacioneslineales deN.• La interseccion de todos los subespaciosque contienen aN.• El subespacio mas pequeno que contieneaN.

11. Propiedades basicas de la cerradura lineal:

Page 212: Algebra Lineal

202 Guıa de estudio

• incremento,• monotonıa,• idempotencia.

12. Todo sobreconjunto de un conjunto genera­dor es generador.

13. Teorema de caracterizacion de conjuntos LI.14. Todo subconjunto de un conjunto LI es LI.15. Lema de aumento de un conjunto LI.16. Teorema de caracterizacion de bases.17. Teorema de existencia de bases.18. Propiedad del cambio de las bases.19. Dos bases cualesquiera de un espacio vecto­

rial tienen el mismo cardinal.20. Si E es un subespacio de F y dimE =

dimF <∞ entonces, E = F.21. Describa las bases canonicas de los espacios

vectoriales KN y K [x].22. La inversa de un isomorfismo lineal es un

isomorfismo lineal.23. Un isomorfismo transforma conjuntos LI en

conjuntos LI, conjuntos generadores en con­juntos generadores y bases en bases.

24. Describa el isomorfismo de coordinatiza­cion en una base.

25. Dos espacios vectoriales sobre un mismocampo son isomorfos si y solo si tienen lamisma dimension.

26. Todo espacio vectorial finito dimensional esisomorfo a Kn .

27. El numero de elementos en un campo finitoes potencia de un numero primo.

28. hE ∪ Fi = a+ b | a ∈ E, b ∈ F29. La igualdad modular (incluye la demostra­

cion del lema).30. Si E y F son subespacios tales que E ∩ F =0 entonces la funcion

E⊕ F 3 (a,b) 7→ a+ b ∈ E + Fes un isomorfismo de espacios vectoriales.

31. Que es un isomorfismo canonico. Demues­tre que E ⊕ F y F ⊕ E son canonicamenteisomorfos.

32. Todo subespacio tiene complementario.33. Si E y F son dos subespacios complemen­

tarios entonces cada vector x se expresa de

forma unica como x = a+ b donde a ∈ Ey b ∈ F.

34. Defina los subespacios afines.35. ¿Que es el paralelismo de subespacios afi­

nes?36. Todo subespacio afın es paralelo a un solo

subespacio vectorial.37. Dos diferentes subespacios afines paralelos

no se intersectan38. ¿Que es el espacio cociente? ¿Cuales son

sus operaciones?39. Cualquier subespacio complementario a E

intersecta al subespacio afın (E + x) en unsolo punto.

40.D/E es canonicamente isomorfo a cualquiercomplementario de E.

Capıtulo 3

1. Definicion de transformacion lineal.2. Toda TL transforma subespacios en subes­

pacios.3. Toda TL de un espacio de dimension 1 es

una homotecia.4. Definicion de proyeccion. Toda proyeccion

es una TL.5. El producto de un escalar por una TL es una

TL.6. La suma de dos TLs es una TL.7. La composicion de TLs es una TL.8. Propiedades de la composicion de TLs: aso­

ciatividad, distributividad y conmutatividadcon el producto por escalares.

9. Definicion de Algebra. De tres ejemplos dealgebras. ¿Que es el grupo general lineal?

10. Las extensiones lineales son TLs.11. Las TLs estan predeterminadas por sus va­

lores en una base.12. Si N es una base de E entonces, la funcion

que a cada TL h ∈ Hom (E,F) le hace co­rresponder su restriccion hN ∈ FN es unisomorfismo de espacios vectoriales.

13. Una TL es un isomorfismo si y solo si su res­triccion a una base es inyectiva y la imagende esta restriccion es una base.

Page 213: Algebra Lineal

203Guıa de estudio

14. Propiedades del producto escalar canonicodeN­adas conmutatividad, distributividad yconmutatividad con el producto por escala­res.

15. Definicion del producto de matrices.16. ¿Cual es la TL definida por una matriz?.

¿Cual es la matriz de una TL?17. La matriz de la composicion de dos TLs es

igual al producto de las matrices de las TLs.18. Defina las matrices de cambio de base.19. La N­ada de las coordenadas de un vector

en la base nueva se obtiene multiplicando lamatriz de cambio de base por la V­ada de lascoordenadas del vector en la base vieja.

20. Sea f : E→ F una TL. Sean B y C matricesde cambio de base en E y F respectivamen­te. Si A es la matriz de f en las bases viejasentonces CAB−1 es la matriz de f en las ba­ses nuevas.

21. Propiedades principales de la transpuesta deuna matriz.

22. Defina la transpuesta de una TL.23. La transpuesta de una inmersion es una pro­

yeccion.24. Definicion de nucleo e imagen de una TL.25. La imagen y el nucleo son subespacios.26. Una TL es injectiva si y solo si su nucleo es

trivial.27. Si K es un subespacio complementario a

ker f entonces, la restriccion de f a K es in­yectiva.

28. Pruebe que dim Im f = dim Im fT y quedim ker f = dimker fT.

29. Sean E y F dos espacios tales que dimE =dimF < ∞. Una TL de E a F es inyectivasi y solo si es sobreyectiva.

30. Los subespacios afines paralelos a ker f sonprecisamente los conjuntos de vectores enque la TL f es constante.

Capıtulo 4

1. Si |M| = |N| entonces, los grupos simetri­cos SM y SN son isomorfos.

2. El numero de permutaciones de un conjunto

con n elementos es n!.3. Que son las orbitas de una permutacion.4. La restriccion de una permutacion a una

orbita es un ciclo.5. Definicion de permutaciones pares e impa­

res. Definicion del signo.6. La composicion de una permutacion con

una transposicion cambia la paridad de lapermutacion.

7. Toda permutacion es composicion de trans­posiciones.

8. Pruebe que sgn (π ρ) = sgnπ sgnρ y quesgnπ−1 = sgnπ.

9. Definicion de determinante de una matriz.Regla del triangulo para los determinantesde orden 3.

10. El determinante de la matriz identidad es 1.11. Si una matriz tiene una columna o un ren­

glon nulo entonces, su determinante es cero.12. El determinante no se altera al transponer

una matriz.13. Si una matriz tiene dos columnas iguales en­

tonces, su determinante es cero.14. Al permutar las columnas o los renglones de

una matriz con la permutacionω el determi­nante se altera por un factor igual a sgnω.

15. Si φ y ϕ son dos cambios de ındices de NenM entonces, se cumple la igualdad:detαMφ(N) = sgn

¡φ ϕ−1

¢detαMϕ(N).

16. Definicion de matriz no singular.17. Definicion de cofactores de una entrada de

una matriz. Pruebe que los cofactores no de­penden del cambio de ındices usado paracalcular el determinante.

18. Teorema de expansion de Laplace.19. Definicion de funcional multilineal20. El determinante es un funcional multilineal

de los renglones.21. detA−1 = (detA)−1.22. A−1 = A∗T / detA.23. El determinante de un OL no depende de la

base que se use para calcularlo.24. Enuncie la expansion generalizada de La­

place

Page 214: Algebra Lineal

204 Guıa de estudio

25. El determinante de una matriz triangular porbloques es igual al producto de los determi­nantes de sus bloques.

26. Enuncie la caracterizacion de matrices nosingulares.

27. Las dimensiones del espacio de columnas ydel espacio de renglones de una matriz co­inciden.

28. Lema de aumento de submatrices no singu­lares.

29. Caracterizacion de las bases de una matriz30. Regla de Cramer.31. Teorema de existencia de soluciones.32. Lema de eliminacion de ecuaciones depen­

dientes.

33. Describa el procedimiento general de solu­cion de los sistemas de ecuaciones lineales.

34. Las transformaciones elementales no cam­bian los determinantes.

35. Las transformaciones elementales de losrenglones de la matriz ampliada no cambianel subespacio afın solucion de un sistema deecuaciones lineales.

36. Resuelva un sistema de ecuaciones linealespor el metodo de Gauss.

37. Encuentre la inversa de una matriz por elmetodo de eliminacion de Gauss

Capıtulo 5