PARA ESTUDIANTES DE INGENIERÍA Y CIENCIAS PARA ESTUDIANTES DE INGENIERÍA Y CIENCIAS Juan Carlos Del Valle Sotelo Instituto Tecnológico y de Estudios Superiores de Monterrey, Campus Estado de México ˜ Director General México: Miguel Ángel Toledo Castellanos Editor sponsor: Pablo Eduardo Roig Vázquez Coordinadora editorial: Marcela I. Rocha Martínez Supervisor de producción: Zeferino García García ÁLGEBRA LINEAL PARA ESTUDIANTES DE INGENIERÍA Y CIENCIAS Prohibida la reproducción total o parcial de esta obra, por cualquier medio, sin la autorización escrita del editor. DERECHOS RESERVADOS © 2011 respecto a la primera edición por McGRAW-HILL/INTERAMERICANA EDITORES, S.A. DE C.V. A Subsidiary of The McGraw-Hill Companies, Inc. Edificio Punta Santa Fe Prolongación Paseo de la Reforma 1015, Torre A Piso 17, Colonia Desarrollo Santa Fe, Delegación Álvaro Obregón C.P. 01376, México, D. F. Miembro de la Cámara Nacional de la Industria Editorial Mexicana, Reg. Núm. 736 ISBN: 978-970-10-6885-4 1234567890 1098765432101 Impreso en México Printed in Mexico Page (PS/TeX): 1 / 4, COMPOSITE A la memoria de Esther, mi amada madre; a mi hermano Manuel; a mis hijas Miriam y Samantha En un universo quizá infinito inconcebiblemente antiguo es una dicha saber que tengo mi origen en una amorosa madre y en un hermano que me cuidó como a un hijo y por eso es mi padre y percibir una infinitésima parte de mı́ en la mirada de dos pequeños seres que en momentos difı́ciles han sido tan grandes. Page (PS/TeX): 5 / 5, COMPOSITE Page (PS/TeX): 6 / 6, COMPOSITE Contenido Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prólogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XIII XV PARTE I MATRICES, SISTEMAS Y DETERMINANTES CAPÍTULO 1 Matrices y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1.1 1.1 1.1 1.1 1.1 1.1 1.2 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.3 1.1 1.1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2.1 1.1 1.1 1.1 1.1 1.1 2.2 1.1 1.1 1.1 1.1 1.1 2.3 1.1 1.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.3 Matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.4 Propiedades de las operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.5 Matrices con números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Definiciones, soluciones y forma matricial de sistemas lineales . . . . . . . . . . . . . . . . . 1.2.2 Matrices escalonadas y sistemas escalonados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.3 Operaciones de renglón para matrices, equivalencia por filas y soluciones 1.2.3 de sistemas escalonados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.4 Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.5 Método de Gauss-Jordan y sistemas con solución única . . . . . . . . . . . . . . . . . . . . . . . 1.2.6 Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.7 Estructura de las soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.8 Sistemas lineales con números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . CAPÍTULO 2 Matrices invertibles y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matrices invertibles y sus inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2 Matrices invertibles y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3 Método de Gauss-Jordan para hallar la inversa de una matriz . . . . . . . . . . . . . . . . . . . 2.1.4 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.5 Inversas de matrices con componentes complejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Desarrollo por cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.3 Método de la adjunta para hallar la inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.4 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.5 Determinantes de matrices con componentes complejas . . . . . . . . . . . . . . . . . . . . . . . Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 4 7 9 12 14 15 20 22 24 28 31 32 34 35 35 55 63 63 63 65 68 71 74 75 75 80 83 84 85 86 86 102 VII Page (PS/TeX): 7 / 7, COMPOSITE VIII CONTENIDO PARTE II ESPACIOS VECTORIALES, PRODUCTO INTERIOR, NORMAS, VALORES Y VECTORES PROPIOS CAPÍTULO 3 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 113 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 3.1 1.1 1.1 1.1 1.1 3.2 1.1 1.1 1.1 1.1 3.3 1.1 3.4 1.1 1.1 1.1 3.5 3.6 1.1 1.1 113 113 117 119 123 131 131 138 139 143 151 156 158 158 160 169 173 175 175 207 CAPÍTULO 4 Espacios con producto interior y espacios normados . . . . . . . . . . . . . . . . . . . . . . . .. 235 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 4.1 1.1 1.1 1.1 1.1 1.1 4.2 1.1 1.1 1.1 1.1 1.1 1.1 1.1 4.3 1.1 1.1 235 236 247 252 263 283 303 303 309 317 324 334 337 341 347 347 383 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . 415 1 1 1 1 1 1 1 1 5.1 1.1 1.1 5.2 1.1 1.1 1.1 1.1 415 416 422 433 433 441 447 452 Geometrı́a de los espacios Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 El plano cartesiano R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Interpretación geométrica del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3 El espacio vectorial Rn , geometrı́a y propiedades algebraicas . . . . . . . . . . . . . . . . . . 3.1.4 La desigualdad de Schwarz, ángulos entre vectores y ortogonalidad . . . . . . . . . . . . Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Propiedades elementales de los espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.4 Combinaciones lineales y subespacios generados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Criterios de independencia lineal en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Dimensión, extracción de bases y compleción de un conjunto L.I. a una base . . . . 3.4.3 Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Espacios vectoriales sobre los números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Espacios con producto interior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Definiciones, ejemplos y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2 Ortogonalidad y norma inducida por el producto interior . . . . . . . . . . . . . . . . . . . . . . 4.1.3 Desigualdad de Schwarz y ángulo entre vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.4 Proyecciones, proceso de ortogonalización, factorización QR . . . . . . . . . . . . . . . . . . 4.1.5 Aproximación óptima de un vector por elementos de un subespacio . . . . . . . . . . . . Espacios vectoriales normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Distancia en espacios vectoriales normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Normas que provienen de productos interiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4 Normas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.5 Construcción de normas en espacios de dimensión finita a partir de normas en Rn 4.2.6 Aproximaciones óptimas en espacios normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.7 ¿Qué norma utilizar? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1 Definición, ejemplos y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2 Núcleo e imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Representaciones matriciales de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Vectores de coordenadas, cambio de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Representaciones matriciales de un operador lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.3 Representaciones matriciales de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . 5.2.4 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Page (PS/TeX): 8 / 8, COMPOSITE CONTENIDO 1 1 1 1 1 1 1 1 5.3 1.1 1.1 1.1 1.1 5.4 1.1 1.1 Valores y vectores propios, diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.2 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.3 Valores propios complejos y diagonalización sobre C . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.4 Operadores autoadjuntos y matrices simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX 457 457 471 482 491 497 497 539 PARTE III APLICACIONES, USO DE TECNOLOGÍA, MÉTODOS NUMÉRICOS 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 CAPÍTULO 6 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 581 6.1 6.2 1.1 1.1 1.1 6.3 1.1 1.1 1.1 1.1 1.1 6.4 1.1 1.1 1.1 1.1 6.5 1.1 1.1 1.1 1.1 1.1 1.1 1.1 6.6 6.7 6.8 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 6.9 581 589 590 591 595 596 596 602 604 Page (PS/TeX): 9 / 9, COMPOSITE Matrices de incidencia y teorı́a de grafos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Redes de conducción y principios de conservación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Flujo vehicular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.2 Circuitos eléctricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.3 Balance quı́mico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Análisis insumo-producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Modelo para economı́a abierta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.2 Modelo para economı́a cerrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.3 Singularidad de la matriz de Leontief para el modelo de economı́a cerrada . . . . . . 6.3.4 Inversa de la matriz de Leontief para el modelo de economı́a abierta y método de 6.3.4 aproximación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Programación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.1 Enfoque geométrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.2 Método simplex para el problema estándar de programación lineal . . . . . . . . . . . . . 6.4.3 Restricciones generales y método simplex de dos fases . . . . . . . . . . . . . . . . . . . . . . . . 6.4.4 Dualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Teorı́a de juegos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Juegos estrictamente determinados y puntos silla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.2 Estrategias y pagos esperados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.3 Estrategias óptimas y valor esperado para juegos matriciales con matriz de pagos 6.3.4 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.4 Estrategias óptimas y valor esperado con programación lineal para juegos 6.3.4 matriciales con matriz de pagos m × n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.5 Filas y columnas recesivas o dominantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sistemas lineales de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Optimización de funcionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.1 Problemas fı́sicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.2 Cálculo diferencial en espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.3 Cálculo diferencial para funcionales en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.4 Extremos locales de funcionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.5 Extremos locales y valores propios de la matriz hessiana . . . . . . . . . . . . . . . . . . . . . . 6.8.6 Condiciones necesarias para que cierto tipo de funcionales en espacios de 6.3.4 dimensión infinita alcancen valores extremos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.7 Dinámica de un monopolista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.8.8 Epı́logo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605 613 613 620 631 641 644 645 646 648 652 657 658 666 671 672 679 698 706 709 716 725 727 728 X CONTENIDO CAPÍTULO 7 Uso de tecnología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 761 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 7.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 7.2 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 1.1 7.3 1.1 1.1 1.1 7.4 761 761 763 764 765 766 768 771 772 773 CAPÍTULO 8 Álgebra lineal numérica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 819 1 1 1 1 1 1 1 1 1 1 8.1 8.2 1.1 1.1 1.1 1.1 8.3 1.1 1.1 1.1 819 822 822 827 829 838 848 848 862 877 La calculadora HP 50g y álgebra lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.1 Teclado y sus funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.2 La pantalla y comandos de decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.3 Modos de operación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.4 Cálculo simbólico vs numérico y almacenamiento de objetos algebraicos . . . . . . 17.1.5 Escritura de vectores y matrices en la Hp 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.6 Operaciones con vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.7 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.1.8 Factorización QR y ortogonalización, factorización LU . . . . . . . . . . . . . . . . . . . . . .. 17.1.9 Forma escalonada y forma escalonada reducida con la HP 50g, sistemas lineales 7.1.10 Métodos de Gauss y Gauss-Jordan paso a paso en forma automática con la 7.1.10 HP 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.11 Inversa de una matriz paso a paso de manera automática con la calculadora 7.1.10 HP 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.12 Métodos de Gauss y Gauss-Jordan con operaciones de renglón ejecutadas por el 7.1.10 usuario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.13 Inversa de una matriz por el método de Gauss-Jordan con operaciones de renglón 7.1.10 ejecutadas por el usuario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.14 Transformaciones lineales, núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.15 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.16 Números complejos con la HP 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . M ATLAB y álgebra lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.1 Interacción con M ATLAB y almacenamiento de información . . . . . . . . . . . . . . . . . . 17.2.2 Escritura de matrices y operaciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.3 Formatos y modo simbólico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.4 Matrices especiales, información básica y edición de matrices . . . . . . . . . . . . . . . . 17.2.5 Operaciones de renglón con M ATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.6 Funciones programadas por el usuario, programación en M ATLAB y operaciones 7.1.10 de renglón . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.7 Traza, determinante, rango, inversa y transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.8 Forma escalonada reducida, solución de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.2.9 Valores y vectores propios, polinomio caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.10 Factorización QR y factorización LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Excel, la herramienta Solver y programación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.3.1 Activación de Solver en Excel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.3.2 La función SUMAPRODUCTO de Excel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17.3.3 Resolución de problemas de programación lineal con Solver . . . . . . . . . . . . . . . . . Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aritmética de la computadora y errores de redondeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Métodos directos para resolver sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.2.1 Método de Gauss para sistemas lineales de orden n con sustitución regresiva . . . 18.2.2 Método de Gauss para hallar la inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 18.2.3 Factorización LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.2.4 Estrategias para pivotar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Métodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.3.1 La teorı́a de punto fijo y normas matriciales naturales . . . . . . . . . . . . . . . . . . . . . . . . 18.3.2 Método iterativo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18.3.3 Planteamiento general para un método iterativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Page (PS/TeX): 10 / 10, COMPOSITE 774 775 775 777 779 780 780 781 781 783 785 786 789 790 797 798 800 802 803 803 805 806 813 CONTENIDO 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 A 1 1 1 A 1 1 1 A 1.1 1.1 1.1 8.4 1.1 1.1 1.1 1.1 8.5 1.1 1.1 1.1 1.1 1.1 1.1 8.6 XI 8.3.4 Método iterativo de Richardson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.5 Método iterativo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.6 Series de Neumann y método iterativo para aproximar la inversa de una matriz . . Transformaciones de Householder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.1 Definiciones y transformaciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.2 Factorización QR de Householder y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.3 Reducción de Householder-Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.4 Rotaciones y reflexiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aproximación de valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.1 Método de la potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.2 Deflación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.3 Iteración inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.4 Método QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5.5 Método QR con reducción de Hessenberg y desplazamientos . . . . . . . . . . . . . . . . . . 8.5.6 Método de Jacobi para aproximar valores y vectores propios de matrices simétricas Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 880 887 896 901 902 908 913 917 923 923 931 937 939 946 950 956 A Conjuntos, demostraciones e inducción matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 985 A.1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 985 1.1 A.1.1 Conjuntos, elementos y subconjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 985 1.1 A.1.2 Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 988 1.1 A.1.3 Reuniones e intersecciones de familias de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 992 A.2 Demostraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 993 1.1 A.2.1 El método deductivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 993 1.1 A.2.2 Métodos de demostración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 995 1.1 A.2.3 Bicondicional y definiciones, lemas y corolarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 999 A.3 Inducción matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1002 B Números complejos, campos y espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1011 B B B 1 1 B B B.1 Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. B.2 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B.3 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 B.3.1 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 B.3.2 Raı́ces y teorema fundamental del álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B.4 Espacios vectoriales sobre otros campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . B.5 Aplicación a la teorı́a de detección y corrección de errores en códigos . . . . . . . . . . . . . . . 1011 1017 1021 1021 1025 1026 1030 C Demostraciones que fueron diferidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1037 D Formas canónicas de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1055 E Respuestas a ejercicios seleccionados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1073 Lista de símbolos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1105 Alfabeto griego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1108 Lista de aplicaciones adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1109 Lista de programas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1110 Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1111 Índice analítico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1113 Page (PS/TeX): 11 / 11, COMPOSITE Page (PS/TeX): 12 / 12, COMPOSITE Agradecimientos Deseo primeramente agradecer a Miguel Ángel Toledo y a Ramón Orduña, quienes me invitaron a realizar este proyecto con McGraw-Hill, por el gran apoyo y paciencia que tuvieron desde el inicio hasta la culminación de la obra, sin ellos hubiera sido imposible terminarla. Este libro lo escribı́ en el procesador de texto matemático y cientı́fico LATEX y el trabajo editorial para su formación fue considerable; deseo dar las gracias a Marcela Rocha y a Pablo Roig por todo el esfuerzo que hicieron para que el proyecto pudiera editarse en ese formato y por toda la ayuda que me brindaron en el transcurso de su elaboración. La mayorı́a de la las figuras las construı́ utilizando los programas LaTeXPiX, TeXCad, GNUPLOT, TeXCad32 o LaTeX-CAD; deseo dar crédito y reconocimiento a los autores de estos paquetes —de distribución gratuita— por la magnı́fica tarea que han realizado en esas herramientas de dibujo en el ambiente LATEX, las cuales facilitaron enormemente el trabajo gráfico en este libro. También quiero reconocer la excelente labor de maquetación por parte de Mercè Aicart Martı́nez. Las imágenes 3D —la máquina de la página 416 y los depósitos interconectados de la figura 6-20—, fueron diseñadas por Ernesto Byas Lizardo y Ramón Nuñez Serrania. Todos los dibujos de los circuitos eléctricos y los digrafos del capı́tulo 6 los realizaron Miriam Del Valle y Samantha Del Valle. Los planos en tres dimensiones de la figura 1-2 los construyó Elién Rodrı́guez Del Valle. Ernesto y Miriam hicieron la revisión, en computadora, de las respuestas numéricas de muchos de los ejercicios propuestos y Miriam leyó el texto en su totalidad para localizar erratas. Mi más sincero agradecimiento a todos ellos por la desinteresada ayuda que me brindaron. Doy gracias a las autoridades del campus Estado de México, del Instituto Tecnológico y de Estudios Superiores de Monterrey, por las facilidades que me dieron para la realización de esta obra; y a Enrique Ortiz, de HP Calculators Latin America, por el soporte otorgado para la realización de la sección 7.1. El doctor Francisco Delgado Cepeda, profesor del campus Estado de México, leyó por completo el primer capı́tulo; le agradezco mucho su colaboración y valiosos comentarios. El doctor Fermı́n Acosta Magallanes, profesor del campus Estado de México y de la UPIITA del IPN, sacrificó mucho de su tiempo al leer casi en su totalidad el libro. Sus comentarios, observaciones y correcciones fueron de un enorme valor. Obviamente cualquier error técnico en el texto es absolutamente mi responsabilidad. El interés constante que mantuvo Fermı́n en la realización de esta obra fue un gran estı́mulo para su culminación y estaré siempre agradecido con él. Cuando estaba escribiendo este trabajo, se presentaron algunos problemas serios en mi salud, y gracias a los cuidados y apoyo de mis hermanas Rosa Marı́a y Gabriela, mi hermano Manuel, mi cuñado José Manuel Lara, mi doctora de cabecera Daniela Lara Del Valle, mis sobrinos Emmanuel Lara, Etzel Rodrı́guez, Rosa Marı́a Lara, Noemı́ Del Valle, Alejandro Urban, y mis hijas Samantha y Miriam, ahora estoy escribiendo estas últimas lı́neas. Espero que ellos sepan que pueden contar siempre conmigo como yo conté con ellos. XIII Page (PS/TeX): 13 / 13, COMPOSITE XIV AGRADECIMIENTOS Escribir un libro, especialmente uno como éste, es una labor en la que hay gran sacrificio no sólo del autor, sino también de los que son más cercanos a él: su familia; en este caso mis hijas Samantha y Miriam. Su paciencia, amor y comprensión fueron el principal incentivo para llegar al final de este proyecto. Finalmente quiero agradecer a Rubén Dario Santiago Acosta, director del Departamento de Matemáticas y Fı́sica del campus Estado de México, por su valiosa cooperación para la realización de este libro. En la vida de todo ser humano existen periodos en que los avatares son más intensos y frecuentes; el lapso para realizar esta obra fue una de esas etapas para mı́. Rubén fue en todo momento un apoyo y, aunque la suerte no siempre está de mi lado, soy muy afortunado por tener a un gran amigo como él. Page (PS/TeX): 14 / 14, COMPOSITE Prólogo Este libro tiene su germen en las notas del curso semestral de álgebra lineal que he impartido a lo largo de varios años en el Instituto Tecnológico y de Estudios Superiores de Monterrey, campus Estado de México, las cuales son el esqueleto de lo que ahora pretendo mostrar como un cuerpo ya con piel y completo, que se desarrolló gracias a la experiencia adquirida a través de todos esos años. El objetivo principal es presentar a detalle y profundidad los principales temas del álgebra lineal, mostrando la utilidad de esta materia por medio de una gran variedad de aplicaciones a otros campos y a las propias matemáticas. Integrando la teorı́a, la práctica, el uso de tecnologı́a y los métodos númericos de esta disciplina. El libro está diseñado de tal manera que se puede usar para un curso de uno o dos semestres, dependiendo de los programas de estudio de cada institución y de la profundidad con la que se desee tratar cada tema. En el primer caso conviene cubrir las partes I y II, exceptuando los apartados 4.2, 5.3.3 y 5.3.4. Para el segundo caso, se recomiendan todos los temas de las partes I y II, las formas canónicas de Jordan del apéndice D y el material adicional que se incluye en el sitio web del libro. En ambas modalidades se pueden incluir las secciones que se consideren adecuadas de la parte III, especialmente las aplicaciones del capı́tulo 6. Como su nombre lo indica, Álgebra lineal para estudiantes de ingenierı́a y ciencias está orientado para ser utilizado tanto en escuelas de ingenierı́a como en escuelas de ciencias, ya sea a nivel licenciatura o posgrado. Los requisitos académicos para la comprensión del material son las matemáticas elementales que se cubren a nivel medio superior (álgebra, geometrı́a analı́tica y cálculo diferencial e integral). La mayorı́a de los estudiantes que toman un curso de álgebra lineal, salvo los que cursan la carrera de matemáticas, se enfrentan por primera vez a una materia en la que se tienen que hacer demostraciones de teoremas y proposiciones matemáticas utilizando el método lógico-deductivo; es la principal dificultad que entraña un curso de esta naturaleza para el lector profano en el campo del rigor matemático. Sin embargo, en álgebra lineal la mayorı́a de las demostraciones son constructivas; es decir, la prueba de un teorema es en sı́ un algoritmo para resolver una serie de importantes problemas; lo cual representa una ventaja didáctica para poder iniciarse en el rigor lógico de las matemáticas. Aun tomando en consideración esa ventaja, aprender en qué consiste probar rigurosamente proposiciones matemáticas no es fácil. Para apoyar al estudiante en esta tarea, el apéndice A.2 contiene una breve introducción al método deductivo y a los métodos de demostración en matemáticas —diseñada para que el lector pueda estudiarla por cuenta propia o con un poco de ayuda de su profesor—, a través de casos concretos y con un mı́nimo de conocimientos previos que seguramente todo estudiante, a este nivel, posee. En estos tiempos, donde la credulidad y las pseudociencias son estimuladas mediáticamente como instrumentos de mercadotecnia para vender productos que “curan” todos los males —incluyendo los polı́ticos y sociales—, el escepticismo, como una cultura de lo que se afirma se demuestra, deberı́a ser cultivado por el Homo sapiens moderno y el álgebra lineal es una excelente oportunidad para iniciarse, al menos en la parte matemática, en esa cultura. XV Page (PS/TeX): 15 / 15, COMPOSITE XVI PRÓLOGO He dividido el libro en tres partes que, desde mi punto de vista, conforman lo que es el álgebra lineal. Las primeras dos contienen el núcleo teórico de la materia. La parte I —matrices, sistemas lineales, determinantes e inversas de matrices— es la más elemental y es la columna vertebral en la que se apoya el resto del libro; mientras que la II —espacios vectoriales, producto interior, normas, valores y vectores propios— es el corpus de ese núcleo que incluye los temas más relevantes del álgebra lineal. Estos dos segmentos constituyen los primeros cinco capı́tulos de la obra, y en ellos he intentado exponer el significado matemático del álgebra lineal. En la parte III —que contiene los últimos tres capı́tulos del texto—, a través de diversas aplicaciones en el capı́tulo 6, he tratado de hacer patente la utilidad práctica que tiene esta importante materia. Los cálculos numéricos en álgebra lineal pueden llegar a ser muy complejos aritméticamente y tomar demasiado tiempo realizarlos; afortunadamente en esta época contamos con tecnologı́a para apoyarnos en esta tarea. En el capı́tulo 7, incluı́ el uso de la tecnologı́a en el álgebra lineal, especı́ficamente con M ATLAB y la calculadora HP 50g; y EXCEL, para programación lineal. Sin embargo, una exposición del álgebra lineal que no muestra las dificultades inherentes que se presentan al hacer cálculos numéricos en esta materia y cómo resolverlas matemáticamente, es incompleta. Por esta razón, el capı́tulo final contiene una introducción relativamente profunda de los principales métodos numéricos que se utilizan en álgebra lineal; con más de 32 programas en M ATLAB de esos algoritmos para ser utilizados o modificados, en este u otro lenguaje, por el estudiante a su conveniencia. Al escribir esta obra intenté tener siempre presentes los obstáculos a los que se enfrentan la mayorı́a de los estudiantes de álgebra lineal, el principal es el alto nivel de abstracción de la materia. Para soslayar esta dificultad, el libro contiene más de 200 figuras con el propósito de crear imágenes que puedan ayudar al lector a visualizar fı́sica y geométricamente entes abstractos y convertirlos en conceptos más concretos. Además, a lo largo de sus 8 capı́tulos y 5 apéndices, incluı́ más de 450 ejemplos para apoyarlo a comprender la materia. Sin embargo, pensé que esto no era suficiente, pues el estudiante necesita ver cómo se resuelven ejercicios en álgebra lineal, sobre todo aquellos que tienen contenidos altos de abstracción; por esta razón incorporé, en la última sección de cada uno de los primeros cinco capı́tulos —que conforman el núcleo principal del libro— un grupo de ejercicios resueltos con detalle; en total forman un conjunto de más de 230 ejercicios de cálculos directos, demostraciones, etc., que junto con los ejemplos del texto suman un total de más de 680 problemas completamente resueltos que el lector puede consultar según lo necesite. Naturalmente, no basta con “ver”, se necesita “hacer” y, para ello, el libro contiene —al final de cada capı́tulo— una sección de ejercicios propuestos al estudiante —con respuestas a los ejercicios seleccionados en el apéndice E— para que practique a discreción o de acuerdo con las instrucciones de su profesor; en total el libro cuenta con más de 2300 ejercicios propuestos. Con el propósito de no interrumpir la exposición de la teorı́a en el texto y para facilitar su consulta, coloqué aparte, en el capı́tulo 6, las aplicaciones. Al principio de cada una de ellas se hacen explı́citos los requisitos —del material del texto y de otras disciplinas— que se necesitan para su estudio. El nivel de las aplicaciones aumenta gradualmente desde el muy elemental hasta un nivel que demanda mucho más esfuerzo para su comprensión; sin embargo, confı́o que la utilidad final que el estudiante encuentre en ellas bien valdrá la pena el tiempo invertido para su estudio. De hecho, este capı́tulo se puede abordar inmediatamente después de que se cumplan los requisitos que señala la aplicación correspondiente; por ejemplo, las aplicaciones de las secciones 6.1, 6.2, 6.4, 6.5 y 6.6, se pueden tratar en seguida que se ha cubierto el material de matrices y sistemas lineales (o en forma simultánea). Sin embargo, en el texto hay algunas aplicaciones que en realidad están concatenadas a la teorı́a —por ejemplo, el tema de aproximación óptima en espacios normados, o la interesante teorı́a de detección y corrección de errores en códigos binarios que está al final del apéndice B—, esas no las incluı́ en el capı́tulo 6 y se encuentran dispersas a lo largo del libro; en la página 1109 hay una lista de ellas con referencias al lugar donde se Page (PS/TeX): 16 / 16, COMPOSITE PRÓLOGO XVII localizan en el texto. Una función semejante cumple el listado de la página 1110, que es una descripción de los principales programas en M ATLAB que contiene el libro y señala su ubicación. Además, esta obra cuenta con una página donde el estudiante tendrá acceso a diversos recursos: www.mhhe.com/uni/delvalleag1e. Espero que Álgebra lineal para estudiantes de ingenierı́a y ciencias cumpla con los propósitos para los que fue creado, sirva de apoyo a la labor docente de los profesores que trabajan educando en esta materia y que vosotros, estudiantes, encuentren en él no sólo dónde aprender álgebra lineal, sino que también disfruten de ese proceso como yo lo hice al escribir cada una de las lı́neas de este libro (también sufrı́, ojalá ustedes no). México D.F., primavera de 2011 J UAN C ARLOS D EL VALLE S OTELO Page (PS/TeX): 17 / 17, COMPOSITE Page (PS/TeX): 18 / 18, COMPOSITE I Matrices, sistemas y determinantes Page (PS/TeX): 1 / 1, COMPOSITE Page (PS/TeX): 2 / 2, COMPOSITE 1 Matrices y sistemas lineales En este capı́tulo se introducen los conceptos básicos que se requieren para estudiar álgebra lineal. Comenzamos en la primera sección con el tema fundamental de matrices. Las matrices se crearon para operar ciertos arreglos numéricos que aparecen tanto en aplicaciones como en las propias matemáticas. Continuamos en la segunda sección con el estudio general de sistemas de ecuaciones lineales. Los sistemas de ecuaciones lineales tienen una gran variedad de aplicaciones en ciencias e ingenierı́a y seguramente el lector ya tuvo algún contacto con ellos en forma elemental en secundaria y bachillerato; aquı́ nos abocamos a un estudio general y profundo de este importante tema. La tercera sección contiene un compendio de ejercicios resueltos de las dos secciones precedentes para que el lector consulte el mayor número de ejemplos resueltos y un conjunto de ejercicios propuestos para que los resuelva el estudiante. 1.1 Matrices 1.1.1 Definiciones y ejemplos Definición 1.1 Una matriz A es un arreglo de reales: ⎡ a11 ⎢ a21 ⎢ A=⎢ . ⎣ .. am1 m-renglones o filas y n-columnas de m × n números a12 · · · a1n a22 · · · a2n . .. . . . .. . am2 · · · amn ⎤ ⎥ ⎥ ⎥. ⎦ Se dice entonces que A es una matriz de tamaño m × n y simbólicamente se escribe A = [ai j ] , i = 1, 2, ..., m; j = 1, 2, ..., n. Esto es, ai j representa el número que se encuentra en la fila i y en la columna j. A los elementos ai j se les llaman las componentes (entradas) de la matriz A. P Nota 1.1 1. Los paréntesis rectangulares se pueden suplir por paréntesis circulares en notaciones matriciales. En este libro emplearemos paréntesis rectangulares. 3 Page (PS/TeX): 3 / 3, COMPOSITE 4 CAPÍTULO 1 Matrices y sistemas lineales 2. En el caso particular de que una matriz tenga tamaño 1 × 1 escribiremos simplemente a en lugar de [a]; es decir, identificaremos toda matriz [a] con el número real a. Ejemplo 1.1 Si A= −2 3 5 −4 2 1 , A es una matriz 2 × 3 y, para este caso, a11 = −2, a12 = 3, a13 = 5, a21 = −4, a22 = 2, a23 = 1. P Nota 1.2 Al conjunto de matrices de tamaño m × n lo denotaremos, en este libro, por Mm×n . Definición 1.2 Dos matrices A = [ai j ], B = [bi j ] son iguales (A = B) si y sólo si: • A y B tienen el mismo tamaño y • ai j = bi j ∀i , j. Ejemplo 1.2 De acuerdo con la definición precedente 1 3 9 5 7 2 = Ejemplo 1.3 Determinar el valor de a para que las matrices A = sean iguales. 1 3 9 5 6 2 a 1 −1 2a . yB= 2 1 −1 4 Solución Dado que ambas matrices tienen el mismo tamaño ellas serán iguales si y sólo si coinciden componente a componente; para lo cual es suficiente que a = 2 y 2a = 4; esto es, para a = 2. a 0 1 0 Ejemplo 1.4 Resolver el ejemplo anterior si A = yB= . 3 3a 3 4 Para que las matrices sean iguales se requiere, en este caso, que a = 1 y 3a = 4, luego se debe tener simultáneamente a = 1 y a = 4/3; lo cual es imposible. Por tanto A = B para cualquier valor de a. Solución 1.1.2 Operaciones con matrices 1. Multiplicación de un escalar1 con una matriz. Si λ ∈ R y A = [ai j ] ∈ Mm×n se define λA = [λai j ]. Es decir, el resultado de multiplicar una matriz con un escalar es la matriz que tiene como componentes cada una de las entradas de la matriz original multiplicada por dicho escalar. 2. Suma de matrices. Si A , B ∈ Mm×n , A = [ai j ], B = [bi j ]; se define la suma de A con B como A + B = [ci j ], con ci j = ai j + bi j ∀i , j. Ası́, la suma de dos matrices sólo se puede realizar cuando éstas tienen el mismo tamaño y el resultado es también una matriz m × n. 11 Diremos que todo número real es un escalar. Page (PS/TeX): 4 / 4, COMPOSITE SECCIÓN 1.1 Matrices 5 3. Multiplicación de una matriz fila por matriz columna.2 ⎡ a11 a12 ··· a1n ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ b11 b21 · · · bn1 ⎤ ⎥ ⎥ ⎥ ⎥ = a11 b11 + a12 b21 + · · · a1n bn1 . ⎥ ⎦ De acuerdo con esta definición, el producto de una matriz fila con una matriz columna sólo se puede llevar a cabo cuando la primera tiene tamaño 1 × n y la segunda n × 1 (las dos tienen el mismo número de componentes) y el resultado de la operación será una matriz 1 × 1 (un número real). 4. Producto de una matriz m × n con una matriz n × p. Si A = [ai j ] ∈ Mm×n y B = [bi j ] ∈ Mn×p , el producto de A con B se define como AB = [ci j ] donde ci j = n ∑ aik bk j , k=1 para i = 1, 2, . . . , m y j = 1, 2, . . . , p. Es decir, la componente ci j del producto AB es el resultado de multiplicar la i-ésima fila de A con la j-ésima columna de B. Además, para poder efectuar el producto, la primera matriz debe tener el mismo número de columnas que de filas la segunda y la matriz AB tiene entonces tamaño m × p. En forma equivalente, si Fi , i = 1, . . . , m, son las filas de A y C j , j = 1, . . . , p, son las columnas de B, entonces ⎡ ⎢ ⎢ AB = ⎢ ⎣ Ejemplo 1.5 Hola ⎡ −1 0 −1 √ 1 • 2 ⎣ √2 −4 2 −4 0 • Si A = −2 −4 5 −2 −1 0 −2 4 F1C2 F2C2 .. . ··· ··· .. . F1Cp F1Cp .. . FmC1 F2C2 ··· FmCp ⎤ ⎥ ⎥ ⎥ ⎦ (1.1) √ √ ⎤ ⎤ ⎡ √ 2 −√2 √0 −√ 2 2√ 2 3 ⎦ = ⎣ 2 2 −4 2 2 3√2 ⎦ √ 5 0 5 2 2 −4 2 −1 0 y ⎡ • F1C1 F2C1 .. . 5 ⎢ ⎢ ⎢ ⎢ ⎣ 2 −1 0 0 −4 B= −4 −1 −5 2 0 −1 , entonces A + B = −6 4 −9 −2 1 −1 . ⎤ ⎥ ⎥ ⎥ = (−1)(2) + (0)(−1) + (−2)(0) ⎥ ⎦ + (4)(0) + (5)(−4) = −22. Note que en este caso la matriz fila tiene tamaño 1 × 5 y la columna 5 × 1 (las dos tienen el mismo número de componentes). 12 Una matriz fila es una matriz que tiene solamente un renglón y una matriz columna es una matriz que tiene una sola columna (cfr. inciso 3 de la pág. 8). Page (PS/TeX): 5 / 5, COMPOSITE 6 CAPÍTULO 1 Matrices y sistemas lineales Ejemplo 1.6 Si A= ⎡ −1 −2 0 2 4 1 y 1 B=⎣ 0 −1 ⎤ −2 4 5 −1 0 2 ⎦ , 0 0 1 A ∈ M2×3 , B ∈ M3×4 ; el producto AB está definido (el número de columnas de A es igual al número de filas de B, en este caso 3) y el producto AB será una matriz 2 × 4, dos filas y cuatro columnas (tantas filas como A y tantas columnas como B). Para obtener las componentes ci j de las filas de la matriz producto AB procedemos de la manera siguiente. La primera fila de AB: Los elementos de la primera fila de AB se obtienen multiplicando, sucesivamente, la primera fila de A con la primera, segunda, tercera y cuarta columas de B: ⎤ 1 ⎣ 0 ⎦ = −5, −1 ⎤ ⎡ −2 ⎣ −1 ⎦ = 4, 0 ⎡ ⎤ 4 ⎣ 0 ⎦ = −4, 0 ⎡ ⎤ 5 ⎣ 2 ⎦ = −5. 1 ⎡ c11 = −1 −2 4 c12 = −1 −2 4 c13 = −1 −2 4 c14 = −1 −2 4 La segunda fila de AB: Los elementos de la segunda fila de AB se obtienen multiplicando, sucesivamente, la segunda fila de A con la primera, segunda, tercera y cuarta columas de B: ⎤ 1 ⎣ 0 ⎦ = −1, −1 ⎤ ⎡ −2 ⎣ −1 ⎦ = −2, 0 ⎡ ⎤ 4 ⎣ 0 ⎦ = 0, 0 ⎡ ⎤ 5 ⎣ 2 ⎦ = 5. 1 ⎡ c21 = 0 2 1 c22 = 0 2 1 c23 = 0 2 1 c24 = 0 2 1 Luego, AB = Page (PS/TeX): 6 / 6, COMPOSITE −5 −1 4 −2 −4 −5 0 5 . SECCIÓN 1.1 Matrices 7 En realidad, la notación matricial está diseñada para ejecutar mecánica y mentalmente los cálculos cuando el tamaño de las matrices no es muy grande; por eso el lector debe procurar, en la medida de lo posible, aprovechar esta ventaja para efectuar las operaciones de esta manera. De hecho, a partir de aquı́, el lector ya no encontrará un producto de matrices realizado con el detalle con el que se hizo en el ejemplo precedente; pues utilizaremos sistemáticamente (1.1) para producto de matrices y haremos los cálculos sin hacer explı́citas las operaciones. Ejemplo 1.7 ⎡ −1 ⎣ 2 3 ⎤ ⎤⎡ 0 −1 1 0 1 1 −1 ⎦ = 1 1 ⎦⎣ 1 0 1 2 −2 0 ⎡ F1C1 F1C2 ⎣ F2C1 F2C2 F3C1 F3C2 ⎡ 0 2 1 0 3 = ⎣ 1 −2 −5 5 ⎤ F1C3 F2C3 ⎦ F3C3 ⎤ ⎦ . 1.1.3 Matrices especiales 1. Matriz cero. La matriz cero de tamaño m × n se define como aquella que tiene las m × n componentes nulas; esto es, O = [ai j ] donde ai j = 0 ∀i , j. Ası́, por ejemplo, O= 0 0 0 0 0 0 es la matriz cero 2 × 3. 2. Matriz identidad n × n: ⎡ ⎢ ⎢ In = ⎢ ⎣ 1 0 .. . 0 0 ··· 1 ··· .. . . . . 0 ··· 0 0 .. . 1 es decir, In = [ai j ], donde ai j = 1, si i = j; 0, si i = j. Ası́, por ejemplo, ⎤ ⎡ 1 0 0 I3 = ⎣0 1 0⎦ 0 0 1 es la matriz identidad 3 × 3. Page (PS/TeX): 7 / 7, COMPOSITE ⎤ ⎥ ⎥ ⎥; ⎦ 8 CAPÍTULO 1 Matrices y sistemas lineales 3. Como mencionamos en el inciso 3 de la subsección 1.1.2, a las matrices que tienen sólo una fila o sólo una columna les llamaremos, respectivamente, matrices fila y matrices columna. Además, en este libro utilizaremos una notación especial en el caso de las matrices columna (cuando tengan más de un elemento) análoga a la notación vectorial ⎡ ⎢ b = ⎢ ⎢ ⎣ a11 a21 .. . ⎤ ⎥ ⎥ ⎥. ⎦ an1 La razón de esta notación se verá más adelante cuando se estudie el espacio vectorial Rn en el capı́tulo 3. A las matrices de tamaño n × n les llamaremos matrices cuadradas de orden n y al conjunto formado por éstas lo denotaremos por Mn . Si A = [ai j ] es una matriz cuadrada de orden n se dice que los elementos a11 , a22 , a33 ,..., ann forman o están en la diagonal de la matriz A. Y si A = [ai j ] ∈ Mm×n , diremos que los elementos ai j con i = j forman la diagonal principal de la matriz A. Ejemplo 1.8 Si ⎡ −1 ⎢ 7 M=⎢ ⎣ 3 1 ⎤ 5 0 2 3 −1 1 ⎥ ⎥ 0 4 2 ⎦ −5 9 7 entonces m11 = −1, m22 = 3, m33 = 4, m44 = 7 son los elementos de la diagonal de la matriz cuadrada M. Definición 1.3 Una matriz cuadrada A de orden n es triangular superior si las componentes que están por debajo de la diagonal son todas nulas. La matriz es triangular inferior si las componentes que están por arriba de la diagonal son todas iguales a cero. Ejemplo 1.9 Si ⎡ −1 ⎢ 0 ⎢ A=⎣ 0 0 ⎤ 5 0 2 3 −1 1 ⎥ ⎥ 0 4 2 ⎦ 0 0 7 ⎡ y −1 ⎢ −5 ⎢ B=⎣ 2 6 0 3 0 0 0 0 4 4 ⎤ 0 0 ⎥ ⎥, 0 ⎦ 0 entonces A es una matriz triangular superior y B es una matriz triangular inferior. Definición 1.4 Sea A una matriz cuadrada de orden n. Se dice que A es una matriz diagonal si todas las componentes fuera de su diagonal son nulas. Si aii = λi , i = 1, 2, . . . , n, son las componentes de la diagonal de esta matriz se escribe A = diag(λ1 , λ2 , . . . , λn ) para representar a la matriz diagonal A. Page (PS/TeX): 8 / 8, COMPOSITE SECCIÓN 1.1 Matrices 9 ⎤ 4 0 0 Ejemplo 1.10 La matriz cuadrada ⎣ 0 3 0 ⎦ es diagonal. Esto es, 0 0 8 ⎡ A = diag(4, 3, 8). Definición 1.5 Si A = [ai j ] ∈ Mm×n se define la matriz transpuesta de A como At = [bi j ], donde bi j = a ji para i = 1, 2, ..., n y j = 1, 2, ..., m. De la definición 1.5 se desprende que At tiene tamaño n × m y que en la matriz transpuesta la primera columna es la primera fila de A, la segunda columna es la segunda fila de A, etcétera. Definición 1.6 Una matriz A es simétrica cuando At = A. La definición 1.6 entraña que una matriz simétrica es necesariamente cuadrada; pues si A ∈ Mm×n y A es simétrica, entonces A = At ∈ Mn×m , de donde m = n; ya que dos matrices que son iguales deben tener el mismo tamaño. Ejemplo 1.11 Si A= 1 2 3 4 , 5 6 7 8 ⎡ 1 ⎢ 2 At = ⎢ ⎣3 4 ⎤ 5 6⎥ ⎥ . 7⎦ 8 Ejemplo 1.12 La matriz A= −1 2 2 3 es simétrica pues claramente A = At . 1.1.4 Propiedades de las operaciones A continuación enunciamos las principales propiedades de las operaciones con matrices, las cuales son, en general, fáciles de probar y su comprobación se deja como ejercicio al lector. 1. Si A , B ,C ∈ Mm×n y λ , β ∈ R: (a) A + B ∈ Mm×n . (b) A + (B +C) = (A + B) +C. Page (PS/TeX): 9 / 9, COMPOSITE 10 CAPÍTULO 1 Matrices y sistemas lineales (c) A + B = B + A. (d) A + O = A, donde O es la matriz cero m × n. (e) Existe una matriz −A ∈ Mm×n tal que A + (−A) = O. De hecho, si A = [ai j ], −A = [−ai j ]. (f) λA ∈ Mm×n . (g) λ(βA) = (λβ)A. (h) (λ + β)A = λA + βA. (i) λ(A + B) = λA + λB. (j)3 1A = A. 2. (a) Si A, B, C son matrices tales que los productos A(BC) y (AB)C están definidos, entonces A(BC) = (AB)C. (b) Si AB está definido se tiene: λ(AB) = (λA)B = A(λB). (c) Si A ∈ Mm×n , AIn = Im A = A. (d) En general AB = BA. (e) Si A ∈ Mm×n y B,C ∈ Mn×p , entonces A(B +C) = AB + AC. 3. (a) Si A y B son matrices del mismo tamaño (A + B)t = At + B t . (b) Si A, B son matrices tales que el producto AB está definido, entonces (AB)t = B t At . (c) (At )t = A ∀A ∈ Mm×n . Es conveniente que el lector tenga siempre presente la propiedad 2(d); es decir, la no conmutatividad del producto de matrices. Pues es claro que en principio el hecho de que el producto AB esté definido, no garantiza que ni siquiera el producto BA esté definido; por ejemplo, si A es una matriz 2 × 3 y B es una matriz 3 × 4, el producto AB está definido y el producto BA no. Más aún, aunque los productos AB y BA estén definidos éstos, en general, serán distintos como ilustramos en el siguiente ejemplo. Ejemplo 1.13 1 1 3 2 1 0 2 4 1 0 2 4 = 1 1 3 2 = 3 4 7 8 1 1 14 10 , ; esto es, 1 1 3 2 1 0 2 4 = 1 0 2 4 1 1 3 2 Finalizamos este apartado con las demostraciones, en los siguientes dos ejemplos, de un par de propiedades simples del producto de matrices que serán utilizadas más adelante. 13 Más adelante, en el tema de espacios vectoriales, se verá la importancia de esta aparentemente inocua propiedad. Page (PS/TeX): 10 / 10, COMPOSITE SECCIÓN 1.1 ⎡ ⎢ ⎢ Ejemplo 1.14 Sean A = [ai j ] ∈ Mm×n y C = [bi j ] ∈ Mn×p . Si ck = ⎢ ⎣ Esto es, DEMOSTRACIÓN AC = Ac2 Ac1 ⎤ ⎥ ⎥ ⎥ es la columna k de C y ⎦ bnk dk es la columna k de AC, k = 1, 2, . . . , p, demostrar que dk = Ack b1k b2k .. . Matrices 11 ∀k. ··· Ac p (1.2) Q Sean αi j las componentes del producto AC, entonces, para cada k = 1, 2, . . . , p, ⎡ ⎤ α1k ⎢ α2k ⎥ ⎢ ⎥ dk = ⎢ . ⎥ ; ⎣ .. ⎦ αmk ⎡ pero ai1 ai2 · · · ain αik = ⎤ b1k ⎢ b2k ⎥ ⎢ ⎥ ⎢ .. ⎥ ⎣ . ⎦ bnk = n ∑ ai j b jk ; j=1 por tanto, ⎡ n ∑ a1 j b jk ⎢ j=1 ⎢ n ⎢ ∑a b 2 j jk ⎢ j=1 dk = ⎢ ⎢ .. ⎢ . ⎢ ⎣ n ∑ am j b jk ⎤ ⎥ ⎥ ⎥ ⎥ ⎥. ⎥ ⎥ ⎥ ⎦ (1.3) j=1 Por otra parte, ⎡ ⎤⎡ ⎤ a11 a12 · · · a1n b1k ⎢ a21 a22 · · · a2n ⎥ ⎢ b2k ⎥ ⎢ ⎥⎢ ⎥ Ack = ⎢ . .. . . .. ⎥ ⎢ .. ⎥ ⎣ .. . . ⎦⎣ . ⎦ . am1 am2 · · · amn bnk ⎤ ⎡ n ∑ a1 j b jk ⎥ ⎢ j=1 ⎥ ⎢ n ⎢ ∑a b ⎥ 2 j jk ⎥ ⎢ j=1 ⎥. = ⎢ ⎥ ⎢ .. ⎥ ⎢ . ⎥ ⎢ ⎦ ⎣ n ∑ am j b jk j=1 De (1.3) y (1.4) se tiene Ack = dk ∀k. Page (PS/TeX): 11 / 11, COMPOSITE Q (1.4) 12 CAPÍTULO 1 Matrices y sistemas lineales ⎡ ⎢ ⎢ Ejemplo 1.15 Supongamos ahora que A = [ai j ] ∈ Mm×n y c = ⎢ ⎣ x1 x2 .. . ⎤ ⎥ ⎥ ⎥, entonces, ⎦ xn ⎡ ⎢ ⎢ x1 ⎢ ⎣ a11 a21 .. . ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥ + x2 ⎢ ⎦ ⎣ am1 a12 a22 .. . ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥ + · · · + xn ⎢ ⎦ ⎣ am2 a1n a2n .. . ⎡ ⎤ ⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎦ ⎣ amn a11 a21 .. . a12 a22 .. . ··· ··· .. . a1n a2n .. . am1 am2 ··· amn ⎤⎡ ⎥⎢ ⎥⎢ ⎥⎢ ⎦⎣ x1 x2 .. . ⎤ ⎥ ⎥ ⎥. ⎦ (1.5) xn En efecto: ⎡ a11 ⎢ a21 ⎢ x1 ⎢ . ⎣ .. am1 ⎤ ⎡ a12 ⎥ ⎢ a22 ⎥ ⎢ ⎥ + x2 ⎢ .. ⎦ ⎣ . am2 ⎤ ⎡ ⎡ ⎤ ⎡ ⎤ ⎤ x1 a11 x2 a12 xn a1n ⎢ x1 a21 ⎥ ⎢ x2 a22 ⎥ ⎢ xn a2n ⎥ ⎥ ⎢ ⎢ ⎥ ⎥ ⎢ ⎥ ⎥ ⎥ = ⎢ .. ⎥ + ⎢ .. ⎥ + · · · + ⎢ .. ⎥ ⎣ . ⎦ ⎣ . ⎦ ⎣ . ⎦ ⎦ amn x1 am1 x2 am2 xn amn a1n ⎥ ⎢ a2n ⎥ ⎢ ⎥ + · · · + xn ⎢ .. ⎦ ⎣ . ⎤ ⎡ ⎡ ⎢ ⎢ =⎢ ⎣ a11 x1 + a12 x2 + · · · + a1n xn a21 x1 + a22 x2 + · · · + a2n xn .. . ⎤ ⎥ ⎥ ⎥ ⎦ am1 x1 + am2 x2 + · · · + amn xn = Ac. 1.1.5 Matrices con números complejos En este apartado se introduce, por primera vez en este libro, el uso de números complejos en álgebra lineal; especı́ficamente en el tema de matrices con componentes complejas. El ápendice B contiene un breve estudio de este importante campo numérico y de sus principales propiedades, y el lector que no esté habituado a trabajar con números complejos, o necesite repasar este tema, deberı́a consultar la sección B.1 de este apéndice cuanto antes. A lo largo de este texto se incluyen apartados que contienen el uso de números complejos en temas que ya se han tratado con números reales. En general, la transición en cada caso será muy sencilla, pues una vez que se dominan los temas de álgebra lineal con números reales los cambios para tratar éstos con números complejos son mı́nimos y, en realidad, las dificultades tienen que ver más con la familiaridad que tenga el lector con el uso de números complejos que con aspectos áridos de generalización. De hecho, el uso de este campo numérico en álgebra lineal se va haciendo cada vez más necesario en la medida que se avanza en la materia, tanto en la teorı́a como en las aplicaciones. Se han incluido este tipo de subsecciones para ir acostumbrando al lector al uso de los números complejos en álgebra lineal. Obviamente, el lector que no desee en este momento abordar estos temas puede omitirlos y regresar a ellos cuando lo juzgue pertinente. Recordemos (cfr. apéndice B) que los números complejos tienen la forma a + bi Page (PS/TeX): 12 / 12, COMPOSITE SECCIÓN 1.1 Matrices 13 donde a, b son números reales e i es la unidad imaginaria. Al conjunto de estos números se les representa por C y este campo incluye de manera natural a los números reales mediante la identificación del número real a con el número complejo a + 0i. Estos números se operan algebraicamente de manera análoga a los números reales, utilizando todas las propiedades de éstos y conviniendo en que la unidad imaginaria en este sistema satisface4 i2 = −1. De esta manera, operar algebraicamente matrices con componentes complejas es un proceso completamente análogo al que se utiliza cuando éstas tienen entradas que son números reales. Es decir, se suman, restan, multiplican, etc., en la misma forma que las matrices reales, pero operando sus componentes con las reglas algebraicas de los números complejos. Al conjunto de matrices de tamaño m × n con componentes complejas lo denotaremos por Mm×n (C). Todas las propiedades acerca de matrices con componentes reales que vimos en esta sección siguen siendo válidas para las matrices con entradas complejas. Ejemplo 1.16 Sean A, B ∈ M2×3 (C) las matrices definidas por A= 1 − 2i 3 − 5i −4i 4 + 6i Entonces A+B = 1. = 2 −9i y 5 − 4i 2 − 9i 7 − 6i 1 + i 4 − 9i 5 − 8i 4 − 9i . 3 11 1 − 8i = 1 − 2i −4i 2 3 − 5i 4 + 6i −9i 5 − 10i −20i 10 . 15 − 25i 20 + 30i −45i (3 + 2i)B = (3 + 2i) 3. 3 − 7i 5i 3 − 7i 5 − 4i 2 − 9i 1 − 2i −4i 2 + 5i 7 − 6i 1 + i 3 − 5i 4 + 6i −9i 5A = 5 2. B= = 1 − 2i −4i 2 3 − 5i 4 + 6i −9i 7 − 4i 8 − 12i 6 + 4i . 19 − 9i 26i 18 − 27i Aquı́ hemos realizado las operaciones (3 + 2i)(1 − 2i) = 3 − 6i + 2i − 4i2 = 3 − 4i − 4(−1) = 3 − 4i + 4 = 7 − 4i, 14 En la sección B.1 del apéndice B se hace un estudio más detallado y formal de los números complejos. Page (PS/TeX): 13 / 13, COMPOSITE . 14 CAPÍTULO 1 Matrices y sistemas lineales para obtener la componente c11 de (3 + 2i)B; (3 + 2i)(−4i) = −12i − 8i2 = −12i − 8(−1) = 8 − 12i, para obtener la componente c12 de (3 + 2i)B; etcétera. Ejemplo 1.17 Sean A= 1+i −i 2 2 − 3i y B= −i 2i 3 1−i 2 + 5i 0 , entonces AB = = = 1+i 2 −i 2 − 3i −i 3 2 + 5i 2i 1 − i 0 (1 + i)(−i) + 2(2i) (1 + i)(3) + 2(1 − i) (1 + i)(2 + 5i) + 2(0) (−i)(−i) + (2 − 3i)(2i) (−i)(3) + (2 − 3i)(1 − i) (−i)(2 + 5i) + (2 − 3i)(0) 1 + 3i 5 + i −3 + 7i . 5 + 4i −1 − 8i 5 − 2i 1.2 Sistemas lineales y x−y = 1 x x+y = 3 Page (PS/TeX): 14 / 14, COMPOSITE Seguramente el lector está familiarizado, por cursos más elementales, con sistemas simultáneos de dos o tres ecuaciones lineales con dos o tres incógnitas. Se les llama sistemas lineales porque, para el caso de dos incógnitas, digamos x, y, las ecuaciones tienen la forma ax +by = c, cuyos lugares geométricos corresponden a lı́neas rectas en el plano. Cuando se resuelve un sistema lineal de dos ecuaciones con dos incógnitas, se busca el punto de intersección de dos lı́neas rectas (si es que éstas no son paralelas). Aquı́ estudiaremos sistemas lineales generales de m ecuaciones con n incógnitas siendo m y n cualquier par de números enteros no negativos. Los sistemas lineales tienen una gran variedad de aplicaciones en ingenierı́a y ciencias; veremos algunas de estas aplicaciones en el capı́tulo seis. SECCIÓN 1.2 Sistemas lineales 15 1.2.1 Definiciones, soluciones y forma matricial de sistemas lineales Definición 1.7 Un sistema de m-ecuaciones con n-incógnitas que tiene la forma a11 x1 a21 x1 · · · am1 x1 + + · · · + + ··· + ··· · ··· · ··· · ··· + ··· a12 x2 a22 x2 · · · am2 x2 + + · · · + a1n xn a2n xn · · · amn xn = = · · · = b1 b2 · · · bm (1.6) donde los ai j , bi ∈ R, i = 1, 2, . . . , m, j = 1, 2, . . . , n, están dados, es lineal. Una solución de este sistema de ecuaciones es una n-ada ordenada (α1 , α2 , . . . , αn ) de números reales, tales que al hacer las sustituciones x1 = α1 x2 = α2 .. . xn = αn en cada una de las m-ecuaciones las convierte en identidades. Ejemplo 1.18 El sistema de dos ecuaciones con tres incógnitas 2x1 − 3x2 − x3 = −4 (1.7) x1 + x2 + x3 = −3 (1.8) es lineal y (−1, 2, −4) es una solución del mismo. En efecto, al sustituir x1 = −1, x2 = 2 y x3 = −4 en la primera ecuación (1.7) se tiene 2(−1) − 3(2) − (−4) = −4 y al hacer las mismas sustituciones en la segunda ecuación (1.8), (−1) + (2) + (−4) = −3. Ejemplo 1.19 El sistema de dos ecuaciones con dos incógnitas x12 − 3x2 = 1 1/2 x1 + x2 = π no es lineal (¿por qué?). Si se tiene el sistema lineal (1.6) a ⎡ ⎢ ⎢ A=⎢ ⎣ Page (PS/TeX): 15 / 15, COMPOSITE a11 a21 .. . a12 a22 .. . ··· ··· .. . a1n a2n .. . am1 am2 ··· amn ⎤ ⎥ ⎥ ⎥ ⎦ 16 CAPÍTULO 1 Matrices y sistemas lineales se le llama la matriz de coeficientes del sistema. En tal caso, si ponemos ⎡ ⎢ ⎢ ⎢ x = ⎢ ⎢ ⎣ x1 x2 · · · xn ⎡ ⎤ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ ⎥yb=⎢ ⎢ ⎥ ⎣ ⎦ ⎤ b1 b2 · · · bm ⎥ ⎥ ⎥ ⎥, ⎥ ⎦ entonces el sistema lineal se puede escribir en forma matricial como Ax = b , pues al hacer el producto se obtiene ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ a11 x1 a21 x1 · · · am1 x1 + + · · · + a12 x2 a22 x2 · · · am2 x2 + + · · · + ··· ··· · ··· + + · · · + a1n xn a2n xn · · · amn xn ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎥ ⎢ ⎦ ⎣ b1 b2 · · · bm ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ que equivale, por definición de igualdad de matrices, al sistema (1.6). Ejemplo 1.20 Para el sistema 3 × 3 x1 2x1 3x1 + + + x2 4x2 6x2 + − − 2x3 3x3 5x3 = = = 9 1 0 la matriz de coeficientes es ⎤ 1 1 2 A = ⎣ 2 4 −3 ⎦ 3 6 −5 ⎡ y la ecuación matricial correspondiente es ⎤⎡ ⎤ ⎡ ⎤ x1 1 1 2 9 ⎣ 2 4 −3 ⎦ ⎣ x2 ⎦ = ⎣ 1 ⎦ . 3 6 −5 0 x3 ⎡ Definición 1.8 El sistema m × n Ax = b es: • Consistente: si tiene al menos una solución. • Inconsistente: si no tiene soluciones. En la figura 1-1 se ilustran los lugares geométricos de cuatro sistemas lineales en el plano: con solución única (a), inconsistentes (b) y (c) y con una infinidad de soluciones (d). Page (PS/TeX): 16 / 16, COMPOSITE SECCIÓN 1.2 (a) (b) (c) (d) Sistemas lineales 17 Figura 1-1 • (a) dos lı́neas que se intersecan en un solo punto, (b) dos lı́neas paralelas que no se intersecan, (c) tres lı́neas que no se intersecan simultáneamente y (d) dos lı́neas que coinciden. De manera análoga, una ecuación lineal con tres incógnitas, ax + by + cz = d, corresponde al lugar geométrico de puntos que están en un plano en el espacio tridimensional. También en este caso, cuando se resuelven sistemas lineales con tres incógnitas, se buscan intersecciones de los correspondientes planos. Nuevamente los planos pueden no intersecarse, intersecarse en una infinidad de puntos o intersecarse en un único punto. La figura 1-2 ilustra estas posibilidades. Figura 1-2 • Planos que se intersecan, respectivamente, en una lı́nea recta, en un único punto y que no tienen intersección simultánea. Definición 1.9 Dos sistemas lineales del mismo tamaño, Ax = b, Hx =c, son equivalentes si tienen el mismo conjunto de soluciones. En el siguiente ejemplo resolveremos un sistema lineal de manera análoga a como el lector, seguramente, ya lo ha hecho en cursos de bachillerato; sin embargo, lo haremos con un método que introducirá el importante algoritmo de Gauss; el cual consiste, esencialmente, en ir haciendo “pivotes” para eliminar variables (incógnitas) y obtener un sistema equivalente en forma “escalonada” y finalmente resolverlo por sustitución regresiva. Page (PS/TeX): 17 / 17, COMPOSITE 18 CAPÍTULO 1 Matrices y sistemas lineales Ejemplo 1.21 Resolvamos el sistema lineal x1 + x2 + 2x3 = 9 (1.9) 2x1 + 4x2 − 3x3 = 1 (1.10) 3x1 + 6x2 − 5x3 = 0 (1.11) Para ello, con la ecuación (1.9), eliminemos la variable x1 de las ecuaciones (1.10) y (1.11) multiplicando5 (1.9) por −2 y sumando con (1.10); luego multiplicando (1.9) por −3 y sumando con (1.11); obteniendo el sistema equivalente: x1 + x2 + 2x3 = −19 2x2 − 7x3 = −17 (1.12) 3x2 − 11x3 = −27 (1.13) De manera análoga, multiplicando (1.12) por −3, (1.13) por 2 y sumando los resultados, habremos hecho un “pivote” con la variable x2 de la ecuación (1.12) para eliminar la variable x2 de la ecuación (1.13), produciendo el sistema equivalente “escalonado” x1 + x2 2x2 + − − x3 7x3 x3 = = = 9 −17 −27 Finalmente, haciendo sustitución regresiva, es decir, despejando y sustituyendo variables de este último sistema de abajo hacia arriba, tenemos x3 = 3; −17 + 7(x3 ) x2 = 2 −17 + 7(3) = 2 = 2; x1 = 9 − x2 − 2x3 = 9 − (2) − 2(3) = 1. Ası́, el sistema es consistente con solución única ⎡ ⎤ 1 x = ⎣ 2 ⎦ . 3 Podemos sintetizar el método del ejemplo precedente de la siguiente manera. Denotemos por Ri la i-ésima ecuación de un sistema lineal; la notación Ri ↔ αRi + βR j significa que la ecuación Ri se sustituye por la ecuación que se obtiene de sumar α veces la ecuación Ri con β veces la ecuación R j . Las operaciones algebraicas que hicimos en el ejemplo anterior se resumen en el siguiente esquema. 15 Cuando se multiplica una ecuación por un número, significa que ambos lados de la igualdad en dicha ecuación se multiplican por ese número; y cuando se suman dos ecuaciones, quiere decir que se suman miembro a miembro los correspondientes lados de la igualdad. Page (PS/TeX): 18 / 18, COMPOSITE SECCIÓN 1.2 Sistemas lineales 19 x1 + x2 + 2x3 = 9 x1 + x2 + 2x3 = 9 −−−−−−→ 2x1 + 4x2 − 3x3 = 1 ← 2x2 − 7x3 = −17 R2 ↔ −2R1 + R2 3x1 + 6x2 − 5x3 = 0 R3 ↔ −3R1 + R3 3x2 − 11x3 = −27 x1 + x2 + 2x3 = 9 2x2 − 7x3 = −17 −x3 = −3 ←−−−−−−−→ R3 ↔ −3R2 + 2R3 En cada paso del proceso anterior se obtiene un sistema equivalente; es decir, con las mismas soluciones pero más sencillo, hasta que el último sistema equivalente está escalonado y se puede resolver haciendo sustitución regresiva. Es claro que en el ejemplo 1.21 y en la discusión anterior sólo se trabajó con los coeficientes, y que de las variables x1 , x2 y x3 únicamente se utiliza la posición que tienen en el arreglo. Se ve entonces que para resolver un sistema lineal Ax = b, basta trabajar con la matriz de coeficientes A y el término independiente b.6 Para ello, a continuación damos el siguiente concepto. Definición 1.10 Para el sistema lineal a11 x1 a21 x1 · · · am1 x1 + + · · · + a12 x2 a22 x2 · · · am2 x2 o, en forma matricial, Ax = b con ⎡ ⎢ ⎢ ⎢ x = ⎢ ⎢ ⎣ x1 x2 · · · xn + ··· + ··· · ··· · ··· · ··· + ··· a1n xn a2n xn · · · amn xn ⎡ ⎤ ⎥ ⎥ ⎥ ⎥y ⎥ ⎦ + + · · · + ⎢ ⎢ b = ⎢ ⎢ ⎢ ⎣ b1 b2 · · · bm = = · · · = b1 b2 · · · bm ⎤ ⎥ ⎥ ⎥ ⎥, ⎥ ⎦ se define la matriz aumentada (también se le llama matriz ampliada) del mismo como ⎡ ⎢ ⎢ ⎢ [ A |b ] = ⎢ ⎢ ⎣ a11 a21 · · · am1 a12 a22 · · · am2 ··· ··· ··· ··· ··· ··· a1n a2n · · · amn b1 b2 · · · bm ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ El lado izquierdo en la partición [ A |b ] contiene la matriz de coeficientes [ai j ] y el lado derecho contiene los términos independientes bi del sistema lineal. La definición anterior provee una notación muy simple para evitar, en un sistema lineal, escribir las variables y únicamente trabajar con los coeficientes. La primera fila de la matriz ampliada equivale a la ecuación a11 x1 + a12 x2 + · · · + a1n xn = b1 , la segunda 16 Llamaremos término independiente en un sistema lineal Ax = b, a la matriz columna b y términos independientes del mismo sistema a las respectivas componentes de este vector. Page (PS/TeX): 19 / 19, COMPOSITE 20 CAPÍTULO 1 Matrices y sistemas lineales fila equivale a la ecuación a21 x1 + a22 x2 + · · · + a2n xn = b2 , etc., y la última fila equivale a la ecuación am1 x1 + am2 x2 + · · · + amn xn = bm . La lı́nea vertical en la partición [ A |b ] únicamente sirve para hacer notoria la columna que contiene los términos independientes bi del sistema lineal; y de hecho se puede omitir, si ası́ se desea, cuando se conviene en que la última columna de la matriz aumentada contenga el término independiente b del sistema. Resolveremos ahora, en el siguiente ejercicio, el ejemplo 1.21 utilizando la matriz aumentada. Ejemplo 1.22 Para este caso, haciendo las mismas operaciones que en la discusión posterior al ejemplo 1.21, pero esta vez a los renglones de la matriz ampliada se tiene: ⎡ 1 1 2 ⎣ 2 4 −3 3 6 −5 ⎤ 9 1 ⎦ 0 ⎡ ←−−−−−−→ R2 ↔ −2R1 + R2 R3 ↔ −3R1 + R3 ←−−−−−−−→ R3 ↔ −3R2 + 2R3 1 1 ⎣ 0 2 0 3 ⎡ 1 1 ⎣ 0 2 0 0 ⎤ 9 −17 ⎦ −27 ⎤ 9 −17 ⎦ −3 2 −7 −11 2 −7 −1 y, al hacer sustitución regresiva como se hizo en ese ejemplo (cfr. pág. 18), ⎡ ⎤ ⎡ ⎤ x1 1 ⎣x2 ⎦ = ⎣2⎦ . 3 x3 Hasta aquı́, aunque se ha utilizado en forma intuitiva el significado de sistema escalonado, no se ha precisado con exactitud. En la siguiente subsección nos abocamos a ello. 1.2.2 Matrices escalonadas y sistemas escalonados Definición 1.11 La matriz A ∈ Mm×n está en forma escalonada si se cumplen las siguientes dos condiciones. • Las filas nulas (si existen)7 están por debajo de las filas no nulas. • El primer elemento distinto de cero de cada fila no nula está a la derecha del primer elemento diferente de cero de las filas precedentes.8 Ejemplo 1.23 Si ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣ 0 −1 2 0 0 −1 0 0 0 0 0 0 0 0 0 ⎤ 3 −5 3 0 2 4 ⎥ ⎥ 0 0 1 ⎥ ⎥ 0 0 0 ⎦ 0 0 0 ⎡ y ⎢ ⎢ B=⎢ ⎢ ⎣ −1 0 0 0 0 2 1 0 0 0 ⎤ 4 0 3 2 −3 4 ⎥ ⎥ 1 0 2 ⎥ ⎥, 2 −3 0 ⎦ 0 0 0 A está en forma escalonada pero B no. 17 Una fila es nula si todas sus entradas son ceros; una fila es no nula si por lo menos una de sus componentes es distinta de cero. 18 En el caso que el primer elemento distinto de cero esté en la primera fila, se sobreentiende que la condición se cumple por vacuidad. Page (PS/TeX): 20 / 20, COMPOSITE SECCIÓN 1.2 Sistemas lineales 21 Definición 1.12 Al primer elemento distinto de cero de cada fila no nula, de una matriz en forma escalonada, se le llama pivote. Definición 1.13 Un sistema Hx = c está escalonado si la matriz ampliada [ H |c ] es una matriz escalonada. A las variables que correspondan a pivotes en un sistema escalonado se les llamarán variables ligadas (o principales o básicas) y a las restantes variables libres (o no básicas). Ejemplo 1.24 En el sistema escalonado 4 × 6 ⎡ ⎢ ⎢ ⎢ ⎣ 1 0 0 0 0 0 0 0 3 5 0 0 −2 0 0 0 1 1 7 0 5 1 6 5 ⎤ −2 3 ⎥ ⎥, 7 ⎦ 0 hay pivotes en las columnas 1, 3, 5 y 6; que corresponden, respectivamente, a las variables x1 , x3 , x5 y x6 . Ası́ que estas variables son ligadas y x2 , x4 son variables libres. Entonces, para resolver un sistema escalonado al hacer sustitución regresiva, se despejan las variables ligadas dejándolas en función de las variables libres procediendo de abajo hacia arriba, en el caso que el sistema tenga variables libres; en caso contrario, simplemente se despejan las variables ligadas actuando también de abajo hacia arriba. Ejemplo 1.25 Resolver los siguientes sistemas lineales escalonados. ⎤ 3 −5 −1 3 8 ⎦ 3 5 1. ⎣ 0 −4 0 0 2 ⎡ 4 1 −3 0 5 0 ⎢ 0 −7 0 1 2 0 2. ⎢ ⎣ 0 1 0 0 0 1 0 0 0 0 0 0 ⎤ ⎡ 3 1 −3 5 2 ⎦ 1 2 3. ⎣ 0 −1 0 0 0 ⎡ ⎤ ⎥ ⎥ ⎦ Solución 1. En este caso, x1 , x2 y x3 son todas variables ligadas, el sistema no tiene variables libres y 2 −3x3 2 x3 = −4/2 = −2; x2 = 8−5x = 6; x1 = 3+x−5 = −3. Es decir, 3 ⎤ ⎡ ⎤ ⎡ x1 −3 ⎣ x2 ⎦ = ⎣ 6 ⎦ −2 x3 es la única solución. Page (PS/TeX): 21 / 21, COMPOSITE 22 CAPÍTULO 1 Matrices y sistemas lineales 2. Para este sistema escalonado x1 , x3 y x5 son las variables ligadas; mientras que x2 y x4 son las variables libres. Entonces x5 = 1, x3 = −7 − 2x4 , x1 = 4 + 3x2 − 5x4 ; lo cual indica que al dar valores concretos arbitrarios a las variables libres x2 y x4 se obtiene una solución. Ası́, el conjunto de soluciones de este sistema es infinito y está dado por: {(x1 , x2 , x3 , x4 , x5 ) | x5 = 1, x3 = −7 − 2x4 , x1 = 4 + 3x2 − 5x4 ; x2 , x4 ∈ R} . Una manera más compacta de expresar las soluciones es: ⎤ ⎡ ⎤ ⎡ 4 + 3s − 5r x1 ⎥ ⎢ x2 ⎥ ⎢ s ⎥ ⎢ ⎥ ⎢ ⎢ x3 ⎥ = ⎢ −7 − 2r ⎥; ⎥ ⎢ ⎥ ⎢ ⎦ ⎣ x4 ⎦ ⎣ r 1 x5 r, s ∈ R. Al dar valores concretos a r y s se obtendrá una solución particular; por ejemplo, si r = 0 y s = 0, es fácil darse cuenta que ⎡ ⎤ ⎤ ⎡ x1 4 ⎢ x2 ⎥ ⎢ 0 ⎥ ⎢ ⎥ ⎥ ⎢ ⎢ x3 ⎥ = ⎢ −7 ⎥ ⎢ ⎥ ⎥ ⎢ ⎣ x4 ⎦ ⎣ 0 ⎦ 1 x5 resuelve el sistema de ecuaciones. 3. Para este sistema no pueden existir números reales x1 , x2 , x3 tales que 0x1 + 0x2 + 0x3 = −1; es decir, el sistema no tiene solución, es inconsistente. 1.2.3 Operaciones de renglón para matrices, equivalencia por filas y soluciones 1.2.3 de sistemas escalonados Motivados en los métodos de la subsección precedente para resolver sistemas lineales, definimos las siguientes operaciones de renglón (fila) para matrices. Operaciones elementales de renglón para matrices 1. Intercambio de filas: Ri ←→ R j . 2. Cambio de escala: Ri ←→ αRi (α = 0). 3. Suma de filas: Ri ←→ αRi + βR j (α = 0). Las cuales significan, respectivamente: • La fila i se intercambia con la fila j. • La fila i se cambia por la misma fila multiplicada por α. • La fila i se cambia por la suma de α-veces la fila i con β-veces la fila j. Page (PS/TeX): 22 / 22, COMPOSITE SECCIÓN 1.2 Sistemas lineales 23 Matrices equivalentes Definición 1.14 Sean A , B ∈ Mm×n . B es equivalente por filas a la matriz A (o simplemente equivalente a A), si B se puede obtener de la matriz A al aplicarle una sucesión finita de operaciones elementales de renglón. Si B es equivalente a A escribiremos B ∼ A o B ↔ A. Ejemplo 1.26 Si A= y 1 2 1 0 B= 2 −3 3 −1 2 3 −7 −7 4 5 0 1 4 −8 5 −9 , B ∼ A; pues B se obtiene de A mediante la operación de renglón R2 ←→ −2R1 + R2 No es difı́cil probar el siguiente teorema. Teorema 1.1 Si A, B ∈ Mm×n , entonces 1. A ∼ A. (Reflexividad) 2. A ∼ B ⇒ B ∼ A. (Simetrı́a) 3. A ∼ B y B ∼ C ⇒ A ∼ C. (Transitividad) Del teorema precedente inciso 2, se ve que ya no es necesario decir que B es equivalente a A, pues en tal caso simplemente podremos enunciar que A y B son equivalentes. Al aplicar operaciones de renglón a un sistema se obtiene un sistema equivalente. Es decir: Teorema 1.2 Si [ A |b ] ∼ [ H |c ], entonces los sistemas Ax =b y Hx =c tienen las mismas soluciones. Es claro que siempre se pueden aplicar operaciones de fila a una matriz A, de manera adecuada, para obtener una matriz escalonada equivalente a ella. Lo cual hacemos patente en la siguiente proposición. Teorema 1.3 Toda matriz es equivalente por filas al menos a una matriz en forma escalonada. Soluciones de sistemas escalonados Del ejemplo 1.25 (cfr. pág. 21) se conjetura el siguiente teorema, cuya demostración es sencilla y se deja como ejercicio al lector. Page (PS/TeX): 23 / 23, COMPOSITE 24 CAPÍTULO 1 Matrices y sistemas lineales Teorema 1.4 Sea un sistema Ax = b y supongamos que [ H |c ] es un sistema (cualquier sistema) escalonado equivalente; es decir, [A |b ] ∼ [ H |c ], entonces 1. Ax = b es inconsistente si y sólo si [ H |c ] tiene una fila de ceros en el lado izquierdo y un elemento no nulo en el lado derecho de la partición (ejemplo 1.25 inciso 3). 2. Ax = b tiene solución única si y sólo si es consistente y [ H |c ] tiene pivote en todas las columnas en el lado izquierdo de la partición (ejemplo 1.25 inciso 1). 3. Ax = b tiene infinidad de soluciones si y sólo si es consistente y [ H |c ] no tiene pivote en alguna columna en el lado izquierdo de la partición (ejemplo 1.25 inciso 2). P Nota 1.3 Es claro, del teorema anterior, que • un sistema consistente tiene solución única cuando una forma escalonada equivalente no tiene variables libres. • un sistema consistente tiene una infinidad de soluciones cuando una forma escalonada equivalente tiene variables libres. 1.2.4 Método de Gauss El método de Gauss sirve para “llevar” una matriz a una forma escalonada equivalente aplicando operaciones de renglón. Bosquejamos el método por medio del siguiente algoritmo: Supongamos que A es una matriz m × n no nula (si A es la matriz cero, A está en forma escalonada). G1: Se busca una fila en A que tenga su primer elemento distinto de cero y se intercambia (si es necesario) con la primera fila de la matriz A; si no existe una fila de A que tenga su primer elemento no nulo, entonces se busca una fila de la matriz A que tenga el segundo elemento distinto de cero y se intercambia (si es necesario) con la primera fila de la matriz A; de no suceder ası́, se busca una fila de A que tenga el tercer elemento distinto de cero y se intercambia (si es necesario) con la primera fila de A, etc.; obteniendo finalmente una matriz B1 ∼ A con un primer elemento no nulo en la primera fila que llamaremos pivote (en este caso de la primera fila). Por ejemplo, si ⎤ ⎡ 0 −4 −1 3 4 0 7 ⎦, A=⎣ 3 1 1 3 5 entonces una operación de renglón para llevar a cabo este paso puede ser R1 ↔ R3 , resultando la equivalencia de matrices ⎡ A 0 −4 −1 ⎣ 3 4 0 1 1 3 ⎤ ⎡ 3 1 7 ⎦∼⎣ 3 5 0 B1 1 4 −4 El pivote de la primera fila de la matriz B1 es b111 = 1. Page (PS/TeX): 24 / 24, COMPOSITE ⎤ 3 5 0 7 ⎦. −1 3 SECCIÓN 1.2 Sistemas lineales 25 G2: Con el pivote de la primera fila de B1 se transforman en ceros los elementos que están por debajo de él mediante la operación suma de filas, obteniendo una matriz B2 ∼ B1 ∼ A, que tendrá todas las componentes nulas debajo del pivote de la primera fila. Por ejemplo, con el caso particular ilustrado en el paso anterior podemos hacer ceros los elementos debajo del pivote 1 de la primera fila de la matriz B1 mediante la operación R2 ↔ −3R1 +R2 para obtener la matriz B2 ; es decir, ⎡ 1 ⎣ 3 0 B1 ⎤ ⎡ 1 1 3 5 ⎦ ⎣ 0 ∼ 4 0 7 0 −4 −1 3 B2 ⎤ 1 3 5 1 −9 −8 ⎦ −4 −1 3 G3: Ahora se repiten los pasos G1 y G2 con la segunda fila de la matriz B2 , produciendo una matriz B3 ∼ B2 ∼ B1 ∼ A cuyas componentes serán nulas debajo del pivote de su segunda fila. Para el caso particular ilustrado, el pivote de la segunda fila de la matriz9 B2 es b222 = 1. Se pueden hacer ceros los elementos debajo del mismo mediante la operación R3 ↔ 4R2 + R3 , esto es ⎡ 1 ⎣ 0 0 B2 ⎤ ⎡ B3 ⎤ 1 3 5 1 1 3 5 1 −9 −8 ⎦∼⎣ 0 1 −9 −8 ⎦ 0 0 −37 −29 −4 −1 3 G4: Se repiten los pasos G1, G2 y G3 con las filas subsecuentes de las matrices equivalentes que resulten, hasta obtener una matriz H en forma escalonada de acuerdo a la definición 1.11. Para el caso ilustrado previamente, la matriz B3 ya está en forma escalonada; con lo que ⎡ A ⎤ ⎡ B3 =H ⎤ 0 −4 −1 3 1 1 3 5 ⎣ 3 4 0 7 ⎦∼⎣ 0 1 −9 −8 ⎦ 1 1 3 5 0 0 −37 −29 terminarı́a el proceso para este ejemplo particular. P Nota 1.4 1. El lector debe tener en mente que el propósito fundamental del método de Gauss es obtener una matriz en forma escalonada equivalente a una matriz dada, mediante el uso de las operaciones elementales de renglón en cualquier combinación. Ası́ que el algoritmo anterior sólo es una guı́a para este propósito. Cualquier modificación es válida siempre y cuando se empleen únicamente las operaciones de renglón para matrices y se alcance el objetivo de obtener una matriz en forma escalonada equivalente por filas a la matriz inicial. 2. A lo largo de este texto haremos uso de oraciones informales como “llevar la matriz A a forma escalonada”. Este tipo de oraciones en realidad deben interpretarse como “obtener una forma 19 El número 2 en b222 de esta notación juega el papel de un supraı́ndice, haciendo referencia a la matriz B2 y no de un exponente. Page (PS/TeX): 25 / 25, COMPOSITE 26 CAPÍTULO 1 Matrices y sistemas lineales escalonada equivalente a la matriz A”, que serı́a la manera apropiada de expresar este tipo de instrucciones; pero, ya que esa forma escalonada equivalente se obtiene a partir de la matriz A, nos permitiremos ese tipo de frases sacrificando rigor en aras de brevedad en el lenguaje. Sin embargo, es conveniente que el lector tenga siempre presente el significado preciso de esas oraciones coloquiales. Ejemplo 1.27 Obtener una matriz equivalente por filas a la matriz ⎤ ⎡ 2 −4 2 −2 ⎢ 2 −4 3 −4 ⎥ ⎥ A=⎢ ⎣ 4 −8 3 −2 ⎦ 0 0 −1 2 que esté en forma escalonada.10 ⎤ 2 −4 2 −2 ⎢ 2 −4 3 −4 ⎥ ⎥ A= ⎢ ⎣ 4 −8 3 −2 ⎦ 0 0 −1 2 ⎡ Solución ⎤ 1 −2 1 −1 ⎢ 2 −4 3 −4 ⎥ ⎥ ⎢ ⎣ 4 −8 3 −2 ⎦ 0 0 −1 2 ⎡ ←−−−−−−−−→ R1 ↔ (1/2)R1 ⎤ 1 −2 1 −1 ⎢ 0 0 1 −2 ⎥ ⎥ ⎢ ⎣ 0 0 −1 2 ⎦ 0 0 −1 2 ⎡ ←−−−−−−−−−−→ R2 ↔ −2R1 + R2 R3 ↔ −4R1 + R3 ⎤ 1 −2 1 −1 ⎢ 0 0 1 −2 ⎥ ⎥ ⎢ ⎣0 0 0 0⎦ 0 00 0 ⎡ ←−−−−−−−→ R3 ↔ R2 + R3 R4 ↔ R2 + R4 = H La matriz resultante, H, está en forma escalonada y es equivalente a la matriz A. Método de Gauss para resolver sistemas lineales Ejemplo 1.28 Resolver el siguiente sistema de ecuaciones por el método de Gauss. x1 2x1 3x1 −x1 − − − + 2x2 3x2 5x2 x2 + + + − x3 2x3 3x3 x3 − − − + x4 3x4 4x4 2x4 = = = = 4 −1 3 5 Solución Para resolver el problema llevaremos la matriz aumentada a una forma escalonada y haremos sustitución regresiva.11 1Hemos marcado en color rojo los pivotes en cada paso para que el lector recuerde que el propósito es ir haciendo ceros, mediante las operaciones de renglón indicadas, los elementos debajo de ellos. 11 1De aquı́ en adelante, salvo algunas excepciones, ya no indicaremos las operaciones de renglón que se requieren para obtener una forma escalonada equivalente a una matriz, pues el objetivo es utilizar la notación matricial para auxiliarse y hacer todos los cálculos mecánica y mentalmente. 10 Page (PS/TeX): 26 / 26, COMPOSITE SECCIÓN 1.2 ⎤ ⎡ 1 4 ⎢ 0 −1 ⎥ ⎥ ←→ ⎢ ⎣ 0 3 ⎦ 0 5 ⎡ 1 ⎢ 0 ⎢ ←→ ⎣ 0 0 ⎡ 1 −2 1 −1 ⎢ 2 −3 2 −3 ⎢ ⎣ 3 −5 3 −4 −1 1 −1 2 −2 1 1 −1 1 −1 0 −1 0 −1 0 1 −2 1 0 0 1 −1 0 −1 0 0 0 0 Sistemas lineales 27 ⎤ 4 −9 ⎥ ⎥ −9 ⎦ 9 ⎤ 4 −9 ⎥ ⎥. 0 ⎦ 0 Ası́, las variables ligadas son x1 , x2 y las libres x3 , x4 . Y x2 = −9 + x4 ; x1 = 4 + 2x2 − x3 + x4 = −14 + 3x4 − x3 . La solución está dada entonces por: ⎤ ⎡ ⎤ ⎡ −14 + 3r − s x1 ⎢x2 ⎥ ⎢ −9 + r ⎥ ⎥; r, s ∈ R. ⎢ ⎥=⎢ ⎦ ⎣x3 ⎦ ⎣ s r x4 Sistemas con la misma matriz de coeficientes Es frecuente en la práctica tener que resolver sistemas con la misma matriz de coeficientes pero con distintos términos independientes; por ejemplo, los sistemas x − 2y + 3z −x + 4y + 5z = = −2 7 (1.14) r − 2s + 3t −r + 4s + 5t = 1 = −4 (1.15) y 1 −2 3 −2 1 , y términos independientes y , −1 4 5 7 −4 respectivamente. En lugar de resolverlos cada uno por separado, podemos solucionarlos simultáneamente colocando en el lado derecho de la partición de la matriz ampliada las dos columnas que contienen los dos términos independientes, llevar a forma escalonada y resolver por sustitución regresiva para la primera columna y después para la segunda: −2 1 1 −2 3 1 −2 3 1 −2 ↔ . (1.16) 7 −4 0 2 8 −1 4 5 5 −3 tienen la misma matriz de coeficientes, Resolviendo para la primera columna tenemos y = 52 − 4z, x = −2 + 2y − 3z = 3 − 11z; ası́ que ⎤ ⎡ ⎤ ⎡ 3 − 11α x ⎣ y ⎦ = ⎣ 5 − 4α ⎦, 2 z α α ∈ R, es la solución para el sistema (1.14). Resolviendo ahora para la segunda columna de (1.16) obtenemos s = − 23 − 4t, r = 1 + 2s − 3t = −2 − 11t; es decir, ⎤ ⎡ ⎤ ⎡ −2 − 11β r ⎣ s ⎦ = ⎣ − 3 − 4β ⎦, 2 t β β ∈ R, es la solución del sistema (1.15). Page (PS/TeX): 27 / 27, COMPOSITE 28 CAPÍTULO 1 Matrices y sistemas lineales 1.2.5 Método de Gauss-Jordan y sistemas con solución única Definición 1.15 Una matriz está en forma escalonada reducida si: 1. Está en forma escalonada. 2. Arriba de cada pivote las componentes (si hay) son nulas. 3. Todos los pivotes son unos. ⎡ 1 ⎢ 0 Ejemplo 1.29 La matriz ⎢ ⎣ 0 0 0 1 0 0 2 8 0 0 ⎤ 0 0 ⎥ ⎥ está en forma escalonada reducida. 1 ⎦ 0 Método de Gauss-Jordan Para llevar una matriz a forma escalonada reducida se procede de la manera siguiente: 1. Se lleva la matriz a forma escalonada mediante el método de Gauss. 2. Se hacen ceros todos los elementos arriba de cada pivote utilizando el método de Gauss de abajo hacia arriba. 3. Se convierten en unos todos los pivotes mediante la operación de renglón cambio de escala. Empleando el método de Gauss-Jordan se puede probar el teorema que enunciamos a continuación. Teorema 1.5 Toda matriz es equivalente por filas a una y sólo una matriz en forma escalonada reducida.12 Ejemplo 1.30 Obtener la forma escalonada reducida equivalente a la matriz A por el método de Gauss-Jordan si ⎤ ⎡ −2 −1 0 3 −4 0 3 ⎦ . A = ⎣ 3 −1 2 5 −4 0 −1 2 Solución ⎤ ⎤ ⎡ −2 −1 0 3 −4 −2 −1 0 3 −4 (1) ⎣ 3 −1 2 0 3 ⎦ ←→ ⎣ 0 −5 4 9 −6 ⎦ 0 −13 0 13 −16 5 −4 0 −1 2 ⎤ ⎡ −2 −1 0 3 −4 (2) 4 9 −6 ⎦ ←→ ⎣ 0 −5 0 0 −52 −52 −2 ⎡ 1Compare con el teorema 1.3, página 23. 12 Page (PS/TeX): 28 / 28, COMPOSITE SECCIÓN 1.2 Sistemas lineales 29 ⎤ −2 −1 0 3 −4 4 9 −6 ⎦ ←→ ⎣ 0 −5 0 0 −26 −26 −1 ⎡ (3) ⎤ −2 −1 0 3 −4 0 65 −80 ⎦ ←→ ⎣ 0 −65 0 0 −26 −26 −1 ⎡ (4) ⎤ −2 −1 0 3 −4 0 13 −16 ⎦ ←→ ⎣ 0 −13 0 0 −26 −26 −1 ⎡ (5) ⎤ −26 0 0 26 −36 0 13 −16 ⎦ ←→ ⎣ 0 −13 0 0 −26 −26 −1 ⎡ (6) ⎤ 1 0 0 −1 18/13 ←→ ⎣ 0 1 0 −1 16/13 ⎦. 0 0 1 1 1/26 ⎡ (7) Donde, para facilitar su comprensión, esta vez hemos indicado las operaciones de renglón en cada paso del (1) al (7), señalando los pivotes en azul más claro cuando se hacen ceros los elementos por debajo de los mismos y en rojo cuando se hacen ceros los elementos por encima de los pivotes. (1): R2 ↔ 3R1 + 2R2 , R3 ↔ 5R1 + 2R3 ; (2): R3 ↔ −13R2 + 5R3 ; (3): R3 ↔ (1/2)R3 ; (4): R2 ↔ 2R3 + 13R2 ; (5): R2 ↔ (1/5)R2 ; (6): R1 ↔ 13R1 − R2 ; (7): R1 ↔ (−1/26)R1 , R2 ↔ (−1/13)R2 , R3 ↔ (−1/26)R3 . P Nota 1.5 A diferencia de la forma escalonada reducida de una matriz, que es única, es claro que al hacer operaciones de renglón a una matriz A para obtener una matriz en forma escalonada equivalente, se pueden obtener diferentes matrices. Sin embargo, para cualquier par de matrices en forma escalonada equivalentes a la matriz A se cumple: 1. Las dos matrices tienen el mismo número de pivotes. 2. Los pivotes se encuentran en las mismas posiciones en ambas matrices; es decir, si una matriz tiene un pivote en la componente i j la otra también tiene un pivote en esta componente. Ilustramos la nota 1.5 en el siguiente ejemplo. ⎡ 2 Ejemplo 1.31 Sea A = ⎣ 4 1 ⎡ 2 ⎣ 4 1 Page (PS/TeX): 29 / 29, COMPOSITE −3 −1 −2 1 0 3 ⎤ −3 1 1 5 −1 0 1 2 ⎦, entonces −2 3 1 1 1 1 1 ⎤ 5 2 ⎦ ∼ 1 ⎡ 2 ⎣ 0 0 ⎡ 2 ∼ ⎣ 0 0 ⎤ −3 1 1 5 5 −2 −1 −8 ⎦ 1 −5 −1 3 ⎤ −3 1 1 5 5 −2 −1 −8 ⎦ = H1 0 23 4 −23 30 CAPÍTULO 1 Matrices y sistemas lineales y ⎤ 2 −3 1 1 5 ⎣ 4 −1 0 1 2 ⎦ 1 −2 3 1 1 ⎡ ⎡ ∼ 1 ⎣ 4 2 ⎤ ⎤ ⎡ 1 −2 3 1 1 −2 3 1 1 7 −12 −3 −2 ⎦ −1 0 1 2 ⎦ ∼ ⎣ 0 0 1 −5 −1 3 −3 1 1 5 ⎤ 1 3 ⎦ −2 ⎡ ∼ 1 −2 3 1 ⎣ 0 1 −5 −1 0 7 −12 −3 ⎡ ∼ 1 ⎣ 0 0 −2 3 1 1 −5 −1 0 23 4 ⎤ 1 3 ⎦ = H2 . −23 Ası́ A ∼ H1 , A ∼ H2 ; H1 y H2 están en forma escalonada, H1 = H2 ; ambas matrices tienen el mismo número de pivotes y se encuentran en las mismas posiciones en las dos matrices. Sistemas lineales y método de Gauss-Jordan Los sistemas lineales también se pueden resolver utilizando el método de Gauss-Jordan para llevar la matriz ampliada a forma escalonada reducida y realizar sustitución regresiva, como hacemos patente en el siguiente ejemplo. Ejemplo 1.32 Resolver el siguiente sistema mediante el método de Gauss-Jordan x1 −x1 2x1 Solución − + − 2x2 x2 x2 + x3 + x3 + + + 3x4 2x4 5x4 = = = −1 2 1 Llevemos la matriz ampliada a la forma escalonada reducida: ⎡ 1 ⎣ −1 2 −2 1 3 1 0 2 −1 1 5 ⎤ −1 2 ⎦ ∼ 1 ⎡ 1 ⎣ 0 0 ⎡ ∼ 1 ⎣ 0 0 ⎡ ∼ 1 ⎣ 0 0 ⎡ ∼ 1 ⎣ 0 0 ⎡ ∼ Page (PS/TeX): 30 / 30, COMPOSITE ⎤ −1 1 ⎦ 3 −2 1 3 −1 1 5 3 −1 −1 ⎤ −1 1 ⎦ 6 −2 1 3 −1 1 5 0 2 14 ⎤ −1 −1 ⎦ 3 −2 1 3 1 −1 −5 0 1 7 −2 0 −4 1 0 2 0 1 7 1 0 0 0 ⎣ 0 1 0 2 0 0 1 7 ⎤ −4 2 ⎦ 3 ⎤ 0 2 ⎦. 3 SECCIÓN 1.2 Sistemas lineales 31 Al hacer sustitución regresiva tenemos x3 = 3 − 7x4 , x2 = 2 − 2x4 y x1 = 0; luego la solución viene dada por ⎤ ⎡ ⎤ ⎡ 0 x1 ⎢ x2 ⎥ ⎢ 2 − 2r ⎥ ⎥ ⎢ ⎥ ⎢ ⎣ x3 ⎦ = ⎣ 3 − 7r ⎦; r ∈ R. r x4 Sistemas con solución única En este breve apartado damos criterios para determinar cuándo hay solución única en un sistema utilizando la forma escalonada reducida, los cuales son fáciles de probar utilizando el teorema 1.4. Sea A ∈ Mm×n : 1. Caso m > n. Sea Ax = b un sistema lineal consistente, entonces las dos condiciones siguientes son equivalentes ((a) ⇔ (b)): (a) El sistema Ax = b tiene solución única. (b) La forma escalonada reducida equivalente a A consiste de la identidad n × n seguida de (b) m − n filas nulas. 2. Caso m < n. Supongamos que el sistema Ax = b es consistente y tiene menos ecuaciones que incógnitas. Entonces tiene una infinidad de soluciones. 3. Caso m = n. Ax = b tiene solución única para todo b si y sólo si A es equivalente a la identidad; es decir, la forma escalonada reducida equivalente a A es In . P Nota 1.6 Para determinar que una matriz cuadrada sea equivalente a la identidad, basta revisar que al llevarla a una forma escalonada toda columna en ésta tenga pivote (por su definición, éste debe ser distinto de cero); ya que entonces, por el método de Gauss-Jordan, su forma escalonada reducida equivalente será la identidad. 1.2.6 Sistemas homogéneos ⎡ ⎢ ⎢ Definición 1.16 Un sistema lineal con la forma Ax = 0, donde 0 = ⎢ ⎣ 0 0 .. . ⎤ ⎥ ⎥ ⎥, se llama homogéneo. ⎦ 0 Todo sistema homogéneo es consistente pues x = 0 es solución del mismo; la llamada solución trivial. De los casos 1 y 2, de criterios de solución única de la subsección precedente, deducimos el siguiente teorema. Page (PS/TeX): 31 / 31, COMPOSITE 32 CAPÍTULO 1 Matrices y sistemas lineales Teorema 1.6 Sea A ∈ Mm×n . Entonces 1. Si m = n, el sistema homogéneo cuadrado Ax = 0 tiene solución no trivial si y sólo si A no es equivalente a la identidad. 2. Todo sistema homogéneo Ax =0 con menos ecuaciones que incógnitas (m < n) tiene soluciones no triviales. Observemos que para resolver un sistema homogéneo Ax = 0, no es necesario poner ceros en la última columna de la ampliación; pues todos los términos independientes son nulos y al hacer las operaciones de renglón no se verán afectados. Ası́ que bastará llevar a forma escalonada la matriz A y hacer sustitución regresiva recordando que los términos independientes son nulos. Ejemplo 1.33 Para el sistema homogéneo 1 1 −1 1 −1 −3 de aquı́, x1 + x2 − x3 = 0 x1 − x2 − 3x3 = 0, ↔ 1 0 1 −1 −2 −2 ⎤ ⎤ ⎡ x1 2r ⎣ x2 ⎦ = ⎣ −r ⎦; r x3 ↔ 1 1 −1 ; 0 1 1 ⎡ r ∈ R. 1.2.7 Estructura de las soluciones El teorema a continuación describe la estructura de las soluciones de los sistemas no homogéneos en relación con los homogéneos y, de paso, nos muestra que es posible resolver al mismo tiempo el sistema no homogéneo Ax = b y el sistema homogéneo asociado Ax = 0. Teorema 1.7 Sea A ∈ Mm×n . 1. Si h1 , h2 son soluciones particulares del sistema homogéneo Ax = 0 y α ∈ R, entonces (a) h1 +h2 es también solución. (b) αh1 es solución del sistema. 2. Sea p una solución particular del sistema no homogéneo Ax = b. (a) Si h es cualquier solución del sistema homogéneo asociado Ax = 0, entonces p +h es solución del sistema no homogéneo Ax = b. (b) Si p es una solución particular del no homogéneo Ax = b, entonces toda solución u de este sistema tiene la forma p +h, para alguna solución h del sistema lineal homogéneo asociado Ax = 0. Page (PS/TeX): 32 / 32, COMPOSITE Sistemas lineales 33 SECCIÓN 1.2 DEMOSTRACIÓN Q 1. (a) Como h1 , h2 son soluciones, Ah1 = 0 y Ah2 = 0. Luego, A(h1 +h2 ) = Ah1 + Ah2 = 0. (a) Por tanto, h1 +h2 es también solución. (b) A(αh1 ) = α(Ah1 ) = α0 = 0; lo cual nos dice que αh es solución. 2. (a) A(p +h) = Ap + Ah =b +0 = b; pues p es solución de Ax = b y h es solución del homogéneo. (b) Sea u una solución de Ax = b. Entonces, si h = u − p, Ah = A(u − p) = Au − Ap = b −b = 0; y u = p +h. Q Ejemplo 1.34 Resolver el sistema x1 2x1 3x1 −x1 − − − + 2x2 3x2 5x2 x2 + + + − x3 2x3 3x3 x3 − − − + x4 3x4 4x4 2x4 = = = = 4 −1 3 5 y encontrar la solución del sistema homogéneo asociado. Solución ⎡ 1 −2 1 −1 ⎢ 2 −3 2 −3 ⎢ ⎣ 3 −5 3 −4 −1 1 −1 2 ⎤ 4 −1 ⎥ ⎥ 3 ⎦ 5 ⎡ ↔ 1 −2 1 ⎢ 0 1 0 ⎢ ⎣ 0 1 0 0 −1 0 ⎡ 1 −2 1 ⎢ 0 1 0 ⎢ ↔ ⎣ 0 0 0 0 0 0 −1 −1 −1 1 ⎤ 4 −9 ⎥ ⎥ −9 ⎦ 9 −1 −1 0 0 ⎤ 4 −9 ⎥ ⎥. 0 ⎦ 0 Ası́, la solución del sistema es ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ ⎤ ⎡ 3r − s −14 3r − s − 14 x1 ⎢x2 ⎥ ⎢ r − 9 ⎥ ⎢ −9 ⎥ ⎢ r ⎥ ⎥; ⎥+⎢ ⎥=⎢ ⎢ ⎥=⎢ ⎦ ⎣ ⎣x3 ⎦ ⎣ 0 ⎦ ⎣ s ⎦ s r 0 r x4 r, s ∈ R. De donde observamos que para este caso ⎤ ⎤ ⎡ 3r − s −14 ⎢ −9 ⎥ ⎢ r ⎥ ⎥; ⎥y⎢ ⎢ ⎣ 0 ⎦ ⎣ s ⎦ r 0 ⎡ r, s ∈ R son, respectivamente, una solución particular del no homogéneo y la solución del homogéneo asociado. Page (PS/TeX): 33 / 33, COMPOSITE 34 CAPÍTULO 1 Matrices y sistemas lineales 1.2.8 Sistemas lineales con números complejos Nuevamente, como en la sección 1.1.5 (cfr. pág. 12), haremos uso de números complejos en álgebra lineal; esta vez en sistemas lineales. Para resolver sistemas lineales con coeficientes complejos simplemente aplicaremos las mismas técnicas que hemos desarrollado en esta sección, pero realizando las operaciones con números complejos. Todas las propiedades y teoremas relativos a sistemas lineales sobre el campo de los números reales de esta sección siguen siendo válidos cuando los coeficientes y términos independientes son números complejos.13 Ejemplo 1.35 Resolvamos el sistema x1 ix1 x1 + (1 + i)x2 − 2ix2 + (1 − i)x2 − + + ix3 x3 2ix3 = = = 2i 1 − 2i 1 + i. Para ello aplicamos el método de Gauss empleando el álgebra de números complejos en las operaciones.14 ⎤ ⎤ ⎡ ⎡ 2i 2i 1 1 + i −i 1 1 + i −i (1) ⎣ i −2i 1 3 − 2i ⎦ 1 − 2i ⎦ ←→ ⎣ 0 1 − 3i 0 1−i 1+i 0 −2i 3i 1 1 − i 2i ⎤ ⎡ 2i 1 1 + i −i (2) 1−i ⎦ 3i ←→ ⎣ 0 −2i 3 − 2i 0 1 − 3i 0 ⎤ ⎡ 2i 1 1+i −i (3) 1/2 + 1/2i ⎦ 1 −3/2 ←→ ⎣ 0 3 − 2i 0 1 − 3i 0 ⎤ ⎡ 2i 1 1+i −i (4) 1/2 + 1/2i ⎦. 1 −3/2 ←→ ⎣ 0 1−i 0 0 3/2 − 9i/2 De donde, al hacer sustitución regresiva, x3 = = x2 = = = 1−i 3 9 2 − 2i 4 2 15 + 15 i , 1 1 3 2 + 2 i + 2 x3 1 1 2 1 2 + 2i+ 5 + 5i 9 7 10 + 10 i , y x1 = 2i − (1 + i)x2 + ix3 9 7 4 2 = 2i − (1 + i)( 10 + 10 i) + i( 15 + 15 i) = − 13 + 23 i . 1Cfr. B.1 del apéndice B y la subsección 1.1.5. 1(1): R2 ↔ −iR1 + R2 , R3 ↔ −R1 + R2 ; (2): R2 ↔ R3 ; (3): R2 ↔ (−1/2i)R2 ; (4): R3 ↔ −(1 − 3i)R2 + R3 . 13 14 Page (PS/TeX): 34 / 34, COMPOSITE SECCIÓN 1.3 Ejercicios resueltos y ejercicios propuestos 35 Ejemplo 1.36 Resolver el sistema x1 + ix2 − x3 = 5 x1 − 2ix2 + 5x3 = 5 + 6i . Solución y al hacer sustitución regresiva Finalmente, dado que 1 1 i −1 −2i 5 5 5 + 6i ∼ 1 0 i −1 −3i 6 5 6i ⎡ ⎤ ⎤ ⎡ x1 5 + 2i − α ⎣ x2 ⎦ = ⎣ −2 − 2iα ⎦ ; α x3 α ∈ C. ⎤ ⎤ ⎡ ⎤ ⎡ −α x1 5 + 2i ⎣ x2 ⎦ = ⎣ −2 ⎦ + ⎣ −2iα ⎦ , α 0 x3 ⎡ se desprende que la solución del sistema homogéneo asociado está dada por ⎤ ⎡ −α ⎣ −2iα ⎦, α ∈ C. α 1.3 Ejercicios resueltos y ejercicios propuestos 1.3.1 Ejercicios resueltos 11 Determinar los ⎡ 1 −2 a B=⎣ 3 4 −5 Solución ⎤ 1 −2 a 2 2 ⎦ y valores de a y b, si es que existen, para que las matrices A = ⎣ 3 4 −5 1 ⎤ 2b 2 ⎦ sean iguales. 1 ⎡ Matrices Las matrices A y B serán iguales si a = 2b y a = 2, y esto sucede si a = 2 y b = 1. 12 Calcular −1 0 1 2 3 −4 −3 −3 1 8 . ⎤ −1 1 0 −2 3 −1 ⎦ ⎣ 0 1 1 + (b) 2 6 −5 2 3 −1 . (a) + 2 −5 (c) −4 −2 0 3 −1 1 −1 1 2 . ⎡ Solución (a) −1 0 1 2 3 −4 Page (PS/TeX): 35 / 35, COMPOSITE + 2 −5 −3 −3 1 8 = −1 + 2 2−5 0−3 1+1 3 − 3 −4 + 8 = 1 −3 −3 2 0 4 . 36 CAPÍTULO 1 Matrices y sistemas lineales (b) La suma de estas matrices no está definida porque tienen distintos tamaños; la primera tiene tamaño 3 × 3 mientras que la segunda tiene tamaño 2 × 3. −4 (c) −2 3 −1 1 0 −1 1 2 = = (−4)(−2) (−4)(3) (−4)(−1) (−4)(1) (−4)(0) (−4)(−1) (−4)(1) (−4)(2) 8 −12 4 −4 0 4 −4 −8 13 Calcular ⎤ ⎤ −1 2 0 ⎡ 2 −3 ⎥ ⎢ 1 2 1 ⎥⎣ 1 2 ⎦. (a) ⎢ ⎣ −2 2 −3 ⎦ −3 2 1 −2 4 ⎡ ⎡ (b) ⎣ 2 1 −3 ⎤ ⎡ −1 −3 ⎢ 1 2 ⎦⎢ ⎣ −2 2 1 ⎤ 2 0 2 1 ⎥ ⎥. 2 −3 ⎦ −2 4 Recordemos que el producto de dos matrices, A ∈ Mm×n y B ∈ Mr×s , está definido sólo si n = r; en tal caso la matriz producto, AB, tiene entonces tamaño m × s. Una forma de recordar esto es que en el “producto” (m × n)(r × s) los “medios” deben ser iguales; esto es, n = r; y la matriz producto tiene tamaño el producto de los “extremos”: m × s. Finalmente, si el producto está definido, la i-ésima fila del mismo se obtiene multiplicando la fila Fi de la matriz A con cada una de las columnas C j de la matriz B como se indica en (1.1) de la página 5. Solución (a) En este caso se tiene (4 × 3) (3 × 2), los “medios” son iguales ası́ que el producto está definido y el tamaño de la matriz producto es (4 × 2), el producto de los “extremos”. ⎡ ⎤ ⎡ ⎤ ⎤ F1C1 F1C2 −1 2 0 ⎡ 2 −3 ⎢ F2C1 F2C1 ⎥ ⎢ 1 2 1 ⎥ ⎥⎣ 1 ⎢ ⎥ 2 ⎦ = ⎢ ⎣ F3C1 F3C1 ⎦ ⎦ ⎣ −2 2 −3 −3 2 1 −2 4 F3C1 F3C1 ⎤ −2 + 2 + 0 3+4+0 ⎢ 2 + 2 − 3 −3 + 4 + 2 ⎥ ⎥ ⎢ ⎣ −4 + 2 + 9 6+4−6 ⎦ 2 − 2 − 12 −3 − 4 + 8 ⎡ = ⎡ 0 ⎢ 1 = ⎢ ⎣ 7 −12 ⎤ 7 3 ⎥ ⎥. 4 ⎦ 1 (b) En este caso se tiene (3×2)(4×3), que tiene “medios” distintos, ası́ que el producto no está definido. En los ejercicios 4 a 13 sean A= −5 −3 ⎡ −1 3 7 0 4 C=⎣ 2 −1 ⎤ −1 3 ⎦ 3 y Efectuar la operación indicada si es que está definida. Page (PS/TeX): 36 / 36, COMPOSITE −2 1 1 1 ⎡ −1 D=⎣ 2 −2 B= , 4 , −1 ⎤ 1 3 ⎦. 5 SECCIÓN 1.3 14 4A. Solución 4A = 4 −5 −3 −1 3 7 0 15 −5A + 2B. (4)(3) (4)(0) = −20 −4 12 −12 28 0 . ⎤ ⎤ ⎡ −1 1 4 −1 3C − 4D = 3 ⎣ 2 3 ⎦ − 4 ⎣ 2 3 ⎦ −2 5 −1 3 ⎤ ⎤ ⎡ ⎡ 4 −4 12 −3 = ⎣ 6 9 ⎦ + ⎣ −8 −12 ⎦ 8 −20 −3 9 ⎤ ⎡ 16 −7 = ⎣ −2 −3 ⎦ . 5 −11 ⎡ Solución 17 AC. AC = = = Solución (4)(−1) (4)(7) −5 −1 3 −2 1 4 −5A + 2B = −5 +2 −3 7 0 1 1 −1 25 5 −15 −4 2 8 = + 15 −35 0 2 2 −2 21 7 −7 = . 17 −33 −2 16 3C − 4D. 18 (3B)(5C). (4)(−5) (4)(−3) Solución Solución = Ejercicios resueltos y ejercicios propuestos 37 ⎤ ⎡ 4 −1 −5 −1 3 ⎣ FC FC 2 3⎦= 1 1 1 2 −3 7 0 F2C1 F2C2 −1 3 (−5)(4) + (−1)(2) + (3)(−1) (−5)(−1) + (−1)(3) + (3)(3) (−3)(4) + (7)(2) + (0)(−1) (−3)(−1) + (7)(3) + (0)(3) −25 11 . 2 24 ⎤⎞ ⎛ ⎡ 4 −1 −2 1 4 ⎝5 ⎣ 2 3 ⎦⎠ (3B)(5C) = 3 1 1 −1 −1 3 ⎤ ⎡ 4 −1 −2 1 4 ⎣ 2 3⎦ = 15 1 1 −1 −1 3 −10 17 −150 255 = 15 = . 7 −1 105 −15 19 CD. El producto CD no está definido porque la matriz C tiene tamaño 2 × 3 y la matriz D tiene tamaño 2 × 3; el número de columnas de C (tres) es distinto del número de filas de D (dos). Solución Page (PS/TeX): 37 / 37, COMPOSITE 38 CAPÍTULO 1 Matrices y sistemas lineales 10 At A. ⎤ ⎡ −5 −3 −5 −1 3 −5 −1 3 = ⎣ −1 7 ⎦ At A = −3 7 0 −3 7 0 3 0 ⎤ ⎡ 34 −16 −15 = ⎣ −16 50 −3 ⎦ . −15 −3 9 Solución 11 (2B − 3A)D. t ⎤ ⎡ −1 1 −2 1 4 −5 −1 3 ⎣ 2 3⎦ (2B − 3A)D = 2 −3 1 1 −1 −3 7 0 −2 5 ⎤ ⎡ −1 1 −4 2 8 15 3 −9 ⎣ 2 3⎦ = + 2 2 −2 9 −21 0 −2 5 ⎤ ⎡ −1 1 11 5 −1 ⎣ 2 3⎦ = 11 −19 −2 −2 5 1 21 = . −45 −56 Solución 12 (AD)B. ⎛ ⎤⎞ ⎡ −1 1 −5 −1 3 −2 1 4 ⎝ ⎦ ⎠ ⎣ 2 3 (AD)B = −3 7 0 1 1 −1 −2 5 −3 7 −2 1 4 = 17 18 1 1 −1 13 4 −19 = . −16 35 50 Solución 13 CC t . ⎤t ⎡ ⎤⎡ ⎤ 4 −1 4 −1 4 −1 4 2 −1 ⎣ 2 3 ⎦⎣ 2 3 ⎦ = ⎣ 2 3 ⎦ −1 3 3 −1 3 −1 3 −1 3 ⎤ ⎡ 17 5 −7 ⎣ 5 13 7 ⎦ . −7 7 10 ⎤ −1 1 ⎦. Calcular: 2 ⎡ CC t = Solución = ⎡ 14 Sean A = −5 −1 3 −3 7 0 −1 2 3 y b = ⎣ (a) Ab. (b) bA. ⎤ −1 ⎣ 1 ⎦ = 9. 2 ⎡ Solución (a) Ab = Page (PS/TeX): 38 / 38, COMPOSITE −1 2 3 Ejercicios resueltos y ejercicios propuestos 39 SECCIÓN 1.3 ⎤ ⎤ ⎡ (−1)(−1) (−1)(2) (−1)(3) −1 bA = ⎣ 1 ⎦ −1 2 3 = ⎣ (1)(−1) (1)(2) (1)(3) ⎦ (2)(−1) (2)(2) (2)(3) 2 ⎤ ⎡ 1 −2 −3 = ⎣ −1 2 3 ⎦ . −2 4 6 ⎡ (b) 2 n 2 15 Sea A una matriz cuadrada; se define A = AA y en general A = AA · · · A. Calcular A si A = n factores Solución 2 A = AA = 1 1 1 1 1 1 1 1 = 2 2 2 2 . 1 1 1 1 . 16 Demostrar que la suma de matrices es una operación conmutativa; esto es, si A, B ∈ Mm×n , entonces A + B = B + A. DEMOSTRACIÓN Q Si A = [ai j ] y B = [bi j ] , entonces A + B = [ai j + bi j ] = [bi j + ai j ] = B + A (porque la suma de números reales es una operación conmutativa). Q 17 Probar que si X es una matriz fila con n componentes y Y es una matriz columna con igual número de componentes, entonces XY = Y t X t . ⎡ DEMOSTRACIÓN Q Sean X = [ a1 ··· ⎤ b1 ⎢ ⎥ an ] y Y = ⎣ ... ⎦. Entonces XY = ∑ni=1 ai bi y bn ⎡ ⎤ a1 n ⎢ ⎥ Y t X t = [ b1 · · · bn ] ⎣ ... ⎦ = ∑ bi ai an = i=1 n ∑ ai bi = XY. Q i=1 18 Demostrar la propiedad 3(b) de la sección 1.1.4; es decir, que (AB) t = B t At ∀A ∈ Mm×n , ∀B ∈ Mn×p . DEMOSTRACIÓN Q Sean Ai , i = 1, . . . , m, las filas de la matriz A; B j , j = 1, . . . , p, las columnas de la matriz B. Entonces ⎡ ⎤t A 1 B 1 A 1 B 2 · · · A1 B p ⎢ A 2 B 1 A 2 B 2 · · · A2 B p ⎥ ⎢ ⎥ (AB)t = ⎢ . ⎥ ⎣ .. ⎦ A m B1 Am B2 · · · A m B p ⎡ ⎤ A1 B1 A2 B1 · · · Am B1 ⎢ A1 B2 A2 B2 · · · Am B2 ⎥ ⎢ ⎥ =⎢ . . ⎥ .. . . ⎣ .. . .. ⎦ . A 1 B p A2 B p · · · A m B p Page (PS/TeX): 39 / 39, COMPOSITE 40 CAPÍTULO 1 Matrices y sistemas lineales y ⎡ B t At = ⎤ B1t ⎢ B2t ⎥ ⎢ ⎥ t t ⎢ .. ⎥ A1 A2 · · · Atm ⎣ . ⎦ B pt ⎡ B1t At1 B1t At2 · · · ⎢ B2t At1 B2t At2 · · · ⎢ = ⎢ .. .. . . ⎣ . . . B pt At1 B pt At2 · · · ⎡ A 1 B1 A2 B1 · · · ⎢ (ejercicio anterior) ⎢ A1 B2 A2 B2 · · · = ⎢ .. .. . . ⎣ . . . ⎤ B1t Atm B2t Atm ⎥ ⎥ .. ⎥ . ⎦ B pt Atm ⎤ Am B1 Am B2 ⎥ ⎥ .. ⎥ . . ⎦ A 1 B p A2 B p · · · A m B p Con lo que se tiene (AB)t = B t At . Q 19 Suponer que A y B son matrices cuadradas del mismo orden, ¿es cierto que (A + B)2 = A2 + 2AB + B2 para todo par de matrices A y B? Solución 10 0 1 1 1 2 2 2 Si A = yB= , entonces (A + B) = = y 01 1 0 1 1 2 2 A2 + 2AB + B2 = 1 0 1 0 0 1 1 0 2 2 +2 + = . 0 1 0 1 1 0 0 1 2 2 2 0 −1 −2 −2 −1 0 2 = , pero Sin embargo, si A = y B= , entonces (A + B) = 2 2 4 2 1 1 2 2 1 −1 1 −1 −1 0 −1 0 −3 −4 +2 + = . A2 + 2AB + B2 = 1 1 1 1 1 1 1 1 2 3 1 −1 1 1 Es decir, en general A2 + 2AB + B2 = (A + B)2 . 20 ¿Qué condición deben cumplir dos matrices cuadradas del mismo orden, A y B, para que (A + B)2 = A2 + 2AB + B2 ? Del ejercicio precedente se puede inferir que la condición que se requiere es que las matrices conmuten; es decir, que AB = BA. En efecto, si éste es el caso, entonces Solución (A + B)2 = (A + B)(A + B) = A(A + B) + B(A + B) = A2 + AB + BA + B2 = A2 + AB + AB + B2 = A2 + 2AB + B2 . 21 Determinar, si es que existe, el valor que debe tener x para que las matrices A = B= 3 −4 conmuten; esto es, para que AB = BA. −2 x Page (PS/TeX): 40 / 40, COMPOSITE −3 2 1 4 y Ejercicios resueltos y ejercicios propuestos 41 SECCIÓN 1.3 Solución Para que AB = BA se debe tener −3 2 1 4 3 −4 3 −4 −3 2 = ; −2 x −2 x 14 es decir, −13 12 + 2x −13 −10 = ; −5 −4 + 4x 6 + x −4 + 4x por tanto, se debe cumplir 12 + 2x = −10 y 6 + x = −5. Lo cual sucede únicamente si x = −11. 22 ¿Qué condición debe cumplir una matriz cuadrada A = Solución a b para que sea simétrica? cd Para que A sea simétrica se debe tener A = At ; esto es, y esto sucede si y sólo si b = c. a b a c = c d b d 23 Demostrar que si A ∈ Mm×n , entonces la matriz B = AAt es simétrica. DEMOSTRACIÓN Q B t = (AAt )t = (At )t At = AAt = B. Por tanto, B es simétrica (cfr. propiedades de la pág. 10). Q En los ejercicios 24 a 26 sean ⎤ −1 + i 3i B = ⎣ −5 + 3i 8 ⎦ , 7 − 2i 9i ⎡ −i 1 + i 2 A= , 1 − i 2i 4 + i ⎤ −1 3 + 2i −5i C = ⎣ 3 −4i 0 ⎦ 2 −1 1 ⎡ 24 Calcular (a) 2iA, (b) A − 3B t , (c) −3iB t + 2A. Solución (a) 2iA = 2i = = Page (PS/TeX): 41 / 41, COMPOSITE −i 1 + i 2 1 − i 2i 4 + i (2i)(−i) (2i)(1 + i) (2i)(2) (2i)(1 − i) (2i)(2i) (2i)(4 + i) 2 −2 + 2i 4i . 2 + 2i −4 −2 + 8i ⎤ −1 y u = ⎣ 2 − 2i ⎦ . 0 ⎡ 42 CAPÍTULO 1 Matrices y sistemas lineales A − 3B t = (b) = = = ⎤t −1 + i 3i −i 1 + i 2 − 3 ⎣ −5 + 3i 8 ⎦ 1 − i 2i 4 + i 7 − 2i 9i ⎡ −i 1 + i 2 1 − i 2i 4 + i −1 + i −5 + 3i 7 − 2i −3 3i 8 9i −i 1 + i 2 1 − i 2i 4 + i 3 − 3i 15 − 9i −21 + 6i + −9i −24 −27i 3 − 4i 16 − 8i −19 + 6i . 1 − 10i −24 + 2i 4 − 26i ⎤t −1 + i 3i −i 1 + i 2 −3iB t + 2A = −3i ⎣ −5 + 3i 8 ⎦ + 2 1 − i 2i 4 + i 7 − 2i 9i −1 + i −5 + 3i 7 − 2i −i 1 + i 2 = −3i +2 3i 8 9i 1 − i 2i 4 + i 3 + 3i 9 + 15i −6 − 21i −2i 2 + 2i 4 = + 9 −24i 27 2 − 2i 4i 8 + 2i 3 + i 11 + 17i −2 − 21i = . 11 − 2i −20i 35 + 2i ⎡ (c) 25 Encontrar (a) Au, (b) Bu, (c) Cu. Solución Au = (a) = = ⎤ −1 −i 1 + i 2 ⎣ 2 − 2i ⎦ 1 − i 2i 4 + i 0 ⎡ (−i)(−1) + (1 + i)(2 − 2i) + (2)(0) (1 − i)(−1) + (2i)(2 − 2i) + (4 + i)(0) 4+i . 3 + 5i (b) La matriz B tiene tamaño 3 × 2 y la matriz u tiene tamaño 3 × 1, ası́ que el producto Bu no está definido; pues el número de columnas de B es distinto al número de filas de A. (Los “medios” en (3 × 2)(3 × 1) son distintos.) ⎤ ⎤⎡ −1 −1 3 + 2i −5i Cu = ⎣ 3 −4i 0 ⎦ ⎣ 2 − 2i ⎦ 0 2 −1 1 ⎤ ⎤ ⎡ ⎡ 11 − 2i (−1)(−1) + (3 + 2i)(2 − 2i) + (−5i)(0) ⎦ = ⎣ −11 − 8i ⎦ . (3)(−1) + (−4i)(2 − 2i) + (0)(0) =⎣ −4 + 2i (2)(−1) + (−1)(2 − 2i) + (1)(0) ⎡ (c) Page (PS/TeX): 42 / 42, COMPOSITE SECCIÓN 1.3 Ejercicios resueltos y ejercicios propuestos 43 26 Hallar (a) AB, (b) AC, Solución (c) BC. (a) De acuerdo con (1.1) (cfr. pág. 5) AB = = = ⎤ −1 + i 3i −i 1 + i 2 ⎣ −5 + 3i 8 ⎦ 1 − i 2i 4 + i 7 − 2i 9i ⎡ F1C1 F1C2 F2C1 F2C2 7 − 5i 11 + 26i . 24 − 9i −6 + 55i (b) Por (1.1) AC = = = ⎤ −1 3 + 2i −5i −i 1 + i 2 ⎣ 3 −4i 0 ⎦ 1 − i 2i 4 + i 2 −1 1 ⎡ F1C1 F1C2 F1C3 F2C1 F2C2 F2C3 7 + 4i 4 − 7i −3 . 7 + 9i 9 − 2i −1 − 4i (c) El producto no está definido; pues en (3 × 2)(3 × 3) los “medios” son distintos (el número de columnas de B es distinto al número de filas de C). Sistemas lineales 27 Indicar si el sistema dado es lineal o no. (a) x1 − 3x2 + x3 = −3 x1 − 4x2 − 3x32 = 5 (b) x1 − cos(x2 )x2 = 0 x1 + x2 = 1 (c) x1 + x2 + x3 = 3 x1 − x2 + x3 = 2 Solución (a) El sistema no es lineal porque no tiene la forma (1.6) (cfr. pág. 15) al estar la variable x3 en la segunda ecuación elevada al cuadrado. (b) El sistema no es lineal porque no tiene la forma (1.6) pues en la primera ecuación el segundo término contiene la evaluación de cos(x2 ). (c) El sistema sı́ es lineal pues tiene la forma (1.6); con a11 = a12 = a13 = 1, a21 = a23 = 1, a22 = −1, b1 = 3 y b2 = 2 (un sistema de dos ecuaciones con tres incógnitas). 28 Determinar si u = (−1, 2, 1, −2) es solución del sistema −8x1 + 5x2 − 3x3 − 3x4 = 21 7x1 + 5x2 + 7x3 + 6x4 = −2 4x1 + 3x2 + 7x3 − 5x4 = 19 Solución Al sustituir u en la primera, segunda y tercera ecuación se obtiene: −8(−1) + 5(2) − 3(1) − 3(−2) = 21 7(−1) + 5(2) + 7(1) + 6(−2) = −2 4(−1) + 3(2) + 7(1) − 5(−2) = 19 Page (PS/TeX): 43 / 43, COMPOSITE por lo que u sı́ es solución del sistema. 44 CAPÍTULO 1 Matrices y sistemas lineales 29 Determinar si v = (−3, 0, 0, 1) es solución del sistema del ejemplo anterior. Solución Al sustituir v en la primera y segunda ecuación se obtiene: −8(−3) + 5(0) − 3(0) − 3(1) = 21 7(−3) + 5(0) + 7(0) + 6(1) = −15. Puesto que −15 = −2, v no es solución del sistema. 30 Escribir el sistema del ejercicio 28 en la forma matricial Ax =b y resolver los ejercicios 28 y 29 mediante multiplicación de matrices. ⎡ ⎤ x1 −8 5 −3 −3 ⎢ x2 ⎥ ⎥ Solución La matriz de coeficientes (cfr. pág. 15) de este sistema es A = ⎣ 7 5 7 6 ⎦, x = ⎢ ⎣ x3 ⎦ 4 3 7 −5 x4 ⎤ ⎡ 21 y el término independiente es ⎣ −2 ⎦; ası́ que el sistema en forma matricial está dado por 19 ⎡ ⎤ ⎤ ⎤ x ⎡ ⎡ 21 −8 5 −3 −3 ⎢ 1 ⎥ ⎣ 7 5 7 6 ⎦ ⎢ x2 ⎥ = ⎣ −2 ⎦ . ⎣ x3 ⎦ 19 4 3 7 −5 x4 ⎤ ⎡ Puesto que ⎤ ⎡ ⎤ ⎡ ⎤ −1 21 −8 5 −3 −3 ⎢ ⎥ 2 ⎥ ⎣ ⎦ ⎣ 7 5 7 6 ⎦⎢ ⎣ 1 ⎦ = −2 19 4 3 7 −5 −2 ⎡ y ⎤ ⎡ ⎤ ⎡ ⎤ −3 21 −8 5 −3 −3 ⎢ ⎥ ⎣ 7 5 7 6 ⎦ ⎢ 0 ⎥ = ⎣ −15 ⎦ = b, ⎣ 0⎦ −17 4 3 7 −5 1 ⎡ u = (−1, 2, 1, −2) es solución del sistema Ax = b, mientras que v = (−3, 0, 0, 1) no es solución del sistema Ax = b. 31 Indicar las matrices que están en forma escalonada. Para las que estén en forma escalonada, determinar los pivotes de cada fila, y para las que no están en forma escalonada, mencionar la propiedad que no cumplen para este efecto. ⎤ −1 2 1 5 0 (a) ⎣ 0 2 −3 1 2 ⎦, 0 0 0 1 0 ⎡ ⎤ 0 1 −3 2 1 (b) ⎣ 0 0 0 0 2 ⎦, 0 0 0 00 ⎡ ⎤ 1 2 −2 7 9 (c) ⎣ 0 0 1 −1 3 ⎦ 0 1 −1 0 1 ⎤ −7 2 3 −5 9 (d) ⎣ 0 0 0 0 0 ⎦. 0 2 −3 1 1 ⎡ ⎡ y Solución (a) La matriz está en forma escalonada; los pivotes para la primera, segunda y tercera fila son, respectivamente, −1, 2 y 1. (b) La matriz está en forma escalonada; el pivote para la primera fila es 1 y para la segunda es 2. Page (PS/TeX): 44 / 44, COMPOSITE SECCIÓN 1.3 Ejercicios resueltos y ejercicios propuestos 45 (c) La matriz no está en forma escalonada; el primer elemento distinto de cero de la tercera fila no está a la derecha del primer elemento distinto de cero de la segunda fila. (d) La fila nula en esta matriz no está por debajo de las filas no nulas; por lo que no está en forma escalonada. Para cada uno de los sistemas de los ejercicios 32 y 33: (a) Escribir la matriz aumentada correspondiente. (b) Utilizar el inciso (a) para determinar si el sistema está en forma escalonada. x1 − 3x2 + x4 − 5x5 = −5 −5x2 + 4x3 + x5 = −3 −x3 + x4 = −7 32 Solución (a) La matriz ampliada es en este caso ⎤ ⎡ 1 −3 0 1 −5 −5 ⎣ 0 −5 4 0 1 −3 ⎦ . 0 0 −1 1 0 −7 (b) Puesto que la matriz aumentada está en forma escalonada, el sistema está escalonado. 2x1 − x2 + 3x4 − 5x5 = 2 x2 + 4x3 − x5 = −4 −2x1 + 3x4 = −3 33 Solución (a) Para este sistema la matriz ampliada correspondiente es ⎤ ⎡ 2 2 −1 0 3 −5 ⎣ 0 1 4 0 −1 −4 ⎦ . −2 0 0 3 0 −3 (b) Dado que en este sistema la matriz aumentada no está en forma escalonada, el sistema no está escalonado. En los ejercicios 34 a 36, determinar si el sistema escalonado dado tiene solución única, tiene una infinidad de soluciones o es inconsistente, sin resolver dicho sistema; y en los sistemas que sean consistentes indicar las variables libres y las variables ligadas. ⎤ 1 3 −1 −1 −3 5 ⎣ 0 2 −4 0 2 −2 ⎦ 0 0 0 3 0 −3 ⎡ 34 El sistema es consistente porque no tiene una fila nula a la izquierda de la partición con un correspondiente registro distinto de cero a la derecha. Variables libres: x3 y x5 (que corresponden a las columnas sin pivote). Variables ligadas x1 , x2 y x4 (que corresponden a columnas con pivote). Como el sistema es consistente y tiene variables libres (equivalentemente columnas con pivote), tiene entonces una infinidad de soluciones. ⎤ ⎡ 8 1 −1 2 4 −5 ⎣ 0 1 −2 0 3 −5 ⎦ 35 4 0 0 0 0 0 Solución Page (PS/TeX): 45 / 45, COMPOSITE 46 CAPÍTULO 1 Matrices y sistemas lineales El sistema es inconsistente porque tiene una fila nula a la izquierda de la partición con un registro correspondiente distinto de cero a la derecha. Solución ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ 36 1 0 0 0 0 0 −1 −3 0 0 0 0 0 2 2 0 0 0 2 4 −3 1 0 0 2 6 5 0 1 0 8 9 9 2 1 0 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ Solución El sistema es consistente porque la fila nula a la izquierda de la partición tiene registro también nulo a la derecha de la partición. Variables ligadas: x1 , x2 , x3 , x4 y x5 (las que corresponden a columnas con pivote). No tiene variables libres. Puesto que el sistema es consistente y no tiene variables libres tiene solución única. 37 Resolver el sistema escalonado del ejercicio 34 haciendo sustitución regresiva. La última fila de la matriz ampliada equivale a 3x4 = −3; por tanto, x4 = −1. La segunda fila de la matriz ampliada equivale a 2x2 − 4x3 + 2x5 = −2 (con x3 y x5 variables libres), que al despejar la variable ligada x2 produce x2 = −1 − x5 + 2x3 . La primera fila de la matriz ampliada equivale a 3x1 − x2 − x3 − 3x4 + 5x5 = 1, con x3 y x5 variables libres; que al despejar la variable ligada x1 produce x1 = (1+x2 +x3 +3x4 −5x5 )/3 = (1−1−x5 +2x3 +x3 −3−5x5 )/3 = x3 −2x5 −1. Entonces la solución está dada por Solución ⎤ ⎤ ⎡ s − 2r − 1 x1 ⎢ x2 ⎥ ⎢ −1 − r + 2s ⎥ ⎥ ⎢ ⎥ ⎢ ⎥; ⎢ x3 ⎥ = ⎢ s ⎥ ⎢ ⎥ ⎢ ⎦ ⎣ x4 ⎦ ⎣ −1 r x5 ⎡ r, s ∈ R. 38 Resolver el sistema escalonado del ejercicio 36 haciendo sustitución regresiva. Solución La quinta fila de la ampliación equivale a x5 = 1; la cuarta fila de la ampliación equivale a x4 = 2; la tercera fila de la ampliación equivale a 2x3 − 3x4 + 6x5 = 9, que al despejar la variable ligada x3 produce x3 = (9 + 3x4 − 5x5 )/2 = (9 + 6 − 5)/2 = 5; la segunda fila de la matriz ampliada equivale a −3x2 + 2x3 + 4x4 + 6x5 = 9, que al despejar la variable ligada x2 produce x2 = (9 − 2x3 − 4x4 − 6x5 )/(−3) = (9 − 10 − 8 − 6)/(−3) = 5; la primera fila de la matriz ampliada equivale a x1 − x2 + 2x4 + 2x5 = 8, que⎡al despejar ⎤ ⎡ la⎤variable ligada x1 produce x1 = 8 + x2 − 2x4 − 2x5 = 8 + 5 − 4 − 2 = 7. 7 x1 ⎢ x2 ⎥ ⎢ 5 ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ ⎥ Ası́ la solución es ⎢ ⎢ x3 ⎥ = ⎢ 5 ⎥. ⎣ x4 ⎦ ⎣ 2 ⎦ 1 x5 39 Encontrar una matriz H que esté en forma escalonada y que sea equivalente por filas a la matriz ⎡ −3 ⎢ 2 A=⎢ ⎣ 7 1 Page (PS/TeX): 46 / 46, COMPOSITE 2 −1 2 −1 1 5 1 2 4 6 −1 3 ⎤ 4 −3 ⎥ ⎥ 5 ⎦ 4 por medio del método de Gauss. SECCIÓN 1.3 ⎡ Solución −3 ⎢ 2 ⎢ ⎣ 7 1 2 −1 2 −1 1 5 1 2 4 6 −1 3 ⎤ 4 −3 ⎥ ⎥ 5 ⎦ 4 Ejercicios resueltos y ejercicios propuestos 47 ⎡ 1 ⎢ 2 ←−−−−→ ⎢ R1 ↔ R4 ⎣ 7 −3 ⎡ 1 ⎢ 0 ←−−−−−−−−−−→ ⎢ R2 ↔ −2R1 + R2 ⎣ 0 R3 ↔ −7R1 + R3 0 R4 ↔ 3R1 + R4 ⎡ 1 ⎢ 0 ←−−−−−−−−−−→ ⎢ R3 ↔ −9R2 + R3 ⎣ 0 R4 ↔ R2 + R4 0 ⎡ 1 ⎢ 0 ←−−−−−−−−−→ ⎢ R3 ↔ (1/22)R3 ⎣ 0 0 ⎡ 1 ⎢ 0 ←−−−−−−−−−−−→ ⎢ R4 ↔ 8R3 + R4 ⎣ 0 0 −1 −1 2 2 2 5 1 1 −1 1 9 −1 2 1 −13 7 −1 1 0 0 2 1 −22 8 −1 1 0 0 2 1 −1 8 −1 1 0 0 2 1 −1 0 La matriz H está en forma escalonada y es equivalente a la matriz A. ⎤ 4 −3 ⎥ ⎥ 5 ⎦ 4 3 6 −1 4 ⎤ 4 −11 ⎥ ⎥ −23 ⎦ 16 ⎤ 3 4 0 −11 ⎥ ⎥ −22 76 ⎦ 13 5 ⎤ 3 4 0 −11 ⎥ ⎥ −1 38/11 ⎦ 13 5 ⎤ 3 4 0 −11 ⎥ ⎥ =H −1 38/11 ⎦ 5 359/11 3 0 −22 13 40 Resolver por el método de Gauss el sistema x1 − x2 + 3x3 + 5x4 − 6x5 3x1 − 4x2 + 5x3 − 2x4 + x5 −2x1 + 3x2 − x3 + 3x4 − 5x5 −x1 − x2 + 2x3 − 2x4 + 3x5 5x1 − 3x2 + x3 − 4x4 + 7x5 4x1 − 5x2 + 8x3 + 3x4 − 5x5 Solución ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ 1 3 −2 −1 5 4 Page (PS/TeX): 47 / 47, COMPOSITE = = = = = = −15 −43 17 −13 −20 −58 Primero se lleva la matriz ampliada del sistema a forma escalonada. ⎡ ⎤ 1 −1 3 5 −15 −1 3 5 −6 −4 −17 −43 ⎥ −4 5 −2 1 ⎢ 0 −1 ⎢ ⎥ 1 5 13 17 ⎥ 3 −1 3 −5 ⎢ 0 ⎥ ∼ ⎢ 5 3 −13 ⎥ −1 2 −2 3 ⎢ 0 −2 ⎣ 0 2 −14 −29 −20 ⎦ −3 1 −4 7 0 −1 −4 −17 −58 −5 8 3 −5 ⎡ 1 −1 3 5 −4 −17 ⎢ 0 −1 ⎢ 0 1 −4 ⎢ 0 ∼ ⎢ 0 13 37 ⎢ 0 ⎣ 0 0 −22 −63 0 0 0 0 ⎡ 1 −1 3 5 −17 ⎢ 0 −1 −4 ⎢ 0 1 −4 ⎢ 0 ∼ ⎢ 0 0 89 ⎢ 0 ⎣ 0 0 0 −151 0 0 0 0 −6 19 −17 −3 37 19 −6 19 2 −41 75 0 −6 19 2 −67 119 0 ⎤ −15 2 ⎥ ⎥ −13 ⎥ ⎥ −28 ⎥ 55 ⎦ 2 ⎤ −15 2 ⎥ ⎥ −11 ⎥ ⎥ −32 ⎥ 59 ⎦ 0 ⎤ −15 2 ⎥ ⎥ −11 ⎥ ⎥ 111 ⎥ −183 ⎦ 0 48 CAPÍTULO 1 Matrices y sistemas lineales ⎡ ∼ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ 1 0 0 0 0 0 −1 −1 0 0 0 0 3 −4 1 0 0 0 5 −17 −4 89 0 0 −6 19 2 −67 474 0 −15 2 −11 111 474 0 ⎤ ⎥ ⎥ ⎥ ⎥. ⎥ ⎦ Después se hace sustitución regresiva: x5 = 1; x4 = (111 + 67x5 )/89 = 2; x3 = −11 + 4x4 − 2x5 = −5; x2 = −2 − 4x3 − 17x4 + 19x5 = 3; x1 = −15 + x2 − 3x3 − 5x4 + 6x5 = −1 ⎤ ⎡ ⎤ ⎡ −1 x1 ⎢ x2 ⎥ ⎢ 3 ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ El sistema tiene solución única: ⎢ ⎢ x3 ⎥ = ⎢ −5 ⎥. ⎣ x4 ⎦ ⎣ 2 ⎦ 1 x5 41 Resolver el sistema x1 + x2 + 2x3 − x4 x1 − x2 + x3 − x4 x1 + x2 − x3 − x4 −x1 − 2x2 + x3 + x4 Solución = = = = 10 9 1 2 por el método de Gauss. Se lleva la matriz aumentada del sistema a forma escalonada ⎤ ⎡ ⎤ ⎡ 1 1 2 −1 −10 1 1 2 −1 10 ⎥ ⎢ ⎢ 1 −1 1 −1 9 ⎥ ⎥ ∼ ⎢ 0 −2 −1 0 −1 ⎥ ⎢ ⎣ 0 0 −3 0 −9 ⎦ ⎣ 1 1 −1 −1 1 ⎦ 12 0 −1 3 0 −1 −2 1 1 2 ⎤ ⎡ 10 1 1 2 −1 ⎢ 0 −2 −1 0 −1 ⎥ ⎥ ∼⎢ ⎣ 0 0 −3 0 −9 ⎦ 0 0 −7 0 −25 ⎤ ⎡ 10 1 1 2 −1 ⎢ 0 −2 −1 0 −1 ⎥ ⎥ ∼⎢ ⎣0 0 1 0 3⎦ 0 0 −7 0 −25 ⎤ ⎡ 1 1 2 −1 −10 ⎢ 0 −2 −1 0 −1 ⎥ ⎥ ∼ ⎢ ⎣0 0 1 0 3⎦ 0 0 0 0 −4 y se observa que el sistema es inconsistente porque, en la forma escalonada equivalente, la última fila del lado izquierdo de la partición es nula y el registro correspondiente del lado derecho es distinto de cero. 42 Resolver el sistema x1 + 2x2 − 3x3 + x4 −3x1 + 5x2 − x3 + 2x4 4x1 + 3x2 + −5x3 − x4 −7x1 + 19x2 − 9x3 + 8x4 Page (PS/TeX): 48 / 48, COMPOSITE = = = = 1−2 −16 −11 −14 mediante el método de Gauss. Ejercicios resueltos y ejercicios propuestos 49 SECCIÓN 1.3 Solución Primero se obtiene una forma escalonada de la matriz ampliada del sistema. ⎤ ⎡ ⎤ ⎡ −2 1 2 −3 1 −2 1 2 −3 1 ⎢ ⎢ −3 0 ⎥ 5 6 ⎥ 5 −1 2 ⎥ ⎥ ∼ ⎢ 0 11 −10 ⎢ ⎣ ⎦ ⎣ 4 −3 ⎦ 0 −5 7 −5 −11 3 −5 −1 0 0 33 −30 15 14 −7 19 −9 8 ⎤ ⎡ −2 1 2 −3 1 ⎢ 0 −6 ⎥ 1 4 −5 ⎥ ∼ ⎢ ⎣ 0 −5 −3 ⎦ 7 −5 0 0 11 −10 5 ⎡ ⎤ 1 2 −3 1 −2 ⎢ 0 1 −6 ⎥ 4 −5 ⎥ ∼ ⎢ ⎣ 0 0 −33 ⎦ 27 −30 66 0 0 −54 60 ⎤ ⎡ −2 1 2 −3 1 ⎢ 0 1 −6 ⎥ 4 −5 ⎥ ∼ ⎢ ⎦ ⎣ 0 0 −33 27 −30 66 0 0 −54 60 ⎤ ⎡ −2 1 2 −3 1 ⎢ 0 1 −6 ⎥ 4 −5 ⎥ ∼ ⎢ ⎣ 0 0 27 −30 −33 ⎦ 0 0 0 0 0 ⎡ ⎤ 1 2 −3 1 −2 ⎢ 0 1 −6 ⎥ 4 −5 ⎥ ∼ ⎢ ⎣ 0 0 −11 ⎦ 9 −10 0 0 0 0 0 Después se hace sustitución regresiva: x3 = (−11/9) + (10/9)x4 ; es decir, x2 = −6 − 4x3 + 5x4 = (−10/9) + (5/9)x4 ; ⎡ ⎤ ⎡ 11 − 31 9 + 9 r ⎤ x1 ⎢ ⎥ ⎢ x2 ⎥ ⎢ − 10 + 5r ⎥ ⎢ ⎥ = ⎢ 9 9 ⎥, ⎣ x3 ⎦ ⎢ − 11 + 10 r ⎥ ⎣ 9 9 ⎦ x4 r r ∈ R. 43 Resolver los siguientes sistemas que tienen la misma matriz de coeficientes. (a) 3x1 − x2 + 5x3 + 2x4 + x5 = 17 −x1 + x2 − 2x3 − x4 + 3x5 = −2 2x1 + 2x2 + 4x3 + x4 − 4x5 = −4 (b) 3y1 − y2 + 5y3 + 2y4 + y5 = 7 −y1 + y2 − 2y3 − y4 + y5 = −6 2y1 + 2y2 + 4y3 + y4 − 4y5 = 10 (c) 3z1 − z2 + 5z3 + 2z4 + z5 = 6 −z1 + z2 − 2z3 − z4 + 3z5 = −5 2z1 + 2z2 + 4z3 + z4 − 4z5 = 12 Solución Page (PS/TeX): 49 / 49, COMPOSITE Se lleva a forma escalonada la matriz ampliada del sistema. x1 = (−31/9) + (11/9)x4 ; 50 CAPÍTULO 1 Matrices y sistemas lineales ⎡ 3 ⎣ −1 2 ⎡ −1 ⎣ 3 2 ⎡ −1 ⎣ 0 0 ⎡ −1 ⎣ 0 0 ⎤ −1 5 2 1 17 7 6 1 −2 −1 3 −2 −6 −5 ⎦ 2 4 1 −4 −4 10 12 ⎤ 1 −2 −1 3 −2 −6 −5 −1 5 2 1 17 7 6 ⎦ 2 4 1 −4 −4 10 12 ⎤ 1 −2 −1 3 −2 −6 −5 2 −1 −1 10 11 −11 −9 ⎦ 4 0 −1 2 −8 −2 2 ∼ ∼ ∼ ⎤ 1 −2 −1 3 −2 −6 −5 2 −1 −1 10 11 −11 −9 ⎦ . 0 2 1 −18 −30 20 20 Se hace sustitución regresiva de cada término independiente. (a) x3 = (−30 − x4 + 18x5 )/2 = −15 − (1/2)x4 + 9x5 ; x2 = (11 + x3 + x4 − 10x5 )/2 = −2 + (1/4)x4 − (1/2)x5 ; x1 = 2 + x2 − 2x3 − x4 + 3x5 = (1/4)x4 − (31/2)x5 . Con lo que ⎤ ⎡ ⎡ ⎤ 30 + 14 s − 31 2 s x1 ⎥ ⎢ ⎢ x2 ⎥ ⎢ −2 + 14 s − 12 r ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ x3 ⎥ = ⎢ ⎢ ⎥ ⎢ −15 − 12 s + 9r ⎥; r, s ∈ R. ⎥ ⎣ x4 ⎦ ⎢ ⎦ ⎣ s x5 r (b) y3 = (20 − y4 + 18y5 )/2 = 10 − 12 s + 9r; y2 = (−11 + y3 + y4 − 10y5 )/2 = − 12 + 14 s − 12 r; 1 31 y1 = 6 + y2 − 2y3 − y4 + 3y5 = − 29 2 + 4 s − 2 r. Por lo que ⎤ ⎡ 29 1 ⎡ ⎤ − 2 + 4 s − 31 r 2 y1 ⎥ ⎢ ⎢ y2 ⎥ ⎢ − 21 + 14 s − 12 r ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ y3 ⎥ = ⎢ ⎢ ⎥ ⎢ 10 − 12 s + 9r ⎥; r, s ∈ R. ⎥ ⎣ y4 ⎦ ⎢ ⎦ ⎣ s y5 r (c) z3 = (20 − z4 + 18z5 )/2 = 10 − 12 s + 9r; z2 = (−9 + z3 + z4 − 10z5 )/2 = 12 + 14 s − 12 r; z1 = 5 + z2 − 1 31 2z3 − z4 + 3z5 = − 29 2 + 4 s − 2 r. Por tanto ⎤ ⎡ 29 1 ⎡ ⎤ − 2 + 4 s − 31 2 r z1 ⎥ ⎢ ⎢ z2 ⎥ ⎢ 12 + 14 s − 12 r ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ z3 ⎥ = ⎢ ⎢ ⎥ ⎢ 10 − 12 s + 9r ⎥; r, s ∈ R. ⎥ ⎣ z4 ⎦ ⎢ ⎦ ⎣ s z5 r 44 Encontrar la matriz en forma escalonada reducida equivalente a la matriz ⎡ 1 −1 2 ⎢ 2 −1 3 A=⎢ ⎣ −1 1 2 3 2 −1 por el método de Gauss-Jordan. Page (PS/TeX): 50 / 50, COMPOSITE ⎤ 3 1 4 −1 ⎥ ⎥ 5 3⎦ 1 2 SECCIÓN 1.3 ⎡ Solución 1 −1 2 ⎢ 2 −1 3 ⎢ ⎣ −1 1 2 3 2 −1 ⎤ 3 1 4 −1 ⎥ ⎥ 5 3⎦ 1 2 Ejercicios resueltos y ejercicios propuestos 51 ⎡ ←−−−−−−−−−−→ R2 ↔ −2R1 + R2 R3 ↔ R1 + R3 R2 ↔ −3R1 + R3 ←−−−−−−−−−−→ R4 ↔ −5R2 + R4 ←−−−−−−−−→ R3 ↔ (1/4)R3 ←−−−−−−−−→ R4 ↔ 2R3 + R4 ←−−−−−−−−→ R4 ↔ (1/6)R4 ←−−−−−−−−−−→ R3 ↔ −2R4 + R3 R2 ↔ 2R4 + R2 R1 ↔ −3R4 + R1 1 ⎢0 ⎢ ⎢ ⎣0 0 ⎡ 1 ⎢0 ⎢ ⎢ ⎣0 0 ⎡ 1 ⎢0 ⎢ ⎢ ⎣0 0 ⎡ 1 ⎢0 ⎢ ⎢ ⎣0 0 ⎡ 1 ⎢0 ⎢ ⎢ ⎣0 0 ⎡ 1 ⎢0 ⎢ ⎢ ⎣0 ⎡ ←−−−−−−−−−−→ R2 ↔ R3 + R2 R1 ↔ −2R3 + R1 0 0 0 0 0 1 8 3 0 1 5 ⎤ 1 −1 0 0 3 ⎢ 0 1 0 0 −2 ⎥ ⎢ ⎥ ⎢ ⎥ 13 ⎣0 0 1 0 − 3 ⎦ ⎡ ←−−−−−−−→ R1 ↔ R2 + R1 ⎤ −1 2 3 1 1 −1 −2 −3 ⎥ ⎥ ⎥ 0 4 8 4⎦ 5 −7 −8 −1 ⎤ −1 2 3 1 1 −1 −2 −3 ⎥ ⎥ ⎥ 0 4 8 4⎦ 0 −2 2 14 ⎤ −1 2 3 1 1 −1 −2 −3 ⎥ ⎥ ⎥ 0 1 2 1⎦ 0 −2 2 14 ⎤ −1 2 3 1 1 −1 −2 −3 ⎥ ⎥ ⎥ 0 1 2 1⎦ 0 0 6 16 ⎤ −1 2 3 1 1 −1 −2 −3 ⎥ ⎥ ⎥ 0 1 2 1⎦ 0 0 1 83 ⎤ −1 2 0 −7 7 ⎥ 1 −1 0 3 ⎥ ⎥ ⎦ 0 1 0 − 13 3 8 3 ⎤ 1 0 0 0 − 13 ⎢ 0 1 0 0 −2 ⎥ ⎢ ⎥ ⎢ ⎥ = H. ⎣ 0 0 1 0 − 13 ⎦ 3 0 0 0 1 8 3 La matriz H está en forma escalonada reducida y A ∼ H. 45 Resolver el siguiente sistema por el método de Gauss-Jordan. x1 − x2 + 2x3 2x1 − x2 + x3 −x1 + 3x2 − 2x3 x1 + x2 + 2x3 = = = = −0 −2 −2 −2 Solución Se lleva primero la matriz ampliada del sistema a forma escalonada reducida mediante el método de Gauss-Jordan: Page (PS/TeX): 51 / 51, COMPOSITE 52 CAPÍTULO 1 Matrices y sistemas lineales ⎤ ⎤ ⎡ ⎤ ⎡ 0 1 −1 2 0 1 −1 2 0 1 −1 2 ⎥ ⎥ ⎢ ⎢ ⎢ 2 −1 1 −2 ⎥ ⎥ ∼ ⎢ 0 1 −3 −2 ⎥ ∼ ⎢ 0 1 −3 −2 ⎥ ⎢ ⎣0 2 0 ⎣ −1 3 −2 6⎦ 2⎦ ⎣0 0 6 2⎦ 6 0 0 6 2 0 2 0 2 1 1 2 ⎤ ⎤ ⎡ ⎡ 0 0 1 −1 2 1 −1 2 ⎢ 0 1 −3 −2 ⎥ ⎢ 0 1 −3 −2 ⎥ ⎥ ⎥∼⎢ ∼⎢ ⎣0 0 6 1⎦ 6⎦ ⎣0 0 1 0 0 0 0 0 0 0 0 ⎡ ⎤ ⎤ ⎡ 1 −1 0 −2 1 0 0 −1 ⎢0 1 0 ⎥ ⎢0 1 0 1⎥ 1 ⎥. ⎥∼⎢ ∼⎢ ⎣0 0 1 ⎦ ⎣ 1⎦ 0 0 1 1 0 0 0 0 0 0 0 0 ⎡ Después se hace sustitución regresiva. ⎡ ⎤ ⎤ ⎡ x1 −1 ⎣ x2 ⎦ = ⎣ 1 ⎦ . 0 x3 46 Resolver el siguiente sistema homogéneo por el método de Gauss. 7x1 − x2 + x3 − x4 = 0 15x1 + 3x2 − x3 + x4 = 0 4x1 − 2x2 + 7x3 − 5x4 = 0 Solución Se lleva la matriz de coeficientes del sistema a forma escalonada utilizando el método de Gauss: ⎤ ⎤ ⎡ ⎤ ⎡ 1 5 −3 3 7 −1 1 −1 7 −1 1 −1 ⎣ 15 3 −1 1 ⎦ ∼ ⎣ 1 5 −3 3 ⎦ ∼ ⎣ 7 −1 1 −1 ⎦ 4 −2 7 −5 4 −2 7 −5 4 −2 7 −5 ⎡ ⎤ ⎡ 1 5 −3 1 5 −3 3 ⎢ ⎥ ⎢ ∼ ⎣ 0 −36 22 −22 ⎦ ∼ ⎣ 0 1 − 11 18 ⎡ 0 −22 19 −17 3 11 18 ⎤ ⎥ ⎦ 0 −22 19 −17 ⎤ ⎡ 1 5 −3 3 1 5 −3 3 ⎢ ⎢ 11 ⎥ 11 ⎥ 0 1 − 11 ∼ ⎣0 1 − 11 18 18 ⎦ 18 18 ⎦ ∼ ⎣ 32 0 −22 19 −17 0 0 50 − 9 9 ⎡ ⎤ Se hace sustitución regresiva (igualando las ecuaciones a 0 porque el sistema es homogéneo): x3 = Por tanto, Page (PS/TeX): 52 / 52, COMPOSITE 16 x4 ; 25 11 11 11 1 x3 − x4 = − x4 ; x1 = −5x2 + 3x3 − 3x4 = x4 . 18 18 50 50 ⎡ 1 ⎤ ⎡ ⎤ 50 r x1 ⎢ 11 ⎥ ⎢− r⎥ ⎢ x2 ⎥ ⎢ ⎥ = ⎢ 50 ⎥; r ∈ R. O, equivalentemente, ⎢ 16 ⎥ ⎣ x3 ⎦ ⎣ 25 r ⎦ x4 r ⎤ ⎡ ⎤ ⎡ x1 s ⎥ ⎢ x2 ⎥ ⎢ ⎢ ⎥ = ⎢ −11s ⎥; s ∈ R. ⎣ x3 ⎦ ⎣ 32s ⎦ 50s x4 x2 = SECCIÓN 1.3 Ejercicios resueltos y ejercicios propuestos 53 47 Resolver el siguiente sistema y de manera simultánea encontrar la solución del sistema homogéneo asociado. x1 − 2x2 + 3x3 − 4x4 −x1 + 3x2 − 5x3 + x4 2x1 − x2 + 2x3 − 3x4 4x1 − 5x2 + 8x3 − 11x4 = −1 = 2 = 3 = 1 Se resuelve el sistema no homogéneo por el método de Gauss llevando la matriz ampliada a forma escalonada. ⎤ ⎡ ⎤ ⎡ 1 −2 3 −4 −1 1 −2 3 −4 −1 ⎢ ⎢ −1 3 −5 1⎥ 2⎥ 1 ⎥ ⎥ ∼ ⎢ 0 1 −2 −3 ⎢ ⎣ 0 3 −4 5 ⎣ 2 −1 2 −3 5⎦ 3⎦ 5 0 3 −4 5 1 4 −5 8 −11 ⎤ ⎡ 1 −2 3 −4 −1 ⎢ 0 1 −2 −3 1⎥ ⎥ ∼⎢ ⎣ 0 3 −4 5 5⎦ 0 0 0 0 0 ⎡ ⎤ 1 −2 3 −4 −1 ⎢ 0 1 −2 −3 1⎥ ⎥ ∼⎢ ⎣ 0 0 2 14 2⎦ 0 0 0 0 0 Solución Se hace sustitución regresiva: x3 = 1 − 7x4 ; x2 = 1 + 2x3 + 3x4 = 3 − 11x4 ; x1 = −1 + 2x2 − 3x3 + 4x4 = 2 + 3x4 . Por tanto, ⎤ ⎡ ⎤ ⎡ 2 + 3r x1 ⎢ x2 ⎥ ⎢ 3 − 11r ⎥ ⎥ ⎢ ⎥=⎢ ⎣ x3 ⎦ ⎣ 1 − 7r ⎦; r ∈ R, r x4 es la solución para el sistema Ax =0. Para encontrar la solución del sistema homogéneo asociado Ax =0 se escribe la solución precedente como (cfr. 1.2.7, pág. 32) ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 3r x1 2 ⎢ x2 ⎥ ⎢ 3 ⎥ ⎢ −11r ⎥ ⎥ ⎢ ⎥ = ⎢ ⎥+⎢ ⎣ x3 ⎦ ⎣ 1 ⎦ ⎣ −7r ⎦; r ∈ R, r 0 x4 y se obtiene una solución particular del sistema no homogéneo y la solución del sistema homogéneo asociado ⎡ ⎤ ⎡ ⎤ x1 3r ⎢ x2 ⎥ ⎢ −11r ⎥ ⎢ ⎥=⎢ ⎥ ⎣ x3 ⎦ ⎣ −7r ⎦; r ∈ R. r x4 48 Determinar los valores de α para que el sistema x1 − x2 + αx3 = −2 −x1 + 2x2 − αx3 = 3 αx1 + x2 + x3 = 2 tenga solución única. Page (PS/TeX): 53 / 53, COMPOSITE 54 CAPÍTULO 1 Matrices y sistemas lineales Solución Al llevar la matriz ampliada del sistema a forma escalonada se obtiene ⎤ ⎡ ⎤ ⎡ 1 −1 α −2 1 −1 α −2 ⎣ −1 2 −α 0 3⎦ ∼ ⎣0 1 1 ⎦ 2 2 α 1 1 0 α + 1 1 − α 2 + 2α ⎡ ⎤ 1 −1 α −2 0 1 ⎦ ∼ ⎣0 1 0 0 1 − α2 1 + α ası́ que el sistema tiene solución única para toda α = ±1. (Si α = 1, el sistema es inconsistente; y si α = −1, el sistema tiene una infinidad de soluciones.) 49 Determine los valores de α para que el sistema homogéneo αx − y + z = 0 x + 2y − αz = 0 x + 2y − z = 0 tenga soluciones distintas de cero. ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 1 2 −α 1 2 −α α −1 1 ⎣ 1 2 −α ⎦ ∼ ⎣ α −1 1 ⎦ ∼ ⎣ 0 −2α − 1 α2 + 1 ⎦. Solución 1 2 −1 1 2 −1 0 0 α−1 Dado que el sistema homogéneo es cuadrado, tiene solución no trivial si la matriz de coeficientes no es equivalente a la identidad (cfr. teorema 1.6); y esto sucede si α = 1 o α = −1/2. 50 Resolver el sistema Solución iz1 − iz2 + (3 + i)z3 = 4 + 2i (1 + i)z1 − z2 + z3 = 2 3iz1 + z2 − 3z3 = −3 + 4i ⎤ ⎤ ⎡ ⎡ 1 −1 1 − 3i 2 − 4i i −i 3 + i 4 + 2i ⎦ ⎦ ∼ ⎣ 1 + i −1 1 ⎣ 1 + i −1 1 2 2 3i 1 −3 −3 + 4i 3i 1 −3 −3 + 4i ⎤ ⎡ 2 − 4i 1 −1 1 − 3i −3 + 2i −4 + 2i ⎦ ∼ ⎣0 i 0 1 + 3i −12 − 3i −15 − 2i ⎡ ⎤ 1 −1 1 − 3i 2 − 4i 2 + 4i ⎦ 2 + 3i ∼ ⎣0 1 0 1 + 3i −12 − 3i −15 − 2i ⎤ ⎡ 2 − 4i 1 −1 1 − 3i 2 + 4i ⎦ ∼ ⎣ 0 1 2 + 3i 0 0 −5 − 12i −5 − 12i de donde, al hacer sustitución regresiva, ⎡ ⎤ ⎡ ⎤ z1 1 ⎣ z2 ⎦ = ⎣ i ⎦ 1 z3 es la solución del sistema. Page (PS/TeX): 54 / 54, COMPOSITE Ejercicios resueltos y ejercicios propuestos 55 SECCIÓN 1.3 1.3.2 Ejercicios propuestos El lector encontrará la respuesta a los ejercicios en cursiva en el apéndice E al final del libro. Matrices (respuestas en páginas 1073-1074) En los ejercicios 1 a 3 sean A= −1 2 2 5 (a) AB, 3 Encontrar B= , (a) A + B, 1 Calcular 2 Hallar −3 −4 (b) A +C, (b) AC, t (a) A , (d) BC, t t (b) A C, (b) A + B, (a) 3C − E, 5 Calcular 6 Encontrar B= 3 −6 7 6 (b) AC, 9 Encontrar (b) B t A, (c) BB t , (e) At A. 10 Hallar (b) D − E, t (a) 14 C t − 12 A, 12 Calcular (a) AB, 13 Hallar (a) A(BC), 14 Encontrar t (b) E − D , 11 Calcular (b) B t − B, (b) BA, (b) CC t , (a) (3D t − E)A, Page (PS/TeX): 55 / 55, COMPOSITE ⎡ −8 2 , −2 . 4 3 −2 C= , ⎤ 9 0 8 E = ⎣ −3 8 4 ⎦. 7 1 7 ⎡ y (c) −4(D + 3E), t (c) (D − E) , (c) 4E t − 3D t , (c) (2E)D, (c) (DA)t , −1 4 8 −6 2 −4 (d) C −C. t (d) B + 4C t . (d) (3E t − 2D t )t . (d) (AB)C. (d) (C t B)At . (b) (5B)C + 3B, (c) (−AC)t + 5D t . (a) (BAt − 4C)t , (b) B t (CC t − At A), (c) D t E t − (ED)t . ⎤ 0 0 −3 0 ⎦: (a) Hallar A2 ; (b) Calcular A8 . 16 Sea A = ⎣ 0 2 4 0 0 15 Calcular 4 −3 (d) −8C. (c) 4A, (b) 3E − 5D, t (a) −A + 3C, (c) CB. (d) AAt . (a) B − 2C, (f) DD t . C= , E= y (c) E t B, (a) D + E, (e) D t D, (c) B − 2A. En los ejercicios 8 a 15 sean ⎤ ⎡ 5 −5 −8 ⎦ ⎣ , B= A = 9 −1 −6 0 −12 ⎤ ⎡ 1 −4 −1 4 ⎦ D = ⎣ −4 1 −8 −9 5 8 Calcular y (f) CD. 7 5 4 3 5 −5 (b) EB, (a) CD, (a) At B, 7 Calcular (e) BD, (d) B A, , D= (a) −2A, ⎤ 2 D = ⎣ 3 ⎦. −6 ⎡ (d) 6D. t (c) D A , En los ejercicios 4 a 7 sean −8 −5 −7 A= −3 9 5 4 Hallar , (c) 3A − 5B, (c) AD, t ⎤ −1 0 −2 4 7 −3 2 ⎦ C=⎣ 3 4 −6 −3 2 ⎡ 5 0 −1 −2 3 −4 , 56 CAPÍTULO 1 Matrices y sistemas lineales −1 17 Sea A = ⎣ 0 0 0 3 0 ⎤ 0 0 ⎦: 2 −1 0 5 ⎡ 18 Sean A = (a) Calcular A2 ; (b) Encontrar A7 . ⎤ 2 y x = ⎣ −3 ⎦. Calcular 4 ⎡ (b) xA. (a) Ax, 0 1 , encontrar todas las matrices B ∈ M2×2 tales que 0 −2 (c) AB = O y BA = O. 19 Si A = 20 Encontrar los valores de α, β, γ y δ tales que ⎡ 1 0 2 α β γ δ ⎢ ⎢ 0 0 1 1 4 9 2 ⎣ 0 1 0 0 0 1 21 Encontrar los valores de α y β tales que las matrices ⎤ ⎡ −2 0 0 A=⎣ 0 1 0 ⎦ y α 0 β ⎤ 0 1 ⎥ ⎥= 1 0 ⎦ 1 0 0 4 (a) AB = O; 3 9 3 2 (b) BA = O; . ⎤ 3 0 3 B=⎣ 0 1 0 ⎦ 3 0 3 ⎡ conmuten; es decir, AB = BA. 1 1 22 Sea A = : (a) Calcular A2 . (b) Encontrar A3 . (c) Determinar An para todo n ∈ N. 0 1 cos θ − sen θ 23 Si A = , hallar A2 y calcular An para todo n ∈ N. sen θ cos θ 24 Sea ⎤ ⎡ 1 1 1 A=⎣ 0 1 1 ⎦: 0 0 1 (a) Calcular A2 . (b) Encontrar A3 . demostrarla por inducción. (c) Hallar A4 . (d) Conjeturar una fórmula para An , n ∈ N, y 25 Encontrar todas las matrices A ∈ M2×2 tales A2 = O. 26 Probar que una matriz A de tamaño 2 × 2 conmuta con toda matriz B del mismo tamaño (AB = BA) si y sólo si A conmuta con las matrices 1 0 , 0 0 0 1 0 0 , 0 0 1 0 y 0 0 0 . 1 Encontrar todas esas matrices A. 27 Encontrar todas las matrices A de tamaño 2 × 2 tales que A2 = I2 , donde I2 es la matriz identidad de orden 2. 28 Llenar las entradas vacı́as de la matriz 4 × 4 ⎡ 2 −3 ⎢ ⎢ 1 −2 ⎢ ⎢ ⎢ −1 4 ⎣ 1 1 de tal manera que se obtenga una matriz simétrica. Page (PS/TeX): 56 / 56, COMPOSITE 1 1 −2 5 4 ⎤ ⎥ 5 ⎥ ⎥ ⎥ 1 ⎥ ⎦ 7 Ejercicios resueltos y ejercicios propuestos 57 SECCIÓN 1.3 29 Llenar las entradas vacı́as de la matriz 4 × 4 ⎡ 1 ⎢ ⎢ 1 ⎢ ⎢ ⎢ 1 ⎣ 1 −2 1 3 1 −2 4 1 1 3 ⎤ ⎥ 6 ⎥ ⎥ ⎥ 1 ⎥ ⎦ 5 de tal manera que se obtenga una matriz simétrica. 30 Probar que si A ∈ Mm×n , entonces B = A + At es una matriz simétrica. 31 Demostrar que si A es una matriz cuadrada, entonces (A2 )t = (At )2 y (A3 )t = (At )3 . (Indicación: Utilizar la propiedad 3(b) de la pág. 10.) En los ejercicios 32 a 39 las afirmaciones dadas son falsas o verdaderas; si la afirmación es verdadera se debe demostrar con rigor su validez y si es falsa se debe dar un contraejemplo para mostrar que no es cierta. En cada caso se supone que las matrices involucradas A, B y C tienen los tamaños adecuados para efectuar las correspondientes operaciones. 32 A = B ⇒ AC = BC. 33 A = B ⇒ CA = BC. 34 A = B ⇒ CA = CB. 35 A2 = In ⇒ A = In o A = −In . 36 AB = O ⇒ A = O o B = O. 37 C + A = B + A ⇒ C = B. 38 A2 = In ⇒ Am = In ∀n ≥ 2 (n entero). 39 Si A es una matriz cuadrada simétrica, B = [bi j ] y B = A2 , entonces bii ≥ 0 ∀i. Sistemas lineales (respuestas en páginas 1072-1075) 40 Determinar cuáles de los siguientes sistemas de ecuaciones son lineales. √ (a) x1 − x2 + 2x3 = π −x1 + x2 + ex3 = e (b) cos(x1 ) + x1 x2 − x3 = 5 x1 + x2 − x3 = 6 cos(x1 ) + x1 x2 − x3 41 Sea el sistema (c) x1 + 3x2 − 5x3 = 1 2x1 + x2 − x3 = 7 −3x12 + x2 − x3 = 2 (d) x1 − 3x2 − 4x4 = 2 2x1 − 3x2 − 2x3 = 3 x1 + x2 − x3 = −5 x1 − x2 + 2x3 + x4 + x5 + 3x6 = −1 −3x1 + 2x2 + 4x3 − x4 + x5 + 2x6 = −2 −2x1 + x2 + x3 + 2x4 − x5 + x6 = −1 x1 − x2 + x3 − x4 + x5 − x6 = −1 Determinar si (a) (−1, −1, 0, −1, 0, 0); (b) (−10, −14, −2, −6, −4, 3); (c) (−13, −16, −4, −5, 0, 3); (d) (1, 1, 2, 1, 1, −2) son soluciones. Page (PS/TeX): 57 / 57, COMPOSITE 58 CAPÍTULO 1 Matrices y sistemas lineales 42 Indicar las matrices que están en forma escalonada. Para las que sı́ lo están, señalar los pivotes de cada fila; y para las que no, mencionar las propiedades que no se cumplen para ese fin. ⎤ ⎡ −1 1 2 ⎤ ⎡ ⎢ 0 1 2 ⎥ 2 0 −2 1 2 ⎥ ⎢ ⎥ ⎦ ⎣ 0 0 0 −1 1 (c) ⎢ (a) ⎢ 0 0 0 ⎥ ⎣ 0 0 0 ⎦ 0 0 0 0 2 0 0 0 ⎤ ⎡ −1 1 0 0 0 ⎤ ⎡ (b) ⎣ 0 0 2 −1 3 ⎦ 0 1 2 ⎢ 0 1 0 ⎥ 0 3 0 0 0 ⎥ ⎢ ⎥ (d) ⎢ ⎢ 0 0 0 ⎥ ⎣ 0 0 0 ⎦ 0 0 0 De los ejercicios 43 a 46: (a) Escribir la matriz aumentada correspondiente. (b) Utilizar el inciso (a) para determinar si el sistema está en forma escalonada. (c) Para los sistemas que estén en forma escalonada indicar cuáles son las variables libres y cuáles las ligadas. 43 44 x1 + 2x2 − x3 + x4 + 2x5 = −8 x1 − x3 + x5 = −8 x3 + 2x4 = 4 45 x1 − x2 + x3 − x4 − x5 = −6 3x1 − x2 + x3 = 14 x2 − x3 = 16 x3 = −4 46 x1 − 4x2 + 5x3 − x4 + x5 = −7 x2 − x3 + x5 = −3 2x5 = −8 x4 − 5x5 = 12 3x5 = −4 En los ejercicios 47 a 50, determinar si el sistema escalonado tiene solución única, tiene una infinidad de soluciones o es inconsistente, sin resolverlo; y en los sistemas que son consistentes, indicar las variables libres y las variables ligadas. ⎤ ⎤ ⎡ ⎡ 0 −1 2 −1 0 3 −3 2 −1 −2 3 0 −3 3 ⎢ 0 ⎢ 0 2⎥ 0 1 0 −1 1 2 1 0 −1 1 4⎥ ⎥ ⎥ 47 ⎢ 49 ⎢ ⎣ 0 ⎣ 0 1⎦ 0 0 0 0 2 0 −1 0 0 2 6⎦ 0 0 0 0 0 0 0 0 0 0 0 0 0 2 ⎤ ⎤ ⎡ ⎡ 2 1 −1 2 1 1 1 2 −1 ⎢ 0 −1 1 ⎢ 0 0 −2 4 −1 ⎥ 2⎥ ⎥ ⎥ ⎢ 50 ⎢ ⎥ ⎢ ⎣ 4⎦ 0 0 0 2 0⎥ 0 4 48 ⎢ 0 ⎣ 0 0 0 0 0 0 0⎦ 0 0 0 0 0 0 51 Resolver mediante sustitución regresiva. escalonado del ejercicio 49; (a) el sistema escalonado del ejercicio 47; (c) el sistema escalonado del ejercicio 50. (b) el sistema En los ejercicios 52 a 59 utilizar el método de Gauss para encontrar una matriz H equivalente a la matriz dada que esté en forma escalonada. ⎤ ⎡ ⎤ ⎡ 3 −2 1 1 4 0 1 −1 2 1 0 ⎢ 2 −1 1 2 3 ⎥ ⎥ 1 1 1 3 ⎦ 52 ⎣ 0 2 53 ⎢ ⎣ −2 1 1 0 1 ⎦ 0 4 −1 2 1 6 5 −2 3 1 1 Page (PS/TeX): 58 / 58, COMPOSITE Ejercicios resueltos y ejercicios propuestos 59 SECCIÓN 1.3 54 ⎡ −1 3 ⎡ 55 0 ⎣ 0 0 ⎡ 56 ⎢ ⎢ ⎢ ⎢ ⎣ 2 4 3 1 2 2 −6 0 1 2 −3 −2 −1 −1 1 1 4 1 −2 3 −5 57 ⎤ 4 −3 ⎦ 4 2 1 2 2 −1 −1 ⎢ 2 ⎢ ⎣ 3 4 ⎡ 4 −1 1 3 0 −5 2 0 −1 1 2 1 1 1 1 1 0 0 2 1 ⎤ 58 ⎥ ⎥ ⎥ ⎥ ⎦ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ 59 ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ 2 4 −1 7 3 3 2 −4 −1 −1 1 2 1 2 1 2 2 −3 2 −2 2 −1 −3 2 −1 3 −4 1 1 1 1 4 6 2 5 1 2 3 7 −3 5 −5 −3 −1 3 1 −1 1 6 1 −2 1 1 0 2 2 5 2 1 1 ⎤ 0 1 ⎥ ⎥ 8 ⎦ 4 1 2 1 −2 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ 3 1 2 1 1 −2 4 0 6 0 2 3 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ En los ejercicios 60 a 71, resolver el sistema por medio del método de Gauss. 60 3x1 + x2 + x3 − x4 + 2x5 = 1 2x1 − x2 + 2x3 − x4 + x5 = 2 3x1 + x2 − 2x3 − x4 − 2x5 = 1 61 x1 + 5x2 + 4x3 − 13x4 = 5 3x1 − x2 + 2x3 + 5x4 = −3 2x1 + 2x2 + 3x3 − 4x4 = 1 62 2x1 + x2 − 3x3 = −5 3x1 − 2x2 + 2x3 = 9 5x1 − 3x2 − x3 = 6 63 x1 + 2x2 − 3x3 + x4 + x5 + 3x6 2x1 − x2 + 2x3 + x4 + 3x5 − 4x6 3x1 − 2x2 + 4x3 + 2x4 + x5 + x6 −3x1 + x2 − x3 + 2x4 + x5 + x6 64 2x1 + 3x2 − 2x3 = −6 x1 − 2x2 + 3x3 = 8 4x1 − x2 + 4x3 = 2 65 x1 + 2x2 − 3x3 + 2x4 = −1 2x1 + 5x2 − 8x3 + 5x4 = −4 3x1 + 4x2 − 5x3 + 2x4 = −1 66 x1 + 2x2 + 2x3 3x1 − 2x2 − x3 2x1 − 5x2 + 3x3 x1 + 4x2 + 6x3 = −1 = 4 = −1 = −5 67 x1 − x2 + x3 + 2x4 −x1 + x2 + x3 + 3x4 x1 − x2 + 3x3 + 7x4 −x1 + x2 + x3 − 2x4 68 2x1 − x2 + x3 −x1 + x2 + 2x3 −2x1 + x2 + x3 6x1 − 2x2 + 8x3 4x1 − 3x2 + 3x3 69 3x1 − 4x2 + 3x3 − x4 2x1 − x2 + 3x3 − 5x4 x1 + x2 + x3 − x4 −2x1 + 3x2 − x3 + 2x4 70 x1 − 2x2 + x3 + 3x4 + 2x5 2x1 − 3x2 + 5x3 + 7x4 + 3x5 −x1 − 7x3 − 5x4 4x1 − 5x2 + 13x3 + 15x4 + 5x5 71 2x1 − x2 + 3x3 − x4 −x1 + 2x2 + x3 + 2x4 4x1 − 2x2 + x3 + x4 2x1 + 3x2 − 4x3 − 2x4 −x1 + 9x2 − x3 − 4x4 = 1 = 3 = 18 = −1 = 8 = 4 = 2 = −6 = −1 = 6 = 5 = 8 = −1 = 0 = −11 = 2 = 9 = 8 = 21 = −18 = 47 = 16 = 6 = 13 = −25 = −23 Los ejercicios 72 a 75 contienen sistemas lineales que tienen la misma matriz de coeficientes pero distintos términos independientes, resolverlos por el método de Gauss. Page (PS/TeX): 59 / 59, COMPOSITE 60 CAPÍTULO 1 Matrices y sistemas lineales 72 x1 − 2x2 = 5, −1, −7 2x1 − 3x2 = 8, −1, −11 73 x1 − 2x2 + x3 = 3, −4, 1 3x1 − x2 + 2x3 = 7, −3, −4 2x1 − x2 + x3 = 4, −3, −3 76 77 78 79 80 74 x1 + x2 − 2x3 + x4 + 2x5 = −1, −6, −4 −x1 + x2 − 2x3 + x4 − x5 = −2, −10, −1 2x1 + 3x2 − x3 + 2x4 + x5 = −2, −4, −3 75 x1 − x2 + x3 + 4x4 = 6, 3, −6 2x1 + x2 + 5x3 + 2x4 = 3, 0, −3 x1 + x2 + 5x3 = 0, −3, 0 En los ejercicios 76 a 85, encontrar la forma escalonada reducida que es equivalente a cada matriz por medio del método de Gauss-Jordan. ⎤ ⎤ ⎡ ⎡ 3 6 −3 6 3 2 4 −2 ⎣ 2 4 1 −2 3 ⎦ 3 ⎦ 81 ⎣ 4 8 3 6 2 −6 5 1 1 −2 ⎤ ⎤ ⎡ ⎡ 2 3 −2 5 1 0 2 −1 3 ⎢ −1 1 ⎣ 9 −1 2 0 4 ⎦ 2 0 ⎥ ⎥ 82 ⎢ ⎣ 4 −5 6 5 7 −1 3 1 3 ⎦ 1 5 5 9 ⎤ ⎡ 1 3 −1 2 ⎤ ⎡ ⎢ 4 −10 6 2 ⎥ 0 0 2 −4 ⎥ ⎢ ⎣ 8 2 2 10 ⎦ 2 ⎦ 83 ⎣ 0 0 1 0 −11 5 −3 1 3 2 −4 ⎤ ⎤ ⎡ ⎡ 0 −2 −6 4 −1 3 0 1 4 ⎢ 0 ⎢ 1 −3 0 0 −1 ⎥ 4 −1 3 ⎥ ⎥ ⎥ ⎢ 84 ⎢ ⎣ 0 ⎣ 3 −9 2 4 −1 ⎦ 0 −6 −3 ⎦ 0 5 −3 4 0 0 1 3 −4 ⎤ ⎤ ⎡ ⎡ 2 1 4 0 0 1 2 −1 4 ⎣ 1 3 2 ⎦ 0 1 −1 3 ⎦ 85 ⎣ 0 0 5 0 10 2 4 −2 1 3 −5 En los ejercicios 86 a 91 resolver los sistemas por el método de Gauss-Jordan. 86 x1 − 2x3 + x4 = 4 2x1 − x2 + x3 − 3x4 = −2 9x1 − 3x2 − x3 − 7x4 = 3 87 x1 + 2x2 − 3x3 + x4 = −7 3x1 + 6x2 − 8x3 − 2x4 = −9 88 89 −2x3 − x4 2x1 + 5x2 − 6x3 −x1 − 2x2 + x3 − x4 4x1 + 10x2 − 9x3 + x4 = −1 = 3 = −2 = 7 90 x1 − 3x2 + x3 + 2x4 x1 − 2x2 + 2x3 + 4x4 −x1 − 6x2 − 3x3 − 4x4 2x1 − 6x2 − 3x3 − 2x4 = = = = 91 x1 − x2 + 2x3 + x4 − 2x5 x1 − x2 − 2x3 + x4 − 2x5 −x1 + x2 − 6x3 − x4 + 2x5 2x1 − 2x2 − 12x3 + 2x4 − 4x5 2x1 + 5x2 − 4x3 = −2 2x1 + 4x2 − x3 = 1 4x1 − 2x2 + 5x3 = 9 En los ejercicios 92 a 95 resolver los sistemas homogéneos. 92 x1 − x2 + x3 − 4x4 + 2x5 2x1 − 3x2 + x3 − x4 − x5 −3x1 − 2x2 − x3 + 3x4 + x5 −x1 − 4x2 + x3 − 5x4 + 5x5 Page (PS/TeX): 60 / 60, COMPOSITE = = = = 0 0 0 0 93 x1 + x2 + x3 = 0 −x1 + x2 − x3 = 0 3x1 + 2x2 − 2x3 = 0 −12 −14 −9 −7 = = = = 3 7 1 22 SECCIÓN 1.3 94 2x1 + x2 + 3x3 = 0 2x1 + 4x2 = 0 x2 + x3 = 0 Ejercicios resueltos y ejercicios propuestos 61 195 4x2 + 4x3 + 2x4 = 0 x1 + 3x2 + x4 = 0 x1 − 2x2 − x3 + x4 = 0 En los ejercicios 96 a 101, resolver el sistema Ax = b y, simultáneamente, encontrar la solución del sistema homogéneo asociado Ax = 0 escribiendo la solución del sistema Ax = b en la forma p +h, donde p es una solución particular del sistema no homogéneo y h es la solución del sistema homogéneo asociado. ⎤ ⎡ 4 2 1 3 0 ⎢ 1 −1 1 ⎥ 2 1 ⎥ 1 −1 2 3 4 |4] 96 099 ⎢ ⎣ 4 −1 6 ⎦ 7 2 −1 −2 −1 1 −3 4 −2 2 0 −6 97 ⎤ ⎡ 1 4 2 0 −1 −8 1 2 −1 2 1 ⎤ ⎡ −9 ⎦ 1 −2 3 100 ⎣ 2 4 5 1 −2 1 1 3 6 2 −6 5 −11 −4 ⎦ 1 −3 −1 98 ⎣ 2 ⎤ ⎡ 1 −7 −6 2 −13 1 3 −1 2 2 ⎢ 0 11 −5 3 4 ⎥ ⎥ 101 ⎢ ⎣ 2 −5 3 1 0⎦ 4 1 1 5 4 102 Determinar los valores de α para que el sistema x + 2y − 3z = 4 3x − y + 5z = 2 4x + y + (α2 − 14) = a + 2 tenga solución única. 103 Encontrar los valores de α para los que el sistema del ejercicio 104 sea inconsistente. 104 ¿Para qué valores de α el sistema del ejercicio 104 tiene una infinidad de soluciones? En los ejercicios 105 a 107 determinar los valores de α para que el sistema dado tenga (a) solución única, (b) sea inconsistente, (c) tenga una infinidad de soluciones. 105 106 x1 + αx2 + x3 = 1 αx1 + x2 + x3 = 1 2x1 + (α + 1)x2 + (α + 1)x3 = 2 107 x1 − 3x3 = −3 2x1 + αx2 − x3 = −2 2x1 + 2x2 + (α − 3)x3 = −2 x1 + x2 + αx3 = 2 3x1 + 4x2 + 2x3 = α x1 + x2 + 3x3 = α − 1 En los ejercicios 108 a 109 determinar las condiciones que deben cumplir los parámetros α, β y γ para que el sistema dado sea consistente. 108 x1 − 2x2 + 3x3 = α 2x1 − x2 + 2x3 = β −x1 + 5x2 − 7x3 = γ Page (PS/TeX): 61 / 61, COMPOSITE 109 x1 − x2 + x3 = α 2x1 − x2 − 2x3 = β −3x1 + x2 + 2x3 = γ 62 CAPÍTULO 1 Matrices y sistemas lineales 110 Encontrar los valores de α tales que el sistema homogéneo x1 + 3x2 + (1 − α)x3 = 0 x1 + αx2 − x3 = 0 (2 − α)x1 + 3x2 = 0 tenga solución no trivial. 111 Resolver el sistema z1 − iz2 + z3 + iz3 + 4iz4 = 5 + 2i −2z1 + 2z2 + 3z3 − 2iz4 = 1 − 2i 3iz1 − z2 + 2z3 + z4 − iz4 = −2 − i 112 Encontrar las soluciones del sistema z1 + iz2 − iz3 = 3 2iz1 + z2 − iz3 = 1 + i −3z1 + iz2 − iz3 = −1 113 Resolver el sistema z1 − z2 + z3 = −i 2z1 − z2 + z3 = −2i −2z1 + z2 + z3 = 4i 114 Hallar las soluciones del sistema z1 − z2 + z3 + z4 iz1 − z2 + z3 + 2z4 −2z1 + iz2 − z3 + z4 −z1 − z2 + iz3 + 2z4 Page (PS/TeX): 62 / 62, COMPOSITE = 1+i = 0 = −3i = 1 − 2i 2 Matrices invertibles y determinantes En este capı́tulo trataremos dos importantes conceptos de la teorı́a de matrices cuadradas. El primero involucra el estudio de cierto tipo de matrices que, análogamente a los números reales distintos de cero, poseen un inverso multiplicativo; el segundo, estrechamente relacionado con el primero, versa sobre un número llamado determinante que se le asocia a cada matriz cuadrada y que tiene importantes y variadas aplicaciones en álgebra lineal. Al finalizar estos temas se incluye una sección de ejercicios resueltos y propuestos. 2.1 Matrices invertibles y sus inversas Ya vimos que las operaciones algebraicas con matrices tienen propiedades análogas a las de los números reales; en esta sección daremos una más, que corresponde a la existencia de inversos multiplicativos. 2.1.1 Definición y propiedades Definición 2.1 Una matriz cuadrada A de orden n es invertible,1 si existe una matriz C del mismo tamaño tal que AC = CA = In . Ejemplo 2.1 Si A = 2 9 1 4 −4 9 1 −2 yC= AC = 2 9 1 4 , la matriz A es invertible, pues, −4 9 1 −2 = 1 0 0 1 y CA = −4 1 9 −2 2 9 1 4 = 1 0 0 1 . El teorema siguiente garantiza que, de existir, la matriz C de la definición 2.1 es única. 11 Si una matriz es invertible, se acostumbra decir que es no singular; y en caso contrario que es singular. 63 Page (PS/TeX): 1 / 63, COMPOSITE 64 CAPÍTULO 2 Matrices invertibles y determinantes Teorema 2.1 Si A ∈ Mn×n es invertible y C, B ∈ Mn×n son tales que y AB = BA = In , AC = CA = In entonces B = C. DEMOSTRACIÓN Q En efecto, AB = In ⇒ C(AB) = CIn ⇒ (CA)B = C ⇒ In B = C ⇒ B = C. Q Definición 2.2 Si A ∈ Mn×n es invertible, a la única matriz C ∈ Mn×n tal que AC = CA = In se le llama la matriz inversa2 de A y se le denota como A−1 ; es decir, C = A−1 . Ejemplo 2.2 Del ejemplo precedente 2 9 1 4 −1 = −4 1 9 −2 . P Nota 2.1 De la demostración del teorema 2.1 se desprende que basta probar AC = In o CA = In para que C = A−1 . Teorema 2.2 (Propiedades) 1. Si A, B ∈ Mn×n son matrices invertibles, entonces la matriz AB es invertible y además (AB)−1 = B−1 A−1 . 2. Si A ∈ Mn×n es una matriz invertible, A−1 es también invertible y (A−1 )−1 = A. 3. Si A es una matriz cuadrada invertible, entonces At es también invertible y además (At )−1 = (A−1 )t . 4. Si α = 0 y A es una matriz cuadrada invertible, entonces αA es invertible y (αA)−1 = (1/α)A−1 . DEMOSTRACIÓN Q 1. (AB)(B−1 A−1 ) = A((BB−1 )A−1 ) = A(In A−1 ) = AA−1 = In . Por tanto, (AB)−1 = B−1 A−1 . 2. A−1 A = In , por tanto, (A−1 )−1 = A. 3. Puesto que (cfr. propiedad 3(b) en la pág. 10) (MN)t = N t M t , las siguientes implicaciones son válidas. (AA−1 )t = Int = In ⇒ (A−1 )t At = In ⇒ (At )−1 = (A−1 )t . 4. Se deja como ejercicio al lector. Q 12 El lector debe tener siempre presente que los conceptos de matriz invertible y de su inversa sólo se definen en matrices cuadradas. Page (PS/TeX): 1 / 64, COMPOSITE Matrices invertibles y sus inversas 65 SECCIÓN 2.1 2.1.2 Matrices invertibles y sistemas lineales Supongamos que la matriz cuadrada A ∈ Mn×n es invertible, entonces el sistema cuadrado Ax = b tiene solución única para todo b. En efecto, Ax = b ⇒ A−1 (Ax) = A−1b ⇒ A−1 A x = A−1b ⇒ Inx = A−1b; por tanto x = A−1b. Ejemplo 2.3 Utilizar el ejemplo 2.1 para resolver el sistema 2x1 + 9x2 = 4 x1 + 4x2 = −5 . Solución Si A es la matriz de coeficientes del sistema, por el mencionado ejemplo (cfr. pág. 63) A es invertible y A−1 = −4 1 9 −2 , entonces x1 x2 = −4 9 1 −2 4 −5 = −61 14 . En el ejemplo 2.1 mostramos que la matriz C= −4 1 9 −2 es la inversa de la matriz A= 2 9 1 4 , pero no indicamos cómo encontramos C = A−1 . Resolvamos esta cuestión en el siguiente ejemplo. Ejemplo 2.4 Encontrar la inversa de la matriz A del ejemplo 2.1; es decir, hallar Solución Busquemos una matriz C = 2 9 1 4 x z −1 2 9 1 4 y w . , tal que AC = I2 ; esto es, x y z w = 1 0 0 1 . Como Page (PS/TeX): 3 / 65, COMPOSITE 2 9 1 4 x z y w = 2x + 9z x + 4z 2y + 9w y + 4w , 66 CAPÍTULO 2 Matrices invertibles y determinantes se debe cumplir 2x + 9z x + 4z 2y + 9w y + 4w = 1 0 0 1 ; por tanto, 2x + 9z x + 4z = = 1 0 (2.1) 2y + 9w y + 4w = = 0 1. (2.2) y Ambos sistemas tienen la misma matriz de coeficientes. Trabajemos simultáneamente los dos sistemas como lo hicimos en el capı́tulo anterior (cfr. pág. 27). 1 4 0 1 2 9 1 0 ↔ 2 9 1 0 1 4 0 1 1 1 4 0 (2.3) ↔ 0 1 1 −2 Resolviendo por sustitución regresiva para el sistema (2.1), encontramos z = 1 y x = −4; mientras que para el sistema (2.2) tenemos w = −2 y y = 1 − 4w = 9; con lo que la matriz buscada es −4 9 C= (2.4) 1 −2 que es la matriz propuesta en el ejemplo 2.1. Apliquemos ahora el método de Gauss-Jordan a la matriz ampliada (2.3) para resolver los sistemas (2.1) y (2.2). 1 4 0 1 2 9 1 0 ↔ 2 9 1 0 1 4 0 1 1 1 4 0 ↔ 0 1 1 −2 9 1 0 −4 (2.5) ↔ 0 1 1 −2 Donde nuevamente encontramos z = 1, x = −4, y = 9 y w = −2; es decir, la matriz C de (2.4); pero ésta es precisamente la matriz que está en el lado derecho de la partición en (2.5). Ya probamos que si A ∈ Mn×n es una matriz cuadrada invertible, entonces el sistema lineal Ax = b tiene solución única ∀b (cfr. pág. 65). Recı́procamente, supongamos que el sistema Ax =b tiene solución k única ∀b; en particular para cadab =ek = [ 0 · · · 0 1 0 · · · 0 ]t , k = 1, 2, . . . , n. Sea, para cada k = 1, . . . , n, ck = [ c1k c2k · · · cnk ]t , la única solución del sistema Ax =ek . Por tanto, Ack =ek para cada k = 1, . . . , n. Sea la matriz C cuyas columnas son las solucionesck ; es decir, C = [cik ], 1 ≤ i ≤ n, 1 ≤ k ≤ n. Entonces, por lo probado en el ejemplo 1.14 (cfr. (1.2) pág. 11), tenemos Page (PS/TeX): 4 / 66, COMPOSITE Matrices invertibles y sus inversas 67 SECCIÓN 2.1 AC = [ Ac1 Ac2 · · · Acn ] = [e1 e2 · · · en ] ; es decir, AC = In y, por ende, la matriz A es invertible. Finalmente, del inciso 3 de los criterios para solución única de la página 31, sabemos que el sistema Ax = b tiene solución única para todo b si y sólo si la matriz A es equivalente a la identidad In . Hemos probado ası́ el siguiente teorema. Teorema 2.3 Si A ∈ Mn×n , las siguientes condiciones son equivalentes a pares:3 1. El sistema Ax = b tiene solución única ∀b. 2. A ∼ In . 3. A es invertible. Ejemplo 2.5 Hallar los valores de r tales que la matriz ⎡ 1 A=⎣ 1 2 2 r 1 ⎤ 0 3 ⎦ 3 sea invertible. Por el teorema anterior, es suficiente que la matriz A sea equivalente a la identidad para que sea invertible. Entonces, si llevamos A a forma escalonada y r es tal que en cada columna hay pivote,4 por el método de Gauss-Jordan A será, efectivamente, equivalente a la identidad. Llevemos entonces A a forma escalonada. ⎤ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎡ 1 2 0 1 2 0 1 2 0 1 2 0 ⎣ 1 r 3 ⎦ ↔ ⎣ 0 r−2 3 ⎦ ↔ ⎣ 0 1 −1 ⎦ ↔ ⎣ 0 1 −1 ⎦ . 0 0 r+1 0 r−2 3 0 −3 3 2 1 3 Solución Ası́, para cualquier valor r = −1, la matriz A será invertible. Ejemplo 2.6 Determine cuáles de las siguientes matrices son invertibles. 1. A = ⎡ 1 1 0 0 1 2. B = ⎣ −1 2 . ⎤ 1 −1 0 2 ⎦ . −2 3 13 Que las condiciones sean equivalentes a pares significa que si se cumple una, cualquiera de ellas, se cumplen también todas las demás; esto es: (1) ⇔ (2) ⇔ (3) ⇔ (4). 14 Véase la nota 1.6, página 31. Page (PS/TeX): 5 / 67, COMPOSITE 68 CAPÍTULO 2 Matrices invertibles y determinantes 1 1 Solución 1. La matriz A = está en forma escalonada y no tiene pivote en la segunda co0 0 lumna, por tanto no es equivalente a I2 , por el teorema 2.3 no es una matriz invertible. 2. Llevemos la matriz B a forma escalonada mediante el método de Gauss. ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ 1 1 −1 1 1 −1 1 1 −1 ⎣ −1 1 ⎦. 1 1 ⎦∼⎣ 0 1 0 2 ⎦∼⎣ 0 0 0 9 0 −4 5 2 −2 3 Dado que todas las columnas en la forma escalonada tienen pivote, la matriz es equivalente a la identidad I3 , por el teorema 2.3 la matriz B es invertible. 2.1.3 Método de Gauss-Jordan para hallar la inversa de una matriz Podemos generalizar el procedimiento empleado para encontrar la inversa de una matriz dado en el ejemplo 2.4 (pág. 65). Sea A una matriz cuadrada de orden n y busquemos una matriz X = [xi j ] tal que AX = In . Lo cual equivale a resolver los sistemas lineales con la misma matriz de coeficientes Axk =ek , k donde xk = [ x1k x2k · · · xnk ]t y ek = [ 0 · · · 0 1 0 · · · 0 ]t es la k-ésima columna de la identidad In , k = 1, 2, . . . , n; pues (cfr. ejemplo 1.14, pág. 11) AX = [ Ax1 Ax2 · · · Axn ] = In ⇔ Axk =ek . Recordemos (cfr. pág. 27) que para resolver los sistemas [A |ek ] formamos la matriz ampliada [ A |e1 e2 . . . en ] = [A | In ] y aplicamos el método de Gauss. Pero esta vez utilicemos mejor el método de Gauss-Jordan como lo hicimos en el ejemplo 2.4. Si a la mitad del proceso, cuando [A | In ] se ha llevado a una forma escalonada equivalente [H | J], todas las columnas de H tienen pivote, entonces todos los sistemas [A |ek ] tendrán solución única y A será equivalente a la identidad; al continuar con el proceso de Gauss-Jordan eventualmente se llegará a la equivalencia [A | In ] ∼ [In | B], donde la k-ésima columna de B será la única solución del sistema [A |ek ]; es decir, B es la solución de la ecuación matricial AX = In . Por lo que la matriz A será invertible y B = A−1 . Si a la mitad del proceso, cuando [A | In ] se ha llevado a una forma escalonada [H | J], existe una columna de H que no tiene pivote, entonces A In y por ende A no será invertible o, equivalentemente, alguno de los sistemas [A |ek ] será inconsistente y entonces AX = In no tendrá solución. Resumimos la información precedente a continuación. Método de Gauss-Jordan para hallar la inversa de una matriz Para determinar si una matriz A es invertible y hallar su inversa, en tal caso, se procede de la siguiente manera: 1. Formamos la matriz aumentada [A | I]. Donde I es la identidad del mismo tamaño de A. 2. Se lleva A mediante el método de Gauss-Jordan a la identidad, aplicando simultáneamente las mismas operaciones de renglón en el lado derecho de la partición. 3. Al llegar a [I | B], B = A−1 . 4. Si A no se puede llevar a I, significa que A no es invertible.5 15 Recordemos que para esto basta que en una forma escalonada equivalente, obtenida con el método de Gauss, no haya pivote en alguna columna. Page (PS/TeX): 6 / 68, COMPOSITE SECCIÓN 2.1 Matrices invertibles y sus inversas 69 Ejemplo 2.7 Hallar, si es que existe, la inversa de la matriz ⎤ 1 2 3 A = ⎣ 2 5 3 ⎦ . 1 0 8 ⎡ ⎡ 1 2 3 ⎣ 2 5 3 1 0 8 Solución ⎤ 1 0 0 0 1 0 ⎦ 0 0 1 ⎡ ←−−−−−−−−−→ R2 ↔ −R1 + R2 R3 ↔ −R1 + R3 ←−−−−−−−−−−→ R3 ↔ −2R2 − R3 ←−−−−−−−−−−→ R2 ↔ 3R3 + R2 R1 ↔ −3R3 + R1 ←−−−−−−−−−−→ R1 ↔ −2R2 + R1 1 ⎣ 0 0 ⎡ 1 ⎣ 0 0 ⎡ 1 ⎣ 0 0 ⎡ 1 ⎣ 0 0 2 3 1 −3 −2 5 2 3 1 −3 0 1 2 0 1 0 0 1 0 0 1 0 0 1 ⎤ 1 0 0 −2 1 0 ⎦ −1 0 1 ⎤ 0 0 ⎦ −1 ⎤ −14 6 3 13 −5 −3 ⎦ 5 −2 −1 ⎤ −40 16 9 13 −5 −3 ⎦ . 5 −2 −1 1 0 −2 1 5 −2 Por tanto, tenemos ⎤ −40 16 9 A−1 = ⎣ 13 −5 −3 ⎦ . 5 −2 −1 ⎡ Comprobación: ⎤ ⎤ ⎡ ⎤⎡ 1 0 0 −40 16 9 1 2 3 ⎣ 2 5 3 ⎦ ⎣ 13 −5 −3 ⎦ = ⎣ 0 1 0 ⎦ . 0 0 1 5 −2 −1 1 0 8 ⎡ Ejemplo 2.8 Encontrar, si es que existe, la inversa de la matriz ⎡ 1 A=⎣ 2 −1 ⎡ Solución 1 ⎣ 2 −1 ⎤ 1 1 1 −3 ⎦ . −2 −6 ⎤ 1 1 1 0 0 1 −3 0 1 0 ⎦ ∼ −2 −6 0 0 1 ⎡ 1 ⎣ 0 0 ⎡ 1 ∼ ⎣ 0 0 ⎤ 1 1 1 0 0 −1 −5 −2 1 0 ⎦ −1 −5 1 0 1 ⎤ 0 0 1 1 1 1 0 ⎦ −1 −5 −2 3 −1 1 0 0 (2.6) La forma escalonada (2.6) equivalente a [A | I3 ] no tiene pivote en la tercera columna a la izquierda de la partición; por tanto la matriz A no es invertible (pues no es equivalente a I3 ). Page (PS/TeX): 7 / 69, COMPOSITE 70 CAPÍTULO 2 Matrices invertibles y determinantes Ejemplo 2.9 Hallar, si es que existe, la inversa de la matriz ⎡ 1 ⎢ −3 ⎢ A=⎣ 0 −1 −2 5 1 2 ⎤ 1 0 0 2 ⎥ ⎥ . 2 −4 ⎦ 4 −1 Solución ⎡ 1 −2 ⎢ −3 5 ⎢ ⎣ 0 1 −1 2 1 0 1 0 2 0 2 −4 0 4 −1 0 0 1 0 0 ⎤ 0 0 ⎥ ⎥ 0 ⎦ 1 0 0 1 0 ⎤ 1 −2 1 0 1 0 0 0 ⎢ 0 −1 3 2 3 1 0 0 ⎥ ⎥ ⎢ ⎣ 0 1 2 −4 0 0 1 0 ⎦ 0 0 5 −1 1 0 0 1 ⎤ ⎡ 1 −2 1 0 1 0 0 0 ⎢ 0 −1 3 2 3 1 0 0 ⎥ ⎥ ⎢ ⎣ 0 0 5 −2 3 1 1 0 ⎦ 0 0 5 −1 1 0 0 1 ⎡ ⎤ 0 0 0 1 −2 1 0 1 ⎢ 0 −1 3 2 3 1 0 0 ⎥ ⎢ ⎥ ⎣ 0 0 5 −2 3 1 1 0 ⎦ 0 0 0 1 −2 −1 −1 1 ⎤ ⎡ 0 0 0 1 −2 1 0 1 ⎢ 0 −1 3 0 7 3 2 −2 ⎥ ⎥ ⎢ ⎣ 0 2 ⎦ 0 5 0 −1 −1 −1 1 0 0 0 1 −2 −1 −1 ⎤ ⎡ 1 0 0 0 1 −2 1 0 ⎢ 0 −1 3 0 7 3 2 −2 ⎥ ⎥ ⎢ ⎣ 0 0 1 0 −1/5 −1/5 −1/5 2/5 ⎦ −1 −1 1 0 0 0 1 −2 ⎡ 1 −2 0 0 6/5 1/5 1/5 −2/5 ⎢ 0 −1 0 0 38/5 18/5 13/5 −16/5 ⎢ ⎣ 0 2/5 0 1 0 −1/5 −1/5 −1/5 −1 −1 1 0 0 1 −2 0 ⎡ −7 −5 6 1 0 1 0 −14 ⎢ 0 −1 0 0 38/5 18/5 13/5 −16/5 ⎢ ⎣ 0 2/5 0 1 0 −1/5 −1/5 −1/5 −2 −1 −1 1 0 0 0 1 ⎡ −14 −7 −5 6 1 0 1 0 ⎢ 0 1 0 0 −38/5 −18/5 −13/5 16/5 ⎢ ⎣ 0 0 1 0 −1/5 −1/5 −1/5 2/5 0 0 0 1 −2 −1 −1 1 ⎡ ∼ ∼ ∼ ∼ ∼ ∼ ∼ ∼ De donde A es invertible y ⎤ −14 −7 −5 6 ⎢ −38/5 −18/5 −13/5 16/5 ⎥ ⎥. A−1 = ⎢ ⎣ −1/5 −1/5 −1/5 2/5 ⎦ −2 −1 −1 1 ⎡ Page (PS/TeX): 8 / 70, COMPOSITE ⎤ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥. ⎦ Matrices invertibles y sus inversas 71 SECCIÓN 2.1 Comprobando: ⎤ ⎡ ⎤⎡ 1 −14 −7 −5 6 1 −2 1 0 ⎥ ⎢ −38/5 −18/5 −13/5 16/5 ⎥ ⎢ 0 ⎢ −3 5 0 2 ⎥=⎢ ⎥⎢ ⎢ ⎣ 0 −1/5 −1/5 2/5 ⎦ ⎣ 0 1 2 −4 ⎦ ⎣ −1/5 0 −2 −1 −1 1 −1 2 4 −1 ⎡ 0 1 0 0 0 0 1 0 ⎤ 0 0 ⎥ ⎥. 0 ⎦ 1 2.1.4 Matrices elementales Definición 2.3 Una matriz cuadrada de orden m es elemental si se obtiene a partir de la identidad Im mediante una sola operación de renglón. ⎤ 1 0 0 Ejemplo 2.10 La matriz E1 = ⎣ 0 2 0 ⎦ es elemental, pues se obtiene de I3 mediante la opera0 0 1 ción de renglón R2 ↔ 2R2 . Análogamente las matrices ⎡ ⎤ 0 1 0 E2 = ⎣ 1 0 0 ⎦ 0 0 1 ⎡ ⎡ y 1 E3 = ⎣ 0 −1 0 1 0 ⎤ 0 0 ⎦ 1 son elementales; pues resultan de I3 al aplicarle las operaciones R1 ↔ R2 y R3 ↔ −R1 + R3 , respectivamente (¡chéquelo!). ⎡ 2 Ejemplo 2.11 Si A = ⎣ 2 0 ración de renglón R2 ↔ R3 y misma operación; es decir, ⎡ ⎤ −3 0 −1 −1 0 2 ⎦, sea B la matriz que se obtiene de A al aplicarle la ope−1 2 3 sea E1 la matriz elemental que resulta de la identidad I3 al aplicarle la 2 B=⎣ 0 2 −3 0 −1 2 −1 0 ⎤ −1 3 ⎦ 2 ⎤ 1 0 0 E1 = ⎣ 0 0 1 ⎦ . 0 1 0 ⎡ y Entonces, ⎤⎡ 2 1 0 0 E1 A = ⎣ 0 0 1 ⎦ ⎣ 2 0 0 1 0 ⎡ −3 −1 −1 ⎤ ⎡ 2 0 −1 0 2 ⎦=⎣ 0 2 2 3 ⎤ −3 0 −1 −1 2 3 ⎦ = B. −1 0 2 Del ejemplo anterior deducimos el siguiente teorema, que no es difı́cil de probar y cuya demostración se deja como ejercicio al lector. Teorema 2.4 (Efecto de matrices elementales) Si a una matriz A de tamaño m × n se le aplica una operación de renglón, la matriz resultante es el producto EA, donde E es la matriz elemental m × m que se obtiene de la identidad Im al aplicarle la misma operación de renglón. Page (PS/TeX): 9 / 71, COMPOSITE 72 CAPÍTULO 2 Matrices invertibles y determinantes Supongamos ahora que E1 , E2 , E3 son las matrices elementales n × n que se obtienen de la identidad al aplicarle, respectivamente, las operaciones de renglón Ri ↔ R j , Ri ↔ αRi , Ri ↔ αRi + βR j . Entonces, si E1 , E2 y E3 son las matrices elementales que resultan de la identidad al aplicarle las operaciones de fila R j ↔ Ri , Ri ↔ (1/α)Ri y Ri ↔ (1/α)Ri − (β/α)R j , respectivamente, es claro que al aplicar a E1 , E2 , E3 sendas operaciones se obtendrá, en cada caso, nuevamente la identidad (¡compruébelo!). Ası́, por el efecto que tienen las matrices elementales se tiene: E1 E1 = In , E2 E2 = In y E3 E3 = In . Lo cual demuestra la siguiente afirmación. Teorema 2.5 Toda matriz elemental es invertible y su inversa es también una matriz elemental. Ejemplo 2.12 Sean las matrices elementales ⎤ 1 0 0 E1 = ⎣ 0 0 1 ⎦ , 0 1 0 ⎡ ⎡ 1 E2 = ⎣ 0 0 ⎤ 0 0 −3 0 ⎦ 0 1 ⎡ y 1 E3 = ⎣ 0 2 ⎤ 0 0 1 0 ⎦; 0 −3 las cuales se obtienen de I3 mediante las operaciones R2 ↔ R3 , R2 ↔ −3R2 , R3 ↔ −3R3 + 2R1 , respectivamente. Entonces, para este caso ⎡ 1 E1 = ⎣ 0 0 0 0 1 ⎤ 0 1 ⎦, 0 ⎡ 1 E2 = ⎣ 0 0 0 −1/3 0 ⎤ 0 0 ⎦, 1 ⎡ 1 E3 = ⎣ 0 −2/3 ⎤ ⎤ ⎡ ⎤⎡ 1 0 0 1 0 0 0 1 ⎦⎣ 0 0 1 ⎦ = ⎣ 0 1 0 ⎦, 0 0 1 0 1 0 0 ⎤ ⎡ ⎤⎡ 1 0 0 1 0 0 0 0 −3 0 ⎦ ⎣ 0 −3 0 ⎦ = ⎣ 0 1 0 0 0 1 0 0 1 0 1 ⎤ ⎡ ⎤⎡ 1 1 0 0 1 0 0 0 ⎦=⎣ 0 1 0 ⎦⎣ 0 1 E3 E3 =⎣ 0 0 2 0 −3 −2/3 0 −1/3 ⎡ 1 E1 E1 =⎣ 0 0 ⎡ 1 E2 E2 =⎣ 0 0 ⎡ ⎤ 0 0 1 0 ⎦ 0 −1/3 y 0 0 1 ⎤ ⎦, ⎤ 0 0 1 0 ⎦ . 0 1 Ejemplo 2.13 Hallar una matriz C, si es que existe, tal que la matriz CA sea triangular superior si ⎤ 0 1 −3 A = ⎣ 2 3 −1 ⎦ . 4 5 −2 ⎡ Solución Llevemos A, mediante el método de Gauss, a forma triangular superior: ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 4 4 5 −2 4 5 −2 0 1 −3 ⎣ 2 3 −1 ⎦ ↔ ⎣ 2 3 −1 ⎦ ↔ ⎣ 0 −1 0 ⎦↔⎣ 0 0 0 1 −3 0 1 −3 4 5 −2 ⎡ ⎤ 5 −2 −1 0 ⎦. 0 −3 Las matrices elementales correspondientes a la sucesión de estas operaciones son, respectivamente, Page (PS/TeX): 10 / 72, COMPOSITE Matrices invertibles y sus inversas 73 SECCIÓN 2.1 ⎤ 0 0 1 E1 = ⎣ 0 1 0 ⎦ , 1 0 0 ⎡ ⎤ 0 0 −2 0 ⎦ 0 1 ⎡ 1 E2 = ⎣ 1 0 ⎡ y 1 E3 = ⎣ 0 0 0 1 1 ⎤ 0 0 ⎦. 1 Luego, ⎤ 4 5 −2 0 ⎦. E3 (E2 (E1 A)) = ⎣ 0 −1 0 0 −3 ⎡ Y como E3 (E2 (E1 A)) = (E3 E2 E1 )A, si hacemos C = E3 E2 E1 ; es decir, ⎡ 1 C=⎣ 0 0 0 1 1 ⎤ ⎡ ⎤⎡ ⎤⎡ 1 0 0 0 0 1 1 0 0 0 0 ⎦ ⎣ 1 −2 0 ⎦ ⎣ 0 1 0 ⎦ = ⎣ 1 −2 0 1 −2 1 1 0 0 0 0 1 1 ⎡ 0 0 1 = ⎣ 0 −2 1 1 −2 1 ⎤ 0 0 1 ⎦⎣ 0 0 1 ⎦ 1 0 0 ⎤ ⎤⎡ ⎦, tenemos que ⎡ 0 CA = ⎣ 0 1 ⎤ ⎡ ⎤⎡ 4 0 1 −3 0 1 −2 1 ⎦ ⎣ 2 3 −1 ⎦ = ⎣ 0 0 4 5 −2 −2 1 ⎤ 5 −2 −1 0 ⎦ 0 −3 es una matriz triangular superior. Ya vimos que un sistema cuadrado Ax = b tiene solución única ∀b si y sólo si la matriz A es equivalente a la identidad I. Ahora supongamos que efectivamente A es equivalente a I, entonces podemos llevar A mediante operaciones de renglón a la identidad; luego, por el efecto que tienen las matrices elementales, existen Ek , Ek−1 , . . . , E1 , matrices elementales del mismo orden de A, tales que (Ek Ek−1 · · · E1 )A = I. Es decir, la matriz A es invertible con inversa Ek Ek−1 · · · E1 . Por otro lado, de la igualdad (Ek Ek−1 · · · E1 )A = I se desprende −1 −1 Ek . A = E1−1 · · · Ek−1 Lo cual nos dice que A es producto de matrices elementales (pues la inversa de una matriz elemental es también elemental). Recı́procamente si A es producto de matrices elementales, entonces A es invertible. De lo precedente podemos añadir una condición más de equivalencia al teorema 2.3 (cfr. pág. 67). Teorema 2.6 Si A ∈ Mn×n , las siguientes condiciones son equivalentes a pares: 1. 2. 3. 4. Page (PS/TeX): 11 / 73, COMPOSITE El sistema Ax = b tiene solución única ∀b. A ∼ In . A es invertible. A es producto de matrices elementales. 74 CAPÍTULO 2 Matrices invertibles y determinantes 2.1.5 Inversas de matrices con componentes complejas La identidad multiplicativa en el sistema de números complejos6 coincide con la identidad multiplicativa en los números reales, el número z = 1. Esto implica que la matriz identidad en Mn (C), el conjunto de matrices cuadradas de orden n con componentes complejas, es la matriz identidad In con la que hemos trabajado en matrices con entradas reales; es decir, In = [akl ], donde akl = 1 si k = l 0 si k = l y satisface (como en el caso real) AIn = A In B = B para toda A ∈ Mm×n (C) y para toda B ∈ Mn×m (C). La definición de matriz invertible es exactamente la misma para Mn (C) que para el caso real (cfr. definición 2.1, pág. 63). Nuevamente todas las propiedades y teoremas acerca de las matrices invertibles y sus inversas dados en esta sección son también válidos para el caso de componentes complejas. Entonces, para determinar si una matriz en Mn (C) es invertible y en tal caso calcular su inversa, se utilizan las mismas técnicas que en el caso real pero se trabaja con el álgebra de números complejos. Ejemplo 2.14 Determinar si la matriz ⎡ 1 1+i A = ⎣ i −2i 1 1−i ⎤ −i 1 ⎦ 2i es invertible. De ser ası́, hallar A−1 . Apliquemos el método de Gauss-Jordan.7 Solución ⎤ 1 1 + i −i 1 0 0 ⎣ i −2i 1 0 1 0 ⎦ 1 1 − i 2i 0 0 1 ⎡ ⎡ 1 1+i (1) ←→ ⎣ 0 1 − 3i 0 −2i ⎡ 1 1+i (2) ←→ ⎣ 0 −2i 0 1 − 3i ⎡ 1 1+i (3) 1 ←→ ⎣ 0 0 1 − 3i −i 3i 0 ⎤ 0 0 ⎦ 1 ⎤ 1 0 0 −1 0 1 ⎦ −i 1 0 ⎤ 1 0 0 −i −3/2 −i/2 0 i/2 ⎦ 1 0 0 −i −i 0 3i 1 −i −1 0 1 0 16 Cfr. B.1 del apéndice B. 17 (1) R2 ↔ −iR1 +R2 , R3 ↔ −R1 +R2 , (2) R2 ↔ R3 , (3) R2 ↔ (−1/2i)R2 , (4) R3 ↔ −(1−3i)R2 +R3 , (5) R3 ↔ (3/2−(9/2)i)−1 R3 , (6) R2 ↔ (3/2)R3 + R2 , R1 ↔ iR3 + R1 , (7) R1 ↔ −(1 + i)R2 + R1 . Page (PS/TeX): 12 / 74, COMPOSITE SECCIÓN 2.2 ⎡ Determinantes 75 ⎤ 1 0 0 −i −i/2 0 i/2 ⎦ −3/2 3/2 − 9i/2 32 − 2i 1 − 32 − 2i ⎤ 1 0 0 −i 0 i/2 ⎥ −3/2 −i/2 ⎦ 1 1 + 4 i 1 + 1i −1i 5 15 15 5 3 ⎤ 1 11 + 1 i − 1 + 1 i 15 5 5 15 3 0 ⎥ 3 1 1 3 0 10 − 10 i 10 + 10 i 0 ⎥ ⎦ 1 1 4 1 1 1 + i + i − i 5 15 15 5 3 ⎤ 1 1 1 −3i 3 3 1 0 0 ⎥ 3 1 1 3 0 1 0 10 − 10 i 10 + 10 i 0 ⎥ ⎦. 0 0 1 1 4 1 1 − 31 i 5 + 15 i 15 + 5 i 1 1+i 1 ←→ ⎣ 0 0 0 ⎡ 1 1+i (5) ⎢ 1 ←→ ⎣ 0 0 0 ⎡ ⎢ 1 1+i (6) 1 ←→ ⎢ ⎣ 0 0 0 (4) ⎡ ⎢ (7) ←→ ⎢ ⎣ Por tanto, ⎡ ⎢ A−1 = ⎢ ⎣ 1 3 − 13 i 1 3 3 1 10 − 10 i 1 4 5 + 15 i 1 3 10 + 10 i 1 1 15 + 5 i 0 ⎤ ⎥ ⎥. ⎦ − 13 i 2.2 Determinantes En este sección estudiaremos uno de los principales conceptos del álgebra lineal. A cada matriz cuadrada se le puede asignar cierto número real llamado el determinante de la misma; el cual tiene diversas e importantes aplicaciones en esta materia y otras áreas como, por citar algunos ejemplos, el cálculo del polinomio caracterı́stico para encontrar los valores y vectores propios, método de la adjunta para hallar la inversa de una matriz, regla de Cramer, cálculo de volúmenes e integrales, etc. Utilizaremos un método de recurrencia para definir y calcular determinantes de orden n a partir de determinantes de orden menor. Hacemos énfasis en que, como en el caso de la inversa de una matriz, el concepto de determinante sólo es aplicable a matrices cuadradas. 2.2.1 Desarrollo por cofactores Definición 2.4 1. Si A = [a] es una matriz 1 × 1 el determinante de A se denota y define como 2. Si A = Page (PS/TeX): 13 / 75, COMPOSITE a b c d det(A) = a. 76 CAPÍTULO 2 Matrices invertibles y determinantes es una matriz 2 × 2 se define y denota el determinante de A como det(A) = ad − bc. También usaremos la notación a b c d = ad − bc para el determinante de la matriz A. 3. Supongamos que n es un entero mayor a 2 y que los determinantes para matrices de orden menor o igual a n − 1 ya han sido definidos. Si A es una matriz n × n, entonces: (a) Se define el menor del elemento ai j de A (o simplemente el menor i j) como el determinante que se obtiene de la matriz que resulta de eliminar la fila i y la columna j de A. A este número lo denotamos por Mi j . (b) El cofactor del elemento ai j de A (o simplemente el cofactor i j), se define y denota como ci j = (−1)i+ j Mi j . Ejemplo 2.15 Si entonces ⎤ 1 0 2 A = ⎣ −4 3 1 ⎦ , 0 2 1 ⎡ −4 1 = −4 M12 = det 0 1 y c12 = (−1)1+2 M12 = (−1)3 (−4) = 4. A continuación enunciamos el teorema básico para definir y calcular inductivamente los determinantes. Este teorema es conocido como desarrollo de Laplace o desarrollo por cofactores de la función determinante. La demostración de este teorema es larga y remitimos al lector al apéndice C para que la consulte. Únicamente nos limitamos, en los dos siguientes ejemplos, a ilustrar este importante teorema para los casos n = 2 y n = 3, e inmediatamente pasamos al cálculo de determinantes utilizando este resultado en los ejemplos subsecuentes. Teorema 2.7 Sea A ∈ Mn×n . 1. Sean f1 , f2 , . . . , fn los elementos de una fila, Fi , cualquiera de A, con c1 , c2 , . . . , cn sus respectivos cofactores y ΔFi = c1 f1 + c2 f2 + · · · + cn fn . 2. Sean g1 , g2 , . . . , gn los elementos de una columna, G j , cualquiera de A, con d1 , d2 , . . . , dn sus respectivos cofactores y ΔG j = d1 g1 + d2 g2 + · · · + dn gn . Page (PS/TeX): 14 / 76, COMPOSITE SECCIÓN 2.2 Determinantes 77 Entonces: • ΔFi = ΔFk para todo par de filas Fi y Fk de A. • ΔG j = ΔGl para todo par de columnas G j y Gl de A. • ΔFi = ΔG j para toda fila Fi y toda columna G j de A. Definición 2.5 Al número real común que se calcula en los incisos 1 y 2 del teorema anterior se le llama el determinante de la matriz A y se denota como det(A) o |A|.8 Es decir, 1. |A| = ΔF para cualquier fila F de A y 2. |A| = ΔG para cualquier columna G de A. En el caso 1 se dice que el determinante se ha desarrollado por cofactores en la fila F y, en el caso 2, que se ha desarrollado por cofactores en la columna G. a b , entonces c11 = (−1)1+1 M11 = det [d] = d; c12 = (−1)1+2 M12 = Ejemplo 2.16 Sea A = c d − det ([c]) = −c; c21 = (−1)2+1 M21 = − det ([b]) = −b; y c22 = (−1)2+2 M22 = det ([a]) = a. Por tanto, ΔF1 = ac11 + bc12 = ad + b(−c) = ad − bc = det (A) , ΔF2 = cc21 + dc22 = c (−b) + da = ad − bc = det (A) , ΔG1 = ac11 + cc21 = ad + c(−b) = ad − bc = det (A) , ΔG2 = bc12 + dc22 = b (−c) + d(a) = ad − bc = det (A) . ⎡ a11 Ejemplo 2.17 Sea A = ⎣ a21 a31 a12 a22 a32 ⎤ a13 a23 ⎦. a33 Entonces ΔF1 = a11 c11 + a12 c12 + a13 c13 a a a a a a = (−1)1+1 a11 22 23 + (−1)1+2 a12 21 23 + (−1)1+3 a13 21 22 a32 a33 a31 a33 a31 a32 = a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , ΔF2 = a21 c21 + a22 c22 + a23 c23 a12 a13 a11 a13 a11 a12 2+1 2+2 2+3 + (−1) a22 + (−1) a23 = (−1) a21 a32 a33 a31 a33 a31 a32 = −a21 (a12 a33 − a13 a32 ) + a22 (a11 a33 − a13 a31 ) − a23 (a11 a32 − a12 a31 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , 18 El lector debe tener cuidado de no confundir esta notación con el valor absoluto de un número real. En realidad la notación |A| quedará clara en contexto; pues si A es una matriz, entonces se refiere al determinante de la misma; mientras que si A es un número real representará, como es usual, su valor absoluto. Por esta razón, el lector debe tener siempre en mente que el determinante de una matriz puede ser un número real positivo, negativo o cero. Page (PS/TeX): 15 / 77, COMPOSITE 78 CAPÍTULO 2 Matrices invertibles y determinantes ΔF3 = a31 c31 + a32 c32 + a33 c33 a a a a a a = (−1)3+1 a31 12 13 + (−1)3+2 a32 11 13 + (−1)3+3 a33 11 12 a22 a23 a21 a23 a21 a22 = a31 (a12 a23 − a13 a22 ) − a32 (a11 a23 − a13 a21 ) + a33 (a11 a22 − a12 a21 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , ΔG1 = a11 c11 + a21 c21 + a31 c31 a22 a23 a12 a13 a12 a13 1+1 2+1 3+1 + (−1) a21 + (−1) a31 = (−1) a11 a32 a33 a32 a33 a22 a23 = a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , ΔG2 = a12 c21 + a22 c22 + a32 c23 a21 a23 a11 a13 a11 a13 2+1 2+2 3+2 + (−1) a22 + (−1) a32 = (−1) a12 a31 a33 a31 a33 a21 a23 = −a12 (a21 a33 − a23 a31 ) + a22 (a11 a33 − a13 a31 ) − a32 (a11 a23 − a13 a21 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , ΔG3 = a13 c13 + a23 c23 + a33 c33 a a a a a a = (−1)1+3 a13 21 22 + (−1)2+3 a23 11 12 + (−1)3+3 a33 11 12 a31 a32 a31 a32 a21 a22 = a13 (a21 a32 − a22 a31 ) − a23 (a11 a32 − a12 a31 ) + a33 (a11 a22 − a12 a21 ) = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 . De donde se ve que ΔFi = ΔFk para todo par de filas de A, ΔG j = ΔGl para todo par de columnas de A, y ΔFi = ΔG j para cualquier fila y para cualquier columna de A. Ejemplo 2.18 −1 0 2 2 1 3 −2 1 1 = 0 · c12 + c22 + c32 2+2 −1 2 = (−1) −2 1 + (−1)3+2 −1 2 2 3 = −1 − (−4) − (−3 − 4) = 3 − (−7) = 10. El determinante de una matriz 3 × 3, si se agrupan los términos de ΔFi = ΔG j del ejemplo 2.17, puede escribirse como a11 a21 a31 a12 a22 a32 a13 a23 a33 = (a11 a22 a33 + a21 a32 a13 + a31 a23 a12 ) −(a13 a22 a31 + a23 a32 a11 + a33 a21 a12 ) (2.7) Ésta es la llamada regla de Sarrus y un ardid nemotécnico para tenerla siempre en mente es mediante el esquema contenido en la figura 2-1, que seguramente es familiar al lector de cursos en educación básica. Page (PS/TeX): 16 / 78, COMPOSITE SECCIÓN 2.2 a11 a12 a13 a21 a22 a23 a31 a32 a33 Figura 2-1 • Determinantes 79 Los términos del primer sumando en la regla de Sarrus se obtienen multiplicando las componentes de la matriz siguiendo las flechas azules y los del segundo sumando multiplicando las componentes siguiendo las flechas rojas. Desafortunadamente esta regla sólo funciona para matrices 3 × 3 y su generalización ya no es válida para matrices de orden mayor que 3. El lector puede confirmar esta afirmación fácilmente si calcula un determinante 4 × 4 por la “generalización” de la regla de Sarrus y verifica el resultado desarrollando por cofactores. Es posible hacer un poco más eficiente el desarrollo por cofactores. Si A es una matriz cuadrada de orden n y vamos a calcular su determinante, por ejemplo, desarrollando por cofactores en la fila Fi , entonces |A| = n ∑ (−1)i+k aik Mik k=1 donde Mik es el menor del elemento aik de la matriz A; es decir, Mik es el determinante de la matriz (n − 1) × (n − 1) que resulta de eliminar la fila i y la columna k de la matriz A. Dado que (−1)i+k es 1 o −1 si j + k es par o impar, podemos desarrollar las siguientes matrices de signos para evitar calcular la potencia (−1)i+ j : ⎤ ⎡ ⎤ ⎡ + − + − + − + ⎢ − + − + ⎥ + − ⎥ , ⎣ − + − ⎦, ⎢ ⎣ + − + − ⎦, − + + − + − + − + etc., que nos indican el signo de la potencia (−1)i+k , únicamente viendo la posición i, k para cada matriz del tamaño correspondiente; como fácilmente puede comprobarlo el lector. Entonces para calcular el determinante anteponemos, para cada k = 1, 2, . . . , n, el signo que corresponde al elemento i, k al producto aik Mik en la matriz de signos del mismo tamaño de A y se suman algebraicamente estos términos desde k = 1 hasta k = n. Ilustraremos lo anterior en el ejemplo 2.19. P Nota 2.2 Para formar una matriz de signos se observa lo siguiente: • Se comienza con el signo + en la primera componente de la primera fila. • Los signos + y − se van alternando en cada fila y en cada columna. • Si se han hecho correctamente los dos pasos anteriores, todos los signos en la diagonal serán positivos. Ejemplo 2.19 1 3 1 −1 Page (PS/TeX): 17 / 79, COMPOSITE −1 0 2 1 −1 2 −1 1 1 2 = −(−1) 2 4 3 −1 −2 −2 0 5 2 3 −1 − = −2 5 −2 2 3 5 1 −1 + (4) 3 2 −1 −2 2 5 −1 2 − 2 3 2 1 5 80 CAPÍTULO 2 Matrices invertibles y determinantes 3 2 1 3 1 + 2 + +4 −1 −1 5 −2 5 2 −2 = 16 + 1 + 7 + 4 [12 + 16 − 8] = 104. Donde hemos utilizado la matriz de signos 4 × 4 y la de 3 × 3 para saber el signo que debe anteceder al menor cuando se desarrolla el determinante por una fila o columna conveniente.9 Calcular el determinante de una matriz por medio de cofactores puede convertirse en un trabajo increı́blemente laborioso. Por ejemplo, si una computadora de esta época se utiliza para calcular el determinante de una matriz de tamaño 50 × 50, nuestro sistema solar habrá desaparecido antes que la computadora dé el resultado final. Por esta razón necesitamos procedimientos que nos auxilien a minimizar los cálculos para encontrar el determinante de una matriz. Nuevamente el método de Gauss será la base para alcanzar ese objetivo y en el siguiente apartado nos abocamos a ese fin. 2.2.2 Propiedades Enunciamos las siguientes propiedades de los determinantes e invitamos al lector a consultar las correspondientes demostraciones en el apéndice C. Teorema 2.8 (Propiedades de los determinantes) Sean A y B matrices cuadradas de orden n, entonces: |AB| = |A||B|. |At | = |A|. 1 Si A es una matriz invertible, entonces |A−1 | = 0 y además |A−1 | = |A| . Si A es triangular superior o triangular inferior, el determinante de A es el producto de los elementos de la diagonal. 5. Supongamos que B es equivalente a la matriz A al aplicarle una operación de renglón: (a) Si B se obtiene de A mediante la operación de renglón Ri ↔ R j , entonces |A| = −|B|. (b) Si B resulta de A al aplicarle la operación Ri ↔ Ri + αR j , entonces |B| = |A|. (c) Si B se obtiene de A con la operación Ri ↔ αRi , α = 0, entonces |A| = (1/α)|B|. 1. 2. 3. 4. P Nota 2.3 De manera análoga a las operaciones de renglón se definen las operaciones de columnas: Gi ↔ G j , Gi ↔ αGi (α = 0), Gi ↔ αGi + βG j (α = 0), que significan, respectivamente, la columna Gi se intercambia con la columna G j , la columna Gi se cambia por α-veces la columna Gi , la columna Gi se cambia por α-veces la columna Gi más β-veces la columna G j . Debido a que |At | = |A|, las propiedades de los determinantes que involucran operaciones en renglones se pueden traducir a propiedades de operaciones en columnas: 19 Se entiende por fila o columna conveniente, una fila o columna de la matriz que minimice los cálculos; si es que la matriz contiene alguna con esta caracterı́stica. Page (PS/TeX): 18 / 80, COMPOSITE SECCIÓN 2.2 Determinantes 81 1. Si B es la matriz que se obtiene de una matriz A mediante la operación de columna Gi ↔ G j , entonces |A| = −|B|. 2. Si B es la matriz que se obtiene de una matriz A mediante la operación de columna Gi ↔ αG j , entonces |A| = (1/α)|B|. 3. Si B es la matriz que resulta de una matriz A al aplicarle la operación de columna Gi ↔ Gi + βG j , entonces |A| = |B|. Ejemplo 2.20 Sean A = −1 3 4 7 yB= 2 1 1 3 ; entonces |A| = −19, |B| = 5 y 1 8 |AB| = 15 25 = 25 − 120 = −95 = (−19) (5) = |A| |B| . Ejemplo 2.21 Mostrar la propiedad 3. DEMOSTRACIÓN Q Sea A una matriz de orden n invertible, entonces AA−1 = In . Luego, por la propiedad 4, |In | = 1 y, por la propiedad 1, AA−1 = |A| A−1 ; luego 1 = |In | = AA−1 = |A| A−1 ; de donde |A| = 0 y A−1 = 1/ |A|. Q Ejemplo 2.22 Por la propiedad 4 −1 3 0 2 0 0 0 0 4 −1 −2 3 = (−1) (2) (3) (4) = −24. 3 −7 0 4 Ejemplo 2.23 Por las propiedades 5(a) y 4 −1 3 2 0 0 1 0 3 −5 −1 3 2 = − 0 3 −5 = − (−3) = 3. 0 0 1 Comprobación: −1 3 2 0 0 1 0 3 −5 Page (PS/TeX): 19 / 81, COMPOSITE = − (1) −1 3 0 3 = −3. 82 CAPÍTULO 2 Matrices invertibles y determinantes Ejemplo 2.24 Por las propiedades 5(b) y 4 1 −2 1 1 −5 5 −1 = 0 0 0 3 0 Ejemplo 2.25 Por la propiedad 5(c) 4 −4 8 1 −1 2 = 1 1 3 1 1 1 1/4 1 −2 1 −5 4 = −15. 0 3 1 −2 2 −2 2 −1 2 = 4 1 −1 2 1 1 3 1 3 y por la propiedad 5(b) 4 1 1 1 −8 8 −1 2 = 4 1 1 1 3 1 = 4 0 1 = 4(1) = 4. −2 2 −1 2 1 3 −2 2 1 0 1 3 1 2 1 3 Ejemplo 2.26 Calcular el determinante de la matriz ⎡ 3 −6 3 ⎢ 2 1 −2 ⎢ ⎣ 3 2 −4 5 1 2 ⎤ 9 1 ⎥ ⎥ 2 ⎦ 3 llevándola a la forma triangular superior mediante el método de Gauss y haciendo uso de las propiedades 5(a), (b), (c) y 4. 1 −2 3 −6 1 3 3 9 2 −1 −2 1 2 1 −2 1 Solución = 3 3 3 2 −4 2 2 −4 2 5 5 1 2 3 1 2 3 1 −2 1 3 0 5 −4 −5 = 3 0 −8 −7 −7 0 11 −3 −12 1 −2 1 3 0 5 −4 −5 = 3 8 −7 −7 0 0 1 5 −2 1 −2 1 3 0 1 5 −2 = −3 0 8 −7 −7 0 5 −4 −5 Page (PS/TeX): 20 / 82, COMPOSITE SECCIÓN 2.2 = −3 1 −2 1 0 1 5 0 0 −47 0 0 −29 1 −2 0 1 = (−3)(−47) 0 0 0 0 1 −2 0 1 = (−3)(−47) 0 0 0 0 3 −2 9 5 Determinantes 83 1 3 5 −2 1 −9/47 −29 5 1 3 5 −2 1 −9/47 0 −26/47 = (−3)(−47)(−26/47) = −78. 2.2.3 Método de la adjunta para hallar la inversa A continuación daremos un método alternativo para hallar la inversa de una matriz. Debemos aclarar que, en comparación con el método de Gauss-Jordan, resulta ser muy ineficiente; pues para llevarlo a efecto se tienen que calcular varios determinantes. Sin embargo, las implicaciones teóricas y prácticas de dicho método justifican muy bien su estudio. Definición 2.6 Sea A una matriz cuadrada de orden n. Se definen: • La matriz de cofactores de A como Cof(A) = [ci j ], donde ci j es el cofactor del elemento i j de A. • La matriz adjunta de A por Adj(A) = [Cof(A)]t ; es decir, la matriz adjunta de A es la transpuesta de la matriz de cofactores. Vimos en el inciso 3 de las propiedades de los determinates (cfr. teorema 2.8, pág. 80), que si una matriz es invertible su determinante es diferente de cero; el recı́proco es cierto y está contenido en el teorema 2.9; y se invita al lector a consultar su demostración en el apéndice C. Teorema 2.9 (Método de la adjunta) Si A ∈ Mn×n , entonces A Adj(A) = det(A)In . Luego, A es invertible si y sólo si det(A) = 0 y en tal caso A−1 = Page (PS/TeX): 21 / 83, COMPOSITE 1 Adj(A). |A| 84 CAPÍTULO 2 Matrices invertibles y determinantes ⎤ −1 1 2 Ejemplo 2.27 Sea A = ⎣ 2 −1 1 ⎦, entonces c11 = −1, c12 = −10, c13 = −8, c21 = −10, −2 −3 4 c22 = 0, c23 = −5, c31 = 3, c32 = 5, c33 = −1; por tanto, ⎡ ⎤ −10 −8 0 −5 ⎦ , 5 −1 ⎤ −10 3 0 5 ⎦, −5 −1 ⎡ −1 Cof(A) = ⎣ −10 3 ⎡ −1 Adj(A) = ⎣ −10 −8 y |A| = −25. Luego, ⎡ −1 −10 1 1 ⎣ −10 0 A−1 = |A| Adj(A) = − 25 −8 −5 ⎤ ⎤ ⎡ 1/25 2/5 −3/25 3 0 −1/5 ⎦ . −5 ⎦ = ⎣ 2/5 8/25 1/5 1/25 −1 Con el teorema 2.9 es posible añadir una condición más de equivalencia a los teoremas 2.3 y 2.6 (cfr. págs. 67 y 73) que involucra ahora el determinante. Teorema 2.10 Si A ∈ Mn×n las siguientes condiciones son equivalentes a pares: 1. El sistema Ax = b tiene solución única ∀b. 2. A ∼ In . 3. A es invertible. 4. A es producto de matrices elementales. 5. det(A) = 0. 2.2.4 Regla de Cramer En este breve apartado explicamos un algoritmo que al lector le será familiar de sus cursos de bachillerato; el cual da un método para hallar la solución de un sistema cuadrado utilizando determinantes. Nuevamente cabe señalar que su utilidad práctica directa es muy raquı́tica para sistemas con más de cuatro variables, pero su conocimiento es de gran interés teórico e histórico y tiene importantes implicaciones indirectas de valor práctico.10 Teorema 2.11 Sea A una matriz cuadrada de orden n. Sea, para cada i = 1, 2, ..., n, Δi el determinante que resulta de la matriz que se obtiene de A al sustituir la i-ésima columna por b. Entonces, si Δ = |A| = 0 el sistema Ax = b tiene solución única xi = Δi , Δ para i = 1, 2, ..., n. 1Para una demostración del teorema 2.11, consulte el apéndice C. 10 Page (PS/TeX): 22 / 84, COMPOSITE SECCIÓN 2.2 Determinantes 85 Ejemplo 2.28 Resolver el sistema 3x1 − 5x2 = −2 En este caso, A = 3 −2 −2x1 + x2 = −3. −5 −2 ;b= . 1 −3 3 −5 = −7, Δ= −2 1 −2 −5 = −17, Δ1 = −3 1 3 −2 = −13. Δ2 = −2 −3 Luego, x1 = 17 Δ1 = , Δ 7 x2 = 13 Δ2 = . Δ 7 P Nota 2.4 Si Δ = 0, un sistema cuadrado Ax = b puede o no tener solución. Por ejemplo, en los sistemas x1 + x2 = 1 2x1 + 2x2 = 2 y x1 + x2 = 1 2x1 + 2x2 = 0 Δ = 0, pero el primero tiene una infinidad de soluciones y el segundo es inconsistente. 2.2.5 Determinantes de matrices con componentes complejas Para calcular determinantes de matrices con componentes complejas, como hemos hecho antes en estos casos, aplicaremos todas las técnicas que estudiamos en esta sección para el caso de determinantes de matrices reales pero utilizando el álgebra de los números complejos.11 Otra vez toda la teorı́a que desarrollamos para determinantes de matrices reales es también válida para el caso de matrices en Mn (C). Ejemplo 2.29 Calcular el determinante de la matriz ⎡ 1−i 0 ⎢ 3 + 2i −1 − 4i A=⎢ ⎣ −i 2 0 −1 1Cfr. B1 del apéndice B, 1.1.5, 1.2.8, 2.1.5. 11 Page (PS/TeX): 23 / 85, COMPOSITE 2i 0 3 − 3i 3 ⎤ 0 1 ⎥ ⎥ . −5i ⎦ 4 86 CAPÍTULO 2 Matrices invertibles y determinantes Desarrollemos el determinante por la primera fila mediante cofactores. Solución 3 + 2i −1 − 4i −1 − 4i 0 1 2 2 3 − 3i −5i + (2i) −i |A| = (1 − i) 0 −1 −1 3 4 2 3 − 3i −5i 3 − 3i = (1 − i) (−1 − 4i) + (1) −1 3 3 4 3 + 2i 1 + (4) 3 + 2i −1 − 4i +2i −(−1) −i 2 −i −5i 1 −5i 4 = (1 − i) [(−1 − 4i)(12 − 12i + 15i) + 6 + 3 − 3i] +2i [10 − 14i + 4(6 + 4i + 4 − i)] = (1 − i) [(−1 − 4i)(12 + 3i) + 9 − 3i] + 2i [10 − 14i + 40 + 12i] = (1 − i)(9 − 54i) + 2i(50 − 2i) = −45 − 63i + 4 + 100i = −41 + 37i . Ejemplo 2.30 Calcular la inversa de la matriz A = 2+i −i 3i 1 + 4i por medio de la adjunta. det(A) = (2 + i)(1 + 4i) − (3i)(−i) Solución = −2 + 9i − 3 = −5 + 9i luego, A −1 1 1 + 4i −3i = 2+i −5 + 9i i 1 31 − 29i −27 + 15i . = 9 − 5i −1 − 23i 106 2.3 Ejercicios resueltos y ejercicios propuestos 2.3.1 Ejercicios resueltos Matrices invertibles y sus inversas 11 Comprobar si la matriz C es la matriz inversa de la matriz A en cada caso. (a) A = ⎡ −2 . −1 ⎤ ⎡ −2 2 −1 1 0 ⎦, C = ⎣ 0 1 −1 2 −1 2 −2 3 −1 (b) A = ⎣ 0 1 Page (PS/TeX): 24 / 86, COMPOSITE ,C= 3 2 ⎤ 3 −1 1 0 ⎦. −1 1 Ejercicios resueltos y ejercicios propuestos 87 SECCIÓN 2.3 ⎡ 1 ⎢ 2 (c) A = ⎢ ⎣ 0 0 (d) A = Solución (a) ⎤ ⎤ ⎡ −1 1 0 −1 2 1 ⎢ 1 −3 ⎥ 3 2 ⎥ ⎥. ⎥, C = ⎢ −2 1 ⎣ 0 0 1 −3 ⎦ 4 3 ⎦ 0 0 −1 4 1 1 −1 −1 0 0 2 3 1 1 ,C= −1 1 −3 −2 . Si AC = I, se tiene C = A−1 . −1 −2 2 3 −2 −1 3 2 = 1 0 0 1 . Por tanto, C = A−1 . ⎡ −1 ⎣ 0 1 (b) ⎤ ⎤ ⎡ ⎤⎡ 1 0 0 −2 3 −1 2 −1 1 0 ⎦ = ⎣ 0 1 0 ⎦. 1 0 ⎦⎣ 0 0 0 1 1 −1 1 −1 2 Por tanto, C = A−1 . ⎡ 1 ⎢ 2 ⎢ ⎣ 0 0 (c) −1 2 −1 3 0 4 0 1 ⎤ ⎡ ⎤⎡ 1 −1 1 0 −1 1 ⎥ ⎢ 0 ⎢ −2 1 1 −3 2 ⎥ ⎥=⎢ ⎥⎢ 1 −3 ⎦ ⎣ 0 3 ⎦⎣ 0 0 0 0 0 −1 4 1 0 1 0 0 ⎤ 0 0 ⎥ ⎥. 0 ⎦ 1 0 0 1 0 Por tanto, C = A−1 . (d) Por tanto, C = A−1 . 2 3 1 1 −1 1 −3 −2 = 1 0 −12 −5 = 1 0 0 1 . 12 Utilizar las matrices A y C del ejercicio 1 para resolver los sistemas lineales. (a) −x + 2y = −1 −2x + 3y = 3 (b) −x + 2y − z = −2 y= 4 x − y + 2z = −3 (c) x1 − x2 + 2x3 + x4 2x1 − x2 + 3x3 + 2x4 4x3 + 3x4 x3 + x4 Solución −1 = = = = −1 4 −6 2 Si una matriz cuadrada es invertible, entonces el sistema Ax = b tiene solución única x = A b. (a) La matriz de coeficientes para este sistema es A= Page (PS/TeX): 25 / 87, COMPOSITE −1 2 −2 3 88 CAPÍTULO 2 Matrices invertibles y determinantes y, por el primer inciso del ejercicio 1, A x = −1 3 2 = −2 −1 3 2 −2 −1 −1 3 ; por tanto, = −9 −5 . ⎤ −1 2 −1 1 0 ⎦ y, por el segundo inciso del (b) Para este sistema la matriz de coeficientes es A = ⎣ 0 1 −1 2 ⎤ ⎡ −2 3 −1 1 0 ⎦; ası́ que, ejercicio 1, A−1 = ⎣ 0 1 −1 1 ⎡ ⎡ −2 x = ⎣ 0 1 ⎤ ⎤ ⎡ ⎤⎡ 19 −2 3 −1 1 0 ⎦⎣ 4 ⎦ = ⎣ 4 ⎦. −9 −3 −1 1 (c) En este caso la matriz de coeficientes es ⎡ 1 −1 ⎢ 2 −1 ⎢ A=⎣ 0 0 0 0 ⎤ 2 1 3 2 ⎥ ⎥ 4 3 ⎦ 1 1 y por el tercer inciso del ejercicio 1 ⎡ −1 1 ⎢ −2 1 x = ⎢ ⎣ 0 0 0 0 ⎤⎡ 0 −1 −1 ⎢ 4 1 −3 ⎥ ⎥⎢ 1 −3 ⎦ ⎣ −6 −1 4 2 ⎤ 3 ⎥ ⎢ −6 ⎥ ⎥ ⎥=⎢ ⎦ ⎣ −12 ⎦ . 14 ⎤ ⎡ En los ejercicios 3 y 4, determinar si la matriz dada es invertible. ⎤ 1 −2 3 13 A = ⎣ 3 −4 5 ⎦. −2 1 6 ⎡ Solución Una matriz es invertible si es equivalente (por filas) a la identidad (cfr. teorema 2.3) ⎡ 1 A=⎣ 3 −2 ⎤ ⎡ ⎤ ⎡ 1 1 −2 3 −2 3 2 −4 ⎦ ∼ ⎣ 0 −4 5 ⎦ ∼ ⎣ 0 0 0 −3 12 1 6 ⎤ −2 3 2 −4 ⎦ . 0 12 Puesto que todas las columnas en la última matriz en forma escalonada equivalente a A tienen pivote, se deduce que A es equivalente a la identidad y, por tanto, es invertible (cfr. nota 1.6). ⎤ 1 −2 3 −1 ⎢ −2 1 2 1 ⎥ ⎥ 14 B = ⎢ ⎣ 3 −3 2 4 ⎦ 1 1 −4 6 ⎡ Page (PS/TeX): 26 / 88, COMPOSITE SECCIÓN 2.3 Solución Ejercicios resueltos y ejercicios propuestos 89 Una matriz es invertible si es equivalente a la identidad. ⎤ ⎤ ⎡ 1 −2 3 −1 1 −2 3 −1 ⎢ ⎢ −2 8 −1 ⎥ 1 2 1 ⎥ ⎥ ⎥ ∼ ⎢ 0 −3 B=⎢ ⎦ ⎣ ⎣ 3 −3 0 3 −7 7 ⎦ 2 4 0 3 −7 7 1 1 −4 6 ⎤ ⎤ ⎡ ⎡ 1 −2 3 −1 1 −2 3 −1 ⎥ ⎢ 0 −3 8 −1 ⎥ ⎢ 0 −3 8 −1 ⎥ = F. ⎥∼⎢ ∼⎢ ⎣ 0 0 1 6 ⎦ 3 −7 7 ⎦ ⎣ 0 0 0 0 0 0 0 0 0 ⎡ Dado que la última columna de la matriz en forma escalonada F equivalente a B no tiene pivote, se deduce que B no puede ser equivalente a la identidad. Por tanto, B no es invertible. ⎤ ⎡ 1 −2 −2 r 1 ⎦ sea invertible. 15 Encontrar los valores de r para que la matriz A = ⎣ −2 3 −1 r Solución Para que la matriz A sea invertible es necesario y suficiente que sea equivalente a la identidad. Ya que ⎤ ⎡ 1 1 −2 −2 r 1 ⎦∼⎣ 0 A = ⎣ −2 0 3 −5 r ⎡ ⎤ 1 −2 −2 ⎦ 1 6+r ∼⎣ 0 0 0 21 − 2r − r2 ⎡ ⎤ ⎡ 1 −2 −2 r−4 −3 ⎦ ∼ ⎣ 0 0 1 6+r ⎤ −2 −2 1 6+r ⎦ r−4 −3 y la última matriz (que está en forma escalonada equivalente a A) es equivalente a la identidad si 21 − √ 2r − r2 = 0, A es invertible si r = −1 ± 22. En los ejercicios 6 y 7 calcular la inversa, si existe, de cada matriz por el método de Gauss-Jordan. ⎤ ⎡ −1 2 1 2 −1 ⎦ 16 ⎣ 3 5 −1 2 ⎤ ⎤ ⎡ ⎡ −1 2 1 1 0 0 −1 2 1 1 0 0 −−−−−−−−→ ⎣ ⎣ 3 2 −1 0 1 0 ⎦ ←R−−↔ 0 8 2 3 1 0 ⎦ Solución 3R1 + R2 2 5 −1 2 0 0 1 0 9 7 5 0 1 R3 ↔ 5R1 + R3 ⎤ ⎡ −1 2 1 1 0 0 ←−−−−−−−→ ⎣ 0 1 5 2 −1 1 ⎦ R2 ↔ R3 − R2 0 9 7 5 0 1 ⎤ ⎡ −1 2 1 1 0 0 ←−−−−−−−−−−→ ⎣ 0 1 5 2 −1 1 ⎦ R3 ↔ −9R2 + R3 0 0 −38 −13 9 −8 ⎡ ⎤ 0 0 1 −2 −1 −1 ←−−−−−−−−−→ ⎣ 0 1 5 2 −1 1 ⎦ R1 ↔ −R1 4 13 9 0 0 1 − 38 1 38 19 R3 ↔ − 38 R3 Page (PS/TeX): 27 / 89, COMPOSITE 90 CAPÍTULO 2 Matrices invertibles y determinantes ⎡ ←−−−−−−−−−−−−→ R2 ↔ −5R3 + R2 R1 ↔ R3 + R1 ⎢ ⎣ 0 −2 0 − 25 38 9 − 38 1 0 11 38 13 38 7 38 9 − 38 0 ⎡ ←−−−−−−−−→ R1 ↔ 2R2 + R1 1 0 1 1 0 0 3 − 38 0 0 1 11 38 13 38 ⎢ ⎣ 0 1 0 5 38 7 38 9 − 38 4 19 1 − 19 4 19 ⎤ ⎥ ⎦ ⎤ 2 19 1 − 19 4 19 ⎥ ⎦ Entonces, ⎡ −1 ⎣ 3 5 ⎤−1 ⎡ − 3 38 2 1 ⎢ 2 −1 ⎦ = ⎣ 11 38 −1 2 13 5 38 7 38 9 − 38 38 2 19 1 − 19 4 19 ⎤ ⎥ ⎦. Comprobación: ⎤⎡ − 3 38 2 1 ⎢ 11 2 −1 ⎦ ⎣ 38 −1 2 13 ⎡ −1 ⎣ 3 5 ⎡ ⎢ 17 ⎢ ⎣ 2 3 5 −7 38 2 19 1 − 19 4 19 ⎤ ⎤ ⎡ 1 0 0 ⎥ ⎣ ⎦ = 0 1 0 ⎦. 0 0 1 ⎤ 1 −1 1 2 ⎥ ⎥ −1 3 ⎦ 1 2 1 −1 2 2 ⎡ Solución 5 38 7 38 9 − 38 2 1 1 −1 ⎢ 3 −1 1 2 ⎢ ⎣ 5 2 −1 3 −7 2 1 2 Page (PS/TeX): 28 / 90, COMPOSITE 1 0 0 0 0 1 0 0 0 0 1 0 ⎤ ⎡ 1 −2 0 3 −1 1 0 0 ⎢ 3 −1 1 2 0 ⎥ 0 1 0 ⎥∼⎢ 2 −1 3 0 ⎦ ⎣ 5 0 0 1 −7 2 1 2 1 0 0 0 ⎡ 1 1 −2 0 3 −1 ⎢ 0 5 1 −7 3 −2 ∼⎢ ⎣ 0 12 −1 −12 5 −5 0 −12 1 23 −7 7 ⎡ 1 1 −2 0 3 −1 ⎢ 0 5 1 −7 3 −2 ∼⎢ ⎣ 0 12 −1 −12 5 −5 0 0 0 11 −2 2 ⎡ −1 1 1 −2 0 3 ⎢ 0 5 1 −7 3 −2 ∼⎢ ⎣ 0 0 −17 24 −11 −1 0 0 0 11 −2 2 ⎡ 1 −2 0 3 −1 1 ⎢ 0 ⎢ ∼⎢ ⎣ 0 1 1 5 0 1 − 75 − 24 17 0 0 0 1 3 5 11 17 2 − 11 − 25 1 17 2 11 ⎤ 0 0 ⎥ ⎥ 0 ⎦ 1 0 0 1 0 0 0 1 1 0 0 5 1 0 0 5 − 17 1 11 ⎤ 0 0 ⎥ ⎥ 0 ⎦ 1 ⎤ 0 0 ⎥ ⎥ 0 ⎦ 1 ⎤ 0 0 ⎥ ⎥ 0 ⎦ 1 0 ⎤ 0 ⎥ ⎥ ⎥ 0 ⎦ 1 11 Ejercicios resueltos y ejercicios propuestos 91 SECCIÓN 2.3 ⎡ 1 ⎢ ⎢ 0 ∼⎢ ⎢ 0 ⎣ 0 ⎡ 1 ⎢ ⎢ 0 ∼⎢ ⎢ 0 ⎣ 0 0 0 5 − 11 1 1 5 0 1 0 0 0 1 19 55 73 187 2 − 11 −2 0 0 0 0 1 0 0 0 1 0 0 0 1 15 187 50 187 73 187 2 − 11 5 11 8 − 55 59 187 2 11 7 187 39 − 187 59 187 2 11 3 − 11 3 − 11 7 55 31 − 187 1 11 7 55 24 187 1 11 13 − 187 9 187 30 187 31 − 187 1 11 19 187 24 187 1 11 ⎤ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ Por tanto, ⎡ ⎢ ⎢ ⎣ ⎤−1 2 1 1 −1 3 −1 1 2 ⎥ ⎥ 5 2 −1 3 ⎦ −7 2 1 2 ⎡ ⎢ ⎢ =⎢ ⎢ ⎣ 15 187 50 187 73 187 2 − 11 7 187 39 − 187 59 187 2 11 9 187 30 187 31 − 187 1 11 13 − 187 9 187 30 187 31 − 187 1 11 13 − 187 19 187 24 187 1 11 ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ Comprobación: ⎡ 2 1 ⎢ 3 −1 ⎢ ⎣ 5 2 −7 2 ⎤ ⎡ 1 −1 ⎢ ⎢ 1 2 ⎥ ⎥⎢ ⎦ −1 3 ⎢ ⎣ 1 2 7 187 39 − 187 59 187 2 11 15 187 50 187 73 187 2 − 11 19 187 24 187 1 11 ⎤ ⎡ 1 0 0 ⎥ ⎥ ⎢ 0 1 0 ⎥=⎢ ⎥ ⎣ 0 0 1 ⎦ 0 0 0 ⎤ 0 0 ⎥ ⎥. 0 ⎦ 1 En los ejercicios 8 a 10, calcular la inversa de cada matriz elemental utilizando la explicación dada antes del teorema 2.5 (cfr. pág. 72). ⎡ 1 ⎢ 0 18 E = ⎢ ⎣ 0 0 0 1 0 0 0 0 0 1 ⎤ 0 0 ⎥ ⎥. 1 ⎦ 0 La matriz E se obtuvo de la identidad I4 al aplicarle la operación de renglón R3 ↔ R2 . Entonces la matriz inversa de E se obtiene aplicando a I4 la operación de renglón R2 ↔ R3 ; por tanto, E −1 = E. ⎤ ⎡ 1 0 0 0 ⎢ 0 −3 0 0 ⎥ ⎥ 19 E = ⎢ ⎣ 0 0 1 0 ⎦ 0 0 0 1 Solución Solución La matriz E se obtuvo de I4 aplicándole la operación de renglón R2 ↔ −3R2 ; por tanto, la matriz inversa de E se calcula aplicando la operación de renglón R2 ↔ (−1/3)R2 a I4 ; esto es, ⎡ 1 0 0 1 ⎢ 0 − 0 3 E −1 = ⎢ ⎣ 0 0 1 0 0 0 Page (PS/TeX): 29 / 91, COMPOSITE ⎤ 0 0 ⎥ ⎥. 0 ⎦ 1 92 CAPÍTULO 2 Matrices invertibles y determinantes ⎡ 1 ⎢ 0 10 E = ⎢ ⎣ 0 0 0 −2 0 0 0 3 1 0 ⎤ 0 0 ⎥ ⎥. 0 ⎦ 1 Solución La matriz elemental E es el resultado de aplicar la operación de renglón R2 ↔ −2R2 + 3R3 a la matriz I4 ; por ende, la matriz inversa de E se obtiene aplicando la operación R2 ↔ (−1/2)R2 + (3/2)R3 a I4 ; o sea ⎡ 1 ⎢ ⎢ 0 E −1 = ⎢ ⎣ 0 0 0 − 21 0 0 0 0 ⎤ ⎥ 0 ⎥ ⎥. 1 0 ⎦ 0 1 3 2 ⎤ 1 −1 1 1 1 ⎦ y escribir A−1 como producto de matrices ele11 Encontrar la inversa de la matriz A = ⎣ 2 2 −1 2 mentales. ⎡ ⎡ 1 −1 1 Solución ⎣ 2 1 10 2 −1 2 1 1 0 ⎤ ⎡ 1 0 0 ⎦ ←−−−−−−−−−−−−→ ⎣ 0 0 R2 ↔ −2R1 + R2 0 0 1 R3 ↔ −2R1 + R3 ⎡ 1 ←−−−−−−→ ⎣ 0 R3 ↔ R2 0 ⎡ 1 ←−−−−−−−−−−−−→ ⎣ 0 R3 ↔ −3R2 + R3 0 ⎡ 1 ←−−−−−−−−−→ ⎣ 0 R1 ↔ R 3 + R 1 0 ⎡ 1 ←−−−−−−−−−→ ⎣ 0 R1 ↔ R 2 + R 1 0 ⎡ 1 ←−−−−−−−→ ⎣ 0 R3 ↔ −R3 0 −1 1 3 −1 1 0 −1 1 1 0 3 −1 ⎤ 1 0 0 −2 1 0 ⎦ −2 0 1 ⎤ 1 0 0 −2 0 1 ⎦ −2 1 0 ⎤ 1 0 0 −2 0 1 ⎦ 4 1 −3 ⎤ −1 0 5 1 −3 1 0 −2 0 1 ⎦ 0 −1 4 1 −3 ⎤ 0 0 3 1 −2 1 0 −2 0 1 ⎦ 0 −1 4 1 −3 ⎤ 0 0 3 1 −2 1 0 −2 0 1 ⎦ 0 1 −4 −1 3 −1 1 1 0 0 −1 ⎤ 3 1 −2 0 1 ⎦. A−1 = ⎣ −2 −4 −1 3 ⎡ Con lo que Las matrices elementales que corresponden a cada operación de renglón (cfr. teorema 2.4) son las que se obtienen al aplicar las mismas en forma ⎤ de fila a I3 que las que se aplican ⎤ sucesiva a la matriz ⎡ operaciones ⎡ 1 0 0 1 0 0 A para obtener A−1 : E1 = ⎣ −2 1 0 ⎦ ( R2 ↔ −2R1 +R2 ); E2 = ⎣ 0 1 0 ⎦ (R3 ↔ −2R1 +R3 ); 0 0 1 −2 0 1 Page (PS/TeX): 30 / 92, COMPOSITE Ejercicios resueltos y ejercicios propuestos 93 SECCIÓN 2.3 ⎤ ⎡ 1 0 0 1 E3 = ⎣ 0 0 1 ⎦ (R3 ↔ R2 ); E4 = ⎣ 0 0 1 0 0 ⎤ ⎤ ⎡ 0 0 1 0 1 1 0 ⎦ (R3 ↔ −3R2 + R3 ); E5 = ⎣ 0 1 0 ⎦ −3 1 0 0 1 ⎡ ⎤ ⎤ ⎡ 1 1 0 1 0 0 0 ⎦ (R3 ↔ −R3 ). (R1 ↔ R3 + R1 ); E6 = ⎣ 0 1 0 ⎦ (R1 ↔ R2 + R1 ); E7 = ⎣ 0 1 0 0 1 0 0 −1 ⎡ Entonces, E7 E6 E5 E4 E3 E2 E1 = A−1 como fácilmente se puede comprobar realizando el producto de las matrices elementales. ⎤ 1 −2 1 1 2 ⎦. Encontrar, si es que existe, una matriz B tal que AB = A2 + 3A. 12 Sea A = ⎣ −1 1 −2 3 ⎡ Solución Si la matriz A es invertible, entonces AB = A2 + 3A ⇒ A−1 (AB) = A−1 (A2 + 3A) = (A−1 A)A + 3A−1 A ⇒ I3 B = I3 A + 3I3 ⇒ B = A + 3I3 . Luego, el problema tiene solución si A es invertible; y puesto que ⎡ 1 ⎣ −1 1 ⎤ ⎡ 1 −2 1 1 2 ⎦∼⎣ 0 0 −2 3 −2 −1 0 ⎤ 1 3 ⎦, 2 A es equivalente a la identidad y, por tanto, es invertible. Ası́ que la solución existe y está dada por ⎡ −2 4 −2 4 B = A + 3I3 = ⎣ −1 1 13 Resolver el ejercicio 12 con la matriz A = 0 1 0 0 ⎤ 1 2 ⎦. 6 . Solución En este caso no se puede proceder como en el ejercicio 12, pues la matriz A no es invertible (está en forma escalonada y no tiene pivote en la primera columna). Sin embargo, 0 0 2 A + 3A = 3 0 2 por lo que es fácil encontrar solución a la ecuación A + 3A = AB por inspección: B = efecto, AB = Page (PS/TeX): 31 / 93, COMPOSITE 0 3 0 0 . 0 0 0 3 . En 94 CAPÍTULO 2 Matrices invertibles y determinantes 14 Determinar si la siguiente matriz es invertible y de ser ası́ calcular su inversa. ⎡ Se aplica el método de Gauss-Jordan: Solución ⎡ ⎢ ⎢ ⎢ ⎣ ⎡ ⎢ ⎢ ⎢ ⎣ ⎡ ⎢ ⎢ ⎢ ⎣ ⎡ ⎢ ⎢ ⎢ ⎣ ⎡ ⎢ ⎢ ⎢ ⎣ ⎡ ⎢ ⎢ ⎢ ⎣ ⎡ 1 i 1+i −2 1 0 0 0 −i i 0 0 3 − 48i 0 0 0 −i 2 i i 1+i 2i −1 3 1+i −1 + i 3 + 2i 4 + 3i −2 4 1 4 1 0 0 0 −2 −2 + 4i 4 + 11i −2 + 4i −48 − 3i 48 + 3i 0 0 ⎤ −2 4 ⎥ ⎥. 1 ⎦ 4 −i 1 + i 2 2i i −1 i 3 1 ⎢ i A=⎢ ⎣ 1+i −2 0 1 0 0 0 0 1 0 1 1 2 − 3i 3 51 − 45i 45 + 51i 105 − 138i 0 0 0 0 1 ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥∼⎢ ⎦ ⎣ 0 i 2+i i 0 0 i 0 1 0 0 0 0 0 0 1 −i 1+i −21 i −1 + i −2 + 4i1 −1 + 2i −1 − 2i 3 + 2i − 1 − i −i −i 0 ⎤ ⎡ 1 −i 1+i −2 ⎥ ⎢ 0 i −1 + i −2 + 4i ⎥ ⎢ ⎥∼⎢ ⎦ ⎣ 0 0 3 + 2i 4 + 11i 0 0 0 −3 + 48i 0 0 0 −3 + 48i −13 − 24i 35 + 8i 26 − 65i 8 − 12i −14 + 14i 6 + 17i 5 + 12i 7 + 7i 6 − 8i −10 − 20i −8 − 14i −3 + 4i 0 i 0 2 0 0 1 0 0 0 0 0 ⎤ ⎥ ⎥ ⎥∼ ⎦ 1 1 0 1 i 2 − 3i 2+i 8 − 12i 7 + 7i ⎤ 6 + 4i 14 − 8i ⎥ ⎥ ⎥∼ 10 − 41i ⎦ −3 − 2i 6309 + 5454i 0 0 0 5454 − 6309i −5454 + 6309i 0 0 0 0 105 − 138i 0 0 0 0 −3 + 48i 3078 − 3759i −294 + 2391i 26 − 65i 8 − 12i 4197 − 75i −3363 − 162i 5 + 12i 7 + 7i −564 + 1314i 4164 − 318i −8 − 14i −3 + 4i 6309 + 5454i 0 0 0 0 −5454 + 6309i 0 0 0 0 105 − 138i 0 0 0 0 −3 + 48i 2784 − 1368i −294 + 2391i 26 − 65i 8 − 12i 834 − 237i −3363 − 162i 5 + 12i 7 + 7i 3600 + 996i 4164 − 318i −8 − 14i −3 + 4i 6309 + 5454i 0 0 0 0 −5454 + 6309i 0 0 0 0 105 − 138i 0 0 0 0 −3 + 48i 2784 − 1368i −294 + 2391i 26 − 65i 8 − 12i 834 − 237i −3363 − 162i 5 + 12i 7 + 7i 3600 + 996i 4164 − 318i −8 − 14i −3 + 4i 1 0 0 0 112 771 88 − 257 i 44 771 67 − 771 i 1 0 0 185 771 − 124 771 i 64 257 + 245 771 i 0 1 0 100 257 83 − 771 i ⎢ ⎢ ⎢ 0 ⎢ ⎢ ⎢ 0 ⎢ ⎣ 0 0 0 1 116 − 200 771 − 771 i 104 257 − 119 771 i 28 771 22 − 257 i 67 771 44 + 771 i ⎡ Con lo que A −1 22 28 − 257 − 771 i ⎢ ⎢ ⎢ =⎢ ⎢ ⎣ 172 771 ⎤ ⎥ ⎥ ⎥. ⎦ 112 771 88 − 257 i 44 771 67 − 771 i 185 771 − 124 771 i 64 257 + 245 771 i 100 257 83 − 771 i 29 50 − 771 + 771 i 35 257 − 119 771 i 104 257 − 148 771 i 22 28 − 257 − 771 i ⎤ ⎥ 272 31 239 ⎥ − 274 771 − 771 i − 771 − 771 i ⎥ ⎥. 28 22 172 25 ⎥ 771 − 257 i 771 − 257 i ⎦ 67 771 44 + 771 i ⎤ ⎥ ⎥ ⎥∼ ⎦ ⎤ −2517 − 2133i 2175 + 1437i ⎥ ⎥ ⎥∼ 10 − 41i ⎦ −3 − 2i ⎤ −342 − 696i 2175 + 1437i ⎥ ⎥ ⎥∼ 10 − 41i ⎦ −3 − 2i ⎤ −342 − 696i 2175 + 1437i ⎥ ⎥ ⎥∼ 10 − 41i ⎦ −3 − 2i 25 − 257 i ⎥ ⎥ 29 50 − 771 + 771 i 116 − 200 771 − 771 i Page (PS/TeX): 32 / 94, COMPOSITE 0 0 0 −3 − 2i 272 31 239 ⎥ − 274 771 − 771 i − 771 − 771 i ⎥ 29 50 − 771 + 771 i 35 257 − 148 771 i 0 0 i −3 + 4i 29 50 − 771 + 771 i SECCIÓN 2.3 Ejercicios resueltos y ejercicios propuestos 95 Determinantes, adjunta y regla de Cramer ⎤ −1 1 2 3 ⎢ 0 1 −1 2 ⎥ ⎥, hallar los cofactores 15 Para la matriz A = ⎢ ⎣ 3 0 −1 1 ⎦ 4 −5 1 2 ⎡ (a) Solución c11 (a) c11 , (b) c31 y (c) c41 . 1 −1 2 = (−1)1+1 0 −1 1 −5 1 2 = (1)(−1)1+1 M11 + (0)(−1)2+1 M21 + (−5)(−1)3+1 M31 −1 1 − 5 −1 2 = −1 1 1 2 = −3 − 5 = −8. (b) (c) c31 c41 1 2 3+1 = (−1) 1 −1 −5 1 −1 2 = (1)(−1)1+1 1 2 2 +(−5)(−1)3+1 −1 3 2 2 + (1)(−1)2+1 2 3 1 2 3 = −40. 2 1 2 3 = (−1)4+1 1 −1 2 0 −1 1 −1 1+1 = − (−1) (1) −1 2 1 + (−1)2+1 (1) 2 3 = 4. −1 1 16 Utilizar los cofactores de la matriz A calculados en el ejercicio anterior para hallar el determinante de esa matriz. Solución El determinante se puede calcular desarrollando por cofactores en la primera columna: |A| = a11 c11 + a21 c21 + a31 c31 + a41 c41 = (−1)(−8) + 0c21 + (3)(−40) + (4)(4) = −96. 17 Calcular el determinante de la matriz A desarrollando por cofactores en una fila o columna que minimice los cálculos si ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣ Page (PS/TeX): 33 / 95, COMPOSITE 2 −1 3 0 2 0 2 2 1 1 1 0 −1 0 1 3 0 2 0 1 −0 4 1 2 0 ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ 96 CAPÍTULO 2 Matrices invertibles y determinantes Solución Se desarrolla por cofactores por la columna o fila que tenga más ceros: 2 −1 3 0 2 2 1 0 −1 3 0 2 0 4 1 0 1 0 0 2 2 1 1 1 0 = 2 −1 3 2 2 −1 3 2 0 2 2 1 1 0 −1 1 − 2 1 0 −1 1 3 0 2 1 3 0 2 1 0 4 1 0 2 1 −1 1 3 2 2 1 + 4 1 −1 1 = −(−1) 3 3 0 2 1 1 0 ⎛ 0 2 2 1 3 2 ⎝ −2 −(−1) 1 −1 1 + (2) 1 −1 1 3 3 2 1 2 1 1 1 1 −1 1 1 + −2 −2 = −(1) 3 1 + 3 2 3 1 = −16. ⎞ ⎠ 18 Calcular el determinante de la matriz A del ejercicio resuelto 17 utilizando las propiedades del inciso 5 del teorema 2.8 para “hacer ceros los elementos en la primera columna” hasta que se obtenga un determinante 3 × 3 y entonces calcularlo por cofactores o por la regla de Sarrus. Solución Page (PS/TeX): 34 / 96, COMPOSITE 2 0 1 3 0 −1 3 0 2 2 1 0 −1 0 0 2 0 4 1 2 2 1 1 1 0 0 1 2 0 = − 2 −1 0 3 0 4 0 1 2 0 = − 0 −1 0 3 0 4 0 1 2 0 = − 0 −1 0 0 0 4 2 2 −1 5 = − 0 5 4 1 −1 5 0 2 2 1 = 0 5 0 4 1 2 1 −5 2 2 = − 0 5 4 1 −1 2 3 2 1 0 1 0 0 2 1 1 2 1 0 −1 2 5 2 1 0 1 0 0 2 1 1 0 1 0 0 1 1 1 0 0 0 −2 2 0 1 1 0 0 0 −2 2 0 0 1 −2 0 0 0 1 1 0 −2 2 0 −1 2 5 5 1 SECCIÓN 2.3 = = = = 1 −5 0 12 − 5 0 4 1 1 −5 0 12 − 5 0 0 21 12 1 − 5 0 21 2 1 − −5 2 Ejercicios resueltos y ejercicios propuestos 97 0 0 1 1 0 −2 2 0 0 0 1 1 0 −2 2 0 1 −2 0 12 1 1 = −16. +2 21 2 0 19 Calcular el determinante de la matriz A del ejercicio 17 llevando esta matriz a forma triangular superior utilizando la propiedades 5 y 4 del teorema 2.8 (cfr. pág. 80). Solución Por el ejercicio precedente se tiene 2 0 1 3 0 −1 3 0 2 2 2 1 1 0 −1 0 1 0 2 0 1 4 1 2 0 1 0 = − 0 0 0 1 0 = − 0 0 0 = − 1 0 0 0 0 = −12 = −12 Page (PS/TeX): 35 / 97, COMPOSITE 0 −1 0 1 2 2 1 1 −1 5 0 0 0 5 0 −2 4 1 2 0 0 −1 0 1 1 −5 0 0 2 2 1 1 0 5 0 −2 4 1 2 0 0 −1 0 1 1 −5 0 0 0 12 1 1 0 5 0 −2 0 21 2 0 1 0 −1 0 1 −5 0 0 0 1 1 12 0 0 5 0 0 0 21 2 1 0 −1 0 1 −5 0 0 1 0 0 0 0 0 0 1 0 1 12 −2 0 0 0 0 1 12 5 − 12 1 4 1 0 1 12 − 29 12 − 21 12 98 CAPÍTULO 2 Matrices invertibles y determinantes 5 = (−12) − 12 1 0 −1 0 1 −5 1 = 5 0 0 0 0 0 0 0 0 1 = 5 4 1 0 −1 0 1 −5 0 0 1 0 0 0 0 0 0 0 1 0 0 1 1 12 12 29 1 5 1 21 − 12 4 1 0 −1 0 1 −5 0 0 1 0 0 0 1 0 0 1 1 12 12 29 1 5 1 − 21 0 4 12 1 0 0 1 1 12 12 1 29 5 1 −7 1 0 1 12 29 5 64 −5 0 0 0 0 1 0 −1 0 0 1 −5 0 1 1 12 = 54 0 0 0 0 0 1 0 0 0 0 5 64 = − = −16. 4 5 20 Calcular el determinante de la siguiente matriz llevando la misma a forma triangular superior utilizando las propiedades 5 y 4 del teorema 2.8 (cfr. pág. 80). ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣ Solución Page (PS/TeX): 36 / 98, COMPOSITE 1 −2 −3 2 4 −3 −8 5 7 −18 1 2 −3 5 7 −2 3 4 −3 2 1 4 −6 1 −8 12 15 −18 16 12 3 4 −5 1 2 1 −4 0 −6 1 3 = 0 12 15 −20 0 0 16 12 −30 1 0 = 0 0 0 −5 −4 3 −20 −30 ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ −2 3 1 −4 −2 3 2 −3 −4 −5 −2 3 1 −4 0 −5 0 5 0 −21 4 −5 −7 6 13 −12 −5 5 −16 5 4 −5 −7 6 −1 0 9 −7 −44 29 SECCIÓN 2.3 = Ejercicios resueltos y ejercicios propuestos 99 4 −5 −7 6 −1 0 9 −7 −8 1 −2 3 1 −4 0 −5 0 5 0 −1 1 0 0 0 0 = − 1 0 0 0 0 −2 3 1 −4 0 −1 0 5 0 −5 = − 1 0 0 0 0 −2 3 4 −5 1 −4 −7 6 0 −1 −8 1 0 0 −31 −2 0 0 39 −5 1 −2 1 = 31 1 = 31 3 4 −5 −7 6 −8 1 9 −7 −1 0 −5 −7 6 −8 1 2 1 31 39 −5 4 0 1 −4 0 0 −1 0 0 0 0 0 0 1 −2 3 4 0 1 −4 −7 0 0 −1 −8 0 0 0 1 0 0 0 0 −5 6 1 = 233. 2 31 233 − 31 21 Calcular la matriz adjunta de la matriz ⎡ 1 A = ⎣ −i −1 ⎤ −i 1 + i 2i 2 ⎦. 1 2 + 3i ⎤ + − + La matriz de signos correspondiente es ⎣ − + − ⎦; ası́ que + − + ⎡ Solución ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ Cof(A) = ⎢ ⎢ ⎢ ⎢ ⎣ ⎡ = ⎣ Page (PS/TeX): 37 / 99, COMPOSITE −i 2i −i 2i 2 2 −1 1 1 2 + 3i − −1 2 + 3i 1 1+i 1 −i −i 1 + i − −1 2 + 3i − −1 1 1 2 + 3i 1 −i 1 1+i −i 1 + i − −i 2i 2i −i 2 2 ⎤ −8 + 4i −5 + 2i i −2 + 3i 3 + 4i −1 + i ⎦ ; 2 − 4i −1 − i 1 + 2i ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥= ⎥ ⎥ ⎥ ⎦ 100 CAPÍTULO 2 Matrices invertibles y determinantes por tanto, ⎡ −8 + 4i Adj(A) = ⎣ −5 + 2i i ⎤ −2 + 3i 2 − 4i 3 + 4i −1 − i ⎦ . −1 + i 1 + 2i 22 Calcular la inversa de la matriz A del ejercicio anterior por medio de la adjunta. Solución Al desarrollar por cofactores en la tercera fila de A se tiene det(A) = (−1)(2 − 4i) + (1)(−1 − i) + (2 + 3i)(1 + 2i) = −7 + 10i. 1 Adj(A) det(A) ⎤ ⎡ −8 + 4i −2 + 3i 2 − 4i 1 ⎥ ⎢ = ⎣ −5 + 2i 3 + 4i −1 − i ⎦ −7 + 10i i −1 + i 1 + 2i ⎡ 96 ⎤ 52 44 1 54 8 149 + 149 i 149 − 149 i − 149 + 149 i ⎢ 55 ⎥ 36 19 58 3 17 ⎥ = ⎢ ⎣ 149 + 149 i 149 − 149 i − 149 + 149 i ⎦ . A−1 = Entonces, 10 149 7 − 149 i 17 149 3 + 149 i 13 149 24 − 149 i 23 Calcular el determinante de la matriz A utilizando las propiedades 5 y 4 del teorema 2.8 (cfr. pág. 80) y desarrollar por cofactores o regla de Sarrus si ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣ Solución 1 −i −3 −1 + i 2 Page (PS/TeX): 38 / 100, COMPOSITE 1 −i −3 −1 + i 2 −1 2 i 2+i 3 −1 1 −1 2 −1 1 2 2i −i 2 + 3i −1 2+i 1 −1 2i 1−i 2 i −3i i 2 i 3 −1 −1 2 1 2 −i 2 + 3i 1 0 = 0 0 0 1 0 = 0 0 0 1 0 = i 0 0 0 1−i 2 i −3i i ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ −1 2 2 3 + 2i −2 5 −2 + i 3 − 2i 2 + 2i −4 − i −1 2 0 i 3i 2 3 + 2i 8 + 2i 6 −1 − 3i −1 2 2 3 + 2i 0 8 + 2i 1 −6i 3i −1 − 3i i 1−i −2 3+i 2 + 3i 3 − 2i 3+i −5i 2 + i −2 + 3i i 1−i −2 3+i 3i 6−i 1+i 3 − 4i 5 + 2i −2 − 2i i −2 3i 1−i 5 + 2i 1−i 3+i 6−i −4 − 3i −2 − 2i SECCIÓN 2.3 = −i 1 0 0 0 0 = −i 1 −1 0 1 0 0 0 0 0 0 −1 2 1 −6i 0 8 + 2i 2 3 + 2i 3i −1 − 3i Ejercicios resueltos y ejercicios propuestos 101 i 1−i 3i −2 5 + 2i 1−i −4 − 3i 6−i 3+i −2 − 2i i 1−i 1−i −4 − 3i 3i 6−i −4 + 2i 11 + 7i 2−i −11 + 10i 8 + 2i 3i 6−i 11 + 7i = −i 3 + 14i −4 + 2i −19 − 3i 2−i −11 + 10i ⎞ ⎫ ⎧ ⎛ (8 + 2i)(−4 + 2i)(−11 + 10i) ⎪ ⎪ ⎪ ⎪ ⎪ ⎟ ⎪ ⎜ ⎪ ⎪ ⎪ ⎪ +(3 + 14i)(2 − i)(6 − i) ⎠ ⎝ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎨ +(−19 − 3i)(11 + 7i)(3i) = −i ⎞ ⎛ ⎪ ⎪ ⎪ ⎪ (6 − i)(−4 + 2i)(−19 − 3i) ⎪ ⎪ ⎪ ⎪ ⎪ ⎜ ⎟ ⎪ ⎪ ⎪ +(11 + 7i)(2 − i)(8 + 2i) ⎪ ⎪ − ⎠ ⎝ ⎪ ⎪ ⎪ ⎪ ⎭ ⎩ +(−11 + 10i)(3 + 14i)(3i) 2 −6i 8 + 2i 3 + 14i −19 − 3i = −i ((959 − 882i) − (1064 − 675i)) = −207 + 105i. 24 Calcular la solución del sistema (1 + 2i)x − iy + z = 2 + i 2x + (3 − i)y + iz = 5 (−2 − i)x + (2 + i)y − 2z = −2 mediante la regla de Cramer. Solución 1 + 2i −i 1 2 3 − i i Δ = −2 − i 2 + i −2 −2(1 + 2i)(3 − i) + 2(2 + i) + (−2 − i)(i)(−i) = − ((3 − i)(−2 − i) + i(2 + i)(1 + 2i) + 4i) ! = −8 − 9i − (−12 + 3i) = 4 − 12i; 2+i Δ1 = 5 −2 −i 1 3−i i 2 + i −2 = (−2(2 + i)(3 − i) + 10 + 5i − 2) − (−6 + 2i) + (2 + i)2 i + 10i = −6 + 3i − (−10 + 15i) = 4 − 12i; Page (PS/TeX): 39 / 101, COMPOSITE 102 CAPÍTULO 2 Matrices invertibles y determinantes 1 + 2i 2 + i 1 2 5 i Δ2 = −2 − i −2 −2 = −10 − 20i − 4 − i(2 + i)2 − (−10 − 5i + 4 − 2i − 8 − 4i) = −10 − 23i − (−14 − 11i) = 4 − 12i; 1 + 2i −i 2 + i 2 3−i 5 Δ3 = −2 − i 2 + i −2 = (−2 − 4i)(3 − i) + 2(2 + i)2 − 5 + 10i − −(2 + i)2 (3 − i) + 5(1 + 2i)(2 + i) + 4i = −9 + 8i − (−13 + 20i) = 4 − 12i. Δ1 = 1, Δ Δ1 y = = 1, Δ Δ1 z = = 1. Δ x = Por tanto, 2.3.2 Ejercicios propuestos El lector encontrará la respuesta a los ejercicios en cursiva en el apéndice E al final del libro. Matrices invertibles y sus inversas (respuestas en páginas 1075-1076) En los ejercicios 1 a 7 encontrar, si existe, la inversa de la matriz dada mediante el método de GaussJordan. 1 12 1 0 1 −1 −2 1 1 −1 . ⎤ 1 −1 1 1 1 ⎦. 3 ⎣ 0 0 1 −1 ⎤ ⎡ 2 3 0 14 ⎣ 1 2 −1 ⎦ . 4 5 1 ⎡ ⎤ 1 1 −1 3 ⎦. 5 ⎣ 2 0 −3 1 −7 ⎤ ⎡ −1 2 3 16 ⎣ 2 −3 −1 ⎦ . 1 −1 1 ⎤ ⎡ 1 0 0 7 ⎣ 2 −1 0 ⎦ . −1 1 1 ⎡ . 8 Escriba las matrices de los ejercicios 1 a 7, donde sea posible, como producto de matrices elementales. En los ejercicios 9 a 13 utilizar las matrices inversas encontradas en los problemas 1, 2, 3, 4 y 6 para resolver los sistemas lineales. Page (PS/TeX): 40 / 102, COMPOSITE Ejercicios resueltos y ejercicios propuestos 103 SECCIÓN 2.3 9 10 1 0 1 −1 −2 1 1 −1 x y x y = 1 −2 = 5 −4 ⎤ ⎤⎡ ⎤ ⎡ −3 x 3 0 2 −1 ⎦ ⎣ y ⎦ = ⎣ −4 ⎦ . −2 z 5 1 ⎡ 2 12 ⎣ 1 4 . ⎡ . −1 13 ⎣ 2 1 ⎤ ⎤⎡ ⎤ ⎡ 1 x 2 3 −3 −1 ⎦ ⎣ y ⎦ = ⎣ −2 ⎦ . −1 z −1 1 ⎤ ⎤⎡ ⎤ ⎡ 6 x −1 1 1 1 ⎦⎣ y ⎦ = ⎣ 2 ⎦. −4 z 1 −1 a b 14 Demostrar que una matriz es invertible si y sólo si ad − bc = 0 y que en ese caso c d ⎡ 1 11 ⎣ 0 0 a b c d −1 1 = ad − bc −b a d −c . (Sugerencia: Utilizar el método de Gauss-Jordan.) Utilizar el ejercicio 14 para determinar si las matrices de los ejercicios 15 a 18 son invertibles y calcular en tal caso las matrices inversas. 15 16 −1 2 3 −8 2 5 −3 7 . 17 . 18 3 −1 6 −2 α −β β α . , α, β ∈ R − {0}. En los ejercicios 19 a 37, encontrar la inversa de la matriz dada (si existe) por el método de GaussJordan. ⎤ −1 2 2 −2 ⎦ . −3 5 ⎡ 1 19 ⎣ −1 3 ⎤ 1 −2 −1 3 2 ⎦. 20 ⎣ −2 −2 1 1 ⎡ ⎤ −2 5 3 21 ⎣ 3 −1 −2 ⎦ . −1 1 1 ⎡ ⎤ 40 19 −26 −13 ⎦ . −17 −8 ⎡ 7 22 ⎣ −4 −3 ⎡ 2 23 ⎣ 3 2 ⎤ −1 3 −1 4 ⎦ . −1 1 Page (PS/TeX): 41 / 103, COMPOSITE ⎡ ⎤ −3 2 6 3 ⎦. −1 3 ⎡ ⎤ −2 4 −10 17 ⎦ . 5 −12 5 24 ⎣ −3 4 1 25 ⎣ 5 −3 ⎡ 3 26 ⎣ 1 1 ⎡ 1 ⎢ −2 27 ⎢ ⎣ 3 4 ⎡ 2 ⎢ 1 28 ⎢ ⎣ 3 −1 ⎤ 1 0 −1 2 ⎦ . 1 1 ⎤ −2 1 3 5 −2 −5 ⎥ ⎥. −6 4 9 ⎦ −8 4 11 −3 1 2 3 −1 4 2 −1 ⎤ 2 3 ⎥ ⎥. 5 ⎦ 4 104 CAPÍTULO 2 Matrices invertibles y determinantes ⎤ −1 2 −1 1 ⎢ 3 −5 3 −3 ⎥ ⎥. 29 ⎢ ⎣ −2 4 −3 2 ⎦ 2 −4 −2 −1 ⎤ ⎡ 1 2 1 3 ⎢ 2 6 1 6 ⎥ ⎥ 30 ⎢ ⎣ 4 2 6 12 ⎦ . 7 14 7 20 ⎤ ⎡ 1 −1 2 −3 ⎢ 2 −2 1 −1 ⎥ ⎥. 31 ⎢ ⎣ −1 9 1 1 ⎦ 0 −1 1 −2 ⎤ ⎡ 1 −1 2 −3 ⎢ 2 −2 1 −1 ⎥ ⎥. 32 ⎢ ⎣ −1 −25 1 1 ⎦ −2 −1 1 −2 ⎤ ⎡ 1 1 1 5 ⎢ 1 3 2 9 ⎥ ⎥ 33 ⎢ ⎣ 1 1 −1 1 ⎦ . 1 2 1 6 ⎤ 1 1 1 1 ⎢ 1 2 −1 3 ⎥ ⎥. 34 ⎢ ⎣ 1 −1 2 1 ⎦ 1 2 1 2 ⎡ 1 −1 2 3 ⎢ 2 −1 4 6 ⎢ −2 2 −3 −6 35 ⎢ ⎢ ⎣ 3 −3 6 8 5 −5 10 15 ⎡ 1 −2 1 1 ⎢ 3 −5 3 4 ⎢ −2 −4 −1 −3 36 ⎢ ⎢ ⎣ −1 2 −1 −2 2 −4 2 2 ⎡ 0 1 0 0 0 0 0 ⎢ 2 0 −2 ⎢ 0 −1 0 ⎢ 0 3 37 ⎢ 1 0 2 ⎢ 0 0 ⎣ 0 0 0 −3 0 0 0 0 0 2 ⎡ ⎡ 4 8 −8 12 19 ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ ⎤ −1 −2 ⎥ ⎥ 3 ⎥ ⎥. 2 ⎦ −3 ⎤ 0 0 ⎥ ⎥ 0 ⎥ ⎥. 0 ⎥ 1 ⎦ 0 38 Sea ⎡ ⎤ −2 1 −2 0 ⎦ . 2 1 ⎡ ⎤ 1 2 ⎦. −1 1 A−1 = ⎣ 3 0 Hallar, si es posible, una matriz C tal que 1 AC = ⎣ −1 2 ⎤ 2 −1 1 1 2 ⎦. Encontrar, si es posible, una matriz B tal que 39 Sea A−1 = ⎣ −2 1 1 −2 ⎡ ⎤ 1 0 1 3 ⎦. ABA = ⎣ −1 2 0 1 −1 ⎡ ⎡ 1 −1 40 Sea A = ⎣ 2 −1 2 1 41 Sea A = 1 2 −1 −1 ⎤ 1 0 ⎦. Hallar, si es que existe, una matriz B tal que A2 − A = AB. 0 . Resolver la ecuación matricial 2 A X −A = Page (PS/TeX): 42 / 104, COMPOSITE 2 3 −1 1 . SECCIÓN 2.3 Ejercicios resueltos y ejercicios propuestos 105 42 Encontrar los valores de α tales que la matriz ⎡ 1 ⎣ 2 3 ⎤ −1 2 α −1 ⎦ −2 2 sea invertible. 43 Hallar los valores de α tales que la matriz ⎡ 1 ⎣ 2 −1 ⎤ 2 −1 3 α ⎦ −1 1 sea invertible. 44 Mostrar que dos matrices A, B ∈ Mm×n son equivalentes si y sólo si existen matrices elementales E1 , E2 , . . . , Ek de orden m tales que B = Ek · · · E2 E1 A. 45 Demostrar que dos matrices A, B de tamaño m × n son equivalentes si y sólo si existe una matriz cuadra- da, C, de orden m e invertible tal que B = CA. 46 Si una matriz cuadrada satisface A2 = O, demostrar que entonces A − I es una matriz invertible. ¿Cuál es su inversa? (Donde I es la matriz identidad). Los ejercicios 47 a 58 contienen afirmaciones que son falsas o verdaderas. Si la afirmación es verdadera se debe demostrar con rigor su validez y si es falsa se tiene que exhibir un contraejemplo para mostrar que no es cierta. En cada caso se supone que las matrices involucradas tienen los tamaños adecuados para efectuar las correspondientes operaciones. 47 C invertible, AC = BC ⇒ A = B. 48 C invertible, AC = CB ⇒ A = B. 49 C invertible, AC = O ⇒ A = O. 50 Si AC = B y dos de estas matrices son invertibles, entonces la tercera también es invertible. 51 Si AC = B y dos de estas matrices son singulares (no invertibles), entonces la tercera también es singular. 52 A invertible ⇒ A2 invertible. 53 A2 invertible ⇒ A invertible. 54 A3 invertible ⇒ A invertible. 55 A, B invertibles ⇒ A + B invertible. 56 A invertible ⇒ A + A invertible. 57 A invertible ⇒ A + At invertible. Page (PS/TeX): 43 / 105, COMPOSITE 106 CAPÍTULO 2 Matrices invertibles y determinantes 58 A, B no singulares (invertibles) ⇒ A + B no singular. 59 Una matriz cuadrada A tiene potencia nula si Ak = O para algún entero positivo k. (a) Dar un ejemplo de una matriz no cero de orden 2 que tenga potencia nula. (b) Probar que toda matriz invertible no puede tener potencia nula. 60 Si A es una matriz cuadrada y A2 = A, probar que si A es invertible entonces A = I. En los ejercicios 61 a 62 determinar si la matriz es invertible y en tal caso calcular la inversa mediante el método de Gauss-Jordan. ⎡ 1 ⎢ 2 ⎢ 61 ⎣ −1 + i i 1+i 2+i −2 −1 + i ⎤ −1 2 ⎥ −2 4 ⎥. 1 −2 + 2i ⎦ −i i ⎡ 6 + 2i 13 + 3i ⎢ 13 + 3i 27 + 4i ⎢ 62 ⎣ −8 + 3i −16 + 8i −2 + 4i −3 + 9i ⎤ −8 + 3i −2 + 4i −16 + 8i −3 + 9i ⎥ ⎥. 5 − 10i −1 − 6i ⎦ −1 − 6i −3 − 2i Determinantes, adjunta y regla de Cramer (respuestas en páginas 1076-1077) En los ejercicios 63 a 66, calcular los determinantes por medio de la regla de Sarrus (cfr. (2.7), pág. 78). 2 63 4 1 −1 3 −3 2 . 4 6 2 65 3 5 3 1 1 1 2 . 64 −2 2 −1 3 1 1 −2 4 . −7 2 −5 −5 −3 7 5 . 66 −3 7 5 4 En los ejercicios 67 y 68, calcular los cofactores indicados para la matriz A. ⎤ 3 7 −5 4 ⎢ −8 −3 2 3 ⎥ ⎥. 67 A = ⎢ ⎣ −2 7 6 4 ⎦ −5 9 −1 −0 ⎡ ⎤ −1 2 3 1 ⎢ 2 −1 1 1 ⎥ ⎥ 68 A = ⎢ ⎣ 3 −2 1 −3 ⎦ . 2 1 1 4 (a) c13 , (b) c31 , (c) c11 . ⎡ (a) c43 , (b) c22 , (c) c14 . 69 Escribir la generalización natural de la regla de Sarrus para una matriz 4 × 4; calcular con esta regla el determinante de la matriz ⎡ 1 ⎢ 0 A=⎢ ⎣ −1 0 ⎤ −1 2 1 1 2 3 ⎥ ⎥ 2 −1 1 ⎦ 1 −1 3 y encontrar el determinante por medio de cofactores. ¿Se obtiene el mismo resultado? Page (PS/TeX): 44 / 106, COMPOSITE SECCIÓN 2.3 Ejercicios resueltos y ejercicios propuestos 107 En los ejercicios 70 a 77, calcular el determinante por medio de cofactores. 2 −1 70 1 2 0 −1 3 3 1 4 0 −1 1 2 1 −1 3 −1 71 2 1 0 1 1 1 −4 0 72 1 0 2 −1 2 1 1 3 0 2 0 5 4 1 . . 1 3 1 1 . 1 −1 2 3 73 1 2 3 4 2 −1 1 −3 2 −2 . −1 1 −1 −1 1 2 74 2 0 0 0 0 −1 3 −1 2 2 4 −2 3 1 1 0 5 . −1 3 0 2 1 −1 1 2 −3 0 0 75 0 0 0 2 −1 −1 −1 4 2 2 2 0 3 3 5 0 0 2 −1 0 0 1 1 0 0 5 3 1 −2 76 3 4 −7 0 1 −1 2 3 2 3 6 1 2 2 . 3 2 0 0 −1 −2 6 1 0 . 0 3 2 0 2 1 2 0 0 0 0 −1 1 0 0 0 0 0 3 1 0 77 0 0 0 2 0 0 0 0 0 1 0 0 0 0 2 0 0 0 0 2 0 0 0 0 −1 −1 1 0 0 0 0 2 3 1 . 78 Las matrices de los ejercicios 75 y 77 tienen componentes nulas excepto en algunas de las entradas de una submatriz R de tamaño r × r y en las entradas de otra submatriz S de tamaño s × s, cuyas diagonales están en la diagonal de la matriz original de tamaño n × n y donde, además, r + s = n. Demostrar que si este es el caso, entonces det(A) = det(R) det(S). 79 Establecer y demostrar un resultado análogo al del ejercicio anterior, pero suponiendo que las submatri- ces tienen sus contradiagonales en la contradiagonal de la matriz original. 80 Establecer y demostrar generalizaciones de los dos ejercicios precedentes cuando el número de subma- trices es mayor a dos. Utilizar los ejercicios 78, 79 y 80 para calcular los determinantes de las matrices contenidas en los ejercicios 81 y 82. ⎤ ⎡ 1 2 0 0 0 0 0 0 0 0 0 0 0 0 ⎥ ⎢ 3 1 ⎥ ⎢ 2 3 0 0 0 ⎥ ⎢ 0 0 −1 ⎥ ⎢ 2 −1 1 0 0 0 ⎥ ⎢ 0 0 81 ⎢ ⎥. 3 −3 2 0 0 0 ⎥ ⎢ 0 0 ⎥ ⎢ 0 0 0 1 −1 2 ⎥ ⎢ 0 0 ⎣ 0 0 0 0 0 0 2 −1 ⎦ 0 0 0 0 0 0 2 1 Page (PS/TeX): 45 / 107, COMPOSITE 108 CAPÍTULO 2 Matrices invertibles y determinantes ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ 82 ⎢ ⎢ ⎢ ⎢ ⎣ 0 0 0 0 0 0 0 0 0 0 1 −2 2 2 1 −1 ⎤ 0 0 0 1 −1 2 0 0 0 0 −2 2 ⎥ ⎥ 0 0 0 0 0 3 ⎥ ⎥ 0 −1 −1 0 0 0 ⎥ ⎥. 0 2 1 0 0 0 ⎥ ⎥ 2 0 0 0 0 0 ⎥ 0 0 0 0 0 0 ⎦ 0 0 0 0 0 0 En los ejercicios 83 a 90, calcular el determinante utilizando la propiedad 5 del teorema 2.8; proceder como en los ejercicios resueltos 18 y 19 (cfr. pág. 96). 2 4 6 −4 2 −1 2 3 83 . −3 1 2 1 −2 1 1 1 1 1 2 2 . 3 2 1 2 2 −1 1 2 85 5 −2 1 4 −1 1 2 1 . 1 −3 2 −1 2 1 84 3 −2 5 4 −1 1 5 1 −2 11 2 3 87 3 2 3 4 2 3 −1 2 3 −2 2 3 88 −1 1 2 −1 2 1 3 −1 89 2 3 2 1 −1 2 4 −1 1 −1 1 1 2 . 86 3 −2 1 3 2 2 −1 3 3 −2 1 3 2 3 5 3 2 −1 2 4 −2 1 2 3 3 1 1 1 −1 1 2 2 1 −1 3 4 3 2 1 −1 4 −1 −1 3 2 −2 90 3 −5 −3 2 1 −1 −2 2 −4 . 2 1 1 2 1 5 7 −2 −2 5 3 . 3 −1 2 2 1 3 7 −2 −2 −6 4 2 13 . 2 4 18 1 5 3 −2 −4 3 En los ejercicios 91 a 96, A es una matriz de tamaño 3 × 3 con det(A) = −4. 91 Calcular det(A2 ). 92 Encontrar det(4A). 93 Hallar det(A−1 ). 94 Calcular det(Am ), donde m es cualquier entero positivo. 95 Hallar det(A + A). 96 Calcular det(At ). 97 Sean α1 , α2 y α3 números reales. Mostrar que 1 α1 1 α2 1 α 3 Page (PS/TeX): 46 / 108, COMPOSITE α12 α22 = (α2 − α1 )(α3 − α1 )(α3 − α2 ). α2 3 . SECCIÓN 2.3 Ejercicios resueltos y ejercicios propuestos 109 98 Sean αi , i = 1, . . . , n, números reales. Demostrar que 1 α1 α12 ··· 1 .. . α2 .. . α22 .. . ··· αn αn2 ··· 1 .. α1n−1 α2n−1 .. = ∏(α j − αi ). . i< j n−1 αn . El sı́mbolo ∏i < j (α j − αi ) significa el producto de todos los posibles factores (α j − αi ) con j > i, cuando i, j varı́an entre 1 y n. A este valor se le conoce como el determinante de Vandermonde. 99 Sean A una matriz 3 × 3 y α ∈ R, probar que det(αA) = α3 det(A). 100 Sean A una matriz n × n y α ∈ R, probar que det(αA) = αn det(A). 101 Sea A= a b c d , mostrar utilizando el teorema 2.9, que A es invertible si y sólo si ad − bc = 0 y que en tal caso 1 d −b −1 . A = a ad − bc −c 102 Utilizar el ejercicio precedente para calcular (si existe): (a) −1 2 2 1 −1 , (b) 2 4 −3 2 −1 (c) 3 6 1 2 −1 . En los ejercicios 103 a 106, calcular la inversa, si existe, de la matriz dada utilizando el método de la adjunta (teorema 2.9, pág. 83). ⎡ 1 103 A = ⎣ 3 2 ⎤ −1 2 −2 2 ⎦ . 1 1 ⎤ 3 −1 2 1 2 ⎦. 104 A = ⎣ −2 3 −1 4 ⎡ ⎤ 1 2 −1 3 ⎦. 105 A = ⎣ 2 2 3 4 2 ⎡ ⎤ 2 −1 1 0 2 ⎦. 106 A = ⎣ 0 1 −1 1 ⎡ 107 Si A es una matriz cuadrada singular (no invertible) y B es una matriz cuadrada del mismo orden, demostrar que AB es también una matriz singular. 108 Demostrar que una matriz cuadrada es invertible si y sólo si su adjunta también es una matriz invertible y que además se tiene, entonces, (Adj(A))−1 = (1/|A|)A. 109 Probar que si A ∈ Mn , entonces |Adj(A)| = |A|n−1 . Page (PS/TeX): 47 / 109, COMPOSITE 110 CAPÍTULO 2 Matrices invertibles y determinantes 110 Mostrar que si A es una matriz cuadrada de orden n > 1, entonces Adj(Adj(A)) = |A|n−2 A. En los ejercicios 111 a 114, determinar los valores de λ ∈ R que hacen que la matriz sea singular (no invertible). 111 λ+3 1 2 λ+2 ⎡ 1−λ ⎢ 112 ⎣ 0 0 ⎡ 3 2+λ −1 2 ⎢ 113 ⎣ λ + 2 λ−3 . ⎤ 2 ⎥ 1 ⎦. 2−λ ⎡ 0 ⎢ 114 ⎣ 4 − λ 4 ⎤ −1 ⎥ 0 ⎦. 0 1 λ 2 0 3 −λ ⎤ 2−λ ⎥ −3 ⎦ . 2 Resolver los sistemas de los ejercicios 115 a 117, mediante la regla de Cramer (teorema 2.11, pág. 84). 115 x1 − 3x2 = −7 2x1 − x2 = 116 4 2x1 − 3x2 + x3 = 4 4x1 − 5x2 + 3x3 = 4 −3x1 + 2x2 − 3x3 = 1 x1 − x2 + x3 = −2 2x1 − x2 + 3x3 = −9 5x1 − 3x2 + 4x3 = −11 117 118 Hallar la componente x2 de la solución del sistema lineal. x1 + x2 − 3x3 + x4 2x1 + x2 + 2x4 x2 − 6x3 − x4 3x1 + x2 + x4 = = = = −2 3 −8 3 119 Hallar la componente x4 de la solución del sistema del lineal. x1 − x2 + x3 − x4 x1 + 2x2 − x4 x1 − 3x2 + 2x4 −x1 + 2x2 − 3x3 + x4 = = = = 2 −2 9 −5 En los ejercicios 120 a 124, calcular el determinante de la matriz dada. ⎡ i ⎢ 120 ⎣ 2 2−i ⎡ −4i ⎢ 121 ⎣ 1 + i 3 + 2i ⎡ ⎢ ⎢ 122 ⎢ ⎣ 1 −1 4i −3 + i 2+i 3 + 2i 4+1 2 −2 −2 + i 1+i 1−i −2i 2i Page (PS/TeX): 48 / 110, COMPOSITE ⎤ −i ⎥ 1+i ⎦. 1 ⎡ ⎢ ⎢ ⎢ ⎢ 123 ⎢ ⎢ ⎢ ⎢ ⎣ ⎤ 1 ⎥ 1 ⎦. 2 2 1 2 2i 5 2i −4i 1 + 6i ⎤ ⎥ ⎥ ⎥. ⎦ ⎡ ⎢ ⎢ ⎢ 124 ⎢ ⎢ ⎣ i 0 0 0 0 0 −i 0 0 0 0 0 1 0 0 0 0 0 1 i 0 0 0 2 −i 0 0 0 0 1 1 i i 3i −2 2i 1+i 1−i −2 −2i 0 0 0 1 + 2i 4 −1 2i −3i −2 3 1 −2 −1 i 1 2 4 4i 1 3 1 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥. ⎥ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎥ ⎥. ⎥ ⎦ II Espacios vectoriales, producto interior, normas, valores y vectores propios Page (PS/TeX): 1 / 111, COMPOSITE Page (PS/TeX): 2 / 112, COMPOSITE 3 Espacios vectoriales En este capı́tulo estudiaremos el siguiente concepto clave en álgebra lineal. Pero antes, motivaremos las ideas principales por medio de un repaso de conceptos elementales del plano cartesiano. Después extenderemos estos conceptos de manera natural a espacios de vectores más generales para, posteriormente, continuar con un estudio abstracto y completo de estos entes que llamaremos espacios vectoriales. 3.1 Geometrı́a de los espacios Rn En esta sección el objetivo fundamental es generalizar las caracterı́sticas geométricas esenciales que poseen los vectores en el plano cartesiano y en el espacio de tres dimensiones a espacios cuyos vectores tienen mayor número de coordenadas, los llamados espacios Rn . Para ello comenzamos, en la primera subsección, con un repaso de estas caracterı́sticas en el plano cartesiano. Bien pudimos emplear como modelo para este propósito el espacio tridimensional pero, por razones de sencillez en cuanto a los bosquejos geométricos, hemos preferido utilizar el plano cartesiano; sin embargo, como el lector podrá constatar fácilmente por sı́ mismo, todo lo que hagamos en el siguiente apartado para el plano cartesiano es completamente válido cuando se traslada al espacio de tres dimensiones. 3.1.1 El plano cartesiano R2 Definición 3.1 Definimos R2 = {(x, y) | x, y ∈ R}. Geométricamente, R2 es el plano cartesiano con el que el lector está familiarizado de sus cursos elementales y que ilustramos en la figura 3-1. Las caracterı́sticas esenciales, algebraicas y geométricas, de R2 son: 1. Igualdad: Si u = (x1 , y1 ),v = (x2 , y2 ) ∈ R2 , u =v ⇔ x1 = x2 y y1 = y2 . 2. Suma: Si u = (x1 , y1 ), v = (x2 , y2 ), u +v = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ). 113 Page (PS/TeX): 3 / 113, COMPOSITE 114 CAPÍTULO 3 Espacios vectoriales R2 u = (x, y) y x Figura 3-1 • R2 , plano donde cada punto (vector) u se localiza mediante un par ordenado (x, y). R2 u +v y1 + y2 u y1 v y2 x1 Figura 3-2 vectores. • x1 + x2 x2 La suma de dos vectores en el plano es la diagonal del paralelogramo que se genera a partir de esos 3. La suma de dos vectores de R2 se obtiene, geométricamente, por la diagonal del paralelogramo como se indica en la figura 3-2. 3. Producto de un escalar por un vector. Si λ ∈ R y u = (x, y) ∈ R2 , λu = (λx, λy). R2 λu (λ > 1) y u = (x, y) λu, (0 < λ < 1) x λu (λ < 0) Figura 3-3 • Producto de un escalar por un vector. Page (PS/TeX): 4 / 114, COMPOSITE Geometrı́a de los espacios Rn SECCIÓN 3.1 115 Ası́, el vector λu es un vector paralelo a u con un cambio de escala y/o de sentido, tal como queda ilustrado en la figura 3-3. 4. Norma o magnitud de un vector. Si u = (x, y), se define y denota la norma de u como u = x2 + y2 . La norma representa la magnitud o la longitud del vector u (véase la figura 3-4). R2 y u = (x, y) u x Figura 3-4 • La norma o magnitud de un vector es la longitud del vector. 5. Distancia entre vectores. Si u y v son vectores de R2 , se define la distancia entre ellos como la magnitud del vector v −u; esto es, d(v,u) = v −u . Note que el vector v −u es el vector que sumado a u da como resultado el vector v tal como se ilustra en la figura 3-5, y que la distancia de u a v es la misma que la distancia de v a u; es decir, d(u,v) = d(v,u). u v − u v v −u Figura 3-5 • La distancia entre vectores es la magnitud de la diferencia entre ellos. 6. Producto interior o escalar. El producto interior o escalar (o producto punto) de u con v, como el lector recordará de sus cursos de fı́sica, está dado por Page (PS/TeX): 5 / 115, COMPOSITE 116 CAPÍTULO 3 Espacios vectoriales u v θ θ cos u Figura 3-6 • El producto punto de dos vectores es la magnitud de la proyección del primer vector sobre el segundo multiplicada por la norma de este último. u ·v = u v cos θ (3.1) donde θ es el ángulo entre u y v; y es la magnitud de la proyección de u sobre v multiplicada por la norma de v (véase la figura 3-6). Mediante el producto escalar también se define el trabajo fı́sico. Observe que todas las caracterı́sticas anteriores del espacio R2 están perfectamente determinadas algebraicamente por las coordenadas (x, y) de los vectores correspondientes, excepto el producto punto. Nos proponemos dar una fórmula alternativa para calcular el producto punto que no dependa de conocer el ángulo entre los vectores; especı́ficamente, deseamos hallar una relación del producto interior que dependa exclusivamente de las componentes de los vectores. Para ello necesitaremos de la llamada ley de los cosenos, conocida por el lector de sus cursos de trigonometrı́a, que recordamos en la figura 3-7. C b A a c B c2 = a2 + b2 − 2ab cos(C) Figura 3-7 • Si se representan por letras mayúsculas las magnitudes de los ángulos y por letras minúsculas las magnitudes de los correspondientes lados opuestos a cada ángulo, entonces se cumple la relación c2 = a2 + b2 − 2ab cosC, llamada ley de los cosenos, para cualquier triángulo dado. Ahora sean u = (x1 , y1 ) y v = (x2 , y2 ) un par de vectores en R2 . De la figura 3-8 y la ley de los cosenos tenemos que v −u2 = u2 + v2 − 2u v cos θ. Page (PS/TeX): 6 / 116, COMPOSITE SECCIÓN 3.1 u Geometrı́a de los espacios Rn 117 u − v u v θ v Figura 3-8 • Luego, 2u v cos θ = u2 + v2 − v −u2 = x12 + y21 + x22 + y22 − [(x2 − x1 )2 + (y2 − y1 )2 ] = x12 + y21 + x22 + y22 − [x22 − 2x1 x2 + x12 + y22 − 2y1 y2 + y21 ]. De donde 2u v cos θ = 2(x1 x2 + y1 y2 ) y, por tanto, u ·v = x1 x2 + y1 y2 (3.2) es la relación buscada. P Nota 3.1 Hola 1. Observe que u = √ x2 + y2 = u ·u. 2. Por otra parte, ya que −1 ≤ cos θ ≤ 1, ∀θ ∈ R, se tiene |u ·v| ≤ u v, a la cual se le llama desigualdad de Schwarz. 3. También, de (3.1) (cfr. pág. 116), el ángulo entre dos vectores u, v no nulos está dado por: u ·v θ = arc cos u v (3.3) 3.1.2 Interpretación geométrica del determinante Aunque el determinante es un concepto útil asociado a las matrices, para el estudio de éstas y de otros aspectos del álgebra lineal, el determinante tiene una interpretación geométrica sumamente importante, Page (PS/TeX): 7 / 117, COMPOSITE 118 CAPÍTULO 3 Espacios vectoriales S3 u S2 S1 v h θ x Figura 3-9 • la cual se puede usar, por ejemplo, en la teorı́a de integración, especı́ficamente en la fórmula de cambio de variables para integrales y en el cálculo de volúmenes y áreas. Es en estas dos últimas en las cuales enfocaremos nuestra atención. Sean u = (a, b), v = (c, d) dos vectores de R2 . Calculemos el área S del paralelogramo generado por estos vectores. Entonces, de acuerdo con la figura 3-9, S = 2S1 + S2 (porque S1 = S3 ). Ahora bien, S1 = (xh)/2 y h = u sen θ. Entonces, S =2 xh + S2 2 = xh + S2 = xu sen θ + S2 = xu sen θ + (v − x)h = xu sen θ + hv − xh = xu sen θ + hv − xu sen θ = u v sen θ. Puesto que sen2 θ = 1 − cos2 θ, S2 = u2 v2 sen2 θ = u2 v2 (1 − cos2 θ) = u2 v2 − u2 v2 cos2 θ = u2 v2 − (u ·v)2 = a2 + b2 c2 + d 2 − (ac + bd)2 = a2 c2 + a2 d 2 + b2 c2 + b2 d 2 − a2 c2 − 2acbd − b2 d 2 = a2 d 2 + b2 c2 − 2acbd = (ad − bc)2 , de donde S = |ad − bc| . Page (PS/TeX): 8 / 118, COMPOSITE Geometrı́a de los espacios Rn SECCIÓN 3.1 119 z u w v y x Figura 3-10 • El volumen del paralelepı́pedo generado por los vectores u, v y w es el valor absoluto del determinante de la matriz que tiene como filas (o columnas) a estos vectores. Es decir, S = |det (M)| , donde M es la matriz que tiene como filas (o columnas) a los vectores u y v. De manera análoga, el determinante de una matriz 3 × 3 (o mejor dicho, su valor absoluto) será el volumen del paralelepı́pedo determinado por los vectores fila de la propia matriz, como se ilustra en la figura 3-10. 3.1.3 El espacio vectorial Rn , geometrı́a y propiedades algebraicas En esta subsección nos proponemos generalizar las propiedades algebraicas y geométricas de R2 a espacios de mayor “dimensión”. Es evidente que, tanto en la teorı́a como en la práctica, surgen problemas que involucran un número de variables mayor a dos (en algunos problemas de importancia netamente aplicada, este número puede ser de hasta 20 000). Por tanto, es necesario estudiar aquellos conjuntos cuyos elementos son n-adas ordenadas y tienen cualidades análogas a las de los vectores del plano de coordenadas. Definición 3.2 Sea n un número entero positivo. Se define el espacio Rn como Rn = {u = (x1 , x2 , . . . , xn ) | x1 , x2 , . . . , xn ∈ R} . A los elementos de Rn también les llamaremos vectores. Al número xi se le dice la i-ésima componente o coordenada de u. Y al vector u lo denotaremos, indistintamente, como u = (x1 , x2 , . . . , xn ) o como la matriz columna ⎡ ⎤ x1 ⎢x2 ⎥ ⎢ ⎥ u = ⎢ . ⎥ . ⎣ .. ⎦ xn Page (PS/TeX): 9 / 119, COMPOSITE 120 CAPÍTULO 3 Espacios vectoriales P Nota 3.2 Cuando se emplea la notación u = (x1 , x2 , . . . , xn ), se acostumbra decir que (x1 , x2 , . . . , xn ) es una n-ada ordenada; por ejemplo, (x1 , x2 , x3 ) es una trı́ada ordenada. Definición 3.3 Sean u,v ∈ Rn , con u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) y λ ∈ R. 1. Igualdad. u =v ⇔ xi = yi para cada i = 1, 2, . . . , n. 2. Suma de vectores. Se denota y define la suma de u con v como u +v = (x1 + y1 , x2 + y2 , . . . , xn + yn ). 3. Producto de un escalar por un vector. Se denota y define el producto del escalar λ con el vector u como λu = (λx1 , λx2 , . . . , λxn ). 4. Producto escalar. El producto escalar (o producto punto o producto interior) de u con v se denota y define como n u ·v = ∑ xi yi = x1 y1 + · · · + xn yn . i=1 5. Norma de un vector. Se define la norma o magnitud del vector u por u = 1/2 n ∑ xi2 i=1 1/2 = x12 + · · · + xn2 . 6. Distancia entre vectores (puntos) en Rn . Se define la distancia entre los vectores u y v como d(u,v) = u −v . P Nota 3.3 Hola 1. La relación entre el producto interior y la norma vuelve a ser, como en el caso de R2 , u = (u ·u)1/2 . (3.4) 2. Existen otras formas de medir magnitudes de vectores; sin embargo, la históricamente más común es la que hemos usado hasta ahora dada por (3.4). A esta magnitud se le acostumbra llamar norma euclidiana o norma canónica del vector u por su origen geométrico y natural, respectivamente. 3. Dado que los vectores en Rn los hemos denotado también como matrices columna, el producto punto se puede ver como producto de matrices; esto es, u ·v = (u)tv. En el lado izquierdo de la precedente igualdad los vectores están escritos con la notación de n-adas ordenadas y en el lado derecho están escritos con la notación de matrices columna. Page (PS/TeX): 10 / 120, COMPOSITE SECCIÓN 3.1 Geometrı́a de los espacios Rn 121 Ası́, vemos que todas las definiciones dadas arriba son generalizaciones directas de la manera en que se opera, se mide y se hace geometrı́a y álgebra en el plano de coordenadas R2 . También debe notarse la importancia que tuvo dar una fórmula alternativa para el producto interior que dependiera sólo de las componentes de los vectores (cfr. fórmula (3.2), pág. 117); de no ser ası́, no podrı́amos haber generalizado el producto punto al no tener una forma de “medir ángulos” por medios fı́sicos en estos espacios cuando n > 3. Sin embargo, el concepto de ángulo entre vectores sı́ lo podremos extender a los espacios Rn con n > 3 mediante la desigualdad de Schwarz que veremos más adelante. Ejemplo 3.1 Si n = 3, R3 es el espacio usual de tres dimensiones donde “habitamos”. En este espacio necesitamos de tres números reales (x1 , x2 , x3 ) [o, como tradicionalmente se escribe, (x, y, z)] para determinar la posición de un punto, como hacemos patente en la figura 3-11. z R3 c u = (a, b, c) b y a x Figura 3-11 • En el espacio R3 todo punto (vector) u se localiza mediante una trı́ada ordenada (a, b, c); donde las dos primeras componentes (a, b) son la proyección vertical de este punto sobre el plano x, y y la tercera, c, es la proyección horizontal de este punto sobre el eje z. P Nota 3.4 Es común en textos de matemáticas convenir que cuando se hacen diagramas del espacio tridimensional R3 , los ejes x, y y z se coloquen como en la figura 3-11. Usted puede recordar esta convención (algunas veces llamada regla de la mano izquierda) colocando su mano izquierda con la palma frente a usted, abriendo los dedos medio, ı́ndice y pulgar (cerrando los dedos anular y meñique); apuntando el dedo medio hacia usted, el ı́ndice hacia su derecha y el pulgar hacia arriba. Ası́, sus dedos señalarán las direcciones positivas del eje x (dedo medio), eje y (dedo ı́ndice) y eje z (dedo pulgar). Ejemplo 3.2 Si u = (1, −2, 4) y v = (3, 6, 0), entonces u,v ∈ R3 y: 1. u +v = (4, 4, 4). √ √ √ √ 2. − 2u = (− 2, 2 2, −4 2). 3. u ·v = (1)(3) + (−2)(6) + (4)(0) = 3 − 12 + 0 = −9. √ 4. u = 12 + (−2)2 + 42 = 21. Page (PS/TeX): 11 / 121, COMPOSITE 122 CAPÍTULO 3 Espacios vectoriales Ejemplo 3.3 Si u = (−1, 2, 5, 9),v = (2, −4, 0, 3) ∈ R4 : 1. u ·v = −2 − 8 + 27 = 17. 2. u + (−2)v = (−1, 2, 5, 9) + (−4, 8, 0, −6) = (−5, 10, 5, 3). √ 3. v = (4 + 16 + 9)1/2 = 29. Ejemplo 3.4 Calcular la distancia entre los vectores: 1. u = (1, −2, 1) y v = (−2, 1, 1). 2. u = (−1, 0, 2, 3, 1) y v = (1, 1, −4, 2, 0). Solución 1. d(u,v) = u −v = (1, −2, 1) − (−2, 1, 1) = (3, −3, 0) √ = 3 2. 2. d(u,v) = u −v = (−1, 0, 2, 3, 1) − (1, 1, −4, 2, 0) = (−2, −1, 6, 1, 1) √ = 43. A continuación enunciamos, sin demostrar, las propiedades algebraicas esenciales de Rn . Utilizando la conmutatividad, asociatividad, etc. de los números reales y la definición de igualdad de vectores, el lector puede fácilmente verificarlas. De hecho, como veremos más adelante, dichas propiedades también se pueden observar en otros conjuntos1 que llamaremos espacios vectoriales. Propiedades del espacio vectorial de Rn Si u,v,w ∈ Rn y λ, β ∈ R, entonces: 1. u +v ∈ Rn . (La suma es cerrada) 2. u + (v + w) = (u +v) + w. (Asociatividad de la suma) 3. u +v =v +u. (Conmutatividad de la suma) 4. Si 0Rn = (0, 0, . . . , 0), 0Rn ∈ Rn y u +0Rn = u, ∀u ∈ Rn . (Existencia del neutro aditivo) n 5. Dado u = (x1 , x2 , . . . , xn ) ∈ Rn , existe −u ∈ Rn tal que u + (−u) = 0Rn . De hecho, −u = (−x1 , −x2 , . . . , −xn ). (Existencia del inverso aditivo) 6. λu ∈ Rn . (El producto por un escalar es cerrado) 7. λ(βu) = (λβ)u. (Asociatividad del producto con escalares) 11 Compare con las propiedades 1(a) a 1( j) de la subsección 1.1.4, páginas 9 y 10. Page (PS/TeX): 12 / 122, COMPOSITE SECCIÓN 3.1 Geometrı́a de los espacios Rn 123 8. (λ + β)u = λu + βu. (Distributividad del producto con respecto a la suma de escalares) 9. λ(u +v) = λu + λv. (Distributividad del producto con respecto a la suma de vectores) 10. 1u = u, ∀u ∈ Rn . (Preservación de la escala) El producto escalar tiene las siguientes importantes propiedades que son sencillas de probar y cuya demostración se deja al lector. Propiedades del producto punto Sean u,v,w ∈ Rn y λ ∈ R, entonces: 1. u ·v =v ·u. (Simetrı́a) 2. u · (λv) = λ (u ·v). (Homogeneidad) 3. u · (v + w) = u ·v +u · w. (Distributividad) 4. u ·u ≥ 0 y u ·u = 0 ⇔ u = 0. (Positividad) 3.1.4 La desigualdad de Schwarz, ángulos entre vectores y ortogonalidad Es claro que la generalización natural de ángulo entre vectores en Rn debe estar dada por la fórmula2 u ·v . θ = arc cos u v Pero, para que se pueda evaluar la función arc cos, es necesario que −1 ≤ u ·v ≤1 u v lo cual evidentemente equivale a |u ·v | ≤ u v. Afortunadamente, esta desigualdad es cierta y la probaremos en el teorema 3.1. Estaremos entonces facultados para generalizar el concepto de ángulo entre vectores en Rn para n > 3. Para poder demostrar dicha desigualdad necesitamos de la sencilla proposición que damos a continuación (lema 3.1). Lema 3.1 Si a, b son cualquier par de números reales, entonces 2ab ≤ a2 + b2 . 12 Cfr. (3.3), página 117. Page (PS/TeX): 13 / 123, COMPOSITE (3.5) 124 CAPÍTULO 3 DEMOSTRACIÓN Espacios vectoriales Q En efecto, 0 ≤ (a − b)2 = a2 − 2ab + b2 ; de donde 2ab ≤ a2 + b2 . Q Teorema 3.1 (Desigualdad de Schwarz) Si u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) ∈ Rn , entonces |u ·v | ≤ u v DEMOSTRACIÓN (3.6) Q Si u = 0 o v = 0, claramente (3.6) es cierta. Supongamos que u,v = 0; sea i ∈ {1, 2, . . . , n} arbitrario y pongamos xi yi a= yb= u v en el lema 3.1. Entonces, por (3.5), para todo i = 1, 2, . . . , n se tiene 2 2 xi xi yi yi ≤ 2 + . u v u v Luego, n n xi yi 2∑ ≤∑ u v i=1 i=1 xi u 2 yi + v 2 ; esto es, 2 n 2 n n 2 xi xi ∑xi yi ≤ ∑ u + ∑ u , u v i=1 i=1 i=1 que equivale a n 2 xi yi ∑ u v i=1 ≤ 1 n 1 i=1 = = n ∑ xi2 + v2 ∑ y2i u2 1 u2 2 i=1 u2 + 1 v2 v2 de donde n ∑xi yi ≤ u v . i=1 Con lo que hemos probado u ·v ≤ u v ∀u,v Entonces, por la homogeneidad del producto punto y la precedente desigualdad, tenemos − (u ·v) = (−u) ·v ≤ −u v = u v ; Page (PS/TeX): 14 / 124, COMPOSITE (3.7) Geometrı́a de los espacios Rn SECCIÓN 3.1 125 que significa u ·v ≥ − u v (3.8) De (3.7) y (3.8) se deduce ∀u,v ∈ Rn . |u ·v| ≤ u v Q Ahora sı́ podemos definir, con base en la desigualdad de Schwarz (3.6), el ángulo entre vectores de n componentes; que es una generalización del concepto de ángulo entre vectores en el espacio de tres dimensiones y en el plano cartesiano. Definición 3.4 Si u,v ∈ Rn − {0Rn }, se define el ángulo entre estos vectores como: u ·v θ = arc cos u v (3.9) Ejemplo 3.5 Hallar el ángulo θ entre los vectores (1, 2, 0, 2) y (−3, 1, 1, 5) de R4 . Solución (1, 2, 0, 2) · (−3, 1, 1, 5) θ = arc cos √ 2 2 1 + 2 + 02 + 22 (−3)2 + 12 + 12 + 52 1 9 = arc cos . = arc cos 3·6 2 Ası́, θ = 60◦ . Una vez que se ha definido el concepto de ángulo entre vectores, se puede determinar cuándo un par de éstos son perpendiculares; la manera de generalizar esta idea a Rn la hacemos patente a continuación. Notemos, de (3.9), que el ángulo entre dos vectores es de 90◦ si y sólo si su producto punto es cero. Definición 3.5 . 1. Dos vectores u, v ∈ Rn son ortogonales (perpendiculares) si u ·v = 0 ; es decir, si el ángulo entre ellos es de 90◦ . Cuando u y v sean ortogonales lo denotaremos por u ⊥v. 2. u y v son paralelos (u v) si u ·v = ±u v, lo que equivale a que el ángulo entre ellos sea de 0◦ o 180◦ . Teorema de Pitágoras Quizá uno de los más importantes y conspicuos resultados de las matemáticas, conocido y usado en forma empı́rica desde el inicio de la civilización (Babilonia, Egipto), luego convertido en una afirmación general y probado en forma completamente rigurosa por los griegos, es el teorema de Pitágoras. Page (PS/TeX): 15 / 125, COMPOSITE 126 CAPÍTULO 3 Espacios vectoriales Se enseña en educación elemental y, a partir de ahı́, se hace uso sistemático de él. Sin embargo, la mayor parte de la gente que usa este teorema desconoce alguna demostración porque se requieren varios resultados elementales de geometrı́a para poder establecer una prueba rigurosa. A continuación daremos una demostración muy simple de este importante teorema; de hecho es trivial, pues el material que hemos desarrollado hasta aquı́ nos proporciona una herramienta algebraica muy potente para atacar este problema geométrico transformándolo en un sencillo cálculo algebraico. Teorema 3.2 (Teorema de Pitágoras) Sean u,v ∈ Rn un par de vectores ortogonales. Entonces, u +v2 = u2 + v2 . Antes de dar la demostración de este teorema explicaremos su relación con el teorema de Pitágoras que el lector conoce, pues en apariencia no hay una relación directa. Sin embargo, si particularizamos al caso n = 2 del plano cartesiano R2 , resulta que u +v es la longitud de la hipotenusa del triángulo rectángulo, cuyos catetos tienen longitudes u y v, como se ilustra en la figura 3-12. + u v v u Figura 3-12 • El teorema de Pitágoras establece que en cualquier triángulo rectángulo la suma de los cuadrados de los catetos es igual al cuadrado de la hipotenusa. DEMOSTRACIÓN Q Dado que u ⊥v, se tiene u ·v = 0; luego u +v2 = (u +v) · (u +v) = u ·u +u ·v +v ·u +v ·v = u2 + 2u ·v + v2 = u2 + 0 + v2 = u2 + v2 . Q Propiedades de la norma en Rn Uno de los conceptos más importantes en matemáticas es el de proximidad; y la forma de medir la proximidad entre puntos es por medio de la distancia. En R, el valor absoluto es la herramienta usada para medir la distancia entre números reales. Recordemos que el valor absoluto tiene las siguientes propiedades: 1. |x| ≥ 0 ∀x ∈ R. 2. |x| = 0 ⇔ x = 0. Page (PS/TeX): 16 / 126, COMPOSITE SECCIÓN 3.1 Geometrı́a de los espacios Rn 127 3. |λx| = |λ| |x|. 4. |x + y| ≤ |x| + |y|. (Desigualdad triangular) Entonces la distancia entre un par de números x y y se define como el valor absoluto de su diferencia. En Rn , la norma es la manera natural para definir proximidad entre vectores por medio de la distancia entre ellos. A partir de las propiedades 1, 2, 3 y 4 del valor absoluto, enunciadas arriba, se pueden deducir todas las demás propiedades que tiene el valor absoluto. De hecho, estas mismas propiedades las tiene la norma en Rn y cualquier otra propiedad de la norma también se puede deducir a partir de éstas. Teorema 3.3 (Propiedades de la norma en Rn ) La norma en Rn tiene las siguientes propiedades: ∀u ∈ Rn . 2. u = 0 ⇔ u = 0Rn . 1. u ≥ 0 3. λu = |λ| u ∀u ∈ Rn , ∀λ ∈ R. 4. u +v ≤ u + v DEMOSTRACIÓN ∀u,v ∈ Rn . (Desigualdad triangular) Q 1. Si u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces 1/2 n ∑ u = i=1 xi2 ≥ 0. 2. Si u = 0Rn , claramente u = 0. Supongamos inversamente que u = (x1 , x2 , . . . , xn ) ∈ Rn es tal que u = 0, entonces n ∑ xi2 = 0; i=1 de donde xi2 = 0 ∀i = 1, 2, . . . , n; y por tanto u = 0Rn . 3. Si u = (x1 , x2 , . . . , xn ) ∈ Rn y λ ∈ R, entonces λu = (λx1 , λx2 , . . . , λxn ) 1/2 n ∑(λxi )2 = i=1 n ∑ = i=1 1/2 λ2 xi2 = λ 2 n ∑ i=1 = |λ| 1/2 xi2 n ∑ i=1 1/2 xi2 = |λ| u . Page (PS/TeX): 17 / 127, COMPOSITE 128 CAPÍTULO 3 Espacios vectoriales 4. Si u,v ∈ Rn , entonces u +v2 = (u +v) · (u +v) = u ·u +u ·v +v ·u +v ·v = u2 + 2 (u ·v) + v2 . De la desigualdad de Schwarz se tiene que u ·v ≤ u v y por tanto u +v2 ≤ u2 + 2 u v + v2 ; esto es, u +v2 ≤ (u + v)2 . De donde, u +v ≤ u + v . Q La desigualdad triangular recibe este nombre porque, en el caso de vectores en R2 (o en R3 ), significa que en todo triángulo, la longitud de cualquiera de sus lados es inferior a la suma de las longitudes de los otros dos lados; como ilustramos en la figura 3-13. v v u u u +v u + v Figura 3-13 • Desigualdad triangular: en todo triángulo, la longitud de cualquiera de sus lados es inferior a la suma de las longitudes de sus otros dos lados. Planos en R3 Supongamos que un plano P pasa por el punto u0 = (x0 , y0 , z0 ) y es ortogonal al vector η = (a, b, c); es decir, η es perpendicular a toda lı́nea recta contenida en el plano P. Sea u = (x, y, z) un punto cualquiera Page (PS/TeX): 18 / 128, COMPOSITE SECCIÓN 3.1 Geometrı́a de los espacios Rn 129 del plano P (cfr. figura 3-14). Entonces η es perpendicular al segmento que une a los puntos u0 y u; es decir, η ⊥ (u −u0 ). Por tanto, η · (u −u0 ) = 0 y, por ende, a (x − x0 ) + b (y − y0 ) + c (z − z0 ) = 0 (3.10) es la ecuación que determina el lugar geométrico correspondiente al plano P. Esto significa que todo punto (x, y, z) que pertenece al plano P satisface la ecuación (3.10). Inversamente, toda solución (x, y, z) de esta ecuación pertenece al plano P. η P u0 u η u −u0 Figura 3-14 • Un plano P que pasa por un punto dado u = (x0 , y0 , z0 ) y es ortogonal a un vectorη = (a, b, c). Es claro que la ecuación (3.10) equivale3 a ax + by + cz = d (3.11) donde d = ax0 + by0 + cz0 . Ejemplo 3.6 Encontrar la ecuación del plano que es ortogonal al vector η = (−1, 2, 4) y pasa por el punto u = (2, 1, 1). Solución La ecuación está dada por (3.10): (−1) (x − 2) + 2 (y − 1) + 4 (z − 1) = 0 que equivale a −x + 2y + 4z = 4. 13 Es obvio que las ecuaciones (3.10) y (3.11) no son únicas en cuanto a la descripción algebraica de un plano como lugar geométrico. En realidad, cualquier otra ecuación algebraica que cumpla con ese objetivo será equivalente a (3.10) y (3.11) en el sentido de que tienen las mismas soluciones y, por ende, describen el mismo lugar geométrico: el plano en cuestión. Page (PS/TeX): 19 / 129, COMPOSITE 130 CAPÍTULO 3 Espacios vectoriales Ejemplo 3.7 Encontrar la ecuación del plano P que pasa por los puntos u = (1, 0, 0), v = (0, 1, 0) y w = (0, 0, 1). Solución El plano debe contener los tres puntos y, por la definición geométrica de plano, también debe contener los segmentos de lı́nea que unen a dichos puntos; dos de ellos son uv y uw. Si η = (a, b, c) es un vector ortogonal al plano, entonces η debe ser perpendicular a estos dos segmentos. Ası́ que η ⊥ (u −v) y η ⊥ (u − w), por lo que η · (u −v) = 0 y η · (u − w) = 0. Esto es, (1, −1, 0) · (a, b, c) = 0 (1, 0, −1) · (a, b, c) = 0; es decir, a−b = 0 a − c = 0. Resolvamos ahora el sistema homogéneo anterior: 1 −1 0 1 −1 0 ∼ , 1 0 −1 0 1 −1 que produce las soluciones ⎤ ⎡ ⎤ r a ⎣ b ⎦ = ⎣ r ⎦ ; r ∈ R. r c ⎡ Una solución particular es el vector η = (1, 1, 1) obtenida al hacer r = 1. Ası́, el plano que pasa por estos puntos es ortogonal al vector η = (1, 1, 1), y contiene al punto (1, 0, 0); por tanto, al utilizar (3.10), tenemos (1) (x − 1) + (1) (y − 0) + (1) (z − 0) = 0, que equivale a x + y + z = 1. Este plano viene bosquejado en la figura 3-15. z P w v y u x Figura 3-15 • Plano que pasa por los puntos u = (1, 0, 0), v = (0, 1, 0) y w = (0, 0, 1). Page (PS/TeX): 20 / 130, COMPOSITE SECCIÓN 3.2 Espacios vectoriales 131 3.2 Espacios vectoriales Hemos visto que las matrices tienen, con la suma y el producto por un escalar usuales, las mismas diez propiedades4 que las del espacio vectorial5 de Rn . Ası́, las generalizaciones algebraicas del plano y del espacio tienen un sı́mil con un conjunto aparentemente sin conexión con ellos. Como veremos en esta sección, el de las matrices no es un caso aislado y, al contrario, existe una gran variedad de conjuntos en los que se han definido las operaciones suma entre sus elementos y multiplicación de números reales con estos elementos, que también satisfacen las citadas diez condiciones. Todos estos conjuntos tienen en común las propiedades mencionadas y, por tanto, lo que se derive de ellas dependerá de las mismas y no de los elementos que particularmente formen determinada colección. Por ello surge la necesidad de estudiar este tipo de conjuntos, con sus respectivas operaciones, en abstracto y no caso por caso de manera aislada. De esta forma, lo que haremos primeramente es abstraer estas diez propiedades como caracterı́stica esencial de lo que llamaremos espacio vectorial, y entonces podremos derivar, a partir de las mismas, consecuencias generales en este espacio abstracto que serán entonces válidas, dado que dependen solamente de las propiedades de las operaciones y no de los elementos de cada colección, en todos los conjuntos que cumplan con esas diez propiedades. 3.2.1 Definiciones y ejemplos Definición 3.6 Sea E un conjunto no vacı́o donde se han definido un par de operaciones: suma entre sus elementos, representada como u ⊕v; y multiplicación (o producto) de escalares (números reales) con elementos de E, representada como α u. Entonces a E se le llama espacio vectorial (real) si se cumplen las diez siguientes condiciones (axiomas de espacio vectorial): 1. u ⊕v ∈ E ∀u,v ∈ E. (La suma es cerrada) 2. u ⊕ (v ⊕ w) = (u ⊕v) ⊕ w ∀u,v, w ∈ E. (Asociatividad de la suma) 3. u ⊕v =v ⊕u ∀u,v ∈ E. (Conmutatividad de la suma) 4. Existe un elemento 0E ∈ E tal que u ⊕0E = u ∀u ∈ E. (Existencia del neutro aditivo) 5. Para cada u ∈ E existe −u ∈ E tal que u ⊕ (−u) = 0E . (Existencia del inverso aditivo) 6. λ u ∈ E ∀λ ∈ R, ∀u ∈ E. (La multiplicación con escalares es cerrada) 7. λ (β u) = (λβ) u ∀λ, β ∈ R, ∀u ∈ E. (Asociatividad del producto con escalares) 8. λ (u ⊕v) = (λ u) ⊕ (λ v) a la suma de vectores) ∀λ ∈ R, ∀u,v ∈ E. (Distributividad del producto con respecto 9. (λ + β) u = (λ u) ⊕ (β u) a la suma de escalares) ∀λ, β ∈ R, ∀u ∈ E. (Distributividad del producto con respecto 10. 1 u = u ∀u ∈ E. (Preservación de la escala) A los elementos de E les llamaremos vectores. 14 Cfr. propiedades 1(a) a 1( j), subsección 1.1.4, página 9. 15 Cfr. subsección 3.1.3, página 119. Page (PS/TeX): 21 / 131, COMPOSITE 132 CAPÍTULO 3 Espacios vectoriales Ejemplo 3.8 Rn , con la suma usual de vectores y la multiplicación de un escalar por un vector, esto es, si u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) y λ es un número real, u ⊕v = (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ), λ u = λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ), es un espacio vectorial. Ejemplo 3.9 Sea E = {x ∈ R | x > 0} dotado de las operaciones: u ⊕ v = uv λ u = uλ . Ası́, por ejemplo, 2 ⊕ 3 = 2 · 3 = 6 y 2 3 = 32 = 9. ¿Es E, junto con estas operaciones, un espacio vectorial? Para contestar afirmativamente debemos probar que se verifican las diez propiedades de la definición anterior; y para dar una respuesta negativa se tiene que exhibir un caso en el cual una de ellas (por lo menos) no se cumpla. Solución 1. Es claro de su definición que u ⊕ v ∈ E ∀u, v ∈ E, pues el producto de dos números positivos es también positivo. 2. ∀u, v, w ∈ E : (u ⊕ v) ⊕ w = (uv) ⊕ w = (uv)w = u(vw) = u ⊕ (vw) = u ⊕ (v ⊕ w). 3. ∀ u, v ∈ E: u ⊕ v = uv = vu = v ⊕ u. 4. Sea 0E = 1 ∈ E. Entonces ∀ u ∈ E: u ⊕0E = u0E = u1 = u. 5. Si u ∈ E, u > 0, y por tanto 1/u > 0. Sea −u = 1/u. Entonces −u ∈ E y u ⊕ (−u) = u(1/u) = 1 = 0E . 6. Si λ ∈ R y u ∈ E, entonces λ u = uλ > 0 pues u > 0, es decir, λ u ∈ E ∀u, ∀ λ ∈ R. 7. Si λ, β ∈ R y u ∈ E, λ (β u) = λ (uβ ) = (uβ )λ = uβλ = (λβ) u. 8. ∀u, v ∈ E, λ ∈ R: λ (u ⊕ v) = λ (uv) = (uv)λ = uλ vλ = (λ u) ⊕ (λ v). 9. ∀ λ, β ∈ R, ∀ u ∈ E: (λ + β) u = uλ+β = uλ uβ = (λ u) ⊕ (β u). 10. 1 u = u1 = u, ∀u ∈ E. Como se verifican los diez axiomas de espacio vectorial de la definición 3.6, E es un espacio vectorial. Ejemplo 3.10 (Espacio de matrices) Mm×n , el conjunto de matrices tamaño m × n, con la suma de matrices y el producto de un escalar por una matriz usuales, es un espacio vectorial.6 16 Cfr. página 9. Page (PS/TeX): 22 / 132, COMPOSITE SECCIÓN 3.2 Espacios vectoriales 133 Ejemplo 3.11 (Espacio de polinomios) Si P es el conjunto de polinomios, con la suma y el producto por un escalar usuales, P es un espacio vectorial; lo cual es fácil de probar y se deja de ejercicio al lector. P Nota 3.5 1. Observemos que en el ejemplo 3.9 no utilizamos la notación de poner una flecha encima de los vectores del espacio; pues las operaciones, como fueron definidas, involucraron el producto y la multiplicación de números reales positivos y el haber denotado a los elementos de esta manera podrı́a haber causado confusión. En realidad, esto lo haremos cada vez que sea conveniente; ası́, por ejemplo, las matrices sólo las denotaremos con letras mayúsculas en lugar de emplear notación vectorial para el espacio Mm×n . También, a partir del final de esta nota, abandonaremos la notaciones ⊕ y para la suma de vectores y la multiplicación de un escalar por un vector y simplemente escribiremos u +v, λu en lugar de u ⊕v y λ u, respectivamente; pues el contexto de cada caso evitará cualquier confusión. 2. El axioma 10 de la definición 3.6 es en apariencia una propiedad de la que se podrı́a prescindir; ya que es una caracterı́stica que a simple vista se cumple “siempre” de manera “natural”. Sin embargo, esta propiedad es imprescindible; pues existen casos en los que se pueden definir operaciones de suma de vectores y multiplicación con escalares que cumplen con los primeros 9 axiomas de la definición 3.6, pero no con el número 10. Por ejemplo, si en Rn se define la suma de vectores en forma usual, pero el producto por un escalar como λ u = 0Rn , para todo λ ∈ R y para todo u ∈ Rn , es evidente que se cumplen los 9 primeros axiomas de espacio vectorial pero no el décimo. También es claro que este último conjunto con esas operaciones no tiene trascendencia alguna como son los casos de las matrices y el propio espacio Rn con las operaciones usuales. Evitar casos triviales y de nulo interés en la práctica es la razón de ser del axioma 10 para el concepto de espacio vectorial. Ejemplo 3.12 (Espacio de sucesiones) Sea R∞ = u = (an )n∈N |u es una sucesión ; es decir, R∞ es el conjunto de las sucesiones de números reales u = (a1 , a2 , . . . , an , . . . ). Con la suma de sucesiones y el producto de un escalar por una sucesión usuales; esto es, • (a1 , a2 , . . . , an , . . . ) + (b1 , b2 , . . . , bn , . . . ) = (a1 + b1 , a2 + b2 , . . . , an + bn , . . . ), • λ(a1 , a2 , . . . , an , . . . ) = (λa1 , λa2 , . . . , λan , . . . ). R∞ es un espacio vectorial como fácilmente puede comprobar el lector. Espacios de funciones Definición 3.7 Sean A y B un par de conjuntos no vacı́os. Una función f con dominio A y valores en B, es una regla que a cada elemento x de A le asigna un único elemento y = f (x) de B. Para denotar que f es una función con dominio A y valores en B escribiremos f : A −→ B. La función o regla de asignación es f y no debe confundirse con el valor de ésta en x: y = f (x). En esta última notación, a y se le dice la variable dependiente o imagen de x bajo f , x es la variable independiente o argumento de la función f , y a B se le denomina contradominio de la función. Page (PS/TeX): 23 / 133, COMPOSITE 134 CAPÍTULO 3 Espacios vectoriales Definición 3.8 Sean f , g : A −→ B un par de funciones de A en B. Diremos que f = g, si f (x) = g(x) ∀x ∈ A. Ejemplo 3.13 Sean A = R − {0}, B = R y f , g : A −→ B las funciones definidas como f (x) = y |x| x g(x) = 1, si x > 0; −1, si x < 0. f (x) = |x| x = = 1 = g(x). x x Si x ∈ A y x > 0, Si x ∈ A y x < 0, f (x) = |x| −x = = −1 = g(x). x x Luego f (x) = g(x) ∀x ∈ A, por tanto f = g. Definición 3.9 Sea A un conjunto no vacı́o. Denotamos por F (A) al conjunto de las funciones f : A −→ R. Dotamos a F (A) de las siguientes operaciones: • Si f , g ∈ F (A), definimos la función f + g como ( f + g)(x) = f (x) + g(x) ∀x ∈ A. • Si f ∈ F (A) y λ ∈ R, definimos la función λ f como (λ f )(x) = λ f (x) ∀x ∈ A. Diremos, entonces, que éstas son la suma y la multiplicación por un escalar usuales en las funciones con dominio A y valores reales. Ejemplo 3.14 Sea A = {x | x es elemento del grupo MA0084302}, y f , g ∈ F (A) las funciones f (x) = matrı́cula de x; g(x) = calificación de x en el primer examen parcial de la materia de álgebra lineal. Entonces, si la matrı́cula de Liliana es 447021, Liliana obtuvo 10 en el primer examen parcial, x = Liliana y λ = .5: ( f + g)(x) = f (x) + g(x) = 447021 + 10 = 447031, (λg)(x) = λg(Liliana) = .5 · 10 = 5. Es decir, la función f + g es la regla que asigna la suma de la matrı́cula y la calificación del primer parcial a cada elemento de la clase de álgebra lineal. Mientras que la función λg asigna a cada elemento de A el producto de λ con su calificación del primer parcial. Page (PS/TeX): 24 / 134, COMPOSITE SECCIÓN 3.2 Espacios vectoriales 135 P Nota 3.6 Sean a, b un par de números reales, a < b y A = [a, b], y sea f : A → R una función. La letra f , en este caso, representa la regla de asociación entre los elementos x de A y los valores asignados y = f (x). Una ventaja que tienen las funciones de este tipo es que se pueden identificar con un ente geométrico que es la gráfica de dicha función. En la figura 3-16 se bosqueja (hipotéticamente) la gráfica de la función f , ella consiste en los pares ordenados (x, f (x)) con x ∈ [a, b]; que al ubicarlos en el plano cuando x recorre el intervalo [a, b] forman la curva bosquejada en esta figura. Es conveniente que el lector tenga siempre presente, cuando trabaje con funciones de este tipo, identificar la función con su gráfica para fines de tener ideas concretas de la misma y no confundir el valor de la función f en x, que hemos representado como y = f (x), con la propia función f . f f (x) a b x Figura 3-16 • La gráfica de una función se puede identificar con la propia función. Sean a, b números reales, con a < b y A = [a, b]. Sean f , g : A → R un par de funciones. Entonces la función f + g evaluada en x ∈ A, es decir, ( f + g)(x), se obtiene sumando los valores de f en x y g en x. Esto es,7 ( f + g)(x) = f (x) + g(x). La gráfica de f + g se obtiene entonces sumando las “alturas” f (x) y g(x) en cada x ∈ A y bosquejando el punto (x, f (x) + g(x)) como se muestra en la figura 3-17. Ası́ podemos pensar, geométricamente, que la función f + g es la correspondiente curva mostrada en esta figura. f +g f g f (x) f (x) + g(x) g(x) a x b Figura 3-17 • Las funciones f , g y f + g representadas por sus respectivas gráficas. 17 El lector debe tener mucho cuidado en no confundirse al pensar que ( f + g)(x) = f (x)+ g(x) es “una distribución de un producto con la suma de números”; pues esta interpretación evidentemente no tiene sentido. Page (PS/TeX): 25 / 135, COMPOSITE 136 CAPÍTULO 3 Espacios vectoriales λf λ f (x) f f (x) a x b Figura 3-18 • Las funciones f y λ f representadas por sus correspondientes gráficas. De manera análoga, si λ es un número real y f : A → R, la función λ f se evalúa, en cada x ∈ A, mediante el producto de números reales λ f (x). De esta forma la gráfica de la función λ f se obtiene, a partir de la gráfica de la función f , multiplicando cada una de las “alturas” f (x) por λ, en cada x ∈ A, y bosquejando los puntos (x, λ f (x)) como se ilustra en la figura 3-18. Ejemplo 3.15 (Espacio de funciones) Si A es cualquier conjunto no vacı́o mostrar que F (A), junto con las operaciones dadas en la definición 3.9, es un espacio vectorial; el llamado espacio de las funciones con dominio A y valores reales. DEMOSTRACIÓN Q 1. Claramente, de la definición de suma de funciones: f , g ∈ F (A) ⇒ f + g ∈ F (A) . 2. Si f , g, h ∈ F (A) y x es cualquier elemento de A, [ f + (g + h)](x) = f (x) + (g + h)(x) = f (x) + (g(x) + h(x)) = ( f (x) + g(x)) + h(x), ası́ que,8 f + (g + h) = ( f + g) + h. 3. Si f , g ∈ F (A) y x ∈ A es cualquier elemento, tenemos ( f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x), y, por ende, f + g = g + f . 4. Sea θ : A −→ R la función en F (A), definida como θ(x) = 0 ∀x ∈ A. Entonces, para toda f ∈ F (A) y para todo x ∈ A: ( f + θ)(x) = f (x) + θ(x) = f (x) + 0 = f (x), por ende, f + θ = f . 18 Aquı́ hemos utilizado los hechos de que f (x), g(x), h(x) son números reales y en éstos hay asociatividad. El lector debe notar que en el transcurso de esta demostración utilizaremos las propiedades de los números reales y que los valores de las funciones son también reales. Page (PS/TeX): 26 / 136, COMPOSITE Espacios vectoriales 137 SECCIÓN 3.2 5. Si f ∈ F (A), sea − f : A −→ R la función definida, para cada x ∈ A, como (− f )(x) = − f (x). Entonces ( f + (− f ))(x) = f (x) + (− f )(x) = f (x) + (− f (x)) = f (x) − f (x) = 0 = θ(x), ∀x ∈ A; es decir, f + (− f ) = θ. 6. Claramente, λ f ∈ F (A) ∀ f ∈ F (A) y ∀λ ∈ R. 7. Si λ, β ∈ R y f ∈ F (A), para cada x ∈ A, (λ(β f ))(x) = λ(β f )(x) = λ(β f (x)) = (λβ) f (x), de donde λ(β f ) = (λβ) f . 8. ∀λ ∈ R, ∀ f , g ∈ F (A) y para cada x ∈ A: [λ( f + g)](x) = λ( f + g)(x) = λ( f (x) + g(x)) = λ f (x) + λg(x) = (λ f + λg)(x); es decir, λ( f + g) = λ f + λg. 9. Si λ, β ∈ R y f ∈ F (A), para todo x ∈ A, ((λ + β) f )(x) = (λ + β) f (x) = λ f (x) + β f (x) = (λ f + β f )(x), lo que implica (λ + β) f = λ f + β f . 10. Si f ∈ F (A), para todo x ∈ A, (1 f )(x) = 1 f (x) = f (x), es decir, 1 f = f . Q f θ a b a b −f (i) (ii) Figura 3-19 • (i) El espacio vectorial F ([a, b]) consta de todas las funciones cuya gráfica está contenida en la franja (x, y) con x ∈ [a, b] y y ∈ R, es decir, la franja [a, b] × R. (ii) El neutro aditivo de este espacio, θ , es la función constante cero (θ (x) = 0 ∀x ∈ [a, b]), cuya gráfica se encuentra en color rojo; y el inverso aditivo de una función f se encuentra reflejando su gráfica sobre el eje x. Cuando A = [a, b] es un intervalo, F (A) es el conjunto de todas las funciones cuya gráfica está contenida en la franja [a, b] × R. En la figura 3-19(i) hemos bosquejado algunos de sus elementos. En la Page (PS/TeX): 27 / 137, COMPOSITE 138 CAPÍTULO 3 Espacios vectoriales misma figura 3-19(ii) ilustramos la interpretación geométrica del neutro aditivo θ, la función constante cero (en rojo) del espacio F ([a, b]). También en esta última figura hemos bosquejado el inverso aditivo para una función dada f ; el cual se obtiene gráficamente reflejando sobre el eje x la gráfica de la función f , como el lector fácilmente puede comprobar por sı́ mismo recordando la interpretación dada en la figura 3-17 para la suma usual de funciones. P Nota 3.7 Cabe hacer notar que la demostración de que F (A) sea un espacio vectorial no depende de las caracterı́sticas del conjunto A, sino del hecho de que sus elementos son funciones con valores en R y de que los números reales tienen estructura de espacio vectorial. Por ende, si sustituimos R por un espacio vectorial arbitrario, F (A) seguirá siendo un espacio vectorial. Lo mismo sucede si ponemos cualquier conjunto concreto en lugar de A. 3.2.2 Propiedades elementales de los espacios vectoriales Como ya mencionamos al principio de esta sección, trabajaremos con un espacio vectorial abstracto para establecer propiedades que se infieran únicamente de los diez axiomas de espacio vectorial dados en la definición 3.6, y entonces estas deducciones serán válidas para cualquier espacio vectorial concreto. Llevaremos esto a cabo a través de lo que resta de este libro y no volveremos a hacer más énfasis en esta estrategia natural. Las primeras propiedades quedan establecidas en el siguiente teorema. Teorema 3.4 (Propiedades elementales de espacio vectorial) Sea E un espacio vectorial. Entonces: 1. 0E es único. Es decir, sólo existe un elemento en E que al sumarlo con cualquier otro elemento del espacio da como resultado este último. 2. −u es único para cada u ∈ E. Esto es, cada elemento del espacio tiene exactamente un inverso aditivo. 3. u +v = u + w ⇒v = w. A esta propiedad se le llama ley de cancelación. 4. 0u = 0E para todo u ∈ E. 5. λ0E = 0E ∀λ ∈ R. 6. (−1)u = −u 7. u +u = 2u ∀u ∈ E. ∀u ∈ E. 8. Si n es un entero, u +u + · · · +u = nu ∀u ∈ E. n 9. Si α ∈ R y u ∈ E, entonces αu = 0E ⇔ α = 0 o DEMOSTRACIÓN u = 0E . Q 1. Sea ϕ ∈ E tal que u + ϕ = u ∀ u ∈ E, entoces ϕ = 0E + ϕ = 0E ; por tanto, ϕ = 0E . 2. Si u ∈ E y u1 ∈ E satisface u +u1 = 0E , entonces u1 = u1 +0E = u1 + (u + (−u)) = (u1 +u) + (−u) = 0E + (−u) = −u. Page (PS/TeX): 28 / 138, COMPOSITE SECCIÓN 3.2 3. u +v ((−u) +u) +v 0E +v v Espacios vectoriales 139 = u + w ⇒ = ((−u) +u) + w ⇒ = 0E + w ⇒ = w. 4. 0u = (0 + 0)u = 0u + 0u, y ya que 0u = 0u +0E , tenemos 0E + 0u = 0u + 0u; de la propiedad (3) se tiene 0E = 0u. 5. λ0E = λ(00E ) = (λ · 0)0E = 00E = 0E . 6. u + (−1)u = (1 + (−1))u = 0u = 0E , y dado que −u es único, −1u = −u. 7. u +u = (1 + 1)u = 2u. 8. Análoga a la anterior. 9. Se deja de ejercicio al lector. Q 3.2.3 Subespacios vectoriales Aunque hemos visto varios ejemplos de espacios vectoriales, éstos han sido muy generales y, por lo mismo, demasiado “grandes” para ser útiles. En realidad, estaremos interesados en subconjuntos particulares de estos espacios que, junto con las mismas operaciones, sean también espacios vectoriales, a los cuales llamaremos subespacios vectoriales y a su estudio está dedicado este apartado. Definición 3.10 Sean E un espacio vectorial y S un subconjunto no vacı́o de E. S es un subespacio vectorial de E, o simplemente un subespacio de E, si S, con las mismas operaciones suma y producto por un escalar restringidas a los elementos de S, es también un espacio vectorial. Usaremos la notación S < E para indicar que S es un subespacio de E. Para probar que S < E, se debe mostrar que los elementos de S con la suma y el producto por un escalar definidos en E satisfacen los diez axiomas de la definición 3.6 de espacio vectorial; sin embargo, si reflexionamos un poco, vemos que las propiedades de asociatividad para la suma y el producto por un escalar, las de distributividad, conmutatividad y preservación de la escala son propiedades que se heredan de E; esto es, puesto que se cumplen para todos los elementos de E y S ⊂ E, también son válidas para todos los vectores de S. Luego, resta sólo probar que la suma y el producto por un escalar son operaciones cerradas en S, 0E ∈ S y que para cada u ∈ S, −u también pertenece a S. Pero si la / y multiplicación por escalares es cerrada en S, u ∈ S ⇒ −u = (−1)u ∈ S; también, dado que S = 0, 0u = 0E , se tiene que 0E ∈ S. Con esto hemos demostrado el siguiente teorema. Teorema 3.5 Sea S un subconjunto de un espacio vectorial E. Para que S sea un subespacio vectorial de E es necesario y suficiente que se cumplan las siguientes tres condiciones: 1. 2. 3. 0E ∈ S. u +v ∈ S ∀u,v ∈ S. λu ∈ S ∀λ ∈ R, ∀u ∈ S. Page (PS/TeX): 29 / 139, COMPOSITE 140 CAPÍTULO 3 Espacios vectoriales Ejemplo 3.16 Es claro que si E es un espacio vectorial, entonces E y {0E } son subespacios de E. P Nota 3.8 Es costumbre llamar a E y {0E } los subespacios triviales del espacio vectorial E; y si S < E no es E, se dice que S es un subespacio propio de E. Ejemplo 3.17 Sea S = {u ∈ R2 |u = (x, 2x); x ∈ R}. Entonces: 1. 0R2 = (0, 0) = (0, 2 · 0) ∈ S. 2. Si u,v ∈ S, u = (x, 2x), v = (y, 2y); ası́ que u +v = (x, 2x) + (y, 2y) = (x + y, 2x + 2y) = (x + y, 2(x + y)) ∈ S. 3. Si λ ∈ R y v = (x, 2x) ∈ S, λu = λ(x, 2x) = (λx, λ2x) = (λx, 2(λx)) ∈ S. De 1, 2 y 3, S < R2 . Geométricamente, S es la lı́nea recta con pendiente 2 que pasa por el origen. De hecho, toda lı́nea recta que pasa por el origen es un subespacio de R2 . Inversamente no es difı́cil probar, lo cual hará el lector en los ejercicios, que todo subespacio propio de R2 es geométricamente una lı́nea recta que pasa por el origen o el subespacio trivial {(0, 0)}. Ejemplo 3.18 Cualquier plano que contiene al origen y las lı́neas rectas que pasan por el mismo son subespacios de R3 (véase la figura 3-20). Más aún, los únicos subespacios no triviales de R3 son estos conjuntos. (Demuéstrelo.) S λw w u u + v v Figura 3-20 • En un plano S que pasa por el origen, la suma de los vectores contenidos en él pertenece a este plano y la multiplicación de los vectores de este plano por escalares sigue perteneciendo a dicho plano. Ası́, un plano que pasa por el origen es un subespacio de R3 . Ejemplo 3.19 Sean a, b, c números reales dados y S = {(x, y, z) ∈ R3 |ax + by + cz = 0}. Es decir, S es un plano que pasa por el origen con ecuación ax + by + cz = 0. 1. Claramente (0, 0, 0) ∈ S. 2. Si (x1 , y1 , z1 ) , (x2 , y2 , z2 ) ∈ S, entonces ax1 + by1 + cz1 = 0, ax2 + by2 + cz2 = 0 y (x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (x1 + x2 , y1 + y2 , z1 + z2 ); Page (PS/TeX): 30 / 140, COMPOSITE SECCIÓN 3.2 Espacios vectoriales 141 luego, a(x1 + x2 ) + b(y1 + y2 ) + c(z1 + z2 ) = ax1 + by1 + cz1 + ax2 + by2 + cz2 = 0 + 0 = 0. Por tanto, (x1 , y1 , z1 ) + (x2 , y2 , z2 ) ∈ S. 3. Si λ ∈ R, y u = (x1 , y1 , z1 ) ∈ S, λu = (λx1 , λy1 , λz1 ); entonces a(λx1 ) + b(λy1 ) + c(λz1 ) = λ(ax1 + by1 + z1 ) = λ · 0 = 0. Por ende, λu ∈ S. De 1, 2 y 3, S < R3 . P Nota 3.9 Observe que un plano S que no pasa por el origen no es un subespacio de R3 , como se hace patente en la figura 3-21. λw S u + v w u v Figura 3-21 • En un plano S que no pasa por el origen 0Rn ∈ / S, la suma de vectores contenidos en él no pertenece a este plano y la multiplicación de vectores de este plano por escalares tampoco pertenece necesariamente a dicho plano. Ası́, un plano que no pasa por el origen no es un subespacio de R3 . Ejemplo 3.20 (Espacio solución, espacio nulo) Si A ∈ Mm×n , el conjunto, S, de vectoresx en Rn que es solución del sistema homogéneo Ax = 0Rm es un subespacio de Rn , llamado el subespacio solución de dicho sistema o el espacio nulo de la matriz A. DEMOSTRACIÓN Q 1. A0Rn = 0Rm , por tanto, 0Rn ∈ S. 2. Si x, y ∈ S, Ax = 0Rm y Ay = 0Rm , por tanto, A(x +y) = Ax + Ay = 0Rm . Ası́, x +y ∈ S. 3. Si λ ∈ R y x ∈ S, Ax = 0Rm . Entonces A(λx) = λ(Ax) = λ0Rm = 0Rm , por ende, λx ∈ S. Page (PS/TeX): 31 / 141, COMPOSITE Q 142 CAPÍTULO 3 Espacios vectoriales −1 1 2 1 Figura 3-22 • Este espacio consta de todas las funciones cuyas gráficas pasan por el punto (1/2, 0) y están contenidas en la franja [−1, 1] × (−∞, ∞). Ejemplo 3.21 (Espacio de polinomios de grado menor o igual a k). Sea P el espacio de polinomios del ejemplo 3.11 (pág. 133), y sean k un entero positivo y Pk = {p ∈ P | p tiene grado ≤ k o es el polinomio constante cero} . Entonces, ya que por su definición contiene al cero de P, la suma de dos polinomios de grado a lo más k tiene grado menor o igual a k, y el producto de un polinomio en este conjunto por un escalar tiene grado igual a k o es el polinomio cero, Pk < P. Ejemplo 3.22 Si E = { f : [−1, 1] → R | f (1/2) = 0}, mostrar que, con la suma y el producto por un escalar usuales en las funciones, E es un espacio vectorial (véase la figura 3-22). DEMOSTRACIÓN Q En efecto, ya que E ⊂ F ([−1, 1]) y éste es un espacio vectorial con las operaciones usuales, basta probar que E < F ([−1, 1]). 1. θ : [−1, 1] → R, θ(x) = 0 ∀x ∈ [−1, 1], en particular θ(1/2) = 0; por tanto θ ∈ S. 2. Si f , g ∈ E, f (1/2) = 0, g(1/2) = 0; luego ( f + g)(1/2) = f (1/2) + g(1/2) = 0 + 0 = 0. Ası́ que f + g ∈ E. 3. Si λ ∈ R y f ∈ E, entonces f (1/2) = 0 y (λ f )(1/2) = λ f (1/2) = λ · 0 = 0; por tanto λ f ∈ E. De 1, 2 y 3, E < F ([−1, 1]). Q Ejemplo 3.23 (Espacio de funciones continuas). Dado que la función cero es una función continua, la suma de funciones continuas y el producto de un escalar por una función continua dan como resultado también funciones continuas, se tiene que C[a, b] = { f : [a, b] −→ R | f es continua} es un subespacio vectorial de F ([a, b]); y por tanto, un espacio vectorial. Ejemplo 3.24 De manera análoga, el lector puede probar que9 C1 [a, b] = { f : [a, b] −→ R | f es derivable con continuidad en [a, b]} es un espacio vectorial con las operaciones usuales en el espacio de funciones. 19 La continuidad y la derivabilidad en los extremos a y b se sobreentiende que es continuidad y derivabilidad por la derecha y por la izquierda, respectivamente. Page (PS/TeX): 32 / 142, COMPOSITE SECCIÓN 3.2 Espacios vectoriales 143 Ejemplo 3.25 (Espacio de matrices simétricas). Sea Mn el espacio vectorial de las matrices cuadradas de orden n con las operaciones usuales. Y sea S el subconjunto de matrices simétricas de tamaño n × n. Demostrar que S es un subespacio de Mn . DEMOSTRACIÓN Q 1. Claramente la matriz cero de orden n es simétrica. 2. Sean A, B ∈ S, entonces At = A y B t = B. Luego, por la tercera propiedad de las matrices (cfr. pág. 10), (A + B)t = At + B t = A + B; por lo que A + B ∈ S. 3. Si A ∈ S y λ ∈ R, claramente (λA)t = λAt . Por tanto, ya que A ∈ S, (λA)t = λAt = λA; por lo que λA ∈ S. De 1, 2 y 3 se concluye que S es un subespacio vectorial de Mn . Q 3.2.4 Combinaciones lineales y subespacios generados Supongamos que tenemos un par de vectores no colineales u yv en R3 y se multiplican, respectivamente, por los escalares λ y β. El vector resultante, λu + βv, está en el plano que pasa por el origen y contiene a estos dos vectores; es decir, el plano que contiene a 0, u, v, el cual es un subespacio de R3 pues es un plano que pasa por el origen (cfr. ejemplos 3.18 y 3.19 pág. 140). Generalizamos a continuación esta idea. Definición 3.11 Si E es un espacio vectorial y u1 ,u2 , . . . ,uk ∈ E, a todo vector de la forma v = a1u1 + a2u2 + · · · + akuk , donde a1 , a2 , . . . , ak ∈ R, se le llama combinación lineal de u1 ,u2 , . . . ,uk . Ejemplo 3.26 Determinar si el vector u = (7, 1, 16) es combinación lineal de los vectores u1 = (−1, 2, 2) y u2 = (3, −1, 4). Solución Veamos si es posible encontrar a1 , a2 ∈ R tales que u = a1u1 + a2u2 ; esto es, (7, 1, 16) = a1 (−1, 2, 2) + a2 (3, −1, 4) = (−a1 + 3a2 , 2a1 − a2 , 2a1 + 4a2 ) . Entonces, se debe tener −a1 + 3a2 = 7, 2a1 − a2 = 1, 2a1 + 4a2 = 16. Page (PS/TeX): 33 / 143, COMPOSITE 144 CAPÍTULO 3 Espacios vectoriales Resolvamos este sistema: ⎤ ⎤ ⎡ −1 3 7 −1 3 7 ⎣ 2 −1 1 ⎦ ∼ ⎣ 0 5 15 ⎦ 0 10 30 2 4 16 ⎤ ⎡ −1 3 7 ∼ ⎣ 0 5 15 ⎦ ; 0 0 0 ⎡ por tanto, a1 a2 = 2 3 . Con lo que u sı́ es combinación lineal de u1 y u2 : u = 2u1 + 3u2 . Comprobación: 2u1 + 3u2 = 2 (−1, 2, 2) + 3 (3, −1, 4) = (7, 1, 16) = u. Teorema 3.6 (Subespacios generados) Sean E un espacio vectorial y u1 , u2 ,. . . , uk vectores de E. Entonces S = {u ∈ E |u es combinación lineal de u1 ,u2 , . . . ,uk } es un subespacio vectorial de E. DEMOSTRACIÓN Q 1. 0E = 0 ·u1 + 0 ·u2 + · · · + 0 ·uk ∈ S. 2. Si u,v ∈ S, entonces existen a1 , a2 , . . . , ak , b1 , b2 , . . . , bk ∈ R tales que: u = a1u1 + a2u2 + · · · + akuk , v = b1u1 + b2u2 + · · · + bkuk . Luego, u +v = k k i=1 i=1 ∑ aiui + ∑ biui = (a1 + b1 )u1 + (a2 + b2 )u2 + · · · + (ak + bk )uk ; de donde u +v ∈ S. 3. Si λ ∈ R y u ∈ S, entonces, para ciertos ai , i = 1, 2, . . . , k, u = a1u1 + a2u2 + · · · + akuk . Page (PS/TeX): 34 / 144, COMPOSITE SECCIÓN 3.2 Espacios vectoriales 145 Luego, λu = λ (a1u1 + a2u2 + · · · + akuk ) = (λa1 )u1 + (λa2 )u2 + · · · + (λak )uk ; por lo que λu ∈ S. De 1, 2 y 3, S < E. Q Definición 3.12 (Subespacio generado por vectores) Sean E un espacio vectorial y u1 ,u2 , . . . ,uk vectores en E. Al subespacio vectorial de E,10 de todas las combinaciones lineales de estos vectores, se le denota como gn (u1 ,u2 , . . . ,uk ) y se llama el subespacio generado por los vectores u1 ,u2 , . . . ,uk . Ejemplo 3.27 Sea el espacio vectorial S = gn(sen2 x, cos2 x), determinar si cos(2x) ∈ S. Solución cos(2x) = cos2 x − sen2 x = (1) cos2 x + (−1) sen2 x. Por tanto, cos 2x ∈ S. Ejemplo 3.28 ¿ 2x2 − 3x + 1 ∈ gn(2, 1 − x, x2 )? Solución Encontremos a1 , a2 , a3 ∈ R tales que a1 · 2 + a2 (1 − x) + a3 (x2 ) = 2x2 − 3x + 1 . Entonces, al reducir, (2a1 + a2 ) − a2 x + a3 x2 = 2x2 − 3x + 1. Y puesto que dos polinomios son iguales si los coeficientes de las mismas potencias de x son iguales,11 se tiene 2a1 + a2 = 1, −a2 = −3, a3 = 2; de donde a1 = −1, a2 = 3, a3 = 2. Por tanto, 2x2 − 3x + 1 ∈ gn(2, 1 − x, x2 ). Ejemplo 3.29 Determinar qué subespacio de las matrices cuadradas de orden 2 es gn 1 0 0 0 0 1 0 0 , , 1 0 0 1 1Por el teorema 3.6 este conjunto es efectivamente un subespacio vectorial. 1Dos polinomios p(x) = ∑mk=0 ak xk y q(x) = ∑mk=0 bk xk son iguales si ak = bk para cada k = 0, 1, . . . , m. 10 11 Page (PS/TeX): 35 / 145, COMPOSITE 146 CAPÍTULO 3 Espacios vectoriales Solución Toda matriz en este subespacio tiene la forma 1 0 a 0 0 +c 0 1 1 0 +d 0 0 0 1 = a c c d , a, c, d ∈ R, que es una matriz simétrica. Es fácil probar que, inversamente, toda matriz simétrica 2 × 2 es de esta forma (pruébelo). Luego, el espacio generado por estas matrices es el subespacio de las matrices simétricas cuadradas de orden 2 (cfr. ejemplo 3.25). Ejemplo 3.30 En P, el espacio de polinomios, si S = gn(1, x, x2 , x3 ), entonces S = P3 (polinomios de grado a lo más tres y el polinomio constante cero); pues todo elemento de P3 tiene la forma a0 + a1 x + a2 x2 + a3 x3 = a0 · 1 + a1 · x + a2 · x2 + a3 · x3 ∈ S, para ciertos ai ∈ R, i = 0, 1, 2, 3. Espacio fila y espacio columna de una matriz Definición 3.13 Si A ∈ Mm×n , se define el espacio fila de A como el subespacio de Rn generado por las m-filas de A; y al subespacio de Rm , generado por las n-columnas de A, se le llama el espacio columna de A. Al espacio fila y al espacio columna se les denotará, en este libro, como E f (A) y Ec (A), respectivamente. ⎡ 3 Ejemplo 3.31 Si ⎣ 2 0 ⎤ −1 2 0 −1 3 4 ⎦ ∈ M3×4 , 1 2 3 E f (A) = gn((3, −1, 2, 0), (2, −1, 3, 4), (0, 1, 2, 3)) , Ec (A) = gn((3, 2, 0), (−1, −1, 1)(2, 3, 2), (0, 4, 3)) . Teorema 3.7 Sea A ∈ Mm×n , entonces b ∈ Ec (A) ⇔ el sistema Ax = b tiene solución. DEMOSTRACIÓN Q Supongamos que ⎡ ⎢ ⎢ A=⎢ ⎣ a11 a21 .. . a2 a22 .. . ··· ··· .. . a1n a2n .. . am1 am2 ··· amn ⎤ ⎥ ⎥ ⎥. ⎦ Entonces b ∈ Ec (A) si y sólo si existen x1 , x2 , . . . , xn ∈ R tales que ⎡ ⎢ b = x1 ⎢ ⎢ ⎣ a11 a21 .. . am1 Page (PS/TeX): 36 / 146, COMPOSITE ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥ + x2 ⎢ ⎦ ⎣ a12 a22 .. . am2 ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥ + · · · + xn ⎢ ⎦ ⎣ a1n a2n .. . amn ⎤ ⎥ ⎥ ⎥ ⎦ SECCIÓN 3.2 Espacios vectoriales 147 y la última igualdad se da si y sólo si12 ⎡ ⎢ b = ⎢ ⎢ ⎣ a11 a21 .. . a2 a22 .. . ··· ··· .. . a1n a2n .. . am1 am2 ··· amn es decir, si y sólo si el sistema Ax = b tiene solución. ⎤⎡ ⎥⎢ ⎥⎢ ⎥⎢ ⎦⎣ ⎤ x1 x2 .. . ⎥ ⎥ ⎥; ⎦ xn Q Criterio para determinar si un vector en Rn es combinación lineal de otros vectores Podemos utilizar el teorema 3.7 para determinar si un vector dado, b, es combinación lineal de los vectores u1 ,u2 , . . . ,uk en Rn (lo cual equivale a que b pertenezca al subespacio generado por estos vectores) de la siguiente manera: 1. Se forma la matriz cuyas columnas son los vectores u1 ,u2 , . . . ,uk . 2. Se resuelve el sistema Ax = b (por el método de Gauss, de preferencia). 3. Si este sistema tiene solución x = (a1 , a2 , . . . , ak ), entonces b pertenece al subespacio generado por los vectores ui (es combinación lineal de ellos), y además b = a1u1 + a2a2 + · · · + akuk . 4. Si el sistema Ax = b es inconsistente, entonces b no es combinación lineal de los vectores ui (b ∈ / gn(u1 ,u2 , . . . ,uk )). Ejemplo 3.32 Determinar si b = (2, 6, 1) pertenece al espacio generado por u1 = (1, 2, 3), u2 = (−2, −5, 2), u3 = (1, 2, −1). En caso afirmativo, hallar a1 , a2 , a3 , tales que b = a1u1 + a2u2 + a3u3 . Resolvamos el sistema Solución ⎤⎡ ⎤ ⎡ ⎤ x1 1 −2 1 2 ⎣ 2 −5 2 ⎦ ⎣ x2 ⎦ = ⎣ 6 ⎦ 3 2 −1 1 x3 ⎡ por el método de Gauss: ⎡ 1 ⎣ 2 3 −2 −5 2 1 2 −1 ⎤ ⎡ 1 2 6 ⎦∼⎣ 0 0 1 −2 −1 8 1 0 −4 ⎤ ⎡ 1 2 2 ⎦∼⎣ 0 0 −5 −2 −1 0 1 0 −4 ⎤ 2 2 ⎦. 11 Como el sistema es consistente, b ∈ gn(v1 ,v2 ,v3 ) y, al hacer sustitución regresiva, a3 = −11/4, a2 = −2, a1 = 3/4; esto es, b = (3/4)u1 − 2u2 + (−11/4)u3 . 1Cfr. (1.5) del ejemplo 1.15, de la página 12. 12 Page (PS/TeX): 37 / 147, COMPOSITE 148 CAPÍTULO 3 Espacios vectoriales Generadores de un espacio Definición 3.14 Sean E un espacio vectorial y u1 ,u2 , . . . ,uk ∈ E. Los vectores u1 , u2 , . . . , uk generan a E si todo elemento de E es combinación lineal de estos vectores; i.e., E = gn(u1 ,u2 , . . . ,uk ). En tal caso, se dice que los vectores ui forman un conjunto de generadores para este espacio vectorial. Ejemplo 3.33 Sea a b c d a b c d ∈ M2 cualquier matriz. Entonces =a 1 0 0 0 +b 0 1 0 0 +c 0 0 1 0 +d 0 0 0 1 . Luego M2 = gn 1 0 0 0 0 1 0 1 0 , , , 0 0 0 0 0 0 1 . Ejemplo 3.34 (Generadores del espacio Mm×n ). En general, si Mm×n es el espacio vectorial de las matrices de tamaño m × n, entonces las mn matrices definidas en este espacio como Mαβ = [mi j ], 1 ≤ α ≤ m, 1 ≤ β ≤ n, donde mi j = 1 si i = α, j = β, 0 en otro caso; 0 1 0 en las matrices de tamaño 2 × 3) generan al espacio13 Mm×n . Lo cual 0 0 0 es fácil de probar y se deja como ejercicio al lector. (por ejemplo M12 = Ejemplo 3.35 Sean los vectores ei del espacio Rn definidos como i ei = (0, . . . , 0, 1, 0, . . . , 0) n para i = 1, 2, . . . , n. Entonces, si u = (x1 , x2 , . . . , xn ) ∈ Rn , se tiene u = x1e1 + x2e2 + · · · + xnen . Ası́ que los vectores ei , i = 1, 2, . . . , n, generan a Rn ; esto es, Rn = gn (e1 ,e2 , . . . ,en ) . Por ejemplo, si n = 3, R3 = gn ((1, 0, 0) , (0, 1, 0) , (0, 0, 1)). 1De aquı́ en adelante supondremos que los espacios con los que se trabaje en este libro estarán dotados de las operaciones usuales que hemos definido en cada caso, a menos que se especifique lo contrario. 13 Page (PS/TeX): 38 / 148, COMPOSITE SECCIÓN 3.2 Espacios vectoriales 149 Criterios para que k vectores en Rn generen a Rn Supongamos que se tienen n vectores ui de Rn . Sabemos por el teorema 3.7, o del criterio que después de él se da (cfr. pág. 147), que todo vector b ∈ Rn es combinación lineal de los vectores ui si y sólo si el sistema Ax = b, donde A es la matriz cuyas columnas son los vectores ui , tiene solución para todo b ∈ Rn . Pero, por el teorema 2.3 de la sección 2.1.2 (cfr. pág. 67), el sistema Ax = b tiene solución para todo b si y sólo si la matriz A es invertible.14 Con esto hemos probado el siguiente teorema. Teorema 3.8 n-vectores de Rn generan a Rn si y sólo si la matriz que tiene a estos vectores como columnas es invertible. Ejemplo 3.36 Determinar si los vectores (1, −2, 3), (2, −1, 4) y (−1, 1, 0) generan a R3 . Por el teorema anterior, tres vectores generan a R3 si y sólo si la matriz que tiene a éstos como columnas es invertible; pero sabemos que una matriz es invertible si y sólo si es equivalente a la identidad (cfr. teorema 2.3, pág. 67). Llevemos esta matriz a la forma escalonada, por el método de Gauss, para ver si es o no equivalente a la identidad: Solución ⎤ ⎡ 1 1 2 −1 1 ⎦∼⎣ 0 A = ⎣ −2 −1 0 3 4 0 ⎤ ⎡ 1 2 −1 ∼ ⎣ 0 3 −1 ⎦ . 0 0 7 ⎡ ⎤ 2 −1 3 −1 ⎦ −2 3 Dado que la última matriz tiene pivote en todas las columnas, se sigue que A es equivalente a la identidad. Luego los vectores (1, −2, 3), (2, −1, 4) y (−1, 1, 0) generan a R3 . Supongamos ahora que tenemos k vectores en Rn con k < n (por ejemplo tres vectores en R4 ). Para que estos vectores generen a Rn , por el criterio de la página 148, es necesario y suficiente que el sistema Ax =b tenga solución para todo b ∈ Rn , donde A es la matriz que tiene como columnas a estos vectores. Sin embargo, al llevar A a su forma escalonada reducida, puesto que k < n, la última fila de esta forma escalonada reducida tiene necesariamente todas sus componentes nulas (piense por ejemplo, para fijar ideas, en una matriz 3 × 2). Sea Fi la fila de la matriz A que se transformó en la última fila nula de la i forma escalonada reducida de la matriz A; tomemos el vector b = (0, . . . , 0, 1, 0, . . . , 0) ∈ Rn , entonces el sistema Ax = b será inconsistente. Luego b no puede ser combinación lineal de los vectores columna de A. Ası́ que dichos vectores no generan a Rn . Con esta discusión hemos probado el siguiente teorema. Teorema 3.9 k vectores en Rn , con k < n, no generan a Rn . Ejemplo 3.37 Los vectores (1, 2, −1, 4), (−1, 2, 1, 0), (0, 1, 3, 1) no generan a R4 . 1Recuerde que, a su vez, una matriz es invertible si y sólo si es equivalente a la identidad. 14 Page (PS/TeX): 39 / 149, COMPOSITE 150 CAPÍTULO 3 Espacios vectoriales Tenemos un tercero y último caso para que k vectores generen a Rn cuando k > n. Nuevamente, estos vectores generan este espacio si y sólo si el sistema Ax = b tiene solución para todo b ∈ Rn , donde A, como antes, es la matriz que tiene por columnas a dichos vectores. Pensemos en la forma escalonada reducida, H, de A y supongamos que tiene n pivotes (por tanto, cualquier forma escalonada equivalente a A tendrá también n pivotes). Entonces, puesto que k > n, esta forma escalonada no puede tener filas nulas; de aquı́ que el sistema Ax = b es consistente para todo b. Además, dicho sistema tiene por tanto k − n variables libres (las columnas donde no hay pivote) independientemente del vector b, y dado que pueden tomar cualquier valor, en particular podemos elegir que todas sean cero. Por ende, todo vector b es combinación lineal de los vectores columna de la matriz A que corresponden a columnas con pivote15 en H. Es decir, Rn está generado por los vectores columna de A que correspondan a columnas con pivote en cualquier forma escalonada equivalente a la matriz A. Por otra parte, si una forma escalonada (y, por tanto, cualquier otra forma escalonada U ∼ A) equivalente a la matriz A no tiene n pivotes, entonces, dado que k > n (piense por ejemplo en una matriz 3 × 4), esta forma escalonada equivalente tiene por lo menos una fila nula; y por el mismo argumento dado en las demostraciones de los teoremas 3.8 y 3.9, el sistema Ax =b es inconsistente para ciertos vectores b, por lo que los vectores columna de A no generan a Rn . Hemos probado ası́ el siguiente teorema. Teorema 3.10 k-vectores de Rn , con k > n, generan a Rn si y sólo si una forma escalonada equivalente de la matriz A, cuyas columnas son estos vectores, tiene n pivotes.16 Si éste es el caso, podemos suprimir aquellos vectores de A que correspondan a columnas de la forma escalonada que no tengan pivote; los vectores restantes generarán a Rn . Ejemplo 3.38 Sean v1 = (1, 2, 0), v2 = (1, 1, 1), v3 = (1, 4, −2), v4 = (2, 3, 2). 1. Determinar si los vectores v1 ,v2 ,v3 ,v4 generan a R3 . 2. En caso afirmativo, reducir a un mı́nimo el número de generadores. Solución 1. Formamos la matriz que tiene como columnas a estos vectores y la llevamos a la forma escalonada: ⎡ 1 1 1 ⎣ 2 1 4 0 1 −2 ⎤ ⎡ 1 2 3 ⎦∼⎣ 0 0 2 ⎤ ⎡ 1 1 1 1 2 −1 2 −1 ⎦ ∼ ⎣ 0 −1 0 0 1 −2 2 ⎤ 1 2 2 −1 ⎦ . 0 1 Como hay tres pivotes, v1 ,v2 ,v3 ,v4 generan a R3 . 2. De la matriz original, excluimos el vector columna que corresponde en la forma escalonada a la columna que no tiene pivote. Por tanto, R3 = gn(v1 ,v2 ,v4 ). 1Por ejemplo, si las últimas k − n variables son libres y ui son los n primeros vectores columna de A, en este caso se tendrı́a 15 k−n b = ∑ni=1 xiui = Ax, donde x = (x1 , x2 , . . . , xn , 0, . . . , 0) es la solución de este sistema para las variables libres que hemos elegido. 16 1Recuerde que todas las matrices en forma escalonada equivalentes a la matriz A tienen el mismo número de pivotes y que éstos se encuentran en las mismas posiciones (cfr. nota 1.5, pág. 29). Page (PS/TeX): 40 / 150, COMPOSITE SECCIÓN 3.3 Dependencia e independencia lineal 151 3.3 Dependencia e independencia lineal Un concepto clave, estrechamente relacionado con el de combinación lineal, es el de dependencia e independencia lineal de vectores. En la figura 3-23 tenemos tres casos en el plano cartesiano. En (a), un vector es múltiplo escalar del otro y, por tanto, combinación lineal del primero. En (b) ningún vector se puede escribir como combinación lineal del otro. Y en (c) w = αu + βv; es decir, uno de los vectores es combinación lineal de los otros. Se dice entonces que los vectores en (a) y (c) son linealmente dependientes, mientras que en (b) son linealmente independientes. w v = λu αu u u v u v (a) (b) βv (c) Figura 3-23 • Tres casos representativos de dependencia lineal en R2 : (a) vectores linealmente dependientes; (b) vectores linealmente independientes, y (c) vectores linealmente dependientes. Generalizamos el concepto de dependencia e independencia lineal a cualquier espacio vectorial en la siguiente definición: Definición 3.15 Sean E un espacio vectorial y u1 , u2 , . . . ,uk , k vectores en E. Se dice que estos vectores son linealmente dependientes (L.D.) si uno de ellos es combinación lineal de los otros. En caso contrario diremos que los vectores son linealmente independientes (L.I.).17 Supongamos que los vectores ui ∈ E, i = 1, 2, . . . , k, son linealmente dependientes. Entonces uno de ellos es combinación lineal de los otros, digamos ui . Por tanto, existen escalares α j tales que ui = α1u1 + · · · + αi−1ui−1 + αi+1ui+1 + · · · + αkuk ; de aquı́ que α1u1 + · · · + αi−1ui−1 + (−1)ui + αi+1ui+1 + · · · + αkuk = 0E y uno, por lo menos, de los coeficientes de los u j es distinto de cero (especı́ficamente el coeficiente de ui que es −1). Inversamente, supongamos que existen escalares α j , j = 1, 2, . . . k, con uno de ellos distinto de cero, tales que α1u1 + · · · + αi−1ui−1 + αiui + αi+1ui+1 + · · · + αkuk = 0E . 1Abreviaremos linealmente independientes como L.I. y linealmente dependientes como L.D. a lo largo de todo este libro. 17 Page (PS/TeX): 41 / 151, COMPOSITE 152 CAPÍTULO 3 Espacios vectoriales Digamos que αi es uno de estos coeficientes no nulos; entonces ui = − (α1 /αi )u1 − · · · − (αi−1 /αi )ui−1 − (αi+1 /αi )ui+1 − · · · − (αk /αi )uk . Luego ui es combinación lineal de los restantes vectores; por tanto, son vectores linealmente dependientes. Con esta discusión hemos hecho patente la demostración del siguiente teorema que establece condiciones equivalentes muy útiles para dependencia e independencia lineal. Teorema 3.11 Sean u1 ,u2 , . . . ,uk vectores en un espacio vectorial E. Entonces: 1. Los vectores u1,u2 , . . . ,uk son linealmente dependientes si y sólo si existen α1 , α2 , . . . , αk ∈ R, con uno de ellos (por lo menos) distinto de cero, tales que α1u1 + α2u2 + · · · + αkuk = 0E . 2. Los vectores u1,u2 , . . . ,uk son linealmente independientes si y sólo si los únicos escalares α1 , α2 , . . . , αk ∈ R tales que α1u1 + α2u2 + · · · + αkuk = 0E son α1 = 0, α2 = 0, . . . , αk = 0. P Nota 3.10 1. Observe que si los vectores ui , i = 1, 2, . . . , k, son L.I., entonces cualquier subconjunto no vacı́o de ellos es también L.I. 2. Los vectores ui , i = 1, 2, . . . , k, son L.D. si y sólo si hay un subconjunto de ellos que es L.D. 3. Si alguno de los vectores ui , i = 1, 2, . . . , k, es el vector neutro aditivo del espacio, 0E , entonces estos vectores son L.D.; en particular, cuando k = 1, u es L.I. si y sólo si u = 0E . Ejemplo 3.39 ¿Son los vectores v1 = (1, 2, 3, 1), v2 = (2, 2, 1, 3) y v3 = (−1, 2, 7, −3) linealmente dependientes o linealmente independientes? Solución Si α1 , α2 , α3 ∈ R y α1v1 + α2v2 + α3v3 = 0R4 , entonces (α1 + 2α2 − α3 , 2α1 + 2α2 + 2α3 , 3α1 + α2 + 7α3 , α1 + 3α2 − 3α3 ) = (0, 0, 0, 0), que equivale al sistema α1 + 2α2 − α3 2α1 + 2α2 + 2α3 3α1 + α2 + 7α3 α1 + 3α2 − 3α3 = = = = 0. 0. 0. 0. Resolvamos ahora este sistema homogéneo: ⎡ 1 ⎢ 2 ⎢ ⎣ 3 1 Page (PS/TeX): 42 / 152, COMPOSITE ⎤ ⎡ ⎤ ⎡ 1 1 2 −1 2 −1 ⎥ ⎢ 0 ⎢ 0 −2 4 2 2 ⎥ ⎥∼⎢ ⎥∼⎢ 1 7 ⎦ ⎣ 0 −5 10 ⎦ ⎣ 0 0 0 −1 2 3 −3 ⎤ ⎡ 1 2 −1 ⎢ 0 1 −2 ⎥ ⎥∼⎢ −1 2 ⎦ ⎣ 0 0 −1 2 ⎤ 2 −1 1 −2 ⎥ ⎥. 0 0 ⎦ 0 0 Dependencia e independencia lineal 153 SECCIÓN 3.3 ⎤ ⎤ ⎡ α1 −3r Por tanto ⎣ α2 ⎦ = ⎣ 2r ⎦ r ∈ R; es decir, el sistema tiene solución no trivial; ası́, por ejemplo, con r α3 r = 1, −3v1 + 2v2 +v3 = 0. Luego v1 ,v2 ,v3 son linealmente dependientes. ⎡ Ejemplo 3.40 Determinar si x2 − 1, x2 + 1, 4x, 2x − 3 son linealmente dependientes o linealmente independientes en el espacio de los polinomios. Solución Si α1 (x2 − 1) + α2 (x2 + 1) + α3 (4x) + α4 (2x − 3) = 0, entonces (α1 + α2 )x2 + (4α3 + 2α4 )x − α1 + α2 − 3α4 = 0. De donde obtenemos el sistema homogéneo α1 + α2 = 0 4α3 + 2α4 = 0 −α1 + α2 − 3α4 = 0. Llevemos a forma escalonada la matriz de coeficientes: ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ 1 1 0 0 1 1 0 0 1 1 0 0 ⎣ 0 0 4 1 ⎦ ∼ ⎣ 0 2 0 −3 ⎦ . 2 ⎦∼⎣ 0 0 2 0 0 2 1 0 2 0 −3 −1 1 0 −3 El sistema tiene infinidad de soluciones dadas por ⎤ ⎤ ⎡ ⎡ ⎤ −3s α1 −3/2 ⎥ ⎢ α2 ⎥ ⎥ ⎢ ⎢ ⎢ ⎥ = r ⎢ 3/2 ⎥ = ⎢ 3s ⎥ . ⎣ α3 ⎦ ⎣ −1/2 ⎦ ⎣ −s ⎦ 2s 0 α4 ⎡ En particular, tiene soluciones no triviales, y por ende los polinomios son linealmente dependientes. 1 0 0 1 0 0 Ejemplo 3.41 ¿Son las matrices , , L.I. o L.D. en el espacio de las 0 0 1 0 0 1 matrices simétricas? Solución Resolvamos el sistema α1 1 0 0 0 + α2 0 1 1 0 + α3 0 0 0 1 = que equivale a α1 α2 α2 α3 = 0 0 0 0 de donde α1 = α2 = α3 = 0. Luego estas matrices son L.I. Page (PS/TeX): 43 / 153, COMPOSITE ; 0 0 0 0 , 154 CAPÍTULO 3 Espacios vectoriales Ejemplo 3.42 Determinar si las funciones f1 (x) = 1, f2 (x) = x y f3 (x) = x2 son L.I. o L.D. en el espacio de funciones F (−∞, ∞) (las funciones con dominio en el intervalo (−∞, ∞)). Solución Sean α1 , α2 , α3 ∈ R tales que α1 f1 + α2 f2 + α3 f3 = θ. Entonces tenemos α1 + α2 x + α3 x2 = 0 ∀x ∈ R. En particular, para x = 0, x = 1 y x = −1; por lo que α1 = 0, α2 + α3 = 0, −α2 + α3 = 0; de donde α1 = α2 = α3 = 0 . Por tanto, f1 , f2 , f3 son L.I. en este espacio. Ejemplo 3.43 Determinar si las funciones f1 y f2 son linealmente dependientes o independientes en el espacio C [−1, 1] (el espacio de funciones continuas en el intervalo [−1, 1]; cfr. el ejemplo 3.23), donde 0 si −1 ≤ x < 0 f1 (x) = x2 si 0≤x≤1 y f2 (x) = x2 0 si si −1 ≤ x < 0 0≤x≤1 Las gráficas de estas funciones se encuentran en la figura 3-24. f2 f1 −1 1 −1 1 Figura 3-24 • Un par de funciones continuas linealmente independientes. Solución Nuevamente, si α1 f1 + α2 f2 = θ, donde θ es la función constante cero (el neutro aditivo de este espacio), entonces α1 f1 (x) + α2 f2 (x) = θ(x) = 0 Page (PS/TeX): 44 / 154, COMPOSITE ∀x ∈ [−1, 1] . Dependencia e independencia lineal 155 SECCIÓN 3.3 En particular si x = −1, se tiene α1 · 0 + α2 · 1 = 0; y si x = 1, α1 · 1 + α2 · 0 = 0. De donde α1 = α2 = 0; por tanto f1 y f2 son L.I. Ejemplo 3.44 (El wronskiano). Sea J un intervalo abierto y supongamos que f1 , f2 , . . . , fn son funciones L.D. en el espacio F (J) y que todas estas funciones tienen derivada hasta el orden n − 1 en todo punto de J, entonces existen constantes α1 , α2 , . . . , αn ∈ R con una de ellas, al menos, distinta de cero, tales que α1 f1 (x) + α2 f2 (x) + · · · + αn fn (x) = 0 ∀x ∈ J. Ası́, para todo x ∈ J, α1 f1 (x) α1 f1 (x) .. . (n−1) α1 f1 Es decir, ⎡ + + .. . (x) + (n−1) f1 (x) + + .. . ··· ··· .. . + + .. . (n−1) + ··· + αn fn α2 f2 (x) f2 (x) f2 (x) .. . ··· ··· .. . f1 (x) f1 (x) .. . ⎢ ⎢ ⎢ ⎢ ⎣ α2 f1 (x) α2 f1 (x) .. . (n−1) f2 (x) ··· fn (x) f2 (x) .. . (n−1) fn (x) ⎤⎡ ⎥⎢ ⎥⎢ ⎥⎢ ⎥⎢ ⎦⎣ αn fn (x) αn fn (x) .. . = = .. . 0 0 .. . (n−1) = 0. α1 α2 .. . αn ⎤ (x) ⎡ ⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎥ ⎢ ⎦ ⎣ 0 0 .. . 0 (3.12) ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ Como una de las αi = 0, el sistema homogéneo (3.12) tiene solución no trivial y entonces, para todo x ∈ J, f2 (x) ··· fn (x) f1 (x) f (x) f2 (x) ··· f2 (x) 1 = 0. .. .. .. .. . . . . f (n−1) (x) f (n−1) (x) · · · f (n−1) (x) n 1 2 Al determinante del lado izquierdo de la precedente igualdad se le llama el wronskiano de las funciones f1 , f2 , . . . , fn y se le denota por W ( f1 , f2 , . . . , fn )(x). Ası́, hemos probado que si las funciones son linealmente dependientes en J, es decir, F (J) para ser precisos, el wronskiano es cero en todo punto del intervalo J. Luego, si existe x0 ∈ J tal que W ( f1 , f2 , . . . , fn )(x0 ) = 0, entonces las funciones son L.I. Sin embargo, si W ( f1 , f2 , . . . , fn )(x) = 0 para todo x ∈ J, las funciones no son necesariamente L.I. en J como lo hace patente el ejemplo 3.43. Ejemplo 3.45 Los polinomios 1, x, . . . , xk , son L.I. en el espacio de polinomios. En efecto, si αi ∈ R son tales que ∑ki=1 αi xi = 0, entonces, por igualdad18 de polinomios, se tiene αi = 0 ∀i = 1, 2, . . . , k. 1Cfr. la nota al pie 11 de la página 145 y el ejemplo 3.28. En este caso, el polinomio constante 0 se puede escribir como ∑ki=1 0 · xk . 18 Page (PS/TeX): 45 / 155, COMPOSITE 156 CAPÍTULO 3 Espacios vectoriales 3.3.1 Criterios de independencia lineal en Rn Sean ui , i = 1, 2, . . . , k, vectores en Rn ; estos vectores son L.D. si y sólo si el sistema x1u1 + x2u2 + · · · + xkuk = 0Rn tiene soluciones no triviales. Esto es, si el sistema homogéneo Ax = 0, donde A es la matriz que tiene como columnas a los vectores ui , tiene soluciones no triviales. Del teorema 1.6 (cfr. pág. 32) sabemos que si k = n, este sistema tiene soluciones no triviales si y sólo si la matriz es no invertible. Y del mismo teorema sabemos que si k > n (tenemos entonces un sistema con más variables que ecuaciones), el sistema homogéneo tiene soluciones no triviales. Con esto hemos probado el siguiente teorema. Teorema 3.12 (Criterios para que k vectores de Rn sean L.I. o L.D.) Sean u1 , u2 , . . . ,uk , k vectores en Rn y A la matriz que tiene como columnas a estos vectores. Entonces: 1. Los vectores son L.I. si y sólo si el sistema Ax = 0 tiene únicamente la solución trivial. 2. Los vectores son L.D. si y sólo si el sistema Ax = 0 tiene soluciones no triviales. 3. Si k = n: (a) los vectores son L.I. si y sólo si A es invertible. (b) los vectores son L.D. si y sólo si A no es invertible. 4. Si k > n los vectores son L.D. Ejemplo 3.46 Determinar si los vectores dados son L.I. o L.D. en R4 : 1. (1, −2, −3, 2), (−1, 0, 1, 1), (3, 2, 1, 1). 2. (1, −2, −3, 2), (−1, 0, 1, 1), (5, −4, −9, 1). 3. (1, 2, 1, 3), (1, 1, 1, 1), (−1, 1, 0, 0), (−1, 1, 0, 0), (1, 0, 0, 4). 4. (1, 0, 1, 0), (2, −1, 1, 1), (−2, 1, 1, 3), (−3, 0, 0, 1). 1. Resolvamos el sistema homogéneo Ax =0, donde A es la matriz que tiene como columnas a estos vectores. ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ 1 −1 3 1 −1 3 1 −1 3 ⎢ ⎢ ⎢ −2 1 −4 ⎥ 8 ⎥ 0 2 ⎥ ⎥ ⎥∼⎢ 0 ⎥ ∼ ⎢ 0 −2 ⎢ ⎦ ⎣ ⎦ ⎣ ⎣ −3 0 −2 10 ⎦ 0 −2 10 1 1 0 3 −5 0 3 −5 2 1 1 ⎤ ⎤ ⎡ ⎡ 1 −1 3 1 −1 3 ⎢ ⎢ 0 1 −4 ⎥ 1 −4 ⎥ ⎥. ⎥∼⎢ 0 ∼⎢ ⎣ ⎦ ⎣ 0 0 0 2 ⎦ 0 2 0 0 0 0 0 7 Solución De donde el sistema sólo tiene la solución trivial, por lo que los vectores son L.I. Page (PS/TeX): 46 / 156, COMPOSITE SECCIÓN 3.3 Dependencia e independencia lineal 157 2. Resolvamos el sistema homogéneo Ax = 0, donde A es la matriz que tiene como columnas a estos vectores. ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ 1 −1 5 1 −1 5 1 −1 5 ⎢ ⎢ ⎢ −2 1 −3 ⎥ 6 ⎥ 0 −4 ⎥ ⎥ ⎥∼⎢ 0 ⎥ ∼ ⎢ 0 −2 ⎢ ⎣ −3 6 ⎦ ⎣ 0 −2 −6 ⎦ 1 −9 ⎦ ⎣ 0 −2 0 3 −9 0 3 −9 2 1 1 ⎤ ⎡ 1 −1 5 ⎥ ⎢ 0 1 −3 ⎥. ∼⎢ ⎣ 0 0 0 ⎦ 0 0 0 De donde el sistema tiene una infinidad de soluciones, a saber, haciendo sustitución regresiva, ⎡ ⎤ ⎤ ⎡ x1 −2r ⎣ x2 ⎦ = ⎣ 3r ⎦ . r x3 Por tanto tiene soluciones no triviales, ası́ que los vectores son L.D.; una solución es, por ejemplo, (x1 , x2 , x3 ) = (−2, 3, 1), que se obtiene al hacer r = 1. (Comprobación: − 2(1, −2, −3, 2) + 3(−1, 0, 1, 1) + (5, −4, −9, 1) = (0, 0, 0, 0).) 3. En este caso tenemos 5 vectores en R4 , por el teorema 3.12 son L.D. (k > n). 4. En este caso tenemos 4 vectores en R4 , y serán L.I. si y sólo si la matriz A, que tiene de columnas a estos vectores, es invertible. Llevemos esta matriz a la forma escalonada: ⎤ ⎤ ⎡ ⎡ 1 2 −2 −3 1 2 −2 −3 ⎢ ⎢ 0 −1 1 0 ⎥ 1 0 ⎥ ⎥ ⎥ ∼ ⎢ 0 −1 A=⎢ ⎣ 1 3 3 ⎦ 1 1 0 ⎦ ⎣ 0 −1 0 1 3 1 0 1 3 1 ⎤ ⎤ ⎡ ⎡ 1 2 −2 −3 1 2 −2 −3 ⎢ ⎢ 0 −1 1 0 ⎥ 1 0 ⎥ ⎥. ⎥ ∼ ⎢ 0 −1 ∼⎢ ⎣ 0 0 2 3 ⎦ 0 2 3 ⎦ ⎣ 0 0 0 0 −5 0 0 4 1 Dado que toda columna tiene pivote en la última matriz equivalente, se sigue que A es equivalente a la identidad y, por tanto, es invertible; luego los vectores son L.I. Como mencionamos anteriormente, y el lector seguramente ya lo notó, los conceptos de independencia lineal y combinaciones lineales están estrechamente relacionados. En Rn esta relación se hace aún más patente por la herramienta que proveen las técnicas matriciales y la teorı́a de sistemas lineales que estudiamos en el capı́tulo 1. Por el teorema 3.8 (cfr. pág. 149), n vectores de Rn generan a Rn si y sólo si la matriz que tiene por columnas a estos vectores es invertible; a su vez, por el teorema 3.12 (cfr. pág. 156), esta matriz es invertible si y sólo si los n vectores son L.I. Hemos probado ası́ el siguiente teorema que relaciona los conceptos de independencia lineal y el número de generadores para el espacio Rn . Page (PS/TeX): 47 / 157, COMPOSITE 158 CAPÍTULO 3 Espacios vectoriales Teorema 3.13 Sean u1 ,u2 , . . . ,un , n vectores de Rn y A la matriz que tiene por columnas a estos vectores, entonces las siguientes condiciones son equivalentes: 1. u1 ,u2 , . . . ,un son L.I. 2. u1 ,u2 , . . . ,un generan a Rn . 3. A es invertible.19 Ejemplo 3.47 Hola 1. En el ejemplo 3.46 vimos que la matriz que tiene por columnas los vectores (1, 0, 1, 0), (2, −1, 1, 1), (−2, 1, 1, 3), (−3, 0, 0, 1) de R4 es equivalente a la identidad y, por ende, es invertible; ası́ que estos vectores son L.I. y generan a R4 . 2. Sean (1, 0, 1), (−2, 1, 1) y (−4, 3, 5); llevemos la matriz A, que tiene por columnas a estos vectores, a la forma escalonada: ⎤ ⎤ ⎡ ⎤ ⎡ ⎡ 1 −2 −4 1 −2 −4 1 −2 −4 ⎣ 0 1 3 ⎦. 1 3 ⎦∼⎣ 0 1 3 ⎦∼⎣ 0 0 0 0 0 3 9 1 1 5 Puesto que la última columna en la última matriz equivalente no tiene pivote, la matriz A no es equivalente a la identidad y, por tanto, no es invertible; ası́ que estos vectores no generan a R3 y son L.D. 3.4 Bases y dimensión En la sección anterior vimos cómo espacios vectoriales pueden ser generados por ciertos conjuntos de vectores; es decir, que todo elemento de estos espacios se puede escribir como una combinación lineal de los vectores de esos conjuntos generadores. También ilustramos, con algunos casos, cómo es posible reducir a un mı́nimo los generadores (cfr. ejemplo 3.38 y teorema 3.10). El tema de minimizar el conjunto de generadores está relacionado con la independencia lineal de los vectores y con el concepto, que estudiaremos en la presente sección, de bases de espacios vectoriales. 3.4.1 Definiciones y ejemplos Comenzamos extendiendo el concepto de dependencia e independencia lineal a cualquier subconjunto de vectores, aun si tiene una infinidad de elementos. Definición 3.16 Sea E un espacio vectorial y S ⊂ E. 1. S es linealmente independiente (L.I.), si los vectores de todo subconjunto finito de S son linealmente independientes en el sentido de la definición20 3.15. 2. S es linealmente dependiente (L.D.) si contiene (al menos) un subconjunto finito de vectores linealmente dependientes en el sentido de la definición 3.15. 1Recuerde que una matriz es invertible si y sólo si es equivalente por filas a la identidad; y que para mostrar que una matriz es equivalente a la identidad basta llevarla, por el método de Gauss, a la forma escalonada y verificar que toda columna (y por ende toda fila) tenga pivote. 20 1Cfr. página 151. 19 Page (PS/TeX): 48 / 158, COMPOSITE SECCIÓN 3.4 Bases y dimensión 159 Ejemplo 3.48 En P, el espacio de polinomios, sea S1 = {1, x, x2 , . . . , xn , . . . }. S1 es L.I., mientras que S2 = {1, x, 2x, 2x2 , 3x3 , 4x4 , 5x5 , . . . } es L.D. En efecto, sea A un subconjunto finito de S1 ; entonces los elementos de A tienen la forma (dado que A es finito) xmi , para k enteros mi , i = 1, 2, . . . , k, con 0 ≤ m1 < m2 < · · · < mk ; luego estos vectores forman parte de los vectores 1, x, . . . , xmi , . . . , xmk que son L.I. (cfr. el ejemplo 3.45); por tanto, los polinomios en A son también L.I. (cfr. la nota 3.10, pág. 152). Es decir, todo subconjunto finito de S1 es L.I.; por tanto S1 es L.I. En cuanto a S2 , los polinomios x y 2x son claramente L.D.; por tanto S2 es L.D. Definición 3.17 Sean E un espacio vectorial y S ⊂ E. Se dice que S genera a E si todo elemento de E es combinación lineal de elementos de S; es decir, para cada u ∈ E existen s1 , . . . ,sk ∈ S y escalares a1 , . . . , ak tales que u = a1s1 + · · · + aksk . Ejemplo 3.49 S = {1, x, x2 , . . . , xn , . . . } genera a P. Pues claramente todo polinomio de este espacio tiene la forma a0 · 1 + a2 · x + · · · + ak · xk . Definición 3.18 (Bases) Si E es un espacio vectorial y B ⊂ E, B es una base de E si: 1. B es L.I. 2. B genera a E. Ejemplo 3.50 (Base canónica de Rn ). En Rn sean los vectores i ei = (0, . . . , 0, 1, 0, . . . , 0) n i = 1, 2, . . . , n. Entonces B = {e1 ,e2 , . . . ,en } es una base (la llamada base canónica o estándar) de Rn ; pues la matriz que tiene por columnas a estos vectores es la identidad n × n que es invertible, y por el teorema 3.13 los vectores generan a Rn y son L.I. Ejemplo 3.51 (Base de P). En P, B = {1, x, x2 , x3 , . . . , xn , . . . } es una base. Pues en el ejemplo 3.48 vimos que este conjunto es L.I., y en el ejemplo 3.49 mostramos que este conjunto genera a P. Ejemplo 3.52 (Base de Pk ). En Pk , el espacio de polinomios de grado a lo más k, B = {1, x, x2 , x3 , . . . , xk } es una base. Pues en el ejemplo 3.45 probamos que este conjunto es L.I. y claramente todo polinomio de Pk es de la forma ∑ki=0 ai xi . Page (PS/TeX): 49 / 159, COMPOSITE 160 CAPÍTULO 3 Espacios vectoriales Ejemplo 3.53 (Base de Mm×n ). Sean las matrices Mαβ = [mi j ] de tamaño m × n definidas en el ejemplo 3.34; es decir, mi j = 1 si i = α, β = j, 0 en otro caso. Entonces, si A = [ai j ] ∈ Mm×n , es claro que21 A= ∑ 1≤α≤m 1≤β≤n aαβ Mαβ (3.13) lo cual entraña que las mn matrices Mαβ generan a Mm×n . Por otra parte, si el lado derecho de (3.13) se iguala a la matriz cero m × n, entonces (por definición de la igualdad de matrices) se obtiene que las constantes aαβ = 0, ∀α, β; es decir, las matrices Mαβ también son L.I. De esta manera las mn matrices Mαβ forman una base para el espacio Mm×n . Por ejemplo, en M3×2 , ⎧⎡ ⎤ ⎡ 0 ⎨ 1 0 B = ⎣ 0 0 ⎦,⎣ 0 ⎩ 0 0 0 ⎤⎫ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 0 0 ⎬ 0 0 0 0 0 0 1 0 ⎦,⎣ 1 0 ⎦,⎣ 0 1 ⎦,⎣ 0 0 ⎦,⎣ 0 0 ⎦ ⎭ 0 1 1 0 0 0 0 0 0 es una base. Enunciamos el siguiente teorema, cuya demostración es delicada y la postergamos al apéndice C. Invitamos al lector a que la consulte, pues contiene una construcción muy interesante que se utiliza con frecuencia en matemáticas para probar diversos teoremas de existencia y que depende de un principio muy básico y fundamental que es el llamado lema de Zorn. Teorema 3.14 (Existencia de bases) Sea E un espacio vectorial. Entonces E posee una base; es decir, existe B ⊂ E L.I. tal que todo vector del espacio E es combinación lineal de elementos de B. 3.4.2 Dimensión, extracción de bases y compleción de un conjunto L.I. a una base Hemos visto varios ejemplos de espacios vectoriales que se pueden generar mediante combinaciones lineales de elementos de ciertos subconjuntos de esos espacios. La idea central es optimizar el número de vectores generadores; y la independencia lineal es obviamente el discriminador natural para excluir vectores de un conjunto de generadores y quedarse con un mı́nimo de éstos que sigan generando al espacio. Las bases de espacios vectoriales son los conjuntos que cumplen con las condiciones de poder generar al espacio y ser L.I. Surge entonces la conjetura natural de que si dos bases generan al mismo espacio y sus elemementos son L.I., entonces tienen un mı́nimo de generadores; luego ambas deben tener el mismo número de elementos. Esta conjetura es cierta, y la probaremos en el teorema 3.16; lo cual da pauta a definir lo que llamaremos dimensión de un espacio vectorial. El concepto de dimensión de un espacio no es otra cosa que la generalización y abstracción de la idea intuitiva que tenemos de la dimen1La notación ∑1≤α≤m aαβ Mαβ significa que se suman todas las posibles combinaciones de aαβ Mαβ cuando los subı́ndices α y 21 1≤β≤n β recorren los valores 1, . . . , m y 1, . . . , n, respectivamente. Dicho de paso, el número de términos de esta suma es mn. Page (PS/TeX): 50 / 160, COMPOSITE Bases y dimensión 161 SECCIÓN 3.4 sión de conjuntos que nos son familiares, como una lı́nea recta, un plano y el espacio donde habitamos; a los cuales de manera natural les hemos asignado dimensiones uno, dos y tres, respectivamente, en el lenguaje coloquial. Teorema 3.15 Sea E un espacio vectorial que está generado por los vectores L.I. u1 ,u2 , . . . ,un . Si v1 ,v2 , . . . ,vk son vectores en este espacio con k > n, entonces estos vectores son L.D. DEMOSTRACIÓN Q Resolvamos el sistema β1v1 + β2v1 + · · · + βkvk = 0E (3.14) para βi ∈ R, 1 = 1, 2, . . . , k. Dado que E = gn (u1 ,u2 , . . . ,un ), existen escalares αi j , i = 1, . . . , k, j = 1, . . . , n, tales que v1 = α11u1 + α12u2 + · · · + α1nun v2 = α21u1 + α22u2 + · · · + α2nun .. . (3.15) vk = αk1u1 + αk2u2 + · · · + αknun Sustituyendo cada vi de (3.15) en (3.14) obtenemos 0E = β1 (α11u1 + α12u2 + · · · + α1nun ) + β2 (α21u1 + α22u2 + · · · + α2nun ) + · · · + βk (αk1u1 + αk2u2 + · · · + αknun ) , que agrupando términos produce 0E = (β1 α11 + β2 α21 + · · · + βk αk1 )u1 + (β1 α12 + β2 α22 + · · · + βk αk2 )u2 + · · · + (β1 α1n + β2 α2n + · · · + βk αkn )un . Puesto que los vectores ui son L.I., se debe tener β1 α11 β1 α12 .. . β1 α1n + + .. . β2 α21 β2 α22 .. . + + .. . + β2 α2n + .. . ··· + + .. . βk αk1 βk αk2 .. . = = .. . 0 0 .. . + βk αkn = 0, que es un sistema lineal homogéneo con más incógnitas que ecuaciones (recuerde que k > n); por tanto tiene solución no trivial; es decir, existen βi , i = 1, 2, . . . , k, no todos cero, tales que (3.14) se cumple. Luego los vectores v1 ,v2 , . . . ,vk son L.D. Q El siguiente corolario es consecuencia inmediata del teorema 3.15 y su demostración se deja como ejercicio al lector. Corolario 3.1 Si un espacio vectorial E está generado por los vectores L.I. u1 ,u2 , . . . ,un , entonces todo conjunto de vectores linealmente independiente tiene a lo más n vectores. Page (PS/TeX): 51 / 161, COMPOSITE 162 CAPÍTULO 3 Espacios vectoriales Lema 3.2 Sean E un espacio vectorial y S = {u1 ,u2 , . . . ,um } un subconjunto finito de este espacio que lo genera; es decir, E = gn(u1 ,u2 , . . . ,um ). Entonces existe S1 ⊂ S que es L.I. y genera a E. DEMOSTRACIÓN Q Formemos el conjunto S1 de la siguiente manera22 • u1 ∈ S1 . • u2 ∈ S1 si u2 no es múltiplo escalar de u1 . • En general, ui ∈ S1 si ui no es combinación lineal de sus predecesores. Mediante este proceso es claro que los elementos de S1 son L.I., y ya que cada vector que se excluyó de S para formar S1 es combinación lineal de sus predecesores, cada uno de ellos se puede escribir como combinación lineal de los elementos de S1 . Ası́, puesto que todo vector en E es combinación lineal de los vectores de S, todo vector de E es combinación lineal de los vectores de S1 ; es decir, S1 genera a E. Q Corolario 3.2 Si un espacio vectorial E está generado por los vectores u1 , u2 ,. . . , um (no necesariamente L.I.), entonces todo conjunto de vectores linealmente independiente tiene a lo más m vectores. DEMOSTRACIÓN Q Por el lema 3.2 podemos suponer, sin pérdida de generalidad, que los vectores u1 ,u2 , . . . ,um son L.I. Si vi , i = 1, . . . , k son vectores L.I., por el corolario 3.1, k ≤ m. Q Definición 3.19 Un espacio vectorial E es finitamente generado si existen u1 , . . . ,um ∈ E tales que E = gn(u1 ,u2 , . . . ,um ). Corolario 3.3 Sea E un espacio vectorial finitamente generado, con u1 , . . . ,um un conjunto de generadores. Si B es una base de E, entonces B tiene a lo más m elementos. P Nota 3.11 Supongamos que E es un espacio finitamente generado, con S = {u1 , . . . ,um } un conjunto de generadores, entonces, por el lema 3.2, podemos reducir S a un conjunto B que es linealmente independiente y que también genera a E; es decir, a una base del espacio E. Teorema 3.16 (Igualdad en cardinalidad en bases del mismo espacio) Si E es un espacio vectorial finitamente generado y B1 = {u1 ,u2 , . . . ,un } y B2 = {v1 ,v2 , . . . ,vm } son un par de bases de este espacio, entonces n = m; es decir, cualquier par de bases en el mismo espacio tienen igual número de elementos. 1Podemos suponer que ui = 0E para todo i; pues si uno de estos vectores es el neutro aditivo, se puede excluir de S y el conjunto resultante sigue obviamente generando al espacio E. 22 Page (PS/TeX): 52 / 162, COMPOSITE SECCIÓN 3.4 DEMOSTRACIÓN Bases y dimensión 163 Q Por el corolario 3.1, puesto que B2 es una base y los vectores ui son L.I., se tiene n ≤ m; y por el mismo corolario, dado que los vectores vi son L.I. y B1 es una base, se deduce m ≤ n; luego n = m. Q Definición 3.20 (Dimensión de un espacio vectorial). Sea E un espacio vectorial. 1. Si E es un espacio vectorial finitamente generado, se define la dimensión de E, dim(E), como el número de elementos de cualquier base de E. 2. Si E no es finitamente generado, entonces se dice que E tiene dimensión infinita y se escribe dim(E) = ∞. Ejemplo 3.54 (Dimensión del espacio trivial {0E }). Sea E un espacio vectorial, entonces dim({0E }) = 0; pues el único subconjunto L.I. de este subespacio es el conjunto vacı́o 0/ (cfr. ejercicio resuelto 32(a), pág. 191). Ejemplo 3.55 (Dimensión de Rn ). En el ejemplo 3.50 vimos que B = {e1 ,e2 , . . . ,en } , donde i ei = (0, . . . , 0, 1, 0, . . . , 1) n i = 1, 2, . . . , n es una base de Rn ; por tanto, dim(Rn ) = n. Ejemplo 3.56 El espacio de polinomios, P, no es finitamente generado; pues si S es un conjunto finito de generadores, entonces uno de ellos tiene el grado máximo, digamos m. Por tanto, cualquier combinación lineal de elementos de S tiene grado a lo más m y, por ende, un polinomio de grado mayor a m no puede ser combinación lineal de elementos de S. Luego, dim(P) = ∞ (cfr. ejemplo 3.51). Ejemplo 3.57 Probamos, en el ejemplo 3.52, que el conjunto B = 1, x, x2 , . . . , xk es una base de Pk . Por tanto, dim (Pk ) = k + 1. Ejemplo 3.58 En el ejemplo 3.53, mostramos que B = {Mαβ | 1 ≤ α ≤ m, 1 ≤ β ≤ n} es una base del espacio vectorial de las matrices de tamaño m × n. Entonces, dim (Mm×n ) = mn. Page (PS/TeX): 53 / 163, COMPOSITE 164 CAPÍTULO 3 Espacios vectoriales Ejemplo 3.59 En el ejemplo 3.29 vimos que toda matriz simétrica de tamaño 2 × 2, a c c d , se puede escribir como a c c d =a 1 0 0 0 +c 0 1 1 0 +d 0 0 0 1 . Por otro lado, si α1 1 0 0 0 + α2 0 1 1 0 + α3 0 0 0 1 = 0 0 0 0 se desprende que α1 = α2 = α3 = 0; i.e., estas matrices son L.I. Luego una base para el espacio, S, de las matrices simétricas de orden 2 es $ 1 0 0 1 0 0 B= , , . 0 0 1 0 0 1 Por tanto, dim(S) = 3. Extracción de una base en un conjunto generador En el lema 3.2 probamos que si S es un conjunto finito generador de un espacio vectorial, podemos construir una base del espacio a partir de los elementos de S excluyendo en forma sistemática a los que sean combinaciones lineales de sus predecesores; pues los que queden serán L.I. y claramente aún generan el espacio. Dada la gran importancia que tiene este resultado, volvemos a hacer explı́cito este método en el siguiente teorema e ilustramos a continuación su uso. Teorema 3.17 Sean E un espacio vectorial, v1 ,v2 , . . . ,vk ∈ E − {0E }, y supongamos que S = gn(v1 ,v2 , . . . ,vk ). Para extraer de {v1 ,v2 , . . . ,vk } una base de S, se excluyen de {v1 ,v2 , . . . ,vk } aquellos vectores que son combinaciones lineales de sus predecesores.23 Ejemplo 3.60 Encontrar una base y la dimensión del subespacio de los polinomios S = gn(2, 1 − x, x + 1, x2 − 1, x2 + 1, x3 − 2). • Queda 2 como vector inicial para la base. • Claramente 1 − x no es múltiplo escalar de 2, por tanto no se excluye. • Veamos si 1 + x es combinación lineal de 2 y 1 − x: 1 + x = a(2) + b(1 − x) = 2a + b − bx ⇒ 2a + b = 1 −b = 1; 1Por vacuidad, el primer vector no puede ser combinación lineal de sus predecesores y se incluye siempre como vector inicial para la base. 23 Page (PS/TeX): 54 / 164, COMPOSITE SECCIÓN 3.4 Bases y dimensión 165 por tanto, b = −1 y a = 1. Ası́ que 1 + x se excluye por ser combinación lineal de sus predecesores. • x2 − 1 no puede ser combinación lineal de 2 y 1 − x, pues toda combinación lineal de estos polinomios tiene grado a lo más uno; luego x2 − 1 se queda. • x2 + 1 es combinación lineal de 2, 1 − x y x2 − 1; pues x2 + 1 = a(2) + b(1 − x) + c(x2 − 1) = 2a + b − c − bx + cx2 entraña el sistema 2a + b − c = 1 −b = 0 c =1 que tiene solución c = 1, b = 0 y a = 1. Por tanto x2 + 1 se excluye. • Finalmente, toda combinación lineal de los vectores que se han conservado tiene grado a lo más 2, por tanto x3 − 2 no puede ser combinación lineal de ellos y entonces se conserva. Luego, la base buscada es B = {2, 1 − x, x2 − 1, x3 − 2} y dim(S) = 4. En el caso particular de que se quiera extraer una base de {v1 , . . . ,vk } para el subespacio S = gn(v1 ,v2 , . . . ,vk ) de Rn , se puede utilizar herramienta matricial. Sea A la matriz que tiene por columnas a los vectores vi y H la forma escalonada reducida de A. Si b ∈ S, entonces b es combinación lineal de los vectores columna de A que corresponden a columnas con pivote en H; pues para los sistemas equivalentes [A |b] ∼ [H |c] estas columnas son precisamente donde hay variables ligadas y en las restantes columnas hay variables libres; a cada una de estas últimas se le puede asignar cualquier valor, en particular valores nulos a todas. Ası́ S está generado por los vectores columna de A que corresponden a columnas con pivote en cualquier matriz escalonada equivalente a la matriz A.24 Ahora pensemos en la matriz A1 que se obtiene de la matriz A excluyendo los vectores que no correspondieron a columnas con pivote en la forma escalonada reducida; digamos que A1 tiene por columnas a v1 ,v2 , . . . ,vm . Entonces, toda columna de la forma escalonada reducida de A1 tiene pivote; luego el sistema A1x =0,x ∈ Rm , tiene solución única, y por tanto las columnas de A1 son L.I. Con lo precedente, hemos hecho plausible la demostración del siguiente teorema, que es un método para extraer una base de un subespacio generado por vectores de Rn . 1Cfr. teorema 3.10 y la discusión que lo precede en la página 150. 24 Page (PS/TeX): 55 / 165, COMPOSITE 166 CAPÍTULO 3 Espacios vectoriales Teorema 3.18 Sean v1 ,v2 , . . . ,vk ∈ Rn y S = gn(v1 ,v2 , . . . ,vk ). Entonces, para obtener una base de S a partir de los vectores vi , se procede de la manera siguiente: 1. Se forma la matriz A que tiene por columnas los vectores vi y se lleva a forma escalonada. 2. Los vectores columna de A que correspondan a columnas con pivote en esa forma escalonada formarán una base de S. Ejemplo 3.61 Extraer una base y encontrar la dimensión del subespacio S generado por los vectores (1, −1, 0, 2, 1), (2, 1, −2, 0, 0), (0, −3, 2, 4, 2), (2, 4, 1, 0, 1), (3, 3, −4, −2, −1), (5, 7, −3, −2, 0). Solución Procedamos como establece el teorema 3.18: ⎡ ⎢ ⎢ ⎢ ⎢ ⎣ 1 2 0 −1 1 −3 0 −2 2 2 0 4 1 0 2 2 3 4 3 1 −4 0 −2 1 −1 5 7 −3 −2 0 ⎡ ⎤ ⎢ ⎥ ⎢ ⎥ ⎥ → ⎢ ⎢ ⎥ ⎣ ⎦ ⎡ → 1 2 0 3 0 −2 0 −4 0 −2 1 2 ⎢ 0 1 ⎢ ⎢ 0 0 ⎢ ⎣ 0 0 0 0 0 2 3 5 −3 6 6 12 2 1 −4 −3 4 −4 −8 −12 2 −1 −4 −5 ⎤ 0 2 3 5 −1 2 2 4 ⎥ ⎥ 0 1 0 1 ⎥ ⎥. 0 0 0 0 ⎦ 0 0 0 0 ⎤ ⎥ ⎥ ⎥ ⎥ ⎦ La base buscada se forma tomando los vectores columna de la matriz inicial que correspondan a columnas que tengan pivote en la forma escalonada B = {(1, −1, 0, 2, 1), (2, 1, −2, 0, 0), (2, 4, 1, 0, 1)} y dim(S) = 3. El siguiente teorema nos auxilia para, en el caso de saber la dimensión de un espacio, digamos n, concluir que un conjunto de n generadores son L.I., y por ende forman una base, o que n vectores L.I. generan al espacio; y ası́ evitar probar la independencia lineal de los vectores o que generen al espacio. Teorema 3.19 Si dim(E) = n, las siguientes condiciones son equivalentes: 1. v1 ,v2 , . . . ,vn son L.I. 2. v1 ,v2 , . . . ,vn generan a E. 3. {v1 ,v2 , . . . ,vn } es una base de E. DEMOSTRACIÓN Q Sea B una base de E, entonces B tiene n elementos pues dim (E) = n. Mostremos (1) ⇒ (2) ⇒ (3), (3) ⇒ (1) y tendremos la equivalencia de las tres condiciones. (1) ⇒ (2). Supongamos que w ∈ E , entonces, por el teorema 3.15, los vectores {u1 ,u2 , . . . ,un ,w} son L.D. Entonces existen escalares αi , i = 1, 2, . . . , n, y β ∈ R, no todos cero, tales que α1u1 + α2u2 + · · · + αnun + βw = 0E . Page (PS/TeX): 56 / 166, COMPOSITE SECCIÓN 3.4 Bases y dimensión 167 Si β = 0, entonces algún αi debe ser distinto de cero; pero esto es imposible ya que los vectores ui son L.I.; por tanto β = 0. Luego w es combinación lineal de los vectores ui . Dado que w es arbitrario, hemos probado que los vectores ui generan a E. (2) ⇒ (3). Si los vectores ui son L.D., entonces, por el teorema 3.17, podemos reducir este conjunto a uno L.I. que genere a E con m elementos y m < n. Pero esto implicarı́a que hay una base de E con un número de elementos distinto de n, lo cual es una contradicción al teorema 3.16. Por tanto, los vectores ui deben ser L.I. Luego forman una base de E. (3) ⇒ (1). Es clara. Q Ejemplo 3.62 Sabemos que P2 tiene dimensión 3. Si α1 , α2 , α3 ∈ R son tales que α1 (x − 2) + α2 (3 − x) + α3 x2 − x = 0, entonces 3α2 − 2α1 + (α1 − α2 − α3 ) x + α3 x2 = 0. Por la definición de igualdad de polinomios se tiene 3α2 − 2α1 = 0 α1 − α2 − α3 = 0 α3 = 0, que implica α3 = α2 = α1 = 0. Luego los tres polinomios x − 2, 3 − x, x2 − x son L.I. en P2 y por tanto x − 2, 3 − x, x2 − x es una base de P2 . Compleción de un conjunto L.I. a una base Podemos utilizar el teorema 3.17 para completar un conjunto L.I. a una base B del espacio mediante el siguiente procedimiento: Sea B1 = {v1 ,v2 , . . . ,vk } un conjunto L.I. de un espacio E que tiene dimensión finita n. 1. Se forma el conjunto M = {v1 ,v2 , . . . ,vk ,e1 ,e2 , . . . ,en }, donde {e1 ,e2 , . . . ,en } es una base conocida del espacio E. 2. Se extrae de M una base B por medio del procedimiento dado en el teorema 3.17. 3. El conjunto B encontrado en el inciso anterior será una base de E. P Nota 3.12 El procedimiento anterior se justifica porque E = gn(M) y, al aplicar el teorema 3.17 a este conjunto generador, los vectores vi , i = 1, 2, . . . , k, permanecen ya que por hipótesis son L.I.; luego la base B del espacio E contiene a estos vectores. Ejemplo 3.63 Completar el conjunto L.I. {2x − 4, x2 + 1} a una base de P3 . Page (PS/TeX): 57 / 167, COMPOSITE 168 CAPÍTULO 3 Espacios vectoriales Solución Utilizamos como base conocida de P3 a {1, x, x2 , x3 } y extraemos de {2x−4, x2 +1, 1, x, x2 , x3 } una base: • 2x − 4 y x2 + 1 se quedan porque son L.I. • 1 = a(2x − 4) + b(x2 + 1) implica bx2 + 2ax + b − 4a = 1; por tanto, b = 0 2a = 0 b − 4a = 1, sistema que es inconsistente; luego 1 no es combinación lineal de sus predecesores y se queda. • x = a(2x − 4) + b(x2 + 1) + c implica x = bx2 + 2ax + b + c − 4a; por tanto, b = 0 2a = 1 b + c − 4a = 0, sistema consistente con b = 0, a = 1/2 y c = 2; luego x es combinación lineal de sus predecesores y se excluye. • Evidentemente x2 = 0(2x − 4) + 1(x2 + 1) + (−1)1; ası́ que x2 es combinación lineal de sus predecesores y se excluye. • Claramente x3 no es combinación lineal de sus predecesores, ası́ que se incluye. La base buscada es B = {2x − 4, x2 + 1, 1, x3 }. Ejemplo 3.64 Completar el conjunto L.I. {(1, 2, 0, 1, 3), (−2, −4, 1, −2, −6)} a una base de R5 . Solución Utilizamos la base canónica de R5 , la adjuntamos a este conjunto M = {(1, 2, 0, 1, 3), (−2, −4, 1, −2, −6), (1, 0, 0, 0, 0), (0, 1, 0, 0, 0) , (0, 0, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)} , y extraemos una base del mismo utilizando el teorema 3.18: ⎡ ⎤ ⎡ 1 −2 1 −2 1 0 0 0 0 ⎢ 0 ⎢ 2 −4 0 1 0 0 0 ⎥ 0 ⎢ ⎥ ⎢ ⎥ ∼ ⎢ 0 ⎢ 0 1 1 0 0 1 0 0 ⎢ ⎥ ⎢ ⎣ 0 ⎣ 1 −2 0 0 0 1 0 ⎦ 0 0 0 3 −6 0 0 0 0 1 ⎡ 1 −2 ⎢ 0 1 ⎢ 0 0 ∼ ⎢ ⎢ ⎣ 0 0 0 0 ⎡ 1 −2 ⎢ 0 1 ⎢ 0 0 ∼ ⎢ ⎢ ⎣ 0 0 0 0 Page (PS/TeX): 58 / 168, COMPOSITE ⎤ 1 0 0 0 0 −2 1 0 0 0 ⎥ ⎥ 0 0 1 0 0 ⎥ ⎥ −1 0 0 1 0 ⎦ −3 0 0 0 1 ⎤ 1 0 0 0 0 0 0 1 0 0 ⎥ ⎥ 1 0 0 −1 0 ⎥ ⎥ −2 1 0 0 0 ⎦ 0 1 −3 0 0 ⎤ 1 0 0 0 0 0 0 1 0 0 ⎥ ⎥ 1 0 0 −1 0 ⎥ ⎥. 0 1 0 −2 0 ⎦ 0 0 0 −3 1 SECCIÓN 3.4 Bases y dimensión 169 La base buscada es {(1, 2, 0, 1, 3), (−2, −4, 1, −2, −6), (1, 0, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 0, 1, 0)}. 3.4.3 Rango de una matriz Recordemos que si A ∈ Mm×n , el subespacio de Rm generado por las columnas de A es el espacio columna de A, y el subespacio de Rn generado por las filas de A es el espacio fila de A y se les denota, respectivamente, por Ec (A) y E f (A) (cfr. definición 3.13, pág. 146); y que el espacio nulo de una matriz se define como el subespacio de Rn de las soluciones del sistema homogéneo Ax = 0 (cfr. ejemplo 3.20, pág. 141). Definición 3.21 Si A ∈ Mm×n se definen: 1. Rango fila de A: Rf (A) = dim(E f (A)). 2. Rango columna de A: Rc (A) = dim(Ec (A)). 3. Nulidad de A, Nul(A), como la dimensión del espacio nulo de A. Supongamos que H es la forma escalonada reducida de una matriz A ∈ Mm×n . Como vimos anteriormente, las columnas de A que corresponden a columnas con pivote de H generan al espacio columna y son linealmente independientes; además, hay tantas columnas en H con pivote como filas no nulas en H. Ası́ que el rango columna de A es el número de filas no nulas de cualquier forma escalonada equivalente a la matriz A. Por otra parte, las filas de H se obtienen a través de sucesiones de operaciones de renglón iniciando con filas de la matriz A; luego toda fila de H es elemento del espacio fila de A. Además, las filas no nulas de H son linealmente independientes; pues en caso contrario, si una fila no nula de H es combinación lineal de otras filas, se pueden aplicar operaciones de renglón para transformar esta fila en una fila nula; lo cual no es posible, pues H es la forma escalonada reducida de A (recuerde que la forma escalonada reducida de una matriz es única). Entonces tenemos que las filas no nulas de cualquier matriz en forma escalonada equivalente a la matriz A forman una base para el espacio fila; luego el rango fila de A es el número de filas no nulas de cualquier forma escalonada equivalente a la matriz A. Finalmente, si en H existen vectores columna sin pivote, para fijar ideas pensemos que son 2 y que se encuentran en las dos últimas columnas, entonces hay dos variables libres r y s, y las soluciones del sistema homogéneo son de la forma ⎡ ⎡ ⎤ ⎤ ⎤ ⎡ a1 b1 a1 r + b1 s ⎢ a2 ⎥ ⎢ b2 ⎥ ⎢ a2 r + b2 s ⎥ ⎢ ⎢ ⎥ ⎥ ⎥ ⎢ ⎢ .. ⎥ ⎢ .. ⎥ ⎥ ⎢ .. ⎢ ⎢ ⎥ ⎥ ⎥ ⎢ . ⎥ = r⎢ . ⎥+s⎢ . ⎥. ⎢ ⎢ an−2 ⎥ ⎢ bn−2 ⎥ ⎢ an−2 r + bn−2 s ⎥ ⎢ ⎢ ⎥ ⎥ ⎥ ⎢ ⎣ 0 ⎦ ⎣ 1 ⎦ ⎦ ⎣ s r 1 0 Ası́, toda solución es combinación lineal de los vectoresu1 = (a1 , . . . , an−2 , 0, 1) yu2 = (b1 , . . . , bn−2 , 1, 0). Si estos últimos vectores fueran L.D., entonces el sistema tendrı́a sólo una variable libre, lo cual es imposible. Con esto hemos hecho plausible la demostración del siguiente teorema. Page (PS/TeX): 59 / 169, COMPOSITE 170 CAPÍTULO 3 Espacios vectoriales Teorema 3.20 Sean A ∈ Mm×n y H una forma escalonada equivalente, entonces: 1. Una base del espacio fila de A la forman las filas no nulas de H. 2. Una base del espacio columna de A la forman las columnas de A que corresponden a columnas con pivote de H. 3. El rango fila de A es el número de filas no nulas de H. 4. El rango columna de A es el número de columnas con pivote de H. 5. Rf (A) = Rc (A). 6. La nulidad de A es el número de columnas sin pivote de H. Ejemplo 3.65 Hallar: 1. Una base de E f (A) y Rf (A). 2. Una base de Ec (A) y Rc (A). 3. Una base de espacio nulo de A y Nul(A). Si A es la matriz ⎡ ⎢ ⎢ ⎢ ⎢ ⎣ Solución 1 1 2 3 1 2 3 5 6 5 ⎤ 0 −1 1 1 1 −1 ⎥ ⎥ 1 0 0 ⎥ ⎥ . 0 0 −6 ⎦ 3 5 −5 Llevemos la matriz a forma escalonada. ⎡ ⎢ ⎢ A→⎢ ⎢ ⎣ 1 0 0 0 0 2 1 1 0 3 ⎤ ⎡ 1 2 0 −1 1 ⎢ 0 1 1 2 −2 ⎥ ⎥ ⎢ ⎢ 1 2 −2 ⎥ ⎥→⎢ 0 0 ⎣ 0 0 ⎦ 0 3 −9 0 0 3 6 −6 ⎤ 0 −1 1 1 2 −2 ⎥ ⎥ 0 1 −3 ⎥ ⎥. 0 0 0 ⎦ 0 0 0 Entonces: 1. Las filas distintas de cero de la forma escalonada constituyen una base para el espacio fila, luego B = {(1, 2, 0, −1, 1), (0, 1, 1, 2, −2), (0, 0, 0, 1, −3)}, y Rf (A) = 3. 2. Las columnas de A correspondientes a columnas con pivote en la forma escalonada forman una base del espacio columna, ası́ B = {(1, 1, 2, 3, 1), (2, 3, 5, 6, 5), (1 − 1, 1, 0, 0, 5)}, y Rc (A) = 3. Page (PS/TeX): 60 / 170, COMPOSITE Bases y dimensión 171 SECCIÓN 3.4 3. La solución al sistema homogéneo es: ⎡ ⎢ ⎢ ⎢ ⎢ ⎣ x1 x2 x3 x4 x5 ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎥ ⎢ ⎦ ⎣ 2s + 10r −s − 4r s 3r r ⎤ ⎡ ⎢ ⎥ ⎢ ⎥ ⎥ = r⎢ ⎢ ⎥ ⎣ ⎦ 10 −4 0 3 1 ⎤ ⎡ ⎢ ⎥ ⎢ ⎥ ⎥+s⎢ ⎢ ⎥ ⎣ ⎦ 2 −1 1 0 0 ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ Entonces, una base para el espacio nulo es B = {(10, −4, 0, 3, 1), (2, −1, 1, 0, 0)}, y Nul(A) = 2. Definición 3.22 Si A ∈ Mm×n , el rango de A se define como Rang(A) = Rf (A) = Rc (A). Ejemplo 3.66 Si A es la matriz del ejemplo precedente, Rang(A) = 3. Los dos siguientes teoremas son conclusiones inmediatas de lo precedente y su demostración se deja como ejercicio al lector. Teorema 3.21 Si A ∈ Mm×n , entonces Rang(A) + Nul(A) = n. Equivalentemente para el sistema Ax = 0: 1. Rang(A) = número de variables ligadas. 2. Nul(A) = número de variables libres. 3. Rang(A) + Nul(A) = n. Teorema 3.22 Si A ∈ Mn×n , A es invertible si y sólo si Rang(A) = n. Para finalizar este apartado enunciamos y probamos el siguiente teorema que será útil más adelante. Teorema 3.23 Si A ∈ Mm×n , entonces la matriz simétrica At A y la matriz A tienen el mismo rango; esto es, Rang(At A) = Rang(A). DEMOSTRACIÓN Q Mostremos que los sistemas Ax = 0 y (At A)x = 0 tienen las mismas soluciones. Page (PS/TeX): 61 / 171, COMPOSITE 172 CAPÍTULO 3 Espacios vectoriales 1. Si u ∈ Rn es solución de Ax = 0, entonces Au = 0; luego At (Au) = 0; por tanto, (At A)u = 0. 2. Supongamos ahora que v ∈ Rn es solución de (At A)x = 0. Entonces (At A)v = 0; por tanto, (v)t (At A)v = 0; esto es, (v t At )Av = 0; es decir, (Av)t (Av) = 0; por ende, Av2 = 0, por lo que Av = 0. Luego, de 1 y 2, los sistemas Ax = 0 y (At A)x = 0 tienen las mismas soluciones; por tanto, Nul(A) = Nul(At A), y dado que A tiene tamaño m × n y At A tiene tamaño n × n, del teorema 3.21 inciso 3 se desprende que Rang(A) = Rang(At A). Ejemplo 3.67 Sea ⎡ 1 A=⎣ 2 −2 Llevemos A a forma escalonada ⎡ 1 −1 2 A = ⎣ 2 −1 0 −2 1 1 ⎡ 1 −1 2 1 −4 ∼⎣ 0 0 0 1 Page (PS/TeX): 62 / 172, COMPOSITE Q ⎤ −1 2 1 −1 0 1 ⎦ . 1 1 0 ⎤ ⎡ 1 1 1 ⎦∼⎣ 0 0 0 ⎤ 1 −1 ⎦ . 1 ⎤ −1 2 1 1 −4 −1 ⎦ −1 5 2 SECCIÓN 3.5 Espacios vectoriales sobre los números complejos 173 Entonces Rang(A) = 3. Por otro lado, ⎤ ⎤ 1 2 −2 ⎡ 1 −1 2 1 ⎥ ⎢ −1 −1 1 ⎥ ⎣ 2 −1 0 1 ⎦ At A = ⎢ ⎣ 2 0 1 ⎦ −2 1 1 0 1 1 0 ⎤ ⎡ 9 −5 0 3 ⎢ −5 3 −1 −2 ⎥ ⎥. =⎢ ⎣ 0 −1 5 2 ⎦ 3 −2 2 2 ⎡ Llevemos esta última matriz a forma escalonada ⎤ ⎡ ⎡ ⎤ ⎡ 1 9 −5 0 3 9 −5 0 3 ⎥ ⎢ −5 ⎢ −5 ⎥ ⎢ −5 3 −1 −2 3 −1 −2 ⎥∼⎢ ⎥ ∼ ⎢ ⎢ ⎣ 0 −1 ⎣ 0 −1 5 2 ⎦ ⎣ 0 5 2 ⎦ 9 1 −1 3 2 3 −2 2 2 ⎡ ∼ ∼ 1 ⎢ 0 ⎢ ⎣ 0 0 ⎤ ⎡ 1 −1 3 2 ⎢ 0 1 −7 −4 ⎥ ⎥∼⎢ 0 −2 −2 ⎦ ⎣ 0 0 0 1 1 3 −1 5 0 ⎤ 2 −2 ⎥ ⎥ 2 ⎦ 3 ⎤ −1 3 2 1 −7 −4 ⎥ ⎥ −1 5 2 ⎦ 4 −27 −15 ⎤ ⎡ 1 −1 3 2 1 ⎢ 0 −2 ⎥ ⎢ 0 14 8 ⎢ ⎥∼⎢ ⎣ 0 −1 5 2 ⎦ ⎣ 0 0 0 4 −27 −15 ⎡ −1 3 −1 −5 −1 1 0 0 3 −7 1 0 ⎤ 2 −4 ⎥ ⎥. 1 ⎦ 0 De donde Rang (At A) = 3. 3.5 Espacios vectoriales sobre los números complejos Es posible considerar espacios vectoriales sobre el campo de los números complejos.25 Esto significa un conjunto E en el que se ha definido una operación suma entre sus elementos (vectores) y una operación producto de un escalar por un vector, siendo los escalares números complejos, que cumplen los diez axiomas de espacio vectorial de la definición 3.6 (cfr. pág. 131).26 De ser ası́, se tiene un espacio vectorial sobre el campo de los números complejos o simplemente un espacio complejo. Todo lo desarrollado en este libro relativo a espacios vectoriales reales (los escalares subyacentes son 1Recomendamos al lector consultar B.1 del apéndice B y los apartados 1.1.5, 1.2.8, 2.1.5 y 2.2.5. 1Obviamente reemplazando el sı́mbolo R por el sı́mbolo C donde corresponda. 25 26 Page (PS/TeX): 63 / 173, COMPOSITE 174 CAPÍTULO 3 Espacios vectoriales números reales) tiene su sı́mil para espacios sobre el campo de los números complejos, y toda la teorı́a sigue siendo válida para este tipo de espacios pues depende, en cuanto a la multiplicación de vectores por escalares, únicamente de las propiedades de campo de los números reales, que son las mismas que las de los números complejos, y no de propiedades particulares de los números reales como el orden (propiedad totalmente ausente en C). Es decir, los conceptos de subespacio vectorial, combinaciones lineales, subespacios generados, independencia lineal, bases, dimensión, etc., siguen siendo los mismos; excepto que el conjunto de escalares es el campo C. Ejemplo 3.68 Consideremos Mm×n (C) el conjunto de matrices de tamaño m × n cuyas componentes son números complejos con la suma usual de matrices (sumando en forma compleja componente a componente) y multiplicación de un escalar por una matriz; pero esta vez los escalares son también números complejos. Es fácil verificar que Mm×n (C) es un espacio vectorial sobre C y que dim(Mm×n (C)) = mn. Ejemplo 3.69 Otro ejemplo es Cn , el conjunto de n-adas ordenadas (z1 , . . . , zn ) donde zi ∈ C para cada i = 1, . . . , n; con las operaciones (z1 , z2 , . . . , zn ) + (w1 , w2 , . . . , wn ) = (z1 + w1 , z2 + w2 , . . . , zn + wn ), α(z1 , z2 , . . . , zn ) = (αz1 , αz2 , . . . , αzn ), donde z j + w j y αz j son las operaciones de suma y multiplicación de números complejos, es fácil probar con estas operaciones que Cn es un espacio vectorial sobre el campo C, y que dim(Cn ) = n (una base para este espacio es también la base canónica de Rn ). Ejemplo 3.70 Sea el conjunto E = Cn considerado en el ejemplo precedente con la suma entre sus elementos ahı́ definida, pero con el producto de un escalar por un vector restringido a los números reales. Es claro que E es un espacio vectorial real. Sean los vectores j e j = (0, . . . , 0, 1, 0, . . . , 0) para j = 1, . . . , n, y n j f j = (0, . . . , 0, i, 0, . . . , 0) para j = 1, . . . , n. n Claramente los 2n vectores e j , f j , j = 1, . . . , n , son L.I., y si w = (a1 + b1 i, . . . , an + bn i), entonces w = n n j=1 j=1 ∑ a je j + ∑ b j f j ; de donde se desprende que dim(E) = 2n. Page (PS/TeX): 64 / 174, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 175 P Nota 3.13 Los espacios sobre el campo de los números complejos son de gran importancia en álgebra lineal y están involucrados directa o indirectamente en una gran variedad de aplicaciones de esta rama de las matemáticas. Se pudo considerar este tipo de espacios desde el inicio, pero por cuestiones que tienen que ver con aspectos psicológicos, debido a la poca familiaridad que por lo general tienen los lectores con el campo C, no se hizo y se han incluido secciones donde se ha intentado introducir estos conceptos gradualmente con el fin de que el lector se vaya adaptando de esta misma forma a espacios sobre C. Es hasta el final del capı́tulo 5 que se verá la importancia del uso de escalares complejos y de espacios sobre este campo. Por esta razón, de aquı́ en adelante supondremos que todos los espacios vectoriales con los que se trabaje serán espacios vectoriales reales, a menos que se indique lo contrario; en cuyo caso se hará notar que se tiene un espacio complejo. 3.6 Ejercicios resueltos y ejercicios propuestos 3.6.1 Ejercicios resueltos Geometrı́a de los espacios Rn En los ejercicios 1 a 8, u = (−1, 3, 4, −2), v = (−2, 5, 3, 2) y w = (1, 0, 4, −2). 11 Calcular 3u − 4v. Solución 3u − 4v = 3(−1, 3, 4, −2) − 4(−2, 5, 3, 2) = (−3, 9, 12, −6) − (−8, 20, 12, 8) = (5, −11, 0, −14) . 12 Encontrar u + 12 w. Solución u + 12 w = = = (−1, 3, 4, −2) + 12 (1, 0, 4, −2) (−1, 3, 4, −2) + 12 , 0, 2, −1 1 − 2 , 3, 6, −3 . 13 Hallar v. Solución v = √ (−2)2 + (5)2 + (3)2 + (2)2 = 42. 14 Calcular d(u, w). Solución Page (PS/TeX): 65 / 175, COMPOSITE d(u,w) = u − w = (−1, 3, 4, −2) − (1, 0, 4, −2) = (−2, 3, 0, 0) √ = 13. 176 CAPÍTULO 3 Espacios vectoriales 15 Hallar 4u − 2v − w. 4u − 2v − w = = = = Solución 4(−1, 3, 4, −2) − 2(−2, 5, 3, 2) − (1, 0, 4, −2) (−4, 12, 16, −8) − (−4, 10, 6, 4) − (1, 0, 4, −2) (0, 2, 10, −12) − (1, 0, 4, −2) (−1, 2, 6, −10) . 16 Encontrar un vector unitario (con norma 1) paralelo y con la misma dirección que el vector v. Por el ejercicio 3, v = está dado por Solución a = 1 v % √ 42; ası́ que un vector unitario paralelo en la misma dirección = √1 (−2, 5, 3, 2) 42 √ √ √ √ & 1 5 1 1 = − 21 42, 42 42, 14 42, 21 42 . 17 Calcular u · (v + w). u · (v + w) = (−1, 3, 4, −2) · ((−2, 5, 3, 2) + (1, 0, 4, −2)) = (−1, 3, 4, −2) · (−1, 5, 7, 0) = 44. Solución 18 Encontrar el valor de b tal que (−1, b, 1, −2) ⊥ u; es decir, para que estos vectores sean ortogonales. Solución Para que (−1, b, 1, −2) ⊥ u es necesario y suficiente que (−1, b, 1, −2) ·u = 0. Entonces, (−1, b, 1, −2) · (−1, 3, 4, −2) = 0 ⇒ 9 + 3b = 0 ⇒ b = −3. 19 Calcular el área del paralelogramo generado por los vectores (3, 2) y (8, 0) utilizando la interpretación geométrica del determinante del apartado 3.1.2 (cfr. pág. 117). Comprobar que el resultado es correcto mediante la fórmula usual para el área de un paralelogramo. Solución Sea A = 3 8 2 0 , entonces el área a del paralelogramo es a = |det(A)| = 16 u2 . El área de un paralelogramo es el producto de la base b por la altura h; en este caso b = 8 y h = 2; por tanto, a = bh = 16u2 . En los ejercicios 10 y 11, los vectores de la base canónica de R3 e1 = (1, 0, 0), e2 = (0, 1, 0) y e3 = (0, 0, 1) serán representados de la manera tradicional por 'ı, y ' k, respectivamente, y u = (a1 , a2 , a3 ), v = (b1 , b2 , b3 ) son cualquier par de vectores no paralelos de R3 . 10 Encontrar el conjunto de vectores w = (c1 , c2 , c3 ) ∈ R3 que son perpendiculares tanto a u como a v. Si a1 = 0 y b1 = 0, entonces el conjunto buscado consiste en los vectores de la forma α'ı. Se puede suponer entonces, sin perder generalidad, que a1 = 0. Se debe tener entonces u · w = 0 =v · w; esto es Solución Page (PS/TeX): 66 / 176, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 177 a1 c1 + a2 c2 + a3 c3 = 0, b1 c1 + b2 c2 + b3 c3 = 0. Y ya que a1 b1 a2 b2 a3 b3 ∼ a1 0 a2 a1 b2 − a2 b1 a3 b3 a1 − a3 b1 , y a1 b2 − a2 b1 = 0, porque u y v no son paralelos, se tiene que el conjunto de vectores ortogonales a u y v está dado por: % & ⎤ ⎤ ⎡ ⎡ 1 b3 c1 − a1 a2 aa3 bb1 −a r + a r 3 1 1 2 −a2 b1 ⎥ ⎢ ⎢ ⎥ ⎢ c2 ⎥ = ⎢ ⎥ , r ∈ R. a3 b1 −a1 b3 r ⎦ ⎣ ⎣ ⎦ a1 b2 −a2 b1 c3 r 11 (Producto cruz de vectores o producto vectorial en R3 ). Elı́jase r = a1 b2 − a2 b1 en el inciso prece- dente para calcular el vector resultante p que es ortogonal a u y v. Encontrar una fórmula que involucre al determinante de una matriz adecuada para calcular este vector. Al vector p se le llama producto cruz o producto vectorial de los vectores u y v y se acostumbra emplear la notación p = u ×v. u ×v u v Solución En este caso a c3 = a1 b2 − a2 b1 = 1 b1 c2 = a2 b2 , a3 b1 − a1 b3 r a1 b2 − a2 b1 = a3 b1 − a1 b3 a3 a1 , = b3 b1 y c1 = − =− = 1 a1 a3 b1 − a1 b3 a2 r + a3 r a1 b2 − a2 b1 1 (a2 (a3 b1 − a1 b3 ) + a3 (a1 b2 − a2 b1 )) a1 1 (a2 a1 b3 − a3 a1 b2 ) a1 = a2 b3 − a3 b2 a2 a3 . = b2 b3 Page (PS/TeX): 67 / 177, COMPOSITE 178 CAPÍTULO 3 Espacios vectoriales p = = = Luego, a2 b2 a2 b2 'ı a1 b1 a3 a3 'ı + b3 b3 a3 a1 'ı − b3 b1 ' k a2 a3 , b2 b3 a a1 + 1 b1 b1 a a3 + 1 b3 b1 a2 ' k b2 a2 ' k b2 al desarrollar el último determinante por cofactores en la primera fila. 12 Encontrar el producto vectorial de u = (−1, 2, −1) y v = (2, −1, 3). u ×v = Solución = = = 'ı ' k −1 2 −1 2 −1 3 2 −1 −1 −1 + −1 2 ' 'ı − −1 3 2 3 2 −1 k 5'ı + − 3' k (5, 1, −3). 13 Calcular la magnitud del producto vectorial de cualquier par de vectores u = (a1 , a2 , a3 ) yv = (b1 , b2 , b3 ) de R3 en términos del ángulo θ entre ellos, e interpretar geométricamente el significado de esta magnitud. Solución En el apartado 3.1.2 (cfr. pág. 117) se dedujo que el área del paralelogramo generado por estos dos vectores (cfr. figura 3-9) está dada por S = u v sen θ , donde θ es el ángulo entre ellos; también se concluyó ahı́ que S2 = u2 v2 − (u ·v)2 = (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 + b2 + a3 b3 )2 . Por otra parte, a u ×v = 2 b2 2 2 a3 a1 + b3 b1 2 a3 a1 + b3 b1 2 a2 b2 = (a2 b3 − a3 b2 )2 + (a3 b1 − a1 b3 )2 + (a1 b2 − a2 b1 )2 = a22 b23 − 2a2 b3 a3 b2 + a23 b22 + a23 b21 − 2a3 b1 a1 b3 + a21 b23 + a21 b22 − 2a1 b2 a2 b1 + a22 b21 = a22 b23 + a23 b22 + a23 b21 + a21 b23 + a21 b22 + a22 b21 + a21 b21 + a22 b22 + a23 b23 − a21 b21 − a22 b22 − a23 b23 −2a2 b3 a3 b2 − 2a3 b1 a1 b3 − 2a1 b2 a2 b1 = (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 b2 )2 + 2(a1 b1 a2 b2 )a3 b3 + a23 b23 = (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 b2 + a3 b3 )2 = S2 . Page (PS/TeX): 68 / 178, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 179 De donde S = u ×v y u ×v = u v |sen θ| . 14 Demostrar las propiedades del espacio vectorial de Rn (cfr. pág. 122). DEMOSTRACIÓN Q Sean u = (x1 , . . . , xn ), v = (y1 , . . . , yn ), w = (z1 , . . . , zn ) vectores arbitrarios de Rn y λ, β cualquier par de números reales. Entonces: 1. Dado que la suma de números reales es también un número real, u +v = (x1 + y1 , . . . , xn + yn ) ∈ Rn . 2. Puesto que la suma de números reales es asociativa, u + (v + w) = (x1 , . . . , xn ) + ((y1 , . . . , yn ) + (z1 , . . . , zn )) = (x1 , . . . , xn ) + (y1 + z1 , . . . , yn + zn ) = (x1 + (y1 + z1 ), . . . , xn + (yn + zn )) = ((x1 + y1 ) + z1 , . . . , (xn + yn ) + zn ) = (x1 + y1 , . . . , xn + yn ) + (z1 , . . . , zn ) = (u +v) + w. 3. Ya que la suma de números reales es una operación conmutativa, u +v = (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) = (y1 + x1 , . . . , yn + xn ) = (y1 , . . . , yn ) + (x1 , . . . , xn ) = v +u. 4. Como el neutro aditivo de R es 0, se tiene u +0Rn = (x1 , . . . , xn ) + (0, . . . , 0) n = (x1 + 0, . . . , xn + 0) = (x1 , . . . , xn ) = u. 5. Si x es un número real, existe su inverso aditivo, −x, que satisface x + (−x) = 0; luego, si −u = (−x1 , . . . , −xn ), se tiene Page (PS/TeX): 69 / 179, COMPOSITE 180 CAPÍTULO 3 Espacios vectoriales u + (−u) = (x1 , . . . , xn ) + (−x1 , . . . , −xn ) = (x1 + (−x1 ), . . . , (xn + (−xn )) = (0, . . . , 0) n = 0Rn . 6. Ya que el producto de números reales es también un número real, λu = λ(x1 , . . . , xn ) = (λx1 , . . . , λxn ) ∈ Rn . 7. Puesto que el producto de números reales es asociativo, λ(βu) = λ(β(x1 , . . . , xn )) = λ(βx1 , . . . , βxn ) = (λ(βx1 ), . . . , λ(βxn )) = ((λβ)x1 , . . . , (λβ)xn ) = (λβ)(x1 , . . . , xn ) = (λβ)u. 8. Dado que el producto se distribuye con respecto a la suma en los números reales, (λ + β)u = ((λ + β)x1 , . . . , (λ + β)xn ) = (λx1 + βx1 , . . . , λxn + βxn ) = (λx1 , . . . , λxn ) + (βx1 , . . . , βxn ) = λ(x1 , . . . , xn ) + β(x1 , . . . , xn ) = λu + βu. 9. Como el producto de números reales se distribuye con respecto a la suma, se tiene λ(u +v) = λ((x1 , . . . , xn ) + (y1 , . . . , yn )) = λ(x1 + y1 , . . . , xn + yn ) = (λ(x1 + y1 ), . . . , λ(xn + yn )) = (λx1 + λy1 , . . . , λxn + λyn ) = (λx1 , . . . , λxn ) + (λy1 , . . . , λyn ) = λ(x1 , . . . , xn ) + β(y1 , . . . , yn ) = λu + λv. 10. Puesto que 1x = x ∀x ∈ R, 1u = = = = 1(x1 , . . . , xn ) (1x1 , . . . , 1xn ) (x1 , . . . , xn ) u. Q 15 Probar las propiedades 1 (simetrı́a) y 2 (homogeneidad) del producto punto (cfr. pág. 123). Page (PS/TeX): 70 / 180, COMPOSITE SECCIÓN 3.6 DEMOSTRACIÓN Ejercicios resueltos y ejercicios propuestos 181 Q Sea u = (x1 , . . . , xn ), v = (y1 , . . . , yn ) cualquier par de vectores en Rn y λ ∈ R. Entonces: 1. (Simetrı́a). Dado que el producto de números reales es conmutativo, se tiene u ·v = (x1 , . . . , xn ) · (y1 , . . . , yn ) = = n ∑ xi yi i=1 n ∑ yi xi i=1 = (y1 , . . . , yn ) · (x1 , . . . , xn ) = v ·u. 2. (Homogeneidad). Puesto que el producto de números reales es asociativo y distributivo, u · (λv) = (x1 , . . . , xn ) · (λ(y1 , . . . , yn )) = (x1 , . . . , xn ) · (λy1 , . . . , λyn ) = = n ∑ xi (λyi ) i=1 n ∑ λ(xi yi ) i=1 n = λ ∑ xi yi i=1 = λ(u ·v). Q 16 Hallar el ángulo entre u = (−1, 3, 4, −2) y w = (1, 0, 4, −2). u ·v θ = arc cos u v (−1, 3, 4, −2) · (1, 0, 4, −2) = arc cos (−1, 3, 4, −2) (1, 0, 4, −2) 19 = arc cos √ √ 30 21 Solución ≈ 0.71212 ≈ 40. 801◦ . 2 2 2 17 Demostrar el recı́proco del teorema de Pitágoras, es decir, siu,v ∈ Rn y u +v = u +v , entonces u y v son ortogonales. DEMOSTRACIÓN Q u2 + v2 = = = = u +v2 (u +v) · (u +v) (u +v) ·u + (u +v) ·v u ·u +v ·u +u ·v +v ·v = u2 + 2(u ·v) + v2 ⇒ 2(u ·v) = 0 ⇒ u ·v = 0. Q Page (PS/TeX): 71 / 181, COMPOSITE 182 CAPÍTULO 3 Espacios vectoriales 18 Sean ui , i = 1, . . . , k, vectores de Rn que son ortogonales entre sı́; es decir, ui ·u j = 0 si i = j. (a) Demostrar por inducción la generalización del teorema de Pitágoras; esto es, u1 +u2 + · · · +uk 2 = u1 2 + u2 2 + · · · + uk 2 . (b) Si además los vectores ui no son nulos, probar, utilizando el primer inciso, que los vectores ui son L.I. DEMOSTRACIÓN Q (a) El resultado claramente es válido para k = 1. Suponga que la afirmación es cierta para k − 1 vectores. Puesto que los vectores son ortogonales entre sı́, se tiene k−1 ∑ ui ·uk = i=1 k−1 ∑ (ui ·uk ) = 0; i=1 ui y uk son ortogonales, ası́ que, por el teorema de Pitágoras (teorema luego los vectores ∑k−1 i=1 3.2, pág. 126), (u1 + · · · +uk−1 ) +uk 2 = u1 + · · · +uk−1 2 + uk 2 y por hipótesis de inducción u1 + · · · +uk−1 2 = u1 2 + · · · + uk−1 2 ; por lo que u1 + · · · +uk−1 +uk 2 = u1 + · · · +uk−1 2 + uk 2 = u1 2 + · · · + uk−1 2 + uk 2 . (b) Sean αi , i = 1, . . . , k, escalares tales que α1u1 + α2u2 + · · · + αkuk = 0Rn . Puesto que (αiui ) · (α ju j ) = αi α j (ui ·u j ) = αi α j · 0 = 0 si i = j, se sigue que los vectores αiui son ortogonales entre sı́. Por el inciso precedente, se tiene 0 = α1u1 + α2u2 + · · · + αkuk 2 = α12 u1 2 + α22 u2 2 + · · · + αk2 uk 2 ; por tanto, αi2 ui 2 = 0 para todo i. Ya que los vectores ui no son nulos, se deduce que αi = 0 para todo i = 1, . . . , k, y por ende los vectores ui son L.I. Q 19 Probar la propiedad 4 (desigualdad triangular) del valor absoluto de la página 127: |x + y| ≤ |x| + |y| Page (PS/TeX): 72 / 182, COMPOSITE ∀x, y ∈ R. SECCIÓN 3.6 DEMOSTRACIÓN Ejercicios resueltos y ejercicios propuestos 183 Q Sean x, y ∈ R. Dado que a ≤ |a| para todo número real a, se tiene (x + y)2 = x2 + 2xy + y2 ≤ |x|2 + 2|x||y| + |y|2 = (|x| + |y|)2 , de donde y puesto que |a| = √ (x + y)2 ≤ (|x| + |y|)2 ; a2 , la anterior desigualdad implica |x + y| ≤ |x| + |y|. Q 20 Encontrar la ecuación de un plano que sea perpendicular al plano 3x − 2y + 4z = 12 y pase por el punto (−1, 2, 1). Si y = 0 y z = 0 en la ecuación del plano dado, entonces x = 4; ası́ que el punto (4, 0, 0) pertenece a este plano. Si x = 0 y y = 0 en la ecuación del plano dado, entonces z = 3; por tanto, (0, 0, 3) pertenece a este plano. Ası́ que el vector (4, 0, −3) es un vector perpendicular al plano que se está buscando. Entonces Solución 4(x + 1) + 0(y − 2) − 3(z − 1) = 0 o, equivalentemente, 4x − 3z = −7 resuelve este problema. Espacios vectoriales 21 Probar que Mm×n con las operaciones usuales de suma de matrices y multiplicación de un escalar por una matriz es un espacio vectorial. DEMOSTRACIÓN Q Sean A = [ai j ], B = [bi j ] y C = [ci j ] matrices arbitrarias de tamaño m × n; y α, β ∈ R cualquier par de números. Entonces: 1. Puesto que la suma de números reales da como resultado un número real, se tiene ai j + bi j ∈ R para todo i = 1, . . . , m y para todo j = 1, . . . , n; por tanto, A + B = [ai j + bi j ] ∈ Mm×n . 2. Dado que la suma de números reales es asociativa, (ai j + bi j ) + ci j = ai j + (bi j + ci j ) para todo i = 1, . . . , m y para todo j = 1, . . . , n; por tanto, (A + B) +C = A + (B +C). Page (PS/TeX): 73 / 183, COMPOSITE 184 CAPÍTULO 3 Espacios vectoriales 3. Ya que la suma de números reales es conmutativa, ai j + bi j = bi j + ai j para todo i = 1, . . . , m y para todo j = 1, . . . , n; por ende, A + B = B + A. 4. Como x + 0 = x ∀x ∈ R, ai j + 0 = ai j , para todo i = 1, . . . , m y para todo j = 1, . . . , n; luego A + O = A. 5. Puesto que para cada x ∈ R existe −x ∈ R tal que x + (−x) = 0, se tiene que si −A = [−ai j ], entonces A + (−A) = O. 6. La multiplicación de números reales da como resultado un número real; por tanto, αai j ∈ R para todo i = 1, . . . , m y para todo j = 1, . . . , n; luego αA = [αai j ] ∈ Mm×n . 7. La multiplicación de números reales es asociativa; por tanto, (αβ)A = [(αβ)ai j ] = [α(βai j )] = α[βai j ] = α(βA). 8. La multiplicación de números reales se distribuye con respecto a la suma, entonces, α(A + B) = α([ai j ] + [bi j ]) = α[ai j + bi j ] = [α(ai j + bi j )] = [αai j + αbi j ] = [αai j ] + [αbi j ] = α[ai j ] + α[bi j ] = αA + αB. 9. Puesto que la multiplicación de números reales se distribuye con respecto a la suma, (α + β)A = (α + β)[ai j ] = [(α + β)ai j ] = [αai j + βai j ] = [αai j ] + [βai j ] = α[ai j ] + β[ai j ] = αA + βA. Page (PS/TeX): 74 / 184, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 185 10. Ya que 1x = x para todo x ∈ R, se tiene 1A = 1[ai j ] = [1ai j ] = [ai j ] = A. Q 22 Sea E el conjunto de matrices 3 × 3 con la operación usual de multiplicación de un escalar por una matriz pero con la suma definida en la forma A ⊕ B = O, donde O es la matriz cero 3 × 3. Determinar si E es un espacio vectorial con estas operaciones. En el caso de que E no sea un espacio vectorial indicar los axiomas que no cumplen. Sean A, B,C ∈ E y α, β ∈ R. (1) Claramente la suma ⊕ es cerrada. (2) A⊕(B⊕C) = A⊕O = O = O +C = (A ⊕ B) ⊕C. (3) A ⊕ B = O = B ⊕ A. (4) Si A es la matriz 3 × 3 con a11 = 1 y las demás componentes iguales a cero, entonces A ⊕ B = O = A ∀B ∈ E, luego E no tiene neutro aditivo. (5) Por el inciso anterior, no tiene sentido el concepto de inverso aditivo. (6), (7) y (10) se cumplen porque es la multiplicación usual de un escalar por una matriz. (8) α(A ⊕ B) = αO = αA ⊕ αB. (9) Sea A como en (4), entonces (1 + 2)A es la matriz 3 × 3 con a11 = 3 y las demás componentes nulas; mientras que 1A ⊕ 2A = O = (1 + 2)A. En resumen, los axiomas 4, 5 y 9 no se cumplen pero los demás sı́. E no es un espacio vectorial con estas operaciones. Solución 23 Sean E un espacio vectorial y S ⊂ E. Mostrar que S < E (S es un subespacio de E) si y sólo si se cumplen las dos siguientes condiciones: / (i) S = 0. (ii) αu + βv ∈ S DEMOSTRACIÓN ∀u,v ∈ S, ∀α, β ∈ R. Q (⇒) Supongamos que S < E. Entonces S = 0/ pues 0E ∈ S. Sean u,v ∈ S y α, β ∈ R; ya que S < E, la multiplicación de vectores por escalares y la suma de vectores es cerrada en S, luego αu ∈ S y βv ∈ S; por tanto αu + βv ∈ S. (⇐) Supongamos que se cumplen (i) y (ii); entonces, por (i) existe u ∈ S; y por (ii) 0E = 0u ∈ S. Si w,v ∈ S, y α ∈ R, por (ii) w +v ∈ S y αw ∈ S. Por tanto S < E. Q 24 Sea S el conjunto de todas las funciones, y, derivables hasta el orden dos en todos los puntos de R que satisfacen la relación y (x) − y (x) − 6y(x) = 0 ∀x ∈ R. Mostrar que S es un espacio vectorial. DEMOSTRACIÓN Q Puesto que S ⊂ F (R), basta probar que S < F (R). (a) Ya que θ, la función constante cero, satisface θ (x) = 0 y θ (x) = 0 para todo x ∈ R, se tiene θ ∈ S. (b) Si f , g ∈ S, entonces f (x) − f (x) − 6 f (x) = 0 y g (x) − g (x) − 6g(x) = 0 para todo x ∈ R. Luego, para cada x ∈ R, Page (PS/TeX): 75 / 185, COMPOSITE 186 CAPÍTULO 3 Espacios vectoriales ( f + g) (x) − ( f + g) (x) − 6( f + g)(x) = f (x) − f (x) − 6 f (x) +g (x) − g (x) − 6g (x) = 0; por tanto f + g ∈ S. (c) Si α ∈ R y f ∈ S, entonces f (x) − f (x) − 6 f (x) = 0 para todo x ∈ R, ası́ que (α f ) (x) − (α f ) (x) − 6(α f ) (x) = α( f (x) − f (x) − 6 f (x)) = α0 =0 ∀x ∈ R. Por tanto, α f ∈ S. De 1, 2 y 3, S < F (R) y por ende es un espacio vectorial. Q 25 Una sucesión (an ) de números reales es acotada si existe M > 0 tal que |an | ≤ M para todo n, se dice entonces que M es una cota para la sucesión. Sea S el subconjunto, del espacio de sucesiones R∞ , formado por todas las sucesiones que son acotadas. Probar que S < R∞ . DEMOSTRACIÓN Q Sean (an ), (bn ) ∈ S, α ∈ R. 1. Claramente la sucesión constante cero pertenece a S (cualquier número positivo es una cota para esta sucesión). 2. Sean M1 , M2 > 0 cotas de las sucesiones (an ) y (bn ), respectivamente; esto es, |an | ≤ M1 y |bn | ≤ M2 para todo n. Entonces, por la desigualdad triangular para el valor absoluto de números reales, |an + bn | ≤ |an | + |bn | ≤ M1 + M2 para todo n, entonces M1 + M2 > 0 es una cota para la sucesión (an + bn ); lo cual implica (an ) + (bn ) ∈ S. 3. Para cada n, |αan | = |α||an | ≤ (|α| + 1)M1 . Ası́, (|α| + 1)M1 > 0 es una cota para la sucesión (αan ); por tanto, α(an ) ∈ S. De 1, 2 y 3, S < R∞ . Q 26 (Suma de subespacios). Sean E un espacio vectorial y R, S un par de subespacios. Se define el conjunto, suma de los subespacios R y S, como R + S = {u +v |u ∈ R,v ∈ S}. Mostrar que R + S < E. Page (PS/TeX): 76 / 186, COMPOSITE SECCIÓN 3.6 DEMOSTRACIÓN Ejercicios resueltos y ejercicios propuestos 187 Q (1) Dado que R y S son subespacios de E, 0E ∈ R ∩ S; por lo que, 0E = 0E +0E ∈ R + S. (2) Si u1 +v1 ,u2 +v2 ∈ R + S, entonces, u1 ,u2 ∈ R y v1 ,v2 ∈ S; por tanto, u1 +u2 ∈ R y v1 +v2 ∈ S; ası́ que (u1 +v1 ) + (u2 +v2 ) = (u1 +u2 ) + (v1 +v2 ) ∈ R + S. (3) Si α ∈ R y u +v ∈ R + S, entonces u ∈ R y v ∈ S, por lo que αu ∈ R y αv ∈ S; luego α(u +v) = αu + αv ∈ R + S. De 1, 2 y 3, R + S < E. Q 27 (Suma directa). Dado un espacio vectorial E y k subespacios Si ⊂ E, se dice que E es la suma directa de estos subespacios y se escribe E = S1 ⊕ S2 ⊕ · · · ⊕ Sk si: • E = S1 + S2 + · · · + Sk ; esto es, todo elemento w ∈ E tiene la forma w = u1 +u2 + · · · +uk , con ui ∈ Si para cada i = 1, 2, . . . , k. • Si ∩ (S1 + S2 + · · · + Si−1 ) = {0E } ∀i, 2 ≤ i ≤ k. Probar que E es la suma directa de los subespacios S1 , . . . , Sk si y sólo si todo vector w ∈ E se puede escribir de manera única como w = u1 + · · · +uk , con ui ∈ Si , i = 1, . . . , k. DEMOSTRACIÓN k k i=1 i=1 Q (⇒) Si E es la suma directa de los subespacios Si , y w = ∑ ui = ∑vi con ui ,vi ∈ Si , entonces k−1 uk −vk = − ∑ (ui −vi ) ∈ Sk ∩ (S1 + · · · + Sk−1 ) = {0E } i=1 por tanto uk =vk . Luego, k−2 uk−1 −vk−1 = − ∑ (ui −vi ) ∈ Sk−1 ∩ (S1 + · · · + Sk−2 ) = {0E }, i=1 de donde uk−1 =vk−1 . De manera análoga se prueba ui =vi para los otros ı́ndices. (⇐) Claramente E = S1 + · · · + Sk . Sea u ∈ (S1 + · · · + S j−1 ) ∩ S j , entonces existen ui ∈ Si tales que u = u1 + · · · +u j−1 . Luego 0E = ui + · · · +u j−1 + (−u) +0E + · · · +0E ; k− j y por la unicidad de los términos, se desprende que ui = 0E = u ∀ i. 28 Sea Mn el espacio de matrices cuadradas de orden n; del ejemplo 3.25 (pág. 143) el conjunto S1 , de matrices cuadradas simétricas de orden n, es un subespacio de Mn . Page (PS/TeX): 77 / 187, COMPOSITE 188 CAPÍTULO 3 Espacios vectoriales (a) Sea S2 el conjunto de matrices cuadradas A de orden n que son antisimétricas; esto es, At = −A. Probar que S2 es un subespacio de Mn . (b) Demostrar que Mn = S1 ⊕ S2 . DEMOSTRACIÓN Q (a) Claramente O ∈ S2 . Si A, B ∈ S2 y α, β ∈ R, entonces (αA + βB)t = αAt + βB t = α(−A) + β(−B) = −(αA + βB). Lo cual prueba que S2 < Mn . (b) Sean A ∈ Mn , M1 = 12 A + 12 At y M2 = 12 A − 12 At . Claramente A = M1 + M2 , y puesto que M1t = ( 12 A + 12 At )t = 12 At + 12 A = M1 y M2t = ( 12 A − 12 At )t = 12 At − 12 A = −M2 , se tiene que M1 ∈ S1 y M2 ∈ S2 ; con lo que se ha probado que Mn = S1 + S2 . Si M ∈ S1 ∩ S2 , entonces M t = M y M t = −M, de donde M = −M; por tanto, M = O; es decir, S1 ∩ S2 = {O}. Luego Mn = S1 ⊕ S2 . Q 29 (Espacio cociente). Sean E un espacio vectorial y S ⊂ E un subespacio. (a) Se define la siguiente relación entre los elementos de E: u ∼v ⇔ u −v ∈ S. Probar que esta relación es de equivalencia; esto es, (i) u ∼ u ∀u ∈ E (reflexividad); (ii) si u,v ∈ E, u ∼v ⇒v ∼ u (simetrı́a); (iii) si u,v,w ∈ E, u ∼v,v ∼ w ⇒ u ∼ w (transitividad). (b) Para cada u ∈ E, el sı́mbolo [u] representa la clase de equivalencia del vector u; es decir, el conjunto de vectores que están relacionados con u. Probar que dos clases de equivalencia o son disjuntas (su intersección es vacı́a) o son iguales. (c) Si E/S = {[u] |u ∈ E}, se definen [u] + [v] = [u +v] y α[u] = [αu] para cada [u], [v] ∈ E/S y para cada α ∈ R. Probar que las operaciones [u] + [v] y α[u] están bien definidas; esto es, que no dependen de los representantes de cada clase de equivalencia; o sea, que si [u] = [u ] y [v] = [v ], entonces [u +v] = [u +v ] y [αu] = [αu ]. Page (PS/TeX): 78 / 188, COMPOSITE Ejercicios resueltos y ejercicios propuestos 189 SECCIÓN 3.6 (d) Probar que E/S, junto con las operaciones definidas en el inciso precedente, es un espacio vectorial (llamado espacio cociente del subespacio S). DEMOSTRACIÓN Q (a) Sean u,v,w vectores arbitrarios de E. ii(i) u −u = 0E ∈ S, porque S < E. Por tanto u ∼ u. i(ii) u ∼v ⇒ u −v ∈ S (porque S<E) ⇒ v −u = −(u −v) ∈ S ⇒v ∼ u. (iii) u ∼v y v ∼ w ⇒ u −v,v − w ∈ S (porque S<E) ⇒ u − w = (u −v) + (v − w) ∈ S ⇒ u ∼ w. / entonces existe w ∈ E tal que u ∼ w y w ∼v; lo cual implica u ∼v; por (b) Si u,v ∈ E y [u] ∩ [v] = 0, tanto, [u] = [v]. (c) Sean u,u ,v,v ∈ E tales que u ∼ u y v ∼ v (esto es, [u] = [u ], [v] = [v ]). Entonces u −u ∈ S y v −v ∈ S, y puesto que S < E, se tiene (u +v) − (u +v ) ∈ S, lo cual implica u +v ∼ u +v ; por tanto, [u +v] = [u +v ]. Si u ∼ u , entonces u −u ∈ S y, ya que este último es subespacio, se tiene αu − αu ∈ S; por lo que [αu] = [αu ]. (d) Sean u,v y w vectores arbitrarios de E y α, β cualquier par de números reales. 1. Claramente [u] + [v] = [u +v] ∈ S. [u] + ([v] + [w]) = [u] + [v + w] 2. = [u + (v + w)] = [(u +v) + w] = [u +v] + [w]. [u] + [v] = [u +v] 3. = [v +u] = [v] + [u]. 4. (Note que [0E ] = S.) [u] + [0E ] = [u +0E ] = [u]. 5. [u] + [−u] = [0E ]. 6. Por definición, α[u] ∈ E/S. 7. α(β[u]) = α[βu] = [α(βu)] = [(αβ)u] = (αβ)[u]. 8. (α + β)[u] = [(α + β)u] = [αu + βu] = [αu] + [βu] = α[u] + β[u]. Page (PS/TeX): 79 / 189, COMPOSITE 190 CAPÍTULO 3 Espacios vectoriales α([u] + [v]) = α[u +v] 9. = [α(u +v)] = [αu + αv] = [αu] + [αv] = α[u] + α[v]. 1[u] = [1u] = [u]. 10. Los incisos 1 a 10 implican que E/S es un espacio vectorial. Q 30 Sea Λ un conjunto no vacı́o y Sλ , λ ∈ Λ, una familia de subespacios de un espacio vectorial E. Sea S= Sλ = {u ∈ E |u ∈ Sλ para todo λ ∈ Λ}. λ∈Λ Probar que S es un subespacio de E. DEMOSTRACIÓN Q (a) Puesto que Sλ < E ∀λ ∈ Λ, 0E ∈ Sλ para todo λ; por tanto 0E ∈ S. (b) Sean u,v ∈ S y α ∈ R. (i) Ya que u,v ∈ Sλ < E para todo λ, se tiene u +v ∈ Sλ < E para todo λ, y en consecuencia u +v ∈ S. (ii) u ∈ S ⇒ u ∈ Sλ para todo λ y como Sλ < E, αu ∈ Sλ ∀λ ∈ Λ; por tanto, αu ∈ S. De (a) y (b), S < E. Q 31 (Subespacio generado por un conjunto). Sean E un espacio vectorial y C ⊂ E. Se denota por L (C) la intersección de todos los subespacios de E que contienen a C. Por el inciso anterior L (C) es un subespacio de E, llamado el subespacio generado por el conjunto C. Probar que L (C) es el menor subespacio que contiene a C; es decir, que cualquier subespacio que contenga a C contiene también a L (C). DEMOSTRACIÓN Q Sea W < E que contiene a C, entonces W ∈ {V |V es subespacio de E y C ⊂ V } = Λ; luego, si u ∈ L (C), que es la intersección de todos los elementos de Λ, u ∈ W porque W ∈ Λ; por tanto, L (C) ⊂ W . Q 32 Sea L (C) como en el inciso anterior. / (a) Determinar L (0). / entonces L (C) es el conjunto de todas las posibles combinaciones lineales (b) Probar que si C = 0, de elementos de C. (c) Mostrar que si C = {u1 ,u2 , . . . ,un }, con los ui ∈ E, entonces L (C) = gn(u1 ,u2 , . . . ,un ). Page (PS/TeX): 80 / 190, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 191 (a) El subespacio trivial {0E } está contenido en todo subespacio de E, y 0/ ⊂ {0E } (porque / = {0E }. el conjunto vacı́o está contenido en cualquier conjunto); por tanto, L (0) (b) Sea S el conjunto de todas las posibles combinaciones lineales de vectores en C; esto es, v ∈ S si y sólo si existen u1 , . . . ,uk ∈ C y αi ∈ R, i = 1, . . . , k, tales quev = ∑ki=1 αiui . Como C es no vacı́o, tiene por lo menos un elemento u; por tanto, 0E = 0u ∈ S. Si v1 = ∑ki=1 αiui y v2 = ∑m wi i=1 βi pertenecen a S, y a, b ∈ R, entonces los ui y los wi pertenecen a C; por tanto, Solución k m i=1 i=1 av1 + bv2 = a ∑ αiui + b ∑ βi wi k m i=1 i=1 = ∑ (aαi )ui + ∑ (bβi )wi ∈ S. Lo cual demuestra que S < E. Claramente C ⊂ S (si u ∈ C, u = 1u ∈ S). Sea W un subespacio que contiene a C, entonces si v = ∑ki=1 αiui ∈ S, los ui ∈ C ⊂ W ; por tanto (ya que W < E) v = ∑ki=1 αiui ∈ W ; luego S ⊂ V para todo subespacio V que contiene a C, lo cual implica S = L (C). (c) Es inmediata del inciso anterior y de la definición de gn(u1 , . . . ,un ). 33 Encontrar condiciones sobre a, b, c para que el vector (a, b, c) pertenezca al espacio generado por u1 = (1, −2, 1), u2 = (2, −1, 3) y u3 = (−3, 0, −5). ¿R3 está generado por u1 , u2 , u3 ? Solución (a, b, c) ∈ gn(u1 ,u2 ,u3 ) si el sistema x1u1 + x2u2 + x3u3 = (a, b, c) es consistente y ya que ⎤ ⎤ ⎡ ⎡ a 1 2 −3 1 2 −3 a ⎣ −2 −1 0 b ⎦ ∼ ⎣ 0 3 −6 2a + b ⎦ c−a 0 1 −2 1 3 −5 c ⎤ ⎡ a 1 2 −3 c−a ⎦ ∼ ⎣ 0 1 −2 0 3 −6 2a + b ⎤ ⎡ a 1 2 −3 c−a ⎦, ∼ ⎣ 0 1 −2 0 0 0 5a + b − 3c esto sucede si 5a+b−3c = 0. Por tanto, R3 no está generado por u1 , u2 , u3 ; pues, por ejemplo, (1, 1, 1) ∈ / gn(u1 ,u2 ,u3 ) ya que 5(1) + (1) − 3(1) = 3 = 0. 34 Probar que gn(1, x) = gn(2 + 3x, x). DEMOSTRACIÓN Q 1 = a(2 + 3x) + bx ⇒ 1 = 2a + (3a + b)x ⇒ a = por tanto, 1 ∈ gn(2 + 3x, x). Page (PS/TeX): 81 / 191, COMPOSITE 3 1 yb=− ; 2 2 192 CAPÍTULO 3 Espacios vectoriales x = a(2 + 3x) + bx ⇒ x = 2a + (3a + b)x ⇒ a = 0 y b = 1; por tanto, x ∈ gn(2 + 3x, x). Ası́ que gn(1, x) ⊂ gn(2 + 3x, x). Por otra parte, 2 + 3x = 2 · 1 + 3 · x, x = 0 · 1 + 1 · x, por lo que 2 + 3x, x ∈ gn(1, x); luego gn(2 + 3x, x) ⊂ gn(1, x). Por tanto, gn(2 + 3x, x) = gn(1, x). Q Dependencia e independencia lineal 35 Sean f1 (x) = 1, f2 (x) = eax y f3 (x) = ebx , con a = 0, b = 0 y a = b; y J = R. (a) Probar que las funciones f1 , f2 y f3 son L.I. en J; es decir, en F (J), aplicando directamente la definición 3.15 (pág. 151). (b) Demostrar que las funciones f1 , f2 y f3 son L.I. en J utilizando el wronskiano de estas funciones (cfr. ejemplo 3.44, pág. 155). Solución (a) Sean α1 , α2 , α3 ∈ R tales que α1 · 1 + α2 · eax + α3 · ebx = 0 ∀x ∈ R; esto es, α1 + α2 eax + α3 ebx = 0 ∀x ∈ R. En particular, si x = 0, x = 1 y x = 2 se tiene, respectivamente, α1 + α2 + α3 = 0, α1 + α2 ea + α3 eb = 0 y α1 + α2 e2a + α3 e2b = 0. Y puesto que ⎡ 1 ⎣ 1 1 1 ea e2a ⎤ 1 eb ⎦ e2b ⎡ 1 ∼ ⎣ 0 0 ⎡ 1 ⎢ 0 ∼ ⎣ 1 ea − 1 e2a − 1 0 e2a − 1 ⎡ 1 1 1 1 ⎢ 0 1 ∼ ⎣ ⎤ 1 eb − 1 ⎦ e2b − 1 ⎤ 1 eb −1 ⎥ ea −1 ⎦ e2b − 1 1 eb −1 ea −1 ⎤ ⎥ ⎦, 0 0 (1 − eb )(ea − eb ) y a = 0, b = 0, a = b, se debe tener α1 = α2 = α3 = 0. Por lo que f1 , f2 y f3 son L.I. en J. Page (PS/TeX): 82 / 192, COMPOSITE Ejercicios resueltos y ejercicios propuestos 193 SECCIÓN 3.6 (b) Para cada x ∈ J, 1 eax W ( f1 , f2 , f3 )(x) = 0 aeax 0 a2 eax . ebx bebx b2 ebx En particular, 1 1 1 W ( f1 , f2 , f3 )(0) = 0 a b 0 a2 b2 = ab2 − ba2 = ab(b − a) =0 pues a = b y a = 0, b = 0. Luego f1 , f2 y f3 son L.I. en J. 36 Sean A= −1 2 2 −3 1 1 B= , 2 3 1 −1 1 1 y C= −4 5 1 1 −7 1 . Determinar si A, B y C son L.I. o L.D. en M2×3 . Solución Las matrices son L.D. si el sistema α1 A + α2 B + α3C = O tiene solución no trivial; el cual equivale a −α1 + 2α2 − 4α3 2α1 + 3α2 + α3 2α1 − α2 + 5α3 −3α1 + α2 − 7α3 α1 + α2 + α3 α1 + α2 + α3 = 0 0 0 0 0 0 es decir, −α1 + 2α2 − 4α3 = 0 2α1 + 3α2 + α3 = 0 α1 + α2 + α3 = 0 2α1 − α2 + 5α3 = 0 −3α1 + α2 − 7α3 = 0 α1 + α2 + α3 = 0. Y como ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ Page (PS/TeX): 83 / 193, COMPOSITE −1 2 −4 2 3 1 1 1 1 2 −1 5 −3 1 −7 1 1 1 ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥∼⎢ ⎥ ⎢ ⎦ ⎣ −1 2 −4 0 7 −7 0 3 −3 0 3 −3 0 −5 5 0 3 −3 ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥∼⎢ ⎥ ⎢ ⎦ ⎣ −1 0 0 0 0 0 ⎤ 2 −4 1 −1 ⎥ ⎥ 0 0 ⎥ ⎥, 0 0 ⎥ 0 0 ⎦ 0 0 ; 194 CAPÍTULO 3 Espacios vectoriales se tiene ⎤ ⎤ ⎡ ⎤ ⎡ −2 α1 −2r ⎣ α2 ⎦ = ⎣ r ⎦ = r⎣ 1 ⎦. 1 r α3 ⎡ Ası́, el sistema α1 A + α2 B + α3C = O tiene solución no trivial (por ejemplo α1 = −2, α2 = 1 = α3 ); por tanto, las matrices A, B y C son L.D. en M2×3 . 37 Determinar si los polinomios p = x3 − 4x2 + 2x + 3, q = x3 + 2x2 + 4x − 1 y r = 2x3 − x2 + 3x + 5 son L.I. o L.D. en P3 . Solución Se requiere encontrar escalares α1 , α2 y α3 tales que α1 p + α2 q + α3 r = 0, donde 0 es el polinomio constante cero; esto es, (α1 + α2 + 2α3 ) x3 + (−4α1 + 2α2 − α3 ) x2 + (2α1 + 4α2 + 3α3 ) x + 3α1 − α2 + 5α3 = 0 que equivale, por igualdad de polinomios, a α1 + α2 + 2α3 = 0 −4α1 + 2α2 − α3 = 0 2α1 + 4α2 + 3α3 = 0 3α1 − α2 + 5α3 = 0. Puesto que ⎡ 1 1 ⎢ −4 2 ⎢ ⎣ 2 4 3 −1 ⎤ 2 −1 ⎥ ⎥ ∼ 3 ⎦ 5 ⎡ 1 ⎢ 0 ⎢ ⎣ 0 0 ⎡ 1 ⎢ 0 ⎢ ∼ ⎣ 0 0 ⎡ 1 ⎢ 0 ⎢ ∼ ⎣ 0 0 ⎡ 1 ⎢ 0 ∼ ⎢ ⎣ 0 0 ⎤ 2 7 ⎥ ⎥ −1 ⎦ −1 ⎤ 1 2 2 −1 ⎥ ⎥ 6 7 ⎦ −4 −1 ⎤ 1 2 2 −1 ⎥ ⎥ 0 10 ⎦ 0 −3 ⎤ 1 2 2 −1 ⎥ ⎥, 0 10 ⎦ 0 0 1 6 2 −4 se tiene que α1 p + α2 q + α3 r = 0 tiene por solución α1 = α2 = α3 = 0, por lo que p, q y r son L.I. en P3 . 38 Sean u1 , u2 y u3 vectores L.I. en un espacio vectorial E. Probar quev1 = 5u1 ,v2 = 3u1 −u2 yv3 =u1 +u3 son también linealmente independientes. Page (PS/TeX): 84 / 194, COMPOSITE SECCIÓN 3.6 DEMOSTRACIÓN Ejercicios resueltos y ejercicios propuestos 195 Q Sean α1 , α2 , α3 ∈ R tales que α1v1 + α2v2 + α3v3 = 0E , entonces (5α1 + 3α2 + α3 )u1 + (−α2 )u2 + α3u3 = 0E , y puesto que u1 , u2 y u3 son L.I., 5α1 + 3α2 + α3 = 0 −α2 = 0 α3 = 0, de donde α1 = α2 = α3 = 0. Luego u1 , u2 y u3 son L.I. Q 39 Sean u1 ,u2 ∈ Rn vectores L.I. y A ∈ Mn una matriz no singular (invertible). Demostrar que v1 = Au1 y v2 = Au2 son también vectores L.I. DEMOSTRACIÓN Q Sean α1 y α2 escalares tales que α1v1 + α2v2 = 0Rn , esto es, 0Rn = α1 (Au1 ) + α2 (Au2 ) = A(α1u1 + α2u2 ). Como A es no singular, la anterior igualdad implica α1u1 + α2u2 = A−10Rn = 0Rn , y dado que u1 y u2 son vectores L.I., se debe tener α1 = α2 = 0; por tanto, v1 y v2 son L.I. Q 40 Sean E un espacio vectorial, u1 , . . . ,uk vectores en este espacio, y S = gn(u1 , . . . ,uk ). Demostrar que los vectores ui son L.I. si y sólo si todo vector u ∈ S se puede escribir como combinación lineal de los vectores ui de manera unı́voca (esto es, si u = ∑ki=1 ai ui y u = ∑ki=1 biui , entonces ai = bi ∀i). DEMOSTRACIÓN Q (⇒) Si los vectores ui son L.I. y u = ∑ki=1 aiui = ∑ki=1 biui , entonces 0E = ∑ki=1 aiui − ∑ki=1 aiui = ∑ki=1 (ai − bi )ui implica ai = bi ∀i = 1, . . . , k. (⇐) Sean ai escalares tales que ∑ki=1 aiui =0E . Si todo vector de S se puede escribir de manera unı́voca como combinación lineal de los vectores ui , en particular 0E = ∑ki=1 0ui ; por tanto, ai = 0 para todo i = 1, . . . , k. Lo cual prueba que los vectores ui son L.I. Q 41 Probar que las funciones f1 (x) = cos x, f2 (x) = cos 2x, f3 (x) = cos 3x y f4 (x) = cos 4x son L.I. en J = (−∞, ∞); es decir, en F (J). Page (PS/TeX): 85 / 195, COMPOSITE 196 CAPÍTULO 3 DEMOSTRACIÓN Espacios vectoriales Q W ( f1 , f2 f3 , f4 )(x) = cos x − sen x − cos x sen x cos 2x −2 sen 2x −22 cos 2x 23 sen 2x √ 2 2 √ − 2 2 W ( f1 , f2 f3 , f4 )(π/4) = √ 2 − 2 √ 2 2 √ 2 2 = 2 √ 2 2 = 2 √ 2 2 = 2 0 −2 0 23 cos 3x −3 sen 3x −32 cos 3x 33 sen 3x √ 2 − 2 √ 2 −3 2 √ 2 32 2 √ 2 33 2 cos 4x −4 sen 4x −42 cos 4x 43 sen 4x . −1 0 42 0 1 0 −1 −1 −1 −2 −3 0 −1 0 32 42 1 23 33 0 1 0 −1 −1 0 −2 −4 −1 0 0 8 15 0 8 28 1 1 0 −1 −1 0 −2 2 −1 0 0 8 15 0 0 12 −3 √ 2 2 = (−2)(−24 − 180) 2 = 204 = 0. Ya que el wronskiano de estas funciones es distinto de cero en un punto de J (cfr. ejemplo 3.44, pág. 155), f1 , f2 , f3 y f4 son L.I. en J = (−∞, ∞). Q Bases y dimensión 42 Demostrar que el conjunto infinito U = {e x , e 2x , . . . , e nx , . . .} es L.I. en F (R), el espacio de funciones f : R → R. DEMOSTRACIÓN Q Sea F un subconjunto finito cualquiera de U, entonces F está contenido en un conjunto de la forma Fn = {e x , e 2x , . . . , e nx } para algún entero positivo n; luego es suficiente probar que este último conjunto es L.I. para que F sea L.I.; por tanto, U también. Se procede por inducción sobre n: si n = 1, entonces Fn = {e x } que es L.I. porque f (x) = e x no es la función constante cero. Sea n un entero mayor a 1 y suponga que el conjunto Fn−1 = {e x , e 2x , . . . , e(n−1)x } es L.I. Sean αi , i = 1, 2, . . . , n, escalares tales que Page (PS/TeX): 86 / 196, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 197 α1 e x + α2 e 2x + · · · + αn−1 e(n−1)x + αn e nx = 0 (L1) para todo x ∈ R. Al derivar la precedente igualdad se obtiene α1 e x + 2α2 e 2x + · · · + (n − 1)αn−1 e(n−1)x + nαn e nx = 0 (L2) para todo x ∈ R. Al multiplicar la igualdad (L1) por n y restar con la igualdad (L2) se produce α1 (n − 1)e x + α2 (n − 2)e 2x + · · · + αn−1 (n − (n − 1))e(n−1)x = 0 para todo x ∈ R. Por hipótesis de inducción las funciones e x , e 2x , . . . , e(n−1)x son L.I., y puesto que n = 1, . . . , n − 1, la igualdad anterior implica α1 = α2 = · · · = αn−1 = 0. Luego, al sustituir estos valores en (L1) se desprende que αn enx = 0 ∀x ∈ R; y por tanto (ya que f (x) = enx no es la función constante cero) αn = 0. Lo cual prueba que las funciones e kx , k = 1, . . . , n, son L.I. en F (R) para todo n. Q 43 Sea Pn el espacio de polinomios de grado a lo más n y S = {p ∈ Pn | p(0) = 0}. Mostrar que S < Pn y determinar dim(S). (1) Claramente el polinomio constante cero, θ, satisface θ(0) = 0; por lo que θ ∈ S. (2) Si p1 , p2 ∈ S, entonces p1 (0) = p2 (0) = 0; por lo que p1 (0) + p2 (0) = 0; por tanto, p1 + p2 ∈ S. (3) Si p ∈ S y α ∈ R, entonces αp(0) = α0 = 0; por tanto, αp ∈ S. De (1), (2) y (3), S < Pn . Los polinomios x, x2 , . . . , x n pertenecen a S y son L.I. (pues forman parte del conjunto L.I. 1, x, . . . , x n ). Si p ∈ S, x = 0 es raı́z de p; por tanto, existe un polinomio q de grado a lo más n − 1, q = a0 + a1 x + · · · + an−1 x n−1 , tal que Solución p = xq = a0 x + a1 x2 + · · · + an−1 x n . Luego los polinomios L.I. x, x2 , . . . , x n generan a S, por tanto forman una base para este subespacio; ası́ que dim(S) = n. 44 Sean α, β ∈ R un par de números reales con β = 0. Sea S el conjunto de sucesiones de números reales que satisfacen la relación xn+2 + αxn+1 + βxn = 0 ∀n (a) Mostrar que S < R∞ . Page (PS/TeX): 87 / 197, COMPOSITE (*) 198 CAPÍTULO 3 Espacios vectoriales (b) Probar que si λ, μ ∈ R son raı́ces distintas del polinomio X 2 + αX + β = 0, entonces las sucesiones u = (un ) y v = (vn ), con un = λn y vn = μn , pertenecen a S. (c) Demostrar que {u, v} es una base de S. DEMOSTRACIÓN Q (a) Claramente la sucesión constante cero satisface la relación (*). Sean x = (xn ) y y = (yn ) un par de sucesiones en S y a, b ∈ R, entonces, axn+2 + byn+2 + α(axn+1 + byn+1 ) + β(axn + byn ) = = = = a(xn+2 + αxn+1 + βxn ) + b(yn+2 + αyn+1 + βyn ) a0 + b0 0; por tanto, ax + by ∈ S. Lo cual prueba S < R∞ . (b) Puesto que λ es raı́z de X 2 + αX + β = 0, se tiene un+2 + αun+1 + βun = λn+2 + αλn+1 + βλn = λn (λ2 + αλ + β) = λn · 0 = 0 ∀n. Análogamente se prueba que vn+2 + αvn+1 + βvn = 0. Ası́ u, v ∈ S. (c) (i) Dado que β = 0, se concluye λ = 0, μ = 0. Sean a, b ∈ R tales que au + bv = 0. Entonces aλ + bμ = 0 y aλ2 + bμ2 = 0. Al multiplicar la primer igualdad por −μ y sumarla con la segunda se obtiene aλ(λ − μ) = 0, y puesto que λ = 0, μ = 0 y λ = μ se desprende que a = 0 y b = 0. Luego u y v son L.I. (ii) Dado que λ y μ son raı́ces de la ecuación cuadrática X 2 + αX + β = 0, satisfacen −α = λ + μ y β = λμ. Sea x = (xn ) ∈ S. Sean C1 ,C2 ∈ R las únicas soluciones del sistema C1 λ +C2 μ = x1 C1 λ2 +C2 μ2 = x2 ; esto es, μx1 − x2 λ(μ − λ) x2 − λx1 C2 = μ(μ − λ) C1 = Page (PS/TeX): 88 / 198, COMPOSITE Ejercicios resueltos y ejercicios propuestos 199 SECCIÓN 3.6 Por construcción de C1 y C2 , xn = C1 λn +C2 μn (**) se cumple para n = 1 y n = 2. Sea k un entero mayor a 2 y suponga que la precedente igualdad es válida para todo entero m con 2 < m ≤ k − 1. Entonces, por (*), xk = = = = = −αxk−1 − βxk−2 (λ + μ)xk−1 − λμxk−2 (λ + μ)(C1 λk−1 +C2 μk−1 ) − λμ(C1 λk−2 +C2 μk−2 ) C1 λk +C2 μk +C1 λk−1 μ +C2 μk−1 λ −C1 λk−1 μ −C2 μk−1 λ C1 λk +C2 μk . Se sigue por inducción que (**) se cumple para todo n; por tanto, x = C1 u + C2 v para todo x ∈ S; es decir, u, v generan a S. Q 45 Sean R, S un par de subespacios de un espacio vectorial E de dimensiones finitas r y s, respectivamente. Mostrar que dim(R + S) = dim(R) + dim(S) − dim(R ∩ S), donde R + S es la suma de estos subespacios definida en el ejercicio resuelto 26 de esta sección y R ∩ S es el subespacio formado por la intersección de los subespacios R y S (cfr. ejercicio resuelto 30). DEMOSTRACIÓN Q Sean {u1 , . . . ,uk } una base de R ∩ S. Puesto que R ∩ S < R y R ∩ S < S, se puede completar, mediante el proceso dado en la página 167, ésta a una base {u1 , . . . ,uk ,e1 , . . . ,er−k } de R y a una base {u1 , . . . ,uk , f1 , . . . , fs−k } de S. Sea u +v ∈ R + S, entonces k r−k i=1 i=1 k s−k i=1 i=1 u = ∑ αiui + ∑ βiei para algunos escalares αi , βi , y v = ∑ αiui + ∑ γi fi para algunos escalares αi , γi ; luego k r−k s−k i=1 i=1 i=1 u +v = ∑ (αi + αi )ui + ∑ βiei + ∑ γi fi lo cual prueba que R + S está generado por los r + s − k vectores u1 , . . . ,uk ,e1 , . . . ,er−k , f1 , . . . , fs−k . Sean αi , βi , γi escalares tales que k r−k s−k i=1 i=1 i=1 s−k k r−k i=1 i=1 i=1 ∑αiui + ∑ βiei + ∑ γi fi = 0E . De donde ∑ γi fi = −∑αiui − ∑ βiei ∈ R; Page (PS/TeX): 89 / 199, COMPOSITE 200 CAPÍTULO 3 Espacios vectoriales por tanto, s−k ∑ γi fi ∈ R ∩ S. i=1 Ası́ que existen escalares −δi tales que s−k k i=1 i=1 ∑ γi fi = ∑(−δi )ui ; por ende, k s−k i=1 i=1 ∑ δiui + ∑ γi fi = 0E . Como los vectores u1 , . . . ,uk , f1 , . . . , fs−k son L.I., se debe tener entonces que los escalares γi son nulos; por tanto k r−k i=1 i=1 ∑ αiui + ∑ βiei = 0E y ya que los vectores u1 , . . . ,uk ,e1 , . . . ,er−k son L.I., se tiene que los escalares αi , βi son también nulos. Se ha probado ası́ que los vectores u1 , . . . ,uk , e1 , . . . ,er−k , f1 , . . . , fs−k forman una base de R + S, por lo que dim(R + S) = r + s − k = dim(R) + dim(S) − dim(R ∩ S). Q 46 (Ecuación de un subespacio de Rn ). Sea S el subespacio generado por (1, 2, 1) y (−1, 2, 2). Encontrar un sistema homogéneo Ax = 0R3 tal que su espacio solución (espacio nulo) sea el espacio S. A dicho sistema, Ax = 0R3 , se le llama ecuación del subespacio S. Solución Un primer método: Si (x, y, z) ∈ S, entonces (x, y, z) = a(1, 2, 1) + b(−1, 2, 2) = (a − b, 2a + 2b, a + 2b) ; por tanto, se debe tener a−b = x 2a + 2b = y a + 2b = z; que implican y − 2x = 4b z − x = 3b; por ende, 2x − 3y + 4z = 0 es la ecuación del subespacio S. Page (PS/TeX): 90 / 200, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 201 Un segundo método: Si (x, y, z) ∈ S, entonces (x, y, z) es combinación lineal del par de vectores L.I. (1, 2, 1) y (−1, 2, 2). Ası́ que si A es la matriz cuyas filas son estos vectores, al llevar a forma escalonada la última fila debe ser nula: ⎤ ⎤ ⎡ ⎡ 1 2 1 1 2 1 ⎣ −1 2 2 ⎦ ∼ ⎣ 0 4 3 ⎦ 0 y − 2x z − x x y z ⎤ ⎡ 1 2 1 ⎦; 3 ∼ ⎣ 0 4 0 0 2x − 3y + 4z por tanto, 2x − 3y + 4z = 0 es la ecuación del subespacio S. 47 Sean S1 = gn((1, 0, −1), (1, −1, 0)) y S2 = gn((2, 1, 0), (−2, 0, 1)). Hallar: (a) Una base y la dimensión de S1 + S2 . (b) Una base y la dimensión de S1 ∩ S2 . Solución (a) S1 + S2 está generado por (1, 0, −1), (1, −1, 0), (2, 1, 0), (−2, 0, 1) y puesto que ⎤ ⎤ ⎡ ⎡ 1 1 2 −2 1 1 2 −2 ⎣ 0 −1 1 0 ⎦ 0 ⎦ ∼ ⎣ 0 −1 1 0 0 3 −1 −1 0 0 1 una base para este espacio es {(1, 0, −1), (1, −1, 0), (2, 1, 0)}. Por tanto, dim(S1 + S2 ) = 3; es decir, S1 + S2 = R3 . (b) Dado que ⎤ ⎤ ⎡ ⎡ 1 0 −1 1 0 −1 ⎣ 1 −1 1 ⎦ 0 ⎦ ∼ ⎣ 0 −1 0 y x+z x y z ⎤ ⎡ 1 0 −1 ⎦; 1 ∼ ⎣ 0 −1 0 0 x+y+z una ecuación para el espacio S1 es x + y + z = 0. Puesto que ⎤ ⎤ ⎡ 2 1 0 2 1 0 ⎣ −2 0 1 ⎦ ∼ ⎣ 0 1 1 ⎦ 0 2y − x 2z x y z ⎤ ⎡ 2 1 0 ⎦; 1 ∼ ⎣ 0 1 0 0 x − 2y + 2z ⎡ Page (PS/TeX): 91 / 201, COMPOSITE 202 CAPÍTULO 3 Espacios vectoriales una ecuación para el subespacio S2 es x − 2y + 2z = 0. Entonces los vectores (x, y, z) que pertenecen a S1 ∩ S2 son las soluciones del sistema homogéneo x+y+z = 0 x − 2y + 2z = 0. Y ya que se tiene 1 1 ⎡ x 1 1 −2 2 ⎤ ⎡ ⎢ ⎥ ⎢ ⎢ y ⎥=⎢ ⎣ ⎦ ⎣ z ∼ − 43 r 1 3r 1 0 ⎤ 1 1 −3 1 ⎡ ⎢ ⎥ ⎥ = r⎢ ⎣ ⎦ − 43 1 3 r , ⎤ ⎥ ⎥. ⎦ 1 Por lo que una base de S1 ∩ S2 es {(−4, 1, 3)} y dim(S1 ∩ S2 ) = 1. En los ejercicios 48 a 51, X es un conjunto no vacı́o, y F (X) es el espacio de funciones con dominio en X y valores en R; si A ⊂ X es un subconjunto de X, se definen 1, si x ∈ A; χA (x) = 0, si x ∈ / A. (La función χA se llama función caracterı́stica o indicadora de A) y FA = { f ∈ F (X) | f (x) = 0 ∀x ∈ X − A}. 48 Probar que FA es un subespacio de F (X). DEMOSTRACIÓN Q (1) La función constante cero, θ, satisface θ(x) = 0 para todo x ∈ X, en particular es nula en todo x ∈ X − A; luego θ ∈ FA . (2) Si α, β son un par de escalares y f , g ∈ FA , entonces f (x) = g(x) = 0 para todo x ∈ X − A. Por tanto, (α f + βg)(x) = α f (x) + βg(x) = 0 ∀x ∈ X − A; lo cual prueba que α f + βg ∈ FA . De (1) y (2) se concluye que FA < F (X). Q 49 Si A1 , . . . , Ak forman una partición de X; es decir, X = A1 ∪ · · · ∪ Ak y Ai ∩ A j = 0/ si i = j, demostrar que F (X) = FA1 ⊕ · · · ⊕ FAk ; esto es, F (X) es la suma directa (cfr. el ejercicio resuelto 27 de esta sección) de los subespacios FAi . DEMOSTRACIÓN Q Sea f ∈ F (X), entonces f = χA1 f + · · · + χAk f . Page (PS/TeX): 92 / 202, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 203 En efecto, si x ∈ X, existe un único r tal que x ∈ Ar , luego (χAr f )(x) = χAr (x) f (x) = 1 · f (x) = f (x) y (χAi f )(x) = χAi (x) f (x) = 0 · f (x) = 0 si i = r; / Ai , entonces lo cual prueba que f = ∑ki=1 χAi f . Por otra parte, si x ∈ (χAi f )(x) = χAi (x) f (x) = 0 · f (x) = 0, lo que demuestra que χAi f ∈ FAi . Supongamos que f1 + · · · + fk = θ, la función constante cero, con fi ∈ FAi . Sea x ∈ X y r el único subı́ndice tal que x ∈ Ar ; entonces f j (x) = 0 ∀ j = r. Luego fr (x) = f1 (x) + · · · + fr (x) + · · · + fk (x) = 0 y, por tanto, fr (x) = 0. Lo cual prueba fr = θ ∀ r = 1, . . . , k. Ası́, toda función f ∈ F (X) se puede escribir en la forma f = f1 + · · · + fk , con fi ∈ FAi , de manera única. Q 50 Si los conjuntos Ai , i = 1, . . . , k, forman una partición de X, probar que las funciones χAi son L.I. DEMOSTRACIÓN Q Sean los escalares αi tales que α1 χA1 (x) + · · · + αk χAk (x) = 0 ∀x ∈ X. Sea xi ∈ Ai , entonces 0 = α1 χA1 (x) + · · · + αk χAk (x) = αi . Luego las funciones χAi son L.I. Q 51 Si X es un conjunto finito, X = {x1 , . . . , xk }, hallar una base y la dimensión de F (X). Solución Sea f ∈ F (X) y ci = f (xi ) para cada i. Por los ejercicios precedentes, ya que los conjuntos {xi } forman una partición de X, las funciones χ{xi } son L.I., y f = χ{x1 } f + · · · + χ{xk } f ; es decir, f = c1 χ{x1 } + · · · + ck χ{xk } . Por lo que {χ{x1 } , . . . , χ{xk } } es una base de F (X); por tanto, dim(F (X)) = k. Espacios vectoriales complejos 52 Sea S = {z = (z1 , z2 , z3 , z4 ) ∈ C4 | z1 = (1 + i)z2 − iz3 = z2 − z4 = 0}. Mostrar que S < C4 y encontrar una base y la dimensión de S. Page (PS/TeX): 93 / 203, COMPOSITE 204 CAPÍTULO 3 Espacios vectoriales Los vectoresz = (z1 , z2 , z3 , z4 ) ∈ S satisfacen las relaciones z1 = 0, z2 = y z2 = z4 ; es decir, Solución ⎡ z1 ⎤ ⎡ 0 ⎥ ⎢ ⎢ ⎢ z2 ⎥ ⎢ ( 12 + 12 i)r ⎥ ⎢ ⎢ ⎢ z ⎥=⎢ r ⎣ 3 ⎦ ⎣ 1 z4 ( 2 + 12 i)r ⎡ ⎤ 0 ⎢ 1 1 ⎥ ⎢ ( + i) ⎥ ⎥ = r⎢ 2 2 ⎢ ⎥ 1 ⎣ ⎦ 1 ( 2 + 12 i) i 1+i z3 = ( 12 + 12 i)z3 ⎤ ⎥ ⎥ ⎥; ⎥ ⎦ r ∈ C. Con lo que S = gn((0, 12 + 12 i, 1, 12 + 12 i)); luego S es un subespacio de C4 , una base de S es {(0, 12 + 12 i, 1, 12 + 12 i)} y dim(S) = 1. 53 Determinar si los vectoresz1 = (1 + i, 2 − i, 1),z2 = (3 + 2i, 2 − 2i, 1) yz3 = (1, 2, −i) son L.I. o L.D. en C3 . Solución Dado que ⎡ 1+i ⎣ 2−i 1 ⎤ 1 1 −i ⎣ 2 − i 2 − 2i 2 ⎦ 1 + i 3 + 2i 1 ⎤ ⎡ 1 1 −i ∼ ⎣ 0 −i 3 + 2i ⎦ 0 2+i i ⎤ ⎡ 1 1 −i 1 −2 + 3i ⎦ ∼ ⎣ 0 0 2+i i ⎤ ⎡ 1 1 −i 1 −2 + 3i ⎦ ∼ ⎣ 0 0 2+i i ⎡ ⎤ 1 1 −i ∼ ⎣ 0 1 −2 + 3i ⎦ , 0 0 7 − 3i ⎤ 3 + 2i 1 2 − 2i 2 ⎦ ∼ 1 −i ⎡ el sistema α1z1 + α2z2 + α3z3 = (0, 0, 0), αi ∈ C, tiene únicamente la solución trivial α1 = α2 = α3 = 0, los vectoresz1 ,z2 yz3 son L.I. 54 Seanz1 = (1−i, i, 2i, −1−2i),z2 = (1, −1, 2i, 1+3i),z3 = (1+2i, −3−2i, 2i, 5+13i) yz4 = (−i, −i, 2+ 3i, −1); encontrar una base del subespacio S = gn(z1 ,z2 ,z3 ,z4 ) en C4 . Solución Puesto que ⎡ 1−i ⎢ i ⎢ ⎣ 2i −1 − 2i 1 −1 2i 1 + 3i ⎤ 1 + 2i −i −3 − 2i −i ⎥ ⎥ ∼ 2i 2 + 3i ⎦ 5 + 13i −1 ∼ Page (PS/TeX): 94 / 204, COMPOSITE ⎡ 1−i 1 1 + 2i −i ⎢ 1 i −2 + 3i −1 ⎢ ⎣ 2i 2i 2i 2 + 3i −1 − 2i 1 + 3i 5 + 13i −1 ⎡ 1 i −2 + 3i −1 ⎢ 1−i 1 1 + 2i −i ⎢ ⎣ 2i 2i 2i 2 + 3i −1 − 2i 1 + 3i 5 + 13i −1 ⎤ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎦ Ejercicios resueltos y ejercicios propuestos 205 SECCIÓN 3.6 ⎡ 1−i ⎢ i ⎢ ⎣ 2i −1 − 2i ⎤ 1 i −2 + 3i −1 ⎢ 0 −i −3i 1 − 2i ⎥ ⎥ ⎢ ⎣ 0 2 + 2i 6 + 6i 2 + 5i ⎦ 0 −1 + 4i −3 + 12i −2 − 2i ⎡ ⎤ 1 i −2 + 3i −1 ⎢ 0 1 3 2+i ⎥ ⎥ ∼ ⎢ ⎣ 0 0 0 −i ⎦ 0 0 0 4 − 9i ⎤ ⎡ 1 i −2 + 3i −1 ⎢ 0 1 3 2+i ⎥ ⎥ ∼ ⎢ ⎣ 0 0 0 1 ⎦ 0 0 0 4 − 9i ⎤ ⎡ 1 i −2 + 3i −1 ⎢ 0 1 3 2+i ⎥ ⎥, ∼ ⎢ ⎣ 0 0 0 1 ⎦ 0 0 0 0 ⎡ ⎤ 1 + 2i −i −3 − 2i −i ⎥ ⎥ ∼ 2i 2 + 3i ⎦ 5 + 13i −1 1 −1 2i 1 + 3i los vectores que corresponden a columna con pivote en la forma escalonada forman una base para S; es decir, {z1 ,z2 ,z4 }. 55 Sea M2 (C) el espacio vectorial de matrices 2 × 2 con componentes complejas y S = {A = (ai j ) | a11 + a22 = 0}. Comprobar que S es un subespacio vectorial de M2 (C), y encontrar una base y la dimensión de S. Solución Dado que toda matriz A ∈ S tiene la forma A= α γ =α β −α 1 0 0 −1 0 1 0 0 +β +γ 0 0 1 0 , es evidente que S = gn 1 0 0 −1 0 1 0 0 , , ; 0 0 1 0 por lo que S < M2 (C). Por otro lado, si a, b, c ∈ C son escalares tales que a 1 0 0 −1 +b 0 1 0 0 +c 0 0 1 0 = 0 0 0 0 se tiene a b c −a = 0 0 0 0 ; de donde a = b = c = 0; por tanto, estas matrices son L.I. en M2 (C). Luego estas matrices forman una base de S; por ende, dim(S) = 3. Page (PS/TeX): 95 / 205, COMPOSITE 206 CAPÍTULO 3 Espacios vectoriales 56 Sea C2 el espacio vectorial de vectores cuyos componentes son números complejos. (a) Probar quez1 = (1 − i, i) yz2 = (2, −1 + i) son L.D. en C2 . (b) Sea E el espacio de pares ordenados (w1 , w2 ), con w1 , w2 ∈ C, con la suma usual de vectores en C2 pero con la multiplicación por escalares restringida a los números reales. Probar que z1 y z2 son L.I. en E. DEMOSTRACIÓN Q (a) Sean α, β ∈ C tales que αz1 + βz2 = 0, entonces, ((1 − i) α + 2β, iα + (−1 + i) β) = (0, 0); por tanto, (1 − i) α + 2β = 0, iα + (−1 + i) β = 0. Y puesto que 1−i i 2 −1 + i −1 + i 2 1 1+i 1−i 2 1 1+i , 0 0 ∼ ∼ ∼ i 1−i se tiene α β = −(1 + i)r r =r −(1 + i) 1 . Por lo quez1 yz2 son L.D. en C2 . (b) Sean α, β ∈ R tales que αz1 + βz2 = 0, entonces ((1 − i) α + 2β, iα + (−1 + i) β) = (0, 0); por tanto, α + 2β − iα = 0, −β + (α + β)i = 0. De donde α = 0 y β = 0; por lo quez1 yz2 son L.I. en E. Q 57 Dado que C es un espacio vectorial es fácil probar que F (X, C), el conjunto de funciones f : X → C, es un espacio vectorial complejo para todo conjunto no vacı́o X. Sean X = R y f1 (x) = 2 + 2i cos(x), f2 (x) = sen2 (x) + i cos2 (x) y f3 (x) = cos2 (x) − i sen2 (x). Probar que f1 , f2 y f3 son L.I. en F (X, C). Solución Sean α, β, γ ∈ C tales que α f1 (x) + β f2 (x) + γ f3 (x) = 0 para todo x ∈ R, entonces 2α + β sen2 (x) + γ cos2 (x) = 0, 2α cos(x) + β cos2 (x) − γ sen2 (x) = 0 Page (PS/TeX): 96 / 206, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 207 para todo x ∈ R. En particular, si x = 0, se tiene 2α + γ = 0, 2α + β = 0, y si x = π/2 2α + β = 0, −γ = 0; de donde α = β = γ = 0. Luego f1 , f2 y f3 son L.I. en F (X, C). 3.6.2 Ejercicios propuestos El lector encontrará la respuesta a los ejercicios en cursiva en el apéndice E al final del libro. Geometrı́a de los espacios Rn (respuestas en página 1077) En los ejercicios 1 a 21, u = (−1, 2, 4), v = (−1, 0, 2) y w = (−3, 4, 5). 1 Encontrar −u. 12 Calcular w. 3 Hallar u +v. 14 Encontrar u − 3v + 7 w. 5 Calcular v − 5 w. 16 Hallar 25v. 7 Calcular w −u. 18 Encontrar un vector paralelo a u con la misma dirección. 19 Hallar un vector paralelo a v con dirección opuesta. 10 Hallar w ·v 11 Calcular u · (3v + w). 12 Encontrar (u +v) · w. 13 Encontrar el ángulo entre u y v. Page (PS/TeX): 97 / 207, COMPOSITE 208 CAPÍTULO 3 Espacios vectoriales 14 Calcular el ángulo entre v y w. 15 Encontrar el valor de x para que (x, −1, 4) sea ortogonal a u. 16 Encontrar el valor de y para que (2, y, −3) sea ortogonal a w. 17 Encontrar un vector no nulo que sea ortogonal a u y a v utilizando el concepto de producto punto. 18 Encontrar un vector no nulo que sea ortogonal a v y a w utilizando el concepto de producto vectorial dado en los ejercicios resueltos 10 y 11 de este capı́tulo. 19 Calcular u ×v y v ×u. (Utilizar la definición de producto vectorial dada en el ejercicio resuelto 11 de este capı́tulo.) 20 Encontrar ( w ×v) ·u. 21 Hallar (u × w) ×v. En los ejercicios 22 a 25, u ×v es el producto vectorial (cruz) definido en los ejercicios resueltos 10 y 11, u, v, w son vectores cualesquiera de R3 , y α es un número real arbitrario. 22 Demostrar que u ×v = −(v ×u). 23 Probar que u × (v + w) = u ×v +u × w. 24 Mostrar que (αu) ×v = u × (αv) = α(u ×v). 25 Demostrar que (u ×v) × w = (u · w)v − (v · w)u. En los ejercicios 26 a 39, calcular el área o el volumen de la configuración dada en R2 o R3 , utilizar la interpretación geométrica del determinante del apartado 3.1.2 (pág. 117) y la definición e interpretación geométrica del producto vectorial dada en los ejercicios resueltos 10, 11 y 13 de este capı́tulo. 26 El área del paralelogramo generado por los vectores (2, 5) y (6, 2). 27 El volumen del paralelepı́pedo generado por los vectores u = (3, −2, 4), v = (−2, 3, 5) y w = (1, 2, 5). 28 El área del paralelogramo generado por los vectores (−3, 5) y (2, 4). 29 El volumen del paralelepı́pedo generado por los vectores u = (−2, 2, 5), v = (3, 0, 6) y w = (2, 4, 2). 30 El área del paralelogramo generado por los vectores (−1, 2, −1) y (2, −3, 2). 31 El volumen del paralelepı́pedo con vértices (0, 0, 0), (1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 0), (1, 1, 1), (1, 0, 1), (0, 1, 1). Page (PS/TeX): 98 / 208, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 209 32 El volumen del paralelepı́pedo con vértices (1, 1, 4), (2, 3, 7), (0, 3, 8), (0, 0, 7), (1, 5, 11), (0, 4, 14), (1, 2, 10), (−1, 2, 11). 33 El volumen del paralelepı́pedo con vértices (2, 3, 4), (3, 5, 7), (3, 4, 1), (5, 3, 9), (4, 6, 4), (7, 6, 9), (6, 5, 12), (6, 4, 6). 34 El área del paralelogramo con vértices (2, 2), (4, 6), (7, 3) y (9, 7). 35 El área del paralelogramo con vértices (−4, 1), (−2, 6), (4, 3) y (2, −3). 36 El área del paralelogramo con vértices (1, 0, 1), (3, 1, 4), (0, 2, 9) y (−2, 1, 6). 37 El área del triángulo con vértices (4, 0, 3), (−1, 3, 5) y (1, 1, −2). 38 El área del triángulo con vértices (1, −1, 2), (3, −2, 1), (2, 3, 4). 39 El área del triángulo acotado por las rectas z + x = 1, y + x = 1 y y + z = 1. En los ejercicios 40 a 58, u = (1, −2, −4, 3, 5), v = (−2, 3, −1, 2, −1) y w = (2, −1, −3, 1, −2). 40 Encontrar − w. 41 Calcular u. 42 Hallar u + w. 43 Encontrar 2u − 4v + w. 44 Calcular v − 3 w. 45 Hallar 4v. 46 Calcular w −u. 47 Encontrar un vector paralelo a u con la misma dirección. 48 Hallar un vector paralelo a v con dirección opuesta. 49 Hallar w ·v. 50 Encontrar u ·v. 51 Calcular u · (2v − 3 w). 52 Encontrar (u +v) · w. Page (PS/TeX): 99 / 209, COMPOSITE 210 CAPÍTULO 3 Espacios vectoriales 53 Encontrar el ángulo entre u y v. 54 Calcular el ángulo entre v y w. 55 Encontrar el valor de x para que (x, 1, 4, −1, 2) sea ortogonal a u. 56 Encontrar el valor de y para que (−1, y, 3, −2, 1) sea ortogonal a w. 57 Encontrar un vector no nulo que sea ortogonal a u y a v. 58 Hallar un vector no nulo que sea ortogonal a u y a w. 59 Si u = (−1, 2, 3) y v = (2, −1, −1), hallar d(u,v) en R3 . 60 Si u = (2, −1, 1, 2) y v = (2, −3, 4, −2), hallar d(u,v) en R4 . 61 Encontrar la distancia entre los vectores (−3, −1, 2, −2, 1) y (5, −2, 4, 0, 1) de R4 . 62 Hallar la distancia entre los vectores (−1, 0, −2, 5, −6, 3, 2) y (4, 1, 2, 6, 2, −2, 1) de R7 . 63 Demostrar la propiedad de distributividad del producto punto en Rn (propiedad 3, pág. 123); esto es, u · (v + w) = u ·v +u · w ∀u,v,w ∈ Rn . 64 Demostrar la propiedad de positividad del producto punto en Rn (propiedad 4, pág. 123); esto es, ∀u ∈ Rn y u ·u = 0 ⇔ u = 0Rn . u ·u ≥ 0 65 Considerar la desigualdad de Schwarz (cfr. teorema 3.1, pág. 124) para el caso R3 , con u = (x1 , x2 , x3 ) y v = (y1 , y2 , y3 ). En el caso de que uno de estos vectores sea el neutro aditivo, la desigualdad de Schwarz se traduce a igualdad. Si ninguno de estos vectores es nulo, probar que hay igualdad en la desigualdad (3.6) si y sólo si uno de los vectores es múltiplo escalar del otro, por ejemplo v = λu. Utilizar la definición algebraica de producto punto prescindiendo del concepto de ángulo entre vectores. 66 Demostrar que, en general, para cualquier par de vectores no nulos en Rn |u ·v| = u v si y sólo si uno de ellos es múltiplo escalar del otro, por ejemplo v = λu. 67 Probar las propiedades 1, 2 y 3 del valor absoluto enunciadas en la página 126. 68 Probar que para todo par de números reales, x y y, se cumple: (a) ||x| − |y|| ≤ |x − y|. (b) |x − y| ≤ |x| + |y|. 69 Encontrar la ecuación del plano que pasa por el punto u = (−1, 2, 5) y es ortogonal al vector N= (−3, 2, 4). Page (PS/TeX): 100 / 210, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 211 70 Hallar la ecuación del plano que pasa por el punto u = (2, −1, 4) y es ortogonal al vector N = (1, −2, 1). 71 Encontrar la ecuación del plano que pasa por el punto u = (3, −2, 4) y es ortogonal al vector N= (1, 1, −3). 72 Encontrar la ecuación del plano que pasa por el punto u = (2, 3, −4) y es ortogonal al vector N= (1, −3, 3). 73 Hallar la ecuación del plano que pasa por los puntos (−2, 1, 3), (1, 2, −2) y (2, −1, 6). 74 Encontrar la ecuación del plano que pasa por los puntos (4, 1, −1), (−2, −1, −1) y (6, −2, 2). 75 Encontrar la ecuación del plano que pasa por los puntos (2, 3, −1), (−1, −2, 1) y (2, −5, 7). 76 Hallar la ecuación del plano que pasa por los puntos (3, 1, 2), (2, 3, 7) y (1, −3, 8). Espacios vectoriales (respuestas en páginas 1077-1078) En los ejercicios 77 a 89, considere los conjuntos dados con las operaciones usuales de suma entre sus elementos y multiplicación por un escalar. Determine si (a) la suma es cerrada y (b) la multiplicación es cerrada en cada conjunto. 77 La recta y = 2x − 1. 78 El primer cuadrante del plano cartesiano R2 . 79 El conjunto de matrices cuadradas de orden 3 triangulares superiormente. 80 El conjunto de matrices simétricas de orden n. 81 El conjunto de funciones f : R → R que son periódicas con periodo T ( f (x + T ) = f (x) ∀x). 82 El conjunto de matrices invertibles de orden 3. 83 El conjunto de vectores en R3 que están contenidos en el plano x, z. 84 El conjunto de puntos en el plano R2 cuyas componentes son números racionales. 85 El rectángulo Q = [a, b] × [c, d]; es decir, el conjunto de puntos (x, y) tales que a ≤ x ≤ b y c ≤ y ≤ d, donde a < b y c < d. 86 Los puntos dentro y sobre la esfera x2 + y2 + z2 = 1; esto es, el conjunto de puntos (x, y, z) cuya distancia al origen es menor o igual a 1. 87 El conjunto de matrices 2 × 2 que tienen todas sus componentes nulas excepto una. Page (PS/TeX): 101 / 211, COMPOSITE 212 CAPÍTULO 3 Espacios vectoriales 88 El conjunto de matrices 3 × 3 cuya traza es cero; es decir, ∑3i=1 aii = 0. √ 89 El conjunto de números reales que tienen la forma a + b 2, con a, b ∈ R. En los ejercicios 90 a 97, determinar los conjuntos que, junto con las operaciones suma y multiplicación por un escalar ahı́ indicadas, son espacios vectoriales. Para los que resulten ser espacios vectoriales probar los 10 axiomas correspondientes, y para los que no, indicar mediante contraejemplos los axiomas que no se cumplen. 90 R3 con la suma usual de vectores, pero con la multiplicación por un escalar r definida por r(x, y, z) = (rz, ry, rx). 91 R2 con el producto usual de un escalar por un vector, pero con la suma definida por (x, y) (x1 , y1 ) = (y + y1 , x + x1 ). 92 El conjunto de matrices de orden 3 con la suma usual de matrices pero con multiplicación por un escalar definida, para cualquier matriz A, por rA = O, donde O es la matriz cero 3 × 3. 93 F (X) con el producto usual de un escalar por una función pero con suma definida por ( f g)(x) = máx{ f (x), g(x)}. 94 El conjunto de matrices n × n triangulares superiormente con las operaciones usuales. 95 El conjunto de matrices cuadradas de orden n que son diagonales con las operaciones usuales. 96 R2 con la suma usual de vectores pero con el producto de un escalar por un vector definido por α(x, y) = (0, 0) si α = 0 (αx, α1 y) si α = 0 97 R2 con la multiplicación usual de un escalar por un vector pero con la suma definida por (x, y) (x1 , y1 ) = (x + 2x1 , y + 3y1 ). 98 Demostrar que R∞ , el conjunto de sucesiones (cfr. ejemplo 3.12, pág. 133), junto con las operaciones usuales de suma de sucesiones y multiplicación de un escalar por una sucesión, es un espacio vectorial. 99 Mostrar que P, el conjunto de polinomios, con las operaciones usuales de suma de polinomios y multi- plicación de un escalar por un polinomio es un espacio vectorial (cfr. ejemplo 3.11). 100 Probar la propiedad 9 del teorema 3.4 (cfr. pág. 138). 101 Si E es un espacio vectorial, probar que (a) (−α)u = −(αu) = α(−u), para todo u ∈ E y para todo escalar α. (b) α(u −v) = αu − αv, para todo par u,v ∈ E y para todo α ∈ R. Page (PS/TeX): 102 / 212, COMPOSITE Ejercicios resueltos y ejercicios propuestos 213 SECCIÓN 3.6 (c) Si αu = αv y α = 0, entonces u =v. (d) Si αu = βu y u = 0E , entonces α = β. (e) −(u +v) = (−u) + (−v) para todo par de vectores u,v ∈ E. (f) (α + β)(u +v) = αu + αv + βu + βv, para todo par de vectores u,v ∈ E y para todo par de escalares α, β. 102 Sea X = {0, 1} y F (X) el espacio de funciones f : X → R. Si f (x) = 3x + 1, g(x) = 1 + 4x − x2 y h(x) = x6x + 2, probar que: (a) f = g. (b) f + g = h. En los ejercicios 103 a 116, determinar si el subconjunto S es un subespacio del espacio dado. En caso de una respuesta afirmativa, demostrar rigurosamente la afirmación; y en caso de una respuesta negativa, indicar con un contraejemplo la propiedad o propiedades de subespacio vectorial que no se cumplen. 103 S = {(−x, y) | x, y ∈ R} en R2 . 104 S = {u ∈ Rn | las componentes de u son números racionales} en R2 . 105 S = {(x, y) | xy ≥ 0} en R2 . 106 S = {(x, y, z) | 2x + 3y + z = 4} en R3 . 107 S = {(x1 , x2 , x3 , x4 ) | x1 − 3x2 + 2x3 − x4 = 0} en R4 . 108 S = {(x, y, z) | x2 + y2 + z2 ≤ 16} en R3 . 109 S = {(x, y) | − 1 ≤ x ≤ 1, −1 ≤ y ≤ 1} en R2 . 110 S, el conjunto de matrices triangulares superiores, en el espacio Mn . 111 S, el conjunto de matrices invertibles, en el espacio Mn . 112 S = {(an ) | lı́mn→∞ an existe} en R∞ (el espacio de sucesiones). 113 S = {(an ) | lı́mn→∞ an = 0} en R∞ . 114 S = {(an ) | lı́mn→∞ an = 1} en R∞ . 115 S = {(an ) | an + 3an−1 + 2an−2 = 0, n ≥ 2} en R∞ . n 116 S = {A | tales que tra(A) = 0} en Mn , donde tra(A) = ∑ aii M. i=1 Page (PS/TeX): 103 / 213, COMPOSITE 214 CAPÍTULO 3 Espacios vectoriales En los ejercicios 117 a 129, demostrar que el conjunto dado es un subespacio del espacio vectorial indicado. La continuidad y derivabilidad de las funciones en los extremos del intervalo se considera en forma lateral; es decir, continuidad y derivabilidad por la derecha en a y continuidad y derivabilidad por la izquierda en b. 117 C1 [a, b] = { f : [a, b] → R | f es derivable con continuidad en [a, b]} en C[a, b], el espacio de funciones continuas en [a, b]. 118 Cn [a, b] = { f : [a, b] → R | f tiene derivada hasta el orden n en [a, b]} 119 C∞ [a, b] = { f : [a, b] → R | f tiene derivada de todo orden en [a, b]} en C[a, b]. 120 S = { f | a2 f + a2 f + a1 f = θ}, donde θ es la función constante cero, en C1 [a, b]. ∞ 121 S = {(an ) | ∑∞ n=1 an converge} en R . ∞ 122 S = {(an ) | ∑∞ n=1 |an | converge} en R . 123 S = { f : [a, b] → R | b a f (x)dx = 0} en C[a, b]. 124 S = { f : R → R | f es par: f (−x) = f (x) ∀x} en F (R). 125 S = { f : R → R | f es impar: f (−x) = − f (x) ∀x} en F (R). 126 S = {p | p es un polinomio y las potencias pares de x son nulas} en P. 127 S = {A | A es una matriz cuadrada de orden n triangular inferior}. 128 S = { f : [0, 1] → R | f (0) = f (0) = 0} en C1 [0, 1]. 129 S = { f : X → R | f alcanza sólo un número finito de valores en X} (es decir, la imagen de cualquier función f ∈ S es un conjunto finito; o sea que el conjunto de los f (x), con x ∈ X, es finito para cada f ∈ S) en F (X). S1 = {(a, b, c) ∈ R3 | a = c, b = 3c}. 130 Sean S2 = {(a, b, c) ∈ R3 | a + b + c = 0}. S3 = {(a, b, c) ∈ R3 | a − 2b + 3c = 0}. (a) Probar que S1 , S2 y S3 son subespacios de R3 . (b) Por el ejercicio resuelto 30, Si ∩ S j es un subespacio de R3 para cualquier combinación de los subı́ndices i, j. (i) Describir el subespacio S1 ∩ S2 . (ii) Describir el subespacio S1 ∩ S3 . (iii) Describir el subespacio S2 ∩ S3 . Page (PS/TeX): 104 / 214, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 215 131 Probar que los únicos subespacios propios (distintos de {0R2 }) de R2 son las rectas que pasan por el origen. 132 Probar que los únicos subespacios propios (distintos de {0R3 }) de R3 son las rectas y los planos que pasan por el origen. 133 (Producto de espacios vectoriales). Sean E y F un par de espacios vectoriales reales. Se definen E × F = {(u,v) |u ∈ E y v ∈ F} y, para todo (u,v), (u1 ,v1 ) ∈ E × F, α ∈ R, (u,v) + (u1 ,v1 ) = (u +u1 ,v +v1 ), α(u,v) = (αu, αv). Donde u +u1 , αu y v +v1 , αv son las operaciones suma de vectores y multiplicación por un escalar en E y F, respectivamente. Probar que E × F es un espacio vectorial con estas operaciones. 134 Probar que R es un espacio vectorial con las operaciones usuales de suma de números reales y multipli- cación de números reales. 135 ¿Qué espacio vectorial es R × R? 136 ¿Qué espacio vectorial es R × R × · · · × R? n 137 (Complemento ortogonal). Sea S < Rn . Probar que S⊥ = {u ∈ Rn |u ⊥v para todo v ∈ S} es un subespacio de Rn , el llamado complemento ortogonal de S. 138 Sean u = (1, 1, 1) y S = gn(u), determinar S⊥ , el complemento ortogonal de S definido en el ejercicio precedente. 139 Probar que si S1 , S2 son subespacios de un espacio vectorial E y S1 ∪ S2 es también un subespacio de E, entonces S1 ⊂ S2 o S2 ⊂ S1 . 140 Sean E un espacio vectorial y S1 , S2 un par de subespacios. Mostrar que si E = S1 ∪ S2 , entonces S1 = E o S2 = E. 141 Sean S1 y S2 los conjuntos de matrices cuadradas de orden n que son triangulares superior e inferior, respectivamente. Mostrar que S1 y S2 son subespacios de Mn y que Mn = S1 ⊕ S2 , la suma directa de S1 y S2 (cfr. ejercicio resuelto 27). 142 Sean S1 = {(a1 , . . . , an−1 , 0) | ai ∈ R, i = 1, . . . , n − 1} y S2 = {(a1 , . . . , an−1 , an ) | ai = 0, i = 1, . . . , n − 1}. Probar que S1 , S2 son subespacios de Rn y que Rn = S1 ⊕ S2 (cfr. ejercicio resuelto 27). Page (PS/TeX): 105 / 215, COMPOSITE 216 CAPÍTULO 3 Espacios vectoriales 143 Sean S1 = { f : R → R | f es par: f (−x) = f (x) ∀x ∈ R} y S2 = { f : R → R | f es impar: f (−x) = − f (x) ∀x ∈ R}. Probar que S1 y S2 son subespacios de F (R), el espacio de funciones f : R → R, y que F (R) = S1 ⊕ S2 . En los ejercicios 144 a 159 escribir, si es posible, el vector v como combinación lineal de los vectores ui . 144 v = (−3, 2); u1 = (1, −1) y u2 = (3, 2) en R2 . 145 v = (1, 5); u1 = (−1, 2), u2 = (−3, 6) en R2 . 146 v = (−1, 1, 4); u1 = (1, −1, 3), u2 = (3, −2, 2) y u3 = (2, −1, 3) en R3 . 147 v = (−11, 6, 7, −2); u1 = (1, 0, −2, 4) y u2 = (−3, 2, 1, 2) en R4 . 148 v = (8, −10, −1, −9, −17), u1 = (1, 1, 1, 0, −1), u2 = (−2, 3, 1, 2, 3), u3 = (−7, 8, 2, 6, 10), u4 = (−2, 0, 1, −1, −3) en R5 . 149 v = 4; u1 = cos2 x y u2 = sen2 x en F (R), el espacio de funciones f : R → R. 150 v = cos 4x; u1 = cos2 2x, u2 = sen2 2x en F (R). 151 v = cos 2x; u1 = 1, u2 = cos2 x en F (R). 152 v = e−x ; u1 = cosh x, u2 = e x en F (R). 153 v = senh x; u1 = e x , u2 = e−x en F (R). 154 v = 3x2 − 2x + 1; u1 = 2, u2 = 1 − x, u3 = (x − 2)2 en P. 155 v = −12 4 2 −1 ; u1 = 1 2 −1 1 , u2 = −1 0 2 0 , u3 = −3 1 0 0 156 v = 1 − x n+1 , ui = xi , i = 0, 1, . . . , n en F (X), donde X = R − {1}. 1−x 157 v = sen( 72 x) ; u1 = 1, u2 = cos x, u3 = cos 2x, u4 = cos(3x) en F ((0, 2π)). 2 sen( 21 x) en M2 . 158 v = sen 3x cos x; u1 = sen 4x, u2 = sen 2x en F (R). 159 v = cos 5x cos x; u1 = cos 6x, u2 = cos 4x en F (R). En los ejercicios 160 a 162, u1 = (−3, 1, 2), u2 = (2, −1, 3) y u3 = (−1, 1, 2). 160 Determinar si v = (14, −6, −2) ∈ gn(u1 ,u2 ,u3 ). En caso afirmativo escribir v como combinación lineal de los vectores ui . Page (PS/TeX): 106 / 216, COMPOSITE Ejercicios resueltos y ejercicios propuestos 217 SECCIÓN 3.6 161 Determinar si v = (−8, 4, −2) ∈ gn(u1 ,u2 ,u3 ). En caso afirmativo escribir v como combinación lineal de los vectores ui . 162 Determinar si gn(u1 ,u2 ,u3 ) = R3 . En los ejercicios 163 a 165, u1 = (−1, 1, 3), u2 = (3, 1, −2) y u3 = (−5, 1, 8). 163 Determinar si v = (−10, 2, 16) ∈ gn(u1 ,u2 ,u3 ). En caso afirmativo escribir v como combinación lineal de los vectores ui . 164 Determinar si v = (−2, −2, −1) ∈ gn(u1 ,u2 ,u3 ). En caso afirmativo escribir v como combinación lineal de los vectores ui . 165 Determinar si gn(u1 ,u2 ,u3 ) = R3 . −1 1 2 1 En los ejercicios 166 a 168, A1 = , A2 = 1 1 −1 1 , A3 = 2 0 1 1 , A4 = −1 1 0 1 . 166 Determinar si v = −6 1 0 −1 ∈ gn(u1 ,u2 ,u3 ,u4 ). En caso afirmativo escribir v como combinación lineal de los vectores ui . 167 Determinar si v = −4 1 1 0 ∈ gn(u1 ,u2 ,u3 ,u4 ). En caso afirmativo escribir v como combinación lineal de los vectores ui . 168 Determinar si gn(u1 ,u2 ,u3 ,u4 ) = M2 . En los ejercicios 169 a 171, A1 = 1 1 3 −1 , A2 = 0 −1 −1 1 , A3 = 169 Determinar si v = −4 −8 −2 2 ∈ gn(u1 ,u2 ,u3 ,u4 ). En caso afirmativo escribir v como combinación lineal de los vectores ui . 170 Determinar si v = 0 4 2 −2 ∈ gn(u1 ,u2 ,u3 ,u4 ). En caso afirmativo escribir v como combinación lineal de los vectores ui . Page (PS/TeX): 107 / 217, COMPOSITE 2 1 −1 1 , A4 = 2 1 −3 1 . 218 CAPÍTULO 3 Espacios vectoriales 171 Determinar si gn(u1 ,u2 ,u3 ,u4 ) = M2 . En los ejercicios 172 a 180, determinar si los vectores indicados generan al espacio dado. 172 (−1, 0, 2), (−1, 1, 1); R3 . 173 (−1, 1), (3, −3), (4, −2); R2 . 174 (2, 1), (1, 1); R2 . 175 (1, −1, 0), (−1, 2, 3), (−1, 1, 2); R3 . 176 (2, −1, 3), (0, 1, 1), (2, 0, 3); R3 . 177 (1, 1, 0), (2, −1, 2), (3, −1, 1); R3 . 178 (2, 1, 0, −1), (2, −1, 3, 0), (−2, 3, 1, 4); R4 . 179 (2, 1, 0, −1), (2, −1, 3, 0), (−2, 3, 1, 4), (0, −1, 1, 1); R4 . 180 (1, 0, −1, 1), (2, 1, −1, 1), (3, −2, 4, 2), (0, 0, −1, 1); R4 . En los ejercicios 181 a 188, determinar si los vectores generan al espacio dado; de ser ası́, reducir el conjunto de vectores a un mı́nimo de generadores. 181 (−1, 2), (−1, 1), (3, 2), (−1, −1); R2 . 182 (1, −2, 0), (−1, 1, 2), (1, −4, 4) , (1, 2, −8); R3 . 183 (4, −1, 2), (−2, 1, 5), (−1, 3, 1), (1, 0, 2); R3 . 184 (2, −3, 2), (1, −2, 1), (−4, 5, −4) , (−4, 7, −4); R3 . 185 (1, 0, 1), (−1, 1, 0), (2, −1, 3), (2, −1, 1), (−1, 2, 2); R3 . 186 (1, −2, 1, 2), (−1, 0, 2, 3), (−2, 1, 3, 2), (−1, 1, 1, 0), (−2, 1, 2, 1), (−1, 2, 1, 3); R4 . 187 (1, 0, −1, 1), (2, 1, 0, −1), (−1, 1, 3, 2), (3, 0, −3, 2), (2, 1, −2, 4, ); R4 . 188 (−2, 3, 1, 2), (1, −2, 2, 3), (2, 3, 0, 0), (−3, 4, 4, 7) , (−4, 6, 2, 4); R4 . 189 Sean S1 = gn((2, 1, 1), (1, 3, 2)) y S2 = gn((1, −1, 0), (−3, 1, 0)). Por el ejercicio resuelto 30, S1 ∩ S2 < R3 . Encontrar un conjunto generador del subespacio S1 ∩ S2 . En los ejercicios 190 a 195, describir el subespacio generado por los conjuntos vectores dados. Page (PS/TeX): 108 / 218, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 219 190 {x, 1 − x, x2 } en P, el espacio de polinomios. 191 192 1 0 0 −1 1 0 0 0 $ 0 1 0 0 , , en M2 . 0 0 1 0 $ 0 1 0 0 , , en M2 . 0 0 0 1 193 {ei = (a j ) | a j = 1 si i = j y a j = 0 si i = j} en R∞ , el espacio de sucesiones reales. 194 {(k + x)k | k = 0, 1, 2, . . .} en el espacio de polinomios P. 195 {1, x, x2 , . . . , x n , (x + 1)n , (x + 2)n , . . . , (x + k)n , . . .} en el espacio de polinomios P. 196 Probar que gn(1, x) = gn(1 − 3x, x) en el espacio de polinomios P. 197 Mostrar que si u,v son cualquier par de vectores en un espacio vectorial E, entonces: (a) gn(u,v) = gn(3u −v,v). (b) gn(u,v) = gn(u −v,v +u, ). 198 Sean ui , i = 1, . . . , k y v j , j = 1, . . . , m, vectores en un espacio vectorial E. Establecer condiciones necesarias y suficientes, en términos del concepto de combinación lineal, para que gn(u1 , . . . ,uk ) = gn(v1 , . . . ,vm ). 199 Sea S un subconjunto de un espacio vectorial E. Probar que S es un subespacio de E si y sólo si L (S), el espacio generado por el conjunto S (cfr. ejercicio resuelto 31 de este capı́tulo), es igual a S. 200 Sea E un espacio vectorial y S1 , S2 ⊂ E. Probar que S1 ⊂ S2 ⇒ L (S1 ) ⊂ L (S2 ) (cfr. ejercicio resuelto 31 de este capı́tulo). Mostrar que si además L (S1 ) = E, entonces también L (S2 ) = E. 201 Probar que si S1 , S2 son cualquier par de subconjuntos de un espacio E, entonces L (S1 ∪ S2 ) = L (S1 ) + L (S2 ) (cfr. ejercicio resuelto 31 de este capı́tulo). 202 Demostrar que L (S1 ∩ S2 ) ⊂ L (S1 ) ∩ L (S2 ) para cualquier par de subconjuntos S1 , S2 de un espacio vectorial E (cfr. ejercicio resuelto 31 de este capı́tulo). Dependencia e independencia lineales (respuestas en página 1078) 203 Dar una condición geométrica para que dos vectores no nulos sean L.D. en R2 . 204 Dar una condición geométrica para que dos vectores no nulos sean L.I. en R2 . 205 Argumentar geométricamente por qué tres vectores no nulos son L.D. en R2 . 206 Dar una condición geométrica para que dos vectores no nulos sean L.D. en R3 . Page (PS/TeX): 109 / 219, COMPOSITE 220 CAPÍTULO 3 Espacios vectoriales 207 Dar una condición geométrica para que dos vectores no nulos sean L.I. en R3 . 208 Dar una condición geométrica para que tres vectores no nulos sean L.D. en R3 . 209 Dar una condición geométrica para que tres vectores no nulos sean L.I. en R3 . 210 Argumentar geométricamente por qué cuatro vectores no nulos son L.D. en R3 . En los problemas 211 a 257, determinar si el conjunto dado de vectores es L.D. o L.I. 211 {(2, 8), (−1, −4)} en R2 . 212 {(1, −2), (2, −1)} en R2 . 213 {(−6, 9), (2, −3)} en R2 . 214 {(−1, 3), (2, 3)} en R2 . 215 {(−1, 1), (2, 4), (2, −3)} en R2 . 216 {(1, −1, 2), (−2, 2, −4)} en R3 . 217 {(2, −1, 3), (4, −2, 8)} en R3 . 218 {(1, −1, 1), (2, −1, 3), (2, 2, 1)} en R3 . 219 {(2, 4, 3), (−5, −2, −5), (4, −8, 1)} en R3 . 220 {(3, 0, −1), (1, 2, 4), (−3, 2, 1)} en R3 . 221 {(−2, 2, 5) , (4, −2, 1), (−3, 2, 2)} en R3 . 222 {(−3, 2, 4), (2, −2, 5), (−1, 1, 2), (−2, 3, 1)} en R3 . 223 {(2, −1, 3, 2), (1, 1, 2, 1)} en R4 . 224 {(−1, 1, 3, 2), (2, −2, −6, −4)} en R4 . 225 {(2, 1, −1, 2), (−1, 1, 1, −1), (2, −2, 1, 1)} en R4 . 226 {(−1, −2, 3, 2), (−3, −2, 1, 1), (3, −2, 7, 4)} en R4 . 227 {(1, 1, 0, 1), (−1, 0, 1, 2), (2, −1, 1, 1)} en R4 . 228 {(3, −2, 1, 1), (−2, 1, 2, 0), (−7, 4, 3, −1)} en R4 . Page (PS/TeX): 110 / 220, COMPOSITE Ejercicios resueltos y ejercicios propuestos 221 SECCIÓN 3.6 229 {(−1, 1, 2, 1), (−2, 2, 1, 3), (1, −4, 2, 1), (−2, 1, 2, 1)} en R4 . 230 {(3, −2, 1, 0), (2, −3, 4, 1), (1, 0, −3, 2), (−2, 4, −4, −4)} en R4 . 231 {(2, 3, 1, 2), (1, −2, 2, 3), (−1, 0, 2, 3), (−2, 1, 4, 2)} en R4 . 232 {(3, −4, −5, 1), (−1, 5, 2, 6), (−2, 3, 1, 2), (−7, 17, 10, 13)} en R4 . 233 {(2, 3, 1, 4), (−1, 2, 8, 7), (−11, 3, 2, 4), (−23, 2, 1, 2), (−2, 7, 9, 13)} en R4 . 234 235 236 237 −1 2 1 2 −3 1 1 −1 2 3 −2 1 −3 , 3 2 −2 1 2 $ −1 2 3 , en M2×3 . 1 1 1 −1 2 −4 1 , , −5 1 2 −1 1 −2 −4 7 1 2 −1 3 3 −1 1 , , 2 2 1 3 −2 2 1 $ 2 −1 −2 0 , , en M2 . 1 2 0 −6 ⎧⎡ ⎤ ⎡ −1 1 2 ⎨ ⎣ −1 2 ⎦ , ⎣ 1 238 ⎩ 2 1 3 ⎧⎡ ⎤ ⎡ 1 1 ⎨ −2 ⎣ 3 −2 ⎦ , ⎣ −1 239 ⎩ −3 −1 −3 −1 1 $ en M2×3 . $ en M2 . ⎤⎫ ⎤ ⎡ ⎤ ⎡ −1 2 ⎬ 3 −1 3 0 ⎦ , ⎣ 0 3 ⎦ en M3×2 . −1 ⎦ , ⎣ 2 ⎭ 2 0 2 3 0 ⎤ ⎡ 1 0 −1 ⎦ , ⎣ −2 2 2 ⎤ ⎡ 0 2 −3 ⎦ , ⎣ 2 0 0 ⎤⎫ −1 ⎬ −2 ⎦ en M3×2 . ⎭ 3 240 {cos x, cos(−x)} en F (R). 241 {sen x, sen(−x)} en F (R). 242 {1 − x, 2x2 − 1, 3x, x2 + 2} en P, el espacio de polinomios. 243 {3, 2 − x, x3 + 2, x2 } en P, el espacio de polinomios. 244 {1 − x, x2 + 1, 2 + x, x3 , −3 + 2x − 2x2 } en P. 245 {1, 1 − x, (1 − x)2 , (1 − x)3 } en F (R). 246 {4, cos2 x, sen2 x} en F (R). 247 {cos 4x, cos2 2x, sen2 2x} en F (R). 248 {cos 2x, 1, cos2 x} en F (R). Page (PS/TeX): 111 / 221, COMPOSITE 222 CAPÍTULO 3 Espacios vectoriales 249 {e−x , cosh x, e x } en F (R). 250 {senh x, e x , e−x } en F (R). 251 {(x − 1)−1 , (x − 2)−2 , (x − 3)−3 } en F (X), donde X = R − {1, 2, 3}. 252 {x−2 , x−1 , 1, x, x2 } en F (X), donde X = R − {0}. 253 {(x − 1)−2 , (x − 1)−1 , 1, x − 1, (x − 1)2 } en F (X), donde X = R − {1}. 254 {cos x, cos 2x, cos 3x} en F (R). 255 {sen x, sen 2x, sen 3x} en F (R). 256 {cos x, sen x, cos 2x, sen 2x, cos 3x, sen 3x} en F (R). 257 {1, 2 + x, 3 + 2x2 , 4 + 3x3 } en P. 258 Mostrar que si u1 ,u2 ,u3 son vectores L.I. en un espacio vectorial E, entonces los vectores v1 = 4u1 , v2 = u1 − 3u2 y v3 = 3u1 + 2u3 son L.I. 259 Probar que si los vectores u1 ,u2 ,u3 son vectores L.I. en un espacio vectorial E, entonces los vectores v1 = 3u1 + 2u2 , v2 = u2 − 4u3 y v3 = −3u1 −u3 son L.I. 260 Sean u1 ,u2 y u3 vectores de un espacio vectorial E. (a) Probar que los vectores u1 ,u2 son L.I. si y sólo si los vectores u1 +u2 , u1 −u2 son L.I. (b) Mostrar que los vectores u1 ,u2 ,u3 son L.I. si y sólo si los vectores u1 +u2 ,u1 +u3 ,u2 +u3 son L.I. 261 Encontrar escalares α, si existen, tales que los vectores (1, −2, 3), (2, α, −1) y (1, 2, 1) sean L.I. 262 Encontrar escalares α, si existen, tales que los vectores (1, 3, α), (−2, α, 1) y (1, 2, 1) sean L.I. 263 En el ejercicio resuelto 39 de este capı́tulo se probó que si u,v ∈ Rn son L.I. y A ∈ Mn es invertible, entonces Au y Av son L.I. ¿Es cierta la misma conclusión si la matriz A no es necesariamente invertible? 264 Sea A una matriz cuadrada de orden n y u,v ∈ Rn . Probar que si los vectores Au y Av son L.I., entonces u y v también son L.I. Bases y dimensión (respuestas en páginas 1079-1080) 265 Demostrar que el conjunto infinito {cos x, cos 2x, cos 3x, . . . , cos nx, . . .} es independiente en el espacio de funciones F (J), donde J es cualquier intervalo. 266 Probar que el conjunto infinito {sen x, sen 2x, sen 3x, . . . , sen nx, . . .} es L.I. en F (J), donde J es cualquier intervalo. Page (PS/TeX): 112 / 222, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 223 267 Demostrar que el conjunto infinito {cos x, sen x, cos 2x, sen 2x, cos 3x, sen 3x, . . . , cos nx, sen nx, . . .} es L.I. en F (J), donde J es cualquier intervalo. 268 Mostrar que el conjunto infinito {1, 2 + x, 3 + 2x2 , 4 + 3x3 , . . . , n + (n − 1)x n−1 , . . .} es L.I. en F (R). En los ejercicios 269 a 272, determinar si los conjuntos dados son L.I. o L.D. 269 {1, 2 + x, 3 + 2x, . . . , n + (n − 1)x, . . .} en el espacio de polinomios P. 270 {1, x, 1 + x + x2 , 1 + x + x2 + x3 , . . . , 1 + x + x2 + · · · + x n , . . .} en el espacio de polinomios P. 271 {1, x + 2, (x + 3)2 , . . . , (x + n)n−1 , . . .} en el espacio de polinomios P. 272 {(x − 1)n | n = 0, ±1, ±2, . . .} en el espacio F (X), donde X = R − {1}. En los ejercicios 273 a 297, determinar si el conjunto de vectores es o no una base del espacio indicado. 273 {(−1, 1), (2, −2)}; R2 . 274 {(1, 3), (−2, 1)}; R2 . 275 {(1, −2, 1), (3, −2, 3), (1, 1, 3)}; R3 . 276 {(2, −2, 1), (3, −1, 2), (2, 2, 2)}; R3 . 277 {(−4, 3, −2), (5, −1, 1), (−3, 5, −3)}; R3 . 278 {(2, 3, 1), (−3, 4, 1), (−1, 1, 2)}; R3 . 279 {(1, 2, −3, 1), (2, −1, 5, 2), (−2, 3, 1, 1), (1, 0, −1, 2)}; R4 . 280 {(2, −3, 2, 1), (−1, 1, 1, 0), (3, −2, 4, 5), (−2, −1, 3, −3)}; R4 . 281 {(−3, 0, 1, 3), (2, −1, 1, 0), (1, 1, 1, 1), (2, −1, 1, 7)}; R4 . 282 {(4, −5, 2, 1), (2, −2, 4, 6), (−2, 1, 3, 1), (0, 2, −1, 4)}; R4 . 283 {(2, 4, −4, 6, 2), (3, −1, 2, 1, 2), (−1, 1, 2, 5, 3), (4, −2, 1, 1, 3), (−1, 3, 2, 4, 2)}; R5 . 284 {(1, −2, −3, 1, −2), (−2, 1, 1, 3, 2), (−1, 1, 2, 1, 1), (−3, 0, 1, 8, 1) , (−5, 4, 7, 6, 5)}; R5 . 285 1 −1 2 1 Page (PS/TeX): 113 / 223, COMPOSITE , 2 1 −1 0 1 , 0 1 −1 $ 2 −1 , ; M2 . 1 2 224 CAPÍTULO 3 Espacios vectoriales 286 287 2 −3 1 2 −1 1 3 , , 0 2 2 4 2 −2 4 −1 2 −2 , , 1 2 0 ⎧ −1 2 ⎪ ⎪ ⎪ ⎨ 3 −1 288 ⎪ −1 0 ⎪ ⎪ ⎩ 0 0 −1 1 $ 1 1 , ; M2 . 1 1 −6 −8 1 , −3 1 2 −3 2 1 , , 2 0 −1 −1 2 1 −1 1 1 2 −1 , , 2 2 1 1 2 1 2 1 −12 −14 1 0 4 3 $ ; M2 . ⎫ ⎪ , ⎪ ⎪ ⎬ ; M2×3 . ⎪ ⎪ ⎪ ⎭ ⎫ 2 4 3 −1 2 1 1 1 1 ⎪ , , , ⎪ ⎪ ⎬ −1 2 3 2 2 2 −1 1 0 ; M2×3 . 289 ⎪ ⎪ 0 5 3 −4 0 −1 −4 5 2 ⎪ ⎪ ⎪ ⎪ , , ⎭ ⎩ 2 3 5 5 2 1 7 5 6 ⎧ ⎪ ⎪ ⎪ ⎨ 290 {x, x2 + 2, (x − 2)2 }; P2 . 291 {1, (x + 1)2 }; P2 . 292 {x, (x + 3)2 , (x − 3)2 }; P2 . 293 {1 + x − 2x2 , 2x2 − x − 2, 4x2 + 2x − 1}; P2 . 294 {1 + 4x − 2x2 , 2 − 3x + x2 , 3 − 12x + 6x2 }; P2 . 295 {2 − 3x, x3 − 4x2 + 1, 5x2 − x + 3}; P3 . 296 {1 + x, x − 1, x2 , x3 }; P3 . 297 {1, x − 2, x2 , x2 + x, x3 + 1, (x − 1)3 , }; P4 . 298 Sea E un espacio vectorial de dimensión finita n y S < E. (a) Probar que S tiene dimensión finita y que dim(S) ≤ n. (b) Demostrar que S = E si y sólo si dim(S) = n. En los ejercicios 299 a 306, determinar si el subconjunto S de puntos (x, y, z) en el espacio R3 que satisface la condición dada es un subespacio de R3 . En caso afirmativo encontrar una base y la dimensión de S. 299 x = 0. 300 x + z = 0. 301 x + y + z = 0. Page (PS/TeX): 114 / 224, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 225 302 x + y − z = 2. 303 x = y. 304 x = y = z. 305 x2 − z2 = 0. 306 x + y + z = 0 y x − y − z = 0. En los ejercicios 307 a 315, S es el conjunto de polinomios p en el espacio Pn , espacio de polinomios de grado a lo más n, que satisface la condición dada. Determinar si S es subespacio de Pn y, de ser ası́, encontrar una base y la dimensión de S. 307 p (0) = 0. 308 p (0) = 0. 309 p(0) = p(1). 310 p(0) + p (0) = 0. 311 p(0) = p(2). 312 p es par (p(−x) = p(x) ∀x). 313 p es impar (p(−x) = −p(x) ∀x). 314 p tiene grado a lo más k < n o p es el polinomio constante cero. 315 p tiene grado k < n o p es el polinomio constante cero. En los ejercicios 316 a 325, encontrar la dimensión del espacio dado en el espacio de funciones F (R). En los casos donde corresponda, α y β son números reales dados. 316 gn(1, eαx , eβx ), α = β. 317 gn(eαx , xeαx ). 318 gn(1, eαx , xeαx ). 319 gn(eαx , xeαx , x2 eαx ). 320 gn(senh x, e x , e−x ). 321 gn(sen x, cos x). Page (PS/TeX): 115 / 225, COMPOSITE 226 CAPÍTULO 3 Espacios vectoriales 322 gn(sen2 x, cos2 x). 323 gn(senh2 x, cosh2 x). 324 gn(1, cos 2x, sen2 2x). 325 gn(e−2x cos x, e−2x sen x). En los ejercicios 326 a 346, extraer una base del conjunto generador del subespacio dado utilizando el teorema 3.17 (cfr. pág. 164) y determinar la correspondiente dimensión. 326 gn((1, −2), (−2, 4)) en R2 . 327 gn((3, 6), (−1, 3)) en R2 . 328 gn((−1, 1), (2, 1)) en R2 . 329 gn((1, −1, 2), (3, −1, 1), (1, 1, −3), (0, 4, −10)) en R3 . 330 gn((2, −1, 3), (4, −2, 6), (8, −4, 12), (−10, 5, −15) en R3 . 331 gn((1, 1, 1), (−2, 1, 3), (−1, 2, 1), (2, 2, 3)) en R3 . 332 gn((−1, 2, 3, 1), (−2, 1, 0, 2), (−1, 1, 2, 2), (−1, 2, 0, −2)) en R4 . 333 gn((2, 1, 3, 2), (−1, 1, −1, 1), (2, 7, 5, 10) , (−4, 4, −4, 4)) en R4 . 334 gn((−1, 2, 1, 3), (−2, 3, 1, 4), (−3, 4, 2, 6), (−1, 1, 2, 3), (1, −6, 2, 3)) en R4 . 335 gn 336 gn 337 gn −1 1 2 −1 3 , 2 2 1 −1 0 0 1 0 1 1 −1 −1 2 −1 1 −6 6 , , en M2 . 2 1 2 −3 −1 2 1 1 4 3 −3 −6 , , , 2 1 1 8 3 5 −14 −5 , 2 0 −1 2 1 0 1 0 −1 1 , , , en M2 . 1 0 0 1 1 1 338 gn(x2 − 4, x2 + 4, 2, 3x − 2) en P. 339 gn(2, 3 + 2x, 2 + 3x, x2 + 1, x2 − x) en P. 340 gn(x, x − 1, x2 + 2, −x − 8 − 3x2 , x3 − x) en P. 341 gn(2 − x, 2 + x, x − x2 , −2 + 2x + 3x2 , x3 + 1, x4 − x) en P. Page (PS/TeX): 116 / 226, COMPOSITE −5 −9 en M2×3 . SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 227 342 gn(1, cos2 x, cos 2x, sen2 x) en F (R). 343 gn(sen 4x, sen 2x, sen 3x, cos x) en F (R). 344 gn(cos 8x, cos(2x), cos 5x, cos 3x) en F (R). 345 gn(1, e x , e−x , cosh x, senh x) en F (R). sen( 52 x) 346 gn 1, cos x, cos 2x, 2 sen( 21 x) en F ((0, 2π)). 347 Sea Pn el espacio de polinomios. A cada polinomio p(x) = ∑nk=0 a0 xk se le asocia el vector [p] = (a0 , a1 , . . . , an ) de Rn+1 . Probar: (a) [p] = 0 ⇔ p es el polinomio constante cero (p = θ). (b) [p + q] = [p] + [q] para todo par p, q ∈ Pn . (c) [αp] = α[p] para todo α ∈ R y para todo p ∈ Pn . (d) Los polinomios pi , i = 1, . . . , m, son L.I. en Pn si y sólo si los vectores asociados correspondientes [pi ] son L.I. en Rn+1 . En los ejercicios 348 a 351, utilice el último inciso del ejercicio precedente para encontrar una base y la dimensión del subespacio dado en el espacio de polinomios. 348 gn(1 + 4x − 2x2 + x3 , 1 − 9x + 3x2 − 2x3 , 5 + 7x − 5x2 + 3x3 , 5 − 6x − x3 ). 349 gn(1 − x + 2x2 + x3 , −2 + 3x + 2x2 + 2x3 , 6 − 8x − 2x3 , −1 + 2x + x2 + 3x3 ). 350 gn(2 + x + x2 − 3x3 , 5 − 2x + 7x2 − 9x3 , −1 − 2x + x2 + x3 , −1 + 2x2 ). 351 gn(3 − x + 2x2 + x3 , 1 + 4x + 5x2 + 7x3 , −1 + 2x + x2 + 3x3 , 2 − x + x2 − x3 ). 352 El conjunto de matrices triangulares superiormente de orden n, S, es un subespacio vectorial del espacio Mn (cfr. ejercicio propuesto 110 de este capı́tulo). (a) Encontrar una base y la dimensión de este subespacio para los casos n = 2 y n = 3. (b) Hallar una base y dim(S) en Mn para cualquier n. 353 El conjunto de matrices simétricas de orden n, S, es un subespacio de Mn (cfr. ejemplo 3.25). (a) Hallar una base y dim(S) en el caso n = 3. (b) Encontrar una base y dim(S) en Mn para todo n. 354 Una matriz A ∈ Mn es antisimétrica si At = −A. Probar que el conjunto S de todas estas matrices, las antisimétricas, es un subespacio de Mn , encontrar una base para S y calcular dim(S). 355 Sea S el conjunto de matrices cuadradas de orden n cuya traza es cero. Probar que S es un subespacio n de Mn , encontrar una base para S y dim(S). (Si A = [ai j ], tra(A) = ∑ aii .) i=1 Page (PS/TeX): 117 / 227, COMPOSITE 228 CAPÍTULO 3 Espacios vectoriales 356 Sea S un subespacio de un espacio vectorial E con dim(E) = n. Encontrar una base y la dimensión del espacio cociente E/S (cfr. ejercicio resuelto 29). 357 Sea S el subespacio de R∞ que consiste en todas las sucesiones (an ) tales que an = 0 salvo un número finito de ı́ndices n. Probar que S < R∞ , encontrar una base y la dimensión de S. 358 Sean n > 1 un número entero y ck ∈ R, k = 0, 1, . . . , n, escalares distintos entre sı́. Para cada k = 0, 1, . . . , n se define n Lk (x) = ∏ i=1 i=k x − ci . ck − ci (a) Probar que Lk (ci ) = 0 si i = k 1 si i = k para todo k y para todo i. (b) Mostrar que Lk (x) es un polinomio de grado a lo más n. Los polinomios Lk (x) se llaman polinomios de Lagrange (asociados a los escalares ck ). (c) Demostrar que los polinomios de Lagrange L0 , L1 , . . . , Ln son L.I. en Pn ; por ende, ya que dim(Pn ) = n + 1, forman una base de Pn . En los ejercicios 359 a 370, completar el conjunto L.I., B, a una base del espacio indicado. 359 B = {(−1, 2, 3), (2, −1, 2)}; R3 . 360 B = {(1, −1, 2), (−1, 2, 2)}; R3 . 361 B = {(2, −1, 2, 2), (−1, 2, 3, −2)}; R4 . 362 B = {(2, −2, 3, 1), (−2, 0, 3, 1)}; R4 . 363 B = {(−1, 0, 2, 3, 2), (−1, 1, 2, 3, −2), (−1, 1, 0, 1, 1)}; R5 . 364 B = {(−1, 2, 1, 4, 3), (−2, 1, 4, 2, 3)}; R5 . 365 B = 366 B = 367 B = −1 1 2 1 1 0 2 0 , 2 0 −1 1 ; M2 . $ 0 1 , ; M2 . 1 1 −1 2 1 2 −1 2 , 368 B = {x − 1, x2 + 1}; P3 . Page (PS/TeX): 118 / 228, COMPOSITE $ 2 0 1 −1 1 1 −2 , 0 1 0 1 1 $ ; M2×3 . SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 229 369 B = {2, x − 2, (x − 2)2 }; P4 . 370 B = {x − 1, (x − 1)2 , (x − 1)3 , (x − 1)4 }; P5 . 371 Sean E un espacio vectorial de dimensión finita y S1 , S2 subespacios de E. Si E = S1 ⊕ S2 , B1 = {u1 , . . . ,uk } es una base de S1 y B = {v1 , . . . ,vl } es una base de S2 , mostrar que B1 ∩ B2 = 0/ y que B1 ∪ B2 es una base de E (cfr. ejercicio resuelto 27). 372 Sean E un espacio vectorial de dimensión finita y S1 , S2 subespacios de E. Si B1 = {u1 , . . . ,uk } es una base de S1 , B2 = {v1 , . . . ,vl } es una base de S2 , B1 ∩ B2 = 0/ y B1 ∪ B2 es una base de E, probar que E = S1 ⊕ S2 . 373 Sean E un espacio vectorial de dimensión finita y S1 < E. Probar que existe S2 < E tal que E = S1 ⊕ S2 . 374 Probar que un espacio vectorial tiene dimensión infinita si y sólo si contiene un conjunto infinito lineal- mente independiente. 375 Sean α, β ∈ R un par de números reales con β = 0. Sea S el conjunto de sucesiones de números reales que satisfacen la relación xn+2 + αxn+1 + βxn = 0 ∀n. En el ejercicio resuelto 44 se probó que S < R∞ . (a) Mostrar que si λ ∈ R es raı́z doble del polinomio X 2 + αX + β = 0, entonces las sucesiones u = (un ) y v = (vn ), con un = λn y vn = nλn , pertenecen a S. (b) Demostrar que {u, v} es una base de S. 376 Sean S1 el conjunto de matrices de la forma a b c a , a, b, c ∈ R y S2 el conjunto de matrices de la forma 0 a −a b , a, b ∈ R. Probar que S1 , S2 < M2 ; encontrar bases y dimensiones de S1 , S2 , S1 + S2 y S1 ∩ S2 . En los problemas 377 a 382, hallar una base y la dimensión del espacio solución del sistema homogéneo indicado. 377 x1 + 3x2 − 2x3 = 0 x1 − 5x2 + 3x3 = 0 2x1 − x2 + 3x3 = 0. 378 x1 − x2 + x3 + 2x4 − x5 = 0 2x1 − x2 + 3x3 − x4 + 2x5 = 0 −3x1 + 2x2 − 3x3 + 2x4 − x5 = 0. Page (PS/TeX): 119 / 229, COMPOSITE 230 CAPÍTULO 3 Espacios vectoriales 379 −x1 + 3x2 − x3 + x4 = 0 2x1 − 3x2 + x3 − 5x4 = 0. 380 x1 + 3x2 − 3x3 + x4 2x1 − x2 + 3x3 − x4 −x1 + x2 − 3x3 + x4 3x1 − x2 + x3 − x4 = = = = 0 0 0 0. 381 −2x1 + 3x2 − x3 + 7x4 − 2x5 + 3x6 = 0 −x1 + x2 − x3 + 4x4 + 3x5 − 2x6 = 0 3x1 − x2 + 4x3 − 5x4 + 3x5 − 6x6 = 0. 382 x1 + 2x2 − 3x3 + x4 − 3x5 + 2x6 −2x1 − x2 − 2x3 + 3x4 − 3x5 − x6 3x1 − 2x2 + x3 + 5x4 − 3x5 + x6 4x1 − x2 + x3 − 4x4 + 2x5 + x6 = = = = 0 0 0 0. En los ejercicios 383 a 388, encontrar bases para el espacio fila, el espacio columna, el espacio nulo, las respectivas dimensiones y el rango de la matriz indicada. ⎤ −1 1 −1 3 ⎦ . −2 4 ⎡ 1 ⎣ 2 3 383 ⎡ 1 ⎢ −1 ⎢ ⎣ 4 0 384 ⎡ −2 ⎣ 3 2 385 ⎡ 1 ⎢ −1 ⎢ ⎣ −1 1 386 ⎡ 387 4 ⎢ −2 ⎢ ⎣ 0 1 ⎡ 388 Page (PS/TeX): 120 / 230, COMPOSITE ⎢ ⎢ ⎢ ⎢ ⎣ 1 2 −2 2 1 ⎤ 3 1 ⎥ ⎥. 2 ⎦ 1 −2 3 −1 −1 ⎤ −1 3 1 4 −1 1 ⎦ . 1 1 2 −1 0 1 −1 2 1 2 6 −2 1 0 3 −1 1 2 −1 2 −1 1 1 −1 −1 3 2 −1 2 0 1 1 0 ⎤ 3 2 ⎥ ⎥. 1 ⎦ 7 3 1 1 −1 1 3 4 6 0 2 3 −1 0 1 ⎤ 1 0 ⎥ ⎥. 1 ⎦ 2 5 2 0 2 2 ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 231 389 Encontrar una ecuación para el subespacio S generado por los vectores (−1, 2, −1, 1, 0), (2, −1, 1, 2, −3), (2, −2, 4, 1, 1) de R5 ; es decir, hallar un sistema homogéneo Ax = 0 tal que el espacio solución sea S (cfr. ejercicio resuelto 46). 390 Encontrar una ecuación para el subespacio S generado por los vectores (1, −3, 2, 1, 1), (1, −1, 3, 2, 1), (−2, 1, −2, −1, 1) de R5 ; es decir, hallar un sistema homogéneo Ax = 0 tal que el espacio solución sea S. 391 Sean S1 = {(x1 , x2 , x3 , x4 ) | x2 − x3 + 2x4 = 0}, S2 = {(x1 , x2 , x3 , x4 ) | x1 = x4 , x3 = −2x4 }. Encontrar bases de S1 + S2 , S1 ∩ S2 y las respectivas dimensiones. 392 Pruebe que si S1 y S2 son subespacios de R3 con dim(S1 ) = dim(S2 ) = 2, entonces S1 ∩ S2 = {0R3 }. 393 Sean S1 y S2 los subespacios de R5 generados por {(−1, 2, −1, 2, 2), (2, −1, 2, 3, 1), (3, −1, 2, 1, 0)} y {(−2, 3, 1, 2, 1), (−1, 1, 1, 2, 1), (2, −4, 2, 1, 3)}, respectivamente. Hallar las bases y las dimensiones de los espacios S1 + S2 y S1 ∩ S2 . 394 Sean S1 y S2 los subespacios de R5 generados por {(1, −2, 3, −2, 1), (−2, 1, 2, −3, 4), (2, 1, −2, 2, 1)} y {(1, −3, −1, 1, 1), (1, −2, −1, 1, 2), (3, 4, −1, 2, 1)}, respectivamente. Hallar las bases y las dimensiones de los espacios S1 + S2 y S1 ∩ S2 . 395 Sean S1 y S2 los subespacios de R5 generados por {(1, −2, 1, 3), (−1, −2, 3, 2)} y {(1, 2, 1, −2), (1, 1, −2, 1)}, respectivamente. Hallar las bases y las dimensiones de los espacios S1 + S2 y S1 ∩ S2 . 396 Sean S1 y S2 los subespacios de P generados por {1−x+x2 +2x3 , 2−3x+2x2 −x3 , −1+2x+3x2 −4x3 } y {(−2 + 3x − 4x2 + x3 , 5 − x + 3x2 + 2x3 , −4 + x + 2x2 − 5x3 }, respectivamente. Hallar las bases y las dimensiones de los espacios S1 + S2 y S1 ∩ S2 . 397 Sean S1 y S2 los subespacios de P generados por {x2 + 2x3 , 2 − 5x − x2 − x3 , −1 + 3x2 − 4x3 } y {(3x − 5x2 − 3x3 , 2 − 3x − x2 − x3 , 1 + x + x2 − 7x3 }, respectivamente. Hallar las bases y las dimensiones de los espacios S1 + S2 y S1 ∩ S2 . Page (PS/TeX): 121 / 231, COMPOSITE 232 CAPÍTULO 3 Espacios vectoriales Espacios vectoriales complejos (respuestas en página 1080) 398 Sea n un entero mayor o igual a 1. Probar que el conjunto Cn de vectores (z1 , . . . , zn ), zi ∈ C para cada i = 1, . . . , n, con las operaciones: (z1 , . . . , zn ) + (w1 , . . . , wn ) = (z1 + w1 , . . . , zn + wn ) α(z1 , . . . , zn ) = (αz1 , . . . , αzn ), donde zi + wi y αzi son las operaciones suma y multiplicación de números complejos, es un espacio vectorial sobre C. 399 Sean n y m un par de números enteros positivos. Probar que Mm×n (C), el conjunto de matrices [ai j ] con componentes complejas, es un espacio vectorial con las operaciones: [ai j ] + [bi j ] = [ai j + bi j ] α[ai j ] = [αai j ], donde ai j + bi j y αai j son la suma y el producto de números complejos, es un espacio vectorial sobre C. 400 Sea P(C) el conjunto de polinomios con coeficientes en C. Mostrar que P(C) con la suma de polinomios y la multiplicación de un escalar por un polinomio usuales (pero sobre el campo C) es un espacio vectorial complejo. 401 Probar que F (X, Cn ), el conjunto de funciones f : X → Cn , con las operaciones usuales de suma de funciones y multiplicación de un escalar por una función, es un espacio vectorial sobre C. 402 Sea C∞ el conjunto de sucesiones (an ), con an ∈ C para todo n ∈ N. Se definen, para cada (an ), (bn ) ∈ C∞ y para cada α ∈ C: (an ) + (bn ) = (an + bn ) α(an ) = (αan ). Mostrar que C∞ , junto con estas operaciones, es un espacio vectorial complejo. 403 Sea E el conjunto de n-adas ordenadas (z1 , . . . , zn ), con los zi ∈ C. Se definen, para cada par (z1 , . . . , zn ), (w1 , . . . , wn ) ∈ E y para cada α ∈ R, las operaciones (z1 , . . . , zn ) + (w1 , . . . , wn ) = (z1 + w1 , . . . , zn + wn ) α(z1 , . . . , zn ) = (αz1 , . . . , αzn ), donde zi + wi es la suma de números complejos y αzi es la multiplicación de un número real por un complejo (α(a + bi) = (αa) + (αb)i). Probar que E junto con estas operaciones es un espacio vectorial real; es decir, sobre R. 404 Muestre que si en Mm×n (C) se restringe la operación multiplicación por un escalar a números reales el espacio resultante E es un espacio vectorial real. Determinar una base y la dimensión de este espacio. 405 Encontrar una base y la dimensión de gn((1, −1 + i, 2i, 3 + i), (i, −i, 2i, 1 + 4i), (−i, −2 + i, −4 − 6i, −5 − 6i)) en C4 . Page (PS/TeX): 122 / 232, COMPOSITE SECCIÓN 3.6 Ejercicios resueltos y ejercicios propuestos 233 406 Completar el conjunto L.I. {(1, −2i, 2i), (1, −1, 2)} a una base de C3 . 407 Completar el conjunto L.I. {(1, i, −i, 2, 0), (1, −1, 1, 1, i), (2, −1, i, −i, 1)} a una base de C5 . 408 Encontrar una base y la dimensión de gn 1 2 −i 1 −1 1 −2 2 −i −2 + i , , 1 0 i 1 + 2i 3 −i 0 2i en M2×3 (C). 409 Completar el conjunto L.I. 1 i −i 2 1 , 2 −1 −i $ a una base de M2 (C). 410 Sean α, β ∈ R un par de números reales con β = 0. Sea S el conjunto de sucesiones en C∞ (cfr. ejercicio 402) que satisfacen la relación xn+2 + αxn+1 + βxn = 0 ∀n. (cfr. ejercicio resuelto 44). (a) Probar que S es un subespacio de C∞ . (b) Mostrar que si λ, μ ∈ C son raı́ces complejas (conjugadas) del polinomio X 2 + αX + β, entonces las sucesiones u = (un ) y v = (vn ), con un = λn y vn = μn , pertenecen a S. (c) Demostrar que {u, v} es una base de S. Page (PS/TeX): 123 / 233, COMPOSITE Page (PS/TeX): 124 / 234, COMPOSITE 4 Espacios con producto interior y espacios normados El propósito de este capı́tulo es dotar de una “geometrı́a” análoga a la de R2 y R3 a otro tipo de espacios vectoriales, de manera que, conceptos tales como producto punto, ángulo entre vectores, perpendicularidad, norma de un vector y distancia entre vectores adquieran significado en otros espacios; por ejemplo, en el de polinomios, en el espacio de funciones, en el espacio de matrices o en el de sucesiones; aun si en éstos no existe una forma fı́sica de “observar” dicha geometrı́a. Lo anterior, como veremos después, no es un simple capricho con fines de generalización, sino que es de gran importancia teórica y aplicada. Para poder hacerlo, es necesario generalizar el producto punto de Rn a estos espacios, ya que a partir de él, como vimos antes, fue posible precisar dichos conceptos geométricos en el espacio Rn . A esto nos abocaremos en la primera sección de este capı́tulo; para que en las siguientes secciones y subsecciones podamos introducir los conceptos geométricos de los que hemos hablado. Como siempre, los últimos dos segmentos están dedicados a la resolución de ejercicios y problemas, y a proponer ejercicios para que el lector practique. 4.1 Espacios con producto interior Para lograr extender el concepto de producto punto de los espacios Rn a otros espacios vectoriales necesitamos abstraer las propiedades esenciales del producto punto que son, precisamente, las que enunciamos en la página 123. Recordemos estas caracterı́sticas esenciales.1 En Rn el producto interior (producto punto) se define como: n (x1 , x2 , . . . , xn ) · (y1 , y2 , . . . , yn ) = ∑ xi yi i=1 y tiene las propiedades: 1. u ·v =v ·u , 2. (λu) ·v = λ(u ·v) , 3. u · (v + w) = u ·v +u · w , 4. u ·u ≥ 0 , 5. u ·u = 0 ⇔ u = 0Rn ; ∀u,v,w ∈ Rn ; ∀λ ∈ R. 11 Les llamamos propiedades esenciales porque cualquier otra propiedad del producto punto se deduce de éstas. 235 Page (PS/TeX): 1 / 235, COMPOSITE 236 CAPÍTULO 4 Espacios con producto interior y espacios normados 4.1.1 Definiciones, ejemplos y propiedades Definición 4.1 (Definición de producto interior) Sea E un espacio vectorial. Un producto interior (producto escalar) en E es una función que a cada par de vectores u,v ∈ E, le asigna un número real denotado como u,v, llamado el producto interior de u con v (también se acostumbra denotarlo por (u |v)), que satisface las siguientes condiciones: 1. u,v = v,u (Simetrı́a) 2. λu,v = λu,v (Homogeneidad) 3. u,v + w = u,v + u,w (Aditividad) 4. u,u ≥ 0 (Positividad)2 5. u,u = 0 ⇔ u = 0E ∀v,u,w ∈ E y ∀λ ∈ R. Ejemplo 4.1 En R2 , si x = (x1 , x2 ),y = (y1 , y2 ) se define x,y = x1 y1 − 2x1 y2 − 2x2 y1 + 5x2 y2 . Demostrar que x,y es un producto interior en R2 . DEMOSTRACIÓN Q Si u = (a, b),v = (c, d),w = (e, f ) ∈ R2 y λ ∈ R: u,v = ac − 2ad − 2bc + 5bd 1. y v,u = (c, d), (a, b) = ca − 2cb − 2da + 5db = ac − 2ad − 2bc + 5bd. Es decir, u,v = v,u. 2. 3. λu,v = = = = u,v + w = = u,v = u,w = u,v + u,w = (λa, λb), (c, d) λac − 2λad − 2λbc + 5λbd λ[ac − 2ad − 2bc + 5bd] λu,v (a, b), (c + e, d + f ) a(c + e) − 2a(d + f ) − 2b(c + e) + 5b(d + f ). ac − 2ad − 2bc + 5bd, ae − 2a f − 2be + 5b f ; ∴ a(c + e) − 2a(d + f ) − 2b(c + e) + 5b(d + f ); 12 Con frecuencia, a las propiedades 2 y 3, se les cita diciendo que el producto interior es bilineal; y a las propiedades 4 y 5, mencionando que el producto interior es definido positivo. Page (PS/TeX): 2 / 236, COMPOSITE SECCIÓN 4.1 Espacios con producto interior 237 esto es, u,v + w = u,v + u,w. u,u = = = = 4. a2 − 2ab − 2ba + 5b2 a2 − 4ab + 5b2 a2 − 4ab + 4b2 + b2 (a − 2b)2 + b2 ≥ 0; de donde, u,u ≥ 0. 5. Si u = (0, 0), claramente u,u = 0. Si u = (a, b) y u,u = 0, entonces (a − 2b)2 + b2 = 0, de ahı́ que a = b = 0 y que u = (a, b) = (0, 0). Q Ejemplo 4.2 En Rn , el producto punto de vectores es un producto interior. Ejemplo 4.3 (Producto interior en el espacio de funciones continuas). En el espacio de las funciones continuas, C[a, b] se define, para f , g ∈ C[a, b], f , g = b a f (t)g(t)dt. Comprobemos que f , g es un producto interior: 1. Si f , g ∈ C[a, b] f , g = b a f (t)g(t)dt = b a g(t) f (t)dt = g, f . 2. Si λ ∈ R y f , g ∈ C[a, b], λ f , g = = b a b a =λ (λ f )(t)g(t)dt λ f (t)g(t)dt a b f (t)g(t)dt = λ f , g. 3. Si f , g, h ∈ C[a, b] f , g + h = = = Page (PS/TeX): 3 / 237, COMPOSITE b a b a a b f (t)(g + h)(t)dt f (t)[g(t) + h(t)]dt [ f (t)g(t) + f (t)h(t)]dt 238 CAPÍTULO 4 Espacios con producto interior y espacios normados = = b a f (t)g(t)dt + b a f (t)h(t)dt f , g + f , h. 4. Si f ∈ C[a, b] f, f = = b f (t) f (t)dt a b a [ f (t)]2 dt ≥ 0. 5. Si f = θ, θ(x) = 0 ∀x ∈ [a, b], entonces f , f = θ, θ = b a = a b θ2 (t)dt 0 · dt = 0. Si f ∈ C[a, b] y f , f = 0, es decir b a f 2 (t)dt = 0, sea F(x) = x a f 2 (t)dt. Entonces, F(a) = F(b) = a a a b f 2 (t)dt = 0, f 2 (t)dt = 0. Ya que f es continua, f 2 también lo es. Ası́, por el teorema fundamental del cálculo,3 F (x) = f 2 (x) ≥ 0 ∀x ∈ [a, b]. Luego, F es creciente en [a, b] (pues su derivada es positiva ahı́). Entonces, F(a) ≤ F(x) ≤ F(b), ∀x ∈ [a, b]; y puesto que F(a) = 0 = F(b), se tiene que F(x) = 0 ∀x ∈ [a, b]. Por tanto, f 2 (x) = F (x) = 0 ∀x y, por ende, f (x) = 0 ∀x ∈ [a, b]. Es decir, f es la función θ, el neutro aditivo de C[a, b]. 13 Recuerde que el teorema fundamental del cálculo establece que si g ∈ C[a, b] y se define G(x) = G (x) = g(x) ∀x ∈ [a, b]. Page (PS/TeX): 4 / 238, COMPOSITE x a g(t) dt, x ∈ [a, b], entonces SECCIÓN 4.1 Espacios con producto interior 239 Ejemplo 4.4 Calcular f , g en C [0, 1], si f (x) = x y g(x) = e x . Solución Haciendo u = x, dv = e x dx e integrando por partes, se tiene f , g = 0 1 xe x dx = xe x |10 − 1 0 e x dx = e − e x |10 = e − (e − 1) = 1. El producto interior definido en C [a, b] se puede motivar intuitivamente de la manera siguiente: sean b−a N un entero no negativo, h = y x j = a + jh, j = 0, 1, . . . , N, la partición correspondiente al dividir N el intervalo [a, b] en N subintervalos cada uno de longitud h. Sea xk∗ ∈ [xk−1 , xk ] un punto cualquiera de este k-ésimo subintervalo, para cada k = 1, 2, . . . , N. Entonces, si definimos √ ak = f (xk∗ ) h √ bk = g(xk∗ ) h y para cada k = 1, 2, . . . , N, tenemos, por definición de la integral definida, que para N grande b a f (x)g(x)dx ≈ N ∑ f (xk∗ )g(xk∗ )h k=1 = (a1 , a2 , . . . , aN ) · (b1 , b2 , . . . , bN ) . De hecho, la aproximación es exacta en el lı́mite; es decir, b a f (x)g(x)dx = lı́m N→∞ N ∑ f (xk∗ )g(xk∗ )h k=1 = lı́m (a1 , a2 , . . . , aN ) · (b1 , b2 , . . . , bN ) , N→∞ lo cual significa que el producto interior en C [a, b] es, en este sentido, un caso lı́mite del producto punto de estos vectores en RN cuando N tiende a infinito. Ejemplo 4.5 Sea M2×2 el espacio vectorial de las matrices cuadradas de orden 2. Se define para A = [ai j ], B = [bi j ] ∈ M2×2 , A, B = a11 b11 + a12 b12 + a21 b21 + a22 b22 . Por ejemplo, −1 1 2 1 , 3 0 −2 2 = (−1) (3) + (1) (0) + (2) (−2) + (1) (2) = −5. Demostrar que A, B es un producto interior en M2×2 . Page (PS/TeX): 5 / 239, COMPOSITE 240 CAPÍTULO 4 DEMOSTRACIÓN Espacios con producto interior y espacios normados A, B Q 1. = a11 b11 + a12 b12 + a21 b21 + a22 b22 = b11 a11 + b12 a12 + b21 a21 + b22 a22 = B, A . 2. Si λ ∈ R y A = [ai j ] ∈ M2×2 , entonces λA, B = (λa11 )b11 + (λa12 )b12 + (λa21 )b21 + (λa22 )b22 = λ (a11 b11 + a12 b12 + a21 b21 + a22 b22 ) = λ A, B . 3. Si A = [ai j ] , B = [bi j ],C = [ci j ] ∈ M2×2 , entonces, A, B +C = a11 (b11 + c11 ) + a12 (b12 + c12 ) +a21 (b21 + c21 ) + a22 (b22 + c22 ) = (a11 b11 + a12 b12 + a21 b21 + a22 b22 ) + (a11 c11 + a12 c12 + a21 c21 + a22 c22 ) = A, B + A,C . 4. Si A = [ai j ] ∈ M2×2 , entonces, A, A = a211 + a212 + a221 + a222 ≥ 0. 5. Si A = 0 0 , entonces claramente A, A = 0. Inversamente supongamos que 0 0 A = [ai j ] ∈ M2×2 y que A, A = 0, entonces, a211 + a212 + a221 + a222 = 0; lo cual implica a11 = a12 = a21 = a22 = 0 y, por tanto, A = De 1, 2, 3, 4 y 5 A, B es un producto interior en M2×2 . 0 0 . 0 0 Q Ejemplo 4.6 (Producto interior en matrices). En general, en el espacio vectorial Mm×n , si A = [ai j ], B = [bi j ] y se define m A, B = ∑ i=1 n ∑ ai j bi j , j=1 entonces, A, B es un producto interior. En realidad, si se reflexiona un poco, es inmediato ver que si Fi i son, respectivamente, las filas i de A y B, consideradas como vectores de Rn , entonces, yG m A, B = ∑ i=1 Page (PS/TeX): 6 / 240, COMPOSITE n ∑ ai j bi j j=1 n i = ∑ Fi · G i=1 (4.1) SECCIÓN 4.1 Espacios con producto interior 241 En efecto, para cada i = 1, 2, . . . , m: n ∑ ai j bi j j=1 = (ai1 bi1 + ai2 bi2 + · · · + ain bin ) = (ai1 , ai2 , . . . , ain ) · (bi1 , bi2 , . . . , bin ) i. = Fi · G De donde se tiene (4.1). Sean ahora A, B,C ∈ Mm×n con sendas filas Fi , Gi y Hi , i = 1, 2, . . . , m; y λ ∈ R. Entonces (note que utilizaremos las propiedades del producto punto en Rn ): A, B 1. m ∑ Fi · G i = i=1 m ∑ G i · Fi = i=1 B, A . = λA, B = 2. ∑ λFi · G i m i=1 = m ∑λ i Fi · G i=1 m i = λ ∑ Fi · G i=1 = A, B +C = 3. λ A, B . m ∑ Fi · i=1 = m ∑ i + Hi G i + Fi · H Fi · G i i=1 = = A, A = 4. m m i=1 i=1 ∑ Fi · G i + ∑ Fi · H i A, B + A,C . m ∑ Fi · Fi i=1 = m ∑ Fi 2 ≥ 0. i=1 5. Claramente, si A = O, entonces, A, A = 0. Supongamos que A, A = 0, entonces, m 0 = A, A = ∑ Fi 2 , i=1 de donde Fi 2 = 0 ∀i = 1, 2, . . . , m; luego, a2i1 + a2i2 + · · · a2in = 0 ∀i = 1, 2, . . . , n; por tanto, ai j = 0 ∀i, j. Es decir, A = O. De 1, 2, 3, 4 y 5 A, B es un producto interior en Mm×n . Page (PS/TeX): 7 / 241, COMPOSITE 242 CAPÍTULO 4 Espacios con producto interior y espacios normados Definición 4.2 (Traza de matrices cuadradas) Sea M ∈ Mn×n una matriz cuadrada, se denota y define la traza de A como n tra(A) = ∑ aii . i=1 Es decir, la traza de A es la suma de los elementos de la diagonal de A. Ejemplo 4.7 Si A = −1 2 3 4 , entonces tra(A) = −1 + 4 = 3. Ejemplo 4.8 (Producto interior en matrices mediante la traza). Sean A = [ai j ], B = [bi j ] ∈ Mm×n . Mostrar que el producto interior del ejemplo 4.6 definido por (4.1) se puede calcular por la fórmula A, B = tra (B t A) . DEMOSTRACIÓN i las filas i de A y B, respectivamente, Q Sea C = B t A, con C = [pkl ], y representemos por Fi y G n consideradas como vectores de R . Entonces, dado que la componente pkl de C es el producto de la fila k de B t con la columna l de A y la fila k de B t es la columna k de B, se tiene ⎡ ⎢ ⎢ b1k b2k · · · bmk ⎢ ⎣ pkl = ⎤ a1l a2l .. . ⎥ ⎥ ⎥. ⎦ aml Entonces, los elementos de la diagonal de C son pkk = b1k a1k + b2k a2k + · · · + bmk amk . Por tanto, tra (C) = n ∑ (b1k a1k + b2k a2k + · · · + bmk amk ) k=1 = n n n k=1 k=1 k=1 ∑ b1k a1k + ∑ b2k a2k + · · · + ∑ bmk amk 1 · F1 + G 2 · F2 + · · · + G m · Fm =G 1 + F2 · G 2 + · · · + Fm · G m = F1 · G = m ∑ Fi · G i ; i=1 esto es, m i = tra (B t A) A, B = ∑ Fi · G i=1 Page (PS/TeX): 8 / 242, COMPOSITE Q (4.2) SECCIÓN 4.1 Espacios con producto interior 243 P Nota 4.1 Observe que el producto interior en las matrices dado en (4.2) es una generalización del producto punto de vectores; ya que el producto punto de vectores, u ·v, se puede calcular mediante el producto matricial (u)t v al escribir los vectores u y v como matrices columna. Ejemplo 4.9 (Producto interior en un espacio de sucesiones). Sea 2 el conjunto de las sucesiones de números reales (an ) de cuadrado sumable; esto es,4 2 = {(an ) | ∞ ∑ a2n es una serie convergente}. n=1 1. Probar que si (an ), (bn ) ∈ 2 , entonces la serie ∞ ∑ an bn n=1 converge (absolutamente). 2. Mostrar que 2 es un subespacio vectorial del espacio de sucesiones reales5 R∞ . 3. Sea, para cualquier par (an ), (bn ) ∈ 2 , (an ) , (bn ) = ∞ ∑ an bn n=1 (lo cual está bien definido por el inciso anterior). Demostrar que éste es un producto interior en 2 . DEMOSTRACIÓN Q 1. Sean (an ) , (bn ) un par de sucesiones en 2 ; entonces, ∑∞n=1 a2n y ∑∞n=1 b2n son series convergentes. De (3.5) del lema 3.1 (cfr. pág. 123) tenemos 2 |an | |bn | ≤ a2n + b2n ∀n. Por lo que la serie de términos no negativos |an | |bn | es convergente6 y, por tanto, la serie ∑∞i=1 an bn es (absolutamente) convergente.7 2. i(i) Claramente la sucesión constante cero (an = 0 ∀n) pertenece a 2 . (ii) De la propiedad de la desigualdad triangular del valor absoluto, |an + bn | ≤ |an | + |bn | , se sigue que |an + bn |2 ≤ (|an | + |bn |)2 ≤ |an |2 + 2 |an | |bn | + |bn |2 14 Naturalmente se puede considerar, donde convenga, 2 el espacio de sucesiones (an ) tales que ∑∞n=0 a2n converge y (an ), (bn ) = ∑∞n=0 an bn . 15 Cfr. ejemplo 3.12, página 133. 16 Recuerde que si 0 ≤ αn ≤ βn ∀n, entonces, la convergencia de la serie ∑∞n=1 βn implica la convergencia de la serie ∑∞n=1 αn . 17 Recuerde que la convergencia de la serie ∑∞n=1 |αn | implica la convergencia de la serie ∑∞n=1 αn . Page (PS/TeX): 9 / 243, COMPOSITE 244 CAPÍTULO 4 Espacios con producto interior y espacios normados y, por ende, la serie ∞ ∑ |an + bn |2 n=1 converge. Ya que toda serie que converge absolutamente es convergente, se deduce que ∞ ∑ (an + bn )2 n=1 converge; es decir, (an + bn ) ∈ 2 . (iii) Si α ∈ R y (an ) ∈ 2 , entonces ∑∞n=1 a2n es convergente. Luego, ∞ ∑ (λan )2 ∞ = n=1 ∑ λ2 a2n n=1 = λ2 ∞ ∑ a2n n=1 y, por tanto, λ (an ) ∈ 2 . De (i), (ii) y (iii) se concluye que 2 es un subespacio del espacio vectorial de las sucesiones y por tanto un espacio vectorial. 3. Sean (an ) , (bn ) , (cn ) ∈ 2 y λ ∈ R; entonces: (a) (an ) , (bn ) = ∞ ∑ an bn n=1 = ∞ ∑ bn an n=1 = (bn ) , (an ) . (b) (λan ) , (bn ) = ∞ ∑ (λan )bn n=1 ∞ = λ ∑ an bn n=1 = λ (an ) , (bn ) . (c) (an ) , (bn ) + (cn ) = (an ) , (bn + cn ) = ∞ ∑ an (bn + cn ) n=1 = ∞ ∑ (an bn + an cn ) n=1 = ∞ ∞ n=1 n=1 ∑ an bn + ∑ an cn = (an ) , (bn ) + (an ) , (cn ) . (d) (an ) , (an ) = ∞ ∑ a2n ≥ 0. n=1 Page (PS/TeX): 10 / 244, COMPOSITE SECCIÓN 4.1 Espacios con producto interior 245 (e) Claramente, si (an ) es la sucesión constante cero, (an ) , (an ) = 0. Supongamos inversamente que (an ) , (an ) = 0, para alguna sucesión (an ) ∈ 2 , entonces, a2m ≤ ∞ ∑ a2n = 0; n=1 de donde am = 0 ∀m y, por tanto, (an ) es la sucesión constante cero. Q Ejemplo 4.10 Sean las sucesiones A = (1/n) y B = (1/(n + 1)); i.e., las sucesiones {1, 1/2, 1/3, . . .} y {1/2, 1/3, 1/4, . . .}. 1. Mostrar que A, B ∈ 2 . 2. Calcular (1/n) , (1/ (n + 1)) . 1. Sea f (x) = 1/x2 , x ∈ [1, ∞). Entonces, f es decreciente en [1, ∞), pues f (x) = −1/x2 < 0 en [1, ∞); además, Solución 1 ∞ f (x)dx = ∞ 1 dx x2 r dx r→∞ 1 x2 x=r 1 = lı́m − r→∞ x x=1 1 = lı́m − + 1 = 1. r→∞ r = lı́m Por el criterio de la integral,8 la serie ∞ 1 ∑ n2 (4.3) n=1 converge. Dado que la serie ∞ 1 ∑ (n + 1)2 (4.4) n=1 se obtiene de la serie (4.3) suprimiendo el primer término y la serie (4.3) es convergente, se deduce que la serie (4.4) es también convergente. Por tanto, las sucesiones A y B pertenecen al espacio 2 . 2. Sea a b 1 = + , k (k + 1) k k + 1 18 Si f es una función no negativa y decreciente en el intervalo [1, ∞) y la integral impropia ∞ ∑n=1 f (n) converge. Page (PS/TeX): 11 / 245, COMPOSITE ∞ 1 f (x)dx converge, entonces la serie 246 CAPÍTULO 4 Espacios con producto interior y espacios normados entonces 1 = a (k + 1) + bk = (a + b) k + a. De donde a = 1, a + b = 0; por tanto, b = −1. Ası́ que 1 1 1 = − . k (k + 1) k k + 1 Entonces, Sn = n k=1 = 1 ∑ k (k + 1) n ∑ k=1 1 1 − k k+1 1 1 1 1 1 1 1 + − + −···− + − 2 2 3 3 n n n+1 1 . = 1− n+1 = 1− Luego, A, B = ∞ 1 ∑ n (n + 1) n=1 = lı́m Sn n→∞ = lı́m 1 − n→∞ = 1. 1 n+1 P Nota 4.2 También en el espacio 2 el producto interior, como en el caso del espacio C [a, b], tiene un origen intuitivo en el producto punto de RN . En efecto, si (an ) y (bn ) son un par de sucesiones en 2 , sean uN = (a1 , a2 , . . . , aN ) y vN = (b1 , b2 , . . . , bN ), entonces (an ), (bn ) = ∞ ∑ an bn n=0 N = ∑ ak bk N→∞ = lı́m uN ·vN . lı́m k=0 N→∞ El lector puede verificar, sin mucha dificultad, las siguientes propiedades del producto interior, que son consecuencias inmediatas de la definición 4.1 y que hacemos patentes en el siguiente teorema. Page (PS/TeX): 12 / 246, COMPOSITE Espacios con producto interior 247 SECCIÓN 4.1 Teorema 4.1 (Propiedades del producto interior) Si E es un espacio vectorial y · , · es un producto interior en E, entonces ∀u,v,w ∈ E y ∀α, β ∈ R se cumple: 1. u, λv = λu,v. 2. u +v,w = u,w + v,w. 3. u, αv + βw = αu,v + βu,w. 4. αu + βv,w = αu,w + βu,w. 5. u −v,w = u,w − v,w. 6. u,0E = 0, ∀u ∈ E. 7. u,v = 0 ∀v ∈ E ⇒ u = 0E . 4.1.2 Ortogonalidad y norma inducida por el producto interior En este apartado extenderemos los conceptos de ortogonalidad (perpendicularidad) y norma a un espacio con producto escalar a partir del propio producto interior, como se hizo en el espacio Rn . El concepto de ortogonalidad, definido en términos del producto interior nulo de los vectores involucrados, quedará justificado a posteriori al definir el ángulo entre vectores una vez que hayamos probado la desigualdad de Schwarz en estos espacios. A partir de aquı́ y hasta que terminemos esta sección, supondremos que E es un espacio con producto interior ·, ·. Definición 4.3 (Ortogonalidad en espacios con producto interior) Se dice que u,v ∈ E son ortogonales (perpendiculares) si u,v = 0. Si u y v son ortogonales, escribiremos u ⊥v. Ejemplo 4.11 En C[0, π], si f (x) = sen(x) y g(x) = cos(x), sen x, cos x = 0 = = π sen x cos x dx sen2 x 2 π 0 0. Por tanto, f ⊥ g. Es decir, las funciones seno y coseno son ortogonales (perpendiculares) en C[0, π]. Ejemplo 4.12 En M2×2 , con el producto interior definido en (4.2), si A= 1 1 2 3 , B= 1 −1 −3 2 , A, B = (1)(1) + (1)(−1) + (2)(−3) + (3)(2) = 0 Page (PS/TeX): 13 / 247, COMPOSITE 248 CAPÍTULO 4 Espacios con producto interior y espacios normados o, equivalentemente, A, B = tra (B t A) = tra = tra 1 −3 −1 2 −5 −8 3 5 1 1 2 3 = 0. Por lo que A ⊥ B en este espacio. Las siguientes propiedades de ortogonalidad, enunciadas en el teorema 4.2, son sencillas de demostrar si se utilizan las propiedades del producto interior. Se deja al lector su demostración como ejercicio. Teorema 4.2 (Propiedades de ortogonalidad) Si u,v,w ∈ E, y α, β ∈ R, entonces, 1. u ⊥v,u ⊥ w ⇒ u ⊥ αu + βv. 2. Si S = gn (v1 ,v2 , . . . ,vm ) es un subespacio de E y u ⊥vi para cada i = 1, 2, . . . , m, entonces u ⊥v ∀v ∈ S. 3. u ⊥ v ∀v ∈ E ⇔ u = 0E (el único vector en un espacio que es ortogonal a todos los demás es el vector cero, el neutro aditivo). Definición 4.4 (Norma inducida por un producto interior) Se define la norma de un vector u en E como u = u,u . A dicho número se le llama la norma inducida por el producto interior ·, · de E. Ejemplo 4.13 Sea A ∈ Mm×n , A = [ai j ], con filas Fi = (ai1 , ai2 , . . . , ain ), entonces, A2 = m A, A = ∑ Fi · Fi i=1 = n m ∑ ∑ a2i j . i=1 j=1 Es decir, A = ∑ a2i j , donde la suma se efectúa sobre todas las componentes de la matriz A. Page (PS/TeX): 14 / 248, COMPOSITE SECCIÓN 4.1 Espacios con producto interior 249 1 y = sen2 (x) || sen(x)||2 0 0 π π 2 Figura 4-1 • Gráfica de la función y = sen2 (x) y del área bajo esta curva en el intervalo [0, π ]. La raı́z cuadrada del valor de esta área es la norma de la función y = sen(x) en el espacio C[a, b]. Ejemplo 4.14 En C[0, π] sen x = sen x, sen x = = 0 = π π 0 1 − cos 2x dx 2 sen2 xdx 1/2 π π 1/2 π 1 1 x − sen 2x . = 2 0 4 2 0 La figura 4.1 contiene la gráfica de la función y = sen2 (x) y el área bajo esta curva en el intervalo [0, π]. La raı́z cuadrada de esta área es la norma de la función y = sen(x) en el espacio C[0, π]. Ésta es la interpretación geométrica que tiene la norma inducida por el producto interior f , g = b f a (x)g(x) dx en el espacio de funciones continuas en [a, b]. La norma de una función f es la raı́z cuadrada del área bajo la curva y = f 2 (x) en el intervalo [a, b], como hacemos patente en la figura 4.2. Más adelante, cuando veamos el concepto de distancia entre vectores, daremos una interpretación más profunda de la norma inducida por el producto interior9 (cfr. ejemplo 4.21 y la discusión ulterior en la pág. 258) que, grosso modo, establece que la norma de una función f en C[a, b] estima el promedio de los valores cuadráticos que toma una función en el intervalo [a, b]. Ejemplo 4.15 En el espacio de sucesiones, sea A = 1 . 2n 1. Mostrar que A ∈ 2 , el espacio de sucesiones de cuadrado sumable (cfr. ejemplo 4.9). 2. Calcular A, la norma inducida por el producto interior en 2 . 19 Con frecuencia a la norma inducida por el producto interior en C[a, b], o norma de promedio cuadrático. Page (PS/TeX): 15 / 249, COMPOSITE b a ( f (x))2 dx 1/2 , se le llama norma cuadrado medio 250 CAPÍTULO 4 Espacios con producto interior y espacios normados f a b (a) f2 || f ||2 a b (b) Figura 4-2 • (a) Gráfica de una función f . (b) Gráfica de la función f 2 y del área bajo esta curva en el intervalo [a, b], cuyo valor es el cuadrado de la norma de f en el espacio C[a, b]. Solución 1. Sea, para cada n = 0, 1, 2, . . . , σn = 1 + 1 1 1 1 + + · · · + 2n−2 + 2n . 22 24 2 2 Entonces, 1 1 1 1 1 σn = 2 + 4 + · · · + 2n + 2n+2 ; 22 2 2 2 2 por tanto, σn − 1 1 σn = 1 − 2n+2 . 22 2 En consecuencia, 1 4 1 − 2n+2 ; σn = 3 2 Page (PS/TeX): 16 / 250, COMPOSITE Espacios con producto interior 251 SECCIÓN 4.1 luego, 4 1 1 − 2n+2 = lı́m n→∞ 3 2 4 . = 3 lı́m σn n→∞ Por lo que, ∞ ∑ n=0 1 2n 2 = 4 3 (4.5) Esto es, A ∈ 2 . 2. De (4.5), se tiene A, A = ∞ ∑ n=0 1 2n 2 = 4 3 Por ende, A = A, A = 4 2 2√ =√ = 3. 3 3 3 Nuevamente tenemos, como consecuencia del concepto geométrico de ortogonalidad, el célebre teorema de Pitágoras en una versión mucho más general. Teorema 4.3 (Teorema de Pitágoras en espacios con producto interior) Si E es un espacio con producto interior ·, · y x ⊥y en E, entonces, x +y2 = x2 + y2 . DEMOSTRACIÓN Q Como x ⊥y, x,y = 0. Entonces, x +y2 = x +y,x +y = x +y,x + x +y,y = x,x + y,x + x,y + y,y = x2 + 2x,y + y2 = x2 + y2 . Q Es fácil ver, aplicando el teorema anterior, que si x1 ,x2 , . . . ,xk ∈ E son ortogonales entre sı́, entonces, x1 +x2 + · · · +xk 2 = x1 2 + x2 2 + · · · + xk 2 , la cual es una versión más general del teorema anterior. Page (PS/TeX): 17 / 251, COMPOSITE 252 CAPÍTULO 4 Espacios con producto interior y espacios normados 4.1.3 Desigualdad de Schwarz y ángulo entre vectores Vector proyección Si u y v son dos vectores en R2 , el vector proyección de u sobre v se obtiene trazando una lı́nea perpendicular a v que pase por u, como se ilustra en la figura 4.3. Generalizamos este concepto a espacios con producto interior en la siguiente definición. u v p Figura 4-3 • El vector proyección p de un vector u sobre un vector v en R2 . Definición 4.5 En un espacio con producto interior se define el vector proyección, p, de u sobre v (v = 0E ), como aquel que satisface: 1. p ∈ gn(v). 2. u −p ⊥v. Por la primera condición, se tiene que p = λv; y, por la segunda, 0 = u −p,v = u,v − p,v = u,v − λv,v = u,v − λv2 . Lo que implica λ= u,v , v2 p = u,v v. v2 y, entonces, Con lo que hemos probado el siguiente teorema. Page (PS/TeX): 18 / 252, COMPOSITE SECCIÓN 4.1 Espacios con producto interior 253 Teorema 4.4 Si v,u ∈ E (con v = 0E ), entonces el vector proyección p de u sobre v está dado por p = u,v v v2 (4.6) Ejemplo 4.16 Sean u = (1, 1) y v = (2, 0), entonces, p = = = u ·v v2 v (1, 1) · (2, 0) (2, 0)2 (2, 0) 1 (2, 0) 2 = (1, 0). Ejemplo 4.17 Si f (x) = e x y g(x) = e−2x en C [0, 1], con el producto interior definido en el ejemplo 4.3,10 entonces, la proyección de f sobre g está dada por p(x) = f (x), g(x) g(x)2 g(x). Por una parte, tenemos f (x), g(x) = = 1 0 1 0 e x e−2x dx e−x dx 1 − e−1 = y, por otro lado, g(x)2 = = = = g(x), g(x) 1 2 e−2x dx 0 1 0 e−4x dx 1 1 − e−4 . 4 Luego, 4 1 − e−1 −2x p(x) = e . 1 − e−4 1De aquı́ en adelante, en todos los ejemplos con los que se trabaje, se supondrá que los productos escalares en cada espacio son los que hemos definido en los ejemplos previos en este capı́tulo, a menos que se indique otra cosa. 10 Page (PS/TeX): 19 / 253, COMPOSITE 254 CAPÍTULO 4 Espacios con producto interior y espacios normados Ejemplo 4.18 Si A = −1 1 1 1 yB= 0 −1 2 0 en M2×2 , entonces A, B = 1 y B2 = 5 ası́ que la proyección de A sobre B es P = A, B B B2 1 0 −1 = 0 5 2 0 − 15 . = 2 0 5 Ejemplo 4.19 Sean A = 1 3n yB= 1 , puesto que 2n 1 2n 1 3n 2 ≤ 1 2n ≤ 1 3n 2 y 2 ∞ 1 ∞ 1 ∞ 1 para todo n y las series geométricas ∑ n y ∑ n son convergentes, se sigue que ∑ y n n=0 2 n=0 3 n=0 2 2 ∞ 1 son convergentes; por tanto A, B ∈ 2 . Hallar la proyección de A sobre B. ∑ n n=0 3 Solución Tenemos que11 A, B = ∞ 1 1 ∑ 3n 2n n=0 = ∞ 1 ∑ (2 · 3)n n=0 n 1 = ∑ n=0 6 ∞ = = 1 1− 1 6 6 5 ∞ 1Aquı́ hemos utilizado el conocido hecho de que la serie geométrica ∑ r n converge si y sólo si |r| < 1; y que en tal caso 11 n=0 1 . Pudimos haber utilizado en los ejemplos precedentes esta propiedad de las series geométricas, pero hemos emplea1−r n=0 do otros criterios más básicos de series con el objetivo de que el lector pueda repasarlos. ∞ ∑ rn = Page (PS/TeX): 20 / 254, COMPOSITE SECCIÓN 4.1 Espacios con producto interior 255 y, por el ejemplo 4.15, sabemos que B2 = 4 . 3 Entonces, A, B = P B B2 6/5 B; 4/3 = esto es, P= es la sucesión proyección de A sobre B. 9 1 10 2n Como vimos en el capı́tulo anterior, la desigualdad que permite definir ángulos entre vectores de Rn es la de Schwarz. Corresponde establecer ahora su versión en espacios vectoriales con producto escalar. Antes de probar la desigualdad de Schwarz, observemos que, para cualquier u ∈ E y para todo λ ∈ R, λu2 = λu, λu = λu, λu = λ2 u,u = λ2 u2 ; es decir, λu = |λ|u. Resultado que emplearemos en la demostración de esta desigualdad. Desigualdad de Schwarz Teorema 4.5 Si E es un espacio con producto interior ·, ·, entonces, |u,v| ≤ u v (4.7) ∀u,v ∈ E. DEMOSTRACIÓN Q Si u = 0E o v = 0E , claramente (4.7) es cierta. Supongamos que ninguno de los dos vectores es nulo. Sea p = Page (PS/TeX): 21 / 255, COMPOSITE u,v v v2 256 CAPÍTULO 4 Espacios con producto interior y espacios normados el vector proyección de u sobre v. Entonces u −p ⊥ p. Por el teorema de Pitágoras: u2 = (u − p) + p2 = u − p2 + p2 . Lo cual implica u2 = u − p2 + p2 ≥ p2 ; es decir, u2 ≥ p2 u,v 2 = v v2 = |u,v|2 v2 v4 = |u,v|2 . v2 De donde, u2 v2 ≥ |u,v|2 y, por tanto, uv ≥ |u|v|. Q P Nota 4.3 Se puede probar que hay igualdad en (4.7) si y sólo si u y v son linealmente dependientes (L.D.). Propiedades de la norma inducida por el producto interior √ En la subsección 3.1.4, vimos que la norma inducida por el producto punto en Rn , esto es u = u ·u, tiene las propiedades enunciadas en el teorema 3.3 (cfr. pág. 127), las cuales se deducen a partir de las propiedades del producto punto en Rn , que son en las que nos basamos para definir un producto interior en general. Ası́ que, como es de esperar, la norma inducida por un producto interior, es decir, u = u,u, también debe tener las mismas propiedades que su caso particular en Rn . En el siguiente teorema hacemos patentes las caracterı́sticas esenciales de la norma inducida por un producto interior; a partir de ellas se puede deducir cualquier otra propiedad de dicha norma. Teorema 4.6 Sea E un espacio vectorial con producto interior ·, ·. Entonces, si u = la norma inducida por el producto interior, se tiene: 1. u ≥ 0 ∀u ∈ E. 2. u = 0 ⇔ u = 0E . 3. λu = |λ| u ∀u ∈ E, ∀λ ∈ R. 4. u +v ≤ u + v Page (PS/TeX): 22 / 256, COMPOSITE ∀u,v ∈ E (Desigualdad triangular). u,u es SECCIÓN 4.1 DEMOSTRACIÓN Espacios con producto interior 257 √ Q 1. u = u ·u ≥ 0 ∀u ∈ E. √ 2. 0E = 0E ,0E = 0 = 0. Supongamos que u = 0, entonces u,u = 0 y, por tanto, u = 0E . 3. Si λ ∈ R y u ∈ E, entonces, λu2 = λu, λu = λ u, λu = λ2 u,u = λ2 u2 , de donde, λu = |λ| u . 4. Sean u,v ∈ E, entonces, u +v2 = u +v,u +v = u +v,u + u +v,v = u,u + v,u + u,v + v,v = u2 + 2 u, v + v2 . De la desigualdad de Schwarz (4.7) u, v ≤ u v . Ası́ que, u +v2 = u2 + 2 u, v + v2 ≤ u2 + 2 u v + v2 = (u + v)2 . Luego, u +v ≤ u + v (4.8) Q P Nota 4.4 Se puede probar que hay igualdad en (4.8) si y sólo si uno de los vectores es múltiplo escalar no negativo del otro. Distancia en espacios con producto interior Una vez que se tiene definido un producto interior en un espacio vectorial, se puede introducir el concepto de distancia entre vectores a través de la norma inducida por el producto interior; como hacemos patente en la siguiente definición. Page (PS/TeX): 23 / 257, COMPOSITE 258 CAPÍTULO 4 Espacios con producto interior y espacios normados Definición 4.6 Si u y v son un par de vectores en el espacio E, se define y denota la distancia entre ellos como d(u,v) = u −v . Ejemplo 4.20 En M2×2 si A = −1 2 1 0 yB= 2 1 1 1 , entonces, = A − B −3 0 = 1 −1 = (−3)2 + (1)2 + (−1)2 d(A, B) = √ 11 . Ejemplo 4.21 Sean f y g un par de funciones continuas en [a, b]. Entonces la distancia entre ellas, medida con la norma inducida por el producto interior, es d( f , g) = f − g = b a 2 ( f (x) − g(x)) dx 1/2 . Por ejemplo, si f (x) = 1 y g(x) = x, entonces en C [0, 1] d( f , g) = = 1 0 (1 − x)2 dx 1/2 ⎛ ⎞1/2 3 x=1 (1 − x) ⎠ = ⎝− 3 x=0 1 √ 3 La distancia entre dos funciones en C [a, b] es la raı́z cuadrada del área de la diferencia cuadrática entre ellas en el intervalo [a, b], como se ilustra en la figura 4-4. ( f − g)2 f a || f − g||2 g b Figura 4-4 • Gráficas de las funciones f , g, ( f − g)2 y del área bajo esta curva en el intervalo [a, b]. Page (PS/TeX): 24 / 258, COMPOSITE Espacios con producto interior 259 SECCIÓN 4.1 En realidad, la distancia entre dos funciones en C [a, b] es una medida de la variación promedio cuadrática entre ellas. Para entender esto, primero supongamos que ϕ ∈ C [a, b]; y sean N un entero no negativo; h = (b − a)/N; xk = a + kh, k = 0, 1, . . . , N; y xk∗ ∈ [xk−1 , xk ] un punto de este k-ésimo subintervalo, k = 1, 2, . . . , N. Sabemos de la definición de integral que b a ϕ(x)dx = N ∑ ϕ(xk∗ )h N→∞ lı́m k=1 ∑Nk=1 ϕ(xk∗ ) N→∞ N = (b − a) lı́m Por lo que, 1 ∑Nk=1 ϕ(xk∗ ) = N→∞ N b−a lı́m b a ϕ(x)dx . De aquı́ que, para N grande, 1 ∑Nk=1 ϕ(xk∗ ) ≈ N b−a b a ϕ(x)dx (4.9) Luego, el promedio de los valores de la función en los puntos xk∗ es aproximadamente el área bajo la curva y = ϕ(x) en el intervalo [a, b], dividida entre la longitud de este intervalo; y esta aproximación es más precisa a medida que es mayor el número de los puntos xk∗ . Para ilustrar este hecho numéricamente, consideremos el caso particular de la función ϕ(x) = x2 en el intervalo [0, 1]. Los valores xk∗ , que incluimos en la siguiente matriz, se eligieron aleatoriamente del intervalo [0, 1] para N = 9: 0.3365 0.2481 0.4026 0.2897 0.1814 0.5126 0.9254 0.3306 0.8847 Entonces, 1 9 ∑ ϕ(xk∗ ) = 0.2662 9 k=1 N 100 400 900 1,600 2,500 ∑Nk=1 ϕ(xk∗ ) N .3596 .3215 .3370 .3291 .3312 N 3,600 4,900 6,400 8,100 14,400 ∑Nk=1 ϕ(xk∗ ) N .3427 .3301 .3362 .3390 .3327 Tabla 4-1 • Valores promedio de los ϕ(xk∗ ) para diversos valores de N con los puntos xk∗ elegidos aleatoriamente en el intervalo [0, 1] para cada N. La tabla 4.1 incluye los promedios dados por el lado izquierdo de (4.9) para distintos valores de N y para puntos xk∗ , k = 1, 2, . . . , N, elegidos aleatoriamente en el intervalo [0, 1] para la función ϕ(x) = x2 (los valores de los xk∗ no se incluyen por razones obvias de espacio). Page (PS/TeX): 25 / 259, COMPOSITE 260 CAPÍTULO 4 Espacios con producto interior y espacios normados El valor del lado derecho de (4.9) en este caso es 1 0 x2 dx = 1 x3 1 = . 3 0 3 De la tabla 4.1 se puede ver que la tendencia es precisamente a 1/3 cuando N → ∞. Entonces, la interpretación que tiene f − g en C [a, b] va más allá que simplemente ser la raı́z cuadrada del valor del área bajo la función ( f − g)2 en el intervalo [a, b]; sino que el cuadrado de esta norma dividido entre la longitud del intervalo es el lı́mite del promedio de las diferencias al cuadrado entre estas funciones. Esto es, 2 f − g2 ∑N ( f (xk∗ ) − g(xk∗ )) ≈ k=1 b−a N para N grande. Es por esto que, aunque f − g no mide una diferencia puntal entre estas funciones, sı́ mide el error promedio cuadrático entre ellas; este enfoque es mucho más valioso para una gran variedad de aplicaciones, por lo que esta norma se emplea con gran frecuencia cuando se estudian espacios de funciones continuas. Ángulos entre vectores en espacios con producto interior De la desigualdad de Schwarz (4.7) se deduce que −uv ≤ u,v ≤ uv lo cual implica, si ambos vectores son no nulos, −1 ≤ u,v ≤ 1. uv Por tanto, es posible definir ángulo entre vectores en un espacio con producto interior a partir de la función arc cos, como lo hicimos en el caso R2 y, en general, en Rn . Hacemos patente este concepto en la siguiente definición. Definición 4.7 Si E es un espacio con producto interior y u,v ∈ E − {0E }, se define el ángulo entre u y v como: u,v . θ = arc cos uv Ejemplo 4.22 En C[0, 1], si f (x) = x2 , g(x) = x, f , g = 0 1 f (x)g(x)dx = f = Page (PS/TeX): 26 / 260, COMPOSITE 0 1 1 0 1 x2 · xdx = x4 /40 = 1/4; √ x4 dx = 1/ 5; SECCIÓN 4.1 g = 1 0 Espacios con producto interior 261 !1 √ x3 /3 = = 1/ 3. x2 dx = 0 Entonces, f , g θ = arc cos f g = arc cos 1/4 √ 1√ 5 3 , y, finalmente, √ 15 4 θ = arc cos Ejemplo 4.23 En M2×2 , sean A = ces es −1 1 0 0 ≈ 0.2526 rad ≈ 14.47◦ . yB= 0 1 , entonces el ángulo entre estas matri0 1 A, B A B 1 = arc cos √ √ 2 2 1 = arc cos 2 = 60◦ . √ n √ n 2 2 12 yB= , entonces el ángulo Ejemplo 4.24 En 2 sean las sucesiones A = 2 10 entre estas sucesiones es θ = arc cos θ = arc cos Tenemos que A, B A, B . A B √ n √ n 2 2 = ∑ 2 10 n=0 √ √ n ∞ 2 2 = ∑ 2 · 10 n=0 n ∞ 1 = ∑ n=0 10 ∞ = = 1 1− 10 9 1 10 √ √ √ n 2 1(( 2/2) (1/2)n y (( 2/10)n )2 = (1/50)n ; puesto que 1/2 < 1 y 1/50 < 1, las series geométricas ∑∞n=1 (( 2/2)n )2 , √ ) = ∞ ∑n=1 (( 2/10)n )2 convergen y, por tanto, A, B ∈ 2 . 12 Page (PS/TeX): 27 / 261, COMPOSITE 262 CAPÍTULO 4 Espacios con producto interior y espacios normados y A2 = = = = = B2 = = = = = ⎛ √ ⎞n 2 2 ∑⎝ 2 ⎠ n=0 ∞ n 2 ∑ 4 n=0 ∞ n 1 ∑ 2 n=0 1 1 1− 2 2, ∞ ⎛ √ ⎞n 2 2 ∑ ⎝ 10 ⎠ n=0 n ∞ 2 ∑ 2 n=0 10 n ∞ 1 ∑ n=0 50 1 1 1− 50 50 . 49 ∞ Por tanto, ⎛ ⎜ θ = arc cos ⎜ ⎝ √ 10 9 2 10/9 10/7 7 = arc cos 9 ⎞ ⎟ ⎟ 50 ⎠ 49 = arc cos ≈ . 67967 38189 rad ◦ . 67967 38189 · 180 ≈ π ≈ 39◦ . P Nota de la definición 4.7, que el ángulo entre dos vectores u y v es θ = 90◦ , si y 4.5 Es evidente, u,v = 0 si y sólo si u,v = 0; lo cual justifica el concepto de ortogonalidad dado en la sólo si u v definición 4.3 de la subsección 4.1.2 (cfr. pág. 247). Page (PS/TeX): 28 / 262, COMPOSITE SECCIÓN 4.1 Espacios con producto interior 263 4.1.4 Proyecciones, proceso de ortogonalización, factorización QR Bases ortonormales Definición 4.8 Sea B= {u1 ,u2 , . . . ,un } una base de un espacio vectorial con producto interior. Se dice que B es una base ortonormal si 1. Los vectores ui son ortogonales entre sı́. 2. ui = 1 ∀i = 1, 2, . . . n. Esto es, $ ui , u j = 1 si i = j, 0 si i = j. Ejemplo 4.25 En R3 , B= {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es claramente una base ortonormal. Ejemplo 4.26 En M2×2 , B= {Akl }, k, l = 1, 2, donde Akl = [ai j ] y $ ai j = 1 si i = k, j = l; 0 en otro caso, es una base ortonormal de M2×2 como fácilmente puede verificar el lector. Cuando se tiene un conjunto de vectores no nulos ortogonales entre sı́, estos vectores son L.I., como se prueba en el siguiente teorema. Teorema 4.7 Sean u1 ,u2 , . . . ,um , vectores no nulos ortogonales entre sı́. Entonces estos vectores son L.I. DEMOSTRACIÓN Q Sean αi , i = 1, 2, . . . , m, números reales tales que α1u1 + α2u2 + · · · + αmum = 0E . Entonces, para cada k = 1, 2, . . . , m, α1u1 + α2u2 + · · · + αnum ,uk = 0E ,uk . Por tanto, α1 u1 ,uk + α2 u2 ,uk + · · · + αk uk ,uk + · · · + αn um ,uk = 0 Ya que los vectores son ortogonales entre sı́, se sigue que ui ,uk = 0 si i = k; y entonces αk uk ,uk = 0. Page (PS/TeX): 29 / 263, COMPOSITE 264 CAPÍTULO 4 Espacios con producto interior y espacios normados Puesto que ningún vector es nulo, se debe tener αk = 0 para cada k = 1, 2, . . . , m. Ası́ que los vectores ui son L.I. Q Supongamos ahora que {u1 ,u2 , . . . ,un } es una base ortogonal de E; es decir, los vectores ui son ortogonales entre sı́, entonces si v ∈ E, existen constantes ai tales que v = ∑ni=1 aiui . Luego, para cada k = 1, 2, . . . , n, se tiene & % v,uk n ∑ aiui ,uk = i=1 = n ∑ ai ui ,uk i=1 = ak uk ,uk = ak uk 2 . Ası́ que, ak = v,uk uk 2 para cada k = 1, 2, . . . , n. Ası́ hemos probado el siguiente teorema. Teorema 4.8 Sea {u1 ,u2 , . . . ,un } una base del espacio E. Entonces, 1. Si los vectores son ortogonales entre sı́ y v ∈ E, se tiene v = n v,uk k=1 k ∑ u 2 uk (4.10) 2. Si esta base es ortonormal, v = n ∑ v,uk uk (4.11) k=1 para todo v ∈ E. 1 0 0 0 1 0 0 0 1 , A12 = , A13 = , 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 A21 = , A22 = y A23 = ; esto es, Akl = [ai j ], donde 1 0 0 0 1 0 0 0 1 Ejemplo 4.27 Es fácil mostrar que A11 = ' ai j = es una base ortonormal para M2×3 . Si B = 1 si i = k y j = l, 0 en otro caso; b11 b12 b13 b21 b22 b23 B, Akl = bkl Page (PS/TeX): 30 / 264, COMPOSITE ∈ M2×3 , entonces, SECCIÓN 4.1 Espacios con producto interior 265 para cada k = 1, 2 y para cada l = 1, 2, 3; y claramente B = b11 A11 + b12 A12 + · · · + b23 A23 = B, A11 A11 + B, A12 A12 + · · · + B, A23 A23 . Sea {u1 ,u2 , . . . ,un } una base ortonormal de E. Por (4.11) del teorema 4.8, todo vectorv ∈ E se puede escribir como v = a1u1 + a2u2 + · · · + anun (4.12) donde ak = v,uk , para k = 1, 2, . . . , n. Si convenimos en que siempre escribiremos los vectores de E en esta forma, con los términos en el mismo orden como en (4.12), i.e., el primer término es un escalar por u1 ; el segundo, un escalar por u2 , etc., y el último término un escalar por un ; diremos que esta base ortonormal es ordenada y escribiremos (u1 ,u2 , . . . ,un ) para enfatizar este hecho; y a (a1 , a2 , . . . , an ) ∈ Rn lo llamaremos el vector de coordenadas del vector v relativo a la base ordenada (u1 ,u2 , . . . ,un ). Con este convenio, basta conocer el respectivo vector de coordenadas para poder escribir cualquier vector como combinación lineal de los elementos de la base ordenada como en (4.12). Debido a que la base es ortonormal, los cálculos básicos, que involucran al producto interior, se simplifican notablemente y se determinan en función del producto punto en Rn . Hacemos patente este importante resultado en el siguiente teorema, cuya demostración se deja de ejercicio al lector. Teorema 4.9 Sea (u1 ,u2 , . . . ,un ) una base ordenada ortonormal del espacio E y sean (a1 , a2 , . . . , an ), (b1 , b2 , . . . , bn ) los vectores de coordenadas de sendos vectores u y v de E. Entonces, 1. u = a21 + a22 + · · · + a2n . 2. d(u,v) = = 3. u,v d((a1 , a2 , . . . , an ), (b1 , b2 , . . . , bn )) (a1 − b1 )2 + (a2 − b2 )2 + · · · + (an − bn )2 . = (a1 , a2 , . . . , an ) · (b1 , b2 , . . . , bn ) = a1 b1 + a2 b2 + · · · + an bn . Proyección de un vector sobre un subespacio En la definición 4.5, establecimos lo que es el vector proyección de un elemento del espacio sobre otro elemento. Ahora estudiaremos el concepto de proyección de un vector sobre un subespacio. Como se ilustra en la figura 4-5, el vector proyección p de un vector u sobre un subespacio S generado por dos vectores v1 y v2 debe satisfacer: 1. p ∈ gn (v1 ,v2 ) = S. 2. u −p ⊥v1 ,v2 (y, por tanto, a todo v ∈ S). Page (PS/TeX): 31 / 265, COMPOSITE 266 CAPÍTULO 4 Espacios con producto interior y espacios normados u v 1 p S v 2 Figura 4-5 • Proyección de un vector p sobre un subespacio S en R3 . En general, tenemos la siguiente definición. Definición 4.9 Sea S un subespacio generado por los vectores linealmente independientes v1 , v2 , . . . ,vm y sea u ∈ E. Entonces, al vector p que satisface las dos condiciones siguientes: 1. p ∈ S, 2. u −p ⊥vi para cada i = 1, 2, . . . , m (y, por tanto, u − p ⊥v ∀v ∈ S), se le llama el vector proyección de u sobre el subespacio S. Entonces, si p es el vector proyección de u sobre S, dado que p ∈ S, existen ai ∈ R tales que p = m ∑ a jv j j=1 y, por la condición 2 de la precedente definición, se debe tener % & m u − ∑ a jv j ,vk =0 j=1 para cada k = 1, 2, . . . , m. Esto es, m u,vk − ∑ a j v j ,vk = 0 j=1 para todo k = 1, 2, . . . , m. Ası́, para determinar las constantes ai y, por tanto, el vector p, se debe resolver el sistema v1 ,v1 a1 v1 ,v2 a1 · · · v1 ,vm a1 Page (PS/TeX): 32 / 266, COMPOSITE + + · · · + v2 ,v1 a2 v2 ,v2 a2 · · · v2 ,vm a2 + + · · · + ··· ··· · · · ··· + + · · · + vm ,v1 am vm ,v2 am · · · vm ,vm am = = · · · = u,v1 u,v2 · · · u,vm (4.13) SECCIÓN 4.1 Espacios con producto interior 267 Ejemplo 4.28 En C [0, 1], sean f (x) = 1 y g(x) = x; S = gn( f , g) y u(x) = x2 . Entonces, por la definición precedente, el vector proyección de u sobre S debe tener la forma p(x) = bx + a ∈ S y u − p, f = 0 = u − p, g; esto es, 0= = x2 − bx − a dx 0 1 1 −a− b; 3 2 = 0= 1 0 1 x3 − bx2 − ax dx 1 1 1 − b− a . 4 3 2 Se tiene entonces el sistema 1 1 −a− b = 0 3 2 1 1 1 − b− a = 0 4 3 2 que al resolver, resulta a = − 61 y b = 1. Por lo que p(x) = x − 1 6 es el vector proyección buscado. Aunque en el ejemplo precedente se pudo encontrar la proyección de un vector sobre un subespacio, no queda claro aún si esto es posible en cualquier situación. Afortunadamente el siguiente teorema garantiza que el sistema (4.13) tiene solución única en todos los casos cuando los vectores vi son linealmente independientes (L.I.). Teorema 4.10 Sean v1 ,v2 , . . . ,vm vectores L.I. en E, entonces las filas de la matriz simétrica A = [vi ,v j ] (y por tanto las columnas) son vectores L.I. de Rm . Por ende, la matriz [vi ,v j ] ∈ Mm×m es invertible. DEMOSTRACIÓN Q Sean Fi = (vi ,v1 , vi ,v2 , . . . , vi ,vm ) las m filas de la matriz A y α1 , α2 , . . . , αm ∈ R tales que α1 F1 + α2 F2 + · · · + αm Fm = 0Rm . Si i = 1, 2, . . . , m, se tiene αi Fi = (αi vi ,v1 , αi vi ,v2 , . . . , αi vi ,vm ) = (αivi ,v1 , αivi ,v2 , . . . , αivi ,vm ) . Entonces, 0Rm = α1 F1 + α2 F2 + · · · + αm Fm = Page (PS/TeX): 33 / 267, COMPOSITE m m m i=1 i=1 i=1 ∑ αivi , v1 , ∑ αivi ,v2 , . . . , ∑ αivi ,vm . 268 CAPÍTULO 4 Espacios con producto interior y espacios normados Por tanto, m ∑ αivi ,v1 = 0, ∑ αivi ,v2 = 0, .. . .. . .. . ∑ αivi ,vm = 0. i=1 m i=1 m i=1 Que, por propiedades del producto interior, se transforman en m ∑ αivi ,v1 = 0, ∑ αivi ,v2 = 0, .. . .. . .. . ∑ αivi ,vm = 0. i=1 m i=1 m i=1 Entonces, m α1 ∑ αivi ,v1 = 0, α2 ∑ αivi ,v2 = 0, .. . .. . .. . i=1 m i=1 m αm ∑ αivi ,vm = i=1 0. Nuevamente, por propiedades del producto interior se tiene: m ∑ αivi , α1v1 = 0, ∑ αivi , α2v2 = 0, .. . .. . .. . i=1 m i=1 m ∑ αivi , αmvm = i=1 0. Luego, m m m i=1 i=1 i=1 ∑ αivi , α1v1 + ∑ αivi , α2v2 + · · · + ∑ αivi , αmvm = 0. Que, por propiedades del producto interior, equivale a m m i=1 i=1 ∑ αivi , ∑ αivi = 0 . Por tanto, m ∑αivi = 0E . i=1 Page (PS/TeX): 34 / 268, COMPOSITE Espacios con producto interior 269 SECCIÓN 4.1 Por ser los vectores vi L.I., se deduce que α1 = α2 = · · · = αm = 0; en consecuencia, las filas Fi son vectores L.I. Q Tenemos como corolario a este teorema que el sistema (4.13) tiene solución única cuando los vectores son L.I.; esto es, si los vectores vi son L.I. y u ∈ E, entonces existe y además es única la proyección de u sobre el subespacio S generado por estos vectores. Además, si los vectores vi forman un conjunto ortonormal, los elementos de la matriz [vi ,v j ] son nulos cuando i = j; es decir, la única solución a este sistema está dada por ai = u,vi ; luego p = m ∑ u,v j v j j=1 es la proyección de u sobre S. Si los elementos de la base son sólo ortogonales (no necesariamente unitarios; i.e., de norma uno), entonces la única solución del sistema (4.13) está dada por ai = u,vi / vi 2 ; ası́ que en este caso p = m u,v j v j . v j 2 j=1 ∑ Resumimos lo precedente en el siguiente teorema. Teorema 4.11 Sean S un subespacio vectorial de E, u ∈ E y {v1 ,v2 , . . . ,vm } una base de S. Entonces existe y es único el vector proyección de u sobre S. Además: 1. p está dado por m p = ∑ aivi i=1 donde (a1 , a2 , . . . , am ) es la única solución del sistema (4.13). 2. Si la base {v1 ,v2 , . . . ,vm } es ortonormal, p = m ∑ u,v j v j . (4.14) j=1 3. Si la base {v1 ,v2 , . . . ,vm } sólo es ortogonal, p = m u,v j v j . v j 2 j=1 ∑ (4.15) Ejemplo 4.29 En el ejemplo 4.11 se mostró que las funciones sen(x) y cos(x) son ortogonales en el espacio C [0, π]. Si g(x) = x, hallar la proyección p de g sobre S = gn(sen(x), cos(x)). Solución Por (4.15), p(x) = Page (PS/TeX): 35 / 269, COMPOSITE x, sen(x) sen(x) 2 sen(x) + x, cos(x) cos(x)2 cos(x). 270 CAPÍTULO 4 Espacios con producto interior y espacios normados En el ejemplo 4.14 vimos que sen(x) = π sen2 (x)dx 0 1/2 = π . 2 Por otra parte, cos(x) = π 0 1/2 2 cos (x)dx 1/2 1 + cos(2x) dx = 2 0 π 1/2 x π 1 = + sen(2x) 2 0 4 0 π ; = 2 x, sen(x) = π 0 π x sen(x)dx = −x cos(x)|π0 + = π + sen(x)|π0 π 0 cos(x)dx =π; 0 π x cos(x)dx = x sen(x)|π0 − = 0 + cos(x)|π0 0 π sen(x)dx = −2. Luego, π −2 p(x) = π sen(x) + π cos(x) 2 2 4 = 2 sen(x) − cos(x) π es la función proyección de g(x) = x sobre el espacio S = gn(sen(x), cos(x)). Proyecciones en subespacios de Rn y matriz de proyección Proyectar un vector sobre un subespacio es particularmente sencillo cuando se hace en el espacio Rn ; además, el proceso involucra un formato matricial muy simple que será de gran utilidad para este fin y en una de las aplicaciones más importantes que existen de este tema: el método de mı́nimos cuadrados, el cual veremos más adelante. Sean a1 ,a2 , . . . ,ak ∈ Rn vectores L.I. Si W = gn(a1 ,a2 , . . . ,ak ) y A ∈ Mn×k es la matriz cuyas columnas son a1 ,a2 , . . . ,ak , entonces W = {Ax |x ∈ Rk }. Efectivamente, si u ∈ gn(a1 ,a2 , . . . ,ak ), para algunos x1 , x2 , . . . , xk ∈ R se tiene Page (PS/TeX): 36 / 270, COMPOSITE SECCIÓN 4.1 Espacios con producto interior 271 u = x1a1 + x2a2 + · ·⎡ · + xk⎤ak x1 ⎢ .. ⎥ = a1 a2 · · · ak ⎣ . ⎦ ⎡ ⎢ ⎢ con13 x = ⎢ ⎣ x1 x2 .. . ⎤ xk = Ax ⎥ ⎥ ⎥. En particular, el vector proyección p de b sobre W tiene la forma p = Ar, con ⎦ xk r = (r1 , r2 , . . . , rk ). Además, b −p ⊥ u, ∀u ∈ W . Por tanto, u · (b − p) = 0 ∀u ∈ W . Entonces, ∀x ∈ Rk : (Ax)t (b − Ar) = 0 ⇒ x t At (b − Ar) = 0 ⇒ x t (Atb − At Ar) = 0. Es decir, el producto punto del vector Atb − At Ar con cualquier vector x de Rk es cero, lo que implica, por 7 del teorema 4.1, Atb − At Ar = 0Rk y, por tanto, At b = (At A)r. Ahora bien, dado que los vectores ai son L.I., la matriz A tiene rango k; sabemos, por el teorema 3.23 (cfr. pág. 171), que los rangos de A y At A son iguales, ası́ que Rang(At A) = k, y puesto que At A es una matriz cuadrada de orden k, se sigue que es invertible. Luego, r = (At A)−1 Atb y p = Ar = [A(At A)−1 At ]b. En resumen, el vector proyección, p, de b sobre W = gn(a1 ,a2 , . . . ,ak ) está dado por: p = [A(At A)−1 At ]b (4.16) donde A es la matriz que tiene como columnas a los vectores a1 ,a2 , . . . ,ak . A la matriz A(At A)−1 At (4.17) se le llama la matriz de proyección para el subespacio W . Ejemplo 4.30 Hallar la proyección del vector b = (b1 , b2 , b3 ) sobre el plano 2x − y − 3z = 0. Solución Claramente la solución de este sistema escalonado es x= 1Cfr. (1.15) en la página 12. 13 Page (PS/TeX): 37 / 271, COMPOSITE y + 3z . 2 272 CAPÍTULO 4 Espacios con producto interior y espacios normados Es decir, ⎤ ⎡ x ⎣ y ⎦=⎣ z ⎡ s+3r 2 s r ⎤ ⎤ ⎡ ⎤ ⎡ 3 1 q + 3t ⎦ = ⎣ 2q ⎦ = q ⎣ 2 ⎦ + t ⎣ 0 ⎦ . 2 0 2t ⎤ ⎡ Ası́, si W es el plano 2x − y − 3z = 0, entonces W = gn((1, 2, 0), (3, 0, 2)). Luego, ⎤ 1 3 A=⎣ 2 0 ⎦ 0 2 ⎡ y At = 1 2 0 3 0 2 . Por lo que, ⎤ ⎡ 1 3 1 2 0 ⎣2 0⎦ At A = 3 0 2 0 2 5 3 = . 3 13 Utilicemos ahora la adjunta para calcular la inversa de la matriz invertible At A, (B−1 = (1/|B|)Adj(B)): (At A)−1 = 1 56 13 −3 −3 5 . La matriz de proyección (4.17) es, en este caso, ⎤ 1 3 1 13 −3 1 2 0 t −1 t ⎦ ⎣ A(A A) A = 2 0 5 3 0 2 56 −3 0 2 ⎤ ⎡ 4 12 1 ⎣ 1 2 0 ⎦ 26 −6 = 3 2 0 56 −6 10 ⎤ ⎡ 40 8 24 1 ⎣ 8 52 −12 ⎦ = 56 24 −12 20 ⎤ ⎡ 5/7 1/7 3/7 = ⎣ 1/7 13/14 −3/14 ⎦ . 3/7 −3/14 5/14 ⎡ Por lo que el vector proyección (4.16) es ⎤⎡ ⎤ b1 5/7 1/7 3/7 p = ⎣ 1/7 13/14 −3/14 ⎦ ⎣ b2 ⎦ . 3/7 −3/14 5/14 b3 ⎡ Proceso de ortogonalización de Gram-Schmidt Las relaciones (4.14) y (4.15) del teorema 4.11 proveen, entre otras cosas, una forma muy simple de proyectar un vector sobre un subespacio cuando éste posee una base ortogonal u ortonormal. En el Page (PS/TeX): 38 / 272, COMPOSITE SECCIÓN 4.1 Espacios con producto interior 273 teorema 4.9 también vimos que las operaciones que involucran producto interior se simplifican con este tipo de bases; por eso, serı́a muy bueno el poder contar con bases ortogonales en los espacios donde se esté trabajando. Afortunadamente es posible construir bases ortonormales en espacios de dimensión finita mediante el proceso que a continuación explicamos. 1 Supongamos que {v1 ,v2 , . . . ,vm } es una base de un subespacio S del espacio E. Sea u1 = v1 , v1 entonces u1 = 1 y gn(u1 ) = gn(v1 ) ⊂ S. Sea p1 el vector proyección de v2 sobre u1 y w2 = v2 − p1 , como se indica en la figura 4-6. v2 v2 − p1 u1 p1 Figura 4-6 • Si p1 es el vector proyección de v2 sobre u1 , entonces w2 =v2 − p1 ⊥ u1 . Entonces, w2 = 0E , pues en caso contrario v2 = p1 ∈ gn(u1 ) = gn(v1 ) y v1 , v2 serı́an L.D. Por (4.6) del teorema 4.4 (cfr. pág. 253) p1 = v2 ,u1 u1 2 u1 = v2 ,u1 u1 y, por ende, w2 =v2 − v2 ,u1 u1 . Ası́, w2 ⊥ u1 y w2 ∈ gn (u1 ,v2 ) ⊂ S; si definimos u2 = 1 w2 , w2 u2 ⊥ u1 , u2 = 1 y gn (u1 ,u2 ) = gn (v1 ,v2 ) ⊂ S. Sean ahora p2 el vector proyección de v3 sobre el subespacio S2 = gn(u1 ,u2 ) y w3 = v3 − p2 , como se ilustra en la figura 4-7. Entonces w3 = 0E , ya que en caso contrario v3 = p2 ∈ gn(u1 ,u2 ) = gn(v1 ,v2 ) yv1 ,v2 ,v3 serı́an L.D. Puesto que {u1 ,u2 } es una base ortonormal de S, por (4.14) del teorema 4.11 (cfr. pág. 269), p2 = v3 ,u1 u1 + v3 ,u2 u2 ; luego, w3 =v3 − v3 ,u1 u1 − v3 ,u2 u2 Page (PS/TeX): 39 / 273, COMPOSITE 274 CAPÍTULO 4 Espacios con producto interior y espacios normados v3 v3 − p2 u2 S p 2 u1 Figura 4-7 • Si p2 es la proyección de v3 sobre gn(u1 ,u2 ), entonces w3 =v3 − p2 es ortogonal a u1 y a u2 . satisface: w3 ∈ gn (u1 ,u2 ,v3 ) ⊂ S, w3 ⊥ u1 , w3 ⊥ u2 . Por tanto, si definimos u3 = 1 w3 , w3 se tiene: gn (u1 ,u2 ,u3 ) = gn (v1 ,v2 ,v3 ) ⊂ S, u3 = 1, y los vectores u1 ,u2 ,u3 son ortogonales entre sı́. Supongamos que hemos construido k vectores u1 , u2 , . . . , uk mediante este proceso, que satisfacen: 1. Los vectores son ortogonales entre sı́. 2. Los vectores son unitarios; es decir, ui = 1 para i = 1, 2, . . . , k. 3. gn (u1 ,u2 , . . . ,uk ) = gn (v1 ,v2 , . . . ,vk ) ⊂ S. Sea pk el vector proyección de vk+1 sobre el subespacio gn (u1 ,u2 , . . . ,uk ) y wk+1 =vk+1 −pk ; entonces, wk+1 = 0E , ya que en caso contrario vk+1 = pk ∈ gn(u1 , . . . ,uk ) = gn(v1 , . . . ,vk ) y v1 , . . . ,vk , vk+1 serı́an L.D. Por (4.14) (dado que {u1 ,u2 , . . . ,uk } es ortonormal), pk = vk+1 ,u1 u1 + vk+1 ,u2 u2 + · · · + vk+1 ,uk uk y, por tanto, wk+1 =vk+1 − vk+1 ,u1 u1 − vk+1 ,u2 u2 − · · · − vk+1 ,uk uk satisface: wk+1 ∈ gn (u1 ,u2 , . . . ,uk ,vk+1 ) ⊂ S y los vectores u1 , u2 , . . ., uk , wk+1 son ortogonales entre sı́. Por tanto, si definimos uk+1 = Page (PS/TeX): 40 / 274, COMPOSITE 1 wk+1 wk+1 SECCIÓN 4.1 Espacios con producto interior 275 se tiene: 1. Los vectores u1 ,u2 , . . . ,uk ,uk+1 son ortogonales entre sı́. 2. Los vectores son unitarios (ui = 1 ∀i = 1, 2, . . . , k + 1). 3. gn (u1 ,u2 , . . . ,uk ,uk+1 ) = gn (v1 ,v2 , . . . ,vk ,vk+1 ) ⊂ S. Podemos continuar este proceso hasta que k = m − 1. Ası́ tenemos que los vectores ui , i = 1, 2, . . . , m, son ortogonales entre sı́, unitarios y gn (u1 ,u2 , . . . ,um ) ⊂ S. Puesto que el conjunto {u1 ,u2 , . . . ,um } es ortonormal, estos vectores son L.I.; y ya que dim(S) = m, se tiene que gn(u1 ,u2 , . . . ,um ) = S. Luego {u1 ,u2 , . . . ,um } es una base ortonormal para S. Este es el llamado proceso de ortogonalización de GramSchmidt para construir una base ortonormal de un subespacio de dimensión finita a partir de una base dada de este subespacio. A fin de simplificar la información resumimos este proceso en el siguiente teorema, el cual ya hemos demostrado en las precedentes lı́neas. Teorema 4.12 (Proceso de ortogonalización de Gram-Schmidt) Sean S un subespacio del espacio E y {v1 ,v2 , . . . ,vm } una base de S. Entonces, los vectores ui , i = 1, 2, . . . , m, definidos en forma recurrente mediante el siguiente proceso: u1 = 1 v1 v1 (4.18) wk+1 =vk+1 − vk+1 ,u1 u1 − vk+1 ,u2 u2 − · · · − vk+1 ,uk uk uk+1 = 1 wk+1 wk+1 , k = 1, 2, . . . , m − 1 forman una base ortonormal para S. Ejemplo 4.31 Construir una base ortonormal para R3 a partir de la base {(1, 1, 1), (0, 1, 1), (0, 0, 1)}. Solución (1, 1, 1) √ (por (4.18) del teorema 4.12) 3 √ √ √ = (1/ 3, 1/ 3, 1/ 3). u1 = w2 = v2 − v2 ,u1 u1 (por (4.19) del teorema 4.12 con k = 1) √ √ √ √ √ √ = (0, 1, 1) − (0, 1, 1), (1/ 3, 1/ 3, 1/ 3)(1/ 3, 1/ 3, 1/ 3) √ √ √ √ = (0, 1, 1) − (2/ 3)(1/ 3, 1/ 3, 1/ 3) = (0, 1, 1) − (2/3, 2/3, 2/3) = (−2/3, 1/3, 1/3). Page (PS/TeX): 41 / 275, COMPOSITE (4.19) (4.20) 276 CAPÍTULO 4 Espacios con producto interior y espacios normados u2 = w2 w2 (por (4.20) del teorema 4.12 con k = 1) (−2/3, 1/3, 1/3) = 4/9 + 1/9 + 1/9 √ = (3/ 6)(−2/3, 1/3, 1/3) √ √ √ = (−2/ 6, 1/ 6, 1/ 6). w3 = v3 − v3 ,u1 u1 − v3 ,u2 u2 (por (4.19) del teorema 4.12 con k = 2) √ √ √ √ √ √ = (0, 0, 1) − (0, 0, 1), (1/ 3, 1/ 3, 1/ 3)(1/ 3, 1/ 3, 1/ 3) √ √ √ √ √ √ √ −(0, 0, 1), (−2/ 6, 1/ 6, 1/ 6, 1/ 6)(−2/ 6, 1/ 6, 1/ 6, ) √ √ √ √ = (0, 0, 1) − (1/ 3)(1/ 3, 1/ 3, 1/ 3) √ √ √ √ −(1/ 6)(−2/ 6, 1/ 6, 1/ 6) = (0, −1/2, 1/2). w3 (por (4.20) del teorema 4.12 con k = 2) w3 (0, −1/2, 1/2) = 1/2 √ √ = (0, − 2/2, 2/2). u3 = La base ortonormal buscada es: {u1 ,u2 ,u3 }. Ejemplo 4.32 Encontrar una base ortonormal para el subespacio gn(e x , x) en C[0, 1]. Solución En este caso, v1 = e x y v2 = x; entonces, v1 = v1 ,v1 1/2 1 1/2 = e2x dx 0 1/2 1 2x 1 = e |0 2 √ = (1/ 2)(e2 − 1)1/2 . Por (4.18) del teorema 4.12, √ u1 = 2 (e2 − 1)1/2 e x. De (4.19) del teorema 4.12, con k = 1, % √ 2 w2 = x − x, 2 ex (e − 1)1/2 Page (PS/TeX): 42 / 276, COMPOSITE & √ 2 ex . 2 (e − 1)1/2 Espacios con producto interior 277 SECCIÓN 4.1 Calculemos el producto interior de la última igualdad: % & √ √ 2 2 x x, e x x, 2 = e (e − 1)1/2 (e2 − 1)1/2 y x, e x = 1 0 xe x dx = xe x |10 − 1 0 e x dx = e − [e x ]10 = 1; por tanto, % √ 2 x, 2 ex (e − 1)1/2 & √ = 2 (e2 − 1)1/2 . Ası́, √ √ 2 2 ex w2 = x − 2 1/2 2 (e − 1) (e − 1)1/2 2 e x. = x− 2 e −1 Para normalizar14 w2 tenemos que 2 2 e x dx x− 2 e −1 0 1 4e2x 4xe x + 2 x2 − 2 dx = e − 1 (e − 1)2 0 3 1 1 x 2 4 2x = (1) + − e 3 0 e2 − 1 (e2 − 1)2 0 4 2 1 + = − 2 (e2 − 1) 3 e − 1 (e2 − 1)2 2 1 = − 2 3 e −1 e2 − 7 = ; 3(e2 − 1) w2 2 = 1 de donde (cfr. (4.20) del teorema 4.12, con k = 1) u2 = 3(e2 − 1) e2 − 7 1/2 2 ex x− 2 e −1 1Emplearemos el término normalizar cuando multipliquemos por el recı́proco de la norma de un vector para obtener un vector con la misma dirección pero con norma 1. 14 Page (PS/TeX): 43 / 277, COMPOSITE 278 CAPÍTULO 4 Espacios con producto interior y espacios normados y la base buscada es: $ 1/2 ( 2 2 2 3(e − 1) x x e x− 2 . e , e2 − 7 e −1 (e2 − 1)1/2 √ Sabemos, de la discusión que hicimos para la derivación del proceso de Gram-Schmidt, que el vector uk+1 es ortogonal a los vectores u1 ,u2 , . . . ,uk y que gn(u1 ,u2 , . . . ,uk ) = gn(v1 ,v2 , . . . ,vk ); por lo que uk+1 es ortogonal a los vectores v1 ,v2 , . . . ,vk . También de (4.19) y (4.20) del teorema 4.12, se desprende vk ,uk = wk = 0, para cada k = 1, . . . , m. Con lo que hemos probado el siguiente corolario. Corolario 4.4 Sean v1 ,v2 , . . . ,vm vectores L.I. del espacio vectorial E y sean u1 ,u2 , . . . ,um los vectores ortonormales que se obtienen de los vectores vi por medio del proceso de ortogonalización de Gram-Schmidt. Entonces, uk+1 es ortogonal a los vectores v1 ,v2 , . . . ,vk , para cada k = 1, 2, . . . , m − 1. Esto es: v j ,ui = 0 si i > j (4.21) vi ,ui = 0 para todo i (4.22) Además Factorización QR Supongamos que A es una matriz n × m cuyas columnas son vectores v1 , v2 , . . . ,vm linealmente independientes de Rn . Sea {u1 ,u2 , . . . ,um } la base ortonormal que se obtiene por medio del proceso de ortogonalización de Gram-Schmidt aplicado a la base {v1 ,v2 , . . . ,vm } del espacio columna de A. Por (4.11) del teorema 4.8 (cfr. pág. 264) se tiene, para cada j = 1.2, . . . , m, v j = v j ,u1 u1 + v j ,u2 u2 + · · · + v j ,um um . Sea Q la matriz que tiene como columnas a los vectores u j ; por (1.5) del ejemplo 1.15 (cfr. pág. 12), ⎡ ⎢ ⎢ v j = Q ⎢ ⎣ v j ,u1 v j ,u2 .. . ⎤ ⎥ ⎥ ⎥. ⎦ v j ,um ⎡ ⎢ ⎢ Entonces, si c j = ⎢ ⎣ v j ,u1 v j ,u2 .. . ⎤ ⎥ ⎥ ⎥, ⎦ v j ,um A= = Page (PS/TeX): 44 / 278, COMPOSITE v1 v1 Qc1 · · · vm Qc2 ··· Qcm . SECCIÓN 4.1 Espacios con producto interior 279 Ası́, si R es la matriz que tiene como columnas a los vectores c j , por (1.2) del ejemplo 1.14, A= = v1 v1 Qc1 ··· vm ··· Qc2 Qcm = QR. Ahora bien, por (4.21) del corolario 4.4, v j ,ui = 0 para todo i > j; luego, las componentes de la matriz R = [v j ,ui ] son nulas para j < i; es decir, todas las componentes por debajo de diagonal. Ası́, la matriz R = [v j ,ui ] es triangular superior e invertible, pues, por (4.22) vi ,ui = 0 para todo i. La matriz A se puede factorizar entonces como el producto de una matriz cuyas columnas son vectores ortonormales y una matriz triangular superior no singular. Hacemos patente esta conclusión en el siguiente teorema. Teorema 4.13 Seanv1 ,v2 , . . . ,vm vectores linealmente independientes en Rn ; A la matriz n × m cuyas columnas son estos vectores y {u1 ,u2 , . . . ,um } la base ortonormal que se obtiene del proceso de ortogonalización de Gram-Schmidt aplicado a la base {v1 ,v2 , . . . ,vm } del espacio columna de A. Entonces A se puede factorizar como el producto de una matriz Q y una matriz triangular superior invertible R. Especı́ficamente, A = QR, donde el primer factor es la matriz Q cuyas columnas son los vectores ui y el segundo factor es la matriz triangular superior no singular R = [v j ,ui ]; esto es, ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ R=⎢ ⎢ ⎢ ⎢ ⎣ v1 ,u1 v2 ,u1 v3 ,u1 ··· 0 v2 ,u2 v3 ,u2 ··· 0 0 v3 ,u3 ··· .. . .. . .. . .. 0 0 0 ··· . vm ,u1 ⎤ ⎥ vm ,u2 ⎥ ⎥ ⎥ vm ,u3 ⎥ ⎥. ⎥ ⎥ .. ⎥ . ⎦ vm ,um Ejemplo 4.33 Sea ⎡ 1 ⎢ ⎢ 0 A=⎢ ⎢ ⎣ 1 0 1 1 1 0 1 ⎤ ⎥ −1 ⎥ ⎥. ⎥ 0 ⎦ 1 1. Mostrar que las columnas de A son L.I. 2. Encontrar una base ortonormal para el espacio columna de la matriz A. 3. Factorizar A como el producto de una matriz Q cuyas columnas sean vectores ortonormales y una matriz R triangular superior. Page (PS/TeX): 45 / 279, COMPOSITE 280 CAPÍTULO 4 Espacios con producto interior y espacios normados Solución 1. Llevemos A a la forma escalonada mediante el método de Gauss: ⎡ 1 ⎢ 0 ⎢ ⎣ 1 0 1 1 1 0 ⎤ ⎡ 1 1 ⎢ 0 −1 ⎥ ⎥∼⎢ 0 ⎦ ⎣ 0 0 1 1 1 0 0 ⎤ ⎡ 1 1 ⎢ 0 −1 ⎥ ⎥∼⎢ −1 ⎦ ⎣ 0 0 1 1 1 0 0 ⎤ ⎡ 1 1 ⎢ 0 −1 ⎥ ⎥∼⎢ −1 ⎦ ⎣ 0 0 0 1 1 0 0 ⎤ 1 −1 ⎥ ⎥. 1 ⎦ 0 Puesto que toda columna tiene pivote, el sistema Ax =0 sólo tiene la solución trivial y, por tanto, los vectores son L.I. 2. Dado que las columnas forman una base (ya que son vectores L.I.) del espacio columna, podemos aplicar el proceso de ortogonalización de Gram-Schmidt para obtener una base ortonormal: 1 u1 = √ (1, 0, 1, 0) 2 √ √ = 1/ 2, 0, 1/ 2, 0 . √ √ w2 = (1, 1, 1, 0) − (1, 1, 1, 0) · 1/ 2, 0, 1/ 2, 0 √ √ √ = (1, 1, 1, 0) − 2/ 2 1/ 2, 0, 1/ 2, 0 √ √ 1/ 2, 0, 1/ 2, 0 = (1, 1, 1, 0) − (1, 0, 1, 0) = (0, 1, 0, 0) ∴ u2 = 1 w2 = (0, 1, 0, 0) . w2 √ √ w3 = (1, −1, 0, 1) − (1, −1, 0, 1) · 1/ 2, 0, 1/ 2, 0 √ √ 1/ 2, 0, 1/ 2, 0 − ((1, −1, 0, 1) · (0, 1, 0, 0)) (0, 1, 0, 0) √ √ √ = (1, −1, 0, 1) − 1/ 2 1/ 2, 0, 1/ 2, 0 − (−1) (0, 1, 0, 0) = (1, −1, 0, 1) + (−1/2, 0, −1/2, 0) + (0, 1, 0, 0) = (1/2, 0, −1/2, 1) ∴ u3 = 1 2 w3 = √ w3 6 1 1 1 1 2 , 0, − , 1 = √ , 0, − √ , √ . 2 2 6 6 6 3. Por el teorema 4.13, ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ Q=⎢ ⎢ ⎢ ⎢ ⎣ Page (PS/TeX): 46 / 280, COMPOSITE 1 √ 2 0 1 √ 2 1 0 0 0 0 1 √ 6 0 1 −√ 6 2 √ 6 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦ Espacios con producto interior 281 SECCIÓN 4.1 y si vi son los vectores columna de A, ⎡ ⎢ R=⎢ ⎣ v1 ,u1 v2 ,u1 0 v2 ,u2 0 0 v3 ,u1 ⎤ ⎥ v3 ,u2 ⎥ ⎦. v3 ,u3 Como √ √ √ v1 ,u1 = (1, 0, 1, 0) · 1/ 2, 0, 1/ 2, 0 = 2/ 2 , √ √ √ v2 ,u1 = (1, 1, 1, 0) · 1/ 2, 0, 1/ 2, 0 = 2/ 2 , √ √ √ v3 ,u1 = (1, −1, 0, 1) · 1/ 2, 0, 1/ 2, 0 = 1/ 2 , v2 ,u2 = (1, 1, 1, 0) · (0, 1, 0, 0) = 1 , v3 ,u2 = (1, −1, 0, 1) · (0, 1, 0, 0) = −1 y √ √ √ √ v3 ,u3 = (1, −1, 0, 1) 1/ 6, 0, −1/ 6, 2/ 6 = 3/ 6 , entonces, ⎡ ⎢ ⎢ ⎢ R=⎢ ⎢ ⎣ 2 √ 2 0 2 √ 2 1 0 0 1 √ 2 −1 3 √ 6 ⎤ ⎥ ⎥ ⎥ ⎥. ⎥ ⎦ El lector puede verificar que efectivamente A = QR realizando el producto. Matrices ortogonales i ortonormales de Rn . Sea A una matriz cuadrada. Supongamos que las columnas de A son vectores K Entonces, si ci j es la componente i j del producto At A, $ it K j= ci j = K 1 si i = j 0 en otro caso (4.23) Luego, At A es la matriz identidad. Recı́procamente, si A es una matriz cuadrada de orden n tal que At A = In , la identidad de orden n, entonces nuevamente se tiene la relación (4.23) y, por ende, las columnas de esta matriz son vectores ortonormales de Rn . Hemos probado ası́ el siguiente teorema. Page (PS/TeX): 47 / 281, COMPOSITE 282 CAPÍTULO 4 Espacios con producto interior y espacios normados Teorema 4.14 Sea A una matriz cuadrada de orden n. Las siguientes condiciones son equivalentes a pares: 1. Las columnas de A son vectores ortonormales de Rn . 2. At A = In . 3. A es una matriz invertible y A−1 = At . Definición 4.10 Una matriz cuadrada A de orden n que satisface una de las condiciones del teorema 4.14 (y, por tanto, las otras dos) se llama matriz ortogonal.15 Ejemplo 4.34 Sean los vectores √ √ √ √ √ √ u1 = 1/ 3, 1/ 3, 1/ 3 , u2 = −2/ 6, 1/ 6, 1/ 6 √ √ y u3 = 0, − 2/2, 2/2 . Entonces, si √ −2/ 6 √ 1/ 6 √ 1/ 6 √ 1/ 3 ⎢ √ A=⎢ ⎣ 1/ 3 √ 1/ 3 ⎡ ⎤ 0 ⎥ √ − 2/2 ⎥ ⎦, √ 2/2 tenemos √ √ 1 3 3 3 ⎢ 1√ √ 1 At A = ⎢ 6 6 ⎣ −3 6 √ 0 − 12 2 ⎡ ⎤ 1 0 0 ⎢ ⎥ ⎥ =⎢ ⎣ 0 1 0 ⎦. 0 0 1 ⎡ 1 3 √ √ 1/ 3 √ ⎥⎢ √ 1 ⎥⎢ 6 6 ⎦ ⎣ 1/ 3 √ √ 1 1/ 3 2 2 1 3 3 ⎤⎡ √ −2/ 6 √ 1/ 6 √ 1/ 6 ⎤ 0 ⎥ √ − 2/2 ⎥ ⎦ √ 2/2 Ası́ los vectores u1 ,u2 y u3 son ortonormales (cfr. ejemplo 4.31) y la matriz A es ortogonal. P Nota 4.6 1. Observe que si las columnas de una matriz A son ortonormales, entonces sus filas también y viceversa; pues, At A = I ⇔ AAt = I. 2. En el caso de que A sea una matriz cuadrada, el teorema de factorización QR (4.13) afirma que si las columnas de A son vectores L.I., entonces A se puede factorizar como el producto de una matriz ortogonal con una matriz triangular superior. 1Serı́a más adecuado usar el término ortonormal, pero éste se reserva para bases y no es común su uso en la literatura de álgebra lineal. 15 Page (PS/TeX): 48 / 282, COMPOSITE Espacios con producto interior 283 SECCIÓN 4.1 4.1.5 Aproximación óptima de un vector por elementos de un subespacio En la figura 4-8 se ilustra el conocido hecho de geometrı́a elemental que establece que la distancia mı́nima de un punto a una lı́nea recta o a un plano es la longitud de la lı́nea perpendicular de ese punto a la lı́nea recta o al plano. En términos de lo que en este texto hemos estudiado, esto significa que la distancia mı́nima de un vector a un subespacio es la norma de la diferencia entre este vector y su proyección sobre el subespacio. En el siguiente teorema mostraremos que este hecho geométrico también es válido en espacios con producto interior. Nuevamente esta generalización no es una simple curiosidad matemática, sino que es de gran importancia en la teorı́a de aproximación; tema que introduciremos más adelante. La demostración de este teorema se basa en un artificio algebraico y el teorema de Pitágoras en espacios con producto interior; sin embargo, este artificio es completamente intuitivo geométricamente y vale la pena gastar un poco de tiempo en su explicación. En (b) de la figura 4-8, el segmento de lı́nea que va del vector proyección p al punto u es ortogonal a todo punto de S y, por tanto, a toda lı́nea de este plano; ası́ que en particular es ortogonal a la lı́nea recta que pasa por los puntos p y v. Por ende, el segmento de lı́nea recta que va del punto u al puntov es la hipotenusa del triángulo rectángulo que pasa por los puntos u, p y v; y como en todo triángulo rectángulo la longitud de la hipotenusa es mayor que las longitudes de los catetos, se tiene d(u,p) ≤ d(u,v). u P p v (a) S (b) Figura 4-8 • (a) La menor distancia de un punto P, exterior a una lı́nea recta, está dada por la longitud de la perpendicular de la lı́nea recta al punto P. (b) La menor distancia de un punto u, exterior a un plano S, a cualquier punto v del plano, se alcanza en el vector proyección p de u sobre S. Teorema 4.15 Sean S un subespacio de E de dimensión finita, u ∈ E un vector dado y p ∈ S el vector proyección de u sobre S. Entonces u − p ≤ u −v ∀v ∈ S. Es decir, el mı́nimo de la distancia d(u,v), cuando v varı́a en S, se alcanza en v = p. DEMOSTRACIÓN Q Sea v ∈ S cualquier vector, entonces p −v ∈ S. Por lo que u − p ⊥ p −v; ası́ (por el teorema de Pitágoras) u −v2 = (u − p) + (p −v)2 = u − p2 + p −v2 ≥ u − p2 ; Page (PS/TeX): 49 / 283, COMPOSITE 284 CAPÍTULO 4 Espacios con producto interior y espacios normados de donde u −v ≥ u −p . Q En forma equivalente, el teorema 4.15 afirma que dados un elemento u del espacio E y S, un subespacio de dimensión finita, existe un elemento p ∈ S, de entre todos los elementos de S, que es el que mejor aproxima a u en el sentido de la norma inducida por el producto interior; es decir,16 mı́n u −v = u − p v∈S (4.24) Además, como el lector seguramente ya intuyó, el vector proyección p de u sobre S es el único elemento de S que aproxima óptimamente a u en S; esto es, cumple con la relación (4.24). En efecto, si p1 ∈ S y u − p1 ≤ u −v para todo v ∈ S, entonces se debe tener u −p1 ≤ u − p y u − p ≤ u − p1 de donde se desprende u −p1 = u − p . Puesto que p es el vector proyección de u sobre S, u − p ⊥ v para todo v ∈ S, en particular u − p ⊥ p − p1 ∈ S. Por el teorema de Pitágoras se tiene u −p1 2 = (u −p) + (p −p1 )2 = u −p2 + p − p1 2 = u −p1 2 + p −p1 2 ; lo que implica p −p1 2 = 0 y, por tanto, p1 = p. En resumen, hemos probado que en cualquier espacio con producto interior, E, dados un vector u y un subespacio S de dimensión finita, existe un único vector p ∈ S tal que u − p ≤ u −v ∀v ∈ S; es decir, para el cual (4.24) se cumple; donde · es la norma inducida por el producto interior y, en este caso, el vector p es la proyeción de u sobre el subespacio S. Llamaremos a p la aproximación óptima (o la mejor aproximación) de u en S (relativa a la norma inducida · ). 1La notación mı́n u −v significa el valor mı́nimo del conjunto de números reales {u −v |v ∈ S}. 16 v∈S Page (PS/TeX): 50 / 284, COMPOSITE SECCIÓN 4.1 Espacios con producto interior 285 P Nota 4.7 1. En el último apartado de este capı́tulo estudiaremos el concepto de aproximaciones óptimas, pero en subespacios normados cuya norma no necesariamente proviene de un producto interior. 2. Una norma en el sentido más general, como veremos en la siguiente sección, es una función que permite medir magnitudes de vectores y distancias entre ellos; como se hace con la norma usual en Rn o con las normas inducidas en espacios con producto interior. Sin embargo, como veremos más adelante, no toda norma proviene de un producto interior. 3. De igual manera a como ocurre en espacios con producto interior veremos, en la siguiente sección, que en un espacio vectorial normado (aunque la norma no provenga de un producto interior), dado un vector u y un subespacio de dimensión finita S, siempre existe al menos una aproximación óptima para este vector en S; pero dicha aproximación no necesariamente es única. A continuación, encontraremos la aproximación óptima de vectores en subespacios para dos casos particulares en el espacio de funciones continuas, con el fin de ilustrar esta importante teorı́a. Aproximación con polinomios de Legendre Ejemplo 4.35 Sean E = C [−1, 1] el espacio de funciones continuas en [−1, 1] dotado del producto interior f , g = 1 −1 f (x)g(x)dx, S2 = gn 1, x, x2 y f ∈ E una función dada. Apliquemos el proceso de ortogonalización de GramSchmidt a la base {1, x, x2 }: 12 = 1 −1 dx = x|1−1 = 2 entonces 1 u1 = √ . 2 ) √ * √ w2 = x − x, 1/ 2 1/ 2, ) √ * √ 1 x, 1/ 2 1/ 2 = x, 1 2 1 1 = xdx 2 −1 1 1 = x2 −1 2 = 0, x2 = Page (PS/TeX): 51 / 285, COMPOSITE 1 −1 x2 dx = 1 x3 3 −1 = 2 ; 3 286 CAPÍTULO 4 Espacios con producto interior y espacios normados ası́ que w2 w2 3 x. = 2 u2 = ) ) * √ * √ w3 = x2 − x2 , 1/ 2 1/ 2 − x2 , 3/2x 3/2x , ) √ * √ 1 1 2 x2 , 1/ 2 1/ 2 = x dx 2 −1 1 1 x3 = 2 3 −1 1 = , 3 ) x2 , * 3/2x = 3/2 1 −1 x3 dx 1 x4 = 3/2 4 −1 = 0; por tanto w3 = x2 − 2 w3 = = 1 −1 1 3 y 1 x − 3 2 2 dx 8 ; 45 ası́ que 1 w3 w3 3 5 2 1 x − . = 2 2 3 u3 = La base ortonormal es $ 1 u1 = √ , u2 = 2 3 3 x, u3 = 2 2 ( 5 2 1 x − . 2 3 Entonces, por (4.14) del teorema 4.11 (cfr. pág. 269), la proyección p2 de f sobre S2 es p2 = f , u1 u1 + f , u2 u2 + f , u3 u3 . Page (PS/TeX): 52 / 286, COMPOSITE Espacios con producto interior 287 SECCIÓN 4.1 Por ejemplo, si f (x) = sen(πx), entonces17 1 1 sen(πx) √ dx = 0, −1 2 1 3 1√ f , u2 = xdx = sen(πx) 6, 2 π −1 1 3 5 2 1 f , u2 = x − dx = 0. sen(πx) 2 2 3 −1 f , u1 = Luego, 1√ p2 (x) = 6 π 3 = x π 3 x 2 es el polinomio de grado a lo más dos que mejor aproxima a f (x) = sen(πx) en el sentido de que 1 −1 ( f (x) − p2 (x))2 dx tiene el valor más pequeño al compararla con 1 −1 ( f (x) − q(x))2 dx para cualquier polinomio q(x) de grado a lo más dos. Las gráficas de f (x) y p2 (x) se ilustran en la figura 4-9. De hecho el lector puede comprobar, realizando la integral, que sen(πx) − 3 x ≈ 0.626157 2471. π Las gráficas de ( f (x) − p2 (x))2 y de ( f (x) − q(x))2 , para q(x) = (1/10) x2 − 2x + 2 , se ilustran en la figura 4-10; en ella se puede apreciar que aparentemente el área bajo la curva ( f (x) − p2 (x))2 es menor 1 0.8 0.6 0.4 0.2 0 –0.2 –0.4 –0.6 –0.8 –1 –1 p2 (x) f (x) –0.5 0 0.5 1 Figura 4-9 • Gráficas de f (x) = sen(π x) y la proyección, p2 (x), de esta función sobre el subespacio S2 = gn(1, x, x2 ). 1Dejamos los detalles de los cálculos de las integrales de ejercicio para el lector. 17 Page (PS/TeX): 53 / 287, COMPOSITE 288 CAPÍTULO 4 Espacios con producto interior y espacios normados 1.8 1.6 ( f (x) − q(x))2 1.4 1.2 1 ( f (x) − p2 (x))2 0.8 0.6 0.4 0.2 0 –1 –0.5 0 0.5 1 Figura 4-10 • Gráficas de las funciones ( f (x) − p2 (x))2 y ( f (x) − q(x))2 . El área bajo la primera curva debe ser inferior al área bajo la segunda curva. que el área bajo la curva ( f (x) − q(x))2 en [−1, 1]. Efectivamente, 1 −1 1 (600 + 853π) 750π ≈ 1. 39198 1242 (sen(πx) − q(x))2 dx = de donde18 sen(πx) − q(x) ≈ √ 1. 39198 1242 ≈ 1. 17982 2547. A los polinomios ortonormales que se obtienen al aplicar el proceso de ortogonalización de GramSchmidt a la sucesión de polinomios L.I. + , 1, x, x2 , x3 , . . . , xn , . . . en C[−1, 1], se les llaman polinomios de Legendre (normalizados). Estos polinomios tienen importantes aplicaciones en la teorı́a de aproximación, en fı́sica, en ecuaciones diferenciales, etc. Los primeros tres polinomios de Legendre normalizados los hemos calculado en el ejemplo precedente. Se puede probar que estos polinomios, antes de normalizar, están dados por la relación wk+1 = k k! d k 2 x −1 k (2k)! dx Por ejemplo, para k = 2, 2 2! d 2 2 x −1 4! dx2 1 d 2 2 x − 1 2x = 12 dx 1 2 3x − 1 = 3 1 = x2 − 3 w3 = 1Recuerde que sen(πx) − p2 (x) fue aproximadamente 0.62615 72471. 18 Page (PS/TeX): 54 / 288, COMPOSITE Espacios con producto interior 289 SECCIÓN 4.1 que es el mismo polinomio que obtuvimos en el ejemplo anterior. Para k = 3, tenemos w4 = 3 3! d 3 2 x −1 3 6! dx 3 = x3 − x , 5 1 −1 3 x3 − x 5 1/2 2 = dx de donde 1 1 u4 = w4 = w4 2 2√ 14 ; 35 7 3 5x − 3x . 2 De manera similar (los detalles del cálculo se dejan de ejercicio al lector), podemos obtener 1 9 4 35x − 10x2 + 3 y u5 = 8 2 1 11 5 63x − 70x3 + 15x . u6 = 8 2 2.5 2 1.5 1 0.5 0 –0.5 –1 –1.5 –2 u1 u3 u2 –2.5 –1 –0.5 0 u4 u5 u6 0.5 1 Figura 4-11 • Gráficas de los primeros 6 polinomios de Legendre (normalizados). En la figura 4-11, se bosquejan las gráficas de los primeros 6 polinomios de Legendre, ui (x), que calculamos en el ejemplo precedente y en la ulterior discusión. Es claro que podemos extender este proceso y, dada una función continua f en el espacio C[−1, 1] y un número entero no negativo n, construir un polinomio de grado a lo más n, combinación lineal de polinomios de Legendre, que es la mejor aproximación de f , de entre todos los polinomios de grado a lo más n, respecto a la norma inducida por el producto interior en C[−1, 1]. Ası́, por ejemplo (se dejan los detalles de los cálculos al lector), la mejor aproximación para f (x) = sen(πx) en S4 = gn(1, x, x2 , x3 , x4 ), el espacio de polinomios de grado a lo más 4, es 3 21 2 35 2 3 p4 = 3 π − 15 x + − π − 15 x 2π π 2π 3 Page (PS/TeX): 55 / 289, COMPOSITE 290 CAPÍTULO 4 Espacios con producto interior y espacios normados y la mejor aproximación de f en el espacio de polinomios de grado a lo más 6 es 5 385 4 3 693 4 35 2 2 2 p6 = 5 π − 105π + 945 x + π − 15 − 5 π − 105π + 945 x 8π 2π 3 4π 165 4 21 2 3 2 − π − 15 + 5 π − 105π + 945 x . =+ π 2π 3 8π 1 sen(π x) p4 (x) 0.8 0.6 0.4 0.2 0 –0.2 –0.4 –0.6 –0.8 –1 –1 –0.5 0 0.5 1 Figura 4-12 • Gráficas de f (x) = sen(π x) y p4 (x). Observe que la diferencia entre las áreas bajo estas curvas (y entre las propias curvas) es muy poca. 0.045 0.04 0.035 0.03 0.025 0.02 0.015 ( f (x) − p4 (x))2 0.01 0.005 0 –1 –0.5 0 0.5 1 Figura 4-13 • Gráfica de ( f (x)− p4 (x))2 . El área bajo esta curva es menor que el área bajo la curva ( f (x)− p2 (x))2 . Un bosquejo de las gráficas de f (x) = sen(πx) y p4 (x) se ilustra en la figura 4-12. Mientras que la figura 4-13 contiene el área bajo la gráfica de la función ( f (x) − p4 (x)2 , que ahora es menor que en el caso de aproximación en S2 . Un cálculo un poco laborioso, el cual omitiremos, produce: f (x) − p4 (x) ≈ 9. 37028 9878 × 10−2 y f (x) − p6 (x) ≈ 6. 08092 8379 × 10−3 . Page (PS/TeX): 56 / 290, COMPOSITE SECCIÓN 4.1 Espacios con producto interior 291 Parece que f (x) − pn (x) tiende a cero en la medida en que n aumenta. De hecho, esto no es un fenómeno que sólo sucede para f (x) = sen(πx); en realidad, se puede probar que si f es cualquier función continua en C[−1, 1] y, para cada n ∈ N, pn es el polinomio de grado a lo más n que es la mejor aproximación relativa a la norma inducida por el producto interior para f en el espacio de polinomios de grado19 a lo más n, entonces lı́m f − pn = 0 n→∞ (4.25) que equivale a lı́m 1 n→∞ −1 ( f (x) − pn (x))2 dx = 0. Entonces, si se satisface 4.25, la sucesión (pn ) converge en promedio cuadrático a la función f . En general, en un espacio vectorial E con producto interior, se dice que un conjunto ortonormal de vectores {un } es completo, si para todo v ∈ E existe una sucesión pn de combinaciones lineales finitas de los vectores ui , que converge en promedio cuadrático a v. En este sentido, el conjunto de polinomios normalizados de Legendre es completo en C[−1, 1]. Aproximación por polinomios trigonométricos Sea n un entero no negativo y sean las funciones ψ0 (x) = 1, ψ2k−1 (x) = cos (kx), ψ2k (x) = sen(kx); k = 1, 2, . . . , n; esto es, las 2n + 1 funciones continuas ψ0 (x) = 1, ψ1 (x) = cos(x), ψ2 (x) = sen(x), ψ3 (x) = cos(2x), ψ4 (x) = sen(2x), . . . , ψ2n−1 (x) = cos(nx), ψ2n = sen(nx). Recordemos las identidades trigonométricas sen(A) cos(B)= 1 (sen(A + B) + sen(A − B)) 2 (4.26) cos(A) cos(B)= 1 (cos(A + B) + cos(A − B)) 2 (4.27) sen(A)sen(B)= 1 (cos(A − B) − cos(A + B)) 2 (4.28) Sean A, B ∈ {0, 1, 2, . . . , 2n + 1}, con A = B. De (4.26): 2π 0 sen(Ax) cos(Bx)dx = 1 2 1 = 2 2π 0 - (sen ((A + B) x) + sen ((A − B) x)) dx 2π 1 − cos ((A + B)x) A+B 0 =+ − 2π . 1 cos ((A − B)x) A−B 0 = 0. 1Recuerde que pn es combinación lineal de polinomios de Legendre normalizados. 19 Page (PS/TeX): 57 / 291, COMPOSITE 292 CAPÍTULO 4 Espacios con producto interior y espacios normados De (4.27): 2π 0 cos(Ax) cos(Bx)dx = 1 2 2π 0 - 1 = 2 =+ (cos ((A + B) x) + cos ((A − B) x)) dx 2π 1 sen ((A + B)x) A+B 0 2π . 1 sen ((A − B)x) A−B 0 = 0. De (4.28) 2π 0 sen(Ax)sen(Bx)dx = 1 2 1 = 2 2π 0 - =− (cos ((A − B) x) − cos ((A + B) x)) dx 2π 1 sen ((A − B)x) A−B 0 2π . 1 sen ((A + B)x) A+B 0 = 0. Si A = B = 0, (4.26) implica 2π 0 sen(Ax) cos(Bx)dx = 1 2 =− 2π 0 sen (2Ax) dx 1 cos(2Ax)|2π 0 A = 0. Con lo que hemos probado que ψi , ψ j = 0 si i = j y, por tanto, las funciones ψ j son ortogonales en el espacio C [0, 2π]. Por otra parte, al utilizar las identidades trigonométricas obtenemos 0 2π sen2 u = 1 − cos 2u 2 cos2 u = 1 + cos 2u 2 sen2 (Ax) dx = 1 2 0 = π− =π Page (PS/TeX): 58 / 292, COMPOSITE 2π (1 − cos(2Ax)) dx 1 sen(2Ax)|2π 0 4A Espacios con producto interior 293 SECCIÓN 4.1 y 2π 0 1 2 cos2 (Ax) dx = 2π 0 =π+ (1 + cos(2Ax)) dx 1 sen(2Ax)|2π 0 4A = π. Finalmente, 2π 0 dx = 2π. ψj 1 Ası́, el conjunto de funciones {ϕ0 , ϕ1 , . . . , ϕ2n }, donde ϕ0 = √ , ϕ j = √ , j = 1, 2, . . . , 2n; esto es π 2π ⎫ ⎧ 1 1 1 ⎪ ⎪ ⎪ ⎪ √ √ √ ϕ cos(x), ϕ sen(x), (x) = (x) = (x) = , ϕ 1 2 ⎪ ⎪ 0 ⎪ ⎪ π π 2π ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎨ 1 1 ϕ3 (x) = √ cos(2x), ϕ4 (x) = √ sen(2x), . . . (4.29) π π ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 1 1 ⎪ ⎪ ⎪ ⎪ ⎭ ⎩ ϕ2n−1 (x) = √ cos(nx), ϕ2n (x) = √ sen(nx) π π es un conjunto ortonormal de funciones en C [0, 2π]. A todo elemento del subespacio de dimensión 2n+1, Tn = gn(ϕ0 , ϕ1 , . . . , ϕ2n ) = gn(ψ0 , ψ1 , . . . , ψ2n ), se le llama polinomio trigonométrico. Entonces, si f es una función continua en [0, 2π], por el teorema 4.11, la proyección de f sobre el espacio de polinomios trigonométricos está dada por pn = 2n ∑ f , ϕk ϕk k=0 donde f , ϕk = 2π 0 f (x)ϕk (x)dx; que es n 1 pn (x) = a0 + ∑ (ak cos(kx) + bk sen(kx)) 2 k=1 (4.30) donde, para k = 0, 1, 2, . . . , n, ak = 1 π 2π 0 f (x) cos(kx)dx y bk = 1 π 0 2π f (x)sen(kx)dx (4.31) A los coeficientes ak y bk se les dice coeficientes de Fourier de f . El teorema de aproximación garantiza entonces que mı́n f − q q∈S Page (PS/TeX): 59 / 293, COMPOSITE 294 CAPÍTULO 4 Espacios con producto interior y espacios normados se alcanza en pn . Por lo que pn es la mejor aproximación para f en el espacio Tn de polinomios trigonométricos para la norma inducida por el producto interior en C [0, 2π]. Ejemplo 4.36 Encontrar la mejor aproximación respecto a la norma inducida por el producto interior en C [0, 2π] de la función f (x) = e x en el subespacio de polinomios trigonométricos T2 = gn(1, cos x, senx, cos 2x, sen2x) . Solución La mejor aproximación para f (x) = e x en T2 está dada por (4.30) para n = 2. Esto es: 2 1 p2 (x) = a0 + ∑ (ak cos(kx) + bk sen(kx)) 2 k=1 donde los coeficientes de Fourier están dados por (4.31). Entonces20 a0 = 1 π ak = = bk = 2π 0 1 π e x dx = 2π 0 e2π − 1 . π e x cos(kx)dx 1 e2π − 1 , π k2 + 1 1 π 0 2π e x sen(kx)dx 1 k 1 − e2π = . π k2 + 1 Luego, . 2 1 k 1 − e2π 1 e2π − 1 1 e2π − 1 +∑ cos(kx) + sen(kx) p2 (x) = 2 2 π π k2 + 1 k=1 π k + 1 1 1 2 e2π − 1 1 1 + cos(x) + cos(2x) − sen(x) − sen(2x) . = π 2 2 5 2 5 Las gráficas de f y su aproximación p2 en T2 se encuentran bosquejadas en la figura 4-14; mientras que la gráfica de la función y = (e x − p2 (x))2 y el área bajo esta curva se muestran en la figura 4-15. Nuevamente se puede probar que el conjunto de polinomios trigonométricos ortonormales contenidos en (4.29) es completo en C[0, 2π]; es decir, para cualquier función continua f en el intervalo [0, 2π], existe una sucesión de polinomios trigonométricos pn , combinación lineal de elementos ortonormales contenidos en el conjunto dado por 4.29, tal que pn converge en promedio cuadrático a f ; esto es, lı́m f − pn = 0 n→∞ 1Las integrales e x cos(kx)dx, e x sen(kx)dx, se pueden resolver mediante integración por partes; los detalles de estos cálculos se dejan de ejercicio al lector. 20 Page (PS/TeX): 60 / 294, COMPOSITE SECCIÓN 4.1 600 Espacios con producto interior 295 p2 (x) f (x) = e x 500 400 300 200 100 0 –100 0 1 3 2 5 4 6 Figura 4-14 • Gráficas de f (x) = e x y su aproximación y = p2 (x) en T2 . 120 000 y = (e x − p2 (x))2 100 000 80 000 60 000 40 000 20 000 0 0 1 2 3 4 5 6 Figura 4-15 • Gráfica de la curva y = (e x − p2 (x))2 y el área bajo la misma. que equivale a lı́m n→∞ 0 2π ( f (x) − pn (x))2 dx = 0, donde pn está dado por 4.30 y los coeficientes de Fourier ak , bk están dados por (4.31). Mı́nimos cuadrados Supongamos que tenemos un conjunto de datos experimentales (ai , bi ), i = 1, 2, ..., n. Para fijar ideas, pensemos que hemos colgado de un resorte distintas masas de magnitudes ai y hemos medido la elongación bi que producen estos pesos. El propósito es determinar una relación entre el peso que pende y la elongación que produce en el resorte. Para ello, graficamos los pares ordenados (ai , bi ) obteniendo el bosquejo Page (PS/TeX): 61 / 295, COMPOSITE bi ai 296 CAPÍTULO 4 Espacios con producto interior y espacios normados y = r0 + r1 x bn bi di b2 b1 a1 ai a2 an Figura 4-16 • La lı́nea recta y = r0 + r1 x que mejor se ajusta al conjunto de datos (ai , bi ) es, de acuerdo con el criterio de mı́nimos cuadrados, aquella para la cual d = ∑ni=1 di2 es mı́nima, donde di = r0 + r1 ai − bi ; es decir, la diferencia entre el valor experimental bi y la ordenada de esta recta en ai . contenido en la figura 4-16. Podemos ver en esta figura que parece ser que la relación entre los pares (ai , bi ) es aproximadamente lineal.21 Por tanto, lo que se pretende encontrar es la lı́nea recta que mejor se ajuste a estos datos. Entonces, si y = r0 + r1 x es la relación buscada, se debe tener bi ≈ r0 + r1 ai , ∀i = 1, 2, . . . , n; lo cual se puede expresar matricialmente como ⎡ ⎢ ⎢ ⎢ ⎣ b1 b2 .. . bn ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥≈⎢ ⎦ ⎣ ⎤ 1 a1 1 a2 ⎥ ⎥ r0 .. .. ⎥ r 1 . . ⎦ 1 an O, b ≈ Ar, con ⎡ ⎢ ⎢ A=⎢ ⎣ ⎡ ⎤ 1 a1 ⎢ 1 a2 ⎥ ⎥ ⎢ , b = ⎢ ⎥ .. .. ⎣ . . ⎦ 1 an b1 b2 .. . ⎤ ⎥ r0 ⎥ . ⎥ yr = r1 ⎦ bn Entonces, una manera de definir la recta de mejor ajuste a este conjunto de datos, es pidiendo que sea aquella para la cual la distancia entre Ar y b sea mı́nima; es decir, eligiendo r0 y r1 de tal manera que b − Ar sea mı́nima; lo cual se obtiene por el teorema 4.15, cuando Ar = p, con p la proyección de b sobre el subespacio W = gn((1, 1, . . . , 1, 1), (a1 , a2 , . . . , an )). Y, entonces, por 4.16 r = [(At A)−1 At ]b 1Recuerde que, cuando se recopilan datos experimentales, existen errores en las mediciones. 21 Page (PS/TeX): 62 / 296, COMPOSITE (4.32) Espacios con producto interior 297 SECCIÓN 4.1 Notemos, de la figura 4-16, que d = b − Ar2 = d12 + d22 + · · · + dn2 (4.33) donde di = r0 + r1 ai − bi para i = 1, 2, . . . , n. Ası́ que, con este criterio, la recta que mejor se ajusta al conjunto de datos (ai , bi ) es aquella para la cual d es mı́nima. Dado que se busca el mı́nimo de la suma de los cuadrados en el lado derecho de 4.33, a este criterio de ajuste se le llama aproximación (discreta) por mı́nimos cuadrados.22 Ejemplo 4.37 Ajustar linealmente por mı́nimos cuadrados el siguiente conjunto de datos: Solución ai 2 4 5 6 bi 6.5 8.5 11 12.5 Para este caso ⎤ 2 4 ⎥ ⎥, 5 ⎦ 6 ⎡ 1 ⎢ 1 A=⎢ ⎣ 1 1 At A = 4 17 17 81 At = 1 1 1 1 2 4 5 6 , , 1 81 −17 4 35 17 81/35 −17/35 = , 17/35 4/35 (At A)−1 = r = = −17/35 4/35 81/35 17/35 3.13 1.53 1 1 1 1 2 4 5 6 ⎤ 6.5 ⎢ 8.5 ⎥ ⎥ ⎢ ⎣ 11 ⎦ 12.5 ⎡ . Y la recta de ajuste por mı́nimos cuadrados de este conjunto de datos es y = 3.13 + 1.53x En general, si se desean ajustar los datos (ai , bi ) a un polinomio de grado k pk (x) = r0 + r1 x + r2 x2 + · · · + rk xk , 1Cuando aproximamos con polinomios de Legendre y polinomios trigonométricos se hizo mı́nima una integral de la forma 2 a ( f (x) − q(x)) dx para una f dada. A este tipo de optimización también se le dice aproximación (continua) por mı́nimos cuadrados. 22 b Page (PS/TeX): 63 / 297, COMPOSITE 298 CAPÍTULO 4 Espacios con producto interior y espacios normados ponemos: ⎡ ⎤ ⎡ ⎥ ⎢ ⎥ ⎥ yA=⎣ ⎦ r0 r1 .. . ⎢ ⎢ r = ⎢ ⎣ rk 1 .. . a1 .. . 1 an a21 .. . a2n ⎤ ak1 .. ⎥ ; . ⎦ akn ... .. . ... entonces, r = (At A)−1 Atb. Pues ahora el mı́nimo de Ar −b se alcanza cuando Ar es la proyección de b sobre el subespacio W = gn (1, 1, . . . , 1), (a1 , a2 , . . . , an ), (a21 , a22 , . . . , a2n ), . . . , (ak1 , ak2 , . . . , akn ) de Rn . Ejemplo 4.38 Un objeto se deja caer desde un acantilado y se registra su posición, s, desde ese nivel (considerando positiva la dirección hacia abajo); y resultan los datos de la tabla siguiente: t 1 2 3 4 s 4.85 19.55 44.04 78.35 donde t, el tiempo, se mide en segundos y s en metros. Realizar el ajuste por mı́nimos cuadrados a un polinomio de grado 2 para estimar s(t) en cualquier instante t. Escriba el resultado final redondeando a una cifra decimal. Solución En este caso: ⎡ 1 ⎢ 1 ⎢ A=⎣ 1 1 ⎡ ⎤ ⎡ 4.85 1 1 ⎢ 2 4 ⎥ ⎥ , b = ⎢ 19.55 ⎣ 44.04 3 9 ⎦ 78.35 4 16 1 At A = ⎣ 1 1 ⎡ 4 = ⎣ 10 30 1 1 2 3 4 9 10 30 100 ⎤ ⎡ 1 1 ⎢ 1 ⎢ ⎦ 4 ⎣ 1 16 1 ⎤ 30 100 ⎦ . 354 ⎤ ⎥ ⎥ ⎦ y ⎤ 1 1 2 4 ⎥ ⎥ 3 9 ⎦ 4 16 Por el método de Gauss-Jordan, obtenemos (los detalles se dejan de ejercicio al lector): ⎡ 31 ⎤ 5 − 27 4 4 4 ⎢ 27 ⎥ 129 (At A)−1 = ⎢ − 54 ⎥ 20 ⎣ −4 ⎦. 5 5 1 −4 4 4 Page (PS/TeX): 64 / 298, COMPOSITE Espacios con producto interior 299 SECCIÓN 4.1 Entonces, −1 r = (At A) ⎡ 31 4 ⎢ 27 =⎢ ⎣ −4 ⎡ ⎢ =⎢ ⎣ 5 4 9 4 31 − 20 1 4 ! At b 5 4 − 27 4 129 20 − 54 − 34 23 20 − 14 ⎤ −.0 375 = ⎣ −.0 135 ⎦ , 4. 9025 ⎡ ⎤ ⎡ ⎥ 1 1 ⎣ − 54 ⎥ ⎦ 1 2 1 4 1 4 ⎤⎡ 3 − 54 4 ⎥⎢ 27 ⎥⎢ − 19 20 20 ⎦ ⎣ 1 − 14 4 ⎤ 4.85 1 1 ⎢ 19.55 ⎥ ⎥ 3 4 ⎦⎢ ⎣ 44.04 ⎦ 9 16 78.35 ⎤ 4.85 19.55 ⎥ ⎥ 44.04 ⎦ 78.35 ⎤ ⎡ que redondeado a una cifra decimal produce ⎤ 0 r = ⎣ 0 ⎦ . 4.9 ⎡ Luego, el ajuste es y = 4.9t 2 . Mı́nimos cuadrados y factorización QR Recordemos que, en el método de mı́nimos cuadrados, al ajustar un conjunto de datos (ai , bi ) a un polinomio r0 + r1 x + · · · + rk xk , si b = (b1 , . . . , bn ), r = (r0 , r1 , . . . , rk ) y A es la matriz que tiene por t t t t columnas a 1 · · · 1 , a1 · · · an , a21 · · · a2n , . . . , ak1 · · · akn , entonces r = (At A)−1 Atb. Sea Q la matriz ortogonal y R la matriz triangular superior del teorema 4.13 para la factorización QR de la matriz A, entonces, puesto que Q es ortogonal (Q t Q = I) y la matriz R es invertible, se tiene r = ((QR)t QR)−1 (QR)tb = (R t Q t QR)−1 (R t Q t )b = (R t IR)−1 (R t Q t )b = (R t R)−1 (R t Q t )b = R−1 (R t )−1 R t Q tb = R−1 IQ tb = R−1 Q t b y, por tanto, Rr = Q tb; luegor es la única solución del sistema Page (PS/TeX): 65 / 299, COMPOSITE 300 CAPÍTULO 4 Espacios con producto interior y espacios normados Rx = Q tb, el cual se puede resolver (puesto que la matriz R es triangular superior) simplemente haciendo sustitución regresiva. Esto puede representar una ventaja en algunos casos al simplificar los cálculos, pues no se tiene que calcular la inversa de la matriz At A. Ejemplo 4.39 Ajustar, por mı́nimos cuadrados, el conjunto de datos contenido en la siguiente tabla a un polinomio de grado 3. Solución ai −2 −1 0 1 2 bi −3.98 0.90 0 −1.02 3.95 En este caso: ⎡ 1 1 1 1 1 ⎢ ⎢ A=⎢ ⎢ ⎣ −2 −1 0 1 2 ⎤ 4 −8 1 −1 ⎥ ⎥ 0 0 ⎥ ⎥ 1 1 ⎦ 4 8 y primero aplicamos el proceso de ortogonalización a las columnas de A: √ (1, 1, 1, 1, 1) = 5, u1 = √15 (1, 1, 1, 1, 1). w2 = (−2, −1, 0, 1, 2) − ((−2, −1, 0, 1, 2) ·u1 )u1 = (−2, −1, 0, 1, 2), u2 = u2 = 1 w2 w2 1 √ (−2, −1, 0, 1, 2). 10 w3 = (4, 1, 0, 1, 4) − ((4, 1, 0, 1, 4) ·u1 )u1 − ((4, 1, 0, 1, 4) ·u2 )u2 √ = (4, 1, 0, 1, 4) − 2 5u1 − 0u2 = (2, −1, −2, −1, 2) , u3 = u3 = 1 w3 w3 1 √ (2, −1, −2, −1, 2). 14 w4 = (−8, −1, 0, 1, 8) − ((−8, −1, 0, 1, 8) ·u1 )u1 − ((−8, −1, 0, 1, 8) ·u2 )u2 −((−8, −1, 0, 1, 8) ·u3 )u3 √ = (−8, −1, 0, 1, 8) −0 − 17 10u2 −0 5 34 17 17 34 = (−8, −1, 0, 1, 8) − − 5 , − 5 , 0, 5 , 5 12 6 w4 = − 65 , 12 5 , 0, − 5 , 5 , Page (PS/TeX): 66 / 300, COMPOSITE Espacios con producto interior 301 SECCIÓN 4.1 u4 = 1 w4 w4 √ √ 1 √ 1√ 1 u4 = − 10 10, 5 10, 0, − 15 10, 10 10 . ⎡ ⎢ ⎢ ⎢ ⎢ Q=⎢ ⎢ ⎢ ⎢ ⎣ √1 5 √1 5 √1 5 √1 5 √1 5 − √210 − √110 0 √1 10 √2 10 √2 14 − √114 − √214 − √114 √2 14 − √ 10 10 √ 10 5 ⎤ ⎥ ⎥ ⎥ ⎥ 0 ⎥ ⎥. √ ⎥ 10 ⎥ − 5 ⎦ √ 10 10 Y ya que v1 ·u1 = (1, 1, 1, 1, 1) ·u1 √ = 5, v2 ·u1 = (−2, −1, 0, 1, 2) ·u1 = 0, v3 ·u1 = (4, 1, 0, 1, 4) ·u1 √ = 2 5, v4 ·u1 = (−8, −1, 0, 1, 8) ·u1 = 0, v2 ·u2 = (−2, −1, 0, 1, 2) ·u2 √ = 10, v3 ·u2 = (4, 1, 0, 1, 4) ·u2 = 0, v4 ·u2 = (−8, −1, 0, 1, 8) ·u2 √ = 17 10, 5 v3 ·u3 = (4, 1, 0, 1, 4) ·u3 √ = 14, v4 ·u3 = (−8, −1, 0, 1, 8) ·u3 = 0, v4 ·u4 = (−8, −1, 0, 1, 8) ·u4 √ = 65 10; se tiene que ⎡ √ ⎢ ⎢ R=⎢ ⎢ ⎣ Page (PS/TeX): 67 / 301, COMPOSITE 5 √ √ 0 2 5 0 0 √ 14 0 0 0 0 10 0 0 ⎤ √ ⎥ 10 ⎥ ⎥; 0 ⎥ ⎦ √ 6 10 5 17 5 302 CAPÍTULO 4 Espacios con producto interior y espacios normados y puesto que ⎡ Q tb = √ 1 5 5 ⎢ 1√ ⎢ − 5 10 ⎢ √ ⎢ 1 14 ⎣ 7 √ 1 10 − 10 ⎡ √ 1 5 5 √ 1 − 10 10 √ 1 − 14 14 √ 1 5 10 1 5 − 17 ⎤ √ −.0 3 5 √ ⎢ ⎥ ⎢ ⎥ 1. 394 10 ⎢ √ ⎥ =⎢ −3 14 ⎥ ⎣ 4. 2857 × 10 ⎦ √ 1. 177 10 el sistema a resolver es ⎡ √ √ 5 0 2 5 √ ⎢ ⎢ 0 10 0 ⎢ √ ⎢ 0 14 0 ⎣ 0 0 0 √ 0 0 √ 14 0 ⎤⎡ √ ⎥⎢ 10 ⎥ ⎥⎢ ⎢ 0 ⎥ ⎦⎣ √ 6 5 10 17 5 5 r0 r1 r2 r3 √ 1 5 5 √ 1 10 10 √ 1 − 14 14 √ − 15 10 ⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎦ ⎢ ⎣ √ ⎤⎡ √ −.0 3 5 √ 1. 394 10 √ 4. 2857 × 10−3 14 √ 1. 177 10 cuya solución es, al hacer sustitución regresiva: ⎡ ⎤ ⎡ −3. 8571 × 10−2 r0 ⎢ r ⎥ ⎢ −1. 9408 ⎢ 1 ⎥ ⎢ ⎢ ⎥=⎢ ⎣ r2 ⎦ ⎣ 4. 2857 × 10−3 r3 . 98083 ⎤ 1 −3.98 5 5 √ ⎥ ⎢ 0.90 ⎥ 1 ⎥ ⎢ ⎥ 5 10 ⎥ ⎢ ⎥ √ 0.00 ⎥ ⎢ ⎥ 1 7 14 ⎦ ⎣ −1.02 ⎦ √ 1 3.95 10 10 ⎤ ⎥ ⎥ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎥. ⎦ Al redondear a dos cifras decimales, se obtiene el polinomio ajuste de tercer grado p(x) = −0.04 − 1.94x + 0.98x3 . Las gráficas de los datos (ai , bi ) y el polinomio de ajuste p(x) se encuentran bosquejados en la figura 4-17. 4 ajuste datos 3 2 1 0 –1 –2 –3 –4 Figura 4-17 • Page (PS/TeX): 68 / 302, COMPOSITE –2 –1.5 –1 –0.5 0 0.5 1 1.5 2 SECCIÓN 4.2 Espacios vectoriales normados 303 4.2 Espacios vectoriales normados En este capı́tulo hemos visto cómo en un espacio vectorial con producto interior existe una manera natural de precisar la idea de proximidad entre sus vectores por medio de la norma inducida por el producto interior y la distancia que esta norma define. Pero no en todo espacio vectorial se puede definir un producto interior que sea interesante y, sobre todo, útil. Sin embargo, aunque no se cuente con un producto interior en un espacio, la idea de proximidad entre sus elementos se puede llevar a cabo si se generaliza el concepto de norma de un vector; pues, por medio de la norma se puede definir la distancia entre vectores. Para generalizar el concepto de norma (o módulo) en un espacio necesitamos, como hicimos antes en otras generalizaciones (espacio vectorial, producto interior, etc.), abstraer las propiedades más elementales (o esenciales) que tiene la norma en Rn y en los espacios con producto interior. Estas propiedades son precisamente las que establecimos en los teoremas 3.3 y 4.6 (cfr. páginas 127 y 256). 4.2.1 Definiciones y ejemplos A partir de aquı́, ya no supondremos que los espacios vectoriales con los que se trabaje son espacios con producto interior necesariamente. Definición 4.11 (Norma en un espacio vectorial) Sea E un espacio vectorial. Una norma en E es una función, · : E →R, que a cada vector u ∈ E le asigna un número real denotado como u, llamado la norma (o módulo) de este vector, que satisface las siguientes condiciones: 1. u ≥ 0 ∀u ∈ E. 2. u = 0 ⇔ u = 0E . 3. λu = |λ| u ∀λ ∈ R, ∀u ∈ E. 4. u +v ≤ u + v ∀u,v ∈ E (desigualdad triangular). Si en E se ha definido una norma, diremos que E es un espacio vectorial normado. Ejemplo 4.40 Ya vimos en el teorema 4.6 que si E es un espacio vectorial con producto interior ·, ·, entonces u = u,u satisface las cuatro condiciones de la definición precedente; por tanto, la norma inducida por el producto interior es una norma en el espacio E. Ası́, en particular, en los espacios Rn , Mm×n , 2 y C [a, b], ∑ (x1 , x2 , . . . , xn ) = [ai j ] = i=1 xi2 ∑ , 1/2 a2 1≤i≤m i j 1≤ j≤n (xn ) = 1/2 n ∞ = tra ([ai j ]t [ai j ]) , 1/2 ∑ xn2 y n=1 f = Page (PS/TeX): 69 / 303, COMPOSITE a b [ f (x)]2 dx 1/2 son normas en sendos espacios. 304 CAPÍTULO 4 Espacios con producto interior y espacios normados Ejemplo 4.41 (Norma cúbica) Para cada u = (x1 , x2 , . . . , xn ) ∈ Rn si definimos23 u∞ = máx |xi | , 1≤i≤n entonces · ∞ es una norma en Rn , la llamada norma cúbica24 (o norma infinita o norma uniforme). En efecto: 1. Claramente u∞ ≥ 0 ∀u ∈ Rn . 2. Es evidente que 0Rn ∞ = 0. Supongamos que u = (x1 , x2 , . . . , xn ) y u∞ = 0, entonces 0 ≤ |xk | ≤ u∞ = 0 para cada k = 1, 2, . . . , n; por tanto, |xk | = 0 ∀k, y por ende u = 0Rn . 3. Si λ ∈ R y u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces λu∞ = máx |λxi | 1≤i≤n = máx |λ| |xi | 1≤i≤n = |λ| máx |xi | 1≤i≤n = |λ| u∞ . 4. Sean u = (x1 , x2 , . . . , xn ),v = (y1 , y2 , . . . , yn ) ∈ Rn . Sabemos, por las propiedades del valor absoluto (cfr. pág. 127), que si a, b ∈ R, entonces |a + b| ≤ |a| + |b|; por tanto, |xi + yi | ≤ |xi | + |yi | ∀i = 1, 2, . . . , n. Dado que, para cada i = 1, 2, . . . , n, |xi | ≤ u∞ y |yi | ≤ v∞ se tiene |xi + yi | ≤ |xi | + |yi | ≤ u∞ + v∞ ; de donde máx |xi + yi | ≤ u∞ + v∞ . 1≤i≤n Es decir, u +v∞ ≤ u∞ + v∞ . De 1, 2, 3 y 4, · ∞ es una norma en Rn . 1La notación máx |xi | significa el valor máximo del conjunto de números reales {|x1 |, |x2 |, . . . , |xn |}. 23 1≤i≤n 1Más adelante aclararemos la razón del nombre de esta norma (norma cúbica) y de la notación · ∞ . 24 Page (PS/TeX): 70 / 304, COMPOSITE SECCIÓN 4.2 Espacios vectoriales normados 305 Ejemplo 4.42 (Norma · 1 ). Sean u = (x1 , x2 , . . . , xn ) ∈ Rn y u1 = |x1 | + |x2 | + · · · + |xn | . Mostrar que · 1 es una norma en Rn . DEMOSTRACIÓN Q 1. Es claro que u1 = ∑ni=1 |xi | ≥ 0 ∀u = (x1 , x2 , . . . , xn ) ∈ Rn . 2. Es evidente que 0Rn = 0. Supongamos que u = (x1 , x2 , . . . , xn ) y que u1 = 0, entonces, para cada k = 1, 2, . . . , n, n |xk | ≤ ∑ |xi | = u1 = 0; i=1 de donde |xk | = 0 ∀k = 1, 2, . . . , n, por tanto, u = 0Rn . 3. Sean λ ∈ R y u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces λu1 = (λx1 , λx1 , . . . , λxn ) n = ∑ |λxi | i=1 n = ∑ |λ| |xi | i=1 n = |λ| ∑ |xi | i=1 = |λ| u1 . 4. Sean u = (x1 , x2 , . . . , xn ),v = (y1 , y2 , . . . , yn ) ∈ Rn , entonces n u +v1 = ∑ |xi + yi | i=1 n ≤ ∑ (|xi | + |yi |) i=1 n n i=1 i=1 = ∑ |xi | + ∑ |yi | = u1 + v2 . De 1, 2, 3 y 4, · 1 es una norma en Rn . Q Ejemplo 4.43 (Norma · ∞ en Mm×n ). Sea A = [ai j ] ∈ Mm×n , definimos A∞ = máx |ai j | . 1≤i≤m 1≤ j≤m Ası́, por ejemplo −1 2 Page (PS/TeX): 71 / 305, COMPOSITE −5 3 1 −5 = 5. 306 CAPÍTULO 4 Espacios con producto interior y espacios normados De manera análoga al ejemplo 4.41, se puede probar que ·∞ es una norma en Mm×n ; esta demostración se deja de ejercicio al lector. Ejemplo 4.44 (Norma · 1 en Mm×n ). En Mm×n se define, para cada A = [ai j ], A1 = ∑ |ai j | . 1≤i≤m 1≤ j≤n Análogamente al ejemplo 4.42, se puede demostrar que · 1 es una norma en Mm×n (lo cual se deja como ejercicio al lector). P Nota 4.8 Observemos que es posible identificar el espacio de matrices Mm×n con el espacio Rmn ; pues a toda matriz A = [ai j ] ∈ Mm×n se le puede asociar el vector A = (a11 , a12 , . . . , a1n , a21 , a22 , . . . , a2n , . . . , am1 , am2 , . . . , amn ) . Luego, A∞ = A∞ y A1 = A1 . Por esta identificación, las demostraciones de los dos ejemplos anteriores deben ser evidentes para el lector; y, por esta razón, hemos empleado las mismas notaciones, · ∞ y · 1 , para las normas en Rn y en Mm×n . Ejemplo 4.45 1. (−1, 5, −7)∞ = máx{| − 1|, |5|, |7|} = 7. 2. (−1, 5, −7)1 = |−1| + |5| + |−7| = 13. −1 2 4 = máx{| − 1|, |2|, |4|, |1|, | − 5|, |7|} = 7. 3. 1 −5 7 ∞ −1 2 4 = |−1| + |2| + |4| + |1| + |−5| + |7| = 20. 4. 1 −5 7 1 Ejemplo 4.46 (Norma · 1 en C[a, b]). Definimos · 1 : C [a, b] → R como f 1 = a b | f (x)|dx para cada f ∈ C [a, b]. Mostrar que f es una norma en C [a, b] . DEMOSTRACIÓN Q 1. Dado que la integral de una función no negativa es un número no negativo, se tiene que f 1 ≥ 0 ∀ f ∈ C [a, b]. 2. b a 0·dx = 0, por tanto, θ1 = 0 (recordemos que hemos denotado por θ la función constante cero). Supongamos que f 1 = 0 y que f = θ, entonces existe un punto x0 ∈ [a, b], tal que f (x0 ) = 0. Por Page (PS/TeX): 72 / 306, COMPOSITE Espacios vectoriales normados 307 SECCIÓN 4.2 tanto, | f (x0 )| > 0. Por continuidad de | f | existe un intervalo J, de una de estas tres formas: [a, δ], [x0 − δ, x0 + δ] o [δ, b], contenido en [a, b] tal que | f (x)| > 0 ∀x ∈ J. Luego,25 J | f (x)| dx > 0. Pero, también J | f (x)| dx ≤ b a | f (x)|dx = 0 ; de donde J Entonces J | f (x)| dx > 0 y J | f (x)| dx = 0. | f (x)| dx = 0; lo cual es una contradicción. Por tanto, el suponer que f no es la función constante cero, aunque f 1 = 0, nos lleva a una conclusión absurda.26 Ası́, f tiene que ser necesariamente la función constante cero en [a, b]. 3. Si f ∈ C [a, b] y λ ∈ R, entonces λ f 1 = = b a b a = |λ| |λ f (x)| dx |λ| | f (x)| dx b a | f (x)| dx = |λ| f 1 . 4. Si f , g ∈ C [a, b], entonces f + g1 = ≤ = b a b a a b | f (x) + g(x)| dx (| f (x)| + |g(x)|) dx | f (x)| dx + b a |g(x)| dx = f 1 + g1 . De 1, 2, 3 y 4 · 1 es una norma en C [a, b]. Q En la figura 4-18 ilustramos la interpretación geométrica de la norma f 1 en C[a, b]. 1Hemos utilizado la notación 25 J | f (x)| dx para cualquiera de las integrales a δ | f (x)| dx, x0 +δ x0 −δ | f (x)| dx o b δ | f (x)| dx, según se dé el caso. 1Si el lector no se siente cómodo con esta demostración, puede intentar utilizar el teorema fundamental del cálculo de manera análoga a como lo hicimos en el ejemplo 4.3 de la página 237. 26 Page (PS/TeX): 73 / 307, COMPOSITE 308 CAPÍTULO 4 Espacios con producto interior y espacios normados |f| f f 1 a a b b (i) (ii) Figura 4-18 • (i) Gráfica de una función f en C[a, b]. (ii) Gráfica de la función | f | y del área bajo esta curva en el intervalo [a, b]; f 1 es el valor de esta área. Ejemplo 4.47 (Norma uniforme · ∞ en C[a, b]). Si f ∈ C[a, b] definimos f ∞ = máx | f (x)| , a≤x≤b entonces · ∞ es una norma en C[a, b]. A ésta se le llama la norma uniforme27 en el espacio de funciones continuas en el intervalo [a, b]. En efecto: 1. f ∞ = máxa≤x≤b | f (x)| ≥ 0 ∀x ∈ [a, b]. 2. Claramente θ = 0. Puesto que | f (x)| ≤ f ∞ ∀x ∈ [a, b], se sigue que f ∞ = 0 ⇒ | f (x)| ≤ f ∞ = 0 ⇒ | f (x)| = 0 ⇒ f (x) = 0 ∀x ∈ [a, b] ∀x ∈ [a, b] ∀x ∈ [a, b] ⇒ f = θ. 3. Si f ∈ C[a, b] y λ ∈ R, entonces λ f ∞ = máx |λ f (x)| a≤x≤b = |λ| máx | f (x)| a≤x≤b = |λ| f ∞ . 4. Si f , g ∈ C[a, b], entonces para todo x ∈ [a, b]. | f (x) + g(x)| ≤ | f (x)| + |g(x)| ≤ f ∞ + g∞ . 1También se le dice norma cúbica o norma infinito. Hemos utilizado nuevamente la notación · ∞ por su analogı́a con esta norma en Rn . La notación máxa≤x≤b | f (x)| significa el máximo de los valores | f (x)| en el intervalo [a, b]; la existencia de este valor está garantizada debido a la continuidad de la función en el intervalo cerrado [a, b]. 27 Page (PS/TeX): 74 / 308, COMPOSITE Espacios vectoriales normados 309 SECCIÓN 4.2 De donde, f + g∞ ≤ f ∞ + g∞ Por 1, 2, 3 y 4 ·∞ es una norma en C[a, b]. f a b (i) |f| f ∞ a b (ii) Figura 4-19 • (i) Gráfica de una función f en C[a, b]. (ii) Gráfica de la función | f |; la norma f ∞ es el máximo valor que toma esta función en el intervalo [a, b]. En la figura 4-19, se ilustra el significado geométrico de la norma uniforme en C[a, b]. 4.2.2 Distancia en espacios vectoriales normados Definición 4.12 Si · es una norma en un espacio vectorial E y u,v ∈ E, se denota y define la distancia entre este par de vectores (distancia relativa a la norma · ) como d(u, v) = u −v . Ejemplo 4.48 1. En R4 con la norma cúbica, d ((−1, 2, 0, 1), (2, 0, 1, 1)) = (−1, 2, 0, 1) − (2, 0, 1, 1)∞ = (−3, 2, −1, 0)∞ = 3. Page (PS/TeX): 75 / 309, COMPOSITE 310 CAPÍTULO 4 Espacios con producto interior y espacios normados 2. En R4 con la norma · 1 d ((−1, 2, 0, 1), (2, 0, 1, 1)) = (−1, 2, 0, 1) − (2, 0, 1, 1)1 = (−3, 2, −1, 0)1 = 6. 3. En M2×2 con la norma · ∞ , 1 −1 0 1 d , = 3 2 1 1 = 1 2 0 1 − 1 1 ∞ −2 1 ∞ 1 3 −1 2 1 3 −1 2 = 2. 4. En M2×2 con la norma · 1 , 1 −1 0 1 d , = 3 2 1 1 = − −2 1 1 1 2 0 1 1 1 1 = 6. Ejemplo 4.49 En C [0, 2] con la norma f 1 = 2 0 | f (x)| dx, si f (x) = x2 y f (x) = x, entonces d ( f , g) = f − g1 = = 2 2 0 | f (x) − g(x)| dx 2 x2 − x dx . 0 2 Puesto que x ≤ x en [0, 1] y x ≥ x en [1, 2], tenemos ' x − x2 | f (x) − g(x)| = x2 − x si 0 ≤ x ≤ 1, si 1 ≤ x ≤ 2; como se ilustra en la figura 4-20. Entonces, 1 2 x2 − x dx = x − x2 dx + x2 − x dx 2 0 0 1 = 1. Luego, d( f , g) = 1. De manera análoga a la norma inducida por el producto interior f , g = interpretación geométrica de f − g1 = Page (PS/TeX): 76 / 310, COMPOSITE a b | f (x) − g(x)| dx a b f (x)g(x)dx en [a, b], la SECCIÓN 4.2 Espacios vectoriales normados 311 4 3.5 y = x2 y=x 3 y = |x2 − x| 2.5 2 1.5 1 0.5 x2 − x1 0 0 0.5 1.5 1 2 2 2 Figura 4-20 • Gráficas de las funciones y = x ; y = x; y = |x − x|; y el área bajo esta última curva en el intervalo [0, 2], x2 − x1 . es el valor del área bajo la gráfica de la función y = | f (x) − g(x)| en el intervalo [a, b]; como ilustramos en la figura 4-20 para el caso particular de f (x) = x2 y g(x) = x. P Nota 4.9 De aquı́ en adelante, aunque no se mencione explı́citamente, supondremos que E es un espacio normado con norma · . Los casos concretos, ya sea para espacios o normas, los haremos patentes especı́ficamente. Bolas y esferas en espacios normados Definición 4.13 Si u0 es un vector del espacio normado E y r > 0, a los conjuntos 1. S(u0 , r) = {v ∈ E | u0 −v = r} , 2. B(u0 , r) = {v ∈ E | u0 −v < r} , 3. B[u0 , r] = {v ∈ E | u0 −v ≤ r} , se les llama esfera, bola abierta y bola cerrada, respectivamente, de centro u0 y radio r. Ejemplo 4.50 En R3 , (x, y, z) − (0, 0, 0) = x2 + y2 + z2 ; luego, , + S(0R3 , r) = (x, y, z) | x2 + y2 + z2 = r2 Es decir, la esfera de centro 0R3 y radio r ilustrada en la figura 4-21. Figura 4-21 • Esfera S(0R3 , r) respecto a la norma (x, y, z) = Page (PS/TeX): 77 / 311, COMPOSITE x2 + y2 + z2 . 312 CAPÍTULO 4 Espacios con producto interior y espacios normados r u0 u0 0 ||u r u0 (a) v|| − v (b) (c) Figura 4-22 • Bolas y esferas en R respecto a la norma (x, y) = x2 + y2 : (a) Esfera de centro u0 y radio r; consta de los puntos de la circunferencia de centro u0 y radio r. (b) Bola cerrada de centro u0 y radio r; se compone de todos los puntos de la circunferencia de centro u0 y radio r, y los puntos que ésta encierra. (c) Bola abierta de centro u0 y radio r; está formada por todos los puntos dentro de la circunferencia de centro u0 y radio r; i.e., los vectores cuya distancia a u0 es inferior a r. 2 Por generalización, al conjunto del inciso 1 de la definición 4.13 también se le dice esfera. Notemos que el conjunto B(0R3 , r) está formado por todos los puntos dentro de la esfera S(0R3 , r); mientras que B[0R3 , r] contiene a todos los puntos sobre y dentro de la esfera S(0R3 , r). Por analogı́a a estos conjuntos, es que a B[u0 , r] y a B(u0 , r) se les llama bola cerrada y bola abierta (de centro u0 y radio r), respectivamente, en cualquier espacio normado. Finalmente, notemos que, en cualquier espacio normado, B(u0 , r) consiste de los vectores v cuya distancia a u0 es menor que r; mientras que B[u0 , r] está formado por todos los vectores cuya distancia a u0 es inferior o igual a r y S(u0 , r) consta de los vectores cuya distancia a u0 es exactamente r. En la figura 4-22 hemos bosquejado la esfera, la bola abierta y la bola cerrada de centro u0 y radio r en R2 para la norma usual (x, y) = x2 + y2 . Ejemplo 4.51 Bosquejar B[0R2 , 1] = {(x, y) | (x, y)∞ ≤ 1} y B[0R2 , 1] = {(x, y) | (x, y)1 ≤ 1} . Solución 1. Si (x, y) pertenece al primer cuadrante, entonces |x| = x y |y| = y, luego 0 ≤ x ≤ (x, y)∞ ≤ 1 y 0 ≤ y ≤ (x, y)∞ ≤ 1 por tanto, 0 ≤ x ≤1 0 ≤ ≤ 1. y y Si (x, y) pertenece al segundo cuadrante, entonces |x| = −x y |y| = y, ası́ que 0 ≤ −x = |x| ≤ (x, y)∞ ≤ 1 y 0 ≤ = |y| ≤ (x, y)∞ ≤ 1 −1 ≤ x ≤ 0 y 0 ≤ y ≤ 1. y por tanto, Page (PS/TeX): 78 / 312, COMPOSITE Espacios vectoriales normados 313 SECCIÓN 4.2 Si (x, y) pertenece al tercer cuadrante, entonces |x| = −x y |y| = −y, ası́ que 0 ≤ −x = |x| ≤ (x, y)∞ ≤ 1 y 0 ≤ −y = |y| ≤ (x, y)∞ ≤ 1 −1 ≤ x ≤ 0 y −1 ≤ y ≤ 0. por tanto, Si (x, y) pertenece al cuarto cuadrante, entonces |x| = x y |y| = −y, ası́ que 0 ≤ 0 ≤ −y x = |x| ≤ (x, y)∞ ≤ 1 = |y| ≤ (x, y)∞ ≤ 1 0 ≤ x ≤ 1 y −1 ≤ y ≤ 0. y por lo cual Entonces B[0R2 , 1] (relativa a la norma cúbica) es el cuadrado con centro en el origen y arista 2 mostrado en la figura 4-23(a). 2. Si (x, y) pertenece al primer cuadrante, entonces |x| = x y |y| = y, entonces x + y = |x| + |y| = (x, y)1 ≤ 1; por tanto, y ≤ 1 − x. Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma · 1 ) son los puntos sobre y por debajo de la lı́nea recta y = 1 − x. Si (x, y) pertenece al segundo cuadrante, entonces |x| = −x y |y| = y, entonces −x + y = |x| + |y| = (x, y)1 ≤ 1 por tanto, y ≤ 1 + x. Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma · 1 ) son los puntos sobre y por debajo de la lı́nea recta y = 1 + x. Si (x, y) pertenece al tercer cuadrante, entonces |x| = −x y |y| = −y, luego −x − y = |x| + |y| = (x, y)1 ≤ 1 por tanto, y ≥ −1 − x. Page (PS/TeX): 79 / 313, COMPOSITE 314 CAPÍTULO 4 Espacios con producto interior y espacios normados Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma · 1 ) son los que están sobre y por encima de la lı́nea recta y = −1 − x. Si (x, y) pertenece al cuarto cuadrante, entonces |x| = x y |y| = −y, ası́ x − y = |x| + |y| = (x, y)1 ≤ 1 por tanto, y ≥ −1 + x. Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma · 1 ) son los puntos sobre y por encima de la lı́nea recta y = −1 + x. Entonces, B[0R2 , 1] (relativa a la · 1 ) es el conjunto de puntos sobre las lı́neas rectas y = 1 − x, y = 1 + x, y = −1 − x y y = −1 + x; y los puntos dentro del rombo con centro en el origen y lados estas rectas, ilustrado en la figura 4-23(b). (a) (b) Figura 4-23 (a) B[0R2 , 1], respecto a la norma · ∞ , consta de los puntos sobre y dentro del cuadrilátero de centro el origen y arista 2. (b) B[0R2 , 1], respecto a la norma · 1 , consiste en los puntos sobre las lı́neas rectas y = 1 − x, y = 1 + x, y = −1 − x y y = −1 + x y dentro del rombo con centro el origen y lados estas lı́neas rectas. • u0 Figura 4-24 • En R3 la bola cerrada de centro u0 y radio r, respecto a la norma · ∞ , es el cubo con centro en este punto y arista 2r; i.e., los puntos sobre sus seis caras y dentro de la región que éstas encierran. Page (PS/TeX): 80 / 314, COMPOSITE SECCIÓN 4.2 S||·||1 (0, 1) Espacios vectoriales normados 315 S||·||∞ (0, 1) S||·|| (0, 1) Figura 4-25 • Esferas en R2 de centro (0, 0) y radio 1 relativas a las normas cúbica (cuadrado con centro el origen), la norma canónica (x, y) = x2 + y2 (circunferencia con centro en el origen) y la norma · 1 (paralelogramo con centro en el origen). Es fácil ver, razonando de manera similar al inciso 1 de la solución del ejemplo precedente, que en R geométricamente el conjunto B[u0 , r], respecto a la norma · ∞ , es el cubo de centro u0 arista 2r, ilustrado en la figura 4-24. Por esta razón, a la norma · ∞ se le acostumbra llamar norma cúbica. También hemos bosquejado en la figura 4-25 las esferas S[0R2 , 1] para las normas (x, y) = x2 + y2 , (x, y)∞ y (x, y)1 en R2 para que el lector pueda compararlas geométricamente. 3 P Nota 4.10 1. En los espacios Rn llamaremos a la norma inducida por el producto punto norma canónica (euclidiana, estándar o natural) y la representaremos siempre por el sı́mbolo · , sin subı́ndices ni supraı́ndices. 2. En cualquier espacio con producto interior representaremos la norma inducida por este producto con el sı́mbolo · y, a menos que se diga lo contrario, si no se especifica la norma en este espacio, supondremos que es la norma inducida por el producto interior. 3. Es costumbre llamar a los espacios con producto interior espacios euclideanos, debido a su origen intuitivo en los espacios geométricos R2 y R3 ; cuyo estudio sistemático fue llevado a cabo por Euclides, el célebre matemático griego. Por ende, a la norma canónica en Rn también se le dice norma euclidiana; pues además su definición está inspirada en el teorema de Pitágoras conocido en geometrı́a elemental. 4. Como es natural a las esferas y a las bolas en R2 se les dice, respectivamente, circunferencias y discos. Ejemplo 4.52 (Bola abierta en C[a, b] respecto a · ∞ ). Si f0 ∈ C [a, b], bosquejar B( f0 , r) respecto a la norma · ∞ . Solución Si g ∈ B( f0 , r), f0 − g∞ < r Entonces, ∀x ∈ [a, b] |g(x) − f0 (x)| ≤ f0 − g∞ < r Page (PS/TeX): 81 / 315, COMPOSITE (4.34) 316 CAPÍTULO 4 Espacios con producto interior y espacios normados r f0̂ + r r f0̂ f0̂ − r a b Figura 4-26 • B( f0 , r) en C[a, b], respecto a f ∞ , consta de todas las funciones g ∈ C[a, b] cuyas gráficas están contenidas entre las funciones f0 − r y f0 + r, pero que no intersecan a estas funciones. y, por tanto, −r < g(x) − f0 (x) < r ∀x ∈ [a, b] ; lo cual implica f0 (x) − r < g(x) < f0 (x) + r ∀x ∈ [a, b] (4.35) Inversamente, si se cumple (4.35), se deduce (4.34). Luego B( f0 , r) se compone de todas las funciones continuas en C[a, b], cuya gráfica está contenida entre las gráficas de las funciones f0 − r y f0 + r; pero que no se intersecan en punto alguno de estas dos gráficas; es decir, las funciones contenidas en la “franja abierta” acotada por las gráficas de las funciones f0 − r y f0 + r, mostrada en la figura 4-26. Las bolas, de centro un vector u0 , son como los intervalos en los números reales; sirven para establecer con precisión el significado de proximidad. Si un intervalo abierto y acotado tiene centro x0 , entonces es de la forma (x0 − r, x0 + r) para algún número real r > 0; y si x ∈ (x0 − r, x0 + r), |x − x0 | < r. Ası́, la diferencia entre cualquier punto de este intervalo y el centro del mismo, x0 , es inferior a r y este número es el que define el grado de proximidad para puntos respecto a x0 . Por ejemplo, si r = 10−6 , entonces la diferencia entre x0 y cualquier punto del intervalo (x0 − r, x0 + r) es inferior a 0.000001. Dependiendo del valor de r es el grado de proximidad a x0 y ese grado de proximidad es relativo y convencional. Lo mismo sucede con las bolas abiertas en espacios normados, pues en estos casos se utiliza simplemente u0 −u en lugar del valor absoluto. Observe que si g ∈ B( f0 , r) en la figura 4-26 y r es pequeño, dado que | f0 (x) − g(x)| ≤ f0 − g∞ < r, entonces g(x) es muy cercano a f0 (x), para cada x ∈ [a, b]; y, por tanto, la gráfica de la función g es muy próxima a la gráfica de la función f0 ; por esta razón, la norma uniforme es una herramienta muy útil para medir proximidad en el espacio de funciones continuas. P Nota 4.11 Hemos utilizado los sı́mbolos u∞ y f ∞ en los espacios Rn y C[a, b]. Cuando se haga uso de este sı́mbolo en Rn , siempre utilizaremos el término norma cúbica; mientras que cuando se emplee en C[a, b] diremos que se trata de la norma uniforme (o de algunos sinónimos que veremos más adelante). El contexto en cada caso será suficientemente claro para evitar cualquier confusión. Page (PS/TeX): 82 / 316, COMPOSITE SECCIÓN 4.2 Espacios vectoriales normados 317 4.2.3 Normas que provienen de productos interiores Sabemos que todo producto interior ·, · en un espacio vectorial induce una norma en éste, a saber u = u,u. Supongamos que en el espacio E se tiene dada una norma · , surgen naturalmente las siguientes dos cuestiones: 1. ¿Esta norma proviene de un producto interior en E? Es decir, ¿existe un producto interior ·, · en E cuya norma inducida es precisamente la norma dada · ? 2. ¿Bajo qué condiciones se puede definir un producto interior en el espacio E por medio de esa norma, de tal suerte que coincida con la norma inducida por ese producto interior? Por fortuna, estos dos interrogantes tienen una respuesta completa; para dar ésta haremos uso nuevamente del origen geométrico que tienen el producto interior y la norma. Identidad del paralelogramo θ1 ||u − ||u || β θ v|| ||u || Consideremos el paralelogramo ilustrado en (i), (ii) y (iii) de la figura 4-27: v|| ||u + β θ ||v|| (i) ||v|| (ii) (iii) Figura 4-27 • • De (i) de esta figura se desprende que θ = θ1 por ser ángulos correspondientes y, por tanto, β = 180 − θ . • De (ii) y la ley de cosenos, tenemos u −v2 = u2 + v2 − 2 u v cos θ (4.36) • De (iii) y la ley de cosenos, se desprende u +v2 = u2 + v2 − 2 u v cos β = u2 + v2 − 2 u v cos (180 − θ) = u2 + v2 − 2 u v (− cos (θ)) u +v2 = u2 + v2 + 2 u v cos (θ) ∴ (4.37) • Tenemos entonces de (4.36) y (4.37) u +v2 + u −v2 = 2 u2 + v2 Page (PS/TeX): 83 / 317, COMPOSITE (4.38) 318 CAPÍTULO 4 Espacios con producto interior y espacios normados La igualdad (4.38) se llama identidad del paralelogramo y es un hecho conocido de geometrı́a elemental: en todo paralelogramo la suma de los cuadrados de las longitudes de sus diagonales es igual a la suma de los cuadrados de las longitudes de los lados del paralelogramo. Ahora supongamos que tenemos un espacio vectorial E con producto interior ·, ·. Sean u,v un par de vectores en este espacio, entonces u +v2 = u +v,u +v = u,u + u,v + v,u + v,v 2 2 u +v = u + 2 u,v + v ∴ 2 (4.39) y u −v2 = u −v,u −v = u,u − u,v − v,u + v,v 2 2 u −v = u − 2 u,v + v 2 ∴ (4.40) Al sumar lado a lado las igualdades (4.39) y (4.40) se obtiene la identidad del paralelogramo en espacios con producto interior: u +v2 + u −v2 = 2 u2 + v2 Hemos probado ası́ el siguiente teorema. Teorema 4.16 (Identidad del paralelogramo) Sea E un espacio con producto interior ·, · y norma inducida · . Entonces, ∀u,v ∈ E, se cumple u +v2 + u −v2 = 2 u2 + v2 (4.41) Por otra parte, si E es un espacio normado con norma · que proviene de un producto interior, entonces la norma dada y la inducida por este producto deben coincidir y, por tanto, · tiene que satisfacer la identidad del paralelogramo (4.41) del teorema 4.16. Es decir, para que una norma provenga de un producto interior es necesario que satisfaga la identidad del paralelogramo. Resumimos este resultado en el siguiente teorema. Teorema 4.17 Sea E un espacio normado con norma · . Para que · provenga de un producto interior, es necesario que esta norma cumpla con la identidad del paralelogramo (4.41). Ası́, para probar que una norma no proviene de algún producto interior basta probar, con un contraejemplo, que no cumple con la identidad del paralelogramo. Ejemplo 4.53 Determinar si la norma cúbica, · ∞ , proviene de un producto interior en Rn . Page (PS/TeX): 84 / 318, COMPOSITE SECCIÓN 4.2 Solución Espacios vectoriales normados 319 Sean u = (1, 2, 0, . . . , 0),v = (2, −3, 0, . . . , 0) ∈ Rn . Por un lado u +v2∞ + u −v2∞ = (3, −1, 0 . . . , 0)2∞ + (−1, 5, 0 . . . , 0)2∞ = 9 + 25 = 34 y, por otro, 2 u2∞ + v2∞ = 2 (1, 2, 0, . . . , 0)2∞ + (2, −3, 0, . . . , 0)2∞ = 2 (4 + 9) = 26. De donde se desprende que la norma cúbica no cumple con la identidad del paralelogramo (4.41), por lo que no proviene de un producto interior. P Nota 4.12 El lector debe reflexionar con cuidado el significado del hecho mostrado en el ejemplo anterior: no existe producto interior en Rn cuya norma inducida sea la norma cúbica. Supongamos nuevamente que tenemos un espacio con producto interior ·, · y norma inducida por este producto · , entonces, al restar miembro a miembro las igualdades (4.39) y (4.40) se obtiene u +v2 − u −v2 = 4 u,v ; de donde, u,v = ! 1 u +v2 − u −v2 . 4 Con lo que hemos probado el siguiente teorema. Teorema 4.18 (Identidad de polarización) Sea E un espacio con producto interior ·, · y norma inducida · . Entonces, ∀u,v ∈ E se cumple la siguiente igualdad u,v = ! 1 u +v2 − u −v2 4 (4.42) llamada identidad de polarización. Ası́, para que una norma · provenga de un producto interior ·, ·, necesita primero satisfacer la identidad del paralelogramo (4.41); y en caso de que ası́ sea, el producto interior de donde proviene debe cumplir con la identidad de polarización (4.42). Entonces, conjeturamos que si una norma satisface la identidad del paralelogramo, el producto interior definido por (4.42) es, efectivamente, un producto escalar cuya norma inducida es precisamente esta norma. En el siguiente teorema probamos esta conjetura. Page (PS/TeX): 85 / 319, COMPOSITE 320 CAPÍTULO 4 Espacios con producto interior y espacios normados Teorema 4.19 Sea E un espacio normado con norma · que satisface la identidad del paralelogramo (4.41). Si se define, para cada u,v ∈ E, u,v = ! 1 u +v2 − u −v2 , 4 entonces ·, · es un producto interior cuya norma inducida es precisamente · . DEMOSTRACIÓN Q 1. Sea u ∈ E, entonces ! 1 u +u2 − 0E 2 4 1 = 2u2 4 4 = u2 4 = u2 ≥ 0 u,u = y, por tanto, u,u = 0 ⇔ u = 0E . Puesto que u,u = u , siendo · la norma dada del espacio, se sigue que, de ser ·, · un producto interior, la norma inducida coincide con la norma dada en el espacio; es decir, · proviene de este producto interior. 2. Si u,v ∈ E, ! 1 u +v2 − u −v2 4 ! 1 v +u2 − v −u2 = 4 = v,u . u,v = 3. Sean u,v ∈ E, entonces u,v = ! 1 u +v2 − u −v2 . 4 Por la identidad del paralelogramo (4.41) (recuerde que la norma de este espacio la cumple por hipótesis) u +v2 = 2 u2 + 2 v2 − u −v2 . Y, por tanto, u,v = Page (PS/TeX): 86 / 320, COMPOSITE ! 1 2 u2 + 2 v2 − u −v2 − u −v2 4 SECCIÓN 4.2 Espacios vectoriales normados 321 esto es, u,v = ! 1 u2 + v2 − u −v2 2 Sean ahora u,v,w ∈ E tres vectores arbitrarios. Entonces, por (4.43), u,v = ! 1 u2 + v2 − u −v2 2 y u,w = ! 1 u2 + w2 − u − w2 . 2 Donde u,v + u,w = ! 1 u2 + v2 − u −v2 + u2 + w2 − u − w2 . 2 Por otra parte, u,v + w = ! 1 u +v + w2 − u −v − w2 . 4 Por la identidad del paralelogramo u +v + w2 = (u +v) + w2 = 2 u +v2 + 2 w2 − u +v − w2 = 2 2 u2 + 2 v2 − u −v2 + 2 w2 − u +v − w2 y u −v − w2 = (u − w) −v2 = 2 u − w2 + 2 v2 − (u − w) +v2 . Por tanto, u,v + w = 1 2 2 u2 + 2 v2 − u −v2 + 2 w2 4 = − u +v − w2 − 2 u − w2 − 2 v2 ! = + (u − w) +v2 ! 1 4 u2 + 2 v2 − 2 u −v2 + 2 w2 − 2 u − w2 4 1 2 u2 + 2 v2 − 2 u −v2 + 2 u2 + 2 w2 = 4 ! = −2 u − w2 ! 1 u2 + v2 − u −v2 + u2 + w2 − u − w2 = 2 = Page (PS/TeX): 87 / 321, COMPOSITE (4.43) 322 CAPÍTULO 4 Espacios con producto interior y espacios normados Esto es, u,v + w = u,v + u,w (4.44) 4. Sean u,v ∈ E un par de vectores fijos pero arbitrarios. Mostraremos por inducción28 que para todo entero no negativo m se cumple u, mv = m u,v (4.45) Para m = 1, u,v = 1 u,v . Sea k > 1 un entero y supongamos que: u, kv = k u,v (4.46) Entonces, u, (k + 1)v = u, kv +v y por (4.44) y la hipótesis de inducción (4.46) u, (k + 1)v = u, kv +v = u, kv + u,v = k u,v + u,v = (k + 1) u,v . Por inducción se sigue que (4.45) es válida para todo entero no negativo m. Por otra parte, ! 1 u −v2 − u +v2 u, −v = 4 ! 1 = − u +v2 − u −v2 4 = − u,v Por tanto, u, mv = m u,v para todo entero m. Sea ahora λ = 0 un número real. Entonces, por (4.43), ! 1 λu2 + v2 − λu −v2 λu,v = 2 ! 1 2 λ u2 + λ2 (1/λ)v2 − λ2 u − (1/λ)v2 = 2 ! 1 = λ2 u2 + (1/λ)v2 − u − (1/λ)v2 2 2 = λ u, (1/λ)v . 1En el apéndice A se puede consultar un breve estudio del principio de inducción, herramienta fundamental para demostraciones que involucran a los números enteros. 28 Page (PS/TeX): 88 / 322, COMPOSITE SECCIÓN 4.2 Espacios vectoriales normados 323 Sea q = 0 un entero, entonces 1 1 u,v = 2 u, qv q q q = 2 u,v q 1 = u,v . q En sı́ntesis, hemos probado que u, mv = m u,v para todo entero m, 1 1 u,v = u,v q q para todo entero q = 0; y por simetrı́a se tiene también mu,v = m u,v , 1 1 u, v = u,v . q q Sean ahora p, q un par de enteros con q = 0. Entonces, p 1 u,v = p u ,v q q 1 = p u,v q p = u,v . q Sea la función f : R → R definida por f (λ) = λu . Entonces, por la desigualdad triangular, | f (λ1 ) − f (λ2 )| = |λ1u − λ2u| ≤ λ1u − λ2u = |λ1 − λ2 | u ; de donde f es una función continua en R y, por tanto, la función ϕ(λ) = ! 1 λu2 + v2 − λu − v2 2 también es continua en R. Sea λ ∈ R un número real cualquiera fijo; sea pn una sucesión de números racionales pn = an /bn que converge a λ; esto es, lı́m pn = λ. n→∞ Page (PS/TeX): 89 / 323, COMPOSITE 324 CAPÍTULO 4 Espacios con producto interior y espacios normados Por la continuidad de29 ϕ, lı́m ϕ (pn ) = ϕ(λ); n→∞ es decir, λu,v = ϕ(λ) = lı́m ϕ (pn ) n→∞ ! 1 pnu2 + v2 − pnu − v2 n→∞ 2 = lı́m pnu,v = lı́m n→∞ = lı́m pn u,v n→∞ = λ u,v . Por ende, λu,v = λ u,v para todo λ ∈ R y ∀u,v ∈ E. De 1, 2, 3 y 4 ·, · es un producto interior y la norma inducida por éste coincide con la norma del espacio, lo cual demuestra el teorema. Q P Nota 4.13 Observe que con el resultado precedente se prueba que una condición necesaria y también suficiente para que una norma en un espacio vectorial provenga de un producto interior, es que cumpla con la identidad del paralelogramo (4.41). En tal caso, el producto de donde proviene está definido por la identidad de polarización (4.42). 4.2.4 Normas equivalentes El concepto de proximidad es relativo a la norma con la que se mide la distancia entre los vectores. No es lo 1/2 b 2 ( f (x) − g(x)) dx mismo que dos funciones f , g ∈ C[a, b] estén próximas con la norma f − g = a que con la norma uniforme f (x) − g(x)∞ . Sin embargo, existen pares de normas para las que dos vectores son próximos respecto a una de ellas si y sólo si son próximos respecto a la otra norma. A este tipo de normas se les dice equivalentes y nos abocamos a su estudio en este apartado. Definición 4.14 Sean E un espacio vectorial y · , · un par de normas en E. Diremos que la primera norma es equivalente a la segunda si existen α, β ∈ R positivos tales que α u ≤ u ≤ β u ∀u ∈ E. En tal caso escribiremos u ∼ u . 1La continuidad de g en λ ∈ R equivale a lı́m | f (xn ) − λ| = 0 para toda sucesión (xn ) tal que lı́m |xn − λ| = 0. 29 n→∞ Page (PS/TeX): 90 / 324, COMPOSITE n→∞ SECCIÓN 4.2 Espacios vectoriales normados 325 1/2 Ejemplo 4.54 En Rn la norma canónica (x1 , x2 , . . . , xn ) = ∑nk=1 xk2 es equivalente a la norma cúbica (x1 , x2 , . . . , xn )∞ = máx1≤k≤n |xk |. En efecto, si u = (x1 , x2 , . . . , xn ), entonces, puesto que |xk | ≤ u∞ ∀u ∈ E, se tiene 1/2 n ∑ u = k=1 n ∑ ≤ k=1 = √ xk2 1/2 u2∞ n u∞ . Por otra parte, dado que u2∞ ≤ ∑nk=1 |xk |2 , u∞ ≤ n ∑ k=1 1/2 u2∞ . Por tanto, u∞ ≤ u ≤ √ n u∞ ∀u ∈ E. Luego, u ∼ u∞ . El siguiente teorema es sencillo de probar y su demostración se deja de ejercicio al lector. Teorema 4.20 Sea E un espacio vectorial y · , · , · normas en este espacio. Entonces: 1. · ∼ · (Reflexividad). 2. · ∼ · ⇒ · ∼ · (Simetrı́a). 3. · ∼ · y · ∼ · ⇒ · ∼ · (Transitividad). Ası́, del teorema anterior, si una norma es equivalente a una segunda, por simetrı́a ésta será equivalente a la primera. Por esta razón, de aquı́ en adelante, diremos que dos normas son equivalentes si satisfacen la definición 4.14. Sean ahora · , · un par de normas equivalentes en el espacio E, u0 ∈ E y B(u0 , r1 ) y B (u0 , r1 ) bolas abiertas respecto a sendas normas. Sean α, β números positivos tales α u ≤ u ≤ β u ∀u ∈ E. 1. Sea r = r1 /β, entonces v ∈ B (u0 , r) ⇒ u0 −v < r ⇒ u0 −v ≤ β u0 −v < βr = β ⇒ v ∈ B(u0 , r1 ) ⇒ B (u0 , r) ⊂ B(u0 , r1 ). Page (PS/TeX): 91 / 325, COMPOSITE r1 = r1 β 326 CAPÍTULO 4 Espacios con producto interior y espacios normados 2. Sea r = αr2 , entonces v ∈ B(u0 , r ) ⇒ u0 −v < r 1 1 1 u0 −v < r = αr2 = r2 α α α ⇒ v ∈ B (u0 , r2 ) ⇒ u0 −v ≤ ⇒ B(u0 , r ) ⊂ B (u0 , r2 ). Con lo cual, hemos probado el siguiente teorema que justifica la discusión dada al inicio de esta subsección respecto a la proximidad entre vectores relativa a distintas normas. Teorema 4.21 Sea E un espacio vectorial y · , · un par de normas equivalentes en este espacio. Entonces: 1. Toda bola B(u0 , r1 ) relativa a la norma · contiene una bola B (u0 , r) relativa a la norma · . 2. Toda bola B (u0 , r2 ) relativa a la norma · contiene una bola B(u0 , r) relativa a la norma · . La figura 4-28 ilustra este teorema en el caso de las normas equivalentes del ejemplo 4.54 para n = 2. u0 Figura 4-28 • Toda bola relativa a la norma canónica contiene una bola del mismo centro relativa a la norma cúbica y viceversa. Ejemplo 4.55 Determinar si las normas f 1 = 0 1 | f (x)|dx y la norma f ∞ = máx0≤x≤1 | f (x)| son equivalentes en C[0, 1]. Solución Supongamos que existen α > 0 y β > 0, un par de números reales tales α f ∞ ≤ f 1 ≤ β f ∞ Page (PS/TeX): 92 / 326, COMPOSITE ∀ f ∈ C[0, 1]. SECCIÓN 4.2 Espacios vectoriales normados 327 Sea, para cada número entero positivo m, la función continua fm (x) = e−mx , 0 ≤ x ≤ 1. Entonces, para cada m, fm ∞ = máx |e−mx | = e−m·0 = 1 y 0≤x≤1 fm 1 = = = 1 0 1 0 | fm (x)|dx e−mx dx 1 1 − e−m . m Por tanto, α·1 ≤ 1 1 − e−m m ∀m = 1, 2, . . . Pero, el lado derecho de la precedente desigualdad tiende a 0 cuando m tiende a infinito. Luego, existe 1 m0 tal que (1 − e−m0 ) < α, tendrı́amos entonces m0 α≤ 1 1 − e−m0 < α, m0 lo cual es una contradicción. Por tanto, estas normas no pueden ser equivalentes.30 El ejemplo precedente muestra que no todas las normas son equivalentes. La dificultad intrı́nseca de este ejemplo radica en el hecho de que la dimensión del espacio C[0, 1] es infinta. Sin embargo, en espacios de dimensión finita, la situación cambia completamente; pues en ellos resulta ser que todas las normas son equivalentes. Este importantı́simo resultado lo hacemos patente en el siguiente teorema, aunque no lo demostraremos aquı́; e invitamos al lector a consultar, si ası́ lo desea, la demostración dada en el apéndice C. Teorema 4.22 (Equivalencia de normas en dimensión finita) Si E un espacio vectorial, entonces cualquier par de normas en E son equivalentes; es decir, en un espacio de dimensión finita todas las normas en él son equivalentes. La proximidad de vectores es un concepto fundamental de las matemáticas. A través de la idea de proximidad es como se pueden definir lı́mites, continuidad, derivación, diferenciación, derivadas parciales, optimización (máximos y mı́nimos locales) para funciones de una y de varias variables; convergencia de sucesiones y series; y conceptos geométricos avanzados que tienen que ver con una importante rama de las matemáticas llamada topologı́a (particularmente de los espacios vectoriales normados en nuestro caso); etc. En todos estos temas de estudio, la proximidad depende de las normas con la que se trabaje; sin embargo, todo aquello que, en términos de proximidad, valga para ciertas normas, seguirá siendo válido si éstas se cambian por sendas normas equivalentes. Por ello, el teorema 4.22 bien 1Note que en este caso sı́ existe β tal que f 1 ≤ β f ∞ ∀ f ∈ C[a, b]; pues, dado que | f (x)| ≤ f ∞ para todo x ∈ [a, b], se tiene 1 0 | f (x)|dx ≤ 0 f ∞ dx = (b − a) f ∞ . Luego β = b − a es un escalar que funciona para este fin. 30 1 Page (PS/TeX): 93 / 327, COMPOSITE 328 CAPÍTULO 4 Espacios con producto interior y espacios normados podrı́a ser llamado el teorema fundamental de espacios vectoriales normados de dimensión finita, pues significa que en estos espacios se puede trabajar con las normas que se deseen, evidentemente las más cómodas, pues todo lo que sea válido para ellas (en términos de proximidad) será valido para cualesquiera otras normas de estos espacios. Ası́ que el lector debe tener muy en cuenta esto, utilizar las normas que más convengan y no necesariamente trabajar con normas que, por ser históricas en las matemáticas o por desconocimiento del teorema 4.22, se utilizan con gran frecuencia como es el caso de la norma euclidiana, la norma canónica en el espacio Rn . Normas p Terminamos este apartado con un ejemplo de normas que son generalización directa de la norma canónica en Rn , las normas · p (p ≥ 1). Este ejemplo bien podrı́a haberse dado al inicio de esta subsección; pero por la dificultad que entraña se decidió ponerlo al final. Además, es una buena excusa para ilustrar el concepto de equivalencia de normas en Rn en este extenso conjunto de normas y explicar el porqué de la notación ·∞ para la norma cúbica. Definición 4.15 Sea p ≥ 1 un número real y u = (x1 , x2 , . . . , xn ) ∈ Rn . Se define u p = n ∑ |xi | 1/p p . i=1 A u p se le llama norma p del vector u. P Nota 4.14 Observe que si p = 2, se obtiene la norma canónica en Rn . Y si p = 1 se obtiene la norma ·1 que estudiamos en el ejemplo 4.42. Antes de mostrar que u p es efectivamente una norma, necesitamos probar algunos resultados preliminares. En el lema 3.1 (cfr. pág. 123) vimos que 2ab ≤ a2 + b2 para cualquier par de números reales a y b. El lema 4.2 es una generalización de este resultado que utilizaremos para demostrar la desigualdad triangular de las normas p. Definición 4.16 Sean p > 1 y p∗ > 1 números reales. Se dice que p y p∗ son ı́ndices conjugados si 1 1 + = 1. p p∗ Ejemplo 4.56 • p = 2 y p∗ = 2 son ı́ndices conjugados. • p = 3 y p∗ = 3/2 son ı́ndices conjugados. Las siguientes propiedades de ı́ndices conjugados, contenidas en el lema 4.1, son fáciles de probar y su demostración se deja de ejercicio al lector. Page (PS/TeX): 94 / 328, COMPOSITE SECCIÓN 4.2 Espacios vectoriales normados 329 Lema 4.1 Sean p y p∗ ı́ndices conjugados. Entonces: 1. 1 1 = 1− . p∗ p 3. p∗ (p − 1) = p . 2. 1 1 = 1− ∗ . p p 4. p(p∗ − 1) = p∗ . Lema 4.2 Sean a, b ∈ R un par de números positivos y p, p∗ ı́ndices conjugados. Entonces, ∗ a1/p b1/p ≤ DEMOSTRACIÓN b a + p p∗ (4.47) Q Sea α ∈ R, 0 < α < 1, y sea f : [0, ∞) → R la función definida por f (x) = xα − αx + α. Entonces, f (x) = α(xα−1 − 1) f (x) = α(α − 1)x y α−2 < 0 en (0, ∞). Por tanto, el máximo de f en [0, ∞) se alcanza en x = 1 y, por ende, xα − αx + α ≤ f (1) = 1 ∀x ∈ [0, ∞) (4.48) Sean α = 1/p y x = a/b. Entonces 0 < α < 1 y a/b ∈ (0, ∞), por tanto, al sustituir estos valores en (4.48) se obtiene: a1/p 1 a 1 + ≤1 − b1/p p b p Multipliquemos ambos lados de la desigualdad (4.49) por b para tener: a1/p b a b − + ≤ b, p p b1/p que equivale a b a +b− p p 1 a . = +b 1− p p a1/p b1−1/p ≤ Pero 1 − 1 = p∗ (por el lema 4.1); por tanto, la desigualdad precedente se transforma en p ∗ a1/p b1/p ≤ que es lo que se querı́a demostrar. Page (PS/TeX): 95 / 329, COMPOSITE Q b a + ∗ p p (4.49) 330 CAPÍTULO 4 Espacios con producto interior y espacios normados P Nota 4.15 Si sustituimos el caso particular p = 2 en (4.47) se obtiene a1/2 b1/2 ≤ a b + 2 2 y al elevar al cuadrado ambos lados de la desigualdad anterior ab ≤ (a + b)2 , 4 que equivale a 4ab ≤ a2 + 2ab + b2 ; esto es, 2ab ≤ a2 + b2 Es decir, que la desigualdad (4.47) tiene como caso particular la desigualdad (3.5) del lema 3.1 (cfr. pág. 123); que se utilizó para probar la desigualdad de Schwarz (teorema 3.1, cfr. pág. 124). El siguiente lema establece una generalización de la desigualdad de Schwarz en Rn , la desigualdad de Hölder, que como en el caso de la desigualdad de Schwarz, servirá para demostrar la desigualdad triangular de la norma p. Lema 4.3 Sean u = (x1 , x2 , . . . , xn ) y v = (y1 , y2 , . . . , yn ) un par de vectores en Rn y p, p∗ ı́ndices conjugados. Entonces n 1. (4.50) ∑ xi yi ≤ u p v p∗ (Desigualdad de Hölder) i=1 2. DEMOSTRACIÓN u +v p ≤ u p + v p (Desigualdad de Minkowski) (4.51) Q 1. Sea i ∈ {1, 2, . . . , n} un ı́ndice fijo por el momento y pongamos31 a= |xi | p u pp ∗ b= y |yi | p ∗ v pp∗ en la desigualdad (4.47) del lema 4.2, entonces ∗ |xi | |yi | 1 |xi | p 1 |yi | p ≤ ∗ p + ∗ u p v p∗ p u p p v pp∗ ∀i = 1, 2, . . . , n. Al sumar todos los ı́ndices desde i = 1 hasta i = n en la precedente desigualdad obtenemos n n 1 ∑ u v ∗ |xi ||yi | ≤ ∑ p p i=1 i=1 ∗ 1 |xi | p 1 |yi | p ∗ p + ∗ p u p p v pp∗ 1Observe la analogı́a que hay con la demostración de la desigualdad de Schwarz (teorema 3.1, cfr. pág. 124). 31 Page (PS/TeX): 96 / 330, COMPOSITE Espacios vectoriales normados 331 SECCIÓN 4.2 que equivale a 1 u p v p∗ n 1 n n 1 ∑ |xi ||yi | ≤ p u p ∑ |xi | p + p∗ v p∗ ∑ |yi | p p i=1 i=1 ∗ p∗ i=1 ∗ 1 1 u pp + v pp∗ = p∗ ∗ p u pp p v p∗ 1 1 + =1 p p∗ = y, por tanto, n ∑ |xi ||yi | ≤ u p v p∗ (4.52) i=1 Pero, puesto que |xi ||yi | = |xi yi | y por la desigualdad triangular para el valor absoluto de números reales, |∑ni=1 xi yi | ≤ ∑ni=1 |xi yi |, la desigualdad (4.52) implica n ∑ xi yi ≤ u p v p∗ . i=1 2. Para cada i = 1, 2, . . . , n se tiene |xi + yi | p = |xi + yi ||xi + yi | p−1 ≤ (|xi | + |yi |) |xi + yi | p−1 = |xi ||xi + yi | p−1 + |yi ||xi + yi | p−1 y, por tanto, n n n i=1 i=1 i=1 ∑ |xi + yi | p ≤ ∑ |xi ||xi + yi | p−1 + ∑ |yi ||xi + yi | p−1 . Por (4.52), si w = |x1 + y1 | p−1 , |x2 + y2 | p−1 , . . . , |xn + yn | p−1 , n ∑ |xi ||xi + yi | p−1 ≤ u p w p∗ y i=1 n ∑ |yi ||xi + yi | p−1 ≤ v p w p∗ i=1 Por lo que n ∑ |xi + yi | p ≤ u p w p∗ + v p w p∗ i=1 = u p + v p w p∗ . Pero, w p∗ = ∑ |xi + yi | n ∑ |xi + yi | i=1 Page (PS/TeX): 97 / 331, COMPOSITE 1/p∗ (p−1)p∗ i=1 = n 1/p∗ p . 332 CAPÍTULO 4 Espacios con producto interior y espacios normados Por tanto, n ∑ |xi + yi | p i=1 1/p∗ n ∑ |xi + yi | ≤ u p + v p p , i=1 de donde ∑ni=1 |xi + yi | p (∑ni=1 |xi + yi | p ) ≤ u p + v p ; 1/p∗ esto es: 1−1/p∗ n ∑ |xi + yi | p ≤ u p + v p i=1 que equivale (pues 1 − 1/p∗ = 1/p) a n 1/p ∑ |xi + yi | p ≤ u p + v p . i=1 Es decir, u +v p ≤ u p + v p . Q P Nota 4.16 Observe que la desigualdad de Hölder (4.50) tiene como caso particular la desigualdad de Schwarz en Rn ; pues si sustituimos p = 2 en ésta obtenemos |u ·v| ≤ u2 v2 ; pero ·2 es precisamente la norma canónica inducida por el producto punto de vectores en Rn . Estamos ya capacitados para demostrar que las normas p son efectivamente normas en Rn , lo cual hacemos en el siguiente teorema. Teorema 4.23 Si p ≥ 1 es un número real, entonces u p = n ∑ |xi | 1/p p , n=1 u = (x1 , x2 , . . . , xn ), es una norma en Rn . DEMOSTRACIÓN Q Si p = 1, ya probamos esta afirmación en el ejemplo 4.42 (cfr. pág. 305). Supongamos entonces que p > 1. 1. u p = (∑nn=1 |xi | p )1/p ≥ 0 ∀u = (x1 , x2 , . . . , xn ) ∈ Rn . 2. Claramente 0Rn p = 0. Supongamos que u p = 0, entonces |xi | p ≤ n ∑ |xi | p = u pp = 0 ⇒ xi = 0 ∀i ⇒ u = 0Rn . n=1 Page (PS/TeX): 98 / 332, COMPOSITE SECCIÓN 4.2 Espacios vectoriales normados 333 3. Si λ ∈ R y u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces 1/p n ∑ |λxi | u p = p n=1 = |λ| p 1/p n ∑ |xi | n=1 n ∑ |xi | = |λ| p 1/p p n=1 = |λ| u p . 4. La desigualdad triangular ya se probó en el lema 4.3 (desigualdad de Minkowski (4.51)). Q Ejemplo 4.57 Mostrar, sin utilizar el teorema de equivalencia de normas en espacios de dimensión finita, que si p > 1, entonces · p ∼ ·∞ en el espacio euclidiano Rn . DEMOSTRACIÓN Q Sea u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces |xi | p ≤ u∞p ∀i = 1, 2, . . . , n. Por tanto, n n i=1 i=1 ∑ |xi | p ≤ ∑ u∞p = n u∞p . Luego, n 1/p ∑ |xi | p ≤ n1/p u∞ i=1 (4.53) Por otra parte, es claro que n u∞p ≤ ∑ |xi | p , i=1 de donde u∞ ≤ n ∑ |xi | 1/p p (4.54) i=1 De (4.53) y (4.54) se desprende u∞ ≤ u p ≤ n1/p u∞ Y, por ende, · p ∼ ·∞ con α = 1 y β = n1/p . Page (PS/TeX): 99 / 333, COMPOSITE Q (4.55) 334 CAPÍTULO 4 Espacios con producto interior y espacios normados p=8 p=5 p=3 p=2 p=1 S||·||∞ Figura 4-29 • La norma p de cualquier vector tiende a la norma cúbica de éste cuando p toma valores cada vez más grandes. En esta figura hemos graficado las esferas S(0, r) relativas a la norma p = 1, 2, 3, 5, 8 y la esfera S·∞ de mismo centro y radio relativa a la norma cúbica. Observe cómo las esferas para las normas p son cada vez más cercanas a la esfera para la norma cúbica en la medida en que p crece. Ahora estamos listos para explicar la razón de la notación ·∞ para la norma cúbica. Para ello, fijemos un vector arbitrario u ∈ Rn y calculemos lı́m u p . p→∞ Por (4.55) se tiene u∞ ≤ lı́m u p ≤ lı́m n1/p u∞ = 1 · u∞ ; p→∞ n→∞ de donde lı́m u p = u∞ . p→∞ Esto es, la norma p tiende a la norma cúbica cuando p tiende a infinito. Debido a este hecho es que tradicionalmente a la norma cúbica se le denota con el sı́mbolo · ∞ . En la figura 4-29, hemos graficado las esferas de centro (0, 0) relativas a la norma p para algunos valores crecientes de p y la esfera de mismo centro relativa a la norma cúbica, todas con el mismo radio r. En ella se puede observar cómo las p-esferas se aproximan al cuadrado de arista 2r con centro en el origen (la esfera para la norma cúbica) conforme p aumenta. 4.2.5 Construcción de normas en espacios de dimensión finita a partir de normas en Rn En esta breve subsección veremos cómo es posible, de manera natural, construir normas en un espacio de dimensión finita a través de normas en Rn . Esta construción siempre dependerá de la base con la Page (PS/TeX): 100 / 334, COMPOSITE SECCIÓN 4.2 Espacios vectoriales normados 335 que se estén describiendo los vectores del espacio. En realidad, el objetivo de este apartado es ahorrar tiempo al lector para que no tenga que demostrar que las normas que se definen por analogı́a directa de normas en Rn a espacios de dimensión finita, son efectivamente normas en estos espacios. Sean E un espacio vectorial de dimensión finita y {e1 ,e2 , . . . ,en } una base de este espacio; entonces si u ∈ E, existen escalares a1 , a2 , . . . , an tales que u = a1e1 + a2e2 + · · · + anen (4.56) Si b1 , b2 , . . . , bn son escalares tales que también u = b1e1 + b2e2 + · · · + bnen , entonces, (a1 − b1 )e1 + (a2 − b2 )e1 + · · · + (an − bn )e1 = 0E y puesto que los vectores ei son L.I., se desprende que ai = bi ∀i = 1, 2, . . . , n. Luego, todo vector u ∈ E se puede escribir como combinación lineal de los vectores ei como en (4.56) de manera única. Si convenimos en que el orden en los términos de (4.56) es el mismo para cualquier vector (el primer término es un escalar que multiplica al primer vector e1 , el segundo término un escalar por el vector e2 , etc., y el último término es un escalar que multiplica al vector en ), diremos que la base está ordenada y escribiremos (e1 ,e2 , . . . ,en ) en lugar de {e1 ,e2 , . . . ,en } para subrayar este hecho.32 En tal caso a (a1 , a2 , . . . , an ) le llamaremos el vector de coordenadas del vector u relativo a la base ordenada (e1 ,e2 , . . . ,en ). Ejemplo 4.58 Sea la base ordenada (3, x − 1, 2x2 ) del espacio de polinomios P2 . Encontrar el vector de coordenadas del polinomio p(x) = 1 − 3x + 4x2 relativo a esta base ordenada. Solución Busquemos escalares a1 , a2 , a3 , tales que a1 · 3 + a2 · (x − 1) + a3 (2x2 ) = 1 − 3x + 4x2 ; entonces, 3a1 − a2 + a2 x + 2a3 x2 = 1 − 3x + 4x2 y, por tanto, 3a1 − a2 = 1, a2 = −3, 2a3 = 4; 1Cfr. la discusión que precede al teorema 4.9 en la página 265. 32 Page (PS/TeX): 101 / 335, COMPOSITE 336 CAPÍTULO 4 Espacios con producto interior y espacios normados de donde 2 a2 = −3, a3 = 2, a1 = − . 3 Por lo que el vector de coordenadas del polinomio p(x) relativo a esta base ordenada es (−2/3, −3, 2). Sea ahora · una norma en Rn (no necesariamente la canónica) y (e1 ,e2 , . . . ,en ) una base ordenada del espacio E. Entonces, si u ∈ E y (a1 , a2 , . . . , an ) ∈ Rn es el vector de coordenadas de u relativo a la base ordenada, definimos uE = (a1 , a2 , . . . , an ) . Afirmamos que ésta es una norma en E. En efecto: 1. uE = (a1 , a2 , . . . , an ) ≥ 0 ∀u ∈ E. 2. 0E = 0 ·e1 + 0 ·e2 + · · · + 0 ·en , por tanto, 0E E = 0Rn = 0. uE = 0 ⇒ (a1 , a2 , . . . , an ) = 0 ⇒ (a1 , a2 , . . . , an ) = 0Rn ⇒ u = a1e1 + a2e2 + · · · + anen = 0E . 3. Si λ ∈ R y u = a1e1 + a2e2 + · · · + anen ∈ E, entonces λuE = λ (a1e1 + a2e2 + · · · + anen )E = (λa1 )e1 + (λa2 )e2 + · · · + (λan )en E = λ(a1 , a2 , . . . , an ) = |λ| (a1 , a2 , . . . , an ) = |λ| uE . 4. Si u,v ∈ E y (a1 , a2 , . . . , an ), (b1 , b2 , . . . , bn ) son los vectores de coordenadas de u y v, respectivamente, entonces u +vE = (a1 + b1 )e1 + (a2 + b2 )e2 + · · · + (an + bn )en E = (a1 + b1 , a2 + b2 , . . . , an + bn ) = (a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) ≤ (a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = uE + vE . Ejemplo 4.59 Sea el caso dado en el ejemplo 4.58 y la norma canónica en Rn , ·. Entonces p(x)P2 = (−2/3, −3, 2) = 11 . 3 Si se toma ·∞ en lugar de la canónica se tiene p(x)P2 = (−2/3, −3, 2)∞ = 3. Page (PS/TeX): 102 / 336, COMPOSITE SECCIÓN 4.2 Espacios vectoriales normados 337 Recı́procamente, toda norma · E del espacio E produce una norma en Rn ; pues si (a1 , a2 , . . . , an ) ∈ Rn y u = a1e1 + a2 e2 + · · · + an en , entonces la aplicación (a1 , a2 , . . . , an ) → (a1 , a2 , . . . , an ) = uE en una norma en Rn . 4.2.6 Aproximaciones óptimas en espacios normados Aquı́ veremos cómo es posible encontrar aproximaciones óptimas en espacios normados como lo hicimos en espacios con producto interior; aunque dicha norma no necesariamente provenga de un producto escalar. Definición 4.17 (Aproximaciones óptimas) Sean E un espacio vectorial normado con norma · , u un vector dado de E y S un subespacio. Decimos que p∗ es aproximación óptima de u en S si u − p∗ ≤ u −v ∀v ∈ S o, de manera equivalente, si mı́n u −v = u − p∗ . v∈S El siguiente teorema garantiza la existencia de aproximaciones óptimas en el caso de ser S un subespacio de dimensión finita. Su demostración requiere de algunos conceptos básicos de funciones continuas en espacios vectoriales normados y la postergaremos al apéndice C. Invitamos al lector a que la consulte en el momento que desee y recomendamos su lectura, pues tiene aspectos muy interesantes y puede ser de gran provecho el intentar comprenderlos, al menos grosso modo. Teorema 4.24 (Aproximaciones óptimas en espacios normados) Sean E un espacio vectorial normado con norma · , S un subespacio de dimensión finita en E y u un vector dado de E. Entonces, existe una aproximación óptima p∗ de u en S. Aproximaciones óptimas en C[a, b] con la norma uniforme Sean f ∈ C[a, b] y S = Pn = gn(1, x, x2 , . . . , x n ); por el teorema 4.24 existe un polinomo p∗n (x) de grado a lo más n tal que f − p∗n ∞ ≤ f − pn ∞ para todo polinomio pn de grado a lo más n. Esto ocurre para cada n ∈ N; como es natural, surge la cuestión de si la sucesión de aproximaciones óptimas p∗n , n = 1, 2, . . . , converge a f respecto a la norma uniforme; esto es, lı́m f − p∗n ∞ = 0. n→∞ Page (PS/TeX): 103 / 337, COMPOSITE 338 CAPÍTULO 4 Espacios con producto interior y espacios normados f +ε pn f ε ε f −ε Figura 4-30 • Si f ∈ C[a, b], para cualquier bola abierta B( f , ε), relativa a la norma uniforme · ∞ , existe un polinomio de grado n dentro de ella. Recordemos que en el caso de las aproximaciones óptimas de polinomios trigonométricos a funciones continuas vimos que esta convergencia se daba en promedio cuadrático; esto es, para la norma f − g = 1/2 b 2 . Para las aproximaciones óptimas, con la norma uniforme, esto también sucede. El a ( f − g) teorema que garantiza este hecho es uno de los más célebres e importantes resultados en las matemáticas. A continuación lo enunciamos y haremos su demostración plausible en la discusión posterior. Teorema 4.25 (De aproximación de Weierstrass) Sea f ∈ C[a, b]. Entonces, para cada ε > 0 existe un polinomio pn de grado n (que depende de ε) tal que f − pn ∞ < ε (4.57) La interpretación geométrica de este teorema viene ilustrada en la figura 4-30. En ella se muestra una función continua f en un intervalo [a, b], una bola de centro f y radio ε respecto a la norma uniforme · ∞ y un polinomio pn dentro de esta bola; por lo cual (4.57) se cumple para este polinomio. P Nota 4.17 1. El teorema de aproximación de Weierstrass equivale a que, para cada función f ∈ C[a, b], existe una sucesión de polinomios (pn ) que converge uniformemente a f , i.e., lı́m f − pn ∞ = 0 n→∞ (4.58) En efecto, si (pn ) es una sucesión de polinomios tal que lı́mn→∞ f − pn ∞ = 0 y ε > 0 es dado, entonces, por definición de lı́mite, existe n0 ∈ N tal que f − pn < ε 0 ∞ y se cumple entonces (4.57) del teorema de Weierstrass. Supongamos inversamente que se cumple (4.57) del teorema 4.25, entonces para cada n ∈ N, existe un polinomio pn tal que Page (PS/TeX): 104 / 338, COMPOSITE SECCIÓN 4.2 f − pn ∞ < Espacios vectoriales normados 339 1 n de donde se desprende que (4.58) es válida. 2. Si ε > 0 es dado, por el teorema aproximación de Weierstrass existe un polinomio de grado n0 ∈ N tal que f − pn < ε. 0 ∞ Sea p∗n una sucesión de aproximaciones óptimas para la función f (cuya existencia está garantizada por el teorema 4.24), entonces f − p∗n ≤ f − pn < ε. 0 ∞ 0 ∞ Dado que Pn ⊂ Pm si n ≤ m, se desprende que f − p∗m ≤ f − p∗n . Por lo que, f − p∗n ∞ ≤ f − p∗n0 ∞ < ε ∀n ≥ n0 . Por tanto, lı́m f − p∗n ∞ = 0 n→∞ como afirmamos en la discusión ulterior al teorema 4.24. Aproximación por polinomios de Bernstein Es posible hacer una demostración constructiva del teorema de aproximación de Weierstrass haciendo explı́cita la sucesión de polinomios que converge uniformemente a la función dada. Esto se realiza mediante los llamados polinomios de Bernstein. Definición 4.18 Sean f ∈ C[0, 1] y n ∈ N. Se define el n-ésimo polinomio de Bernstein para la función f como n n k k Bn (x) = ∑ f x (1 − x)n−k n k k=0 donde n n! = k!(n − k)! k es el usual coeficiente binomial. Ejemplo 4.60 Sea la función continua en [0, 1], f (x) = x cos(20x) + 4; Page (PS/TeX): 105 / 339, COMPOSITE 340 CAPÍTULO 4 Espacios con producto interior y espacios normados entonces: 1 k k x (1 − x)1−k 1 k k=0 1 0 1 1 = f (0) x (1 − x)1 + f (1) x (1 − x)0 0 1 B1 (x) = 1. 1 ∑f = 4(1 − x) + (cos(20) + 4) x = 4 + cos(20)x. 2 2 k k x (1 − x)2−k B2 (x) = ∑ f 2 k k=0 2 1 2 0 1 2 x (1 − x)1 = f (0) x (1 − x) + f 2 1 0 2 2 + f (1) x (1 − x)0 2 1 cos(10) + 4 x(1 − x) = 4(1 − x)2 + 2 2 2. + (cos(20) + 4) x2 = 4 − (cos 10)x + (cos 20 − cos 10)x2 . En la figura 4-31 se muestran aproximaciones sucesivas para la función f (x) = x cos(20x) + 4 mediante polinomios de Bernstein Bn para los valores n = 30, 50, 100, 150, 180, 250 y n = 260. En ella se puede observar cómo f − Bn ∞ → 0, debido a que el máximo de | f (x) − Bn (x)| va tendiendo a cero en la medida que n aumenta. 5 5 B30 B50 f 4.5 B100 B150 f 4.5 4 4 3.5 3.5 3 3 0 5 0.2 0.4 0.6 0.8 5 B180 B250 f 4.5 0 1 4 3.5 3.5 0.4 0.6 0.8 1 0.4 0.6 0.8 1 B260 f 4.5 4 0.2 3 3 0 0.2 0.4 0.6 0.8 1 0 0.2 Figura 4-31 • Aproximaciones sucesivas de polinomios de Bernstein Bn , para diversos valores n (30, 50, 100, 150, 180, 250 y 260), a la función f (x) = x cos(20x) + 4. Page (PS/TeX): 106 / 340, COMPOSITE SECCIÓN 4.2 Espacios vectoriales normados 341 P Nota 4.18 Los polinomios de Bernstein aproximan uniformemente a funciones continuas en el intervalo [0, 1] y el teorema de Weierstrass afirma que este tipo de aproximación uniforme se puede efectuar en cualquier intervalo [a, b]. Pero en realidad, bajo una simple translación, se pueden construir los polinomios de Bernstein para funciones continuas en un intervalo [a, b]. En efecto, si f ∈ C[a, b], sea x = g(t) = (b − a)t + a, 0 ≤ t ≤ 1, entonces la función f (x) = f (g(t)) es una función continua en [0, 1] y los polinomios de Bernstein Bn (x) = Bn (g(t)) aproximan uniformemente a f (g(t)) en [0, 1] y, por tanto, aproximan uniformemente a f (x) en [a, b]. 4.2.7 ¿Qué norma utilizar? Cuando se busca la aproximación óptima de un elemento de un espacio normado mediante elementos de un subespacio, dicha aproximación depende de la norma con la que se esté trabajando. La elección de la norma en el espacio depende a su vez del tipo de problema que se desee resolver. Con el propósito de aclarar esta situación, planteamos a continuación dos ejemplos clásicos, en donde veremos cómo se elige la norma en una situación especı́fica, y, de paso, por qué se definen de manera natural, en problemas de aplicación, dos de las normas más importantes en el espacio C[a, b]. Problema de Chebichev P. Lvovich Chebichev fue uno de los más grandes matemáticos rusos del siglo XIX; aparte de haber sido el creador de las bases de varias disciplinas matemáticas, las cuales aún están en pleno desarrollo, fue un notable ingeniero. Uno de sus intereses como tal, fue la construcción de un mecanismo capaz de reproducir el movimiento de una trayectoria dada. Sea y = f (x), a ≤ x ≤ b, la trayectoria que se pretende reproducir. Se desea construir, bajo ciertos requisitos técnicos, un mecanismo tal que uno de sus dispositivos describa esta curva tan exactamente como sea posible cuando entre en funcionamiento. Chebichev, como buen ingeniero, construyó inicialmente un mecanismo que obtuviera una aproximación burda de la trayectoria dada. Ası́, un dispositivo de este mecanismo inicial describirá una curva y = ϕ(x) (4.59) parecida a la curva dada y = f (x) como se ilustra en la figura 4-32. Este primer mecanismo consta de ciertos dispositivos (engranes, palancas, etc.) todos ellos con medidas especı́ficas, α1 , α2 , . . . , αn , que lo describen completamente y, por tanto, a la curva (4.59); son estos números los parámetros del mecanismo y de esta curva. Mejorar la aproximación del mecanismo significa modificar los parámetros αi para ese fin. Aquı́ fue donde Chebichev abordó el problema matemáticamente. Para ello, consideró los posibles mecanismos que describirı́an curvas y = ϕ(x, α1 , α2 , . . . , αn ) (4.60) para cada conjunto de parámetros αi , i = 1, 2, . . . , n. Cada una de éstas, representa una aproximación de la trayectoria y = f (x). Sea y = ϕ(x) la curva descrita por (4.60), donde por simplicidad hemos omitido los parámetros αi , y sea m = m(α1 , α2 , . . . , αn ) = máx | f (x) − ϕ(x)| a≤x≤b Page (PS/TeX): 107 / 341, COMPOSITE 342 CAPÍTULO 4 Espacios con producto interior y espacios normados y = ϕ(x) m y = f (x) b a Figura 4-32 • Una trayectoria dada y = f (x) y una burda aproximación de la misma, y = ϕ(x); esta última está perfectamente determinada por los parámetros αi del mecanismo que la produce. como se ilustra en la figura 4-32. Entonces, dado que | f (x) − ϕ(x)| ≤ máx | f (x) − ϕ(x)| = m(α1 , α2 , . . . , αn ) a≤x≤b se tiene | f (x) − ϕ(x)| ≤ m(α1 , α2 , . . . , αn ) ∀x ∈ [a, b]. Luego, si m(α1 , α2 , . . . , αn ) es pequeño, entonces | f (x) − ϕ(x)| es todavı́a menor, para cada x ∈ [a, b]; por tanto, ϕ(x) será más próximo a f (x), en la medida que m(α1 , α2 , . . . , αn ) sea menor; por ende, las gráficas de f y ϕ serán muy parecidas si m(α1 , α2 , . . . , αn ) es muy pequeño. En términos de la jerga que hemos utilizado en este capı́tulo m(α1 , α2 , . . . , αn ) = f − ϕ∞ . Luego, de entre todas las funciones y = ϕ(x, α1 , α2 , . . . , αn ), se busca aquella para la cual m(α1 , α2 , . . . , αn ) sea mı́nimo; es decir, se tiene que encontrar, de entre todos los conjuntos admisibles de parámetros α1 , α2 , . . . , αn , mı́n f − ϕ(α ,α ,...,α ) 1 (α1 ,α2 ,...,αn ) 2 n ∞ donde las ϕ(α1 ,α2 ,...,αn ) son las curvas parametrizadas dadas por (4.60). Es ası́ como Chebichev introduce la norma uniforme (también llamada norma de Chebichev) para resolver este tipo de problemas. Note que mı́n máx | f (x) − ϕ(x)| ; mı́n f − ϕ(α ,α ,...,α ) = (α1 ,α2 ,...,αn ) 1 2 n ∞ (α1 ,α2 ,...,αn ) a≤x≤b razón por la cual algunos métodos actuales de solución de problemas análogos a éste son llamados métodos “mı́nimax”. Problema de la cuerda vibrante Supongamos ahora que una cuerda de longitud L está sujeta en sus dos extremos, el izquierdo en el origen de coordenadas y el derecho en (0, L). La cuerda se encuentra tensa con una fuerza de tensión Page (PS/TeX): 108 / 342, COMPOSITE SECCIÓN 4.2 Espacios vectoriales normados 343 y = f (x) L (a) (b) Figura 4-33 • (a) Cuerda tensa, sujeta en sus dos extremos, de longitud L en estado de equilibrio (sin vibrar). (b) “Instantánea”, en el tiempo t = τ , de la cuerda en uno de sus estados de oscilación. T , como se muestra en la figura 4-33(a). En el instante t = 0 se modifica su estado estirándola de su posición de equilibrio para que comience a vibrar en el plano x, y (se supone que la amplitud de la vibración es pequeña). En el instante t = τ , la cuerda tiene la forma de una función y = f (x) como se ilustra en la figura 4-33(b). Se desea encontrar una función y = ϕ(x) que aproxime la forma que tiene la cuerda en el instante t = τ ; es decir, que aproxime a la curva y = f (x). El criterio de proximidad en este caso será fı́sico más que geométrico. Para ello pensemos que tenemos otra cuerda exactamente igual que la primera, sujeta también en sus extremos en sendos puntos (0, 0) y (0, L), pero cuya forma es precisamente la gráfica de la aproximación y = ϕ(x) como se muestra en la figura 4-34. El criterio de proximidad que utilizaremos en este caso será mediante la energı́a potencial; es decir, la mejor aproximación será aquella para la cual la diferencia de energı́a potencial entre las cuerdas y = f (x) y y = ϕ(x) sea mı́nima. Calculemos la energı́a potencial para la cuerda y = f (x); es decir, el trabajo realizado por la fuerza de tensión para obtener la forma de esta cuerda desde la posición de equilibrio. Sea x un punto en el intervalo [0, L] y dx un pequeño incremento de x y calculemos el diferencial del trabajo, dU, realizado por la fuerza de tensión T para estirar el segmento de cuerda [x, x + dx] de la posición de equilibrio a la forma de la curva y = f (x) en este intervalo. y = ϕ(x) y = f (x) Figura 4-34 • La misma “instantánea” de la cuerda y = f (x) en el instante t = τ y una aproximación a ella, y = ϕ(x). Page (PS/TeX): 109 / 343, COMPOSITE 344 CAPÍTULO 4 Espacios con producto interior y espacios normados y = f (x) dy dx x x + dx Figura 4-35 • La cuerda y = f (x) en el instante t = τ . La longitud del segmento de esta curva en el intervalo [x, x + dx] se puede aproximar mediante la hipotenusa del triángulo rectángulo cuyos catetos son dx y dy. De la figura 4-35 se desprende que el incremento de longitud en este intervalo es aproximadamente 2 dy 1+ dx dx = 1 + ( f (x))2 dx (dx)2 + (dy)2 = Al multiplicar por la fuerza de tensión T la diferencia de longitudes entre la cuerda en el estado y = f (x) y la cuerda en estado de equilibrio en el intervalo [x, x + dx], obtenemos el diferencial de la energı́a potencial 2 dU = T 1 + ( f (x)) dx − dx ; esto es, dU = T 1 + ( f (x))2 − 1 dx. Dado que la amplitud de las oscilaciones es pequeña, podemos utilizar el desarrollo de Taylor para obtener 1 2 1 + ( f (x))2 ≈ 1 + ( f (x)) . 2 Luego, dU ≈ T 2 ( f (x)) dx. 2 Por tanto, la energı́a potencial total de la cuerda es U= Page (PS/TeX): 110 / 344, COMPOSITE T 2 L 0 2 ( f (x)) dx. SECCIÓN 4.2 Espacios vectoriales normados 345 Ası́, la diferencia de energı́as potenciales entre las cuerdas y = f (x) y y = ϕ(x) está dada por T 2 L 0 ( f (x))2 dx − T 2 L 0 (ϕ (x))2 dx. Ahora bien, pongamos para simplificar por el momento notación, α2 = β2 = L 0 0 L ( f (x))2 dx y (ϕ (x))2 dx. Entonces, |α2 − β 2 | = |(α + β)(α − β)| ≤ (|α| + |β|)|α − β|; esto es, ⎛ ⎞ L L L L ( f (x))2 dx − (ϕ (x))2 dx ≤ ⎝ ( f (x))2 dx + (ϕ (x))2 dx⎠ 0 0 0 0 L L 2 2 · ( f (x)) dx − (ϕ (x)) dx . 0 0 Pero L 0 (g (x))2 dx = g , la norma inducida por el producto interior g, h = L 0 g(x)h(x)dx (norma cuadrado medio); por tanto ⎛ ⎞ L L L L ( f (x))2 dx − (ϕ (x))2 dx ≤ ⎝ ( f (x))2 dx + (ϕ (x))2 dx⎠ f − ϕ . 0 0 0 0 Como hemos supuesto que las oscilaciones son pequeñas y que se trata de la misma cuerda tanto pa L ( f (x))2 dx ≤ M 2 y ra y = f (x) como para y = ϕ(x), podemos suponer que existe M > 0 tal que 0 L 0 2 2 (ϕ (x)) dx ≤ M (para cualquier aproximación ϕ). Entonces L L 2 ( f (x))2 dx − (ϕ (x)) dx ≤ 2M f − ϕ . 0 0 Por lo que si f − ϕ es mı́nima, entonces la diferencia de energı́a potencial L L 2 ( f (x))2 dx − (ϕ (x)) dx 0 0 también será mı́nima. Ası́, eligiendo ϕ de tal suerte que f − ϕ sea mı́nima, se habrá cumplido el criterio de proximidad. De esta manera, hemos visto cómo surge, en problemas de aplicación, la norma cuadrado medio g = Page (PS/TeX): 111 / 345, COMPOSITE a b (g(x))2 dx en C[a, b] y también cómo se aplica para aproximar una función. 346 CAPÍTULO 4 Espacios con producto interior y espacios normados Comparación de las normas g = 2 b a (g(x)) dx y g∞ Supongamos que se tiene una sucesión de funciones ϕn continuas en [a, b] que converge uniformemente a f ∈ C[a, b]; i.e., lı́m f − ϕn ∞ = 0 n→∞ entonces, dado que b a | f (x) − ϕn (x)|2 dx ≤ a b f − ϕn 2∞ dx = (b − a) f − ϕn 2∞ se sigue que lı́m n→∞ a b | f (x) − ϕn (x)|2 dx = 0; es decir, lı́m f − ϕn = 0 n→∞ (4.61) Por tanto, convergencia uniforme implica convergencia en promedio cuadrático. Sin embargo, no es difı́cil ver que convergencia en promedio cuadrático no implica convergencia uniforme (cfr. el ejercicio resuelto 47, pág. 382). Esta es, aparentemente, una ventaja de la norma uniforme respecto a la norma cuadrado medio. Mas como explicamos arriba, la elección de la norma depende de la naturaleza del problema que se esté tratando y no de una elección arbitraria de ésta.33 Pero, en realidad, la norma cuadrado medio tiene también una fortaleza muy importante que la convierte en una herramienta con un espectro de aplicación mayor que la norma uniforme. Aunque la convergencia en promedio cuadrático no implica convergencia uniforme, se puede probar que si la sucesión (ϕn ) converge en promedio cuadrático a la función f , i.e., se cumple (4.61), entonces la sucesión (ϕn ) contiene una subsucesión ψn que converge puntualmente a la función f , excepto en un conjunto de puntos del intervalo [a, b] que tiene medida cero; esto es lı́m ψn (x) = f (x) n→∞ para cada punto x ∈ [a, b] − Z donde Z es un subconjunto de [a, b] de “longitud cero”; por lo general, un conjunto finito o una sucesión de puntos del intervalo [a, b] (un conjunto numerable). Ası́, la subsucesión ψn aproxima puntualmente a la función f en “casi todos los puntos” del intervalo [a, b] y se puede mostrar que también converge en promedio a la función f . En muchos problemas, con esto es suficiente, ahı́ radica la importancia que tiene la norma cuadrado medio y la convergencia en promedio cuadrático. P Nota 4.19 Se puede probar que en realidad dicha subsucesión, (ψn ), se puede elegir de tal suerte que dado cualquier ε > 0, existe un subconjunto M del intervalo [a, b] de longitud inferior a ε, tal que la subsucesión (ψn ) converge uniformemente a la función f en [a, b] − M (y, por tanto, también en promedio). 1Recuerde que este no es el caso de espacios vectoriales de dimensión finita; pues en ellos todo par de normas son equivalentes. 33 Page (PS/TeX): 112 / 346, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 347 4.3 Ejercicios resueltos y ejercicios propuestos 4.3.1 Ejercicios resueltos Espacios con producto interior 11 En R3 si x = (x1 , x2 , x3 ) y y = (y1 , y2 , y3 ) se define x,y = y1 x1 − 2y1 x2 − 2y2 x1 + 6y2 x2 + y2 x3 + y3 x2 + y3 x3 . Probar que x,y es un producto interior en R3 . DEMOSTRACIÓN Q Sean u = (u1 , u2 , u3 ),v = (v1 , v2 , v3 ),w = (w1 , w2 , w3 ) ∈ R3 y λ ∈ R: 1. (Simetrı́a) u,v = v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3 y v,u = u1 v1 − 2u1 v2 − 2u2 v1 + 6u2 v2 + u2 v3 + u3 v2 + u3 v3 = v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3 ; es decir, u,v = v,u. 2. (Homogeneidad) λu,v = (λu1 , λu2 , λu3 ), (v1 , v2 , v3 ) = v1 (λu1 ) − 2v1 (λu2 ) − 2v2 (λu1 ) + 6v2 (λu2 ) + v2 (λu3 ) + v3 (λu2 ) + v3 (λu3 ) = λ(v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3 ) = λ u,v . 3. (Aditividad) u,v + w = (u1 , u2 , u3 ), (v1 + w1 , v2 + w2 , v3 + w3 ) = (v1 + w1 )u1 − 2(v1 + w1 )u2 − 2(v2 + w2 )u1 + 6(v2 + w2 )u2 + (v2 + w2 )u3 + (v3 + w3 )u2 + (v3 + w3 )u3 = v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3 + w1 u1 − 2w1 u2 − 2w2 u1 + 6w2 u2 + w2 u3 + w3 u2 + w3 v3 = u,v + u,w . 4. (Positividad) u,u = u21 − 4u1 u2 + 6u22 + 2u2 u3 + u23 = u21 − 4u1 u2 + 4u22 + u22 + 2u2 u3 + u23 + u22 = (u1 − 2u2 )2 + (u2 + u3 )2 + u22 ≥ 0. Page (PS/TeX): 113 / 347, COMPOSITE 348 CAPÍTULO 4 Espacios con producto interior y espacios normados u,u = 0 ⇔ 5. (Positividad) (u1 − 2u2 )2 + (u2 + u3 )2 + u22 = 0 ⇔ u1 = u2 = u3 = 0 ⇔ u = 0R3 . De 1, 2, 3, 4 y 5, x,y es un producto interior. Q En los ejercicios 2 a 4, P es el espacio de polinomios. 12 Probar que para todo f ∈ P la integral impropia ∞ f (x)e−x dx 0 converge. DEMOSTRACIÓN Q Sea f un polinomio; claramente si f = θ es el polinomio constante cero, la integral impropia converge al valor real cero. Si f tiene grado 0, f es un polinomio constante, f (x) = k ∀x; entonces ∞ 0 f (x)e−x dx = lı́m r r→∞ 0 ke−x dx x=r x=0 = k lı́m −e−x r→∞ = k lı́m −e−r + 1 r→∞ = k. Si f tiene grado n = 1, entonces f (x) = a + bx para algún par de números reales a, b y 0 ∞ f (x)e−x dx = lı́m r r→∞ 0 = ∞ 0 (a + bx)e−x dx ae−x dx + b lı́m = a + b lı́m r→∞ r r→∞ 0 xe−x dx x=r −xe−x x=0 + r 0 −x e dx x=r x=r = a + b lı́m −xe−x x=0 − e−x x=0 r→∞ ! r = a + b lı́m − r − (e−r − 1) r→∞ e = a + b; ası́ que la integral impropia converge. Sea f un polinomio de grado n y suponga que la integral impropia ∞ 0 g(x)e−x dx converge para todo polinomio de grado n − 1. Entonces, ya que ∞ 0 f (x)e−x dx = lı́m r→∞ 0 r f (x)e−x dx x=r = lı́m − f (x)e−x x=0 + r→∞ = lı́m f (0) − r→∞ Page (PS/TeX): 114 / 348, COMPOSITE r 0 f (r) + lı́m r→∞ er f (x)e−x dx r 0 f (x)e−x dx Ejercicios resueltos y ejercicios propuestos 349 SECCIÓN 4.3 y por hipótesis de inducción 0 ∞ f (x)e−x dx converge ( f (x) es un polinomio de grado n − 1) y f (r) =0 er lı́m r→∞ (al aplicar sucesivamente la regla de L’Hôpital eventualmente se obtendrá el cociente de una constante sobre la función r → er que tiende a cero conforme r tiende a infinito), se deduce que ∞ f (x)e−x dx 0 converge. Q 13 Deducir del ejercicio precedente que para cada par de polinomios f , g ∈ P la integral impropia ∞ f (x)g(x)e−x dx 0 converge. Solución converge. Si f , g ∈ P, entonces f g es un polinomio también, por el ejercicio precedente ∞ 0 f (x)g(x)e−x dx 14 Por el ejercicio anterior, f , g = ∞ f (x)g(x)e−x dx 0 está definido para cada par de polinomios f y g. Probar que f , g es un producto interior en P. DEMOSTRACIÓN Q Sean f , g, h ∈ P y λ ∈ R: (a) f , g = ∞ 0 = lı́m f (x)g(x)e−x dx ∞ f (x)g(x)e−x dx r→∞ 0 = lı́m = ∞ r→∞ 0 ∞ g(x) f (x)e−x dx g(x) f (x)e−x dx 0 = g, f . (b) λ f , g = ∞ 0 (λ f (x))g(x)e−x dx = lı́m r r→∞ 0 = λ lı́m =λ (λ f (x))g(x)e−x dx r r→∞ 0 ∞ 0 f (x)g(x)e−x dx = λ f , g . Page (PS/TeX): 115 / 349, COMPOSITE f (x)g(x)e−x dx 350 CAPÍTULO 4 Espacios con producto interior y espacios normados f , g + h = lı́m (c) ∞ f (x)(g(x) + h(x))e−x dx r→∞ 0 = lı́m r→∞ = lı́m r 0 r 0 r 0 f (x)g(x)e−x dx + lı́m r→∞ 0 ∞ = f (x)g(x)e−x dx + f (x)g(x)e−x dx + f (x)h(x)e−x dx r r→∞ 0 ∞ 0 f (x)h(x)e−x dx f (x)h(x)e−x dx = f , g + f , h . f , f = lı́m (d) r r→∞ 0 ( f (x))2 e−x dx ≥ 0. (e) Claramente si f = θ es el polinomio constante cero, f , f = 0. Suponga que f ∈ P y f , f = 0, entonces r lı́m r→0 0 ( f (x))2 e−x dx = 0. Si f = θ (la función constante cero), existe, por continuidad, un intervalo [a, b] ⊂ [0, ∞) tal que f 2 (x) = 0 para todo x ∈ [a, b]; luego 0< b a ( f (x))2 e−x dx ≤ 0 ∞ ( f (x))2 e−x dx = 0 lo cual es imposible; por tanto, f (x) = 0 para todo x ∈ [0, ∞) y puesto que f es un polinomio, f (x) = 0 para todo x ∈ R; es decir, f es el polinomio constante cero (el único polinomio que tiene una infinidad de raı́ces es el polinomio constante cero). De los 5 incisos precedentes se concluye que f , g es un producto interior. Q En los ejercicios 5 a 9, f , g es el producto interior en el espacio de polinomios P, definido en el ejercicio 4 y · es la norma inducida por este producto. 15 Calcular 1 + x, x. Solución 1 + x, x = ∞ 0 (1 + x)xe−x dx = lı́m r→∞ = lı́m r 0 r→∞ r 0 −x xe dx + −x xe dx − r 0 2 −x x e dx r x2 e−x 0 + 2 0 r −x xe r r −x r − x2 e−x 0 e = lı́m 3 − xe−x 0 + r→∞ 0 r r r = lı́m 3 − xe−x 0 − e−x 0 − x2 e−x 0 r→∞ = lı́m 3 −re−r − e−r + 1 − r2 e−r r→∞ =3 Page (PS/TeX): 116 / 350, COMPOSITE Ejercicios resueltos y ejercicios propuestos 351 SECCIÓN 4.3 16 Calcular x. x2 = x, x Solución = ∞ 0 = lı́m x2 e−x dx r r→∞ 0 x2 e−x dx r r = lı́m −x2 e−x 0 + 2 xe−x dx r→∞ = lı́m r→∞ 0 r −x2 e−x 0 + 2 r −xe−x 0 + 0 r −x e dx r r r = lı́m −x2 e−x 0 + 2 −xe−x 0 + e−x 0 r→∞ = lı́m −r2 e−r + 2 −re−r − e−r + 1 r→∞ = 2. Por tanto x = √ 2. 17 Encontrar el ángulo φ entre f (x) = 1 y g(x) = x. 12 = Solución ∞ 0 e−x dx r e−x dx r = lı́m −e−x 0 = lı́m r→∞ 0 r→∞ = lı́m −e−r + 1 r→∞ Por el ejercicio 6 x = √ = 1. 2, y ya que 1, x = ∞ 0 xe−x dx r xe−x dx r r = lı́m −xe−x 0 −e−x 0 = lı́m r→∞ 0 r→∞ =1 se tiene 1, x φ = arc cos 1 x 1 = arc cos √ 2 √ 2 = arc cos 2 = Page (PS/TeX): 117 / 351, COMPOSITE π . 4 352 CAPÍTULO 4 Espacios con producto interior y espacios normados 18 Hallar una base ortonormal del subespacio S = gn(1, x, x2 ). 12 = Solución ∞ 0 = lı́m e−x dx r r→∞ 0 e−x dx = lı́m −e−x r→∞ r 0 = lı́m 1 − e−r = 1, por tanto, u1 = 1 w2 = x − x, 1 1 = x− ∞ 0 xe−x dx = x − 1, w2 2 = ∞ 0 (x − 1)2 e−x dx =1 por lo que, u2 = x − 1. 6 7 6 7 w3 = x2 − x2 , 1 1 − x2 , x − 1 (x − 1) = x2 − ∞ 0 x2 e−x dx − ∞ 0 x2 (x − 1)e−x dx(x − 1) = x2 − 2 − 4(x − 1) = x2 − 4x + 2, w3 2 = 0 ∞ 2 x2 − 4x + 2 e−x dx =4 y, por tanto, u3 = La base ortonormal es entonces 1 2 x − 4x + 2 . 2 8 9 2 1, x − 1, x2 − 2x + 1 . 19 Encontrar la aproximación óptima para f (x) = x3 en el subespacio S = gn(1, x, x2 ). 8 9 2 Por el ejercicio precedente 1, x − 1, x2 − 2x + 1 es una base ortonormal para el subespacio S; por el teorema 4.15 el vector proyección p de f sobre S, es la aproximación óptima de este subespacio sobre f y por 4.14 del teorema 4.11 (cfr. pág. 269), el vector proyección está dado por: Solución Page (PS/TeX): 118 / 352, COMPOSITE Ejercicios resueltos y ejercicios propuestos 353 SECCIÓN 4.3 3 p = ∑ f , ui ui . i=1 6 6 7 x3 , 1 = 7 x3 , x − 1 = ∞ 0 ∞ 0 * 2 x3 , x2 − 2x + 1 = ) ∞ 0 x3 e−x dx = 6, x3 (x − 1)e−x dx = 18, x3 x2 2 − 2x + 1 e−x dx = 18. Por tanto, 2 p = 6 + 18(x − 1) + 18( x2 − 2x + 1) = 6 − 18x + 9x2 . 10 (Representación matricial de un producto interior). Sea u,v un producto interior definido en Rn . Probar que existe una matriz simétrica A ∈ Mn tal que u,v = u t Av para todo par de vectores u,v ∈ Rn . Se dice entonces que la matriz A es una representación matricial del producto interior u,v. DEMOSTRACIÓN Q Sean ei , i = 1, . . . , n los vectores que forman la base canónica del espacio Rn y A = [ei ,e j ]. Si u = (u1 , . . . , un ) y v = (v1 , . . . , vn ) son un par vectores en Rn , entonces % n & n ∑ uiei , ∑ viei u,v = i=1 n i=1 n = ∑ ∑ ui ei ,e j v j i=1 j=1 ⎡ = u1 ··· un = u1 ··· un = u t Av. ⎤ ∑nj=1 e1 ,e j v j ⎢ ⎥ .. ⎣ ⎦ . ∑nj=1 en ,e j v j ⎡ ⎤ ⎤⎡ e1 ,e1 · · · e1 ,en v1 ⎢ ⎥ ⎢ .. ⎥ .. .. .. ⎣ ⎦⎣ . ⎦ . . . en ,e1 · · · en ,en vn Q 11 Utilizar el ejercicio 10 para encontrar una representación matricial del producto interior definido en el ejercicio resuelto 1 de este apartado; es decir, una matriz simétrica A ∈ M3 tal que u,v = u t Av. Solución En este caso el producto interior está definido para cada par de vectores x = (x1 , x2 , x3 ) y y = (y1 , y2 , y3 ), por x,y = y1 x1 − 2y1 x2 − 2y2 x1 + 6y2 x2 + y2 x3 + y3 x2 + y3 x3 , Page (PS/TeX): 119 / 353, COMPOSITE 354 CAPÍTULO 4 Espacios con producto interior y espacios normados e1 ,e1 e1 ,e2 e1 ,e3 e2 ,e2 e2 ,e3 e3 ,e3 entonces, por lo que = = = = = = (1, 0, 0), (1, 0, 0) = 1, (1, 0, 0), (0, 1, 0) = −2, (1, 0, 0), (0, 0, 1) = 0, (0, 1, 0), (0, 1, 0) = 6, (0, 1, 0), (0, 0, 1) = 1, (0, 0, 1), (0, 0, 1) = 1, ⎤ −2 0 6 1 ⎦. 1 1 ⎡ 1 A = ⎣ −2 0 Comprobación: ⎤⎡ ⎤ y1 −2 0 6 1 ⎦ ⎣ y2 ⎦ = y1 x1 − 2y1 x2 − 2y2 x1 + 6x2 y2 1 1 y3 ⎡ x1 x2 x3 1 ⎣ −2 0 + y2 x3 + y3 x2 + y3 x3 = x,y . En los ejercicios 12 a 14, E es el conjunto de funciones continuas en el intervalo [a, ∞) tales que la integral impropia ∞ a converge. 2 ( f (x))2 e−x dx 12 Mostrar que si f , g ∈ E, entonces f g ∈ E. Probar, de hecho, que la integral impropia ∞ converge absolutamente; i.e., que la integral impropia DEMOSTRACIÓN 2 ∞ a 2 f (x) g(x) e−x dx | f (x)g(x)| e−x dx converge. a Q Dado que | f |2 = f 2 , la implicación f ∈ E ⇒ ) | f | ∈ E es2 válida. Sean2 f ,*g ∈ E y r > a. Por la desigualdad de Schwarz, aplicada al producto interior | f (x)| e−x /2 , |g(x)| e−x /2 en C[a, r], se tiene r a −x2 | f (x)g(x)| e ≤ r a 2 −x2 ( f (x)) e 1/2 dx a r 2 −x2 (g(x)) e 1/2 dx . Puesto que f , g ∈ E, las integrales impropias ∞ a 2 ( f (x))2 e−x dx y ∞ a 2 ( f (x))2 e−x dx convergen; entonces, para todo r > a, a r −x2 | f (x)g(x)| e ≤ a ∞ ( f (x)) e ası́ que la función creciente r → Page (PS/TeX): 120 / 354, COMPOSITE 2 −x2 r a 1/2 dx | f (x)g(x)| e−x a 2 ∞ 2 −x2 ( f (x)) e 1/2 dx ; Ejercicios resueltos y ejercicios propuestos 355 SECCIÓN 4.3 es acotada y, por tanto, a ∞ ∞ a −x2 f (x)g(x)e dx converge. r r→∞ a existe. Dado que la convergencia de 2 | f (x)g(x)| e−x dx = lı́m ∞ a | f (x)g(x)| e−x 2 |u(x)| dx implica la convergencia de ∞ a u(x)dx, se tiene que Q 13 Demostrar que E, con las operaciones usuales de suma entre funciones y multiplicación de un escalar con una función, es un espacio vectorial. DEMOSTRACIÓN Q Claramente la función constante cero en el intervalo [a, ∞) pertenece a E. Puesto que la suma de funciones continuas y la multiplicación de un escalar con una función continua también es una función continua y E ⊂F ([a, ∞)), el espacio de funciones con dominio el intervalo [a, ∞), basta probar que f , g ∈ E y α, β ∈ R implican α f + βg ∈ E. En efecto: ⎡ lı́m r→∞ a r r 2 −x2 dx a ( f (x)) e r −x2 +2αβ a f (x)g(x)e dx 2 +β 2 ar (g(x))2 e−x dx α2 ⎢ 2 (α f (x) + βg(x))2 e−x dx = lı́m ⎢ ⎣ r→∞ y ya que f , g ∈ E, por definición de E y por el ejercicio precedente, ∞ a 2 (g(x))2 e−x dx convergen y, por tanto, a 14 Por el ejercicio 12, la integral impropia ∞ ∞ a a 2 ( f (x))2 e−x dx, 2 f , g = = a ∞ a ∞ α f , g = 2 2 f (x)g(x)e−x dx ∞ 2 g(x) f (x)e−x dx a ∞ a =α f , g + h = = 2 α f (x)g(x)e−x dx ∞ a ∞ a a ∞ 2 f (x)(g(x) + h(x))e−x dx 2 f (x)g(x)e−x dx + = f , g + f , h . Page (PS/TeX): 121 / 355, COMPOSITE 2 f (x)g(x)e−x dx = α f , g . a 2 f (x)g(x)e−x dx, f (x)g(x)e−x dx probar que éste es un producto = g, f . (c) ∞ 2 Q Sean f , g, h ∈ E y α ∈ R. (b) ( f (x)g(x))e−x dx converge para todo par de funciones en el interior en E. (a) ∞ ⎥ ⎥ ⎦ (α f (x) + βg(x))2 e−x dx converge; es decir, α f + β g ∈ E. Q espacio E del ejercicio anterior, si se define f , g = DEMOSTRACIÓN ⎤ ∞ a 2 f (x)h(x)e−x dx 356 CAPÍTULO 4 Espacios con producto interior y espacios normados f, f = (d) ∞ 2 f 2 (x)e−x dx ≥ 0. a (e) Claramente si θ es la función constante cero en [a, ∞), θ, θ = 0. Sean f ∈ E tal que f , f = 0 y r > 0 un número real fijo. Entonces, 0≤ r a 1/2 2 a (u(x)) dx r de donde, para la norma u = 2 ( f (x))2 e−x dx ≤ ∞ a 2 ( f (x))2 e−x dx = 0; en C[a, r], se tiene 2 f (x)e−x /2 = 0 y, por tanto, f (x)e−x 2 /2 = 0 ∀x ∈ [a, r] 2 y ya que e−x /2 = 0 para todo x ∈ [a, r], se concluye que f es la función constante cero en el intervalo [a, r]. Dado que r es cualquier número real mayor que a, entonces f (x) = 0 para todo x ∈ [a, ∞); es decir, f = θ, el neutro aditivo de E. Q ∞ 2 f (x)g(x)e−x dx es el producto interior definido en el ejercicio 14, a 1/2 ∞ 2 ( f (x))2 e−x dx la norma inducida por este producto E es el espacio del ejercicio 13 y f = En los ejercicios 15 a 18, f , g = a escalar, para el caso particular a = 0. 15 Probar que f ∈ E y calcular f si f (x) = 1. f 2 = Solución ∞ 0 2 12 e−x dx = ∞ 0 2 e−x dx. Sean R > 0, QR la región de los puntos (x, y) ∈ R2 con 0 ≤ x ≤ R, 0 ≤ y ≤ R y CR la región de puntos (x, y) ∈ R2 con x2 + y2 ≤ R2 en el primer cuadrante. Entonces −x2 −y2 CR e dA ≤ −x2 −y2 QR e dA ≤ C√ e−x 2 −y2 dA. 2R Ya que, QR −x2 −y2 e dA = R R 0 0 −x2 −y2 e dydx = R 0 e y, al emplear coordenadas polares, Cρ e−x 2 −y2 dA = π 2 0 0 π 2 ρ 2 e−r rdrdθ 1 2 − e−r 2 0 ! π 2 1 − e−ρ = 4 = Page (PS/TeX): 122 / 356, COMPOSITE ρ dθ 0 −x2 2 dx Ejercicios resueltos y ejercicios propuestos 357 SECCIÓN 4.3 se tiene ! 1 2 π 1 − e− 2 R ≤ 4 R 0 −x2 e 2 ≤ dx ! π 2 1 − e−R 4 y, por tanto, ! 1 2 π 1 − e− 2 R ≤ lı́m lı́m R→∞ 4 R→∞ R 0 −x2 e 2 ! π 2 1 − e−R ; R→∞ 4 ≤ lı́m dx de donde lı́m R→∞ R 0 2 e−x dx 2 = π . 4 Luego, ∞ 0 2 e−x dx = √ π ; 2 lo cual implica 1 ∈ E y 1 = 16 Probar que la función f (x) = √ x, x ≥ 0, pertenece a E y calcular f . DEMOSTRACIÓN √ 1/2 √ 4 π π = √ . 2 2 Q 0 ∞ r √ 2 2 ( x)2 e−x dx = lı́m xe−x dx r→∞ 0 r 1 2 = lı́m − e−x r→∞ 2 0 1 1 −r2 − e = lı́m r→∞ 2 2 = 1 . 2 Lo cual prueba que f ∈ E. Por último, f = √ 2 ( x)2 e−x dx ∞ 0 √ 2 . = 2 1/2 Q 17 Demostrar que f ∈ E y calcular f si f (x) = x. DEMOSTRACIÓN Q Page (PS/TeX): 123 / 357, COMPOSITE 0 r 2 x2 e−x dx = 0 r 2 xe−x x dx r 1 −x2 1 r −x2 = − xe + e dx. 2 2 0 0 358 CAPÍTULO 4 Espacios con producto interior y espacios normados Luego, ∞ 2 x2 e−x dx = lı́m r 2 x2 e−x dx r 1 −x2 1 r −x2 = lı́m − xe + e dx r→∞ 2 2 0 0 r 1 1 2 2 e−x dx = lı́m − re−r + lı́m r→∞ 2 2 r→∞ 0 √ π = 0+ 4 √ π . = 4 r→∞ 0 0 Por lo que f ∈ E y f = √ 1/2 √ 4 π π . = 4 2 Q 18 Sean α ∈ R, f (x) = cos(αx). Probar que f ∈ E y calcular 1, f (ya se probó en el ejercicio 15 que la función constante 1 pertenece a E). DEMOSTRACIÓN 2 2 Q Puesto que cos2 (αx)e−x ≤ e−x para todo x y que 0 ∞ ∞ 0 2 e−x dx converge (cfr. ejercicio 15), se concluye 2 cos2 (αx)e−x dx converge y, por tanto, f ∈ E para todo α ∈ R. Sea ϕ(α) = ∞ 0 2 e−x cos(αx)dx. 2 2 Entonces, puesto que la función (x, α) → e−x cos(αx) y su derivada parcial ∂/∂α( e−x cos(αx)) = 2 −xe−x sen(αx) son continuas, 2 2 −x e cos(αx) ≤ e−x , 2 2 −xe−x sen(αx) ≤ |x| e−x y las integrales impropias 0 ∞ 2 e−x dx, 0 ∞ ϕ (α) = = Al integrar por partes, 2 |x| e−x dx convergen (por los ejercicios 15 y 16), se tiene ∞ 0 0 ∞ ∂ −x2 e cos(αx) dx ∂α 2 −xe−x sen(αx)dx. x=r 1 −x2 α ∞ −x2 e sen(αx) − e cos(αx)dx r→∞ 2 2 0 x=0 1 −r2 α = lı́m e sen(αr) − ϕ(α). r→∞ 2 2 ϕ (α) = lı́m Y puesto que 1 −r2 1 2 0 ≤ e sen(αr) ≤ e−r 2 2 Page (PS/TeX): 124 / 358, COMPOSITE Ejercicios resueltos y ejercicios propuestos 359 SECCIÓN 4.3 se desprende que lı́m r→0 y, por tanto, 1 −r2 e sen(αr) = 0 2 α ϕ (α) = − ϕ(α); 2 es decir, dϕ α = − ϕ. dα 2 Al separar variables se obtiene dϕ 1 = − αdα, ϕ 2 y al integrar 1 ln |ϕ| = − α2 +C 4 para alguna constante C. Esto es, ϕ(α) = Ae− α2 4 para alguna constante A. Por el ejercicio 15 se sabe que ϕ(0) = y, por tanto, A = √ π 2 . ∞ 0 −x2 e √ π dx = 2 Luego 1, f = 1, cos(αx) = ∞ 0 2 e−x cos(αx)dx √ π −α2 /4 e . Q 2 19 Calcular el ángulo entre las funciones f (x) = 1 y g(x) = x. = Solución De los ejercicios 16, 17 y 15 1, x = ∞ 1 2 xe−x dx = , 2 0 √ 4 π x = y 2 √ 4 π 1 = √ . 2 Por lo que, 1, x 1 x ⎡ ⎤ φ = arc cos 1 ⎢ ⎥ 2 ⎥ √ √ = arc cos ⎢ 4 4 ⎣ π π⎦ √ √ 2 2 Page (PS/TeX): 125 / 359, COMPOSITE 360 CAPÍTULO 4 Espacios con producto interior y espacios normados 1 = arc cos √ π ≈ 0. 97134 o φ ≈ 55. 65◦ . 20 Encontrar una base ortonormal para el subespacio S = gn(1, x) utilizando el proceso de ortogonalización de Gram-Schmidt. Solución Por los ejercicios 16, 17 y 15 √ 2 1 1 = √4 = √ u1 = 4 π 1 π √ 2 w2 = v2 − v2 , u1 u1 % √ &√ 2 2 √ . = x − x, √ 4 4 π π % √ & √ 2 2 ∞ −x2 √ x, √ = xe dx 4 4 π π 0 1 √ = √ 2, 24π % √ &√ √ 2 2 2 1 √ √ x, √ = √ 2√ 4 4 4 4 π π 2 π π 1 =√ π y, por tanto, % √ &√ 2 2 1 √ = x− √ . w2 = x − x, √ 4 π 4π π ∞ 1 2 e−x (x − √ )2 dx π ∞ 1 x 2 = e−x (x2 − 2 √ + )dx π π 0 1 −2 + π √ . = 4 π w2 2 = Ası́ que, La base ortonormal es, entonces, Page (PS/TeX): 126 / 360, COMPOSITE 0 √ 1 24π √ u2 = (x − √ ). π π−2 $√ ( √ 2 24π 1 √ ,√ (x − √ ) . 4 π π−2 π Ejercicios resueltos y ejercicios propuestos 361 SECCIÓN 4.3 21 Encontrar la aproximación óptima para u(x) = x2 en el subespacio S = gn(1, x). La aproximación óptima para u en el subespacio S viene dada por la proyección ortogonal p √ √ 2 1 24π √ √ (x − √ ) forman una base de u sobre S. Y ya que por el ejercicio precedente u1 = 4 y u2 = π π π−2 ortonormal de S, por (4.14) del teorema 4.11 (cfr. pág. 269) Solución p = u, u1 u1 + u, u2 u2 . Del ejercicio 17, u, u1 u1 = = = u, u2 = = 0 ∞ √ 24π √ π−2 √ 4 2 π √ π−2 2 x3 e−x dx = ∞ 0 ∞ 0 √ 2 √ 4π √ π √2 π 4 1 2, 2 ∞ 0 2 x2 e−x dx 2 x3 e−x dx − √1π 2 x3 e−x dx − ∞ ∞ 0 √ π √1 π 4 2 x2 e−x dx 2 x2 xe−x dx 0 r r −x2 1 2 −x2 1 2xe dx = lı́m − 2 x e + 2 r→∞ 0 0 ! ! 2 2 r = lı́m − 12 r2 e−r − 12 e−x r→∞ 0 = 12 . Por lo que, u, u2 = = √ 24π 1 √ π−2 2 √ 4 √ π 2 π−2 − 14 y u, u2 u2 = = √ √ 4 24π √ π √ (x − √1π ) 2 π−2 π−2 √ π √1 π−2 x − π . Por tanto, la aproximación óptima de u(x) = x2 en el espacio S = gn(1, x) es √ π 1 1 √ x− . p= + 2 π−2 π 22 Encontrar los valores de las constantes a, b, c tales que 1 −1 alcance el valor más pequeño posible. Page (PS/TeX): 127 / 361, COMPOSITE e x − a − bx − cx2 2 dx 362 CAPÍTULO 4 Espacios con producto interior y espacios normados El problema se resuelve si a + bx + cx2 es la aproximación óptima a la función f (x) = e x en 1 el espacio S = gn(1, x, x2 ) relativa a la norma inducida por el producto interior g, h = −1 g(x)h(x)dx en C[−1, 1]. Se construye primero una base ortonormal {u1 , u2 , u3 } para el espacio S a partir de los generadores L.I. 1, x y x2 : Solución 12 = 1 −1 dx = 2 y, por tanto, 1 u1 = √ . 2 w2 = x − x, u1 u1 1 2 = x− 1 −1 x = x, w2 2 = = 1 −1 x2 dx 2 3 y, entonces, u2 = 3 x. 2 7 7 6 6 w 3 = x 2 − x 2 , u 1 u1 − x 2 , u 2 u2 1 2 1 2 =x − , 3 = x2 − w3 2 = = y, por tanto, 3 u3 = 2 1 −1 1 x2 dx − x2 − −1 3 2 1 3 1 −1 x3 dx 2 dx 8 45 5 2 1 x − . 2 3 Del teorema 4.11 (cfr. pág. 269) la aproximación óptima está dada por 3 p = ∑ f , ui ui . i=1 √ * e x , 1/ 2 = ) = Page (PS/TeX): 128 / 362, COMPOSITE √1 2 1 2 1 −1 e−x dx √ −1 2 −e + e , Ejercicios resueltos y ejercicios propuestos 363 SECCIÓN 4.3 x e , 3 2x = = e x , 32 5 2 x2 − 13 √ 3 2 1 −1 xe x dx 6e−1 , e x x2 − 13 dx −1 √ 2 −1 3 . = 4 10 3 e − 14 3 e = 3 2 5 2 1 Luego, √ √ −1 3 2 −e + e √12 + 6e−1 2x √ 2 3 5 2 1 3 14 −1 = + 4 10 3 e − 3 e 2 2 x −3 2 −1 105 −1 x . − 34 e + 3e−1 x + 15 = 33 4 e 4 e− 4 e p= 1 2 Entonces, a = 33 −1 − 34 e, 4 e −1 b = 3e , c= 15 105 −1 4 e− 4 e . Espacios vectoriales normados 23 Calcular f ∞ , si f (x) = x x2 + 4 en C[−3, 4]. Solución El máximo absoluto de | f | se alcanza en los extremos del intervalo [−3, 4] o en los puntos crı́ticos de la función f que están en el intervalo (−3, 4). f (x) = 4 − x2 = 0 ⇒ x = ±2. x2 + 4 −3 = 3 , | f (−3)| = (−3)2 + 4 13 1 2 = = | f (2)| , | f (−2)| = (−2)2 + 4 4 4 1 = . | f (4)| = 2 (4) + 4 5 Por tanto, 1 f ∞ = . 4 24 Encontrar la distancia entre las funciones f (x) = 2 sen x y g(x) = − cos 2x relativa a la norma uniforme · en C[0, π]. Solución Page (PS/TeX): 129 / 363, COMPOSITE d( f , g) = f − g∞ . 364 CAPÍTULO 4 Espacios con producto interior y espacios normados ( f (x) − g(x)) = (2 sen x + cos 2x) = 2 cos x − 2 sen(2x). 2 cos x − 2 sen(2x) = 0 ⇒ 2 cos x − 4 cos x sen x = 0 ⇒ 2 cos(x)(1 − 2 sen x) = 0. Los puntos crı́ticos de f − g en (0, π) son entonces x = π2 , x = π 6 y 5π 6 . Puesto que, π π 2 sen + cos 2 = 1, 2 2 π π 3 2 sen + cos 2 = , 6 6 2 2 sen 5π + cos 2 5π = 3 , 6 6 2 2 sen 5π + cos 2 5π = 1 y 6 6 2 sen 5π + cos 2 5π = 1, 6 6 se tiene 3 d( f , g) = . 2 En los ejercicios 25 y 26, f 1 = ab | f (x)| dx en el espacio C[a, b]. x , a = −1 y b = 1. 1 + x2 25 Calcular f 1 si f (x) = f 1 = Solución 1 −1 | f (x)| dx 1 −x x = dx + dx 2 1 + x 1 + x2 −1 0 0 1 1 1 2 2 = − ln(1 + x ) + − ln(1 + x ) 2 2 −1 0 0 = ln(2). 26 Calcular d( f , g) en C[a, b] relativa a la norma f 1 = b = π. b a | f (x)| dx si f (x) = sen x y g(x) = cos x y a = 0, d( f , g) = f − g1 Solución 0 π |sen x − cos x| dx = 0 π/4 (cos x − sen x)dx + π/4 π π/4 (sen x − cos x)dx = [sen x + cos x]0 + [− cos x − senx]ππ/4 √ √ = 2−1+1+ 2 √ = 2 2. Page (PS/TeX): 130 / 364, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 365 27 Un conjunto no vacı́o de números reales A es acotado si existe M ≥ 0 tal que |x| ≤ M para todo x ∈ A. Se dice entonces que M es una cota de A. A la menor cota s de un conjunto acotado, se le llama el supremo de este conjunto y se denota por s = sup A. (a) Sea B(R) el conjunto de todas las sucesiones de números reales que son acotadas. Probar que B(R) es un subespacio de R∞ , el espacio de sucesiones reales. (b) Si (an ) ∈ B(R) se define (an ) = sup {|an | : n ∈ N} . Probar que (an ) es una norma en B(R). DEMOSTRACIÓN Q (a) Obviamente la sucesión constante cero es acotada. Sean (an ), (bn ) ∈ B(R) y M1 , M2 ≥ 0 cotas de sendas sucesiones, entonces |an + bn | ≤ |an | + |bn | ≤ M1 + M2 ∀n Ası́ que la sucesión (an + bn ) es también acotada. Si α ∈ R, entonces |αan | = |α| |an | ≤ |α| M1 ∀n y, por tanto, la sucesión (αan ) es acotada, lo cual prueba que B(R) es un subespacio de R∞ . (b) Sean (an ), (bn ) ∈ B(R) y α ∈ R. (i) Puesto que 0 ≤ |an | ≤ (an ) ∀n se tiene (an ) ≥ 0. (ii) Es claro que la norma de la sucesión constante cero es cero. Si (an ) = 0, entonces 0 ≤ |an | ≤ (an ) = 0 ∀n de donde se desprende que an = 0 para todo n y, por tanto, (an ) es la sucesión constante cero. (iii) Si α = 0, es claro que α(an ) = |α| (an ) = 0. Suponga que α = 0; puesto que |an | ≤ (an ) para todo n, se cumple |αan | = |α| |an | ≤ |α| (an ) ∀n, ası́ que |α| (an ) es una cota de la sucesión (αan ); y puesto que (αan ) es la menor cota, (αan ) ≤ |α| (an ) . Por otra parte, |α| |an | = |αan | ≤ (αan ) ∀n |an | ≤ Page (PS/TeX): 131 / 365, COMPOSITE 1 (αan ) ∀n |α| ∴ 366 CAPÍTULO 4 Espacios con producto interior y espacios normados y, por ende, (an ) ≤ 1 (αan ) . |α| Luego, |α| (an ) ≤ (αan ) ≤ |α| (an ) lo cual implica (αan ) = |α| (an ) . (iv) Puesto que |an | ≤ (an ) y |bn | ≤ (bn ) para todo n, se tiene |an + bn | ≤ (an ) + (bn ) ∀n. Entonces, (an ) + (bn ) es una cota para (an + bn ) y, por tanto, ya que (an + bn ) es la menor cota, (an + bn ) ≤ (an ) + (bn ) . Q En los ejercicios 28 a 29 (i) probar que la sucesión (an ) pertenece a B(R) y (ii) calcular (an ). 28 an = 1 n + (−1)n . Solución (i) Para todo n ∈ N, 1 + (−1)n ≤ 1 + |(−1)n | n n 1 = +1 n ≤ 2. y, por tanto, (an ) es acotada. (ii) Para cada n: 1 + (−1)2n = 1 + 1 ≤ 3 2n 2n 2 y 1 1 2n+1 2n + 1 + (−1) = 2n + 1 − 1 = 1− 1 2 ≤ 2n + 1 3 Puesto que todo número natural es par o impar, se concluye que 3 |an | ≤ . 2 Y ya que |a2 | = 32 , se tiene 3 (an ) = . 2 Page (PS/TeX): 132 / 366, COMPOSITE SECCIÓN 4.3 29 an = Ejercicios resueltos y ejercicios propuestos 367 n . n+1 Solución (i) Para todo n ∈ N: |an | = n ≤ 1. n+1 n Por tanto, 1 es cota de (an ). (ii) Suponga que M es cota de (an ) con 0 < M < 1. Ya que lı́mn→∞ n+1 = 1, existe n0 tal que n0 n0 = 1 − < 1−M 1− n0 + 1 n0 + 1 de donde: M< n0 , n0 + 1 por lo que M no puede existir. Por ende, la menor cota de (an ) es 1; entonces (an ) = 1. 30 Sea Mm×n el espacio vectorial de las matrices de tamaño m × n y A ∈ Mm×n . Si ·2 representa la norma 1/2 , para k = n, m, probar que el conjunto euclidiana en Rk ; esto es, (x1 , . . . , xk )2 = ∑ki=1 xi2 SA = {Ax2 :x ∈ Rn , x2 = 1} es acotado. DEMOSTRACIÓN Q Sean ei , i = 1, . . . , n, la base canónica de Rn y M = máx1≤i≤n Aei 2 . Si x = (x1 , . . . , xn ) ∈ Rn y x2 = 1, entonces Ax2 = A(x1e1 + · · · + xnen 2 ≤ |x1 | Ae1 2 + · · · + |xn | Aen 2 ≤ (|x1 | + · · · + |xn |) M ≤ Mn x∞ ≤ Mn x2 = Mn. Q 31 Sean A ∈ Mm×n , ·2 y SA como en el ejercicio precedente. Se define A = sup SA . (a) Mostrar que Ax2 ≤ A x2 para todo x ∈ Rn . (b) Probar que A es una norma en Mm×n . DEMOSTRACIÓN Q Sean A, B ∈ Mm×n y α ∈ R. (a) Si x = 0Rn , entonces Ax2 = 0Rm = 0 = A x. Sean x ∈ Rn − {0Rn } y x1 = x1 2 = 1 y, por tanto, Page (PS/TeX): 133 / 367, COMPOSITE 2 1 x, x2 entonces 368 CAPÍTULO 4 Espacios con producto interior y espacios normados 1 1 Ax2 = A x x 2 x2 2 = Ax1 2 ≤ A , lo cual implica Ax2 ≤ A x2 (b) (i) Si x ∈ Rn y x2 = 1, entonces 0 ≤ Ax2 ≤ A . (ii) Si A = O, la matriz cero, entonces, Ax2 = 0Rm = 0 para todo x ∈ Rn , con x2 = 1 y por tanto A = 0. Suponga que A = 0, entonces Ax2 ≤ A x2 = 0 · x2 = 0 para todo x ∈ Rn ; de donde se desprende que Ax = 0Rm para todo x ∈ Rn . Del lema 5.1 (cfr. pág 436) se concluye que A = O. (iii) Si α = 0, entonces αA = O = 0 = |α| A. Si α = 0, entonces, para cada x ∈ Rn , con x2 = 1, se tiene (αA)x2 = A(αx)2 ≤ A αx2 = A |α| x2 = |α| A y, por tanto, αA ≤ |α| A ; y |α| Ax2 = A(αx)2 = (αA)x2 ≤ αA ; de donde, Ax2 ≤ 1 αA . |α| Entonces, A ≤ Page (PS/TeX): 134 / 368, COMPOSITE 1 αA ; |α| Ejercicios resueltos y ejercicios propuestos 369 SECCIÓN 4.3 luego, |α| A ≤ αA ≤ |α| A ; ası́ que αA = |α| A . (iv) Para todo vector unitario x ∈ Rn (x2 = 1), se tiene (A + B)x2 = Ax + Bx2 ≤ Ax2 + Bx2 ≤ A + B y, por tanto, A + B ≤ A + B . Q 32 Sean A ∈ Mm×n , B ∈ Mn×p y C = sup SC la norma del ejercicio precedente. Probar que AB ≤ A B . DEMOSTRACIÓN Q Sea x ∈ R p con x2 = 1, entonces (AB)x2 = A(Bx)2 ≤ A Bx2 ≤ A B , por lo que AB ≤ A B . Q En los ejercicios 33 a 35, C[α, β] es el espacio de funciones continuas en el intervalo [α, β], p > 1 es un número real y, para cada f ∈ C[α, β], β 1/p p | f (x)| dx f p = α p (puesto que f ∈ C[α, β], la función | f | también y por tanto es integrable en [α, β]). 33 Si f , g ∈ C[α, β] y p, p∗ > 1 son ı́ndices conjugados ( 1p + β α 1 p∗ = 1), probar que | f (x)g(x)|dx ≤ f p g p∗ . Es decir, | f , g| ≤ f p g p∗ donde f , g = DEMOSTRACIÓN β α f (x)g(x)dx es el producto interior usual en C[α, β]. Q Si f o g es la función constante cero en [α, β], la afirmación es evidentemente verdadera. Suponga que ambas funciones no son nulas en [α, β]; entonces, por continuidad, f p = 0 = g p∗ . Sean x ∈ [α, β] un punto fijo de este intervalo y Page (PS/TeX): 135 / 369, COMPOSITE 370 CAPÍTULO 4 Espacios con producto interior y espacios normados a= | f (x)| p f pp y ∗ b= |g(x)| p ∗ g pp∗ en el lema 4.2 (cfr. pág. 329). Entonces, por (4.47) de este lema ∗ | f (x)| |g(x)| 1 | f (x)| p 1 |g(x)| p ≤ + ∗ f p g p∗ p f pp p∗ g pp∗ para cada x ∈ [α, β]. Luego, 1 f p g p∗ β α | f (x)| |g(x)| dx ≤ 1 p f pp + = β α 1 p∗ f | f (x)| p dx p∗ p∗ β α ∗ |g(x)| p dx 1 1 p∗ p ∗ g p∗ p f p + p p f p p∗ g p∗ 1 1 + p p∗ =1 = y, por tanto, β α | f (x)| |g(x)| dx ≤ f p g p∗ . Finalmente, β | f , g| = f (x)g(x)dx α ≤ β | f (x)| |g(x)| dx α ≤ f p g p∗ . Q 34 Si f , g ∈ C[α, β], demostrar que f + g p ≤ f p + g p . DEMOSTRACIÓN Q Para cualquier x ∈ C[α, β] | f (x) + g(x)| p = | f (x) + g(x)| | f (x) + g(x)| p−1 ≤ | f (x)| | f (x) + g(x)| p−1 + |g(x)| | f (x) + g(x)| p−1 y, por tanto, β α | f (x) + g(x)| p dx ≤ β α + Page (PS/TeX): 136 / 370, COMPOSITE | f (x)| | f (x) + g(x)| p−1 dx β α |g(x)| | f (x) + g(x)| p−1 dx. SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 371 Por el ejercicio precedente, β α β α | f (x)| | f (x) + g(x)| p−1 dx ≤ f p ( f + g) p−1 p∗ y |g(x)| | f (x) + g(x)| p−1 dx ≤ g p ( f + g) p−1 p∗ . Entonces, β α | f (x) + g(x)| p dx ≤ f p ( f + g) p−1 p∗ + g p ( f + g) p−1 p∗ = f p + g p ( f + g) p−1 p∗ β 1/p∗ ∗ | f (x) + g(x)|(p−1)p dx = f p + g p = f p + g p α β α p | f (x) + g(x)| dx 1/p∗ . Ası́ que, β α | f (x) + g(x)| p dx 1−1/p∗ ≤ f p + g p esto es, β α | f (x) + g(x)| p dx 1/p ≤ f p + g p . O sea f + g p ≤ f p + g p . Q 35 Demostrar que f p = β α p 1/p | f (x)| dx es una norma en C[α, β]. DEMOSTRACIÓN Q Sean f , g ∈ C[α, β], λ ∈ R. (a) Es evidente que f p ≥ 0. (b) Si f = θ, la función constante cero en [α, β], es claro que f p = 0. Suponga que f p = 0, entonces β α | f (x)| p = 0, por continuidad34 se desprende que | f (x)| p = 0 y, por tanto, f (x) = 0 para todo x ∈ [α, β]. 1A lo largo de este texto, la demostración de que una función no negativa, continua y cuya integral en un intervalo es cero tiene que ser una función nula se ha realizado varias veces y por esta razón ya no se repite aquı́. 34 Page (PS/TeX): 137 / 371, COMPOSITE 372 CAPÍTULO 4 Espacios con producto interior y espacios normados λ f p = (c) = β α β α |λ f (x)| p dx p 1/p p |λ| | f (x)| dx = |λ| p = |λ| 1/p β α β 1/p p | f (x)| dx | f (x)| p dx α 1/p = |λ| f p . (d) Por el ejercicio anterior f + g p ≤ f p + g p . Q 36 Calcular, en relación con el ejercicio precedente, f p si f (x) = cos x, p = 3, α = 0 y β = π. f 33 = Solución = cos3 x dx = = = π 0 |cos x|3 dx π/2 0 f 33 cos x dx − π π/2 cos3 x dx. cos2 x cos x dx (1 − sen2 x) cos x dx cos x dx − = sen x − Por tanto, 3 sen3 x = sen x − 3 sen2 x cos x dx sen3 x +C 3 π/2 0 sen3 x − sen x − 3 π π/2 2 2 = + 3 3 4 = 3 y, entonces, f 3 = 3 4 . 3 37 Sean a ∈ R y L1 [a, ∞) el conjunto de funciones continuas f : [a, ∞) → R tales que ∞ a | f (x)| dx converge. (a) Probar que L1 [a, ∞) es un espacio vectorial con las operaciones suma de funciones y multiplicación de un escalar con una función usuales. (b) Sea f 1 = Page (PS/TeX): 138 / 372, COMPOSITE ∞ a | f (x)| dx, para cada f ∈ L1 [a, ∞). Mostrar que f 1 es una norma en L1 [a, ∞). Ejercicios resueltos y ejercicios propuestos 373 SECCIÓN 4.3 DEMOSTRACIÓN Q (a) Dado que L1 [a, ∞) ⊂ C[a, ∞), basta probar que L1 [a, ∞) < C[a, ∞). (i) Es evidente que la función constante cero pertenece a L1 [a, ∞). (ii) Sean f , g ∈ L1 [a, ∞), entonces, para todo x ∈ [a, ∞), | f (x) + g(x)| ≤ | f (x)| + |g(x)| y, por tanto, para todo r ≥ a, r a | f (x) + g(x)| dx ≤ ∞ a | f (x)| dx + a ∞ ≤ de donde r | f (x)| dx + a r a | f (x)| dx ∞ a | f (x)| dx, | f (x) + g(x)| dx converge, entonces f + g ∈ L1 [a, ∞). (iii) Sea α ∈ R y f ∈ L1 [a, ∞), entonces r lı́m r→∞ a |α f (x)| dx = |α| lı́m = |α| y, por tanto, ∞ a r r→∞ a ∞ a | f (x)| dx | f (x)| dx |α f (x)| dx converge, ası́ que α f ∈ L1 [a, ∞) y α f 1 = |α| f 1 . (b) Sean f , g ∈ L1 [a, ∞) y α ∈ R. f 1 = (i) ∞ | f (x)| dx ≥ 0. a (ii) Es claro que θ1 = 0 para la función constante cero. Si f = 0, entonces a y, por tanto, r a r | f (x)| dx ≤ ∞ a | f (x)| dx = 0 | f (x)| dx = 0; de aquı́ que, por continuidad, f (x) = 0 para todo intervalo [a, r]; es decir, f es la función constante cero en [a, ∞). (iii) Se probó en 37(a)(iii). (iv) Puesto que r a se tiene a ∞ | f (x) + g(x)| dx ≤ | f (x) + g(x)| dx ≤ r a a ∞ | f (x)| dx + | f (x)| dx + r a |g(x)| dx ∞ a |g(x)| dx es decir, f + g1 ≤ f 1 + g1 . 38 Sean L [0, ∞) y f 1 = ∞ 0 Q | f (x)| dx el espacio y la norma del ejercicio precedente para el caso parti- cular a = 0. Probar que si f (x) = e−x , entonces f ∈ L [0, ∞) y calcular f 1 . Page (PS/TeX): 139 / 373, COMPOSITE 374 CAPÍTULO 4 Espacios con producto interior y espacios normados DEMOSTRACIÓN Q r e−x dx = lı́m e−x dx ∞ 0 r→∞ 0 = lı́m −e−x r→∞ r 0 = lı́m 1 − e−r r→∞ = 1, lo cual demuestra que f ∈ L [0, ∞) y f 1 = 1. Q En los ejercicios 39 a 41, S = gn((−1, 1)) y u = (0, 1) en R2 . 39 Hallar la aproximación óptima, p∗ , de u en el subespacio S respecto a la norma euclidiana (x, y) = x2 + y2 . Solución Los elementos de S tienen la forma (−a, a) con a ∈ R. u − (−a, a)2 = (a, 1 − a)2 = a2 + (1 − a)2 . Si ψ(a) = a2 + (1 − a)2 , a ∈ R, entonces ψ (a) = 4a − 2 = 0 ⇒ 1 a= 2 y, puesto que, ψ (a) = 4 > 0 la función ψ alcanza un mı́nimo en a = 1/2. Luego u − (−a, a)2 es mı́nima (y, por tanto, u − (−a, a) es mı́nima) cuando a = 1/2. Ası́ la aproximación óptima de u en S es p∗ = (−1/2, 1/2) y √ u − p∗ = 2/2. Note que en este caso p∗ también se puede calcular utilizando la proyección de u sobre S, pues la norma euclidiana proviene del producto punto de vectores. 40 Encontrar todas las aproximaciones óptimas de u en el subespacio S respecto a la norma cúbica (x, y)∞ = máx {|x| , |y|} . Solución Los elementos de S tienen la forma (−a, a) con a ∈ R. u − (−a, a)∞ = (a, 1 − a)∞ = máx {|a| , |1 − a|} . Page (PS/TeX): 140 / 374, COMPOSITE Ejercicios resueltos y ejercicios propuestos 375 SECCIÓN 4.3 f f = −a f =a f = 1−a f = a−1 1 2 1 2 1 a Figura 4-36 • De la figura 4-36 se desprende que ' máx {|a| , |1 − a|} = a, si a ≥ 1/2 1 − a, si a < 1/2 y de la misma gráfica se deduce que mı́n u − (−a, a)∞ = mı́n máx {|a| , |1 − a|} a∈R a∈R se alcanza en a = 1/2. Ası́, p∗ = (−1/2, 1/2) es la única aproximación óptima de u en S y u − (−1/2, 1/2)∞ = 1/2 . 41 Encontrar todas las aproximaciones óptimas de u en el subespacio S respecto a la norma (x, y)1 = |x| + |y| . Solución Los elementos de S tienen la forma (−a, a) con a ∈ R. u − (−a, a)1 = (a, 1 − a)1 = |a| + |1 − a| . De la figura 4-36 se desprende que ⎧ ⎪ ⎨ 2a − 1, si a ≥ 1 1, si 0 ≤ a < 1 |a| + |1 − a| = ⎪ ⎩ 1 − 2a, si a < 0 es decir, para cada a ∈ R se tiene ⎧ ⎪ ⎨ 2a − 1, si a ≥ 1 1, si 0 ≤ a < 1 u − (−a, a)1 = ⎪ ⎩ 1 − 2a, si a < 0 Page (PS/TeX): 141 / 375, COMPOSITE 376 CAPÍTULO 4 Espacios con producto interior y espacios normados f 1 a 1 Figura 4-37 • La figura 4-37 contiene la gráfica de f = u − (−a, a)1 cuando a varı́a en R; de ella se deduce que mı́n u − (−a, a)1 a∈R se alcanza en todos los valores a del intervalo [0, 1]. Por tanto, u tiene una infinidad de aproximaciones óptimas en S; a saber, todos los vectores de la forma p∗ = a(−1, 1) con a ∈ [0, 1] y en todos ellos u − (−a, a)1 = 1. 42 Encontrar las aproximaciones óptimas del vector u = (1, 0, 0) en el plano x − y = 0, relativas a la norma (x, y, z)1 = |x| + |y| + |z| en R3 . Solución Un primer método Este plano es el subespacio S = gn((1, 1, 0), (0, 0, 1)). Siv = r(0, 0, 1) + s(1, 1, 0) = (s, s, r) ∈ S, entonces u −v1 = (1, 0, 0) − (s, s, r)1 = |s − 1| + |s| + |r| . (a) Suponga r ≥ 0: (i) si s ≥ 1, entonces |s − 1| + |s| + |r| = s − 1 + s + r = 2s − 1 + r; (ii) si 0 ≤ s < 1, entonces |s − 1| + |s| + |r| = 1 − s + s + r = 1 + r; (iii) si s < 0, entonces |s − 1| + |s| + |r| = 1 − s − s + r = 1 − 2s + r. (b) Suponga r < 0: (i) si s ≥ 1, entonces |s − 1| + |s| + |r| = s − 1 + s − r = 2s − 1 − r; (ii) si 0 ≤ s < 1, entonces |s − 1| + |s| + |r| = 1 − s + s − r = 1 − r; (iii) si s < 0, entonces |s − 1| + |s| + |r| = 1 − s − s − r = 1 − 2s − r. Page (PS/TeX): 142 / 376, COMPOSITE Ejercicios resueltos y ejercicios propuestos 377 SECCIÓN 4.3 De esta manera, si ψ(r, s) = u −v1 , entonces, ⎧ si r > 0 ⎪ ⎨ 1, ∂ψ −1, si r < 0 (r, s) = ⎪ ∂r ⎩ 0, si r = 0 y ⎧ si s > 1 ⎪ ⎨ 2, ∂ψ 0, si 0 ≤ s ≤ 1 (r, s) = ⎪ ∂s ⎩ −2, si s < 0 Por lo que los puntos crı́ticos de ψ tienen la forma (s, s, 0) con 0 ≤ s ≤ 1. En todos ellos u −v1 = |s − 1| + |s| + |r| = 1 y si r = 0 y/o s ∈ / [0, 1], entonces u −v1 = |s − 1| + |s| + |r| > 1; por lo que las aproximaciones óptimas de u en S están dadas por los vectores p∗ = s(1, 1, 0) con 0 ≤ s ≤ 1. Un segundo método Este plano es el subespacio S = gn((1, 1, 0), (0, 0, 1)). Siv = r(0, 0, 1)+s(1, 1, 0) = (s, s, r) ∈ S, entonces u −v1 = (1, 0, 0) − (s, s, r)1 = |s − 1| + |s| + |r| . r III r − 2s + 1 II I 2s + r − 1 r+1 1 s 1 1 − 2s − r Figura 4-38 • Page (PS/TeX): 143 / 377, COMPOSITE 1−r 2s − r − 1 378 CAPÍTULO 4 Espacios con producto interior y espacios normados En la figura 4-38 se ha dividido el plano en zonas sombreadas para evaluar u −v1 = |s − 1| + |s| + |r|. Por ejemplo, en la zona s ≥ 1 y r > 0, |s − 1| + |s| + |r| = 2s + r − 1; en la zona 0 ≤ s < 1 y r < 0, |s − 1| + |s| + |r| = r + 1; etc. En realidad, la información dada en esta figura se puede resumir aún más: (a) En la franja vertical I, s ≥ 1, u −v1 = |s − 1| + |s| + |r| = 2s − 1 + |r| . (b) En la franja vertical II, 0 ≤ s ≤ 1, u −v1 = |s − 1| + |s| + |r| = 1 + |r| . (c) En la franja vertical III, s ≤ 0, u −v1 = |s − 1| + |s| + |r| = 1 + 2 |s| + |r| . En la franja I, dado que s ≥ 1, 1 ≤ 2s − 1 + |r| para todo (s, r) en esta franja. Y, puesto que 2s − 1 + |r| = 1 cuando s = 1 y r = 0, se tiene mı́n{2s − 1 + |r| : (s, r) está en la franja I} = 1 y se alcanza en (s, r) = (1, 0). En la franja III, u −v1 = |s − 1| + |s| + |r| = 1 + 2 |s| + |r| ≥ 1 para todo (s, r) en esta franja y ya que este valor se alcanza en (0, 0), se tiene que mı́n{1 + 2 |s| + |r| : (s, r) está en la franja I} = 1 y se alcanza en (0, 0). En la franja II, puesto que 0 ≤ s ≤ 1, u −v1 = |s − 1| + |s| + |r| = 1 + |r| ≥ 1 para todo (s, r) en esta franja y ya que este valor se alcanza en todos los puntos de forma (s, 0) con 0 ≤ s ≤ 1, se tiene que mı́n{1 + |r| : (s, r) está en la franja I} = 1 y este valor se alcanza en los puntos (s, 0) con 0 ≤ s ≤ 1. Ası́, el conjunto de aproximaciones óptimas para el vector u en el espacio S están dados por los vectores p∗ = s(1, 1, 0) con 0 ≤ s ≤ 1. y para todos estos puntos u − p∗ = 1. 1 Page (PS/TeX): 144 / 378, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 379 43 Encontrar las aproximaciones óptimas del vector u = (1, 0, 0) en el plano x − y = 0, relativas a la norma (x, y, z)∞ = máx {|x| , |y| , |z|} en R3 . Solución Este plano es el subespacio S = gn((1, 1, 0), (0, 0, 1)). Si v = r(0, 0, 1) + s(1, 1, 0) = (s, s, r) ∈ S, entonces u −v∞ = (1, 0, 0) − (s, s, r)∞ = máx {|s − 1| , |s| , |r|} . En la figura 4-39 se ha dividido el plano en zonas sombreadas para calcular u −v∞ = máx {|s − 1| , |s| , |r|} . (a) En la franja I, puesto que s ≥ 1, |s − 1| = s − 1 y s − 1 < s; por tanto, (1, 0, 0) − (s, s, r)∞ = máx {s, |r|} . (b) En la franja II, ya que 1/2 ≤ s ≤ 1, |s − 1| = 1 − s < s; por tanto, (1, 0, 0) − (s, s, r)∞ = máx {s, |r|} . (c) En la franja III, dado que 0 ≤ s ≤ 1/2, |s − 1| = 1 − s y 1 − s > s; entonces (1, 0, 0) − (s, s, r)∞ = máx {1 − s, |r|} . (d) En la franja IV, ya que s ≤ 0, |s − 1| = 1 − s = 1 + |s| ≥ |s| y, por ende, (1, 0, 0) − (s, s, r)∞ = máx {1 + |s| , |r|} . r III 1/2 Figura 4-39 • Page (PS/TeX): 145 / 379, COMPOSITE máx{s, |r|} I máx{s, |r|} 1 II máx{1 − s, |r|} máx{1 + |s|, |r|} IV 1 s 380 CAPÍTULO 4 Espacios con producto interior y espacios normados En todos los puntos (s, r) de las franjas I y II, se tiene 1/2 ≤ máx{s, |r|} pues s ≥ 1/2; y ya que el punto (1/2, 0) pertenece a la reunión de ambas franjas mı́n (1, 0, 0) − (s, s, r)∞ = 1/2 y se alcanza el punto (1/2, 0). En los puntos de la franja III, 0 ≤ s ≤ 1/2 y, por tanto, 1/2 ≤ 1 − s ≤ 1; luego, 1/2 ≤ máx{1 − s, |r|} para todos los puntos en esta franja y puesto que 1/2 se alcanza en el punto (s, r) = (1/2, 0), se concluye que mı́n (1, 0, 0) − (s, s, r)∞ = 1/2. en esta franja y dicho valor se alcanza en s = 1/2, r = 0. En la franja IV 1 ≤ máx{1 + |s| , |r|} para todo par (s, r) en esta franja; y puesto que 1 se alcanza en (0, 0), se deduce que mı́n (1, 0, 0) − (s, s, r)∞ = 1 en esta franja y se alcanza en (s, r) = (0, 0). De lo precedente se deduce que (1, 0, 0) − (s, s, r)∞ es mı́nima cuando s = 1/2 y r = 0; luego la aproximación óptima para u en el subespacio S está dada por p∗ = (1/2, 1/2, 0). 44 Encontrar una aproximación óptima para la función f (x) = x en el subespacio S = gn(1) de C[0, 1] respecto a la norma f 4 = 1 0 4 1/4 | f (x)| dx del ejercicio resuelto 35 (con p = 4). Solución Sea a ∈ gn(1), entonces x − a44 = 1 0 (x − a)4 dx 1 = a4 − 2a3 + 2a2 − a + . 5 Si 1 ϕ(a) = a4 − 2a3 + 2a2 − a + , a ∈ R, 5 Page (PS/TeX): 146 / 380, COMPOSITE Ejercicios resueltos y ejercicios propuestos 381 SECCIÓN 4.3 ϕ (a) = 4a3 − 6a2 + 4a − 1 = (2a − 1) 2a2 − 2a + 1 entonces y ϕ (1/2) = 1 > 0. Por tanto, ϕ es mı́nima en a = 1/2; luego una aproximación óptima para f (x) = x en S = gn(1) es p∗ (x) = 1/2 y 1 1/4 1/4 1 4 x − 1/24 = (x − 1/2) dx = 80 0 es el valor mı́nimo que alcanza x − a4 cuando a varı́a en R. De lo precedente se desprende que f tiene sólo una aproximación óptima en S. 45 Encontrar la aproximación óptima de f (x) = e x en el subespacio S = gn(1) de C[0, 1] respecto a la norma uniforme g∞ . Solución De la figura 4-40(i) se desprende que ' e − a, si a ≤ (e + 1)/2 x e − a∞ = a − 1, si a > (e + 1)/2 y de la misma figura (ii) se deduce que mı́n e x − a∞ = mı́n máx |e x − a| a∈R a∈R se alcanza en a = (1 + e)/2 y tiene un valor de (e − 1)/2. Entonces, la aproximación óptima para f (x) = e x en el subespacio S está dada por p∗ = 1+e 2 y f − p∗ ∞ = y e−1 . 2 y y=e x y = ||e x − a||∞ a e+1 2 1 e−1 2 1 x e+1 2 a (i) Figura 4-40 • Page (PS/TeX): 147 / 381, COMPOSITE (ii) a 382 CAPÍTULO 4 Espacios con producto interior y espacios normados 46 Encontrar las aproximaciones óptimas de f (x) = e x en el subespacio S = gn(1) de C[0, 1] respecto de la 1 norma g1 = 0 Solución |g(x)| dx. f − a1 = 0 1 |e x − a| dx = ⎧ 1 ⎪ ⎪ (e x − a)dx, ⎪ ⎪ 0 ⎪ ⎪ ⎪ ⎨ ln a (a − e x )dx + ⎪ 0 ⎪ ⎪ ⎪ ⎪ 1 ⎪ ⎪ ⎩ (a − e x )dx, si a ≤ 1 1 ln a (e x − a)dx, 0 esto es, ⎧ ⎨ e − a − 1, 2a ln a − 3a + 1 + e, f − a1 = ⎩ a − e + 1, si 1 < a ≤ e si a > e si a ≤ 1 si 1 < a ≤ e si a > e Ası́, la función continua a → f − a1 , a ∈ R, es decreciente en el intervalo (−∞, 1) (pues es una lı́nea recta con pendiente negativa en éste) y creciente en el intervalo (e, ∞) (en éste es una lı́nea recta con pendiente positiva); entonces, los puntos donde alcanza el mı́nimo son a = 1, a = e o los puntos crı́ticos de la función ψ(a) = 2a ln a − 3a + 1 + e. ψ (a) = 2 ln a − 1 = 0 ⇒ a = e1/2 ∈ (1, e); y ya que f − 11 = e − 2, f − e1 = 1, ψ(e1/2 ) = −2e1/2 + 1 + e se tiene mı́n f − a1 = 1 + e − 2e1/2 a∈R y se alcanza en a = e1/2 . Luego la aproximación óptima de f en S está dada por la función constante a = e1/2 . 47 Sean C[a, b] el espacio de funciones continuas en el intervalo [a, b], f ∞ la norma uniforme y f = 1/2 b a f 2 (x) dx la norma cuadrado medio; demostrar que la convergencia respecto a la norma cuadra- do medio no implica la convergencia respecto a la norma uniforme; esto es, si lı́m fn − f = 0 n→∞ entonces, no necesariamente lı́m fn − f ∞ = 0 n→∞ en el espacio C[a, b]. Sean n un entero positivo y fn la función continua en [a, b], cuya gráfica está contenida en la figura 4-41; esto es Solución Page (PS/TeX): 148 / 382, COMPOSITE Ejercicios resueltos y ejercicios propuestos 383 SECCIÓN 4.3 y fn 1 x a a+b 2 − b−a 2n a+b 2 a+b 2 + b−a 2n b Figura 4-41 • ⎧ 2n a + b n−1 a+b b−a a+b ⎪ ⎪ x + 1 − 2 − si x ∈ , ⎪ ⎪ ⎪ b−a b−a 2 2n 2 ⎪ ⎪ ⎪ ⎨ 2n a + b n−1 a+b a+b b−a x+ 1− 2 , + n si x ∈ fn (x) = ⎪ a−b a−b 2 2 2 ⎪ ⎪ ⎪ ⎪ ⎪ a+b b−a a+b b−a ⎪ ⎪ − n , + n si x ∈ [a, b] − ⎩ 0 2 2 2 2 Es fácil ver que a b fn2 (x)dx = 1 (b − a) 3 2n−1 para todo n = 1, 2, . . . Por tanto, lı́m fn − θ = 0, n→∞ donde la función θ es la función constante cero en el intervalo [a, b]. Sin embargo, es claro que fn ∞ = 1 para todo n = 1, 2, . . . y, por tanto, lı́m fn − θ∞ = 1. n→∞ Es decir, convergencia en promedio cuadrático no implica convergencia uniforme. 4.3.2 Ejercicios propuestos El lector encontrará la respuesta a los ejercicios en cursiva en el apéndice E al final del libro. Espacios con producto interior (respuestas en páginas 1080-1082) En los ejercicios 1 a 4, determinar si (x1 , x2 ), (y1 , y2 ), definido por la fórmula dada, es o no un producto interior en R2 . En caso positivo demostrar rigurosamente que se cumplen las 5 condiciones de la Page (PS/TeX): 149 / 383, COMPOSITE 384 CAPÍTULO 4 Espacios con producto interior y espacios normados definición 4.1 (cfr. pág. 236) y en caso negativo mostrar, mediante contraejemplos, las propiedades que no se satisfacen. 1 (x1 , x2 ), (y1 , y2 ) = x1 y1 − x2 y2 . 12 (x1 , x2 ), (y1 , y2 ) = x1 y2 − x2 y1 . 3 (x1 , x2 ), (y1 , y2 ) = x1 x2 − y1 y2 . 14 (x1 , x2 ), (y1 , y2 ) = 2y1 x1 + y1 x2 + y2 x1 + y2 x2 . En los ejercicios 5 a 19 probar que la asignación (x,y) → x,y ahı́ definida, donde x = (x1 , . . . , xn ) y y = (y1 , . . . , yn ), es un producto interior en el espacio Rn indicado. 15 x,y = 2x1 y1 + x2 y1 + x1 y2 + 5x2 y2 en R2 . 16 x,y = 5y1 x1 − 11y1 x2 − 11y2 x1 + 25y2 x2 en R2 . 17 x,y = x1 y1 + 2x2 y1 + 2x1 y2 + 5x2 y2 en R2 . 18 x,y = 5x1 y1 − x2 y1 − x1 y2 + x2 y2 en R2 . 19 x,y = 4x1 y1 − 2x2 y1 − 2x1 y2 + 2x2 y2 en R2 . 10 x,y = 3x1 y1 − 2x2 y1 − 2x1 y2 + 2x2 y2 en R2 . 11 x,y = x1 y1 + 4x2 y2 + x3 y3 en R3 . 12 x,y = x1 y1 + 5x2 y2 + x3 y2 + x2 y3 + x3 y3 en R3 . 13 x,y = 2x1 y1 + x2 y1 + x1 y2 + x2 y2 + x3 y3 en R3 . 14 x,y = x1 y1 + x3 y1 + x2 y2 + x1 y3 + 2x3 y3 en R3 . 15 x,y = 6x1 y1 − x1 y2 − x2 y1 + 6x2 y2 + x2 y3 + x3 y2 + 2x3 y3 en R3 . 16 x,y = 2x1 y1 − x3 y1 + x2 y2 + x3 y2 − x1 y3 + x2 y3 + 2x3 y3 en R3 . 17 x,y = x1 y1 + x2 y2 + 5x3 y3 − x4 y3 − x3 y4 + 2x4 y4 en R4 . 18 x,y = x1 y1 + 5x2 y2 − 3x3 y2 − 3x2 y3 + 2x3 y3 + x4 y4 en R4 . 19 x,y = 2x1 y1 + 2x2 y2 + x3 y3 − x4 y3 − x3 y4 + 2x4 y4 + x5 y5 en R5 . 20 Sean x,y el producto interior dado en el ejercicio 5, · la norma inducida por este producto (i.e., x = x,y1/2 ), x = (−1, 2), y = (1, −1) y w = (−1, 3); calcular: Page (PS/TeX): 150 / 384, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 385 (a) x,w. (b) w. (c) d(x,y), la distancia entre x y y con la norma inducida. 21 Sean x,y el producto interior dado en el ejercicio 6, · la norma inducida por este producto (i.e., x = x,y1/2 ), x = (−3, 2), y = (−1, 2) y w = (−1, −3); calcular: (a) x,w. (b) w. (c) d(x,y), la distancia entre x y y con la norma inducida. 22 Sean x,y el producto interior dado en el ejercicio 12, · la norma inducida por este producto (i.e., x = x,y1/2 ), x = (1, −2, 1), y = (2, −2, −1) y w = (1, 1, −3); calcular: (a) x,w. (b) w. (c) d(x,w), la distancia entre x y w con la norma inducida. 23 Sean x,y el producto interior dado en el ejercicio 19, · la norma inducida por este producto (i.e., x = x,y1/2 ), x = (1, −1, 3, −1, 1), y = (2, 1, −1, 0, 1) y w = (1, 0, −3, −1, 2); calcular: (a) x,w. (b) w. (c) d(x,w), la distancia entre x y w con la norma inducida. En los ejercicios 24 a 29 utilizar el ejercicio resuelto 10 de esta sección para encontrar la representación matricial del producto interior dado (cfr. ejercicio resuelto 11). 24 Del producto interior del ejercicio propuesto 5. 25 Del producto interior del ejercicio propuesto 6. 26 Del producto interior del ejercicio propuesto 8. 27 Del producto interior del ejercicio propuesto 12. 28 Del producto interior del ejercicio propuesto 14. 29 Del producto interior del ejercicio propuesto 16. 30 Sea A una matriz simétrica de orden n. (a) Se define x,y =x t Ay, para cadax,y ∈ Rn . Probar que x,y satisface las primeras tres condiciones de la definición 4.1 de producto interior. (b) Dar un ejemplo de una matriz cuadrada simétrica de orden n = 2 que no cumpla con las últimas dos condiciones de la definición 4.1 de la página 236. Page (PS/TeX): 151 / 385, COMPOSITE 386 CAPÍTULO 4 Espacios con producto interior y espacios normados (c) La matriz A se define positiva si x t Ax > 0 para todo x ∈ Rn − {0Rn }. Dar un ejemplo de una matriz simétrica A de orden n = 2 que sea definida positiva. (d) Probar que si A es una matriz simétrica definida positiva, entonces x,y = x t Ay es un producto interior en Rn . 31 Sea A una matriz simétrica de orden n = 2, A = a b b d . (a) Si a > 0, probar que A es definida positiva (cfr. ejercicio precedente) si y sólo si ad − b2 > 0. (b) Si a < 0, mostrar que A no es definida positiva. En los ejercicios 32 a 37, x = (x1 , . . . , xn ) y y = (y1 , . . . , yn ); determinar si x,y, definido por la fórmula dada, es o no un producto interior. En caso afirmativo, demostrar rigurosamente que se cumplen las 5 condiciones de la definición 4.1, y en caso negativo mostrar, mediante contraejemplos, las propiedades que no se satisfacen. 32 x,y = ∑ni=1 xi |yi |. 33 x,y = ∑ni=1 xi2 y2i 1/2 . 34 x,y = ∑ni=1 |xi yi |. 35 x,y = ∑ni=1 xi ∑ni=1 yi . 36 x,y = ∑ni=1 (xi + yi )2 − ∑ni=1 xi2 − ∑ni=1 y2i . 37 x,y = |∑ni=1 xi yi |. En los ejercicios 38 a 59 (x1 , . . . , xn ), (y1 , . . . , yn ) = ∑ni=1 xi yi es el producto interior canónico en los espacios Rn ; u = (−1, −1, 2), v = (−1, 2, 1), w = (−1, −1, 1); u1 = (2, −1, 1, 1), v1 = (−1, 0, 1, 0), w1 = (1, −2, 1, 0) yz1 = (1, −2, 1, 0) 38 Calcular u,v. 39 Hallar u, v − w. 40 Encontrar 2 w −v, 3u − 2v. 41 Calcular w. 42 Hallar d(u, w). 43 Estimar el ángulo entre u y v. 44 Hallar el vector proyección de u sobre el vector w. 45 Encontrar el vector proyección del vector u sobre el subespacio S = gn(v, w). 46 Hallar la matriz de proyección para el subespacio S = gn(u, w). Page (PS/TeX): 152 / 386, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 387 47 Encontrar la proyección del vector v sobre el subespacio S = gn(u, w). 48 Hallar la proyección del vector u sobre el plano x1 − 2x2 + x3 = 0. 49 Encontrar la proyección del vector v sobre el plano 2x1 − x2 + 3x3 = 0. 50 Calcular w1 ,v1 . 51 Hallar 3z1 ,v1 −u1 . 52 Encontrar 2 w1 − 3v1 ,u1 − 2z1 . 53 Calcular z1 . 54 Hallar d(z1 , w1 ). 55 Estimar el ángulo entre u1 y w1 . 56 Hallar el vector proyección de v1 sobre el vector w1 . 57 Encontrar el vector proyección para el subespacio S = gn(v1 , w1 ). 58 Hallar la matriz de proyección para el subespacio S = gn(u1 , w1 ,z1 ). 59 Encontrar la proyección del vector v1 sobre el subespacio S = gn(u1 , w1 ,z1 ). En los ejercicios 60 a 72 f , g = b a f (x)g(x)dx es el producto interior en el espacio C[−1, 1] (cfr. ejemplo 4.3, pág. 237) y · es la norma inducida correspondiente a este producto. Encontrar el valor indicado. 60 1, x. 61 x, 1 + x. 62 x, e x . 63 x. 64 e x . 65 1 + x. 66 d(x, x2 ). 67 d(x, e x ). 68 El ángulo entre f (x) = 1 y g(x) = x. Page (PS/TeX): 153 / 387, COMPOSITE 388 CAPÍTULO 4 Espacios con producto interior y espacios normados 69 El ángulo entre f (x) = x y g(x) = e x . 70 La proyección de f (x) = e x sobre la función g(x) = x. 71 La proyección de f (x) = x sobre g(x) = 1. 72 La proyección de f (x) = e x sobre el subespacio S = gn(1, x). En los ejercicios 73 a 82 A, B = tra(B t A) es el producto interior en el espacio de matrices (cfr. ejemplos 4.6 y 4.8, págs. 240 y 242) y · es la norma inducida correspondiente a este producto. Encontrar el valor indicado. 73 1 −1 1 2 2 74 0 75 −1 1 , . . 1 , 0 2 −1 1 1 −1 1 1 76 2 1 0 −1 1 0 1 2 −3 −1 1 1 1 . . 77 El ángulo entre A = 78 El ángulo entre A = 1 1 0 1 1 0 79 La proyección de A = 80 La proyección de A = 81 La proyección de A = yB= 0 1 −1 1 −1 1 1 1 yB= −1 1 1 1 −1 2 1 0 3 1 −2 1 sobre B = sobre B = 82 La proyección de A = . . −1 4 1 0 1 0 . sobre el subespacio −1 1 −1 2 S = gn 1 0 1 1 0 1 , . 1 1 sobre el subespacio Page (PS/TeX): 154 / 388, COMPOSITE 2 1 −1 0 0 3 1 −1 1 1 S = gn . 2 −1 2 1 −1 0 1 0 1 0 0 , 1 −1 1 −1 2 . SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 389 En los ejercicios 83 a 94 (an ), (bn ) = ∑∞n=1 an bn es el producto interior en el espacio 2 de sucesiones de cuadrado sumable (cfr. ejemplo 4.9, pág. 243) y · es la norma inducida correspondiente a este producto. Probar que las sucesiones dadas pertenecen a 2 y encontrar los valores indicados. 83 A = 84 A = 85 A = 1 n+1 ,B= 1 2n+1 ,B= 1 n+2 ; A, B. 1 2n−1 ; A, B. 1 1 2n , n! ; A, B. 2 1 86 A = (− π16 )n , B = ( (2n)! ) ; A, B 87 A = 1 ,B= 5n − √13 n ; A, B, A, B y el ángulo entre A y B. 88 A = (− √1 )n ; A. 5 89 A = 90 A = 1 3n+1 1 4n+3 ,B= ,B= 1 3n−2 1 4n−1 ; A, B; A, B y el ángulo entre A y B. ; A, B; A, B y el ángulo entre A y B. 91 A = 2n 5−n+2 , B = 3n−2 4n−3 ; A, B, A, B y el ángulo entre A y B. 92 A = 93 A = 1 , B = (− 14 )n ; la proyección de A sobre B. 3n 1 2n ,B= 2 3n , C = (− 51 )n ; la proyección de C sobre gn(A, B). 94 A = (− √1 )n , B = 2 √1 3 n 1 ,C= 3n ; la proyección de C sobre gn(A, B). 95 (Complemento ortogonal de un subespacio). Sea E un espacio con producto interior ·, · y S un subespacio de E. Probar que S⊥ = {u ∈ E |u ⊥v ∀v ∈ S} es un subespacio de E (el llamado complemento ortogonal se S). En los ejercicios 96 a 101 se hace referencia al complemento ortogonal definido en el ejercicio precedente. 96 Probar que S ⊂ (S⊥ )⊥ . 97 Dar un ejemplo en el que (S⊥ )⊥ = S. 98 Probar que L (S) ⊂ (S⊥ )⊥ . 99 Probar que si E tiene dimensión finita, entonces (S⊥ )⊥ = S. Page (PS/TeX): 155 / 389, COMPOSITE 390 CAPÍTULO 4 Espacios con producto interior y espacios normados 100 Sean S1 y S2 un par de subespacios en un espacio con producto interior. Probar que: (a) (S1 + S2 )⊥ = S1⊥ ∩ S2⊥ . (b) (S1 ∩ S2 )⊥ = S1⊥ + S2⊥ . 101 Probar que si S < E y E tiene dimensión finita, entonces E = S ⊕ S⊥ (cfr. ejercicio resuelto 27 del capı́tulo 3, pág. 187). En los ejercicios 102 a 109 los espacios a los que se hace referencia están dotados de los productos interiores usuales como se han definido en este texto (ejemplos 4.2, 4.3, 4.6 y 4.8). En cada caso encontrar S⊥ , el complemento ortogonal del subespacio indicado S (cfr. ejercicio 95). 102 S = gn((−1, 2, 1), (2, −2, 1)) en R3 . 103 S = gn((1, 0, 1), (−2, 1, 1)) en R3 . 104 S = gn((−2, 1, 1, 1), (−3, 2, 1, 1), (2, 2, −2, 3)) en R4 . 105 S = gn((1, −3, 2, 1), (2, −3, 4, −5), (−1, −4, 1, 1)) en R4 . 106 S = gn 107 S = gn −1 1 0 1 2 1 −3 1 , , 2 −2 −3 4 1 2 −1 3 en M2 . en M2 . 108 En P1 con el producto interior f , g = 109 En P2 con el producto interior f , g = 1 0 1 0 f (x)g(x)dx, S = gn(1). f (x)g(x)dx, S = gn(1, x). 110 Sean C[−1, 1] el espacio de funciones continuas dotado del producto interior usual f , g = 1 −1 f (x)g(x)dx, SP y SI los subespacios de funciones pares e impares, respectivamente, probar que SP⊥ = SI (cfr. ejercicio 95). 111 ¿Es cierta la conclusión del ejercicio anterior si se trabaja en el espacio C[0, 1]? ¿Cómo deben ser a, b para que la conclusión del ejercicio precedente sea válida en C[a, b] con el producto interior f , g = a b f (x)g(x)dx? 112 Sean u y v un par de vectores en un espacio con producto interior ·, ·. Page (PS/TeX): 156 / 390, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 391 (a) Si u ⊥v, calcular 3u − 2v, 2u +v. (b) Si u = 2 y v = 7, calcular u − 4v,u + 4v. 113 Sea E un espacio con producto interior ·, ·. Demostrar el recı́proco del teorema de Pitágoras; i.e., si u,v ∈ E y u +v2 = u2 + v2 , entonces u ⊥v. 114 Probar que en cualquier espacio con producto interior: (a) u −v ≤ u + v. (b) |u − v| ≤ u −v. Para todo par de vectores u,v ∈ E. 115 Probar que en un espacio con producto interior los vectores uv+vu y uv−vu son ortogonales. En los ejercicios 116 a 119 E es un espacio con producto interior y u y v son un par de vectores en él. Probar la afirmación dada. 116 u ⊥v ⇔ u +v = u −v. 117 u +v ⊥ u −v ⇔ u = v. 118 u ⊥v ⇒ u + αv ≥ u para todo α ∈ R. 119 Si u,v = 0E , entonces u −v2 = u2 + v2 − 2 u v cos θ. 120 Sea E un espacio vectorial y ·, ·1 , ·, ·2 un par de productos interiores en él. Se define, u,v = u,v1 + u,v2 . ¿Es u,v un producto interior en E? En los ejercicios 121 a 145 los espacios considerados están dotados de los productos interiores usuales definidos en los ejemplos 4.2, 4.3, 4.6, 4.8 y 4.9 de este texto; encontrar una base ortonormal para el subespacio generado por el conjunto L.I. dado o para el subespacio indicado utilizando el proceso de ortogonalización de Gram-Schmidt (cfr. teorema 4.12, pág. 275). 121 {(−1, 1), (1, 2)} en R2 . 122 {(2, 2), (1, −1)} en R2 . 123 {(0, 2), (3, 1)} en R2 . 124 {(1, 1), (0, 1)} en R2 . Page (PS/TeX): 157 / 391, COMPOSITE 392 CAPÍTULO 4 Espacios con producto interior y espacios normados 125 {(3, 1, 1), (−1, 2, 2)} en R3 . 126 {(0, 1, 1), (1, 2, −1)} en R3 . 127 {(−1, 1, 0), (2, −1, 2), (1, 1, 1)} en R3 . 128 {(2, 1, −1), (1, −1, 1), (−1, 1, 1)} en R3 . 129 {(−1, 1, 0), (2, −1, 1), (1, 1, 1)} en R3 . 130 {(3, 1, −3), (1, −1, 2), (−1, 1, −1)} en R3 . 131 {(1, 0, 1, 0), (1, 1, 1, 0), (1, −1, 0, 1)} en R4 . 132 {(1, −1, 1, 0, 0), (−1, 0, 0, 0, 1), (0, 0, 1, 0, 1), (1, 0, 0, 1, 1)} en R5 . 133 {sen x, cos x} en C[0, π]. 134 {1, x, x2 } en C[−1, 1]. 135 {1, x, x2 } en C[0, 1]. 136 {1, e x } en C[−1, 1]. ' 137 ' 138 ' 139 −1 1 1 0 2 1 1 0 : 2 −1 , en M2 . 1 1 , 1 1 1 0 1 0 1 3 −1 1 , 1 −1 −1 , 0 0 1 1 0 0 1 : en M2 . : 1 0 0 , en M2×3 . 1 0 1 140 El plano x − 2y + z = 0 en R3 . 141 El espacio solución del sistema x−y+z−w = 0 2x + y − 4z + 2w = 0 3x − y + 4z + w = 0 en R4 . 142 El espacio nulo de la matriz ⎡ 1 ⎢ −1 ⎢ ⎣ 2 1 en R4 . Page (PS/TeX): 158 / 392, COMPOSITE −1 2 2 −2 −1 0 1 −2 ⎤ 1 3 ⎥ ⎥ 0 ⎦ 3 SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 393 143 El espacio nulo de la matriz ⎤ −1 1 3 ⎣ 2 1 −5 ⎦ −1 4 4 ⎡ en R3 . ' : 1 1 , n en 2 . 144 2n 3 ' : 1 1 1 , n , n en 2 . 145 2n 3 4 En los ejercicios 146 a 159 f , g = 1 −1 f (x)g(x)dx es el producto interior usual en el espacio C[−1, 1], · la norma inducida correspondiente, f (x) = 1, g(x) = x, h(x) = 1 + x y r(x) = x2 . 146 Calcular f , g. 147 Hallar 1, h. 148 Calcular g, r. 149 Encontrar g. 150 Calcular h. 151 Hallar r 152 Hallar el ángulo entre f y g. 153 Calcular el ángulo entre f y h. 154 Hallar el ángulo entre g y h. 155 Encontrar la proyección de r sobre f . 156 Encontrar la proyección de g sobre r. 157 Hallar la proyección de r sobre el subespacio S = gn(1, x). 158 Encontrar todos los vectores en S = gn(1, x) que son ortogonales a f . 159 Hallar una base ortonormal para el espacio S = gn(1, x, x2 ). En los ejercicios 160 a 167 f , g es el producto interior definido en el ejercicio resuelto 4 de esta sección. 160 Si fn (x) = x n , n = 0, 1, 2, . . . , probar que fm , fn = (m + n)! 161 Si f (x) = (1 + x)2 y g(x) = x2 + 1, calcular f , g. Page (PS/TeX): 159 / 393, COMPOSITE 394 CAPÍTULO 4 Espacios con producto interior y espacios normados 162 Encontrar todos los polinomios en gn(1, x) que son ortogonales a f (x) = 1 + x. 163 Hallar el ángulo entre f (x) = x y g(x) = x2 . 164 Encontrar la proyección de f (x) = x sobre g(x) = x2 . 165 Encontrar la proyección de g(x) = x2 sobre el subespacio S = gn(1, x). 166 Hallar una base ortonormal para el subespacio S = gn(1, x). 167 Encontrar una base ortonormal para el subespacio S = gn(1, x, x2 ). 168 Sea C[1, e] el espacio de funciones continuas en [1, e], se define e f , g = 1 f (x)g(x) ln(x)dx para cada f , g ∈ C[1, e]. Probar que f , g es un producto interior en C[1, e]. En los ejercicios 169 a 179 f , g = 1 e f (x)g(x) ln(x)dx es el producto interior definido en el ejercicio precedente en el espacio C[1, e], · la norma inducida por este producto, f (x) = 1, g(x) = x, h(x) = x2 √ y r(x) = x. 169 Calcular f , g. 170 Hallar 1, h. 171 Calcular g, r. 172 Encontrar g. 173 Calcular h. 174 Hallar r 175 Encontrar la proyección de r sobre f . 176 Encontrar la proyección de g sobre r. 177 Hallar la proyección de r sobre el subespacio S = gn(1, x). 178 Encontrar todos los vectores en S = gn(1, x) que son ortogonales a f . 179 Hallar una base ortonormal para el espacio S = gn(1, x, x2 ). 180 En el espacio de polinomios de grado a lo más n, Pn , se define, para cada par de polinomios f y g, k k f , g = ∑ f g . n n k=0 n Probar que f , g es un producto interior en Pn . Page (PS/TeX): 160 / 394, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 395 k k g es el producto interior en el espacio Pn dado en En los ejercicios 181 a 186 f , g = ∑ f n n k=0 el ejercicio anterior y · la norma inducida por este producto. n 181 Calcular f , g si f (x) = x y g(x) = a0 + a1 x. 182 Calcular g(x) si g(x) = 1. 183 Calcular f si f (x) = x. 184 Encontrar el ángulo entre f (x) = 1 y g(x) = x. 185 Encontrar todos los polinomios de grado a lo más uno que son ortogonales a f (x) = x. 186 Encontrar una base ortonormal para el subespacio S = gn(1, x). En los ejercicios 187 a 189 E es el conjunto de todas las funciones continuas f : [0, ∞) → R tales que ∞ 0 [ f (x)]2 e−x dx converge. 187 Probar que 0 converge absolutamente (i.e., 0 ∞ ∞ f (x)g(x)e−x dx | f (x)g(x)| e−x dx converge) para todo par de funciones f , g ∈ E. 188 Mostrar que E, con la suma de funciones y producto de un escalar por una función usuales, es un espacio vectorial. 189 Probar que f , g = 0 ∞ f (x)g(x)e−x dx define un producto interior en el espacio vectorial E. En los ejercicios 190 a 210 f , g = 0 ∞ f (x)g(x)e−x dx es el producto interior en el espacio E definido en los ejercicios 187 a 189 y · es la norma inducida por este producto. 190 Probar que toda función de la forma fn (x) = x n , n = 0, 1, 2, . . . , pertenece a E. 191 ¿La función f (x) = e x pertenece a E? 192 Probar que f (x) = e−x pertenece a E. 193 Encontrar 1, x. 194 Calcular 1. 195 Hallar x. Page (PS/TeX): 161 / 395, COMPOSITE 396 CAPÍTULO 4 Espacios con producto interior y espacios normados 196 Hallar la proyección de f (x) = x sobre g(x) = 1. 197 Hallar una base ortonormal para el subespacio S = gn(1, x). 198 Encontrar una base ortonormal para el subespacio S = gn(1, x, x2 ). 199 Si f (x) = x n , n = 0, 1, . . . , y g(x) = e−x , calcular f , g. 200 Encontrar el ángulo entre f (x) = 1 y g(x) = e−x . 201 Calcular e−x . 202 Encontrar la proyección de f (x) = e−x sobre g(x) = 1. 203 Encontrar la proyección de f (x) = e−x sobre S = gn(1, x). 204 Probar que f (x) = cos x y g(x) = sen(x) pertenecen a E. 205 Calcular cos x, e−x y sen x, e−x . 206 Hallar cos x . 207 Calcular sen x. 208 Encontrar la proyección de f (x) = e−x sobre g(x) = cos x. 209 Hallar una base ortonormal para el subespacio S = gn(cos x, sen x). 210 Encontrar la proyección de f (x) = e−x sobre S = gn(cos x, sen x). En los ejercicios 211 a 214: (i) probar que las columnas de la matriz A son L.I. (ii) Encontrar una factorización QR para la matriz A; i.e., una matriz Q cuyas columnas son ortonormales y una matriz R que es triangular superior e invertible tales que A = QR (cfr. teorema 4.13, pág. 279). ⎤ 1 2 1 ⎢ 2 −1 0 ⎥ ⎥. 211 A = ⎢ ⎣ −1 3 1 ⎦ 1 2 −1 ⎡ ⎤ 1 1 −1 1 ⎦. 212 A = ⎣ 0 1 1 1 0 ⎡ ⎡ 1 ⎢ 0 213 A = ⎢ ⎣ 1 −1 ⎤ 1 −1 1 0 ⎥ ⎥. 0 1 ⎦ 1 0 Page (PS/TeX): 162 / 396, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 397 ⎤ 0 1 −1 1 ⎦. 0 0 ⎡ 1 214 A = ⎣ 2 1 En los ejercicios 215 a 221, determinar si la matriz dada es o no ortogonal (cfr. teorema 4.14, pág. 282). 215 √1 2 216 √1 5 217 ⎡ ⎢ 218 ⎣ 1 2 1 −1 1 3 2 3 2 3 2 3 1 3 − 23 ⎡ −3 220 15 ⎣ 4 0 0 ⎢ ⎢ 0 1 221 ⎢ ⎢ ⎣ 2 3 2 3 . . 2 3 − 23 1 3 ⎤ ⎥ ⎦. ⎤ 1 1 1 1 −1 −1 ⎥ ⎥. −1 1 −1 ⎦ −1 −1 1 1 ⎢ 1 219 12 ⎢ ⎣ 1 1 1 3 . 2 −1 1 1 ⎡ ⎡ 1 1 −1 1 0 0 ⎤ 0 4 0 3 ⎦. −5 0 2 3 0 1 3 − 23 ⎤ 2 3 ⎥ 0 ⎥ ⎥. − 23 ⎥ ⎦ 1 3 En los ejercicios 222 a 228, A ∈ Mn es un matriz ortogonal y x,y ∈ Rn . 222 Probar que Ax · Ay =x ·y. 223 Mostrar que Ax = x. 224 Demostrar que el ángulo entre Ax y Ay es el mismo que entre x y y. 225 Probar que Ax = A−1x. 226 Demostrar que A2 también es una matriz ortogonal. 227 Probar que det(A) = ±1. 228 Si C ∈ Mn es tal que D = A−1CA es una matriz diagonal, mostrar que C es simétrica. Page (PS/TeX): 163 / 397, COMPOSITE 398 CAPÍTULO 4 Espacios con producto interior y espacios normados 229 Dar un ejemplo de una matriz A tal que det(A) = 1, pero A no es ortogonal. 230 Probar que si A es una matriz cuadrada de orden n y Ax · Ay = x ·y para todo par de vectores x,y ∈ Rn , entonces A es una matriz ortogonal. 231 Si A es una matriz cuadrada de orden n tal que Ax = x para todo x ∈ Rn , demostrar que A es una matriz ortogonal. 232 Probar que si A es una matriz cuadrada de orden n que es ortogonal y {u1 , . . . ,un } es una base ortonormal de Rn , entonces {Au1 , . . . , Aun } es también una base ortonormal de este espacio. En los ejercicios 233 a 241, E y f , g = 0 ∞ 2 f (x)g(x)e−x dx son el espacio y el producto interior de los ejercicios resueltos 13 y 14 y · es la norma inducida por este producto escalar. 233 Calcular cos x. 234 Probar que si f (x) = sen x, entonces f ∈ E y calcular f . 235 Probar que si f (x) = cos x, entonces f ∈ E y calcular f . 236 Calcular x, sen x. 237 Si f (x) = x n , mostrar que f ∈ E para todo n = 0, 1, . . . 238 Mostrar que todo polinomio pertenece a E. 6 7 239 Calcular x2 , cos x . 240 Hallar la aproximación óptima de f (x) = cos x en el subespacio S = gn(1, x2 ). 241 Hallar la aproximación óptima de f (x) = sen x en el subespacio S = gn(x, x3 ). En los ejercicios 242 a 255, encontrar la aproximación óptima ( p∗ ) del elemento u en el subespacio S del espacio E, con el producto interior ·, · indicado (cfr. apartado 4.1.5, pág. 283). 242 E =R3 , x,y =x ·y, S = gn((−1, 1, 2), (−2, 1, 1)), u = (1, 1, 1). 243 E =R3 , x,y =x ·y, S = gn((0, 1, 1), (−1, 1, −1)), u = (1, 0, 1). 244 E =R4 , x,y =x ·y, S = gn((1, 1, 2, 1), (−1, 1, 1, 0), (2, −1, 1, 3)), u = (1, −2, 4, 1). 245 E =R4 , x,y =x ·y, S = gn((1, 0, 1, 1), (1, −1, −1, 0), (1, 1, 1, 1)), u = (0, −1, 2, −1). 246 E = C[1, 3], f , g = 247 E = C[0, 1], f , g = Page (PS/TeX): 164 / 398, COMPOSITE 3 1 1 0 f (x)g(x)dx, S = gn(1), u = f ; donde f (x) = 1/x. f (x)g(x)dx, S = gn(1, x), u = f ; donde f (x) = 1 x−2 . Ejercicios resueltos y ejercicios propuestos 399 SECCIÓN 4.3 248 E = C[0, 1], f , g = 249 E = C[0, 1], f , g = 250 E = C[0, 2], f , g = 1 f (x)g(x)dx, S = gn(1, x), u = f ; donde f (x) = e−x . 0 1 f (x)g(x)dx, S = gn(1, x, x2 ), u = f ; donde f (x) = e−x . 0 2 f (x)g(x)dx, S = gn(1), u = f ; donde f (x) = e x . 0 251 E = C[−1, 1], f , g = 252 E = C[0, 2π], f , g = 1 −1 2π 0 f (x)g(x)dx, S = gn(1, x), u = f ; donde f (x) = e x . f (x)g(x)dx, S = gn(1, cos x, sen x), u = f ; donde f (x) = x. 253 E es el espacio del ejercicio 187, f , g = ∞ 0 f (x)g(x)e−x dx, S = gn(1, x), u = f ; donde f (x) = e−x . 254 E es el espacio del ejercicio resuelto 4, f , g = ∞ f (x)g(x)e−x dx, S = gn(1, x), u = f ; donde f (x) = x2 . 0 √ n n 255 E = 2 , f , g = ∑∞ u = ((1/ 2)n ). n=0 an bn , S = gn((1/2 ), ((1/3 )), En los ejercicios 256 a 263, ajustar por mı́nimos cuadrados el conjunto de datos (xi , yi ) a un polinomio del grado n indicado. 256 257 258 259 260 261 262 xi 0 1 2 3 4 yi −1.98 1.01 3.98 6.95 10.01 xi −1 −2 0 3 4 yi 3.97 5.02 3.01 0 −1.02 ; n = 1. xi −1 2 3 5 7 yi −0.97 5.01 6.98 11.03 14.99 xi −3 2 1 2 4 yi 11.04 0.96 3.01 1.01 −3.02 xi 0 1 2 3 yi 1.02 3.99 8.97 16.01 xi −1 0 1 2 yi −1.02 1.97 3.02 1.98 xi 0 1 2 3 yi 0.02 −.01 2.03 6.01 Page (PS/TeX): 165 / 399, COMPOSITE ; n = 2. ; n = 2. ; n = 2. ; n = 1. ; n = 1. ; n = 1. 400 CAPÍTULO 4 263 Espacios con producto interior y espacios normados xi 1 2 3 4 yi 1.02 6.95 16.97 31 ; n = 2. 264 En el laboratorio de electricidad los estudiantes de la materia de circuitos eléctricos intentan encontrar una relación entre la variación de una resistencia con su temperatura. Han realizado las mediciones que se resumen en la siguiente tabla: T ◦C R (omhs) 20.22 765 32.65 826 52 872 73.3 941 95.6 1,032.3 (a) Graficar los datos de esta tabla para conjeturar que la relación entre la resistencia y la temperatura es lineal; i.e., R = mT + b y ajustar estos datos por mı́nimos cuadrados para determinar m y b. (b) Estimar la resistencia que corresponde a una temperatura de 90 ◦ C. (c) ¿Cuáles son las dimensiones de m y b? 265 La siguiente tabla contiene información respecto al número de pobladores, p, en diversos meses t, de cierta clase de roedores que se reproducen rápidamente en condiciones de laboratorio: ti 0 1 2 3 4 5 6 8 10 pi 2 3 5 7 10 15 20 40 109 (a) Graficar estos datos para conjeturar que la relación entre p y t es exponencial; i.e., p = rest . (b) Poner zi = ln pi = ln r + sti y añadir esta nueva fila a la tabla precedente. (c) Hacer un ajuste lineal por mı́nimos cuadrados a los datos (ti , zi ) para calcular r y s. (d) Estimar la población en el mes 12. Espacios vectoriales normados (respuestas en páginas 1082-1084) En los ejercicios 266 a 275 se consideran un espacio Rn o un espacio Mm×n provistos de las normas ·∞ o ·1 tratados en los ejemplos 4.40, 4.41, 4.42, 4.43, 4.44 (cfr. págs. 303 a 306) y d(·, ·) la correspondiente distancia definida por cada norma, calcular: 266 (−1, 2, 1, −2)∞ en (R4 , ·∞ ). √ 267 λu∞ , si u = (−1, 2, 1, 4, 2) y λ = − 2, en (R5 , ·∞ ). 268 d(u, v) , si u = (2, −3, 2, −5, 1) y v = (−1, 5, 2, −3, 0), en (R5 , ·1 ). Page (PS/TeX): 166 / 400, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 401 269 (−1, 2, 1, 4, 2)1 en (R5 , ·1 ). 270 d((−2, 3, −3, 4, −2), (−1, −1, 2, −3 − 5)) en (R5 , ·1 ). −1 2 en (M2 , · ). 271 ∞ −7 −4 ∞ ⎡ ⎤ −1 2 3 4 ⎣ 3 2 5 ⎦ 272 en (M3×4 , ·∞ ). −1 −5 −7 6 2 ∞ ⎡ ⎤ −3 −1 2 3 ⎣ 2 3 6 −4 ⎦ 273 en (M3×4 , ·1 ). −4 5 −8 3 1 274 d(A, B) en (M2×3 , ·∞ ) si A = −1 2 3 2 −3 5 yB= 0 −3 6 3 4 −5 . 275 d(A, B) en (M3×4 , ·1 ) si ⎤ ⎤ ⎡ 1 −1 1 −1 1 −2 0 −1 1 ⎦. 2 −2 ⎦ y B = ⎣ 0 −2 −3 A = ⎣ 0 −1 2 −3 1 1 −1 2 −2 3 ⎡ En los ejercicios 276 a 288, ·∞ es la norma uniforme en el espacio indicado C[a, b]; esto es, f ∞ = máx | f (x)| para cada f ∈ C[a, b] (cfr. ejemplo 4.47, pág. 308). Calcular f ∞ para cada función a≤x≤b f en el espacio dado C[a, b]. 276 f (x) = x2 − 2x − 8 en C[−1, 4]. 277 f (x) = 4 − 4x − x2 en C[−4, 4]. 278 f (x) = 3x − x3 en C[−2, 2]. √ √ 279 f (x) = x4 − 2x2 en C[− 2, 2]. 280 f (x) = x2/3 + 1 en C[0, 8]. 281 f (x) = x − x2 en C[−4, 2]. 282 f (x) = √ x2 + 4 en C[−2, 1]. 283 f (x) = (x − 1)1/3 + 12 (x + 1)2/3 en C[−3, 7]. 284 f (x) = 2 − e x + 2x en C[0, 1]. 285 f (x) = 1 + e− cos(x−1) en C[0, 2]. 286 f (x) = ∑ni=1 (x − i)2 en C[1, n]. Page (PS/TeX): 167 / 401, COMPOSITE 402 CAPÍTULO 4 Espacios con producto interior y espacios normados 287 f (x) = ∑ni=1 |x − i| en C[0, 1]. 288 f (x) = x+1 en C[−2, 4]. x2 + 1 En los ejercicios 289 a 298, f 1 = a b | f (x)| dx es la norma del ejemplo 4.46 (pág. 306) en el espacio C[a, b] dado y d(·, ·) es la distancia definida por esta norma. Calcular: 289 f 1 si f (x) = x2 − 2x + 2 en C[0, 5]. 290 f 1 si f (x) = ln x en C[1/2, 2]. 291 f 1 si f (x) = cos 2x si C[0, 2π]. 292 d( f , g) si f (x) = √ x y g(x) = x2 en C[0, 1]. 293 d( f , g) si f (x) = 5x2 − 6x y g(x) = x3 en C[−1, 4]. 294 d( f , g) si f (x) = 2x − x2 y g(x) = x3 en C[−2, 2]. 295 d( f , g) si f (x) = e x y g(x) = 1 en C[−1, 1]. 296 d( f , g) si f (x) = cos x y g(x) = sen x en C[0, π/2]. 297 f 1 si f (x) = x3 − x en C[−2, 1]. 298 f 1 si f (x) = tan x en C[− π4 , π4 ]. 299 Sea C0 el conjunto de sucesiones reales (an ) tales que lı́mn→∞ an = 0. (a) Probar que C0 < R∞ y, por tanto, un espacio vectorial con las operaciones usuales de suma de sucesiones y producto de un escalar con una sucesión. (b) Mostrar que para toda sucesión (an ) ∈ C0 existe n0 tal que |an | ≤ an0 ∀n ∈ N. 300 Sea C0 el espacio vectorial del ejercicio precedente. Si A = (an ) es cualquier sucesión en él, se define A = máxn∈N |an |. Probar que A es una norma en C0 . En los ejercicios 301 a 310, C0 es el espacio vectorial del ejercicio anterior provisto de la norma ahı́ definida: C0 = {(an ) ∈ R∞ | lı́m an = 0}, n→∞ (an ) = máx |an |. n∈N Mostrar que la sucesión (an ) pertenece a C0 y calcular (an ) si: 301 an = 1 . n Page (PS/TeX): 168 / 402, COMPOSITE SECCIÓN 4.3 302 an = Ejercicios resueltos y ejercicios propuestos 403 1 . n+2 303 an = e1/n − 1. 304 an = n−1 . e(n−1)2 305 an = 1 . n2 π sen (2n − 1) 2 . 306 an = n 307 an = ln n . n 308 an = n−1 . n2 + 1 309 an = 2n−1 . (n − 1)! 310 an = 1 − cos n . n 311 Sean · y · un par de normas sobre un mismo espacio vectorial E, mostrar que u = u + u es también una norma en E. 312 Sea n un número entero positivo y Cn [a, b] el conjunto de funciones f : [a, b] → R tales que f tiene derivada hasta el orden n con continuidad en el intervalo [a, b] (la derivabilidad y continuidad en los extremos se considera por la derecha y por la izquierda, respectivamente). Se representa, para cada k = 1, . . . , n, la k-ésima derivada de f por el sı́mbolo f (k) y f (0) denota la función f . (a) Probar que Cn [a, b] es un subespacio de C[a, b]. (b) Mostrar que 9 8 (n) f = máx f ∞ , f ∞ , f (2) , . . . , f , ∞ ∞ f ∈ Cn [a, b], es una norma en Cn [a, b], donde f (k) ∞ es la norma uniforme en el espacio Ck [a, b], para cada k = 0, 1, . . . , n. En los ejercicios 313 a 316, Cn [a, b] y f son el espacio y la norma definidos en el ejercicio precedente. 313 Determinar si f (x) = xe−x pertenece a C1 [0, 3]; en caso afirmativo calcular f . ' 314 Determinar si f (x) = ' 315 Determinar si f (x) = Page (PS/TeX): 169 / 403, COMPOSITE x2 ln x, si x = 0 pertenece a C1 [0, 3]; en caso afirmativo calcular f . 0, si x = 0 x3 ln x, si x = 0 pertenece a C1 [0, 3]; en caso afirmativo calcular f . 0, si x = 0 404 CAPÍTULO 4 Espacios con producto interior y espacios normados ' 316 Determinar si f (x) = 2 e−1/x , si x = 0 pertenece a C1 [−1, 1]; en caso afirmativo calcular f . 0, si x = 0 317 Sea Cn [a, b] el espacio de funciones f : [a, b] → R tales que la función f tiene derivada hasta el orden n con continuidad en el intervalo [a, b] del ejercicio 312. Se representa, para cada k = 1, . . . , n, la k-ésima derivada de f por el sı́mbolo f (k) y f (0) denota la función f . Se define, para cada f ∈ Cn [a, b], f = ∑ f (k) n k=0 ∞ donde f (k) ∞ es la norma uniforme en el espacio Ck [a, b], para cada k = 0, 1, . . . , n. Mostrar que f es una norma en Cn [a, b]. En los ejercicios 318 a 320, Cn [a, b] y f = ∑nk=0 f (k) ∞ son el espacio y la norma del ejercicio precedente. 318 Determinar si f (x) = xe−x pertenece a C1 [0, 3]; en caso afirmativo calcular f ' 319 Determinar si f (x) = ' 320 Determinar si f (x) = x3 ln x, si x = 0 pertenece a C1 [0, 3]; en caso afirmativo calcular f . 0, si x = 0 2 e−1/x , si x = 0 pertenece a C1 [−1, 1]; en caso afirmativo calcular f . 0, si x = 0 321 Calcular f = máx { f ∞ , f ∞ }, en C1 [− π4 , π4 ] si f (x) = x sen x. 322 Calcular f = f ∞ + f ∞ , en C1 [− π4 , π4 ] si f (x) = x sen x. 2 323 Calcular f = máx { f ∞ , f ∞ , f ∞ }, en C2 [−2, 2] si f (x) = e x . 2 324 Calcular f = f ∞ + f ∞ + f ∞ , en C2 [−2, 2] si f (x) = e x . tra(At A) la norma canónica en los espacios de matrices (cfr. ejemplo 4.40, pág. 303). Probar que si A ∈ Mm×n y B ∈ Mn×p son cualquier par de matrices, entonces 325 Sea A una matriz y A = AB ≤ A B . 326 Sea A = [ai j ] una matriz y la norma A1 = ∑ |ai j | donde la suma se toma sobre todos los subı́ndices i, j (cfr. ejemplo 4.44, pág. 306). Mostrar que si A ∈ Mm×n y B ∈ Mn×p son un par de matrices cualesquiera, entonces AB1 ≤ A1 B1 . 327 Sea A = [ai j ] es una matriz y A∞ = máx |ai j |, la norma cúbica definida en el ejemplo 4.43 (cfr. pág. 305). ¿Se cumple la relación de orden AB∞ ≤ A∞ B∞ para todo par de matrices A ∈ Mm×n y B ∈ Mn×p ? Page (PS/TeX): 170 / 404, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 405 328 Sea 1 el conjunto de todas las sucesiones (an ) ∈ R∞ tales que la serie ∞ ∑ |an | converge. n=1 (a) Probar que 1 es un subespacio de R∞ . (b) Se define, para cada (an ) ∈ 1 , (an )1 = ∞ ∑ |an | . n=1 Mostrar que (an )1 es una norma en 1 . En los ejercicios 329 a 338, 1 y (an )1 = anterior. ∞ ∑ |an | son el espacio y la norma definidos en el ejercicio n=0 329 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = 1 . n(n + 1) 330 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = 1 . 16n2 − 4 331 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = 1 . n! 332 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = 4n+1 . (n − 1)! 333 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = 1 . 2n−1 334 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = (−3)n−4 52−n . 2n . n! 335 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = 1 . 42n 1 1 . 337 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = 2n n 336 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = 338 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = 1 3n−1 1 . n 339 Sea p ≥ 1 un número real dado y p el conjunto de sucesiones (an ) ∈ R∞ tales que ∞ ∑ |an | p n=1 converge. Se define, para cada (an ) ∈ p , (an ) p = Page (PS/TeX): 171 / 405, COMPOSITE ∞ ∑ |an | n=1 1/p p . 406 CAPÍTULO 4 Espacios con producto interior y espacios normados (a) Mostrar que p es un subespacio de R∞ . (b) Demostrar que (an ) p es una norma en p . (c) Probar que si p, p∗ > 1 son ı́ndices conjugados; i.e., (an bn ) ∈ 1 y además 1 p + 1 p∗ = 1, y (an ) ∈ p , (bn ) ∈ p∗ , entonces ∞ ∑ |an bn | ≤ (an ) p (bn ) p∗ n=1 es decir, (an bn )1 ≤ (an ) p (bn ) p∗ (Sugerencia: Utilizar las desigualdades de Hölder (4.50) y Minkowski (4.51), pág. 330.) En los ejercicios 340 a 345, p y · p son el espacio y la norma definidos en el ejercicio anterior. Determinar si la sucesión (an ) pertenece a p y, en caso afirmativo, calcular (an ) p si: 340 an = 1 , p = 3. 2n 1 n 341 an = √ , p = 2. 342 an = (−1) n 1 , p = 2. n! 343 an = rn , p > 1 cualquier número real mayor que 1 y −1 < r < 1. 344 an = 5 345 an = 3 n+1 , p = 5. 3n 1 , p = 3. 2n n En los ejercicios 346 a 355, f p = a b | f (x)| p dx 1/p es la norma definida en el ejercicio resuelto 35 para un número p > 1. Calcular f p para la función f y el número p en el espacio indicado. 346 f (x) = x−1 , p > 1 en C[1, 2]. 347 f (x) = x, p > 1 en C[0, 1]. 348 f (x) = xe x , p = 2 en C[0, 1]. 349 f (x) = x cos x, p = 2 en C[0, 2π]. 350 f (x) = x sen1/3 x, p = 3 en C[0, 2π]. 351 f (x) = x ln2/3 x, p = 3/2 en C[1, e]. Page (PS/TeX): 172 / 406, COMPOSITE Ejercicios resueltos y ejercicios propuestos 407 SECCIÓN 4.3 352 f (x) = cos1/3 x sen x, p = 3 en C[0, π/2]. 353 f (x) = e x sen1/4 x, p = 4 en C[0, 2π]. 354 f (x) = tan x, p = 2 en C[0, π/4]. 355 f (x) = tan−1/4 x, p = 2 en C[0, π/4]. 356 Sean p ≥ 1 y a un par de números reales dados y L p [a, ∞) el conjunto de funciones reales continuas en [a, ∞) tales que ∞ a | f (x)| p dx es convergente. Se define, para cada ∞ 1/p | f (x)| p dx f ∈ L p [a, ∞), f p = . a (a) Mostrar que L p [a, ∞) es un subespacio de C[a, ∞) y, por tanto, un espacio vectorial con la suma de funciones y multiplicación de un escalar con una función usuales. (b) Probar que f p es una norma en L p [a, ∞). (c) Si p, p∗ > 1 son ı́ndices conjugados ( 1p + p1∗ = 1), f ∈ L p [a, ∞) y g ∈ L p∗ [a, ∞), demostrar que f g ∈ L1 [a, ∞) (cfr. ejercicio resuelto 37) y que ∞ a En los ejercicios 357 a 363, L p [a, ∞) y f p = | f g| ≤ f p g p∗ ∞ a p | f (x)| dx 1/p son el espacio y la norma definidos en el ejercicio precedente. Determinar si la función f pertenece al espacio L p [a, ∞) y en caso afirmativo calcular f p si: 357 f (x) = 1 , p = 1 y a = 1. x 358 f (x) = 1 , p = 1 y a = 2. (x − 1)2 359 f (x) = 1 , p > 1 y a > 1. x 360 f (x) = ln x , p = 1 y a = 1. x 361 f (x) = (ln x)1/2 , p = 2 y a = 1. x 362 f (x) = xe−x/p , p = 1, 2, . . . y a = 0. 363 f (x) = (ln x)−1 √ , p = 2, a = 2. x Una seminorma en un espacio vectorial E es una función N : E → R tal que: • N (u) ≥ 0 ∀u ∈ E. • N (λu) = |λ|u para todo λ ∈ R y para todo u ∈ E. Page (PS/TeX): 173 / 407, COMPOSITE 408 CAPÍTULO 4 Espacios con producto interior y espacios normados • N (u +v) ≤ N (u) + N (v). • Existe u ∈ E, con u = 0E , tal que N (u) = 0. Probar, en los ejercicios 364 a 366, que el conjunto E es un espacio vectorial (con las operaciones usuales) y que N (u) es una seminorma en él. 364 (Seminorma de Taylor). Sean n un entero positivo, J un intervalo abierto que contiene a un punto dado a, E el conjunto de funciones f : J→ R tales que f tiene derivada hasta el orden n en el punto a y N (f) = n ∑ f (k) (a) . k=0 donde f (0) (a) = f (a) y f (k) (a) es la k-ésima derivada de f en a, k = 1, . . . , n. 365 (Seminorma de interpolación). Sean n un entero positivo fijo, E = F ([a, b]) el conjunto de funciones f : [a, b] → R, x0 , x1 , . . . , xn ∈ [a, b] puntos fijos distintos entre sı́ y n N (f) = ∑ | f (xk )| . k=0 366 Sean n un entero positivo, J un intervalo abierto que contiene a un punto dado a, E el conjunto de funciones f : J→ R tales que f tiene derivada hasta el orden n en el punto a y N (f) = n 1 ∑ k! f (k) (a) k=0 donde f (0) (a) = f (a) y f (k) (a) es la k-ésima derivada de f en a, k = 1, . . . , n. 367 Demostrar que la seminorma del ejercicio 366 satisface la relación de orden N ( f g) ≤ N ( f )N (g) para cualquier par de funciones f , g ∈ E. 368 ¿Satisfacen las seminormas de Taylor e interpolación de los ejercicios 364 y 365 la relación de orden N ( f g) ≤ N ( f )N (g)? 369 Sea E un espacio vectorial y N una seminorma en él. (a) Probar el conjunto SN de todos los f ∈ E tales que N ( f ) = 0, es un subespacio de E. (b) Sea C1 [a, b] el espacio de funciones con primera derivada continua en el intervalo [a, b]. Probar que N ( f ) = máx | f (x)| a≤x≤b es una seminorma en C1 [a, b]. Determinar SN para este caso. 370 Sean E un espacio vectorial, N una seminorma y N1 una norma en él. Probar que u = N (u) + N1 (u) es una norma en E. Page (PS/TeX): 174 / 408, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 409 Sea C[a, b] el espacio de funciones continuas en [a, b] dotado de la norma uniforme f ∞ = máx | f (x)|. a≤x≤b En los ejercicios 371 a 374, bosquejar B[ f , ε], la bola de centro f y radio ε respecto a esta norma para cada f dada. 371 f (x) = 1, a = 0 y b = 2. 372 f (x) = x2 , a = −1 y b = 1. 373 f (x) = e−x , a = −1 y b = 2. 374 f (x) = cos x, a = −π y b = π. En los ejercicios 375 a 384, se define una función (x1 , . . . , xn ) → (x1 , . . . , xn ) en el espacio Rn indicado. Utilizar los teoremas 4.17 y 4.19 (cfr. págs. 318 y 320) para: (a) Probar que (x1 , . . . , xn ) es una norma y que proviene de un producto interior. (b) Hallar el producto interior del cual proviene la norma. 375 (x1 , x2 ) = 2x12 − 2x2 x1 + x22 en R2 . 376 (x1 , x2 ) = x12 − 2x2 x1 + 2x22 en R2 . 377 (x1 , x2 ) = 5x12 + 6x1 x2 + 2x22 en R2 . 378 (x1 , x2 ) = x12 − 6x1 x2 + 10x22 en R2 . 379 (x1 , x2 , x3 ) = 5x12 − 2x1 x2 − 4x1 x3 + 2x22 + x32 en R3 . 380 (x1 , x2 , x3 ) = 2x12 − 2x1 x3 + x22 + 2x2 x3 + 2x32 en R3 . 381 (x1 , x2 , x3 ) = x12 + x22 + 2x2 x3 + 2x32 en R3 . 382 (x1 , x2 , x3 ) = 2x12 − 2x1 x2 − 2x1 x3 + 5x22 + x32 en R3 . 383 (x1 , x2 , x3 , x4 ) = x12 + 2x22 + 2x2 x3 − 2x2 x4 + x32 + 2x42 en R4 . 384 (x1 , x2 , x3 , x4 , x5 ) = x12 − 2x1 x5 + x22 + 2x32 − 2x3 x5 + x42 + 2x52 en R5 . En los ejercicios 385 a 398, determinar si la norma en el espacio indicado proviene o no de un producto interior; en caso afirmativo, hallar el producto escalar del cual proviene la norma (cfr. teoremas 4.17 y 4.19). 385 (x1 , . . . , xn )1 = ∑ni=1 |xi | en Rn . 386 (ai j )1 = ∑ |ai j | en M2×3 . 387 (ai j )∞ = máx |ai j | en M3×2 . Page (PS/TeX): 175 / 409, COMPOSITE 410 CAPÍTULO 4 Espacios con producto interior y espacios normados 388 f ∞ = máx | f (x)| en C[0, 1]. 0≤x≤1 389 f 1 = 390 f 2 = 391 f 3 = 1 0 | f (x)| dx en C[0, 1]. 1 0 1 0 392 (an )1 = [ f (x)]3 dx en C[0, 1]. 1/3 en C[0, 1]. ∞ n=0 ∞ ∑ |an | 393 (an )2 = 1/2 2 en 2 . n=0 ∞ ∑ |an | 394 (an )3 = 1/3 3 en 3 . n=0 0 ∞ ∑ |an | 395 (an ) p = 0 [ f (x)] dx ∑ |an | en 1 . 396 f = ∞ 1/2 2 1/p p en p , con p = 2. n=0 ∞ [ f (x)]2 e−x dx 1/2 en el espacio vectorial de las funciones continuas f : [0, ∞) → R tales que [ f (x)]2 e−x dx converge. 397 f = máx ( f ∞ , f ∞ ) en C1 [0, 1]. 398 f = f ∞ + f ∞ en C1 [0, 1]. 399 Demostrar, sin utilizar el teorema 4.22 (cfr. pág. 327), que las normas n (x1 , . . . , xn )1 = ∑ |xi | (x1 , . . . , xn )∞ = máx |xi | y 1≤i≤n i=1 del espacio Rn , son equivalentes. 400 Demostrar, sin utilizar el teorema 4.22, que las normas (x1 , . . . , xn ) = n ∑ xi2 i=1 1/2 y (x1 , . . . , xn )∞ = máx |xi | 1≤i≤n (del espacio Rn ) son equivalentes. 401 Encontrar (sin utilizar el teorema 4.22) α > 0 y β > 0 tales que para todo u = (x1 , . . . , xn ) ∈ Rn se cumpla 1/2 α u ≤ u1 ≤ β u donde u = ∑i=1 xi2 y u1 = ∑i=1 |xi |. Page (PS/TeX): 176 / 410, COMPOSITE Ejercicios resueltos y ejercicios propuestos 411 SECCIÓN 4.3 402 Sean C[0, 1] el espacio de funciones continuas en el intervalo [0, 1], f 2 = 1 0 | f (x)|2 dx 1/2 y f ∞ = máx | f (x)|. a≤x≤b (a) Encontrar β > 0 tal que f 2 ≤ β f ∞ para todo f ∈ C[0, 1]. (b) Demostrar que no puede existir α > 0 tal que α f ∞ ≤ f 2 para todo f ∈ C[0, 1]. (c) ¿Son equivalentes f 2 y f ∞ ? 403 Sean las normas f 1 = b a | f (x)| dx y f 2 = b a f 1 ≤ √ 2 1/2 [ f (x)] dx en el espacio C[a, b]. Probar que b − a f 2 para toda función f ∈ C[a, b]. 404 Probar que las normas f 1 = 1 0 | f (x)| dx y f 2 = 0 1 2 1/2 [ f (x)] dx en el espacio C[0, 1] no son equivalentes. Sean E un espacio vectorial y a,b ∈ E. Se define el segmento con punto inicial a y punto final b como 8 9 el conjunto [a, b] = u ∈ E |u = a + t(b −a), 0 ≤ t ≤ 1 . 405 Un conjunto M ⊂ E es convexo si el segmento [a,b] ∈ M para todo par a,b ∈ M. (a) Probar que todo subespacio S de E es un conjunto convexo. (b) Sean r > 0 y u0 ∈ E, demostrar que la bola cerrada B[u0 , r] es un conjunto convexo. 406 Sean α, ai ∈ R, i = 1, . . . , n, números reales dados. Se llama semiplano al conjunto de puntos (x1 , . . . , xn ) ∈ Rn tales que a1 x1 + · · · + an xn ≥ α. (a) En referencia al ejercicio 405, probar que todo semiplano es convexo. (b) Demostrar que el complemento de un semiplano (al que también se le llama semiplano) es un conjunto convexo. 407 Probar que toda intersección finita de conjuntos convexos en un espacio vectorial es también un conjunto convexo (cfr. ejercicio 405). 408 Sean S un subespacio de dimensión finita de un espacio normado E y u ∈ E − S. Probar que el conjunto S∗ de las aproximaciones óptimas de u en S es un conjunto convexo (cfr. ejercicio 405). Page (PS/TeX): 177 / 411, COMPOSITE 412 CAPÍTULO 4 Espacios con producto interior y espacios normados 409 Sea la función continua, en el intervalo [0, 1], f (x) = x cos x + 4. Calcular los polinomios de Bernstein B1 , B2 , B3 , B4 y B5 (cfr. pág. 339) para esta función. 410 Sea f (x) = e x . f ∈ C[0, 1]; calcular los polinomios de Bernstein Bi , i = 1, 2, 3, 4. 411 Sea f (x) = x3 ; f ∈ C[0, 1]; calcular los polinomios de Bernstein Bi , i = 1, 2, 3, . . . para f . Mostrar direc- tamente que para este caso lı́m f − Bn ∞ = 0. n→∞ 412 Sea f (x) = sen x, 0 ≤ x ≤ 1. Calcular los polinomios de Bernstein Bi , i = 1, 2, 3, para la función f (cfr. pág. 339). 413 Sea f (x) = cos x, 0 ≤ x ≤ 1. Calcular los polinomios de Bernstein Bi , i = 1, 2, 3, para la función f (cfr. pág. 339). 414 Sean n un entero positivo, J un intervalo abierto que contiene un punto dado a, E el espacio de las funciones que tienen derivada hasta el orden n en el punto a y N (f) = n ∑ f (k) (a) k=0 la seminorma de Taylor (cfr. ejercicio 364). Sean f ∈ E y el polinomo de grado a lo más n p∗n (x) = n ∑ k=0 f (k) (a) (x − a)k . k! (a) Probar que p∗n (x) es aproximación óptima de f en el subespacio Pn de E respecto a la seminorma de Taylor. (b) Mostrar que si p∗1 (x) también aproximación óptima de f en Pn , entonces p∗ = p∗1 . En los ejercicios 415 a 417, S = gn((−1, 1)) y u = (1, 1) en el espacio R2 . 415 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y) = x2 + y2 . 416 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica (x, y)∞ = máx {|x| , |y|}. 417 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y)1 = |x| + |y|. En los ejercicios 418 a 420, S = gn((2, 1)) y u = (−1, 1) en el espacio R2 . 418 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y) = x2 + y2 . 419 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica (x, y)∞ = máx {|x| , |y|}. 420 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y)1 = |x| + |y|. En los ejercicios 421 a 423, S = gn((−2, 1)) y u = (3, 1) en el espacio R2 . 421 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y) = x2 + y2 . 422 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica (x, y)∞ = máx {|x| , |y|}. Page (PS/TeX): 178 / 412, COMPOSITE SECCIÓN 4.3 Ejercicios resueltos y ejercicios propuestos 413 423 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y)1 = |x| + |y|. En los ejercicios 424 a 426, S = gn((−1, 1, 2)) y u = (1, 1, 1) en el espacio R3 . 424 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y, z) = x2 + y2 + z2 . 425 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica (x, y, z)∞ = máx {|x| , |y| , |z|}. 426 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|. En los ejercicios 427 a 429, S = gn(1, −1, 3) y u = (1, 0, −1) en el espacio R3 . 427 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y, z) = x2 + y2 + z2 . 428 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica (x, y, z)∞ = máx {|x| , |y| , |z|}. 429 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|. En los ejercicios 430 a 432, S = gn((0, −1, −2)) y u = (1, −1, 1) en el espacio R3 . 430 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y, z) = x2 + y2 + z2 . 431 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica (x, y, z)∞ = máx {|x| , |y| , |z|}. 432 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|. En los ejercicios 433 a 434, S es el plano y − z = 0 y u = (0, 1, 0) en el espacio R3 . 433 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y, z) = x2 + y2 + z2 . 434 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|. En los ejercicios 435 a 436, S es el plano x + y − z = 0 y u = (0, 1, 0) en el espacio R3 . 435 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y, z) = x2 + y2 + z2 . 436 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|. En los ejercicios 437 a 439, S = gn(1) y f (x) = x en el espacio C[0, 1]. ∗ 437 Hallar la aproximación óptima, p , de f en S respecto a la norma g = Page (PS/TeX): 179 / 413, COMPOSITE 0 1 2 (g(x)) dx 1/2 . 414 CAPÍTULO 4 Espacios con producto interior y espacios normados 438 Hallar todas las aproximaciones óptimas de f en S respecto a la norma cúbica g∞ = máx0≤x≤1 |g(x)|. 439 Hallar todas las aproximaciones óptimas de f en S respecto a la norma g1 = 1 0 |g(x)| dx. En los ejercicios 440 a 442, S = gn(1) y f (x) = ln x en el espacio C[1, e]. ∗ 440 Hallar la aproximación óptima, p , de f en S respecto a la norma g = e 1 1/2 2 (g(x)) dx . 441 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma uniforme g∞ . 442 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma g1 = e 1 |g(x)| dx. En los ejercicios 443 a 445, S = gn(1) y f (x) = cos x en el espacio C[0, π/2]. ∗ 443 Hallar la aproximación óptima, p , de f en S respecto a la norma g = π/2 0 1/2 2 (g(x)) dx . 444 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma uniforme g∞ . 445 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma g1 = π/2 0 |g(x)| dx. En los ejercicios 446 a 448, S = gn(1) y f (x) = sen x en el espacio C[0, π/2]. ∗ 446 Hallar la aproximación óptima, p , de f en S respecto a la norma g = 0 π/2 1/2 2 (g(x)) dx . 447 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma uniforme g∞ . 448 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma g1 = Page (PS/TeX): 180 / 414, COMPOSITE π/2 0 |g(x)| dx. 5 Transformaciones lineales, valores y vectores propios En las primeras secciones de este capı́tulo estudiaremos cierto tipo de funciones entre espacios vectoriales: las transformaciones lineales. Estas funciones son relativamente muy simples de tratar ya que exhiben un comportamiento que preserva la estructura de las operaciones de espacio vectorial. A pesar de su sencillez, las transformaciones lineales son muy importantes tanto en matemáticas como en fı́sica, ingenierı́a y ciencias sociales. Podrı́amos afirmar, grosso modo, que independientemente de la gran variedad de sus aplicaciones, mucho del éxito que tienen las funciones lineales entre espacios vectoriales radica en que con frecuencia pueden transformar un problema complejo en uno más simple. En las subsecuentes secciones trataremos el tema no menos importante, y estrechamente relacionado con las transformaciones lineales, de valores y vectores propios. Como antes, la última sección está dedicada a ejercicios resueltos y a ejercicios propuestos al lector. 5.1 Transformaciones lineales Las funciones más sencillas (después de las constantes) de una variable con valores reales son las funciones de la forma y = f (x) f (x) = kx; cuya gráfica, para un valor fijo k, es una lı́nea recf (x0 ) ta con pendiente k que pasa por el origen. La forma simple que tienen estas funciones las hace sumamente importantes para estudiar el comportamiento de funciones más complicadas. Por ejemplo, una función que es derivable en un punto x0 se puede x0 aproximar localmente por medio de la lı́nea recta tangente a la gráfica de la función en el punto (x0 , f (x0 )); y esta lı́nea recta no es más que una traslación afı́n de la recta y = f (x0 )x. Una gran variedad de fenómenos se pueden modelar a través de soluciones de cierto tipo de ecuaciones que exhiben un comportamiento lineal, en el sentido de que la suma de dos soluciones y el producto de un escalar por una solución también son soluciones; dichos fenómenos y sus respectivos modelos son llamados, por antonomasia, lineales también. Con base en la caracterı́stica de linealidad de estos fenómenos es posible, en general, determinar el comportamiento de los mismos en una forma relativamente sencilla. Ası́, como las funciones lineales de una variable sirven para aproximar funciones más complicadas, los modelos lineales se pueden utilizar para aproximar fenómenos más complejos. Por sı́ solos los fenómenos lineales son sumamente interesantes y cubren una gran variedad de importantes aplicaciones. Las funciones lineales de una variable tienen una inmediata extensión a funciones de varias variables y, más aún, a funciones entre espacios vectoriales. En esta sección estudiaremos en un contexto general este tipo de funciones que llamaremos transformaciones lineales. 415 Page (PS/TeX): 1 / 415, COMPOSITE 416 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 5.1.1 Definición, ejemplos y propiedades Recordemos que si A y B son un par de conjuntos no vacı́os, la notación f : A → B significa que f es una función con dominio A x y valores en B o, en forma más compacta, f es una función de A en B (cfr. definición 3.7, pág. 133); que en la notación y = f (x) a y se le llama el valor de la función f en x o la imagen de x bajo la función f ; a x se le dice variable independiente (o argumento de la función) y a y variable dependiente; y que al conjunto B se le dice contradominio de la función. Una manera muy útil de inf (x) terpretar una función f es como un conjunto de procedimientos, una máquina, que transforma cada elemento x (materia prima) de A en un producto y = f (x) elemento de B. El resultado de esta transformación, el elemento y = f (x), depende de la materia prima x que se introduzca cada vez a la máquina, y esta transformación está perfectamente determinada por esta máquina o conjunto de procedimientos f (la función o transformación). En este sentido interpretaremos, de aquı́ en adelante, el significado de una función entre espacios vectoriales: como una transformación de un espacio en otro. Definición 5.1 (Transformación lineal) Sean E y F dos espacios vectoriales y T : E → F una función. Diremos que T es una transformación lineal de E en F si:1 1. T (x +y) = T (x) + T (y), ∀x,y ∈ E. 2. T (αx) = αT (x), ∀x ∈ E, ∀α ∈ R. Ejemplo 5.1 Sea T : R → R la función definida por T (x) = 3x, entonces para x1 , x2 ∈ R y para todo escalar α, T (x1 + x2 ) = 3(x1 + x2 ) = 3x1 + 3x2 = T (x1 ) + T (x2 ) y T (αx) = 3(αx) = α(3x) = αT (x). Por tanto, T es una transformación lineal. Ejemplo 5.2 De manera análoga al ejemplo precedente, toda lı́nea recta que pasa por el origen es una transformación lineal de R en R. En efecto, una lı́nea recta que pasa por el origen es la gráfica de una función de la forma y = T (x) = ax, donde a es una constante. Entonces, si x1 , x2 ∈ R y α es un escalar, se tiene 11 Se le dice también aplicación lineal u homomorfismo. Page (PS/TeX): 2 / 416, COMPOSITE SECCIÓN 5.1 Transformaciones lineales 417 T (x1 + x2 ) = a(x1 + x2 ) = ax1 + ax2 = T (x1 ) + T (x2 ) y T (αx1 ) = a(αx1 ) = α(ax1 ) = αT (x1 ). Vimos en el ejemplo anterior que toda lı́nea recta que pasa por el origen es una transformación lineal de R en R; de hecho, estas lı́neas rectas son las únicas transformaciones lineales que existen de R en R, como hacemos patente en el siguiente ejemplo. Ejemplo 5.3 (Transformaciones lineales de R en R) Sea T : R → R una transformación lineal. Sea x ∈ R, entonces T (x) = T (x · 1) = xT (1). Sea a = T (1), entonces T (x) = ax ∀x ∈ R. Es decir, T es una lı́nea recta que pasa por el origen. Ejemplo 5.4 (La transformación derivación) Si E = C1 [0, 1] (cfr. el ejemplo 3.24, pág. 142) y F = C[0, 1], sea T : E → F, definida por T ( f ) = f . Ası́, por ejemplo, si f (x) = x2 y g(x) = 2x, T ( f ) = g. T es una transformación lineal. En efecto: 1. T ( f + g) = ( f + g) = f + g = T ( f ) + T (g) ∀ f , g ∈ E. 2. T (α f ) = (α f ) = α f ∀α ∈ R, ∀ f ∈ E. Ejemplo 5.5 Sea T : R3 → R2 definida como T (x1 , x2 , x3 ) = (x1 − 2x2 , x2 + 3x3 ). Mostrar que T es lineal. DEMOSTRACIÓN Q 1. Si a = (x1 , x2 , x3 ) y b = (y1 , y2 , y3 ), T (a +b) = T (x1 + y1 , x2 + y2 , x3 + y3 ) = (x1 + y1 − 2(x2 + y2 ), x2 + y2 + 3(x3 + y3 )). T (a) + T (b) = T (x1 , x2 , x3 ) + T (y1 , y2 , y3 ) = (x1 − 2x2 , x2 + 3x3 ) + (y1 − 2y2 , y2 + 3y3 ) = (x1 + y1 − 2(x2 + y2 ), x2 + y2 + 3(x3 + y3 )) = T (a +b). 2. Si a = (x1 , x2 , x3 ) y α ∈ R, T (αa) = = = = = = Page (PS/TeX): 1 / 417, COMPOSITE T (α(x1 , x2 , x3 )) T (αx1 , αx2 , αx3 ) T (αx1 − 2αx2 , αx2 + 3αx3 ) α(x1 − 2x2 , x2 + 3x3 ) αT (x1 , x2 , x3 ) αT (a). Q 418 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Ejemplo 5.6 Sea T : R2 → R2 , definida por T (x, y) = xy, T no es lineal: T (3(1, 2)) = = 3T (1, 2) = = T (3, 6) 18. 3·2 6. Por lo que T (3(1, 2)) = 3T (1, 2). Ejemplo 5.7 (Transformación integración) Sea T : C[0, 1] → R definida por: T(f) = 1 0 f (x)dx. Ası́, por ejemplo, si f (x) = x2 , T ( f ) = 1/3. T es lineal porque: 1. Si f , g ∈ C[0, 1], T ( f + g) = = = 1 0 1 0 1 0 ( f + g)(x)dx ( f (x) + g(x))dx f (x)dx + 1 0 g(x)dx = T ( f ) + T (g). 2. Si α ∈ R y f ∈ C[0, 1], T (α f ) = = 1 0 1 0 =α (α f )(x)dx α f (x)dx 1 0 f (x)dx = αT ( f ). Ejemplo 5.8 (Operador identidad) Si E es un espacio vectorial, claramente I : E → E definido por I(u) = u para todo u ∈ E, es una transformación lineal del espacio E en sı́ mismo. A I se le llama el operador identidad del espacio E. Propiedades Sabemos que si A es cualquier conjunto no vacı́o y F es cualquier espacio vectorial, entonces el conjunto de funciones con dominio A y valores en F es un espacio vectorial (cfr. nota 3.7, pág. 138) con las operaciones usuales suma de funciones y multiplicación de un escalar con una función (cfr. definición 3.9, pág. 134). Por ende, el conjunto de todas las transformaciones de un espacio vectorial E en un espacio vectorial F con las operaciones usuales de suma de funciones y multiplicación de un escalar con una Page (PS/TeX): 2 / 418, COMPOSITE SECCIÓN 5.1 Transformaciones lineales 419 función dadas en la definición 3.9 es un espacio vectorial. Ahora supongamos que T1 y T2 son un par de transformaciones del espacio E en el espacio F que además son lineales y sea k ∈ R; entonces, si x,y ∈ E y α ∈ R, se tiene: (T1 + T2 )(x +y) = T1 (x +y) + T2 (x +y) 1. = T1 (x) + T1 (y) + T2 (x) + T2 (y) = T1 (x) + T2 (x) + T1 (y) + T2 (y) = (T1 + T2 )(x) + (T1 + T2 )(y). (T1 + T2 )(αx) = T1 (αx) + T2 (αx) 2. = αT1 (x) + αT2 (x) = α(T1 (x) + T2 (x)) = α(T1 + T2 )(x). (kT1 )(x +y) = kT1 (x +y) 3. = k(T1 (x) + T2 (y)) = kT1 (x) + kT2 (y) = (kT1 )(x) + (kT2 )(y). (kT1 )(αx) = kT1 (αx) 4. = k(αT1 (x)) = α(kT1 (x)) = α(kT1 )(x). 5. Claramente la transformación constante cero, θ : E → F, θ(x) = 0F ∀x ∈ E, es lineal. 1 y 2 demuestran que la transformación T1 + T2 es lineal y 3, 4 prueban que kT1 es lineal también. Por ende, al adjuntar 5, el subconjunto de transformaciones lineales del espacio E en el espacio F es un subespacio vectorial del espacio de funciones de E en F. Con esto hemos probado el siguiente teorema. Teorema 5.1 (Espacio de transformaciones lineales) Sean E y F un par de espacios vectoriales y sea L (E, F) = { T : E → F | T es una transformación lineal } , entonces L (E, F) es un espacio vectorial con las operaciones usuales de suma de funciones y multiplicación de un escalar con una función. Teorema 5.2 (Propiedades básicas de transformaciones lineales) Sean E y F un par de espacios vectoriales y T ∈ L (E, F), entonces: 1. T (0E ) = 0F . 2. T (αx + βy) = α T (x) + β T (y) 3. T (−x) = −T (x) ∀x ∈ E. 4. T (x −y) = T (x) − T (y) Page (PS/TeX): 3 / 419, COMPOSITE ∀x,y ∈ E, ∀α, β ∈ R. ∀x,y ∈ E. 420 CAPÍTULO 5 DEMOSTRACIÓN Transformaciones lineales, valores y vectores propios T (0E ) = T (0 ·0E ) = 0 · T (0E ) Q 1. = 0F . T (αx + βy) = T (αx) + T (βy) 2. = αT (x) + βT (y). T (−x) = T ((−1)x) 3. = (−1)T (x) = −T (x). T (x −y) = T (x + (−y)) 4. = T (x) + T (−y) = T (x) − T (y). Q Transformaciones matriciales y representación matricial de una transformación T ∈ L (Rn , Rm ) Vimos en los ejemplos 5.2 y 5.3 que las transformaciones lineales de R en R son las funciones de la forma T (x) = ax, donde a es una constante. El sı́mil para transformaciones de Rn en Rm está contenido en el siguiente ejemplo. Ejemplo 5.9 (Transformaciones matriciales) Si A ∈ Mm×n , sea TA : Rn → Rm definida para cada x ∈ Rn por TA (x) = Ax. Entonces T es lineal; pues ∀x,y ∈ Rn y ∀α ∈ R: TA (x +y) = A(x +y) = Ax + Ay = TA (x) + TA (y) y TA (αx) = A(αx) = α(Ax) = αTA (x). Ejemplo 5.10 Dar una transformación lineal de R3 en R4 . Solución Sea ⎤ 1 −1 2 ⎢ 0 −1 3 ⎥ ⎥ A=⎢ ⎣ 3 −1 4 ⎦ ∈ M4×3 2 1 2 ⎡ y TA : R3 → R4 definida por ⎡ 1 −1 ⎢ 0 −1 TA (x, y, z) = ⎢ ⎣ 3 −1 2 1 ⎤ 2 ⎡ ⎤ x 3 ⎥ ⎥ ⎣ y ⎦ = (x − y + 2z, −y + 3z, 3x − y + 4z, 2x + y + 2z). 4 ⎦ z 2 Por el ejemplo anterior TA es lineal. Page (PS/TeX): 4 / 420, COMPOSITE Transformaciones lineales 421 SECCIÓN 5.1 Sabemos, del ejemplo 5.9, que toda transformación matricial TA es lineal. Recı́procamente, si T : R → Rm es una transformación lineal, ¿existe una matriz A ∈ Mm×n tal que T = TA ? La respuesta es por lo menos afirmativa cuando m = n = 1 para el caso de transformaciones lineales de R en R como probamos en el ejemplo 5.3 (pág. 417). Esto nos induce a intentar probar el caso general. Sean n i ei = (0, . . . , 0, 1, 0, . . . , 0), i = 1, 2, . . . , n, n n la base canónica de R y j f j = (0, . . . , 0, 1, 0, . . . , 0), j = 1, 2, . . . , m, m la base canónica de Rm . Entonces, si u = (x1 , x2 , . . . , xn ) ∈ Rn , u = x1e1 + x2e2 + · · · + xnen ; ası́ que T (u) = T (x1e1 + x2e2 + · · · + xnen ) = T (x1e1 ) + T (x2e2 ) + · · · + T (xnen ) = x1 T (e1 ) + x2 T (e2 ) + · · · + xn T (en ). Sea A la matriz m × n que tiene por columnas a los vectores T (ei ), i = 1, 2, . . . , n, descritos de acuerdo con la base canónica {f j }. Entonces T (u) = x1 T (e1 ) + x2 T (e2 ) + · · · + xn T (en ) ⎡ = T (e1 ) ⎡ ⎢ ⎢ = A⎢ ⎣ x1 x2 .. . T (e2 ) ⎤ ··· T (en ) ⎢ ⎢ ⎢ ⎣ x1 x2 .. . ⎤ ⎥ ⎥ ⎥ ⎦ xn ⎥ ⎥ ⎥ = Au ⎦ xn (cfr. ejemplo 1.15, pág. 12); luego T = TA . Hemos probado ası́ el siguiente teorema. Teorema 5.3 Sean {ei }, {f j } las bases canónicas de Rn y Rm , respectivamente, y T : Rn → Rm una transformación lineal. Entonces existe una matriz A ∈ Mm×n tal que T = TA . De hecho, una matriz A que sirve para este propósito es aquella cuyas columnas son los vectores T (ei ), i = 1, . . . , n, descritos en la base canónica de Rm . P Nota 5.1 1. El teorema 5.3 significa que las únicas transformaciones lineales que existen entre espacios Rk son las transformaciones matriciales TA . Éste es un resultado muy sencillo, pero también muy importante, que el lector debe tener siempre presente. 2. La matriz A del teorema 5.3 no es única en el sentido de que se pueden tener resultados análogos a este teorema utilizando otras bases (cfr. sección 5.2). Page (PS/TeX): 5 / 421, COMPOSITE 422 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Definición 5.2 Sean T ∈ L (Rn , Rm ), {ei } y {f j } las bases canónicas de Rn y Rm , respectivamente. A la matriz A ∈ Mm×n cuyas columnas son los vectores T (ei ), i = 1, 2, . . . , n, descritos en la base canónica {f j }, se le dice la representación matricial de la transformación lineal2 T relativa a las bases canónicas de Rn y Rm . El teorema 5.3 también es muy útil para determinar si una transformación T : Rn → Rm es lineal o no.3 Para ello basta tomar la matriz A como antes y comprobar si T (u) = Au ∀u ∈ Rn ; pues en caso afirmativo T = TA y, por ende, T será lineal; en caso contrario, por el teorema precedente, T no puede ser lineal. Ejemplo 5.11 Sea T : R2 → R3 la transformación definida por T (x, y) = (−x + 2y, x, 2x − y). Mostrar que T es lineal y encontrar la representación matricial de T relativa a las bases canónicas. DEMOSTRACIÓN Q T (1, 0) = (−1, 1, 2), T (0, 1) = (2, 0, −1). Si ⎤ −1 2 0 ⎦ A=⎣ 1 2 −1 se tiene, para todo u = (x, y) ∈ R2 , ⎡ ⎤ −1 2 x 0 ⎦ Au = ⎣ 1 y 2 −1 ⎤ ⎡ −x + 2y x ⎦ = T (x, y). =⎣ 2x − y ⎡ Esto es T = TA . Lo cual prueba que T es lineal y A es entonces la representación matricial de T (relativa a las bases canónicas). Q 5.1.2 Núcleo e imagen de una transformación lineal Funciones inversas Sean A y B un par de conjuntos no vacı́os y f : A → B. Una función g : B → A es función inversa de f si f (g(y)) = y ∀y ∈ B y g( f (x)) = x ∀x ∈ A. 12 Más adelante, en la sección 5.2, extenderemos este concepto a transformaciones T ∈ L (E, F) en espacios de dimensión finita. 13 Lo cual es generalmente laborioso y tedioso aunque no difı́cil de hacer. Page (PS/TeX): 6 / 422, COMPOSITE Transformaciones lineales 423 SECCIÓN 5.1 f A g B B A Figura 5-1 • Diagrama de flechas que define un par de funciones. La función f queda definida mediante la asignación que a cada elemento del conjunto A se hace con un elemento del conjunto B por medio de la flecha que se indica; f (♦) = , f (♣) = ♥, etc. De manera análoga queda definida la función g. En tal caso, se dice que la función f es invertible. Por ejemplo, si A = [0, 2], B = [0, 4] y f : A → B se √ define por f (x) = x2 ; sea g : B → A definida por g(y) = y , entonces g es función inversa de f . En efecto: √ f (g(y)) = f ( y) = y y g( f (x)) = g(x2 ) = x para todo y ∈ B = [0, 4] y para todo x ∈ A = [0, 2]. De existir una inversa de una función ésta es única, la demostración de este hecho se deja como ejercicio al lector. Entonces, si f tiene inversa ésta se denota por f −1 y se le llama la función inversa de f (por ser única, la notación y el artı́culo están justificados). En la figura 5-1 se bosquejan dos diagramas de flechas que definen sendas funciones f : A → B y g : B → A. Claramente, se tiene g = f −1 . De la misma figura se observa que, en este caso, para cada y ∈ B existe un único x ∈ A tal que f (x) = y, entonces la función f −1 (y) = x está bien definida y coincide con la función g; luego f es una función invertible. Ası́, para que una función sea invertible, es necesario y suficiente que para cada elemento del contradominio exista un único elemento del dominio cuya imagen, bajo la función, sea dicho elemento. Estas caracterı́sticas están especificadas en las siguientes definiciones. Definición 5.3 (Funciones inyectivas) Sean A y B un par de conjuntos y f : A → B. La función f es inyectiva (uno a uno) si elementos distintos del dominio tienen imágenes distintas; esto es, x1 = x2 ⇒ f (x1 ) = f (x2 ) para x1 , x2 ∈ A; o equivalentemente, f (x1 ) = f (x2 ) ⇒ x1 = x2 . Ejemplo 5.12 Sea f : R → R la función definida por f (x) = x3 , para cada x ∈ R. Si x1 , x2 ∈ R y x1 = x2 , entonces x12 + x1 x2 + x22 = 0. Page (PS/TeX): 7 / 423, COMPOSITE (5.1) 424 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios En efecto, si uno de x1 , x2 es cero, el otro debe ser distinto de cero (pues x1 = x2 ); y por tanto, x13 = x23 ; ası́ que podemos suponer que x1 y x2 son ambos distintos de cero; por tanto, ya que la ecuación cuadrática (5.1) en x1 tiene discriminante −3x22 < 0, se tiene que ésta no tiene raı́ces reales; por lo que x13 − x23 = (x12 + x1 x2 + x22 )(x1 − x2 ) = 0. Luego, x1 = x2 ⇒ x13 = x23 ; por tanto, la función f (x) = x3 es inyectiva. De manera gráfica también se puede observar que la función f es inyectiva. Definición 5.4 Se dice que una función f : A → B es suprayectiva (sobre) si para todo y ∈ B existe x ∈ A tal que f (x) = y. Si f es una función suprayectiva, se acostumbra decir que f es una función de A sobre B en lugar de f es una función de A en B. y = ln(x) Figura 5-2 • Ejemplo 5.13 De la gráfica de la función f (x) = ln x, figura 5-2, se puede ver que ésta es una función suprayectiva de R sobre R. De hecho, si y ∈ R, entonces x = ey satisface ln(x) = y, como el lector puede comprobar utilizando las propiedades del logaritmo natural y la exponencial. Definición 5.5 f : A → B es una función biyectiva si f es inyectiva y suprayectiva. Ejemplo 5.14 La función f : R → R, definida por f (x) = ln(x), es inyectiva y suprayectiva (cfr. figura 5-2), luego f es biyectiva. Resumimos, en el siguiente teorema, los resultados precedentes. Teorema 5.4 Sea f : A → B. Entonces f es invertible si y sólo si f es biyectiva. P Nota 5.2 Observe que f : A → B es biyectiva si y sólo si f −1 : B → A es biyectiva, y que en tal caso ( f −1 )−1 = f . Ejemplo 5.15 La función f : R → R, definida por f (x) = ln(x), es biyectiva y f −1 (x) = e x . Núcleo En el caso de una transformación lineal de un espacio vectorial en otro, la inyectividad es una caracterı́stica muy fácil de verificar mediante lo que llamaremos el núcleo de dicha aplicación; mientras que la suprayectividad será también una propiedad sencilla de comprobar mediante la imagen de la transformación. Desarrollamos estos conceptos a continuación. Page (PS/TeX): 8 / 424, COMPOSITE SECCIÓN 5.1 Transformaciones lineales 425 Definición 5.6 Si T ∈ L (E, F), se define el núcleo (kernel) de T como: Ker(T ) = x ∈ E | T (x) = 0F . Ejemplo 5.16 Si T ∈ L (R3 , R2 ) está definida por 4 T (x1 , x2 , x3 ) = (x1 − 2x2 , x2 + 3x3 ). Entonces x = (x1 , x2 , x3 ) ∈ Ker(T ) si y sólo si T (x1 , x2 , x3 ) = (0, 0). Luego se debe tener x1 − 2x2 = 0 x2 + 3x3 = 0. Resolvamos el sistema homogéneo escalonado 1 0 x2 = −3x3 x1 = 2x2 = −6x3 . haciendo sustitución regresiva: De donde −2 0 1 3 ⎤ ⎤ ⎡ ⎤ ⎡ −6 −6r x1 ⎣ x2 ⎦ = ⎣ −3r ⎦ = r ⎣ −3 ⎦ . 1 r x3 ⎡ Ası́, Ker(T ) = {u ∈ R3 |u = (−6r, −3r, r), r ∈ R }. Ejemplo 5.17 (Núcleo de una transformación matricial) Sean A ∈ Mm×n y la transformación matricial TA : Rn → Rm , TA (x) = Ax. Entonces x ∈ Ker(T ) ⇔ Ax = 0Rm ⇔ x está en el espacio nulo de la matriz A; esto es, en el espacio solución del sistema homogéneo Ax = 0. Es decir, el núcleo de una transformación matricial TA es el espacio nulo5 de la matriz A. Ejemplo 5.18 Sea E = C1 [0, 1] y T : E → C[0, 1], la transformación lineal T ( f ) = f (cfr. ejemplo 5.4). Entonces Ker(T ) = = = = {f {f {f {f ∈ C1 [0, 1] | T ( f ) = 0 } ∈ C1 [0, 1] | f = 0 } ∈ C1 [0, 1] | f (x) = 0 ∀x ∈ [0, 1] } ∈ C1 [0, 1] | f es constante en [0, 1] }. Sean ahora T ∈ L (E, F), x1 ,x2 ∈ Ker(T ), y α, β ∈ R; entonces T (x1 ) = T (x2 ) = 0F . Luego T (αx1 + βx2 ) = αT (x1 ) + βT (x2 ) = 0F +0F = 0F , 14 Queda como ejercicio para el lector comprobar que efectivamente T es una transformación lineal (cfr. ejemplo 5.5 y la definición de transformación lineal o el ejemplo 5.11 y la discusión que lo precede). 15 Cfr. ejemplo 3.20, página 141. Page (PS/TeX): 9 / 425, COMPOSITE 426 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios por lo que αx1 + βx2 ∈ Ker(T ); y puesto que6 T (0E ) = 0F , se sigue que el núcleo de toda transformación lineal es un subespacio vectorial y por ende un espacio vectorial. Resumimos este resultado en el siguiente teorema. Teorema 5.5 Si L (E, F), entonces7 Ker(T ) < E. En el teorema 5.6 se ve la relación entre la inyectividad y el núcleo de una transformación lineal que acabamos de mencionar. Teorema 5.6 (Núcleo e inyectividad) Si E y F son espacios vectoriales y T ∈ L (F, F), entonces T es inyectiva si y sólo si Ker(T ) = {0E }. DEMOSTRACIÓN Q 1. Supongamos que T es inyectiva. Si x ∈ Ker(T ), T (x) = 0F y puesto que T (0E ) = 0F , x = 0E ; por tanto, Ker(T ) = {0E }. 2. Supongamos ahora que Ker(T ) = {0E }. Si x,y ∈ E y T (x) = T (y), entonces T (x −y) = T (x) − T (y) = 0F . Por tanto, x −y ∈ Ker(T ) = {0E }. Ası́ que x −y = 0E ; es decir, x = y; lo cual prueba que T es inyectiva. Q Ejemplo 5.19 Si A ∈ Mn×n , la transformación matricial TA de Rn en Rn es inyectiva si y sólo si A es invertible. En efecto: TA es inyectiva ⇔ Ker(TA ) = {0Rn } ⇔ la única solución de Ax = 0Rn es x = 0Rn ⇔ A es invertible. Definición 5.7 Si T ∈ L (E, E); es decir, T es una transformación lineal de un espacio E en sı́ mismo, se acostumbra decir que T es un operador lineal en el espacio E. Más adelante veremos que a todo operador lineal T en un espacio E de dimensión finita le corresponde una transformación matricial TA ; de tal suerte que el operador se puede evaluar por medio de esta transformación matricial. Por esta razón y el ejemplo precedente, es común decir que un operador lineal es no singular cuando es invertible. En este texto utilizaremos indistintamente los calificativos invertible y no singular cuando un operador lineal sea invertible. 1 −1 Ejemplo 5.20 Sea A = y TA : R2 → R2 la transformación matricial definida por TA (x, y) = 2 1 x A ; puesto que y 1 −1 1 −1 A= ∼ ∼ I2 , 2 1 0 3 se deduce que A es invertible, luego el operador lineal TA es inyectivo. 16 Cfr. teorema 5.2, página 419. 17 Recuerde que la notación S < E significa que S es un subespacio vectorial de E (cfr. definición 3.10, pág. 139). Page (PS/TeX): 10 / 426, COMPOSITE SECCIÓN 5.1 Transformaciones lineales 427 Ejemplo 5.21 Sea T : R2 → R3 definida por T (x, y) = (2x, 3x + 4, x + y), se deja como ejercicio al lector comprobar que T es lineal. Determinar si T es inyectiva. T (x, y) = (0, 0, 0) ⇒ Solución (2x, 3x + y, x + y) = (0, 0, 0) ⇒ x = 0, Por tanto, Ker(T ) = {(0, 0)}, por lo que T es inyectiva. y = 0. Ejemplo 5.22 Sea T : R3 → R3 definida por T (x, y, z) = (z, 0, x + y). Sean (x1 , y2 , z3 ), (x1 , y2 , z3 ) ∈ R3 y α ∈ R, entonces T ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = T (x1 + x2 , y1 + y2 , z1 + z2 ) = (z1 + z2 , 0, x1 + x2 + y1 + y2 ) = (z1 , 0, x1 + y1 ) + (z2 , 0, x2 + y2 ) = T (x1 , y1 , z1 ) + T (x2 , y2 , z2 ) y T (α(x1 , y1 , z1 )) = T (αx1 , αy1 , αz1 ) = (αz1 , 0, αx1 + αy1 ) = α(z1 , 0, x1 + y1 ) = αT (x1 , y1 , z1 ). Lo cual demuestra que T es un operador lineal. Por otra parte, si u = (−1, 1, 0), entonces T (u) = (0, 0, −1 + 1) = (0, 0, 0), por lo que u ∈ Ker(T ) y por tanto Ker(T ) = {(0, 0, 0)}. Luego el operador lineal T no es inyectivo. Imagen de una transformación Definición 5.8 Sean E, F un par de espacios vectoriales, T ∈ L (E, F) y S ⊂ E un subconjunto no vacı́o: 1. Al conjunto T (S) = { T (x) |x ∈ S } = {y ∈ F | existe x ∈ S con T (x) =y } se le llama la imagen de S bajo T . También se dice que S se transforma en T (S) bajo la aplicación T . 2. En particular, T (E) se llama la imagen de la transformación T . Ejemplo 5.23 Sea T : R2 → R2 definida por T (x, y) = (2x, y) para todo (x, y) ∈ R2 . Puesto que 2 0 x T (x, y) = , 0 1 y Page (PS/TeX): 11 / 427, COMPOSITE 428 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios y v S T (S) u x (a) (b) y p T (p) x 2x (d) (c) Figura 5-3 • es inmediato que T es una transformación lineal. Sea S = {(x, y) ∈ R2 | x2 + y2 = 1}; i.e., S es la circunferencia con centro en el origen y radio 1. El objetivo es determinar geométricamente en qué se transforma el conjunto S bajo T ; es decir, T (S). Para ello podemos bosquejar el plano R2 y una copia del mismo donde, para mejor comprensión, hemos elegido la letra u en el eje de las abscisas y la letra v para el eje de las ordenadas en lugar de x y y, respectivamente, del plano original, para graficar la imagen de S bajo la transformación T , como se ilustra en la figura 5-3(a) y (b). Entonces, si (u, v) = T (x, y) = (2x, y) se tiene u = 2x, v = y. Luego, si (x, y) ∈ S, u 2 2 + v2 = x2 + y2 = 1. De esta manera todo punto (x, y) de la circunferencia S (cfr. figura 5.23(a)) se transforma en un punto T (x, y) = (u, v) de la elipse (u2 /4) + v2 = 1 bosquejada en la figura 5-3(b). Por tanto, la imagen de la circunferencia S, bajo la transformación T , es la elipse T (S) con ecuación, en el plano u, v, (u2 /4) + v2 = 1. Naturalmente, es posible utilizar el mismo plano para bosquejar S y su imagen T (S) (figura 5-3(c)). En general, esta aplicación transforma un vector p en otro vector T (p) que sufre una dilatación, en un factor de 2, en la abscisa y que permanece invariante en la ordenada (figura 5-3(d)). Page (PS/TeX): 12 / 428, COMPOSITE SECCIÓN 5.1 Transformaciones lineales 429 Teorema 5.7 Sean E, F espacios vectoriales y T ∈ L (E, F): 1. Si S < E, entonces T (S) < F. 2. T (E) < F. un )). 3. Si S = gn(u1 ,u2 , . . . ,un ), entonces T (S) = gn(T (u1 ), T (u2 ), . . . , T ( DEMOSTRACIÓN Q 1. (a) Como S < E, 0E ∈ S y entonces, al ser T lineal, T (0E ) = 0F ; luego 0F ∈ T (S). (b) Si y1 ,y2 ∈ T (S), existen x1 ,x2 ∈ S tales que T (x1 ) = y1 y T (x2 ) = y2 ; entonces, dado que x1 +x2 ∈ S (porque S < E), y1 +y2 = T (x1 ) + T (x2 ) = T (x1 +x2 ) ∈ T (S). (c) Seay ∈ T (S) y α ∈ R, entonces existe x ∈ E tal quey = T (x); dado que αx ∈ S (porque S < E), αy = αT (x) = T (αx) ∈ T (S). De (a), (b) y (c) se tiene que T (S) < F. 2. Es consecuencia inmediata del inciso 1. 3. Si v ∈ gn(u1 ,u2 , . . . ,un ), existen α1 , α2 , . . . , αn ∈ R tales que v = α1u1 + α2u2 + · · · + αnun , entonces T (v) = T (α1u1 + α2u2 + · · · + αnun ) = T (α1u1 ) + T (α2u2 ) + · · · + T (αnun ) = α1 T (u1 ) + α2 T (u2 ) + · · · + αn T (un ); un )). de donde T (S) = gn(T (u1 ), T (u2 ), . . . , T ( Q Ejemplo 5.24 Sea T ; R3 → R3 la transformación definida como T (x, y, z) = (x + 2y − z, y + z, x + y − 2z). 1. Encontrar una matriz A ∈ M3×3 tal que T (u) = Au ∀u ∈ R3 . 2. Demostrar que T es un operador lineal en R3 . 3. Hallar una base y dim(T (R3 )). 4. Hallar una base de Ker(T ) y dim(Ker(T )). 5. ¿Cuál es el valor de dim(Ker(T )) + dim((T (E))? T (e1 ) = T (1, 0, 0) = (1, 0, 1), T (e2 ) = T (1, 0, 0) = (2, 1, 1), T (e3 ) = T (0, 0, 1) = (−1, 1, −2). ⎤ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎡ x + 2y − z x 1 2 −1 1 2 −1 y + z ⎦ = T (x, y, z). 1 ⎦⎣ y ⎦ = ⎣ 1 ⎦, entonces ⎣ 0 1 Sea A = ⎣ 0 1 x + y − 2z z 1 1 −2 1 1 −2 Solución 1. Esto es, T (u) = Au Page (PS/TeX): 13 / 429, COMPOSITE ∀u ∈ R3 . 430 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 2. Puesto que T = TA , se sigue que T es lineal. 3. Sabemos quee1 = (1, 0, 0),e2 = (0, 1, 0),e3 = (0, 0, 1) forman una base de R3 ; ası́ T (e1 ), T (e2 ), T (e3 ) generan a T (R3 ). Entonces, T (R3 ) = gn(T (e1 ), T (e2 ), T (e3 )) = gn((1, 0, 1), (2, 1, 1), (−1, 1, −2)). Ahora extraigamos una base para T (R3 ) a partir de estos generadores (cfr. teorema 3.18 y ejemplo 3.61, pág. 166) llevando la matriz A a forma escalonada. ⎤ ⎡ 1 1 2 −1 ⎣ 0 1 1 ⎦∼⎣ 0 0 1 1 −2 ⎡ ⎤ ⎡ 1 2 −1 1 1 ⎦∼⎣ 0 0 −1 −1 ⎤ 2 −1 1 1 ⎦. 0 0 Una base para T (R3 ) es entonces B = {(1, 0, 1), (2, 1, 1)} y dim(T (R3 )) = 2. 4. Para hallar el núcleo de T tenemos T (x, y, z) = (0, 0, 0) ⇔ (x − 2y − z, y + z, x + y − 2z) = (0, 0, 0); que equivale a resolver el sistema homogéneo x − x + 2y y y − + − z = z = 2z = 0 0 0 Resolvamos este sistema llevando la matriz de coeficientes a forma escalonada: ⎤ ⎤ ⎡ ⎡ 1 2 −1 1 2 −1 ⎣ 0 1 1 ⎦, 1 ⎦∼⎣ 0 1 0 0 0 1 1 −2 y después haciendo sustitución regresiva: ⎤ ⎤ ⎡ ⎤ ⎡ 3 x 3r ⎣ y ⎦ = ⎣ −r ⎦ = r ⎣ −1 ⎦ . 1 z r ⎡ Por tanto, Ker(T ) = gn((3, −1, 1)). Entonces, una base para Ker(T ) es B = {(3, −1, 1)} y dim(Ker(T )) = 1. 5. dim(Ker(T )) + dim((T (E)) = 1 + 2 = 3 = dim(R3 ). El precedente ejemplo motiva los resultados contenidos en los teoremas 5.8 y 5.9. Page (PS/TeX): 14 / 430, COMPOSITE SECCIÓN 5.1 Transformaciones lineales 431 Teorema 5.8 Si T ∈ L (E, F) y dim(E) = n, entonces dim(T (E)) + dim(Ker(T )) = n DEMOSTRACIÓN (5.2) Q Sea {e1 ,e2 , . . . ,ek } una base de Ker(T ). Completemos ésta a una base {e1 ,e2 , . . . ,ek , f1 , f2 , . . . , fn−k } de E (cfr. el procedimiento para este fin dado en la pág. 167). Entonces, si u = a1e1 + · · · + akek + b1 f1 + · · · + bn−k fn−k ∈ E, T (u) = a1 T (e1 ) + · · · + ak T (ek ) + b1 T (f1 ) + · · · + bn−k T (fn−k ) = 0F + · · · +0F + b1 T (f1 ) + · · · + bn−k T (fn−k ) = b1 T (f1 ) + · · · + bn−k T (fn−k ); de donde T (E) = gn(T (f1 ), . . . , T (fn−k )). Sean β1 , . . . , βn−k ∈ R tales que β1 T (f1 ) + · · · + βn−k T (fn−k ) = 0F , entonces T (β1 f1 + · · · + βn−k fn−k ) = β1 T (f1 ) + · · · + βn−k T (fn−k ) = 0F . Por lo que β1 f1 + · · · + βn−k fn−k ∈ Ker(T ); por tanto existen −α1 , . . ., −αk ∈ R tales que β1 f1 + · · · + βn−k fn−k = (−α1 )e1 + · · · + (−αk )ek (pues {e1 , . . . ,ek } es una base de Ker(T )). Entonces α1e1 + · · · + αkek + β1 f1 + · · · + βn−k fn−k = 0E y ya que los vectorese1 , . . . ,ek , f1 , . . . , fn−k son L.I., se tiene que los escalares α1 , . . . , αk , β1 , . . . , βn−k son todos nulos; en particular β1 = · · · = βn−k = 0. Luego los vectores T (f1 ), . . . , T (fn−k ) son L.I y, ya que generan a T (E), forman una base de T (E). Ası́, dim(T (E)) = n − k; por ende, dim(Ker(T )) + dim(T (E)) = n = dim(E). Q Definición 5.9 Si E tiene dimensión finita y T ∈ L (E, F), a la dimensión del subespacio T (E) se le llama el rango de la transformación T y se denota por Rang(T ); es decir, Rang(T ) = dim(T (E)). Page (PS/TeX): 15 / 431, COMPOSITE 432 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Teorema 5.9 Sean T ∈ L (Rn , Rm ) y A la representación matricial de T relativa a las bases canónicas de Rn y Rm . Entonces: 1. T (Rn ) = Ec (A),8 esto es, v ∈ T (Rn ) si y sólo si el sistema Au =v tiene solución. 2. dim(T (Rn )) = Rang(A), el rango de la matriz A. 3. u ∈ Ker(T ) ⇔ u pertenece al espacio nulo de A; esto es, u es solución del sistema homegéneo Au = 0Rm . 4. dim(Ker(T )) = Nul(A), la nulidad de A, la dimensión del espacio solución del sistema Ax = 0Rm . 5. Si m = n, el operador lineal T es inyectivo (por tanto biyectivo) si y sólo si A es invertible. La demostración de este teorema es sencilla y se deja como ejercicio al lector. Ejemplo 5.25 ¿Es posible construir una transformación lineal T ∈ L (R4 , R3 ) que sea inyectiva? Supongamos que sı́. Por 5.2 del teorema 5.8 tenemos 4 = dim(T (R4 )) + dim(Ker(T )) = dim(T (R4 )) + 0 = dim(T (R4 )) pues T es inyectiva y por ende Ker(T ) = {0E }, luego dim(Ker(T )) = 0. Pero T (R4 ) < R3 y entonces dim(T (R4 )) es a lo más 3. Ası́ 4 = dim(T (R4 )) ≤ 3. Lo cual es una contradicción; por tanto es imposible que T sea inyectiva. El mismo razonamiento del ejemplo precedente es válido para cualquier T ∈ L (E, F) donde E tiene dimensión finita y dim(F) < dim(E) para mostrar que T no puede ser inyectiva. Como mencionamos más arriba, para el caso de espacios vectoriales y de una transformación lineal entre ellos, hay condiciones sencillas para probar la suprayectividad e inyectividad. Teorema 5.10 Sean E y F un par de espacios vectoriales y T : E → F una transformación lineal. Entonces: 1. T es suprayectiva ⇔ T (E) = F. 2. Si dim(E) = n < ∞, T es suprayectiva si y sólo si dim(T (E)) = dim(F). 3. Si dim(E) = n < ∞ y T es suprayectiva, entonces dim(F) ≤ n. 4. Si dim(E) = dim(F) = n < ∞, T es suprayectiva ⇔ T es inyectiva. 5. Si E tiene dimensión n y T es biyectiva, entonces dim(E) = dim(F). DEMOSTRACIÓN Q 1. Es evidente. 18 Recuerde que Ec (A) representa el espacio columna de A (cfr. definición 3.13, pág. 146). Page (PS/TeX): 16 / 432, COMPOSITE SECCIÓN 5.2 Representaciones matriciales de transformaciones lineales 433 2. (⇒)Si T es suprayectiva, T (E) = F; y, por tanto, dim(T (E)) = dim(F). (⇐) Si dim(T (E)) = dim(F), entonces T (E) = F. 3. Sea {ei }, i = 1, 2, . . . , n una base de E, entonces F = T (E) = gn(T (e1 ), . . . , T (en )); luego dim(F) ≤ n. 4. Es consecuencia inmediata de la igualdad (5.2). 5. F = T (E) por ser T suprayectiva, dim(Ker(T )) = 0 por ser T inyectiva, y por (5.2) se tiene dim(F) = dim(T (E)) + dim(Ker(T )) = n = dim(E). Q Si T : E → F es una transformación lineal biyectiva, entonces existe la transformación inversa de T , T −1 : F → E; ¿es también lineal T −1 ? La respuesta es afirmativa. Teorema 5.11 Sea T : E → F una transformación lineal biyectiva y sea T −1 : F → E la transformación inversa de T , entonces T −1 es lineal. DEMOSTRACIÓN Q Seanu1 ,u2 ∈ F y α, β ∈ R. Puesto que T es biyectiva, existenu,v ∈ E tales que T (u) =u1 y T (v) =u2 ; por tanto T −1 (u1 ) = u y T −1 (u2 ) =v. Entonces T −1 (αu1 + βu2 ) = = = = T −1 (αT (u) + βT (v)) T −1 (T (αu + βv)) αu + βv αT −1 (u1 ) + βT −1 (u2 ). Q 5.2 Representaciones matriciales de transformaciones lineales En el teorema 5.3 (cfr. pág. 421) vimos que para toda transformación lineal T : Rn → Rm existe una matriz A ∈ Mm×n tal que T = TA ; esto es, T (u) = Au ∀u ∈ Rn . En esta sección veremos que este resultado se puede extender a transformaciones T ∈ L (E, F) cuando los espacios vectoriales E y F tienen dimensiones finitas. 5.2.1 Vectores de coordenadas, cambio de bases Recordemos (cfr. pág. 335) que si B = {e1 ,e2 , . . . ,en } es una base fija de un espacio vectorial E, entonces, para cada u ∈ E, existen escalares únicos α1 , α2 , . . . , αn tales que Page (PS/TeX): 17 / 433, COMPOSITE 434 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios u = α1e1 + α2e2 + · · · + αnen (5.3) Si convenimos que todo vector se va a escribir respetando el mismo orden de los términos en el lado derecho de (5.3); es decir, un escalar que multiplica a e1 , más un escalar que multiplica a e2 , etc., más un escalar que multiplica a en , diremos que B es una base ordenada del espacio E y escribiremos, con frecuencia, (e1 ,e2 , . . . ,en ) en lugar de {e1 ,e2 , . . . ,en } para hacer énfasis en este hecho.9 Es claro que si se conoce el vector (α1 , α2 , . . . , αn ) se conoce el vector u y viceversa. Esto motiva la siguiente definición. Definición 5.10 Sea B = (e1 ,e2 , . . . ,en ) una base ordenada del espacio E y u ∈ E. Al único vector (α1 , α2 , . . . , αn ) ∈ Rn tal que u = α1e1 + α2e2 + · · · + αnen se le llama el vector coordenado o el vector de coordenadas de u relativo a la base B, y se denota por10 [u]B ; i.e., ⎡ ⎤ α1 ⎢ α2 ⎥ ⎢ ⎥ [u]B = ⎢ . ⎥ . ⎣ .. ⎦ αn Ejemplo 5.26 En P3 sea la base ordenada B = (1, x, x2 , x3 ). Entonces 3x − 4 = −4(1) + 3(x) + 0 · x2 + 0 · x3 ; luego, ⎤ −4 ⎢ 3 ⎥ ⎥ [3x − 4]B = ⎢ ⎣ 0 ⎦ . 0 ⎡ Ejemplo 5.27 En el subespacio S = gn(1, cos(2x)) de las funciones continuas de R en R, cos2 (x) = 1 1 + cos(2x). 2 2 Entonces, 2 cos (x) B = 1/2 1/2 para la base ordenada B = (1, cos(2x)) de S. 19 De una manera más rigurosa, pero más simple, una base ordenada de un espacio vectorial de dimensión finita es una sucesión finita de vectores L.I. que genera a este espacio. 10 1Recordemos que hemos convenido en representar un vector de Rn indistintamente por una n-ada ordenada o por una matriz columna. Page (PS/TeX): 18 / 434, COMPOSITE Representaciones matriciales de transformaciones lineales 435 SECCIÓN 5.2 Ejemplo 5.28 Para la base ordenada 1 0 0 1 0 0 0 0 B= , , , 0 0 0 0 1 0 0 1 de M2×2 , −1 1 0 2 = (−1) 1 0 0 0 + (1) 0 0 1 0 + (0) 0 0 1 0 + (2) 0 0 0 1 . Luego Ejemplo 5.29 Dado que −1 1 0 2 ⎤ −1 ⎢ 1 ⎥ ⎥ =⎢ ⎣ 0 ⎦ . B 2 ⎡ ⎤ ⎡ 1 1 −1 3 ⎣ 1 2 −1 ⎦ ∼ ⎣ 0 0 0 −1 2 ⎡ 1 ∼⎣ 0 0 ⎡ −1 3 −1 −1 3 0 ⎤ 3 −4 ⎦ 2 ⎤ 3 −4 ⎦ , 2 se sigue que {(1, 1, 0), (−1, 2, −1), (3, −1, 2)} es una base de R3 vector (2, 1, 3) de R3 y resolvamos el sistema ⎤⎡ ⎤ ⎡ ⎡ α1 1 −1 3 ⎣ 1 2 −1 ⎦ ⎣ α2 ⎦ = ⎣ 0 −1 2 α3 (cfr. teorema 3.13, pág. 158). Sea el ⎤ 2 1 ⎦ 3 por el método de Gauss: ⎡ 1 ⎣ 1 0 ⎤ ⎡ 1 −1 3 2 −1 3 2 3 −4 −1 2 −1 1 ⎦ ∼ ⎣ 0 0 −1 2 3 −1 2 3 ⎡ 1 −1 3 2 3 −4 −1 ∼⎣ 0 0 0 2 8 ⎡ ∴ ⎤ ⎤ ⎡ α1 −5 ⎣ α2 ⎦ = ⎣ 5 ⎦ . 4 α3 Por lo que ⎤ −5 [(2, 1, 3)]B = ⎣ 5 ⎦ 4 ⎡ para la base ordenada ((1, 1, 0), (−1, 2, −1), (3, −1, 2)). Page (PS/TeX): 19 / 435, COMPOSITE ⎤ ⎦ ⎤ ⎦ 436 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Comprobación: −5(1, 1, 0) + 5(−1, 2, −1) + 4(3, −1, 2) = (2, 1, 3) . Las siguientes propiedades de los vectores de coordenadas son sencillas de probar y se dejan como ejercicio al lector. Teorema 5.12 Sean E un espacio vectorial de dimensión n y B una base ordenada de él. Entonces: 1. [u +v]B = [u]B + [v]B 2. [αu]B = α[u]B ∀u,v ∈ E. ∀u ∈ E, ∀α ∈ R. 3. [u]B = [v]B ⇔ u =v. 4. [u]B = 0Rn ⇔ u = 0E . 5. u1 , . . . ,uk son L.I. en E ⇔ [u1 ]B , . . . , [uk ]B son L.I. en Rn . 6. Para todo x = (x1 , . . . , xn ) ∈ Rn existe un único u ∈ E tal que [u]B =x y viceversa. En la ulterior discusión necesitaremos del siguiente lema. Lema 5.1 1. Sea A ∈ Mm×n una matriz tal que Ax = 0Rm para todo x ∈ Rn . Entonces A = O, la matriz cero de tamaño m × n. 2. Sea A ∈ Mn×n una matriz tal que Ax =x para todox ∈ Rn . Entonces A = In , la matriz identidad de orden n. DEMOSTRACIÓN Q 1. Sean ei los vectores de la base canónica de Rn (la componente i de ei es 1 y las demás son 0). i es la columna i de A, se tiene Entonces, si K 0Rm = Aei = K i; de donde A = O. 2. Es consecuencia inmediata del inciso anterior, pues Ax =x ⇒ (A − In )x = 0Rn . Q Supongamos ahora que B1 = (e1 ,e2 , . . . ,en ) y B2 = (f1 , f2 , . . . , fn ) son bases ordenadas de un mismo espacio vectorial E. Sea ⎡ ⎢ ⎢ [u]B2 = ⎢ ⎣ α1 α2 .. . ⎤ ⎥ ⎥ ⎥ ⎦ αn el vector de coordenadas de u relativo a la base B2 . Escribamos cada vector fi como combinación lineal de los elementos de la base ordenada B1 : Page (PS/TeX): 20 / 436, COMPOSITE Representaciones matriciales de transformaciones lineales 437 SECCIÓN 5.2 f1 = a11e1 + a12e2 + · · · + a1nen , f2 = a21e1 + a22e2 + · · · + a2nen , .. .. .. . . . fn = an1e1 + an2e2 + · · · + annen . Entonces u = α1 f1 + α2 f2 + · · · + αn fn = α1 (a11e1 + a12e2 + · · · + a1nen ) + α2 (a21e1 + a22e2 + · · · + a2nen ) +··· + αn (an1e1 + an2e2 + · · · + annen ) = (α1 a11 + α2 a21 + · · · + αn an1 )e1 + (α1 a12 + α2 a22 + · · · + αn an2 )e2 +··· + (α1 a1n + α2 a2n + · · · + αn ann )en . Esto es, ⎡ ⎢ ⎢ [u]B1 = ⎢ ⎣ ⎡ ⎢ ⎢ =⎢ ⎣ α1 a11 + α2 a21 + · · · + αn an1 α1 a12 + α2 a22 + · · · + αn an2 .. . α1 a1n + α2 a2n + · · · + αn ann ⎤⎡ a11 a21 · · · an1 α1 ⎢ α2 a12 a22 · · · an2 ⎥ ⎥⎢ .. ⎥ ⎢ .. .. .. .. . . ⎦⎣ . . . a1n ··· a2n ⎤ ⎥ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎥. ⎦ αn ann Entonces, si ⎡ ⎢ ⎢ P=⎢ ⎣ a11 a12 .. . a21 a22 .. . ··· ··· .. . an1 an2 .. . a1n a2n ··· ann ⎤ ⎥ ⎥ ⎥ ⎦ y conocemos el vector de coordenadas del vector u relativo a la base B2 , podemos conocer también el vector de coordenadas de u relativo a la base B1 mediante la matriz P: [u]B1 = P [u]B2 (5.4) Ahora escribamos los vectores de la base ordenada B1 como combinaciones lineales de los vectores de la base B2 : e1 = b11 f1 + b12 f2 + · · · + b1n fn , e2 = b21 f1 + b22 f2 + · · · + b2n fn , .. .. . . .. . en = bn1 f1 + bn2 f2 + · · · + bnn fn . Page (PS/TeX): 21 / 437, COMPOSITE 438 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Sea ⎡ ⎢ ⎢ Q=⎢ ⎣ b11 b12 .. . b21 b22 .. . ··· ··· .. . bn1 bn2 .. . b1n b2n ··· bnn ⎤ ⎥ ⎥ ⎥, ⎦ entonces, por analogı́a, se tiene [u]B2 = Q [u]B1 . (5.5) Es decir, podemos calcular el vector de coordenadas de u relativo a la base B2 si conocemos el vector de coordenadas del mismo vector relativo a la base B1 multiplicando éste por la matriz Q. Ahora bien, de (5.4) y (5.5) tenemos [u]B1 = P [u]B2 = P Q [u]B1 = (PQ) [u]B1 para todo vector [u]B1 ∈ Rn . Esto implica, por el lema 5.1, que PQ = In ; es decir, P es invertible y P−1 = Q. Hemos probado ası́ el siguiente teorema. Teorema 5.13 Sean B1 = (e1 ,e2 , . . . ,en ) y B2 = (f1 , f2 , . . . , fn ) dos bases ordenadas de un mismo espacio vectorial. Sean ai j ∈ R escalares tales que f1 f2 .. . fn y sea11 = = .. . a11e1 + a12e2 + · · · + a1nen a21e1 + a22e2 + · · · + a2nen .. . = an1e1 + an2e2 + · · · + annen ⎡ ⎢ ⎢ P=⎢ ⎣ a11 a12 .. . a21 a22 .. . ··· ··· .. . an1 an2 .. . a1n a2n ··· ann ⎤ ⎥ ⎥ ⎥. ⎦ Entonces, la matriz P es invertible y para todo u ∈ E se tiene: 1. [u]B1 = P [u]B2 . 2. [u]B2 = P−1 [u]B1 . Definición 5.11 Sean las condiciones del teorema anterior. 1. A la matriz P se le dice matriz cambio de base de la base B2 a la base B1 . 2. A la matriz P−1 se le dice matriz cambio de base de la base B1 a la base B2 . 1Observe que P es la transpuesta de la matriz de los coeficientes de los vectores ei del sistema (5.6). 11 Page (PS/TeX): 22 / 438, COMPOSITE (5.6) Representaciones matriciales de transformaciones lineales 439 SECCIÓN 5.2 Ejemplo 5.30 Sean e1 = (1, 0), e2 = (0, 1), f1 = (1, 1), f2 = (−1, 0) y B1 = {e1 ,e2 }, B2 = {f1 , f2 }. Ambas son bases de R2 y f1 = 1 ·e1 + 1 ·e2 f2 = (−1)e1 + 0 ·e2 . Entonces, P= 1 1 −1 0 y P−1 = 0 1 −1 1 luego, [u]B2 = P−1 [u]B1 . Ası́, por ejemplo, podemos escribir (−4, 3) como combinación lineal de f1 , f2 , al hallar [(−4, 3)]B2 ; pues [(−4, 3)]B2 = P−1 [(−4, 3)]B1 0 1 −4 = −1 1 3 3 = ; 7 y por tanto (−4, 3) = 3f1 + 7f2 , como el lector puede comprobar fácilmente. Ejemplo 5.31 En el ejemplo 5.29 vimos que B2 = {(1, 1, 0), (−1, 2, −1), (3, −1, 2)} es una base de R3 . Sea B1 = {(1, 0, 0), (0, 1, 0), (0, 1, 0)} la base canónica de este espacio. Entonces para este caso, claramente ⎤ ⎡ 1 −1 3 2 −1 ⎦ . P=⎣ 1 0 −1 2 Calculemos P−1 por el método de Gauss-Jordan: ⎡ 1 ⎣ 1 0 Page (PS/TeX): 23 / 439, COMPOSITE −1 2 −1 3 −1 2 ⎤ ⎡ 1 0 0 1 0 1 0 ⎦∼⎣ 0 0 0 1 0 ⎡ 1 ∼⎣ 0 0 ⎡ 1 ∼⎣ 0 0 −1 3 3 −4 −1 2 −1 3 3 −4 0 2 −1 3 3 −4 0 1 ⎤ 1 0 0 −1 1 0 ⎦ 0 0 1 ⎤ 1 0 0 −1 1 0 ⎦ −1 1 3 ⎤ 1 0 0 −1 1 0 ⎦ −1/2 1/2 3/2 440 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios ⎡ 1 ∼⎣ 0 0 ⎡ 1 ∼⎣ 0 0 ⎡ 1 ∼⎣ 0 0 ⎤ 1 0 0 −1 3 −3 3 6 ⎦ 3 0 0 1 −1/2 1/2 3/2 ⎤ −1 0 5/2 −3/2 −9/2 −1 1 2 ⎦ 1 0 1/2 3/2 0 1 −1/2 ⎤ 0 0 3/2 −1/2 −5/2 1 2 ⎦ 1 0 −1 1/2 3/2 0 1 −1/2 y por tanto ⎤ 3/2 −1/2 −5/2 −1 1 2 ⎦. P−1 = ⎣ −1/2 1/2 3/2 ⎡ Ası́, si [u]B1 es el vector de coordenadas de u relativo a la base canónica B1 , entonces el vector de coordenadas de éste relativo a la base B2 es [u]B2 = P−1 [u]B1 . ⎡ ⎤ 2 Por ejemplo, si u = (2, 1, 3), por tanto, [u]B1 = ⎣ 1 ⎦ y 3 ⎤ ⎤ ⎡ ⎤⎡ ⎡ −5 2 3/2 −1/2 −5/2 −1 1 2 ⎦⎣ 1 ⎦ = ⎣ 5 ⎦. [u]B2 = ⎣ 4 3 −1/2 1/2 3/2 Que es el mismo resultado que obtuvimos en el ejemplo 5.29. P Nota 5.3 Aunque en el ejemplo anterior no hicimos énfasis por medio de notación, hemos considerado las dos bases como bases ordenadas. Esto lo haremos frecuentemente en aras de brevedad; es decir, toda base, a lo largo de lo que resta de este capı́tulo, se considera una base ordenada aun si esto no se hace notar explı́citamente. Ejemplo 5.32 Sean las bases B1 = {1, x} y B2 = {4, 2 − x} del espacio de polinomios de grado a lo más 1 (note que en ambos casos claramente los respectivos elementos de cada conjunto son L.I. y recuerde que la dimensión de P1 es 2; razón por la que ambas son, efectivamente, bases de este espacio). 1. Encontrar la matriz cambio de base de la base B1 a la base B2 . 2. Hallar el vector de coordenadas del polinomio p(x) = 4 − 5x relativo a la base B2 . 3. Escribir el polinomio p(x) como combinación lineal de los elementos de la base B2 . Solución 1. Tenemos que 4 = 4·1+0·x 2 − x = 2 · 1 + (−1)x por lo que P= Page (PS/TeX): 24 / 440, COMPOSITE 4 2 0 −1 Representaciones matriciales de transformaciones lineales 441 SECCIÓN 5.2 y, por el método de la adjunta, P−1 = − 1 4 −1 −2 0 4 . La cual es la matriz cambio de base de B1 a B2 . 2. Ya que p(x) = 4 · 1 + (−5) x, [p(x)]B1 = 4 −5 . Entonces [p(x)]B2 = P−1 [p(x)]B1 1 −1 −2 4 =− 0 4 −5 4 −3/2 = . 5 3. Finalmente 3 4 + (5) (2 − x) p (x) = − 2 como el lector puede fácilmente verificar. 5.2.2 Representaciones matriciales de un operador lineal Ahora generalizaremos el concepto de representación matricial que se dio para transformaciones lineales de Rn en Rm a operadores lineales en un espacio vectorial; esto es, para transformaciones lineales de un espacio en sı́ mismo cuando éste tiene dimensión finita. Para ello, sean T ∈ L (E, E) un operador lineal y B = {e1 ,e2 , . . . ,en } una base del espacio E. Sean ai j ∈ R escalares tales que T (e1 ) T (e2 ) .. . = = .. . a11e1 + a12e2 + · · · + a1nen a21e1 + a22e2 + · · · + a2nen .. . T (en ) = an1e1 + an2e2 + · · · + annen . Sea u = α1e1 + α2e2 + · · · + αnen ∈ E; entonces [u]B = (α1 , α2 , . . . , αn ) y T (u) = T (α1e1 + α2e2 + · · · + αnen ) = α1 T (e1 ) + α2 T (e2 ) + · · · + αn T (en ). Por tanto T (u) = α1 (a11e1 + a12e2 + · · · + a1nen ) +α2 (a21e1 + a22e2 + · · · + a2nen ) +··· +αn (an1e1 + an2e2 + · · · + annen ) Page (PS/TeX): 25 / 441, COMPOSITE (5.7) 442 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios = (α1 a11 + α2 a21 + · · · + αn an1 )e1 +(α1 a12 + α2 a22 + · · · + αn an2 )e2 +··· +(α1 a1n + α2 a2n + · · · + αn ann )en ; luego ⎡ ⎢ ⎢ [T (u)]B = ⎢ ⎣ ⎡ ⎢ ⎢ =⎢ ⎣ α1 a11 + α2 a21 + · · · + αn an1 α1 a12 + α2 a22 + · · · + αn an2 .. . α1 a1n + α2 a2n + · · · + αn ann ⎤⎡ α1 a11 a21 · · · an1 ⎢ α2 a12 a22 · · · an2 ⎥ ⎥⎢ .. ⎥ ⎢ .. .. .. .. . . ⎦⎣ . . . a1n a2n ··· ⎤ ⎥ ⎥ ⎥ ⎦ ⎤ ⎥ ⎥ ⎥. ⎦ αn ann Lo cual motiva la definición 5.12 y prueba el teorema 5.14. Definición 5.12 Sean T : E → E un operador lineal en el espacio E, B = {e1 ,e2 , . . . ,en } una base (ordenada) de este espacio y ai j ∈ R escalares tales que se tiene el sistema de igualdades (5.7); a la matriz denotada y definida como ⎡ ⎢ ⎢ [T ]B = ⎢ ⎣ a11 a12 .. . a21 a22 .. . ··· ··· .. . an1 an2 .. . a1n a2n ··· ann ⎤ ⎥ ⎥ ⎥ ⎦ se12 le llama la representación matricial del operador T relativa a la base B. Teorema 5.14 Sean E, T , B y [T ]B como en la definición 5.12. Entonces [T (u)]B = [T ]B [u]B (5.8) para todo u ∈ E. Ejemplo 5.33 En P3 sean T : P3 → P3 el operador lineal definido por T (p) = p , B = {1, x, x2 , x3 }, y p(x) = −3 + 8x − 5x2 − 7x3 ∈ P3 . Entonces: T (1) = 0 = 0 · 1 + 0 · x + 0 · x2 + 0 · x3 T (x) = 1 = 1 · 1 + 0 · x + 0 · x 2 + 0 · x3 T (x2 ) = 2x = 0 · 1 + 2 · x + 0 · x2 + 0 · x3 T (x3 ) = 3x2 = 0 · 1 + 0 · x + 3 · x2 + 0 · x3 . 1Observe que [T ]B es la matriz transpuesta de coeficientes de los ei del sistema de igualdades (5.7). 12 Page (PS/TeX): 26 / 442, COMPOSITE Representaciones matriciales de transformaciones lineales 443 SECCIÓN 5.2 Ası́, ⎡ 0 ⎢ 0 [T ]B = ⎢ ⎣ 0 0 1 0 0 0 0 2 0 0 ⎤ 0 0 ⎥ ⎥ 3 ⎦ 0 y T (p(x)) = 8 − 10x − 21x2 = 8 · 1 + (−10) · x + (−21) · x2 + 0 · x3 . Por tanto, ⎤ 8 ⎢ −10 ⎥ ⎥ [T (p(x))]B = ⎢ ⎣ −21 ⎦ . 0 ⎡ Por otro lado, ⎡ 0 ⎢ 0 [T ]B [p(x)]B = ⎢ ⎣ 0 0 1 0 0 0 0 2 0 0 ⎤⎡ −3 0 ⎢ 8 0 ⎥ ⎥⎢ 3 ⎦ ⎣ −5 −7 0 ⎤ 8 ⎥ ⎢ −10 ⎥ ⎥ ⎥=⎢ ⎦ ⎣ −21 ⎦ = [T (p(x))]B . 0 ⎤ ⎡ P Nota 5.4 Supongamos que T es un operador lineal en un espacio de dimensión finita E; con [T ]B la representación de este operador relativa a una base B. Supongamos que A es una matriz cuadrada de orden n tal que [T (u)]B = A [u]B (5.9) para todo u ∈ E. Entonces [T ]B [u]B = [T (u)]B = A [u]B ; y por tanto ([T ]B − A)x = 0Rn ∀x ∈ Rn . Por el lema 5.1 se tiene entonces [T ]B − A = O; esto es, [T ]B = A. Es decir, la única matriz cuadrada de orden n que satisface (5.9) para todo u ∈ E es la representación matricial, [T ]B , del operador T relativa a la base B. Como acabamos de ver, en la nota 5.4, la representación matricial de un operador lineal, relativa a una base B, es la única matriz que satisface (5.9); sin embargo, si se toma otra base B1 del espacio E, también se cumple (5.8) del teorema 5.14 con B = B1 . ¿Cómo están relacionadas entonces las representaciones matriciales de un mismo operador lineal relativas a distintas bases? Para responder esta pregunta supongamos que B1 y B2 son distintas bases del mismo espacio vectorial E y [T ]B1 , [T ]B2 son sendas representaciones matriciales del operador T relativas a estas bases. Sea P la matriz Page (PS/TeX): 27 / 443, COMPOSITE 444 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios cambio de base de la base B2 a la base B1 ; entonces [u]B2 = P−1 [u]B1 y [u]B1 = P [u]B2 para todo u ∈ E. Luego [T (u)]B2 = P−1 [T (u)]B1 = P−1 [T ]B1 [u]B1 = P−1 [T ]B1 P [u]B2 = P−1 [T ]B1 P [u]B2 para todo u ∈ E. Por la unicidad de la representación matricial de un operador mostrada en la nota 5.4, se tiene que [T ]B2 = P−1 [T ]B1 P. Hemos probado ası́ el siguiente teorema. Teorema 5.15 Sean E un espacio vectorial; B1 y B2 bases del mismo; T un operador lineal en E; y [T ]B1 , [T ]B2 las respectivas representaciones matriciales de T relativas a estas bases. Si P es la matriz cambio de base de B2 a B1 , entonces [T ]B2 = P−1 [T ]B1 P. Ejemplo 5.34 Sea el operador lineal T : R2 → R2 , definido por T (x, y) = (4x − 2y, 2x + y) y B1 = {(1, 0)(0, 1)}, B2 = {(1, 1), (1, 0)}. Entonces T (1, 0) = (4, 2) = 4(1, 0) + 2(0, 1), T (0, 1) = (−2, 1) = −2(1, 0) + 1(0, 1), y (1, 1) = 1(1, 0) + 1(1, 0), (1, 0) = 1(1, 0) + 0(0, 1). Ası́ que [T ]B1 = y P= Luego, Page (PS/TeX): 28 / 444, COMPOSITE 1 1 1 0 ,P 4 2 −1 −2 1 = 0 1 1 −1 . [T ]B2 = P−1 [T ]B1 P 0 1 4 −2 1 1 = 1 −1 2 1 1 0 2 1 1 1 = 2 −3 1 0 3 2 = . −1 2 Representaciones matriciales de transformaciones lineales 445 SECCIÓN 5.2 Definición 5.13 Si A y B son matrices cuadradas de orden n, se dice que A es similar a B si existe una matriz cuadrada C del mismo orden tal que B = C−1 AC. Para denotar que la matriz A es similar a la matriz B escribiremos A B. Las siguientes propiedades, contenidas en el teorema 5.16, son sencillas de probar y la demostración de cada una de ellas se deja como ejercicio al lector. Teorema 5.16 Sean A, B,C, D ∈ Mn . Entonces: 1. 2. 3. 4. 5. A A. A B ⇒ B A. A B y B D ⇒ A D. Si A B, entonces det(A) = det(B). Si A B, entonces A es invertible si y sólo si B es invertible. P Nota 5.5 1. Por el inciso 2 del teorema precedente, A B ⇒ B A, diremos que dos matrices son similares si cumplen con la definición 5.13. 2. El teorema 5.15 implica que dos representaciones cualesquiera de un operador lineal T ∈ L (E, E) son similares. Por el teorema 5.16, inciso 4, cualquier par de representaciones matriciales relativas a diferentes bases de un operador lineal en un espacio tienen el mismo determinante, pues son matrices similares. Hacemos patente este hecho en la siguiente definición. Definición 5.14 (Determinante de un operador) Si E es un espacio de dimensión finita y T es un operador lineal en este espacio, se define el determinante de T , det(T ), como el determinante de cualquier representación matricial de T . Ejemplo 5.35 Sea T el operador lineal definido en el ejemplo 5.34. Vimos en este ejemplo que si B1 = {(1, 0)(0, 1)} y B2 = {(1, 1), (1, 0)}, [T ]B1 = entonces 4 2 4 det(T ) = 2 −2 1 y [T ]B2 = 3 2 −1 2 , −2 3 2 = 8. = 1 −1 2 P Nota 5.6 Dado que dos representaciones matriciales cualesquiera de un operador son similares, por el teorema 5.16, si una de ellas es una matriz invertible todas las demás también lo son. Page (PS/TeX): 29 / 445, COMPOSITE 446 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Vimos en el teorema 5.9, inciso 5 (cfr. pág. 432), que para que un operador lineal definido en Rn sea inyectivo (y por tanto biyectivo) es necesario y suficiente que su representación matricial (relativa a la base canónica) sea una matriz invertible. Tenemos el caso general de operadores lineales en espacios vectoriales contemplado en el siguiente teorema. Teorema 5.17 Sea E un espacio vectorial de dimensión n y T : E → E un operador lineal. Entonces T es inyectivo (y por tanto biyectivo) si y sólo si cualquier representación matricial de T es una matriz invertible (si y sólo si det(T ) = 0); en tal caso, si [T ]B es la representación matricial de T 13 −1 relativa relativa a una base B, [T ]−1 B es la representación matricial del operador lineal inverso T a la misma base. DEMOSTRACIÓN Q Sea [T ]B una representación matricial del operador T . 1. Supongamos que la matriz [T ]B es no singular y sea u ∈ Ker(T ). Entonces [T ]B [u]B = [T (u)]B = 0Rn . Luego ([T ]B )−1 ([T ]B [u]B ) = ([T ]B )−10Rn = 0Rn y por tanto, [u]B = 0Rn ; lo cual implica u = 0E . 2. Supongamos ahora que T es inyectivo, entonces T es suprayectivo pues dim(Ker(T )) + dim(T (E)) = n. 0 Por tanto, T es biyectivo. Sea T −1 : E → E la transformación inversa de T ; sabemos, del teorema 5.11, que T −1 es también lineal. Sea T −1 B la representación matricial de T −1 relativa a la base B. Sea v ∈ E, como T es suprayectiva existe u ∈ E tal que T (u) =v; i.e., u = T −1 (v). Entonces T −1 (v) B = [T −1 ]B [v]B = T −1 −1 B [T (u)]B = T B [T ]B [u]B = T −1 B [T ]B [T −1 (v)]B . 1Recuerde que la transformación inversa de un operador lineal también es un operador lineal (cfr. teorema 5.11). 13 Page (PS/TeX): 30 / 446, COMPOSITE Representaciones matriciales de transformaciones lineales 447 SECCIÓN 5.2 Por tanto T −1 B [T ]B x = x para todo14 x ∈ Rn . Del lema 5.1 (cfr. pág. 436) se sigue que −1 T −1 B [T ]B = In . Luego [T ]B es invertible y [T ]−1 . Q B = T B 5.2.3 Representaciones matriciales de transformaciones lineales Ası́ como es posible encontrar representaciones matriciales de operadores lineales, también se pueden hallar representaciones matriciales para transformaciones lineales en general. El procedimiento es completamente análogo al que realizamos en la subsección anterior; por lo que dejamos al lector que llene los detalles, en cuanto a deducciones y demostraciones, en forma similar a como lo hicimos antes, de las definiciones y teoremas que damos a continuación. Definición 5.15 Sean E, F espacios de dimensiones finitas; B1 = {e1 ,e2 , . . . ,en }, B2 = {f1 , f2 , . . . , fm } bases de sendos espacios; T ∈ L (E, F) y ai j escalares tales que T (e1 ) = T (e2 ) .. . = .. . T (en ) = a11 f1 + a12 f2 + · · · + a1m fm a21 f1 + a22 f2 + · · · + a2m fm .. . (5.10) an1 f1 + an2 f2 + · · · + anm fm Se define la representación matricial de T relativa a las bases B1 y B2 como15 ⎡ ⎢ ⎢ B [T ]B21 = ⎢ ⎣ a11 a12 .. . a21 a22 .. . ... ... .. . an1 an2 .. . a1m a2m ... anm ⎤ ⎥ ⎥ ⎥. ⎦ Teorema 5.18 Sean E, B1 , B2 y T como en la definición precedente, entonces B [T (u)]B2 = [T ]B21 [u]B1 ∀u ∈ E. Ejemplo 5.36 Sea la transformación lineal T : R3 → R2 definida por T (x, y, z) = (3x + 2y − 4z, x − 5y + 3z) y B1 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}, B2 = {(1, 3), (2, 5)}. Encontrar la representación matricial de T relativa a las bases B1 y B2 . Solución T (1, 1, 1) = (1, −1) , T (1, 1, 0) = (5, −4) , T (1, 0, 0) = (3, 1) . 1Es fácil demostrar, lo cual se deja como ejercicio al lector, que si x = (x1 , . . . , xn ) ∈ Rn , existe v ∈ E tal que [v]B =x. 2 1Note que [T ]B B1 es la matriz transpuesta de los coeficientes de los vectores f i del sistema de igualdades (5.10). 14 15 Page (PS/TeX): 31 / 447, COMPOSITE 448 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Se requiere encontrar escalares ai j tales que (1, −1) = a11 (1, 3) + a12 (2, 5), (5, −4) = a21 (1, 3) + a22 (2, 5), (3, 1) = a31 (1, 3) + a32 (2, 5). Esto es, las soluciones de los sistemas (con la misma matriz de coeficientes): 1 2 3 5 a11 a12 1 −1 = 1 2 3 5 1 3 , 2 5 a31 a32 = 3 1 a21 a22 = 5 −4 y . Resolvamos estos sistemas con la misma matriz de coeficientes (cfr. el método expuesto en la pág. 27). 1 2 1 3 5 −1 ∴ a11 a12 a31 a32 5 3 −4 1 = = Entonces, B [T ]B21 = 2 1 −1 −4 1 0 −7 ∼ 0 −1 −4 −7 4 −13 8 −7 4 5 3 −19 −8 1 0 ∼ ; a21 a22 = −33 −13 −19 −8 −33 19 ; y . −33 −13 19 8 . P Nota 5.7 Sean B1 , B2 bases de los espacios E y F, respectivamente. Si T ∈ L (E, F) y A es una matriz de tamaño m × n tal que A[u]B1 = [T (u)]B2 ∀u ∈ E (5.11) se tiene entonces (A − [T ]B21 )x = 0Rm B ∀x ∈ Rn ; por el lema 5.1 se sigue que16 B A − [T ]B21 = O. Es decir, la única matriz que cumple (5.11) es la representación matricial de T relativa a estas bases del teorema 5.18. 1Cfr. nota 5.4, página 443. 16 Page (PS/TeX): 32 / 448, COMPOSITE Representaciones matriciales de transformaciones lineales 449 SECCIÓN 5.2 Veamos ahora qué sucede con una representación matricial cuando se cambian bases en los espacios vectoriales. Teorema 5.19 Sean E, F espacios de dimensiones finitas; B1 , B 1 bases de E; B2 , B 2 bases de F; y T ∈ L (E, F). Sean P la matriz cambio de base de B 1 a B1 (i.e. [u]B1 = P[u]B 1 ) y Q la matriz cambio de base de B 2 a B2 (es decir, [v]B2 = Q[v]B 2 ), entonces B B [T ]B 21 = Q−1 [T ]B21 P. DEMOSTRACIÓN Q Sea u ∈ E, entonces B B (Q−1 [T ]B21 P)[u]B1 = (Q−1 [T ]B21 )P[u]B1 B = (Q−1 [T ]B21 )[u]B1 B = Q−1 ([T ]B21 [u]B1 ) = Q−1 [T (u)]B2 = [T (u)]B2 y de la nota 5.7 se desprende que B B Q−1 [T ]B21 P = [T ]B2 . 1 Q Ejemplo 5.37 Sea T : R3 → R2 la transformación lineal del ejemplo 5.36; es decir, T (x, y, z) = (3x + 2y − 4z, x − 5y + 3z). Sean B1 la base canónica de R3 y la base B1 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}; B2 la base canónica de R2 y la base B2 = {(1, 3), (2, 5)}. Entonces, puesto que T (1, 0, 0) = (3, 1) = 3(1, 0) + 1(0, 1) T (0, 1, 0) = (2, −5) = 2(1, 0) − 5(0, 1) T (0, 0, 1) = (−4, 3) = −4(1, 0) + 3(0, 1) se tiene B [T ]B21 = 3 1 2 −4 −5 3 . Por otra parte, ya que (1, 1, 1) = 1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1) (1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1) (1, 0, 0) = 1(1, 0, 0) + 0(0, 1, 0) + (0, 0, 1) y (1, 3) = 1(1, 0) + 3(0, 1) (2, 5) = 2(1, 0) + 5(0, 1), Page (PS/TeX): 33 / 449, COMPOSITE 450 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios se concluye que ⎤ 1 1 1 1 2 −5 , y Q−1 = P = ⎣ 1 1 0 ⎦, Q = 3 5 3 1 0 0 ⎡ 2 −1 . Entonces B B [T ]B2 = Q−1 [T ]B21 P 1 = = −5 3 −7 4 2 −4 −5 3 −33 −13 . 19 8 2 −1 3 1 ⎤ 1 1 1 ⎣ 1 1 0 ⎦ 1 0 0 ⎡ Que es el mismo resultado que obtuvimos en el ejemplo 5.36. Representaciones diagonales de transformaciones lineales Toda transformación lineal de un espacio en otro tiene diversas representaciones matriciales según las bases con las que se trabaje. De entre todas estas representaciones serı́a conveniente buscar aquellas que sean suficientemente “sencillas”. De la experiencia adquirida a lo largo de este libro, sabemos que las matrices con mayor número de entradas nulas y, más aún, aquellas que son muy parecidas a una matriz diagonal, son matrices que se prestan mucho para minimizar cálculos y conjeturar propiedades de las mismas y, por tanto, de las transformaciones que representan. En el siguiente teorema, dada una transformación lineal, veremos cómo es posible construir bases de tal manera que la correspondiente representación sea una matriz con entradas nulas fuera de la diagonal principal y unos en ella. Teorema 5.20 Sean E y F espacios vectoriales de dimensiones n y m, respectivamente, y T ∈ L (E, F). Entonces existen bases B1 = {e1 , . . . ,en } y B2 = { f1 , . . . , fm }, de sendos espacios, tales B que la representación matricial de la transformación lineal relativa a estas bases, [T ]B21 = [ai j ], tiene unos en la diagonal principal y ceros fuera de ella; esto es, ai j = DEMOSTRACIÓN 1 0 si i = j en otro caso (5.12) Q Sea r el rango de T ; es decir, dim(T (E)) = r. Sea {f1 , . . . , fr } una base de T (E) y completemos ésta a una base de F;17 digamos B2 = {f1 , . . . , fr , fr+1 , . . . , fm }. Puesto que f1 , . . . , fr ∈ T (E), existen e1 , . . . ,er ∈ E tales que T (ei ) = fi para i = 1, . . . , r 1Cfr. el procedimiento que se dio en la página 167 para completar un subconjunto L.I. a una base de un espacio. 17 Page (PS/TeX): 34 / 450, COMPOSITE (5.13) SECCIÓN 5.2 Representaciones matriciales de transformaciones lineales 451 Sea k = dim (Ker(T )), entonces, por (5.2) del teorema 5.8 (cfr. pág. 431), n = r + k. Sea {er+1 , . . . ,er+k } una base de Ker(T ). Por construcción, B2 es una base de F. Afirmamos que B1 = {e1 , . . . ,er ,er+1 , . . . ,er+k } es una base de E. En efecto, puesto que B1 tiene n elementos, basta probar que éstos son L.I., lo cual es cierto pues si α1 , . . . , αr , αr+1 , . . . , αr+k son n-escalares tales que α1e1 + · · · + αrer + αr+1er+1 + · · · + αr+ker+k = 0E (5.14) Entonces, dado que T es lineal, α1 T (e1 ) + · · · + αr T (er ) + αr+1 T (er+1 ) + · · · + αr+k T (er+k ) = 0F y puesto que er+1 , . . . ,er+k ∈ Ker(T ), de (5.13) y la precedente igualdad se concluye que α1 f1 + · · · + αr fr = 0F . (5.15) Como los vectores f1 , . . . , fr son L.I. (pues forman una base de T (E)), (5.15) implica α1 = · · · = αr = 0 (5.16) αr+1er+1 + · · · + αr+ker+k = 0E (5.17) De (5.16) y (5.14) se tiene y ya que er+1 , . . . ,er+k son L.I. (pues forman una base de Ker(T )), (5.17) implica αr+1 = · · · = αr+k = 0 (5.18) De (5.16) y (5.18) se desprende que los vectores e1 , . . . ,er ,er+1 , . . . ,er+k son L.I. Finalmente, puesto que T (ei ) = fi = 0 · f1 + · · · + 0 · fi−1 + 1 · fi + 0 · fi+1 + · · · + 0 · fm para i = 1, . . . , r y T (e j ) = 0F = 0 · f1 + · · · + 0 · fm para j = r + 1, . . . , r + k, se sigue que B [T ]B21 = [ai j ] con los ai j dados por (5.12). Q Ejemplo 5.38 Sea T : P3 → P2 la transformación derivación; esto es, T (p) = p . Construyamos, siguiendo el proceso dado en la demostración del teorema 5.20, bases de P3 y P2 tales que la representación matricial de T relativa a éstas tenga unos en la diagonal principal y ceros fuera de ella. Para ello notemos antes los dos siguientes hechos: 1. T (P3 ) = P2 (T es suprayectiva). Efectivamente, si q(x) = ax2 + bx + c ∈ P2 , entonces p(x) = 1 1 3 2 3 ax + 2 bx + cx satisface T (p(x)) = p (x) = ax2 + bx + c = q(x). Page (PS/TeX): 35 / 451, COMPOSITE 452 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 2. Ker(T ) = gn(1). En efecto, p ∈ Ker(T ) ⇔ p (x) = 0 ⇔ p(x) = c ⇔ p ∈ gn(1). Por el inciso 1 podemos tomar como base de T (P3 ) la base canónica de P2 , B2 = {1, x, x2 } ( f1 = 1, f2 = x, f3 = x2 ). Sean e1 = x, e2 = 12 x2 y e3 = 13 x3 , entonces T (e1 ) = 1, T (e2 ) = x y T (e3 ) = x2 (los valores de los ei se encuentran por simple inspección o integrando). Siguiendo el proceso del teorema 5.20, la base B1 se construye adjuntando a e1 , e2 y e3 los elementos de la base de Ker(T ), en este caso el polinomio constante 1; esto es, B1 = x, 12 x2 , 13 x3 , 1 . Puesto que T (x) = 1 = 1 · 1 + 0 · x + 0 · x2 , 1 2 T 2 x = x = 0 · 1 + 1 · x + 0 · x2 , T 13 x3 = x2 = 0 · 1 + 0 · x + 1 · x2 , T (1) = 0 = 0 · 1 + 0 · x + 0 · x2 , se tiene ⎤ 1 0 0 0 = ⎣ 0 1 0 0 ⎦ . 0 0 1 0 ⎡ B [T ]B21 5.2.4 Isomorfismos Entre dos idiomas diferentes no existe un diccionario perfecto con el cual se pueda traducir literalmente del uno al otro. La estructura lingüı́stica es demasiado compleja, convencional, evolutiva y varı́a de un paı́s a otro incluso entre dos regiones de un mismo paı́s. Sin embargo, en las matemáticas es usual que existan “traductores” perfectos entre entes distintos cuando éstos tienen una estructura algebraica con un origen común. En álgebra lineal, cierto tipo de transformaciones lineales son los “traductores” que se emplean de manera natural entre distintos espacios vectoriales porque son funciones que preservan la estructura de las operaciones. En este breve apartado veremos cómo es posible construir estos traductores y probaremos que cualquier espacio vectorial de dimensión finita, salvo los sustantivos empleados para designar a sus elementos, es en esencia el espacio de vectores Rn . Definición 5.16 Sean E y F un par de espacios vectoriales y T : E → F una transformación lineal. 1. T es un isomorfismo18 si T es una transformación biyectiva. 2. Si existe un isomorfismo del espacio E sobre el espacio F, se dice que E es isomorfo a F y se escribe E ∼ = F. 1Del griego iso-morfo (igual forma o estructura). 18 Page (PS/TeX): 36 / 452, COMPOSITE SECCIÓN 5.2 Representaciones matriciales de transformaciones lineales 453 Ejemplo 5.39 Sean E = R3 y F = P2 , el espacio de polinomios de grado a lo más 2, y T : E → F definida por T (a, b, c) = a + bx + cx2 . Mostrar que T es un isomorfismo. DEMOSTRACIÓN Q Sean (a, b, c), (a1 , b1 , c1 ) ∈ R3 y α, β ∈ R, entonces T (α(a, b, c) + β(a1 , b1 , c1 )) = T (αa + βa1 , αb + βb1 , αc + βc1 ) = (αa + βa1 ) + (αb + βb1 )x + (αc + βc1 )x2 = α(a + bx + cx2 ) + β(a1 + b1 x + c1 x2 ) = αT (a, b, c) + βT (a1 , b1 , c1 ); ası́ que T es lineal. Si (a, b, c) ∈ Ker(T ), entonces T (a, b, c) = 0; y por tanto, a + bx + cx2 = 0 de donde a = b = c = 0, y por ende Ker(T ) = {0R3 }; luego T es inyectiva. Si p(x) = a + bx + cx2 ∈ F, claramente T (a, b, c) = p(x); por lo que T es suprayectiva. Hemos mostrado que T es lineal y biyectiva, ası́ que T es un isomorfismo. Q A continuación probamos que ∼ = es una relación de equivalencia entre los espacios vectoriales reales. Teorema 5.21 Sean E, F y G espacios vectoriales. Entonces ∼ E. 1. E = 2. E ∼ =F⇒F∼ = E. ∼ F, F = ∼G⇒E∼ 3. E = = G. DEMOSTRACIÓN Q 1. Sea T : E → E la transformación identidad; es decir, T (u) = u ∀u ∈ E. Claramente T es lineal y biyectiva. 2. Sea T : E → F un isomorfismo. Como T es biyectiva, entonces es invertible, y por el teorema 5.11, T −1 : F → E es lineal y biyectiva; luego F ∼ = E. 3. Se deja de ejercicio al lector. Q ∼F⇒F∼ P Nota 5.8 Por el inciso 2 del teorema precedente, E = = E, diremos simplemente que E y F son isomorfos si se cumple la propiedad 2 de la definición 5.16. Ejemplo 5.40 Sean los espacios vectoriales C[0, 1] y C[2, 3]. Mostrar que son isomorfos. DEMOSTRACIÓN Q Sea T : C[0, 1] → C[2, 3] la transformación definida por T ( f ) = g, donde g(x) = f (x − 2) ∀x ∈ [2, 3]. Geométricamente la transformación T asigna a cada función f ∈ C[0, 1] su traslación al intervalo [2, 3] como se ilustra en la figura 5-4. Page (PS/TeX): 37 / 453, COMPOSITE 454 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Sean f1 , f2 ∈ C[0, 1] y α, β ∈ R. Entonces ∀x ∈ [2, 3] se tiene g f T (α f1 + β f2 )(x) = (α f1 + β f2 )(x − 2) 1 = α f1 (x − 2) + β f2 (x − 2) 3 2 = (αT ( f1 ))(x) + (βT ( f2 ))(x); Figura 5-4 • luego T (α f1 + β f2 ) = αT ( f1 ) + βT ( f2 ) lo cual prueba que T es lineal. Sea f ∈ Ker(T ), entonces T ( f ) = θ , el neutro aditivo de C[2, 3], por lo que f (x − 2) = 0 ∀x ∈ [2, 3]. Sea u ∈ [0, 1], entonces x = u + 2 ∈ [2, 3], ası́ que f (u) = f (x − 2) = 0, y por tanto, f (u) = 0 para todo u ∈ [0, 1]; i.e., f = θ, el neutro aditivo de C[0, 1]; luego Ker(T ) = {θ} y entonces T es inyectiva. Sean g ∈ C[2, 3] y f : [0, 1] → R la función definida por f (x) = g(x + 2) (puesto que 0 ≤ x ≤ 1, se tiene 2 ≤ x + 2 ≤ 3). Entonces, ya que g y la función x → x + 2 son continuas, f es continua en [0, 1]; y para todo u ∈ [2, 3] T ( f )(u) = f (u − 2) = g(u) es decir, T ( f ) = g; lo cual prueba que T es suprayectiva. Con esto hemos demostrado que T es un isomorfismo y por tanto C[0, 1] ∼ = C[2, 3]. Q Del inciso 5 del teorema 5.10 (cfr. pág. 432) se tiene como consecuencia inmediata el siguiente resultado. Teorema 5.22 Si E y F son espacios vectoriales isomorfos y uno de ellos tiene dimensión finita n, entonces el otro tiene también dimensión n. Ejemplo 5.41 Sean E y F un par de espacios vectoriales reales de dimensiones n y m, respectivamente. Entonces L (E, F) ∼ = Mm×n . En efecto, sean B1 = {e1 , . . . ,en } y B2 = {f1 , . . . , fm } bases de E B y F, respectivamente. Para cada T ∈ L (E, F) sea [T ]B21 la representación matricial de T relativa a estas B bases. Definimos Ψ : L (E, F) → Mm×n como Ψ(T ) = [T ]B21 . Entonces: 1. Sean α, β ∈ R, T1 , T2 ∈ L (E, F). Para todo u ∈ E se tiene, por 5.12 y 5.12 del teorema 5.12, pág. 436, B B B B (α[T1 ]B21 + β[T2 ]B21 )[u]B1 = α[T1 ]B21 [u]B1 + β[T2 ]B21 [u]B1 = α[T1 (u)]B2 + β[T2 (u)]B2 = [αT1 (u) + βT2 (u)]B2 . Page (PS/TeX): 38 / 454, COMPOSITE SECCIÓN 5.2 Representaciones matriciales de transformaciones lineales 455 De la unicidad de la representación matricial relativa a bases dadas de una transformación lineal (cfr. nota 5.7, pág. 448), se tiene B B B [αT1 + βT2 ]B21 = α[T1 ]B21 + β[T2 ]B21 ; es decir, Ψ(αT1 + βT2 ) = αΨ(T1 ) + βΨ(T2 ). 2. Sea T ∈ Ker(Ψ), entonces Ψ(T ) = O, la matriz cero de tamaño m × n. Es decir, B [T ]B21 = O; por tanto, para todo u ∈ E, [T ]B21 [u]B1 = 0Rm , B luego [T (u)]B2 = 0Rm . De 4 del teorema 5.12, la igualdad precedente implica T (u) = 0F ∀u ∈ E. Es decir, T es la transformación cero, el neutro aditivo de L (E, F); lo cual prueba que Ψ es inyectiva. 3. Sea A ∈ Mm×n . Definimos T : E → F, para cada u ∈ E, por T (u) = α1 f1 + · · · + αm fm , donde (α1 , . . . , αm ) = A[u]B1 . Dado que u = v ⇔ [u]B1 = [v]B1 , se desprende que T está bien definida. Sean α, β ∈ R y u,v ∈ E, entonces [αu + βv]B1 = α[u]B1 + β[v]B1 , y por tanto A[αu + βv]B1 = αA[u]B1 + βA[v]B1 ; de donde T (αu + βv) = αT (u) + βT (v). Luego T ∈ L (E, F). Puesto que se tiene A = Page (PS/TeX): 39 / 455, COMPOSITE B [T ]B21 ; [T (u)]B2 = A[u]B1 esto es ∀u ∈ E, 456 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Ψ(T ) = A. Lo cual prueba que T es suprayectiva. Hemos mostrado ası́ que Ψ es un isomorfismo y por tanto L (E, F) ∼ = Mm×n . Como consecuencia del ejemplo anterior y del teorema 5.22, dim(L (E, F)) = mn si dim(E) = n y dim(F) = m. Ahora mostraremos que cualquier espacio vectorial real de dimensión finita es isomorfo a Rn . Teorema 5.23 Sea E un espacio vectorial real de dimensión n, entonces E ∼ = Rn . DEMOSTRACIÓN Q Sea B = {e1 , . . . ,en } una base de E. Sea T : E →Rn definida como T (u) = [u]B . Entonces, por las propiedades 1 y 2 del teorema 5.12 se tiene T (αu + βv) = [αu + βv]B = α[u]B + β[v]B = αT (u) + βT (v); por lo que T es lineal. Si (α1 , . . . , αn ) ∈ Rn , sea u = α1e1 + · · · + αnen ∈ E, entonces T (α1e1 + · · · + αnen ) = (α1 , . . . , αn ); ası́ que T es suprayectiva. Si T (u) = 0Rn , entonces [u]B = 0Rn y por la propiedad 5.12 del teorema 5.12 se desprende u =0E ; lo cual demuestra que T es inyectiva. Hemos probado ası́ que T es un isomorfismo, y por tanto E ∼ = Rn . Q Si E y F son espacios vectoriales reales con dimensiones iguales a n, entonces, por el teorema precedente, E ∼ = Rn y F ∼ = Rn ; por tanto, del tercer inciso del teorema 5.21, E ∼ = F. Con lo que queda demostrado el siguiente teorema. Teorema 5.24 Cualquier par de espacios vectoriales que tienen la misma dimensión (finita) son isomorfos. Ejemplo 5.42 1. Pn ∼ = Rn+1 . 2. Mm×n ∼ = Rmn . 3. L (Pn−1 , Pn−1 ) ∼ = Mn (las matrices cuadradas de orden n). Page (PS/TeX): 40 / 456, COMPOSITE Valores y vectores propios, diagonalización 457 SECCIÓN 5.3 5.3 Valores y vectores propios, diagonalización Las propiedades de un operador lineal T , definido en un espacio de dimensión finita, que son independientes del sistema de coordenadas (la base) con el que se trabaje en el espacio (es decir, que son independientes de la representación matricial), se denominan propiedades intrı́nsecas del operador; por ejemplo, el determinante de cualquier representación matricial de un operador lineal es independiente de la representación y, por tanto, es una propiedad intrı́nseca de éste. Entonces, como mencionamos antes, es sumamente importante encontrar alguna representación matricial lo suficientemente sencilla para identificar, a partir de esta representación, propiedades que sean intrı́nsecas del operador. En la sección anterior probamos, en el teorema 5.20, que dada una transformación lineal T : E → F, se pueden construir bases {ei } y {f j } de tal suerte que la representación matricial de T relativa a estas bases tiene unos en la diagonal principal y ceros fuera de ella; es decir, una representación diagonal19 en ese sentido. Para operadores lineales las representaciones matriciales se definen a partir de una sola base {ei } para el espacio vectorial; en este caso no siempre es posible construir una representación matricial diagonal sin emplear otra base más. El objetivo ahora, en esta sección, es determinar qué tipo de operadores tienen representaciones matriciales (relativas a una sola base para el espacio) que sean diagonales y cómo encontrar dichas representaciones. 5.3.1 Valores y vectores propios Supongamos que E es un espacio con dimensión finita n y T : E → E es un operador lineal que tiene una representación matricial [T ]B , relativa a la base B = {e1 , . . . ,en }, que es una matriz diagonal. Sean aii = λi , i = 1, . . . , n, los elementos de la diagonal de la matriz [T ]B . Entonces, dado que i [ei ]B = (0, . . . , 0, 1, 0, . . . , 0), para i = 1, . . . , n, y20 [T ]B = diag(λ1 , . . . , λn ), [T (ei )]B = [T ]B [ei ]B ⎤ ⎡ 0 ⎢ .. ⎥ ⎢ . ⎥ ⎥ ⎢ ⎢ 0 ⎥ ⎥ ⎢ ⎥ = ⎢ ⎢ λi ⎥ ( → fila i ). ⎢ 0 ⎥ ⎥ ⎢ ⎢ .. ⎥ ⎣ . ⎦ 0 Por tanto, T (ei ) = λiei para cada i = 1, . . . , n. (5.19) 1Recordemos que una matriz cuadrada es diagonal si todas las componentes fuera de la diagonal son nulas. Abusando un poco del lenguaje, entenderemos que una matriz no cuadrada es diagonal si todas las componentes fuera de la diagonal principal son nulas; donde la diagonal principal está formada por las entradas de la forma aii . 20 1Cfr. definición 1.4, página 8. 19 Page (PS/TeX): 41 / 457, COMPOSITE 458 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Ahora supongamos que existe una base B = {e1 , . . . ,en } del espacio E y escalares λ1 , . . . , λn tales que se cumple la igualdad (5.19). Entonces T (ei ) = λiei = 0 ·e1 + · · · + 0 ·ei−1 + λi ·ei + 0 ·ei+1 + · · · + 0 ·en para cada i = 1, . . . , n; luego [T ]B = diag(λ1 , . . . , λn ). Esto es, para que un operador lineal T tenga una representación matricial diagonal es necesario y suficiente que existan n-vectores L.I., e1 , . . . ,en , y n-escalares λ1 , . . . , λn que cumplan la igualdad (5.19). Resumimos lo hasta aquı́ demostrado en el siguiente teorema. Teorema 5.25 Sean E un espacio vectorial de dimensión n y T : E → E un operador lineal. Entonces T tiene una representación matricial diagonal si y sólo si existen e1 , . . . ,en ∈ E, vectores L.I., y un correspondiente conjunto de escalares λ1 , . . . , λn , tales que T (ei ) = λiei para cada i = 1, . . . , n. En ese caso la representación diagonal es [T ]B = diag(λ1 , . . . , λn ), donde B = {e1 , . . . ,en }. De esta manera, el problema de hallar representaciones matriciales diagonales de operadores lineales se reduce a encontrar los vectores L.I. y los correspondientes escalares que satisfacen (5.19). El primer paso para resolver este tipo de problemas es encontrar escalares λ y vectores correspondientes u tales que T (u) = λu. Motivados con este primer objetivo damos la siguiente definición. Definición 5.17 (Valores propios de operadores lineales) Sean E un espacio vectorial (no necesariamente de dimensión finita) y T : E → E un operador lineal. 1. Se dice que λ ∈ R es un valor propio (valor caracterı́stico, eigenvalor, autovalor) de T si existe un vector u ∈ E, con u = 0E , tal que T (u) = λu (5.20) 2. Si λ es un valor propio de T y u ∈ E es un vector no nulo que satisface (5.20), entonces se dice que u es un vector propio (vector caracterı́stico, eigenvector, autovector) del operador T correspondiente al valor propio λ. P Nota 5.9 1. Si λ es valor propio del operador lineal T , entonces existe u ∈ E − {0E } que satisface (5.20); luego, si c ∈ R − {0} es un escalar, T (cu) = cT (u) = c(λu) = λ(cu) y, por tanto, cu ∈ E − {0E } es vector propio de T correspondiente a λ. Ası́ que un valor propio tiene una infinidad de vectores propios correspondientes. Page (PS/TeX): 42 / 458, COMPOSITE SECCIÓN 5.3 Valores y vectores propios, diagonalización 459 2. Supongamos que λ, μ son valores propios con un mismo vector propio correspondiente u, entonces λu = T (u) = μu, lo cual implica (λ − μ)u = 0E , y por ende λ = μ (pues u = 0E , cfr. la propiedad 9 del teorema 3.4, pág. 138). Es decir, existe un único valor propio correspondiente a un vector propio dado. 3. Si en la definición 5.17 se permitiera que u = 0E , entonces todo escalar λ serı́a valor propio de T ; pues 0E = T (0E ) = λ0E . El restringir los vectores propios a vectores no nulos es porque se quieren encontrar vectores L.I. que satisfagan (5.20), y si 0E se incluye en esta lista entonces este conjunto se convierte en linealmente dependiente. Otra razón es que se rompe la unicidad de valores propios correspondientes a un vector propio dado que se mostró en el segundo inciso. 4. Aunque los vectores propios no pueden ser nulos, los valores propios sı́. Por ejemplo, si T es un operador lineal no inyectivo, entonces T (u) = 0E = 0 ·u para todo u ∈ Ker(T ); puesto que T no es inyectivo, el núcleo contiene elementos no nulos y ası́ λ = 0 es valor propio de T . 5. Es evidente que λ es valor propio del operador T si y sólo si Ker(T − λI) = {0E }; es decir, si el operador lineal T − λI es no inyectivo, donde I es el operador identidad del espacio E (cfr. ejemplo 5.8, pág. 418). Ejemplo 5.43 Sea el espacio vectorial C ∞ (−∞, ∞) = { f : R → R | f tiene derivada de todo orden para cada x ∈ R} y sea el operador lineal T : C ∞ (−∞, ∞) → C ∞ (−∞, ∞), T ( f ) = f , el operador derivación. Encontrar los valores propios y vectores propios correspondientes de T . Solución 1. Si λ = 0 T(f) = λf = 0· f = θ ⇒ f = θ ⇒ f (x) = 0 ∀x ; por tanto, f es una constante. Las funciones constantes distintas de cero son los vectores propios correspondientes al valor propio λ = 0. 2. Si λ = 0 T(f) = λf ⇒ f = λf ⇒ df = λf ⇒ dx df = λ dx ⇒ f ln | f | = λx + c ⇒ f = keλx Vectores propios para λ: Page (PS/TeX): 43 / 459, COMPOSITE (k = ±ec ). f (x) = keλx ; k = 0. 460 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios En sı́ntesis: todo número real λ es valor propio de T . Si λ = 0 los vectores propios correspondientes son todas las funciones constantes no nulas. Si λ = 0, los vectores propios correspondientes a λ son las funciones f (x) = keλx , k = 0. No todo operador lineal tiene valores propios, como hacemos patente en el siguiente ejemplo. Ejemplo 5.44 (Un operador sin valores propios) Sea T : C[0, 1] → C[0, 1] el operador definido por T ( f ) = g, donde g(x) = Por ejemplo, si f (x) = x2 , entonces g(x) = de T . Solución x f (t)dt, 0 x 0 t 2 dt = x ∈ [a, b]. x3 . Encontrar, si es que existen, los valores propios 3 Supongamos que λ es un valor propio de T . Si f = θ es una función propia de λ se debe tener T(f) = λf. Luego, λ f (x) = x 0 f (t)dt ∀x ∈ [0, 1]. (5.21) Entonces, (λ f (x)) = 0 x f (t)dt y al aplicar el teorema fundamental del cálculo21 se obtiene f (x) = λ f (x). De aquı́ que λ debe ser distinto de cero, pues en caso contrario f = θ (la función constante cero). La igualdad precedente se puede escribir como df 1 = f dx λ que equivale a df 1 = dx f λ e integrando se tiene ln | f | = 1Si f ∈ C[a, b] y F(x) = 21 Page (PS/TeX): 44 / 460, COMPOSITE a x 1 x +C, λ f (t)dt, entonces F es derivable y F (x) = f (x) ∀x ∈ [a, b]. Valores y vectores propios, diagonalización 461 SECCIÓN 5.3 que al tomar exponencial en ambos lados produce f (x) = ke x/λ , con k = ±eC = 0. Sin embargo, la función f (x) = ke x/λ no satisface el requerimiento (5.21): λk = λ f (0) = 0 0 f (t)dt = 0 pues λk = 0. Luego T no tiene valores propios. Espacio propio Sea T : E → E un operador lineal y sea λ un valor propio de T ; si u,v ∈ E son vectores propios correspondientes a λ y α, β ∈ R, entonces T (αu + βv) = αT (u) + βT (v) = α(λu) + β(λv) = λ(αu + βv). Por lo que si αu + βv = 0E , éste es también un vector propio correspondiente al valor propio λ. Ası́, el conjunto de todos los vectores u tales que T (u) = λu es un subespacio vectorial de E (este conjunto también contiene a 0E , ya que T (0)E = 0E = λ0E ) que contiene a todos los vectores propios correspondientes a λ. Hacemos patente este concepto en la siguiente definición. Definición 5.18 Sean E un espacio vectorial, T : E → E un operador lineal y λ ∈ R un valor propio de T . Al subespacio vectorial de E Eλ = {u ∈ E | T (u) = λu} se le llama el espacio propio del valor propio λ. Es decir, el espacio propio de un valor propio λ es el conjunto de todos los vectores propios correspondientes a λ uniendo al mismo el vector neutro aditivo del espacio. Sea A una matriz cuadrada de orden n y consideremos el operador matricial TA : Rn → Rn , TA (u) = Au. Entonces λ es valor propio de TA si y sólo si existe u ∈ Rn −0Rn tal que Au = λu. De esta manera, la definición 5.17 tiene como caso particular la siguiente definición. Definición 5.19 (Valores propios de matrices) Sea A una matriz cuadrada de orden n. Se dice que λ ∈ R es un valor propio (valor caracterı́stico, autovalor o eigenvalor) de A si existe u ∈ Rn − {0Rn } tal que Au = λu. En tal caso a u se le llama vector propio (vector caracterı́stico, autovector o eigenvector) de la matriz A correspondiente a λ. Page (PS/TeX): 45 / 461, COMPOSITE 462 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Ejemplo 5.45 Si A = 2 2 3 1 , 2 2 3 1 1 1 = 4 4 =4 1 1 . Ası́, 4 es valor propio de A. Ejemplo 5.46 Sea A la matriz del ejemplo precedente. Encontrar los vectores propios correspondientes al valor propio 4 y E4 (el espacio propio del valor propio 4). Solución Los vectores propios de A, correspondientes a este valor propio, son las soluciones no triviales del sistema Au = 4u que equivalen a las soluciones no triviales del sistema homogéneo (A − 4I2 )u = 0R2 . Resolvamos entonces este sistema: Luego 2−4 2 3 1−4 u = x y = r r −2 2 = 3 −3 1 −1 ∼ . 0 0 =r 1 1 , r = 0. Es decir, el conjunto de vectores propios correspondientes al valor propio 4 son todos los vectores de la forma r(1, 1) con r = 0 y el espacio propio es E4 = gn((1, 1)). Teorema 5.26 Sean A, B matrices cuadradas de orden n que son similares. Entonces A y B tienen los mismos valores propios. DEMOSTRACIÓN Q Sean λ un valor propio de la matriz A, u ∈ Rn − {0Rn } un vector propio correspondiente, y P una matriz cuadrada de orden n tal que A = P−1 BP. Entonces B(Pu) = P(Au) = P(λu) = λ (Pu) . Puesto que u = 0Rn y P es una matriz invertible, se tiene que Pu = 0Rn ; por tanto, λ es valor propio de B. Sea μ un valor propio de B y v ∈ Rn − {0Rn } un vector propio correspondiente. Entonces A(P−1v) = P−1 (Bv) = P−1 (μv) = μ(P−1v) y nuevamente, dado que P−1 es invertible y v =0Rn , P−1v =0Rn y, por tanto μ es valor propio de B. Page (PS/TeX): 46 / 462, COMPOSITE Q SECCIÓN 5.3 Valores y vectores propios, diagonalización 463 Ya que en un espacio vectorial de dimensión finita cualquier par de representaciones matriciales de un operador lineal son similares, el teorema precedente tiene como consecuencia inmediata el siguiente corolario. Corolario 5.1 Si E es un espacio de dimensión finita y T : E → E es un operador lineal, entonces todas las representaciones matriciales de T tienen los mismos valores propios. ¿Cuál es entonces la relación entre los valores propios de un operador lineal y los valores propios de cualquiera de sus representaciones matriciales? Seguramente el lector ya sabe cuál es la respuesta; pero para hacerla patente la probamos en la siguiente proposición. Teorema 5.27 Sean E un espacio vectorial de dimensión finita n y T : E → E un operador lineal. Si [T ]B es cualquier representación matricial de T relativa a una base B = {e1 , . . . ,en }, entonces el operador T y la matriz [T ]B tienen los mismos valores propios. DEMOSTRACIÓN Q Supongamos que λ es un valor propio de T con u ∈ E − {0E } un vector propio correspondiente, entonces T (u) = λu. Por tanto, [λu]B = [T (u)]B = [T ]B [u]B . Luego [T ]B [u]B = λ [u]B y dado que22 u =0E ⇒ [u]B =0Rn , se tiene que λ es valor propio de la matriz [T ]B . Ahora supongamos que μ es un valor propio de la matriz [T ]B , con un vector propio correspondiente v = (v1 , . . . , vn ) ∈ Rn − {0Rn }. Sea u = v1e1 + · · · + vnen , entonces23 u ∈ E − {0E } y [T (u)]B = [T ]B [u]B = [T ]B v = μv = μ [u]B = [μu]B lo cual implica T (u) = μu y por ende μ es valor propio de T . Q 1Cfr. teorema 5.12, página 436. 1Cfr. teorema 5.12, página 436. 22 23 Page (PS/TeX): 47 / 463, COMPOSITE 464 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios En resumen, si T : E → E es un operador lineal y E tiene dimensión finita, los valores propios de T son los valores propios de cualquier representación matricial del mismo. Por tanto, el problema de hallar los valores propios de un operador lineal definido en un espacio de dimensión finita se reduce a encontrar los valores propios de una matriz (de una representación matricial cualquiera del mismo). Esta es una enorme ventaja, pues podemos aprovechar toda la herramienta matricial que hemos desarrollado a lo largo de este libro para este fin. Por esta razón es que será suficiente restringir nuestro estudio de encontrar valores propios al caso de matrices cuadradas de orden n. Cálculo de valores y vectores propios de matrices En el ejemplo 5.46 vimos cómo calcular los valores propios de una matriz cuadrada resolviendo un sistema homogéneo. Ésta es la idea general para calcular valores y vectores propios de una matriz cuadrada. Sea A una matriz cuadrada de orden n; dado que un sistema cuadrado homogéneo tiene soluciones no triviales si y sólo si la matriz de coeficientes del mismo tiene determinante cero, tenemos: λ es valor propio de A ⇔ existe u ∈ Rn − {0Rn } tal que Au = λu ⇔ el sistema homogéneo (A − λIn )x = 0Rn tiene soluciones no triviales ⇔ det(A − λIn ) = 0 donde In es la matriz identidad de orden n. Ahora, si λ ∈ R es un valor propio de la matriz A, entonces debe existir una solución no trivial del sistema homogéneo (A − λIn )x = 0Rn . Ası́, los vectores propios correspondientes a λ son las soluciones no triviales de este sistema homogéneo. Hemos probado ası́ el siguiente resultado. Teorema 5.28 Sea A una matriz cuadrada de orden n. Entonces 1. Las soluciones reales de la ecuación det (A − λIn ) = 0 son los valores propios de A. 2. Y si λ ∈ R es un valor propio de A, las soluciones no triviales del sistema homogéneo (A − λIn )x = 0Rn son los vectores propios correspondientes a λ. Ejemplo 5.47 Sea A= 2 2 3 1 . Encontrar sus valores propios y los vectores propios correspondientes. Page (PS/TeX): 48 / 464, COMPOSITE (5.22) Valores y vectores propios, diagonalización 465 SECCIÓN 5.3 2−λ 2 det(A − λI2 ) = 3 1−λ Solución = (2 − λ)(1 − λ) − 6 = λ2 − 3λ − 4 = (λ − 4)(λ + 1) y las soluciones de det(A − λI2 ) = 0 son los valores propios de A: λ = 4 y λ = −1. Si λ = 4, el sistema homogéneo (5.22) en este caso es 2−4 2 3 1−4 x y = 0 0 ; que podemos resolver por el método de Gauss llevando a forma escalonada −2 2 3 −3 ∼ 1 0 −1 0 y haciendo sustitución regresiva x y r r = =r 1 1 . Ası́, los vectores propios correspondientes a λ = 4 son todos los vectores de la forma r(1, 1) con r = 0. Análogamente si λ = −1, el sistema homogéneo (5.22) para este caso es 2+1 2 3 1+1 x y = 0 0 y por tanto, 3 2 3 2 x y ∼ = 3 2 0 0 −(2/3)s s −(2/3)3t = 3t −2 =t . 3 Luego los vectores propios correspondientes a λ = −1 son todos los vectores de la forma t(−2, 3) con t = 0. Page (PS/TeX): 49 / 465, COMPOSITE 466 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 2 2 En el ejemplo precedente obtuvimos det(A − λI2 ) = λ − 3λ − 4 para la matriz A = . En 3 1 el caso general, si se desarrolla det(A − λIn ) para una matriz cuadrada A de orden n, se obtiene un polinomio en λ de grado n. Veamos algunos casos particulares: 2 1. Si n = 2 a −λ det(A − λI2 ) = 11 a21 a12 a22−λ = (a11 − λ)(a22 − λ) − a12 a21 = λ2 − (a11 + a22 )λ + a11 a22 − a12 a21 . 2. Si n = 3, empleando el inciso 1 tenemos a11 − λ a21 det(A − λI3 ) = a31 a12 a22 − λ a32 a −λ = (a11 − λ) 22 a32 a a23 − a21 12 a33 − λ a32 a13 a23 a33 − λ a13 a33 − λ a12 + a31 a22 − λ a13 a23 = (a11 − λ) (λ2 − (a22 + a33 )λ + a22 a33 − a23 a32 ) a12 a12 a13 a13 + a31 −a21 a32 a33 − λ a22 − λ a23 y ya que los dos últimos términos son claramente polinomios de grado a lo más uno, se deduce que det(A − λI3 ) = −λ3 + (a22 + a33 + a11 ) λ2 + α1 λ + α0 donde α1 , α0 ∈ R. 3. Si n = 4, empleando los incisos anteriores, a11 − λ a12 a13 a a − λ a 21 22 23 det(A − λI4 ) = a31 a32 a33 − λ a41 a42 a43 a22 − λ a23 a32 a33 − λ = (a11 − λ) a42 a43 a12 a13 a14 a34 −a21 a32 a33 − λ a42 a43 a44 − λ a12 a13 a14 a23 a24 −a41 a22 − λ a32 a33 − λ a34 a24 a34 a44 − λ a12 + a31 a22 − λ a42 a14 a24 a34 a44 − λ a13 a23 a43 a14 a24 a44 − λ 2 = (a11 − λ)(−λ3 + (a22 + a33 + a44 )λ +α1 λ + α0 ) a12 a12 a a a14 13 14 a34 − a31 a22 − λ a24 −a21 a32 a33 − λ a42 a43 a44 − λ a42 a44 − λ a12 a13 a14 a23 a24 −a41 a22 − λ a32 a33 − λ a34 Page (PS/TeX): 50 / 466, COMPOSITE a13 a23 a43 SECCIÓN 5.3 Valores y vectores propios, diagonalización 467 Por los dos incisos anteriores,24 es claro que al desarrollar los determinantes de los últimos tres términos se obtienen polinomios de grado 2. Ası́ que det(A − λI4 ) = λ4 − (a11 + a33 + a44 + a22 ) λ3 + c2 λ2 + c1 λ + c0 con c2 , c1 , c0 ∈ R. Hemos hecho plausible la demostración, que puede hacerse por inducción, del teorema 5.29; la cual se deja como ejercicio al lector. Teorema 5.29 Sea A una matriz de orden n, entonces det(A − λIn ) = (−1)n λn + cn−1 λn−1 + · · · + c1 λ + c0 , donde los ci ∈ R; es decir, det(A − λIn ) es un polinomio de grado n. Además el coeficiente del término principal (el coeficiente de λn ) es (−1)n y25 cn−1 = (−1)n−1 tra(A). Definición 5.20 Sea A una matriz cuadrada de orden n e In la matriz identidad de orden n. 1. Se denota y define el polinomio caracterı́stico de la matriz A como pA (λ) = det(A − λIn ). 2. A la ecuación pA (λ) = 0; esto es, det(A − λIn ) = 0, se le llama ecuación caracterı́stica de la matriz A. Con esta terminologı́a los valores propios de A son las raı́ces reales del polinomio caracterı́stico de A; es decir, las soluciones reales de la ecuación caracterı́stica. Vimos, en el teorema 5.26, que dos matrices similares tienen los mismos valores propios; ahora veamos que también tienen el mismo polinomio caracterı́stico. Teorema 5.30 Sean A y B un par de matrices cuadradas de orden n que son similares. Entonces A y B tienen el mismo polinomio caracterı́stico. DEMOSTRACIÓN Q Sea P una matriz cuadrada invertible de orden n tal que A = P−1 BP. Entonces, A − λIn = P−1 BP − λIn = P−1 BP − λP−1 P = P−1 (B − λIn )P 1Note que intercambiamos dos columnas del determinante que multiplica a31 . 1Cfr. definición 4.2, página 242. 24 25 Page (PS/TeX): 51 / 467, COMPOSITE 468 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios y por tanto det(A − λIn ) = det(P−1 (B − λIn )P) = det(P−1 ) det(B − λIn ) det(P) = (det(P))−1 det(B − λIn ) det(P) = det(B − λIn ); esto es, pA (λ) = pB (λ). Q Como consecuencia inmediata del teorema anterior tenemos que cualquier par de representaciones matriciales de un mismo operador lineal en un espacio de dimensión finita, por ser matrices similares, tiene el mismo polinomio caracterı́stico. Definición 5.21 Si E es un espacio vectorial de dimensión finita y T : E → E es un operador lineal, se define el polinomio caracterı́stico de T , pT (λ), como el polinomio caracterı́stico de cualquier representación matricial de T . De lo precedente se concluye que una matriz cuadrada tiene a lo más n valores propios, pues un polinomio de grado n tiene a lo más n raı́ces reales. Lo mismo ocurre obviamente para un operador lineal en un espacio de dimensión finita n. Teorema 5.31 1. Si A es una matriz cuadrada de orden n, entonces A tiene a lo más n valores propios. 2. Si T : E → E es un operador lineal y dim(E) = n, entonces T tiene a lo más n valores propios. Método sintetizado para encontrar los valores y vectores propios correspondientes de una matriz Resumimos a continuación la información precedente para calcular los valores y vectores propios correspondientes de una matriz cuadrada A de orden n: 1. Se calculan las soluciones reales, λi , de la ecuación caracterı́stica det(A − λIn ); es decir, las raı́ces reales del polinomio caracterı́stico pA (λ). 2. Para cada λi se encuentran las soluciones no triviales del sistema no homogéneo (A − λi In )x = 0Rn y dichas soluciones serán los vectores propios correspondientes a λi . Page (PS/TeX): 52 / 468, COMPOSITE Valores y vectores propios, diagonalización 469 SECCIÓN 5.3 P Nota 5.10 1. Dado que un polinomio de grado n puede tener raı́ces múltiples26 (o repetidas), es obvio que el paso 2 únicamente se lleva a cabo para los valores propios λi distintos entre sı́; es decir, para las raı́ces simples del polinomio caracterı́stico. 2. Si E es un espacio de dimensión finita y T : E → E es un operador lineal, para calcular los valores propios y vectores propios correspondientes de T se aplica el procedimiento precedente a cualquier representación matricial de T . ⎤ ⎡ 2 1 0 Ejemplo 5.48 Sea A = ⎣ −1 0 1 ⎦. 1 3 1 1. Encontrar los valores propios de A. 2. Hallar los vectores y espacios propios correspondientes. 3. Calcular las dimensiones de los espacios propios. Primero encontremos las raı́ces del polinomio caracterı́stico. Para ello desarrollamos por cofactores |A − λI3 | por la tercera columna: Solución pA (λ) = |A − λI3 | 2−λ 1 = −1 −λ 1 3 2−λ 1 = − 1 3 0 1 1−λ + (1 − λ) 2 − λ −1 1 −λ = −(3(2 − λ) − 1) + (1 − λ)(−λ(2 − λ)) + 1) = −(5 − 3λ) + (1 − λ)(λ2 − 2λ + 1) = −(λ − 1)3 − (5 − 3λ). Sin embargo, este resultado no produce una factorización adecuada para calcular las raı́ces. Pero si desarrollamos el determinante por la primera fila obtenemos −λ 1 pA (λ) = (2 − λ) 3 1−λ −1 − 1 1 1−λ = (2 − λ)[−λ(1 − λ) − 3] − (λ − 1 − 1) = (2 − λ)[λ2 − λ − 3] − (λ − 2) = (2 − λ)[λ2 − λ − 3] + (2 − λ) = (2 − λ)(λ2 − λ − 3 + 1) = (2 − λ)(λ2 − λ − 2) = (2 − λ)(λ − 2)(λ + 1) = −(λ − 2)(λ − 2)(λ + 1) = −(λ − 2)2 (λ + 1). 1Por ejemplo, el polinomio de grado tres p(λ) = (1 − λ)2 (λ + 2) tiene las raı́ces distintas λ = 1 (raı́z de multiplicidad 2) y la raı́z simple λ = −2. 26 Page (PS/TeX): 53 / 469, COMPOSITE 470 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Ası́ que las raı́ces de pA (λ) son λ = 2 (raı́z doble) y λ = −1 (raı́z simple). 1. Valores propios distintos: λ1 = 2 y λ2 = −1. 2. Los valores propios de λi , i = 1, 2, son las soluciones del sistema homogéneo (A − λi I3 )v = 0R3 . ⎡ Para λ1 = 2: 0 ⎣ −1 1 ⎤ ⎤ ⎡ 1 3 −1 1 0 −2 1 ⎦ ∼ ⎣ −1 −2 1 ⎦ 0 1 0 3 −1 ⎤ ⎡ 1 3 −1 0 ⎦ ∼⎣ 0 1 0 1 0 ⎤ ⎡ 1 3 −1 0 ⎦; ∼⎣ 0 1 0 0 0 ⎡ ⎤ ⎤ ⎡ x1 r ∴ ⎣ x2 ⎦ = ⎣ 0 ⎦ r x3 ⎡ ⎤ 1 = r⎣ 0 ⎦. 1 Luego el conjunto de vectores propios para λ1 = 2 es {(r, 0, r) | r = 0}. ⎡ Para λ2 = −1: 3 ⎣ −1 1 ⎤ ⎤ ⎡ 3 1 0 0 1 ⎦∼⎣ 0 4 3 ⎦ 0 8 6 2 ⎤ ⎡ 3 1 0 ∼ ⎣ 0 4 3 ⎦; 0 0 0 ⎡ ⎤ ⎤ ⎡ x1 s ∴ ⎣ x2 ⎦ = ⎣ −3r ⎦ 4r x3 ⎤ ⎡ 1 = r ⎣ −3 ⎦ 4 1 1 3 y el conjunto de vectores propios de λ2 = −1 es {(r, −3r, 4r) | r = 0}. 3. Por lo precedente E2 = gn((1, 0, 1)) y Por tanto Page (PS/TeX): 54 / 470, COMPOSITE E−1 = gn((1, −3, 4)). dim(E2 ) = 1, dim(E−1 ) = 1. SECCIÓN 5.3 Valores y vectores propios, diagonalización 471 En el ejemplo precedente pA = −(λ − 1)3 − (5 − 3λ) no tiene una forma adecuada para factorizar y calcular las raı́ces. Pero si desarrollamos, obtenemos pA (λ) = −λ3 + 3λ2 − 4 y la ecuación caracterı́stica se puede escribir entonces como λ3 − 3λ2 + 4 = 0. Las raı́ces se pueden hallar mediante división sintética. Recuerde que en un polinomio que tiene coeficientes enteros y es mónico (el coeficiente de la mayor potencia es 1) si una raı́z es entera, entonces debe dividir exactamente al término independiente, en este caso 4; y que si r es raı́z del polinomio, entonces el residuo de dividir el polinomio entre λ − r es cero. Para este caso, los divisores de 4 son ±1, ±2, ±4. Al hacer división sintética se obtiene 1 −3 2 0 −2 4 −4 1 −1 −2 0 2 . Los coeficientes del cociente son los primeros tres números de la última fila y el residuo está dado en la última columna de esta fila (0); por tanto, λ3 − 3λ2 + 4 = (λ − 2)(λ2 − λ − 2); esto es, λ3 − 3λ2 + 4 = (λ − 2)(λ − 2)(λ + 1) = (λ − 2)2 (λ + 1). Las raı́ces son entonces λ = 2 (doble o de multiplicidad 2) y λ = 1 (simple o de multiplicidad 1), que son las mismas que encontramos antes. 5.3.2 Diagonalización Al inicio de esta sección planteamos la posibilidad de encontrar una representación diagonal de un operador lineal T en un espacio de dimensión finita n; y en el teorema 5.25 (cfr. pág. 458) mostramos que las condiciones necesarias y suficientes para este fin son que existan n escalares reales λ j y n vectores L.I. e j , j = 1, . . . , n, tales que T (e j ) = λ je j ∀ j. Esto es, que T tenga n valores propios λ j con sendos vectores propios correspondientes e j que sean linealmente independientes; es decir, que formen una base del espacio. En tal caso dicha representación diagonal es diag(λ1 , . . . , λn ). Si A es la representación matricial de T relativa a una base B, los valores propios de T y de A son los mismos; por tanto, que T tenga una representación matricial diagonal equivale a que exista una matriz C tal que D = C−1 AC, donde D = diag(λ1 , . . . , λn ); pues las representaciones matriciales del operador T son matrices similares. Entonces el objetivo se limita nuevamente a trabajar con matrices cuadradas y determinar bajo qué condiciones se puede llevar a efecto esta “diagonalización”. Definición 5.22 Sea A ∈ Mn una matriz cuadrada real de orden n. A es diagonalizable si existe un par de matrices C, D ∈ Mn , con D una matriz diagonal y C una matriz invertible, tales que D = C−1 AC. Se dice entonces que el par (C, D) es una diagonalización para la matriz A. Page (PS/TeX): 55 / 471, COMPOSITE 472 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Sea A una matriz diagonalizable de orden n, y (C, D) una diagonalización para A, con D = diag (λ1 , . . . , λn ). Puesto que A y D son similares tienen los mismos valores propios (cfr. teorema 5.26); de 1, . . . , K n las columnas de la matriz C; entonces, ahı́ que los valores propios de A son27 λ1 , . . . , λn . Sean K puesto que AC = CD, se tiene, de (1.2), página 11, 2 · · · AK n ] = [λ1 K 1 AK 1 λ2 K 2 · · · λn K n ]; [AK i es un vector propio de la matriz A correspondiente al valor propio i y por ende K i = λi K por lo que AK λi para cada i = 1, . . . , n. De esto y del teorema 5.25, con T = TA , se demuestra el siguiente teorema. Teorema 5.32 Sea A una matriz cuadrada de orden n. Entonces A es diagonalizable si y sólo si A tiene n valores propios λ j ∈ R con vectores propios correspondientes u j , de sendos valores propios, linealmente independientes; es decir, los vectores propios u1 , . . . ,un forman una base de Rn . En tal caso una diagonalización para A está dada por el par (C, D); donde C es la matriz cuyas columnas son los vectores u j , j = 1, 2, . . . , n, y D = diag(λ1 , λ2 , . . . , λn ). Necesitaremos del siguiente lema para tener una consecuencia inmediata del teorema anterior y poder probar el principal resultado de esta sección (el teorema 5.33). Lema 5.2 1. Sean T un operador lineal definido en un espacio vectorial y λ1 , . . . , λk valores propios de T distintos entre sı́. Supongamos que {u11 , . . . ,u1m1 } es un conjunto de vectores propios L.I correspondientes a λ1 , {u21 , . . . , u2m2 es un conjunto de vectores propios L.I. correspondientes a λ2 , etc., y {uk1 , . . . ,ukmk } es un conjunto de vectores propios L.I. correspondientes a λk . Entonces los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk (5.23) son linealmente independientes. 2. Sean A una matriz cuadrada de orden n y λ1 , . . . , λk valores propios de A distintos entre sı́. Sean {u j1 , . . . ,u jm j } conjuntos L.I. de vectores propios correspondientes a λ j para cada j = 1, . . . , k. Entonces los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk son linealmente independientes. DEMOSTRACIÓN Q 1. Procedamos por inducción sobre k. Si k = 1, por hipótesis {u11 , . . . ,u1m1 } es L.I. Sea k un entero mayor a 1 y supongamos que el resultado es cierto para todo conjunto de k − 1 valores propios de T distintos entre sı́. Si uno de los vectores en (5.23) es combinación lineal de los demás, digamos ukmk (de ser necesario podemos renombrar estos vectores y los valores propios para que esto suceda ası́), entonces existen escalares α11 , . . . , α1m1 , α21 , . . . , α2m2 , . . . , αk1 , . . . , αkmk −1 1Es evidente que los valores propios de una matriz diagonal D = diag(λ1 , . . . , λn ) son los elementos λi de su diagonal. 27 Page (PS/TeX): 56 / 472, COMPOSITE Valores y vectores propios, diagonalización 473 SECCIÓN 5.3 tales que m1 m2 mk −1 i=1 i=1 i=1 ukmk = ∑ α1iu1i + ∑ α2iu2i + · · · + ∑ αkiuki (5.24) Por tanto m1 m2 mk −1 i=1 i=1 i=1 m1 m2 mk −1 i=1 i=1 i=1 m1 m2 mk −1 i=1 i=1 i=1 T (ukmk ) = ∑ α1i T (u1i ) + ∑ α2i T (u2i ) + · · · + ∑ αki T (uki ) y entonces λkukmk = ∑ α1i λ1u1i + ∑ α2i λ2u2i + · · · + ∑ αki λkuki (5.25) αki λkuki (5.26) Pero, por (5.24), λkukmk = ∑ α1i λku1i + ∑ α2i λku2i + · · · + ∑ De (5.25) y (5.26) se desprende m1 mk−1 i=1 i=1 ∑ α1i (λ1 − λk )u1i + · · · + ∑ α(k−1)i (λk−1 − λk )u(k−1)i = 0E (5.27) Por hipótesis de inducción, ya que los λ j , j = 1, . . . , k − 1, son distintos entre sı́, se tiene que los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,u(k−1)1 , . . . ,u(k−1)mk−1 son L.I.; ası́ que (5.27) implica α11 (λ1 − λk ) α21 (λ2 − λk ) = ··· = = ··· = .. . α1m1 (λ1 − λk ) α2m2 (λ2 − λk ) = 0 = 0 α(k−1)1 (λk−1 − λk ) = · · · = α(k−1)mk−1 (λk−1 − λk ) = 0 y puesto que λ j − λk = 0 para todo j = 1, 2, . . . , k − 1, se concluye que α11 α21 = ··· = = ··· = α1m1 α2m2 .. . = 0 = 0 α(k−1)1 = · · · = α(k−1)mk−1 = 0. Al sustituir estos αi j en (5.24) obtenemos ukmk = mk −1 ∑ αkiuki i=1 que es imposible, pues por hipótesis los vectores uk1 , . . . ,u1mk son L.I. Luego, los vectores en (5.23) tienen que ser independientes. 2. Es consecuencia inmediata del inciso anterior al tomar T = TA . Page (PS/TeX): 57 / 473, COMPOSITE Q 474 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Corolario 5.2 Si A es una matriz cuadrada de orden n que tiene n valores propios λ1 , . . . , λn distintos entre sı́, entonces A es diagonalizable y una diagonalización para A es el par (C, D); donde C es la matriz cuya columna j, j = 1, . . . , n, es un vector propio u j correspondiente al valor propio λ j y D = diag(λ1 , . . . , λn ). DEMOSTRACIÓN Q Por el lema 5.2 los vectores propios u j , j = 1, . . . , n, son L.I. y por ende {u1 , . . . ,un } es una base de Rn ; y la conclusión es entonces consecuencia inmediata del teorema 5.32. Q Ejemplo 5.49 Sea A = 1 2 2 1 . Entonces 1−λ 2 pA (λ) = 2 1−λ = (1 − λ)2 − 4 = λ2 − 2λ − 3 = (λ − 3)(λ + 1); ası́ que los valores propios de A son λ1 = 3 y λ2 = −1, n = 2 valores propios distintos. Por el corolario 5.2, A es diagonalizable. Para hallar una diagonalización necesitamos calcular vectores propios. Para λ1 : 1 − λ1 2 2 1 − λ1 1−3 2 2 1−3 −2 2 = 2 −2 1 −1 ∼ 0 0 = y por tanto los vectores propios correspondientes tienen la forma 1 r , r = 0. 1 1 − (−1) 2 2 1 − λ2 = Para λ2 : 2 1 − (−1) 2 1 − λ2 2 2 = 2 2 1 1 ∼ 0 0 y entonces los vectores propios correspondientes tienen la forma 1 r , r = 0. −1 Ası́, C= es una diagonalización para A. Page (PS/TeX): 58 / 474, COMPOSITE 1 1 1 −1 ,D= 3 0 0 −1 Valores y vectores propios, diagonalización 475 SECCIÓN 5.3 Comprobación: AC = = 3 −1 3 1 = y 1 1 1 −1 CD = 1 2 2 1 3 −1 3 1 3 0 1 1 0 −1 1 −1 Por tanto AC = CD que equivale a D = C−1 AC. El corolario 5.2 únicamente establece condiciones suficientes para que una matriz sea diagonalizable; es decir, puede ser que una matriz sea diagonalizable aunque su polinomio caracterı́stico tenga raı́ces múltiples (cfr. ejemplo 5.50). De hecho, vamos a establecer condiciones necesarias y suficientes para que una matriz sea diagonalizable (teorema 5.33) que cubrirán todos esos casos. Antes de ello necesitamos un poco más de terminologı́a. Definición 5.23 1. Sean E un espacio vectorial de dimensión finita n, T un operador lineal en E y λ un valor propio de T . (a) A la multiplicidad de λ como raı́z del polinomio caracterı́stico de T se le llama la multiplicidad algebraica de este valor propio y la denotaremos, en este libro, por μa (λ). (b) A la dimensión del espacio propio Eλ se le dice multiplicidad geométrica de λ y la representaremos, en este texto, mediante el sı́mbolo μg (λ). 2. Sea A una matriz de orden n y λ un valor propio de A. (a) Se llama multiplicidad algebraica de λ a la multiplicidad de este valor propio como raı́z del polinomio caracterı́stico de la matriz A y se le representa por el sı́mbolo μa (λ). (b) Se define la multiplicidad geométrica de λ como la dimensión del espacio propio Eλ ; esto es, μg (λ) = dim(Eλ ). P Nota 5.11 1. Sabemos, del teorema 5.12, que si u1 , . . . ,uk son vectores de un espacio vectorial E de dimensión finita n, B es una base de este espacio y [ui ]B , i = 1, . . . , k, son los respectivos vectores de coordenadas relativos a dicha base, entonces los vectores ui son L.I. en E si y sólo si los vectores [ui ]B son L.I. en Rn . De esto se desprende que la multiplicidad geométrica de un valor propio λ de un operador lineal T : E → E es la misma que la multiplicidad geométrica de este valor propio para cualquier representación matricial de T . 2. Si A es una matriz cuadrada, es evidente que los conceptos de multiplicidad algebraica y geométrica son exactamente los mismos que los correspondientes conceptos para el operador TA . Page (PS/TeX): 59 / 475, COMPOSITE 476 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Un resultado preliminar para lograr el objetivo final de dar condiciones necesarias y suficientes para la diagonalización de una matriz está contenido en el lema 5.3. Lema 5.3 . 1. Sean T un operador lineal en un espacio vectorial de dimensión n y λ0 un valor propio de este operador, entonces μg (λ0 ) ≤ μa (λ0 ). (5.28) 2. Sea A una matriz de orden n. Entonces, para cada valor propio λ0 de A se tiene (5.28). DEMOSTRACIÓN Q 1. Sean m = μg (λ0 ) y B = {e1 , . . . ,em } una base del subespacio propio Eλ0 . Completemos B a una base {e1 , . . . ,em ,em+1 , . . . ,en } de E mediante el procedimiento dado en la página 167. Entonces T (ei ) = λ0ei ∀i = 1, . . . , m. De aquı́ se sigue que la representación matricial de T relativa a esta base tiene la forma D B1 , [T ]B = O B2 donde D = diag(λ0 , . . . , λ0 ), B1 y B2 son matrices de tamaños m × (n − m) y (n − m) × (n − m), m respectivamente y O es la matriz cero de tamaño (n − m) × m. Entonces D − λIm B1 . pT (λ) = O B2 − λIn−m Es fácil mostrar que D − λIm O B1 = det(D − λIm ) det(B2 − λIn−m ); B2 − λIn−m por tanto, pT (λ) = (λ0 − λ)m det(B2 − λIn−m ). De aquı́ que λ0 es raı́z del polinomio caracterı́stico de multiplicidad al menos m; esto es, μg (λ0 ) ≤ μa (λ0 ). 2. Es inmediata al aplicar el primer inciso a T = TA . Q Supongamos ahora que A es una matriz cuadrada de orden n con n valores propios tal que para cada uno de éstos la multiplicidad algebraica coincide con la multiplicidad geométrica. Esto es, si A tiene k valores propios distintos entre sı́, λ1 , . . . , λk , entonces μg (λi ) = μa (λi ) = mi , para cada i = 1, . . . , k. Sean entonces u1j , . . . ,umj j vectores propios L.I. correspondientes al valor propio λ j , para cada j = 1, . . . , k. En virtud del lema 5.2 inciso 2, ya que los valores propios λ1 , . . . , λk son distintos entre sı́, el conjunto {u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk } Page (PS/TeX): 60 / 476, COMPOSITE Valores y vectores propios, diagonalización 477 SECCIÓN 5.3 es linealmente independiente. Finalmente, ya que m1 + m 2 + · · · + m k = n (pues la suma de las multiplicidades de las raı́ces distintas de un polinomio es igual al grado del mismo), del teorema 5.32, se concluye que A es diagonalizable con diagonalización la matriz C que tiene por columnas a los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk y D = diag(λ1 , . . . , λ1 , λ2 , . . . , λ2 , . . . , λk , . . . , λk ). m1 m2 mk Inversamente, supongamos que la matriz es diagonalizable. Sea (C, D) una diagonalización para esta matriz con D = diag(β1 , β2 , . . . , βn ). Entonces, si λ1 , λ2 , . . . , λk , son los valores distintos entre sı́ de la diagonal de D, se tiene pA (λ) = (λ1 − λ)m1 (λ2 − λ)m2 · · · (λk − λ)mk ; donde mi = μa (λi ) para cada i = 1, . . . , k. De aquı́, ya que las columnas de C son vectores L.I. por ser ésta una matriz invertible, existen por lo menos mi vectores L.I. en Eλi para cada i = 1, . . . , k; pues, para j de C, AK j = β jK j (cfr. la discusión que sigue de la definición 5.22); lo cual prueba que cada columna K μa (λi ) ≤ μg (λi ) para cada i = 1, . . . , k. (5.29) De (5.28) del lema 5.3 y (5.29) se desprende μa (λi ) = μg (λi ) para cada valor propio de A. Hemos probado ası́ el resultado que da condiciones necesarias y suficientes para que una matriz sea diagonalizable y que hacemos patente en el teorema 5.33. Condiciones necesarias y suficientes para que una matriz sea diagonalizable Teorema 5.33 Sea A una matriz cuadrada de orden n que tiene n valores propios. Entonces A es diagonalizable si y sólo si para cada valor propio de A la multiplicidad algebraica coincide con la multiplicidad geométrica; esto es, μa (λ) = μg (λ) para cada valor propio λ de A. En este caso, si λ1 , . . . , λk son los valores propios de A distintos entre sı́ con sendas multiplicidades algebraicas μa (λ j ) = m j , j = 1, . . . , k, y u1j , . . . ,umj j son vectores L.I. correspondientes a cada valor propio λ j , entonces una diagonalización para A es el par (C, D), donde C es la matriz que tiene por columnas a los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk y D = diag(λ1 , . . . , λ1 , λ2 , . . . , λ2 , . . . , λk , . . . , λk ). m1 Page (PS/TeX): 61 / 477, COMPOSITE m2 mk 478 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Ejemplo 5.50 Determinar si la matriz ⎡ 1 A=⎣ 0 0 ⎤ −3 3 −5 6 ⎦ −3 4 es diagonalizable y encontrar, en su caso, una diagonalización para ella. 1−λ pA (λ) = 0 0 Solución −3 −5 − λ −3 −5 − λ = (1 − λ) −3 6 4−λ 3 6 4−λ = (1 − λ)(−(5 − λ)(4 − λ) + 18) = (1 − λ)(λ2 + λ − 2) = (1 − λ)(λ + 2)(λ − 1) = −(1 − λ)2 (λ + 2). Ası́ que los vectores propios de A, distintos entre sı́, son λ1 = 1 y λ2 = −2; con multiplicidades algebraicas μa (λ1 ) = 2 y μa (λ2 ) = 1. Para λ1 = 1: ⎡ 0 (A − λ1 I3 ) = ⎣ 0 0 −3 −6 −3 ⎤ ⎤ ⎡ ⎤ ⎡ 0 −1 1 0 −3 3 3 0 0 ⎦; 0 0 ⎦∼⎣ 0 6 ⎦∼⎣ 0 0 0 0 0 0 0 3 luego ⎡ ⎡ ⎤ ⎡ ⎤ ⎤ ⎡ ⎤ x1 0 1 s ⎣ x2 ⎦ = ⎣ r ⎦ = s ⎣ 0 ⎦ + r ⎣ 1 ⎦ . 1 0 r x3 Por tanto, μg (λ1 ) = dim(E1 ) = 2. Para λ2 = −2: ⎡ 3 (A + 2I3 ) = ⎣ 0 0 ⎤ ⎡ 1 −3 3 −3 6 ⎦ ∼ ⎣ 0 0 −3 6 ⎤ ⎡ 1 −1 1 1 −2 ⎦ ∼ ⎣ 0 0 −3 6 luego ⎡ ⎤ ⎤ ⎡ ⎤ ⎡ x1 1 r ⎣ x2 ⎦ = ⎣ 2r ⎦ = r ⎣ 2 ⎦ . 1 r x3 Por tanto, μg (λ2 ) = dim(E−2 ) = 1. Page (PS/TeX): 62 / 478, COMPOSITE ⎤ −1 1 1 −2 ⎦ ; 0 0 SECCIÓN 5.3 Valores y vectores propios, diagonalización 479 Puesto que μa (λ1 ) = μg (λ1 ) y μa (λ2 ) = μg (λ2 ), A es diagonalizable y una diagonalización para A es el par (C, D), donde ⎤ ⎤ ⎡ ⎡ 1 0 0 1 0 1 0 ⎦ C=⎣ 0 1 2 ⎦ yD=⎣ 0 1 0 0 −2 0 1 1 de acuerdo con el teorema 5.33. El lector puede comprobar, verificando la igualdad de los productos28 AC y CD, que efectivamente D = C−1 AC. ⎤ 2 1 0 Ejemplo 5.51 Sea A = ⎣ −1 0 1 ⎦. En el ejemplo 5.48 (cfr. pág. 469) vimos que los valores 1 3 1 propios de A son λ1 = 2 y λ2 = −1 con multiplicidades algebraicas μa (λ1 ) = 2 y μa (λ2 ) = 1; y que dim(E2 ) = 1 y dim(E−1 ) = 1. Luego μa (λ1 ) = μg (λ1 ); por tanto, A no es diagonalizable. ⎡ Ejemplo 5.52 Sea ⎡ 1 ⎢ 0 A=⎢ ⎣ 3 3 3 −2 3 3 ⎤ 0 0 0 0 ⎥ ⎥. 1 −3 ⎦ 0 −2 Determinar si A es diagonalizable y, en caso afirmativo, encontrar una diagonalización para esta matriz. Solución −2 − λ 0 0 3 1−λ −3 = (1 − λ) 3 0 −2 − λ 1−λ −3 = (1 − λ)(−2 − λ) 0 −2 − λ 1−λ 0 pA (λ) = 3 3 3 −2 − λ 3 3 0 0 1−λ 0 0 0 −3 −2 − λ = (1 − λ)(−2 − λ)(1 − λ)(−2 − λ) = (1 − λ)2 (2 + λ)2 , por lo que los valores propios distintos de A son λ1 = −2 y λ2 = 1, con multiplicidades algebraicas μa (λ1 ) = 2 y μa (λ2 ) = 2. Resolvamos los sistemas (A − λi I4 )u = 0Rn para i = 1, 2. Para λ1 = −2: ⎡ 3 ⎢ 0 A − (−2)I4 = ⎢ ⎣ 3 3 ⎡ 1 ⎢ 0 ∼⎢ ⎣ 0 0 3 0 3 3 1 0 0 0 ⎤ ⎤ ⎡ 1 1 1 −1 0 0 ⎢ 0 ⎥ 0 0 ⎥ ⎥ ⎥∼⎢ 1 1 0 ⎣ ⎦ 1 1 0 0 ⎦ 3 −3 0 0 0 0 0 0 ⎤ ⎡ 1 1 1 −1 1 −1 ⎢ 0 0 −1 1 −1 1 ⎥ ⎥∼⎢ 0 0 −1 1 ⎦ ⎣ 0 0 0 0 0 0 0 0 1Observe que se comprueba la igualdad de los productos AC y CD para evitar el cálculo de C−1 . 28 Page (PS/TeX): 63 / 479, COMPOSITE ⎤ ⎥ ⎥, ⎦ 480 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios por lo que x4 = x3 , x1 = −x2 − x3 + x4 = −x2 ; esto es, la solución del sistema homogéneo es ⎡ ⎤ ⎡ ⎤ ⎤ ⎡ 0 −1 −s x1 ⎢ 0 ⎢ 1 ⎥ ⎢ x2 ⎥ ⎢ s ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ ⎢ ⎣ x3 ⎦ = ⎣ r ⎦ = s ⎣ 0 ⎦ + r ⎣ 1 1 0 r x4 ⎡ ⎤ ⎥ ⎥ ⎦ y entonces dim(E−2 ) = 2. Para λ2 = 1: ⎡ 0 ⎢ 0 A − I4 = ⎢ ⎣ 3 3 ⎡ 1 ⎢ 1 ∼⎢ ⎣ 0 0 ⎡ 1 ⎢ 0 ∼⎢ ⎣ 0 0 ⎡ 1 ⎢ 0 ∼⎢ ⎣ 0 0 ⎤ 3 0 0 −3 0 0 ⎥ ⎥ 3 0 −3 ⎦ 3 0 −3 ⎤ 1 0 −1 1 0 −1 ⎥ ⎥ 1 0 0 ⎦ −1 0 0 ⎤ 1 0 −1 0 0 0 ⎥ ⎥ 1 0 0 ⎦ −1 0 0 ⎤ 1 0 −1 1 0 0 ⎥ ⎥, 0 0 0 ⎦ 0 0 0 de donde x2 = 0, x1 = x4 ; por tanto, la solución del sistema homogéneo es ⎤ ⎡ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 0 1 r x1 ⎢ 0 ⎥ ⎢ 0 ⎥ ⎢ x2 ⎥ ⎢ 0 ⎥ ⎥ ⎢ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣ x3 ⎦ = ⎣ s ⎦ = r ⎣ 0 ⎦ + s ⎣ 1 ⎦ , 0 1 r x4 ası́ que dim(E1 ) = 2. Puesto que μa (λ1 ) = 2 = μg (λ1 ) y μa (λ2 ) = 2 = μa (λ2 ), A es diagonalizable y una diagonalización para esta matriz está dada por ⎤ ⎤ ⎡ ⎡ −2 0 0 0 −1 0 1 0 ⎢ 0 −2 0 0 ⎥ ⎢ 1 0 0 0 ⎥ ⎥. ⎥ ⎢ C=⎢ ⎣ 0 1 0 1 ⎦ y D=⎣ 0 0 1 0 ⎦ 0 0 0 1 0 1 1 0 Comprobación: ⎡ 1 3 0 0 ⎢ 0 −2 0 0 AC = ⎢ ⎣ 3 3 1 −3 3 3 0 −2 ⎡ 2 0 1 0 ⎢ −2 0 0 0 =⎢ ⎣ 0 −2 0 1 0 −2 1 0 Page (PS/TeX): 64 / 480, COMPOSITE ⎤⎡ −1 ⎥⎢ 1 ⎥⎢ ⎦⎣ 0 0 ⎤ ⎥ ⎥ ⎦ 0 0 1 1 1 0 0 1 ⎤ 0 0 ⎥ ⎥ 1 ⎦ 0 SECCIÓN 5.3 Valores y vectores propios, diagonalización 481 y ⎡ −1 ⎢ 1 CD = ⎢ ⎣ 0 0 ⎡ 2 ⎢ −2 =⎢ ⎣ 0 0 0 0 1 1 1 0 0 1 0 0 −2 −2 ⎤⎡ −2 0 0 ⎢ 0 −2 0 ⎥ ⎥⎢ 0 1 ⎦⎣ 0 0 0 0 ⎤ 1 0 0 0 ⎥ ⎥. 0 1 ⎦ 1 0 ⎤ 0 0 0 0 ⎥ ⎥ 1 0 ⎦ 0 1 Propiedades de matrices diagonalizables Sea A una matriz cuadrada de orden n que es diagonalizable, con diagonalización (C, D) y D = diag (λ1 , . . . , λn ). Entonces D = C−1 AC, de donde det(A) = det(D) = λ1 · · · λn ; esto es, el determinante de A es el producto de los valores propios de A. Por otro lado, D2 = (C−1 AC)(C−1 AC) = C−1 A2C, de donde se infiere, lo cual se puede probar por inducción, que Dm = C−1 AmC m para todo entero positivo m; y puesto que Dm = diag(λm 1 , . . . , λn ), se tiene m −1 Am = C diag(λm 1 , . . . , λn )C . Resumimos la información precedente en el siguiente teorema. Teorema 5.34 Si A es una matriz cuadrada de orden n que es diagonalizable con diagonalización (C, D), D = diag(λ1 , . . . , λn ), entonces λ1 , . . . , λn son los valores propios de A y 1. det(A) = λ1 · · · λn . (5.30) 2. Para todo entero positivo m, m −1 Am = C diag(λm 1 , . . . , λn )C . P Nota 5.12 En realidad mostraremos, en el siguiente apartado, que la igualdad (5.30) es válida para toda matriz A aunque ella nos sea diagonalizable (cfr. teorema 5.36, pág. 486); esto es, que el determinante de toda matriz cuadrada es el producto de los valores propios de la misma. Page (PS/TeX): 65 / 481, COMPOSITE 482 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 5.3.3 Valores propios complejos y diagonalización sobre C Valores propios complejos, propiedades Sabemos de educación elemental que las raı́ces de un polinomio no siempre son todas ellas números reales; de hecho, aun en casos muy simples, se obtienen raı́ces complejas. El campo C de números complejos contiene, algebraicamente, al campo R de los números reales mediante la inclusión a → a + 0i. Es entonces evidente que las matrices con entradas reales, Mm×n , pueden incluirse algebraicamente en el conjunto de matrices con entradas complejas, Mm×n (C), mediante la identificación antes mencionada de los números reales a con los números complejos de la forma a+0i. De esta manera podemos extender los conceptos de valores y vectores propios a este tipo de matrices para considerar los casos en los que el polinomio caracterı́stico tenga raı́ces complejas. Lejos de ser una simple generalización esta idea resulta sumamente útil tanto en aspectos teóricos como en aplicaciones y su uso, a estas alturas, es inevitable.29 Definición 5.24 (Valores propios complejos de una matriz) Sea A una matriz cuadrada de orden n con entradas complejas, i.e., A ∈ Mn (C). Se dice que λ ∈ C es un valor propio de A si existe un vector u ∈ Cn , u = (0, 0, . . . , 0), tal que Au = λu. En este caso, a u se le llama vector propio de A correspondiente a λ. n Todo lo que hemos desarrollado, relativo a valores y vectores propios de matrices cuadradas con componentes reales, sigue siendo válido para matrices cuadradas con entradas complejas simplemente considerando la definición 5.24 en lugar del caso particular de ésta contenido en la definición 5.19. Ejemplo 5.53 Sea A = 1 −1 1 2 . Encontrar los valores y vectores propios correspondientes de la matriz A. 1−λ det(A − λI2 ) = 1 −1 2−λ = (1 − λ)(2 − λ) + 1 = 2 − 3λ + λ2 + 1 = λ2 − 3λ + 3. Las raı́ces del polinomio caracterı́stico son entonces √ 3 ± 9 − 12 λ = 2 √ −3 3 = ± 2 2 √ 3i2 3 = ± 2 2 √ 3 3 i. = ± 2 2 1El lector que hasta aquı́ ha omitido las subsecciones 1.1.5, 1.2.8, 2.1.5, 2.2.5, 3.5 y la sección B.1 del apéndice B, éste es el momento para invertir un poco de tiempo en su estudio; el esfuerzo no será demasiado y bien valdrá la pena. 29 Page (PS/TeX): 66 / 482, COMPOSITE Valores y vectores propios, diagonalización 483 SECCIÓN 5.3 Ası́, los valores propios de A son λ1 = 32 + (A − λ j I2 )u = 0C = [ 0 0 ]t : • Para λ1 = 32 + √ 3 2 i y λ2 = 32 − √ 3 2 i. Resolvamos los sistemas homogéneos √ 3 2 i: 1 − 32 − 1 √ 3 2 i −1 √ 3 2 − 2 − 23 i − 12 − 1 = 3 2 i 1√ − 12 − 23 i ∼ ∼ √ 1 2 1 0 √ − 23 i 0 −1√ 3 1 2− 2 i 1 2 √ − 23 i −1 y por tanto, x y √ − 12 + 23 i r = r √ 3 1 − + 2 2 i =r . 1 Luego, los vectores propios correspondientes a λ1 son todos los vectores en C2 de la forma √ r − 12 + 23 i, 1 con r cualquier número complejo distinto de cero. • Para λ2 = 32 − √ 3 2 i: 1 − 32 + 1 √ 3 2 i −1 √ 2 − 32 + 23 i − 12 + 1 = ∼ 3 2 i 1√ 1 − 2 + 23 i ∼ √ 1 2 1 0 √ + 23 i 0 −1√ 3 1 + 2 2 i 1 2 √ + 23 i −1 por lo que x y = − 1 2 =s 1 2 + r √ √ + 23 i −1 3 2 i r . √ Entonces los vectores propios correspondientes a λ2 tienen la forma s 12 + 23 i, −1 con s ∈ C − {0}. 1 √3 3 √3 −2 + 2 i −2 + 2 i 1 −1 = y Comprobación: Para λ1 , √ 1 2 3 3 1 2+ 2 i Page (PS/TeX): 67 / 483, COMPOSITE 3 2 + √ 3 2 i − 12 + 1 √ 3 2 i = √ − 32 +√ 23 i 3 3 2+ 2 i . 484 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Para λ2 , 1 1 −1 2 1 2 + √ 3 2 i −1 3 2 − ⎡ i Ejemplo 5.54 Sea A = ⎣ 0 0 √ 3 2 i = √ −3 + 3i 2 √2 3 1 √ 3 2+ 2 i i 2 3 2 + −1 y = √ 3 2 i √ − 32 + 23 i 3 2 + . ⎤ −i i 1 1 ⎦. Encontrar: −1 1 1. Los valores propios de A. 2. Los vectores propios correspondientes a cada valor propio. 3. Los espacios propios y sus respectivas dimensiones. Solución 1. Valores propios: i−λ 0 0 −i 1−λ −1 i 1 1−λ = (i − λ)((1 − λ)(1 − λ) + 1) = (i − λ)(λ2 − 2λ + 2). Por tanto, λ=i y √ 2± 4−8 λ= √2 2 ± 4i2 = 2 = 1 ± i. Ası́ que los valores propios son λ1 = i, λ2 = 1 + i y λ3 = 1 − i. 2. Vectores propios. Para encontrar los vectores propios se tienen que encontrar las soluciones no triviales de los sistemas homogéneos (A − λ j I3 )u = 0C3 , para j = 1, 2, 3. λ1 = i: ⎡ 0 −i ⎣ 0 1−i 0 −1 y por tanto Page (PS/TeX): 68 / 484, COMPOSITE ⎤ ⎤ ⎡ 0 1 −1 + i i ⎦ 1 1 ⎦ ∼ ⎣ 0 1−i 0 −i i 1−i ⎤ ⎡ 0 1 −1 + i ∼ ⎣ 0 0 −2 − 2i ⎦ 0 0 −1 − i ⎤ ⎡ 0 1 −1 + i ∼ ⎣ 0 0 1+i ⎦; 0 0 0 ⎤ ⎡ ⎤ ⎤ ⎡ 1 r x ⎣ y ⎦ = ⎣ 0 ⎦ = r⎣ 0 ⎦. 0 0 z ⎡ SECCIÓN 5.3 Valores y vectores propios, diagonalización 485 Ası́ que los vectores propios correspondientes a λ1 tienen la forma (r, 0, 0) con r ∈ C − {0}. λ2 = 1 + i: ⎡ −1 −i ⎣ 0 −i 0 −1 ⎤ ⎤ ⎡ −1 −i i i −i 1 ⎦ 1 ⎦∼⎣ 0 0 −1 −i −i ⎤ ⎡ −1 −i i ∼ ⎣ 0 −i 1 ⎦ ; 0 0 0 por ende ⎤ ⎤ ⎡ ⎤ ⎡ (−1 + i) (−1 + i)r x ⎦. ⎦ = r⎣ ⎣ y ⎦=⎣ −i −ir 1 r z ⎡ Luego, los vectores propios correspondientes a λ2 tienen la forma r(−1 + i, −i, 1), con r ∈ C y r = 0. λ3 = 1 − i: ⎡ −1 + 2i ⎣ 0 0 ⎤ ⎡ −1 + 2i −i i 0 i 1 ⎦∼⎣ 0 −1 i −i i 0 ⎤ i 1 ⎦, 0 por lo que ⎤ ⎤ ⎡ ⎤ ⎡ (−1 + 3i) (−1 + 3i)r x ⎦. ⎦ = r⎣ ⎣ y ⎦=⎣ 5i 5ir 5 5r z ⎡ Entonces los vectores propios correspondientes a λ3 tienen la forma r(−1 + 3i, 5i, 5) con r ∈ C, r = 0. 3. Por lo precedente, Ei = gn((1, 0, 0)), E1+i = gn((−1 + i, −i, 1)), E1−i = gn((−1 + 3i, 5i, 5)); y por ende, dim(Ei ) = 1, dim(E1+i ) = 1, dim(E1−i ) = 1. Dado que un polinomio de grado n con coeficientes reales y/o complejos tiene n raı́ces complejas (recuerde que un número real se puede considerar como un número complejo), contando multiplicidades, se tiene la validez del siguiente teorema. Page (PS/TeX): 69 / 485, COMPOSITE 486 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Teorema 5.35 Sea A una matriz cuadrada de orden n (con componentes reales y/o complejas). Entonces A tiene exactamente n valores propios reales y/o complejos (contando multiplicidades, es decir raı́ces múltiples o repetidas del polinomio caracterı́stico). Ejemplo 5.55 1 0 1. Sea A = . Entonces 1 1 pA (λ) = det(A − λI2 ) 1−λ 0 = 1 1−λ = (1 − λ)(1 − λ) = 1 − λ2 . Entonces los valores propios de A son λ1 = λ2 = 1, raı́ces repetidas (λ = 1 es raı́z doble o de multiplicidad 2) del polinomio caracterı́stico. 2. Sea ⎡ 3 ⎢ −1 A=⎢ ⎣ −4 0 0 3 5 6 ⎤ 0 0 0 0 ⎥ ⎥. i 0 ⎦ −7 i Entonces det(A − λI4 ) = (3 − λ)2 (i − λ)2 . Luego, los valores propios de A son λ1 = 3, λ2 = 3, λ3 = i y λ4 = i. λ = 3 con multiplicidad 2 y λ = i con multiplicidad 2. Propiedades de los valores propios Los valores propios tienen propiedades algebraicas directamente relacionadas con la matriz de la cual provienen. Teorema 5.36 Sea A una matriz cuadrada de orden n (con entradas reales y/o complejas) y sean λ1 , λ2 , . . . , λn los valores propios de A (reales y/o complejos); es decir, las raı́ces del polinomio caracterı́stico consideradas con distintos subı́ndices aun si algunas coinciden; es decir, si son raı́ces múltiples del polinomio caracterı́stico. Sea30 pA (λ) = (−1)n λn + cn−1 λn−1 + · · · + c1 λ + c0 este polinomio. Entonces 1. c0 = det(A) = λ1 λ2 · · · λn . 2. tra(A) = λ1 + λ2 + · · · + λn . 1Cfr. teorema 5.29, página 467. 30 Page (PS/TeX): 70 / 486, COMPOSITE Valores y vectores propios, diagonalización 487 SECCIÓN 5.3 DEMOSTRACIÓN Q 1. Dado que λ j , j = 1, . . . , n, son las raı́ces del polinomio caracterı́stico, se tiene pA (λ) = (−1)n (λ − λ1 )(λ − λ2 ) · · · (λ − λn ) = (5.31) (λ1 − λ)(λ2 − λ) · · · (λn − λ), y ya que pA (λ) = det(A − λIn ), se sigue que c0 = det(A) = pA (0) = λ1 λ2 · · · λn . 2. Del teorema 5.29 sabemos que cn−1 = (−1)n−1 tra(A). Entonces pA (λ) = (−1)n λn + (−1)n−1 tra(A)λn−1 + cn−2 λn−2 + · · · + c1 λ + c0 . Al desarrollar el lado derecho de (5.31) y comparar con la precedente igualdad se obtiene (−1)n−1 tra(A) = (−1)n−1 (λ1 + λ2 + · · · + λn ) ; de donde tra(A) = λ1 + λ2 + · · · + λn . Ejemplo 5.56 Sea A= −1 2 1 1 Q , la matriz del ejemplo 5.53. Ahı́ vimos que los valores propios de A son λ1 = 32 + Entonces, de acuerdo con el teorema 5.36, √ √ det(A) = λ1 λ2 = 32 + 23 i 32 − 23 i 9 3 + 4 4 =3 = y tra(A) = λ1 + λ2 = 32 + √ 3 3 2 i+ 2 − √ 3 2 = 3. Comprobación: 1 det(A) = 1 −1 = 2 + 1 = 3, 2 tra(A) = a11 + a22 = 1 + 2 = 3. Page (PS/TeX): 71 / 487, COMPOSITE √ 3 2 i y λ2 = 32 − √ 3 2 i. 488 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios P Nota 5.13 1. Observe que si una matriz tiene componentes reales, su determinante y su traza son también números reales no importando si los valores propios son o no números complejos; sin embargo, el determinante es el producto de los valores propios y la traza es la suma de éstos. Entonces, aunque los valores propios de una matriz con componentes reales sean números complejos, su producto y suma son números reales como se ilustró en el ejemplo 5.56. ¡Sorprendente!, ¿verdad? En realidad no tanto, es un hecho conocido y fácil de probar, que las raı́ces complejas de polinomios con coeficientes reales aparecen en pares conjugados; i.e., si z = a + bi es raı́z, también z = a − bi es raı́z. Entonces, ya que el producto y la suma de números complejos son asociativos y conmutativos, podemos arreglar λ1 λ2 · · · λn y λ1 + λ2 + · · · + λn de tal suerte que pares conjugados estén uno tras otro; de esta forma, puesto que zz = a2 + b2 ∈ R y z + z = 2a ∈ R, λ1 λ2 · · · λn y λ1 + λ2 + · · · + λn serán números reales. 2. Por otro lado, si las componentes de la matriz son números complejos, entonces el determinante y la traza pueden o no ser números reales, y el polinomio caracterı́stico tendrá posiblemente coeficientes complejos. Sin embargo, sigue siendo válido que la suma y el producto de los valores propios son, respectivamente, la traza y el determinante de dicha matriz. Veamos esto con algunos casos particulares: con la información dada en el ejemplo 5.53, tra(A) = 2 + i = λ1 + λ2 + λ3 , det(A) = 2i = λ1 λ2 λ3 y pA (λ) = −λ3 + (2 + i) λ2 + (−2 − 2i) λ + 2i, como el lector fácilmente puede comprobar. Mientras que con los datos del inciso 5.55 del ejemplo 5.55, tra(A) = 6 + 2i y 1 i det(A) = −9. Y, finalmente, si A = , pA (λ) = λ2 − 2λ + 1, det(A) = 1, tra(A) = 2. 0 1 Diagonalización sobre el campo C Ya vimos que una matriz con componentes reales puede tener valores propios complejos; entonces no puede ser diagonalizable de acuerdo con la definición 5.22. Sin embargo, si se permite que los escalares y las componentes de los vectores propios sean números complejos en el sentido de la definición 5.24, es posible que este tipo de matrices sean “diagonalizables” en el campo C; esto es, que existan un par de matrices C, D, con componentes complejas, tales que C−1 AC sea una matriz diagonal. Ejemplo 5.57 Si A = 1 −1 2 −1 , entonces 2 −1 − λ 1−λ pA (λ) = −1 = −(1 − λ2 ) + 2 = λ2 + 1. Ası́ que los valores propios de A en C son λ1 = i y λ2 = −i. Para λ1 = i, 1−i −1 2 −1 − i ∼ 1+i 2 1 1−i ∼ por lo que los vectores propios para λ1 tienen la forma α Page (PS/TeX): 72 / 488, COMPOSITE −1 − i 1 , α ∈ C−{0}. 1 1+i 0 0 ; Valores y vectores propios, diagonalización 489 SECCIÓN 5.3 Para λ2 = −i, 1+i −1 2 −1 + i ∼ 1−i 2 1 1+i ∼ 1 1−i 0 0 ; luego los valores propios correspondientes a λ2 tienen la forma β Entonces, si C = −1 − i −1 + i 1 1 1 C AC = − 2i −1 =− 1 2i −1 + i 1 , β ∈ C−{0}. , se tiene C 1 −1 1−i −1 − i 1 −1 1−i −1 − i 0 −2 −1 = 1 −2i 1 −1 1−i i 1−i −1 − i 1 −1 2 −1 1+i −i y −1 − i −1 + i 1 1 1 2 =− 2i 0 1 −i 0 = 1 0 i i 0 = . 0 −i Es decir, C−1 AC = diag(i, −i). Es natural entonces extender el concepto de diagonalización sobre el campo C. Definición 5.25 Sea A ∈ Mn (C) una matriz cuadrada de orden n con entradas complejas. La matriz A es diagonalizable sobre el campo C si existe un par de matrices C, D ∈ Mn (C), con C una matriz invertible y D = diag(λ1 , . . . , λn ) una matriz diagonal, tales que D = C−1 AC. Al par (C, D) se le llama entonces una diagonalización para la matriz A. Toda la teorı́a relativa a la diagonalización que se desarrolló en el apartado 5.22 es válida para la diagonalización sobre el campo C y se transfiere directamente permitiendo que los escalares y las componentes de las matrices sean números complejos y que los vectores propios “habiten” en Cn . Ejemplo 5.58 Sea ⎡ i A=⎣ 0 0 −14 + 14i 2−i −2 − 2i ⎤ 7 + 7i −1 − i ⎦ . −1 + 2i Determinar si A es diagonalizable (en C). En caso afirmativo encontrar una diagonalización para A. Page (PS/TeX): 73 / 489, COMPOSITE 490 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios i−λ pA (λ) = 0 0 Solución = (i − λ) −14 + 14i 7 + 7i 2−i−λ −1 − i −2 − 2i −1 + 2i − λ 2−i−λ −1 − i −2 − 2i −1 + 2i − λ = (i − λ) ((2 − i − λ)(−1 + 2i − λ) − (−1 − i)(−2 − 2i)) = (i − λ) 5i − λ − iλ + λ2 − 4i = (i − λ)(λ2 − (1 + i)λ + i) = (i − λ)(λ − i)(λ − 1) = (λ − i)2 (1 − λ). Los valores propios distintos son entonces λ1 = i, λ2 = 1 con multiplicidades algebraicas μa (λ1 ) = 2 y μa (λ1 ) = 1. Resolvamos los sistemas (A − λ j I3 )u = 0R3 , j = 1, 2. Para λ1 : ⎡ 0 ⎣ 0 0 −14 + 14i 2 − 2i −2 − 2i ⎤ ⎡ 0 7 + 7i ← − − − − − − − − − → −1 − i ⎦ R2 ↔ −iR1 − iR2 ⎣ 0 0 −1 + i −2 + 2i 0 0 ⎤ 1+i 0 ⎦; 0 por lo que y = −(1 + i)(−2 + 2i)−1 z = 12 iz, y entonces ⎤ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 0 1 α x ⎣ y ⎦ = ⎣ iβ ⎦ = α ⎣ 0 ⎦ + β ⎣ i ⎦ ; α, β ∈ C. 2 0 2β z ⎡ Para λ2 : ⎡ i−1 ⎣ 0 0 ⎤ ⎡ i−1 −14 + 14i 7 + 7i ← − − − − − − − − → 1−i −1 − i ⎦ R3 ↔ 2iR2 + R3 ⎣ 0 0 −2 − 2i −2 + 2i− ⎤ −14 + 14i 7 + 7i 1−i −1 − i ⎦ , 0 0 por lo que y = (1 + i)(1 − i)−1 z = iz y x = ((14 − 14i)y + (−7 − 7i)z)(i − 1)−1 = ((14 − 14i)iz + (−7 − 7i)z)(i − 1)−1 = −7iz; es decir, ⎤ ⎤ ⎡ ⎤ ⎡ −7i −7iγ x ⎣ y ⎦ = ⎣ iγ ⎦ = γ ⎣ i ⎦ ; γ ∈ C. 1 γ z ⎡ Entonces μg (λ1 ) = dim(Ei ) = 2, μg (λ2 ) = dim(E1 ) = 1. Page (PS/TeX): 74 / 490, COMPOSITE Valores y vectores propios, diagonalización 491 SECCIÓN 5.3 Ya que μg (λ1 ) = 2 = μa (λ1 ) y μg (λ2 ) = 1 = μa (λ2 ), A es diagonalizable y una diagonalización para esta matriz es ⎤ 1 0 −7i i ⎦ C=⎣ 0 i 0 2 1 ⎡ ⎡ Comprobación: ⎡ i −14 + 14i 2−i AC = ⎣ 0 0 −2 − 2i ⎡ −1 0 −7i i = ⎣ 0 −i 0 −2 1 y y ⎤⎡ i 7 + 7i −1 − i ⎦ ⎣ 0 0 −1 + 2i ⎤ ⎤ 0 0 ⎦. 1 ⎤ 0 −7i −1 i ⎦ 2i 1 ⎦ ⎤ ⎤⎡ i 0 0 i 0 −7i i ⎦⎣ 0 i 0 ⎦ CD = ⎣ 0 −1 0 0 1 0 2i 1 ⎤ ⎡ −1 0 −7i −i i ⎦, =⎣ 0 0 −2 1 ⎡ lo cual implica que AC = CD; es decir, C−1 AC = D. Ejemplo 5.59 Sea A = i 0 D=⎣ 0 i 0 0 i 0 1 i . Determinar si A es diagonalizable. i−λ pA (λ) = 0 Solución 1 = (i − λ)2 . i−λ Entonces los valores propios de A son λ = λ1 = λ2 = i con multiplicidad algebraica μa (λ) = 2. Puesto que 0 1 A − λI2 = , 0 0 los vectores propios de λ están dados por x y =α 1 0 , α ∈ C − {0}. Por lo que dim(Ei ) = 1; y por tanto, μa (λ) = μg (λ), ası́ que A no es diagonalizable. 5.3.4 Operadores autoadjuntos y matrices simétricas En la práctica difı́cilmente podremos evitar encontrar matrices reales que tengan valores propios complejos; sin embargo, existe un tipo especial de matrices para las cuales todos los valores propios son Page (PS/TeX): 75 / 491, COMPOSITE 492 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios números reales. Éstas son las matrices simétricas, que aparecen con mucha frecuencia en aplicaciones. El objetivo de este último apartado es probar que efectivamente los valores propios de cualquier matriz simétrica en R son números reales y, más aún, que toda matriz simétrica con componentes reales es diagonalizable. Para alcanzar este fin, de la manera más breve y directa, necesitamos trabajar en espacios complejos y extender el concepto de producto interior a este tipo de espacios. Invitamos nuevamente al lector a consultar los apartados 1.1.5, 1.2.8, 2.1.5, 2.2.5, 3.5 y la sección B.1 del apéndice B para la mejor comprensión de este segmento. Definición 5.26 Sea E un espacio vectorial sobre el campo de los números complejos. Un producto interior (o producto escalar) en E es una función que a cada par de vectores u,v ∈ E les asigna un número complejo denotado por u,v, tal que: 1. u,v = v,u, ∀u,v ∈ E. 2. u,v + w = u,v + u,w, ∀u,v,w ∈ E. 3. αu,v = α u,v, ∀u,v ∈ E, ∀α ∈ C. 4. u,u ≥ 0, ∀u ∈ E. 5. u,u = 0 ⇔ u = 0E . Observe que la definición 5.26 es exactamente la misma que la definición 4.1 (cfr. pág. 236) de producto interior en espacios reales salvo la propiedad 1 que difiere de la propiedad de simetrı́a en espacios reales; pues en la propiedad 1 del producto interior en espacios complejos está involucrado el conjugado de un número complejo.31 Por esta razón es que la definición precedente tiene como caso particular a la definición 4.1 al restringirse a espacios reales; pues z = z¯ si z ∈ R. P Nota 5.14 1. Si u = (z1 , . . . , zn ) ∈ Cn , utilizaremos la notación u para representar el vector de Cn que tiene por componentes los conjugados de las componentes del vector u; i.e., u = (¯ z1 , . . . , z¯n ). De manera análoga, si A ∈ Mm×n (C) es una matriz, representamos a la matriz cuyas componentes son los conjugados de la matriz A por el sı́mbolo A. 2. Es fácil mostrar que si A ∈ Mm×n (C) y u ∈ Cn , entonces Au = Au. Lo cual se deja de ejercicio al lector. 3. Si A es una matriz con componentes reales, es evidente que A = A. Ejemplo 5.60 No es difı́cil probar que si se define para cada u = (z1 , . . . , zn ) ∈ Cn y v = (w1 , . . . , wn ) ∈ Cn , u,v = u ·v = n ∑ z jw j, j=1 entonces u,v es un producto interior en Cn . Se le llama el producto interior canónico en Cn . Utilizando la notación que convenimos en 5.14, este producto interior se puede escribir como el producto matricial u,v = u tv. 1Recuerde que si z = a + bi ∈ C, el conjugado de z es z¯ = a − bi. 31 Page (PS/TeX): 76 / 492, COMPOSITE SECCIÓN 5.3 Valores y vectores propios, diagonalización 493 Ejemplo 5.61 ⎤ 2+i 1 i ]⎣ 1 ⎦ i ⎤ ⎡ 2−i 1 i ]⎣ 1 ⎦ −i ⎡ (1 − i, 1, i), (2 + i, 1 + i, 2) = [ 1 − i = [ 1−i = (1 − i)(2 − i) + (1)(1) + (i)(−i) = 3 − 3i. Ejemplo 5.62 En Mm×n (C) se define, para cada A, B ∈ Mm×n (C), A, B = tra(B̄ t A). Se puede probar, de manera análoga a como se hizo en el caso real (cfr. ejemplo 4.8 pág. 242), que éste es un producto interior en Mm×n (C). Hay una pequeña, pero notable caracterı́stica del producto interior en espacios complejos que es importante que el lector tenga presente; la primera propiedad del siguiente teorema, cuya demostración es sencilla, se deja como ejercicio al lector. Teorema 5.37 Sea E un espacio complejo y ·, · un producto interior en este espacio. Entonces 1. u, αv = α u,v para todo α ∈ C y para todo par de vectores u,v ∈ E. 2. u +v,w = u + w,v + w ∀u,v,w ∈ E. Definición 5.27 Si E es un espacio vectorial complejo con producto interior ·, ·, se define, para cada u ∈ E, u = u,u1/2 y se le llama la norma del vector u inducida por el producto interior. Se puede probar, de manera análoga al caso real, que el producto interior en un espacio vectorial complejo satisface la desigualdad de Schwarz, |u,v| ≤ u v ∀u,v ∈ E, y que la norma inducida es en efecto una norma en el sentido de la definición 4.11. Se define ortogonalidad de manera análoga al caso real; esto es, dos vectores son ortogonales si su producto interior es nulo. Para abreviar diremos que un espacio vectorial real o complejo con producto interior ·, · definido en él es un espacio euclidiano. El teorema de ortogonalización de Gram-Schmidt es también válido en espacios euclidianos complejos. Si E es un espacio complejo, como en el caso real, un operador lineal en él es una transformación T : E → E que satisface: • T (u + v) = T (u) + T (v) ∀u,v ∈ E. • T (αu) = αT (u) ∀u ∈ E, ∀α ∈ C. Page (PS/TeX): 77 / 493, COMPOSITE 494 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Los operadores lineales en espacios complejos tienen las mismas propiedades que los operadores lineales en espacios reales, pero trabajando con escalares complejos; ası́ que haremos uso libre de éstas en todo lo que sigue. En el caso de espacios euclidianos, los valores propios y vectores propios correspondientes de un operador lineal están relacionados con el producto interior, como hacemos patente en la siguiente proposición. Teorema 5.38 Sean E un espacio euclidiano y T : E → E un operador lineal. Si λ es un valor propio de T con vector propio correspondiente u, entonces λ= DEMOSTRACIÓN T (u),u u2 . (5.32) T (u),u = λu,u Q de donde se tiene (5.32). = λ u,u , Q Definición 5.28 Sea E un espacio euclidiano. Se dice que un operador lineal T : E → E es autoadjunto (o hermitiano) si T (u),v = u, T (v) ∀u,v ∈ E. Ejemplo 5.63 Sea A ∈ Mn una matriz simétrica con componentes reales, entonces TA , con TA (u) = Au ∀u ∈ Cn , es un operador autoadjunto en Cn con el producto interior canónico en este espacio (cfr. ejemplo 5.60). En efecto, como A es simétrica, At = A; y como A es real , A = A; luego TA (u),v = (TA (u))t v = (Au)tv = (u)t Atv = (u)t Av = u t Av = u t Av = u, Av = u, TA (v) . Mostremos a continuación que los valores propios de un operador autoadjunto y, en particular, de una matriz real simétrica, son todos números reales. Teorema 5.39 1. Sean E un espacio euclidiano y T : E → E un operador lineal autoadjunto. Si λ es un valor propio de T , entonces λ es real. 2. Sea A una matriz simétrica cuyas componentes son números reales, entonces los valores propios de A son (todos) números reales. Page (PS/TeX): 78 / 494, COMPOSITE SECCIÓN 5.3 DEMOSTRACIÓN Valores y vectores propios, diagonalización 495 Q 1. Sea λ un valor propio de T con vector propio correspondiente u ∈ E, entonces, por (5.32) del teorema 5.38, λ= = = T (u),u u2 u, T (u) u2 T (u),u u2 = λ. Puesto que λ = λ se concluye32 que λ ∈ R. 2. Por el ejemplo 5.63, el operador TA es autoadjunto y tiene los mismos valores propios que A; ası́ que esta afirmación es consecuencia del inciso precedente. (Recuerde que una matriz cuadrada de orden n tiene n valores propios en C contando multiplicidades.) Q ⎡ 1 Ejemplo 5.64 Sea A = ⎣ −1 2 ⎤ −1 2 −1 1 ⎦. El lector puede verificar, efectuando el cálculo, que 1 2 pA (λ) = λ3 − 2λ2 − 7λ + 5. Haciendo división sintética o evaluando es fácil comprobar que ±1 y ±5 no son raı́ces enteras de este polinomio; ası́ el polinomio caracterı́stico no tiene raı́ces racionales. Sin embargo, puesto que A es simétrica, todos sus valores propios deben ser reales, como se hace patente en la figura 5-5. 10 5 pA (λ) λ1 λ3 0 λ2 _5 _10 _15 _20 _3 _2 _1 0 1 2 3 4 Figura 5-5 • Gráfica del polinomio caracterı́stico pA (λ) que interseca al eje x en tres puntos: los valores caracterı́sticos de la matriz A. Aunque no es simple calcular estos valores en forma exacta, existen y son números reales por ser la matriz simétrica. Una propiedad trascendente de los operadores autoadjuntos es que los vectores propios que corresponden a valores propios distintos de este tipo de operadores son ortogonales. Probamos a continuación este importante resultado. 1z = a + bi = z = a − bi ⇒ 2bi = 0 ⇒ b = 0 ⇒ z = a ⇒ z ∈ R. 32 Page (PS/TeX): 79 / 495, COMPOSITE 496 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Teorema 5.40 Sean E un espacio euclidiano y T : E → E un operador lineal autoadjunto. Si λ1 y λ2 son valores propios diferentes de T con vectores propios correspondientes u y v, respectivamente, entonces u y v son ortogonales; esto es, u,v = 0. DEMOSTRACIÓN Q Como T es autoadjunto, por el inciso 5.39 del teorema 5.39, λ1 , λ2 ∈ R. Entonces λ1u,v = T (u),v = u, T (v) = u, λ2v = λ̄2 u,v = λ2 u,v , de donde λ1 u,v = λ2 u,v ; y por tanto, (λ1 − λ2 ) u,v = 0; y ya que λ1 = λ2 , se tiene u,v = 0. Q Mostramos a continuación el resultado más importante de esta sección y que tiene como caso particular el hecho de que toda matriz real simétrica es diagonalizable. Teorema 5.41 Sean E un espacio euclidiano de dimensión finita y T : E → E un operador lineal autoadjunto. Entonces existe una base ortonormal del espacio E formada por vectores propios de T . En particular, en virtud del teorema 5.25, T es diagonalizable. DEMOSTRACIÓN Q Procederemos por inducción sobre la dimensión del espacio E. Si n = 1, sea u ∈ E con u = 1; entonces B = {u} es una base ortonormal de E y T (u) = λu para algún escalar λ ∈ R; por lo que u es un vector propio de T . Supongamos que el resultado es cierto para cualquier espacio vectorial de dimensión n − 1. Sea λ1 un valor propio de T (λ1 existe porque E tiene dimensión finita y es real porque T es autoadjunto) y sea u1 ∈ E un vector propio correspondiente con u1 = 1. Sean S = gn(u1 ) y S⊥ = {v ∈ E | v,u1 = 0}. Es decir, S⊥ es el complemento ortogonal de S. Es fácil probar que S⊥ es un subespacio33 de E. Completemos34 la base B a una base ortonormal {u1 ,v2 , . . . ,vn } de E (si es necesario se debe aplicar el 1Cfr. ejercicio propuesto 95 del capı́tulo 4. 1Cfr. el procedimiento dado para este fin en la página 167. 33 34 Page (PS/TeX): 80 / 496, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 497 proceso de ortogonalización de Gram-Schmidt en esta construcción). Sean v ∈ S⊥ y α1 , α2 , . . . , αn escalares tales que v = α1u1 + α2v2 + · · · + αnvn , entonces 0 = v,u1 = α1 u1 ,u1 + α2 v2 ,u1 + · · · + αn vn ,u1 = α1 , pues {u1 ,v2 , . . . ,vn } es ortonormal. Entonces v = α2v2 + · · · + αnvn ; y puesto que los vectores v j ∈ S⊥ ({u1 ,v2 , . . . ,vn } son un conjunto ortonormal y por tanto, (vi ⊥ u1 ∀ j), se concluye que S⊥ = gn(v2 , . . . ,vn ); y ya que los vectores v j son L.I., se tiene dim(S⊥ ) = n − 1. Si v ∈ S⊥ , entonces v,u1 = 0; y dado que T es autoadjunto, u1 , T (v) = T (u1 ),v = λ1u1 ,v = λ1 u1 ,v = 0, ası́ que T (v) ∈ S⊥ ; por lo que T es un operador lineal autoadjunto en el espacio vectorial S⊥ de dimensión n − 1. Por hipótesis de inducción existe una base ortonormal de vectores propios de T para este espacio, digamos {u2 , . . . ,un }. Entonces {u1 ,u2 , . . . ,un } es una base ortonormal de vectores propios para E. Q Como corolario a este teorema tenemos el resultado final de este capı́tulo. Teorema 5.42 Si A es una matriz simétrica real, entonces A es diagonalizable. DEMOSTRACIÓN Q Puesto que A es una matriz simétrica con componentes reales, entonces, por el ejemplo 5.63, el operador lineal TA es autoadjunto y la afirmación es consecuencia inmediata del teorema 5.41. Q 5.4 Ejercicios resueltos y ejercicios propuestos 5.4.1 Ejercicios resueltos Transformaciones lineales 11 Sean E un espacio vectorial de dimensión finita n y F un espacio vectorial arbitrario. Probar que si {e1 , . . . ,en } es una base de E y f1 , . . . , fn son vectores cualesquiera en F, entonces existe una única transformación lineal T : E → F tal que T (ei ) = fi para cada i = 1, . . . , n. Page (PS/TeX): 81 / 497, COMPOSITE 498 CAPÍTULO 5 DEMOSTRACIÓN Transformaciones lineales, valores y vectores propios Q Sea u ∈ E cualquier vector; dado que {e1 , . . . ,en } es una base de E, existen escalares únicos αi tales que u = ∑ni=1 αiei . Se define T : E → F como n T (u) = ∑ αi fi . i=1 Por la unicidad de los escalares se tiene que la transformación T está bien definida. Entonces (a) Claramente T (ei ) = fi para todo i = 1, . . . , n. (ei = 0e1 + · · · + 0ei−1 + 1ei + 0ei+1 + · · · + 0en ) (b) Si a, b ∈ R y u = ∑ni=1 αiei , v = ∑ni=1 βiei son un par de vectores en E, n n a ∑ αiei + b ∑ βiei T (au + bv) = T i=1 i=1 n n i=1 i=1 ∑ aαiei + ∑ bβiei =T n ∑ (aαiei + bβiei ) =T i=1 n ∑ (aαi + bβi )ei =T i=1 n = ∑ (aαi + bβi ) fi i=1 n n = a ∑ αi fi + b ∑ βi fi i=1 i=1 = aT (u) + bT (v). Por tanto, T ∈ L (E, F). (c) Sea T1 ∈ L (E, F) tal que T1 (ei ) = fi para todo i = 1, . . . , n. Si u = ∑ni=1 αiei es cualquier vector de E, entonces T1 (u) = T1 n ∑ αiei i=1 n = ∑ αi T1 (ei ) i=1 n = ∑ αi fi i=1 = T (u); y por tanto, T = T1 . Q 12 Encontrar la transformación lineal T : P2 → P1 tal que T (1) = 0, T (x) = 1 y T (x2 ) = 2x. El conjunto {1, x, x2 } es una base de P2 , por el ejercicio precedente T : P2 → P1 definida, para cada a + bx + cx2 ∈ P2 , por Solución Page (PS/TeX): 82 / 498, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 499 T (a + bx + cx2 ) = a · 0 + b · 1 + c · 2x = b + 2cx es lineal. Note que T (p) = p . 13 (Transformación rotación). Encontrar la transformación lineal T : R2 → R2 que a cada vector u lo transforme en el vector que se obtiene girando 45◦ a u en sentido contrario a las manecillas del reloj y que tiene la misma norma de u. √ √ √ √ Por el ejercicio 1, T : R2 → R2 , con T (1, 0) = ( 2/2, 2/2), T (0, 1) = (− 2/2, 2/2) y si (x, y) ∈ R2 , Solución √ √ √ √ T (x, y) = x( 2/2, 2/2) + y(− 2/2, 2/2) √ 2 (x − y, x + y) = 2 es una transformación lineal. Sea w = T (x, y) = √ 2 2 (x − y, x + y), entonces √ 2 (x − y, x + y) w = 2 √ 2! 2 = 2(x + y2 ) 2 ! = x2 + y2 = u , √ 2 (x − y, x + y) u · w = (x, y) · 2 √ 2 = (x, y) · (x − y, x + y) √2 2 2 = (x + y2 ); 2 y por tanto u · w = u v √ 2 2 2 2 (x + y ) 2 2 x +y √ 2 . = 2 Ası́ que el ángulo entre u y su imagen w = T (u) es √ 2 φ = arc cos 2 = 45◦ . 14 Sean E y F espacios vectoriales, con dim(E) = n, y f1 , . . . , fm vectores dados de F. Probar que existe una transformación lineal T : E → F cuya imagen está generada por los vectores f1 , . . . , fm . Page (PS/TeX): 83 / 499, COMPOSITE 500 CAPÍTULO 5 DEMOSTRACIÓN Transformaciones lineales, valores y vectores propios Q Sea {e1 , . . . ,en } una base de E. (a) Si n ≤ m, por el ejercicio 1 existe una transformación lineal T : E → F tal que T (ei ) = fi para cada i = 1, . . . , n. Por el teorema 5.7 (cfr. pág. 429), dado que los vectores ei generan a E, los vectores T (ei ) = fi , i = 1, . . . , n, generan la imagen de T ; por tanto, también los vectores fi , i = 1, . . . , m. (b) Si n > m, sean f j = 0F para j = m + 1, . . . , n; por el ejercicio 1 existe una transformación lineal T : E → F tal que T (ei ) = fi para i = 1, . . . , n. Puesto que los vectores ei generan a E, por el teorema 5.7, los vectores fi , i = 1, . . . , n, generan a la imagen de T y, por tanto, también los vectores fi , i = 1, . . . , m. Q 15 Encontrar una transformación lineal T : R3 → R3 tal que su imagen esté generada por los vectores (−1, 2, 1) y (1, 1, 3). Solución Sean T (1, 0, 0) = (−1, 2, 1), T (0, 1, 0) = (1, 1, 3) y T (0, 0, 1) = (0, 0, 0). Se define entonces T (x, y, z) = xT (1, 0, 0) + yT (0, 1, 0) + zT (0, 0, 1) = x(−1, 2, 1) + y(1, 1, 3) + z(0, 0, 0) = (−x + y, 2x + y, x + 3y) Por el ejercicio T es lineal y su imagen está generada por los vectores (−1, 2, 1) y (1, 1, 3). 16 Sean E y F espacios vectoriales. Si la dimensión de E es infinita y T ∈ L (E, F), probar que por lo menos uno de los subespacios Ker(T ) o T (E) tiene también dimensión infinita. DEMOSTRACIÓN Q Suponga que ambos subespacios tienen dimensión finita. Sean {e1 , . . . ,er } y {T (f1 ), . . . , T (fm )} bases de Ker(T ) y T (E), respectivamente. Sea u ∈ E cualquier vector, entonces existen escalares βi tales que T (u) = ∑m u − ∑m u − ∑m i=1 βi T ( f i ), y por tanto, T ( i=1 βi f i ) = 0F ; ası́ que i=1 βi f i ∈ Ker(T ); luego existen m r escalares αi tales que u − ∑i=1 βi fi = ∑i=1 αiei y por ende, r m i=1 i=1 u = ∑ αiei + ∑ βi fi . De donde se concluye que E está generado por los vectores e1 , . . . ,er , f1 , . . . , fm ; lo cual es una contradicción a la hipótesis de que E tiene dimensión infinita. Por tanto, uno de los dos subespacios, al menos, debe tener dimensión infinita. Q 17 Sea f ∈ C[a, b] y g(x) = a b f (t) cos(x − t)dt para cada x ∈ [a, b]. (a) Mostrar que g ∈ C[a, b]. (b) Sea T : C[a, b] → C[a, b] definido, para cada f ∈ C[a, b], por la función T ( f ) donde T ( f )(x) = b a para cada x ∈ [a, b]. Demostrar que T es lineal. Page (PS/TeX): 84 / 500, COMPOSITE f (t) cos(x − t)dt SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 501 (c) Encontrar una base y la dimensión de la imagen de T . (d) Determinar la dimensión del núcleo de T . Solución (a) Para todo x ∈ [a, b], g(x)= = b a g(x)= ( b a a f (t) cos(x − t)dt f (t)(cos x cos t + sen x sen t)dt b f (t) cos t dt) cos x + ( b a es decir, f (t)sen t dt)sen x (5.33) y, por tanto, dado que las funciones y = cos x y y = sen x son continuas en todo punto, se tiene que g ∈ C[a, b]. (b) Sean f1 , f2 ∈ C[a, b] y α, β ∈ R, entonces, para todo x ∈ C[a, b], T (α f1 + β f2 )(x) = = = b a b a b a =α (α f1 + β f2 )(t) cos(x − t)dt (α f1 (t) + β f2 (t)) cos(x − t)dt α f1 (t) cos(x − t)dt + b a b a f1 (t) cos(x − t)dt + β β f2 (t) cos(x − t)dt b a f2 (t) cos(x − t)dt = αT ( f1 )(x) + βT ( f2 )(x); por tanto, T (α f1 + β f2 ) = αT ( f1 ) + βT ( f2 ). Lo cual prueba la linealidad de T . (c) Sea f ∈ C[a, b] y g = T ( f ), entonces por (5.33) g(x) = α cos x + β sen x donde α = a b f (t) cos t dt y β = a b ∀x ∈ [a, b] f (t) sen t dt. Por tanto, T (C[a, b]) = gn(cos x, sen x); y ya que las funciones seno y coseno son L.I. en C[a, b], se desprende que dim(T (C[a, b])) = 2. (d) Puesto que C[a, b] es un espacio vectorial de dimensión infinita y dim(T (C[a, b])) = 2, del ejercicio 6 se concluye que la dimensión de T (E) es infinita. 18 Sean E, F un par de espacios vectoriales. Probar que si T ∈ L (E, F) y V < F, entonces la imagen inversa de V bajo la transformación T , esto es T −1 (V ) = {u ∈ E | T (u) ∈ V }, es un subespacio de E. Page (PS/TeX): 85 / 501, COMPOSITE 502 CAPÍTULO 5 DEMOSTRACIÓN Transformaciones lineales, valores y vectores propios Q Dado que V < F, 0F ∈ V y puesto que T (0E ) = 0F , se tiene 0E ∈ T −1 (V ). Sean α, β ∈ R y u1 ,u2 ∈ T −1 (V ), entonces, ya que V < F, T (αu1 +βu2 ) = αT (u1 )+βT (u2 ) ∈ V . Por tanto, αu1 +βu2 ∈ T −1 (V ). Luego T −1 (V ) < E. Q 19 Sean E un espacio vectorial de dimensión finita n y H < E. Se dice que H es un hiperplano de E si dim(H) = n − 1. Probar que las siguientes condiciones son equivalentes a pares respecto a cualquier subespacio H de E: (a) H es un hiperplano de E. (b) Existe f ∈ L (E, R), una forma lineal no nula, tal que Ker( f ) = H. (c) Para toda base ordenada (e1 , . . . ,en ) de E, existen escalares α1 , . . . , αn , no todos cero, tales que α1 x1 + α2 x2 + · · · + αn xn = 0 es una ecuación implı́cita de H; es decir, (x1 , x2 , . . . , xn ) ∈ Rn es solución de esta ecuación si y sólo si u = ∑ni=1 xien ∈ H. DEMOSTRACIÓN Q (a) ⇒ (b) Sea {u1 , . . . ,un−1 } una base de H. Por el procedimiento dado en el apartado de la página 167 se puede completar ésta a una base {u1 , . . . ,un−1 ,un } del espacio E. Por el ejercicio resuelto 1 existe una transformación lineal f : E → R tal que f (uk ) = 0 para k = 1, . . . , n − 1 y f (un ) = 1. Entonces f = θ, la transformación constante cero, y n u = ∑ aiui ∈ Ker( f ) ⇔ i=1 0 = f (u) = n−1 ∑ ai f (ui ) + an f (un ) i=1 = an f (un ) = an ⇔ u ∈ H. Luego Ker( f ) = H. (b) ⇒ (c) Sea (e1 , . . . ,en ) una base ordenada de E. Sean αi = f (ei ), i = 1, . . . , n; dado que f no es nula, alguno de los αi debe ser distinto de cero. Si u = ∑ni=1 xiei , entonces f (u) = α1 x1 + α2 x2 + · · · + αn xn ; luego u ∈ Ker( f ) = H ⇔ α1 x1 + α2 x2 + · · · + αn xn = 0. (c) ⇒ (a) Sean (e1 , . . . ,en−1 ,en ) una base ordenada de E y αi , i = 1, . . . , n, escalares no todos nulos tales que n u = ∑ xiei ∈ H ⇔ α1 x1 + α2 x2 + · · · + αn xn = 0. i=1 Page (PS/TeX): 86 / 502, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 503 Se puede suponer, sin perder generalidad, que αn = 0. Sea u = ∑ni=1 xiei ∈ H, entonces xn = − 1 n−1 ∑ αi xi αn i=1 y por tanto u = x1e1 + · · · + xn−1en−1 + xnen 1 n−1 ∑ αi xien αn i=1 α1 αn−1 = x1e1 + · · · + xn−1en−1 − ( x1 + · · · + xn−1 )en αn αn α1 α2 αn−1 = x1 (e1 − en ) + x2 (e2 − en ) + · · · + xn−1 (en−1 − en ), αn αn αn = x1e1 + · · · + xn−1en−1 − luego H = gn(f1 , . . . , fn−1 ) donde fk =ek − αk ek αn para k = 1, . . . , n − 1. Si βk ∈ R son n − 1 escalares tales que β1 f1 + · · · + βn−1 fn−1 = 0E , entonces 0E = β1e1 − β1 α1 en + β2e2 − β2 α2 en + · · · + βn−1en−1 − βn−1 αn−1 en αn αn αn = β1e1 + · · · + βn−1en−1 + (− 1 n−1 ∑ βi αi )en αn i=1 y ya que los vectores ei , i = 1, . . . , n, son L.I., se debe tener β1 = · · · = βn−1 = 0 Por tanto los vectores f1 , . . . , fn−1 forman una base para H. Luego dim(H) = n − 1 por ende H es un hiperplano de E. Q 10 Demostrar que si T : Rn → Rn es un operador lineal invertible, A ∈ Mn es su representación matricial re- lativa a la base canónica de Rn y T −1 es su operador inverso, entonces A es invertible y la representación matricial de T −1 relativa a la base canónica de Rn es A−1 . DEMOSTRACIÓN Q Por el teorema 5.9 A es invertible. Sea v ∈ Rn , puesto que T es suprayectivo (ya que es invertible), existe u ∈ Rn tal que T (u) =v. Entonces Page (PS/TeX): 87 / 503, COMPOSITE 504 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios A−1v = A−1 (Au) = Inu = u = T −1 (v). Q 11 Sea T : R2 → R2 la aplicación definida por T (x, y) = (x − y, x + y) (a) Probar que T es un operador lineal. (b) Mostrar que T es invertible. (c) Hallar T −1 . DEMOSTRACIÓN 1 1 1 −1 Q (a) T (1, 0) = (1, 1), T (0, 1) = (−1, 1). Si A = 1 1 1 −1 x y = , entonces x+y x−y = T (x, y); es decir, TA (x, y) = T (x, y) para todo (x, y) ∈ R2 ; por tanto, T es lineal y A es la representación matricial de T relativa a la base canónica de R2 . 1 1 1 1 (b) ∼ ∼ I2 1 −1 0 −2 Por lo que A es invertible y por tanto T también (cfr. 5.9). (c) Por el ejercicio anterior, A−1 = − 1 2 −1 −1 −1 1 es la representación matricial de T −1 ; entonces, T −1 1 (x, y) = − 2 1 = para todo (x, y) ∈ R2 . −1 −1 1 2x+ 2y 1 1 2x− 2y −1 1 x y Q 12 Sean T1 , T2 un par de operadores lineales en un espacio vectorial E. Se define la composición del opera- dor T2 con el operador T1 , T2 ◦ T1 , como la función T2 ◦ T1 : E → E definida, para todo u ∈ E, por (T2 ◦ T1 )(u) = T2 (T1 (u)). Probar que T2 ◦ T1 es también un operador lineal. La composición T2 ◦ T1 también se denota por T2 T1 ; i.e., T2 T1 = T2 ◦ T1 . Page (PS/TeX): 88 / 504, COMPOSITE SECCIÓN 5.4 DEMOSTRACIÓN Ejercicios resueltos y ejercicios propuestos 505 Q Sean u,v ∈ E vectores arbitrarios y α, β cualquier par de escalares. Entonces (T2 ◦ T1 )(αu + βv) = T2 (T1 (αu + βv)) = T2 (αT1 (u) + βT1 (v)) = αT2 (T1 (u)) + βT2 (T1 (v)) = α(T2 ◦ T1 )(u) + β(T2 ◦ T1 )(v). Q 13 Sean T1 , T2 : E → E dos operadores lineales, demostrar lo siguiente. (a) Si T1 y T2 son inyectivos, entonces T2 T1 y T1 T2 también son inyectivos. (b) Si T1 T2 no es inyectivo, entonces al menos uno de los operadores T1 , T2 no es inyectivo. (c) Si además T1 , T2 son suprayectivos y uno de ellos (al menos) no es inyectivo, entonces T1 T2 y T2 T1 no son inyectivos. DEMOSTRACIÓN Q (a) Sea u ∈ Ker(T2 T1 ), entonces 0E = (T2 T1 )(u) = T2 (T1 (u)) y puesto que T2 es inyectivo, se debe tener T1 (u) = 0E ; y ya que este último operador también es inyectivo, se concluye u = 0E y, por tanto, Ker(T2 T1 ) = {0E }. Análogamente se demuestra la igualdad Ker(T1 T2 ) = {0E }, lo cual prueba que T2 T1 y T1 T2 son inyectivos. (b) Si T1 y T2 son inyectivos, por el inciso anterior, T1 T2 es inyectivo; lo cual es una contradicción. Por lo que uno de los dos operadores, por lo menos, no es inyectivo. (c) Se prueba que T1 T2 no es inyectivo, la demostración de que T2 T1 no es inyectivo es entonces inmediata por simetrı́a. (i) Si T2 no es inyectivo, existe u ∈ E − {0E } tal que T2 (u) = 0E ; entonces (T1 T2 )(u) = T1 (T2 (u)) = T1 (0E ) = 0E y por tanto T1 T2 no es inyectivo. (ii) Si T1 no es inyectivo, existe w ∈ E − {0E } tal que T1 (w) = 0E . Ya que T2 es suprayectivo, existeu ∈ E con T2 (u) = w; y como T2 es lineal y w =0E , se desprende queu =0E . Entonces (T1 T2 )(u) = T1 (T2u) = T1 (w) = 0E . De donde se concluye que T1 T2 no es inyectivo. Q 14 Sean E un espacio vectorial e I : E → E el operador lineal identidad; i.e., I(u) = u para todo u ∈ E (cfr. ejemplo 5.8). Probar que un operador lineal T en E es invertible si y sólo si existe un operador lineal T1 en E tal que T1 ◦ T = I = T ◦ T1 . En tal caso T1 = T −1 . Page (PS/TeX): 89 / 505, COMPOSITE 506 CAPÍTULO 5 DEMOSTRACIÓN Transformaciones lineales, valores y vectores propios Q Si se supone que T es no singular (invertible), entonces claramente T1 = T −1 satisface la condición T1 ◦ T = I = T ◦ T1 . Suponga que existe T1 ∈ L (E, E) con T1 ◦ T = I = T ◦ T1 . Si u ∈ Ker(T ), entonces u = I(u) = T1 (T (u)) = T1 (0E ) = 0E y por tanto, Ker(T ) = {0E }; luego T es inyectiva. Si v ∈ E, sea u = T1 (v), entonces T (u) = T (T1 (v)) = I(v) =v por ende T es suprayectiva. Ası́, T es biyectiva y por tanto invertible. Debido a la unicidad de T −1 se tiene T −1 = T1 . Q 15 Sean E un espacio vectorial y T un operador lineal en él. Se representan por T 2 el operador composición de T consigo mismo; i.e., T 2 = T ◦ T (cfr. el ejercicio resuelto 12 de esta sección) y por I el operador identidad, I(u) = u para todo u ∈ E. Si T 2 = I y T = ±I probar lo siguiente: (a) Existe v ∈ E − {0E } tal que T (v) =v. (b) Existe w ∈ E − {0E } tal que T (w) = −w. DEMOSTRACIÓN Q Dado que T 2 = I, se tiene T (T (u)) = u para todo u ∈ E. (a) Puesto que T = −I, existe u ∈ E tal que T (u) +u = 0E . Si v = T (u) +u, entonces v = 0E y T (v) = T (T (u) +u) = T (T (u)) + T (u) = u + T (u) =v. (b) Ya que T = I, existe u ∈ E tal que T (u) −u = 0E . Sea w = T (u) −u, entonces w = 0E y T (w) = T (T (u) −u) = T (T (u)) − T (u) = u − T (u) = −w. Q 16 Sean T el operador lineal del ejercicio anterior; esto es, T 2 = I y T = ±I en el espacio E; S1 = {v ∈ E | T (v) =v}; S2 = {v ∈ E | T (v) = −v}. Page (PS/TeX): 90 / 506, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 507 Probar que: (a) S1 y S2 son subespacios de E. (b) S1 = {0E } = S2 . (c) E = S1 ⊕ S2 , la suma directa de S1 con S2 (cfr. ejercicio resuelto 27 del capı́tulo 3). DEMOSTRACIÓN Q (a) Ya que T es lineal T (0E ) = 0E , y por ello 0E ∈ S1 ∩ S2 . Sean α, β ∈ R y u1 ,v1 ∈ S1 , u2 ,v2 ∈ S2 ; entonces T (αu1 + βv1 ) = αT (u1 ) + βT (v1 ) = αu1 + βv1 y T (αu2 + βv2 ) = −αT (u2 ) − βT (v2 ) = −(αu2 + βv2 ). Lo cual prueba S1 < E y S2 < E. (b) Es consecuencia inmediata del ejercicio precedente. (c) Si u ∈ S1 ∩ S2 , entonces u = T (u) = −u; de donde u = 0E . Sea v ∈ E y u1 = 12 (v + T (v)), u2 = 12 (v − T (v)). Entonces 1 T (u1 ) = (T (v) +v) = u1 , 2 1 T (u2 ) = (T (v) −v) = −u2 ; 2 por tanto u1 ∈ S1 y u2 ∈ S2 . Y ya que v = u1 +u2 se desprende que E = S1 ⊕ S2 . Q 17 Sean E un espacio vectorial y S1 < E. Una proyección sobre S1 es una función T : E → E tal que: (i) Existe S2 < E que satisface E = S1 ⊕ S2 . (ii) Para todo u =x1 +x2 , con xi ∈ Si , i = 1, 2, se tiene T (u) =x1 . Mostrar que si T es una proyección sobre S1 , entonces: (a) T es lineal. (b) S1 = {u ∈ E | T (u) = u}. (c) S1 = T (E). (d) S2 = Ker(T ). Page (PS/TeX): 91 / 507, COMPOSITE 508 CAPÍTULO 5 DEMOSTRACIÓN Transformaciones lineales, valores y vectores propios Q (a) Si α, β ∈ R y u =x1 +x2 ∈ E, v =y1 +y2 ∈ E, con xi ∈ S1 y yi ∈ S2 , i = 1, 2; entonces T (αu + βv) = T ((αx1 + βy1 ) + (αx2 + βy2 )) = αx1 + βy1 = αT (u) + βT (v). (b) x1 ∈ S1 ⇒x1 =x1 +0E ⇒ T (x1 ) = T (x1 +0E ) =x1 .u =x1 +x2 ,u = T (u) ⇒x1 +x2 =x1 ⇒u ∈ S1 . (c) Si x1 ∈ S1 , entonces x1 = T (x1 ) ∈ T (E) y por tanto S1 ⊂ T (S1 ). Si T (x1 +x2 ) ∈ T (E), entonces T (x1 +x2 ) =x1 ∈ S1 y por ende T (E) ⊂ S1 . Luego T (E) = S1 . (d) u = x1 +x2 ∈ Ker(T ) ⇒ x1 = T (x1 +x2 ) = 0E ⇒ u = x2 ∈ S2 ; ∴ Ker(T ) ⊂ S2 . x2 ∈ S2 ⇒ x2 = 0E +x2 ⇒ T (x2 ) = 0E ⇒ S2 ⊂ Ker(T ). Luego Ker(T ) = S2 . Q 18 Sean E un espacio vectorial, T un operador lineal en él y S = {u ∈ E | T (u) =u}; por el ejercicio anterior S es un subespacio de E. (a) Si T 2 = T , demostrar que E = S ⊕ Ker(T ). (b) Inversamente, si E = S ⊕ Ker(T ), probar que T 2 = T . DEMOSTRACIÓN Q (a) Si u ∈ E, entonces u = T (u) + (u − T (u)) y T (T (u)) = T 2 (u) = T (u), T (u − T (u)) = T (u) − T 2 (u) = 0E . Por tanto, T (u) ∈ S, u − T (u) ∈ Ker(T ) y E = S + Ker(T ). Si u ∈ S ∩ Ker(T ), u = T (u) = 0E ; luego S ∩ Ker(T ) = {0E }. (b) Sea u ∈ E, entonces existen u1 ∈ S y u2 ∈ Ker(T ) tales que u = u1 +u2 ; por lo que T (u) = T (u1 ) + T (u2 ) = u1 y entonces T 2 (u) = T (T (u)) = T (u1 ) = T (u). Q Representaciones matriciales de transformaciones lineales 19 Sean las bases B1 = {(1, −1), (2, −1)} y B2 = {(−1, 1), (0, 1)} del espacio R2 . (a) Encontrar la matriz cambio de base de la base B2 a la base B1 . (b) Encontrar la matriz cambio de base de la base B1 a la base B2 . Solución (a) Se tienen que resolver los sistemas con la misma matriz de coeficientes Page (PS/TeX): 92 / 508, COMPOSITE 1 −1 2 −1 a11 a12 = −1 1 Ejercicios resueltos y ejercicios propuestos 509 SECCIÓN 5.4 y 1 −1 2 −1 a21 a22 = 0 1 . Dado que 1 −1 1 2 −1 0 2 −1 0 ∼ 0 1 0 1 −1 1 1 1 0 −1 −2 ∼ 1 0 1 0 se tiene a11 a12 = −1 0 y a21 a22 = −2 1 ; esto es, P= −1 0 −2 1 es la matriz cambio de base de la base B2 a la base B1 . (b) La matriz cambio de base de B1 a B2 está dada por 1 2 P−1 = −1 0 −1 −1 −2 = . 0 1 20 Sean T1 , T2 operadores lineales en un espacio vectorial E que tiene dimensión finita y B una base de E. Si T = T2 ◦ T1 es el operador composición definido en el ejercicio resuelto 12 de este apartado y [T1 ]B , [T2 ]B son las representaciones matriciales de estos operadores relativas a la base B, mostrar que [T2 ◦ T1 ]B = [T2 ]B [T1 ]B o, con la notación T2 T1 = T2 ◦ T1 , [T2 T1 ]B = [T2 ][T1 ]B . DEMOSTRACIÓN Q Si u ∈ E cualquier vector, entonces [(T2 ◦ T1 )u]B = [T2 (T1 (u))]B = [T2 ]B [T1 (u)]B = [T2 ]B ([T1 ]B [u]B ) = ([T2 ]B [T1 ]B )[u]B . De donde se desprende, debido a la unicidad de la representación matricial de un operador, que [T2 ◦ T1 ]B = [T2 ]B [T1 ]B . Page (PS/TeX): 93 / 509, COMPOSITE Q 510 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 21 Sean E un espacio de dimensión finita dotado de un producto interior ·, ·, B = {e1 , . . . ,en } una base ortonormal de este espacio y T : E → E un operador lineal. Encontrar la representación matricial de T relativa a la base B. DEMOSTRACIÓN Q Si ai j ∈ R son tales que T (ei ) = ai1e1 + · · · + ai jei + · · · + ainen entonces, para cada j = 1, . . . , n, T (ei ),e j = ai1e1 + · · · + ai jei + · · · + ainen ,e j = ai j y por tanto ⎡ ⎢ ⎢ [T ]B = ⎢ ⎣ T (e1 ),e1 T (e1 ),e2 .. . T (e2 ),e1 T (e2 ),e2 .. . ··· ··· .. . T (en ),e1 T (en ),e2 .. . T (e1 ),en T (e2 ),en ··· T (en ),en ⎤ ⎥ ⎥ ⎥. ⎦ Q 22 Sean E un espacio vectorial y Hn una sucesión de subespacios tales que Hn Hn+1 para todo n. Probar que existe una sucesión infinita (un ) de vectores L.I. en E y que por tanto E tiene dimensión infinita. DEMOSTRACIÓN Q Se puede suponer, sin perder generalidad, que H1 = {0E }. Entonces existe u ∈ H1 − {0E }; sea u1 =u. Puesto que Hn−1 = Hn , existe, para cada n = 2, 3, . . . , un ∈ Hn − Hn−1 . La sucesión de vectores (un ) ası́ formada es L.I. Para probar esto basta mostrar que para todo n el conjunto finito {u1 ,u2 , . . . ,un } es L.I. Se procede por inducción sobre n: si n = 1, {u1 } es L.I. porque u1 = 0E . Sea k > 1 y suponga que la afirmación es cierta para n = k − 1. Sean αi , i = 1, . . . , k, escalares tales que α1 u1 + · · · + αk−1uk−1 + αkuk = 0E . Si αk = 0, entonces uk = − α1 αk−1 u1 − · · · − uk−1 ∈ Hk−1 αk αk pues H1 ⊂ H2 ⊂ · · · ⊂ Hk−1 ; por tanto, αk debe ser cero. Luego α1 u1 + · · · + αk−1uk−1 = 0E y por la hipótesis de inducción se concluye que α1 = · · · = αk−1 = αk = 0; por ende, {u1 , . . . ,uk−1 ,uk } es L.I. Q En los ejercicios 23 a 27 E es un espacio vectorial y T : E → E un operador lineal en el espacio E. Se define T 2 = T ◦ T y, por recurrencia, T n = T ◦ T n−1 , n = 2, 3, . . . , esto es (cfr. ejercicio resuelto 12 de esta sección), Page (PS/TeX): 94 / 510, COMPOSITE Ejercicios resueltos y ejercicios propuestos 511 SECCIÓN 5.4 T n = T ◦ T ◦ · · · ◦ T n y si I es el operador lineal identidad, I(u) = u para todo u ∈ E, se define T 0 = I. Suponga que E tiene dimensión finita. 23 Probar que Ker(T n ) ⊂ Ker(T n+1 ) para todo n = 0, 1, 2, . . . DEMOSTRACIÓN u ∈ Ker(T n ) ⇒ T n (u) = 0E ⇒ T (T n (u)) = 0E Q ⇒ T n+1 (u) = 0E ⇒ u ∈ Ker(T n+1 ) ⇒ Ker(T n ) ⊂ Ker(T n+1 ). Q 24 Mostrar que T n+1 (E) ⊂ T n (E) para todo n = 0, 1, 2, . . . DEMOSTRACIÓN Q Si w ∈ T n+1 (E), existe u ∈ E tal que T n+1 (u) = w y por tanto T n (T (u)) = w; luego w ∈ T n (E). Lo cual prueba T n+1 (E) ⊂ T n (E). Q 25 Mostrar que existe n0 tal que: (a) Si n ≥ n0 : (i) Ker(T n ) = Ker(T n+1 ). (ii) T n+1 (E) = T n (E). (b) Si n < n0 : (i) Ker(T n ) = Ker(T n+1 ). (ii) T n+1 (E) = T n (E). DEMOSTRACIÓN Q Si Ker(T n ) Ker(T n+1 ) para todo n, entonces, por ejercicio resuelto 22, E tendrı́a dimensión infinita; por tanto, deben existir enteros no negativos n tales que Ker(T n ) = Ker(T n+1 ); sea n0 el menor de éstos. (a) Sea n un entero con n > n0 . (i) Si u ∈ Ker(T n+1 ), entonces 0E = T n+1 (u) = T n−n0 +n0 +1 (u) = T n0 +1 (T n−n0 (u)) y por tanto T n−n0 (u) ∈ Ker(T n0 +1 ) = Ker(T n0 ) luego T n (u) = T n0 (T n−n0 (u)) = 0E , Page (PS/TeX): 95 / 511, COMPOSITE 512 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios por lo que u ∈ Ker(T n ). Ası́ que Ker(T n ) = Ker(T n+1 ). (ii) Puesto que Ker(T n+1 ) = Ker(T n ), dim(Ker(T n+1 )) + dim(T n+1 (E)) = dim(E) = dim(Ker(T n )) + dim(T n (E)); implica dim(T n (E)) = dim(T n+1 (E)) y ya que T n+1 (E) < T n (E), se concluye que T n+1 (E) = T n (E). (b) Sea n0 un entero no negativo con n < n0 . . (i) Por definición de n0 Ker(T n ) = Ker(T n+1 ). (ii) Por el inciso precedente, se concluye que dim(T n+1 (E)) = dim(T n (E)), y por ende, T n+1 (E) = T n (E). Q 26 Probar que si n ≥ n0 , entonces (cfr. el ejercicio resuelto 27 del capı́tulo 3, pág. 187). E = Ker(T n ) ⊕ T n (E). DEMOSTRACIÓN Q Si u ∈ Ker(T n ) ∩ T n (E), existe w ∈ E tal que T n (w) = u y por ello 0E = T n (u) = T 2n (w); por tanto, w ∈ Ker(T 2n ) = Ker(T n ), entonces u = T n (w) = 0E . Page (PS/TeX): 96 / 512, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 513 Puesto que dim(Ker(T n ) + T n (E)) = dim(Ker(T n )) + dim(T n (E)) − dim(Ker(T n ) ∩ T n (E)) = dim(Ker(T n )) + dim(T n (E)), se tiene dim(E) = dim(Ker(T n )) + dim(T n (E)) = dim(Ker(T n ) + dim(T n (E)) y por tanto, E = Ker(T n ) + T n (E). Lo cual prueba que E = Ker(T n ) ⊕ T n (E). Q 27 Encontrar n0 del ejercicio precedente para el operador lineal T : R4 → R4 definido por T (x1 , x2 , x3 , x4 ) = (−x1 − x2 , x1 + x2 , −x1 − 2x2 − x3 + x4 , −x1 − 2x2 − 3x3 + 3x4 ). Solución Puesto que T (1, 0, 0, 0) = (−1, 1, −1, −1) , T (0, 1, 0, 0) = (−1, 1, −2, −2) , T (0, 0, 1, 0) = (0, 0, −1, −3) y T (0, 0, 0, 1) = (0, 0, 1, 3) la representación matricial relativa a la base canónica de R4 para T es ⎡ −1 −1 0 ⎢ 1 1 0 A=⎢ ⎣ −1 −2 −1 −1 −2 −3 ⎤ 0 0 ⎥ ⎥. 1 ⎦ 3 Ya que, al hacer operaciones entre columnas, ⎡ −1 −1 ⎢ 1 1 A∼⎢ ⎣ −1 −2 −1 −2 0 0 −1 −3 ⎤ 0 0 ⎥ ⎥ 0 ⎦ 0 se deduce que Rang(A) = 3; por tanto, dim(Ker(T )) = 4 − 3 = 1. En el ejercicio resuelto 20 de este apartado se probó que la representación matricial de T 2 es A2 ; y por ello la representación matricial de T n es An . Entonces, ya que Page (PS/TeX): 97 / 513, COMPOSITE 514 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios ⎡ −1 ⎢ 1 A2 = ⎢ ⎣ −1 −1 ⎡ 0 ⎢ 0 =⎢ ⎣ −1 −1 ⎡ −1 ⎢ 0 ∼⎢ ⎣ 0 0 −1 0 1 0 −2 −1 −2 −3 0 0 0 0 −1 −2 −1 −6 −1 0 0 0 −2 −4 0 0 ⎤2 0 0 ⎥ ⎥ 1 ⎦ 3 ⎤ 0 0 ⎥ ⎥ 2 ⎦ 6 ⎤ 2 4 ⎥ ⎥, 0 ⎦ 0 ⎡ ⎤ 0 0 0 0 0 0 ⎥ ⎥ 0 −4 4 ⎦ 0 −12 12 ⎤ 0 −4 4 0 0 0 ⎥ ⎥ 0 0 0 ⎦ 0 0 0 ⎡ ⎤ 0 0 0 0 0 0 ⎥ ⎥ 0 −8 8 ⎦ 0 −24 24 ⎤ 0 −8 8 0 0 0 ⎥ ⎥ 0 0 0 ⎦ 0 0 0 0 ⎢ 0 A3 = ⎢ ⎣ 0 0 ⎡ 0 ⎢ 0 ∼⎢ ⎣ 0 0 y 0 ⎢ 0 A4 = ⎢ ⎣ 0 0 ⎡ 0 ⎢ 0 ∼⎢ ⎣ 0 0 se tiene dim(Ker(T 2 )) = 2, dim(Ker(T 3 )) = 3, dim(Ker(T 4 )) = 3. Por lo que n0 = 3. 28 Sean E un espacio vectorial, B = (e1 , . . . ,en ) una base de él y T un operador lineal en E. Para cada k = 1, . . . , n sea Sk = gn(e1 , . . . ,ek ). Mostrar que las siguientes condiciones son equivalentes. (a) [T ]B es triangular superior. (b) Para cada k = 1, . . . , n, T (ei ) ∈ Sk para todo i = 1, . . . , k. (c) T (Sk ) ⊂ Sk para todo k = 1, . . . , n. Page (PS/TeX): 98 / 514, COMPOSITE Ejercicios resueltos y ejercicios propuestos 515 SECCIÓN 5.4 DEMOSTRACIÓN Q (a) ⇒ (b): Si [T ]B = [ai j ] es triangular superior, entonces T (ek ) = ∑ki=1 aikei ∈ Sk para todo k = 1, . . . , n. (b) ⇒ (c): Si u ∈ Sk , existen αi ∈ R tales que u = ∑ki=1 αiei y por tanto T (u) = ∑ki=1 αi T (ei ) ∈ Sk . (c) ⇒ (a): Puesto que T (ek ) ∈ Sk , existen a1k , . . . , akk ∈ R tales que T (ek ) = ∑ki=1 akiei ; de donde [T ]B = [ai j ] es triangular superior. Q 29 Sean E un espacio vectorial y T un operador lineal en él tal que T 2 = −I. (a) Demostrar que T es invertible. (b) Sean u1 , . . . ,um ∈ E tales que u1 , . . . ,um , T (u1 ), . . . , T (um−1 ) son L.I., probar que u1 , . . . ,um , T (u1 ), . . . , T (um−1 ), T (um ) son L.I. (c) Si E tiene dimensión finita distinta de cero, mostrar que E tiene una base de la forma B = {u1 , . . . ,um , T (u1 ), . . . , T (um−1 ), T (um )} y por tanto su dimensión par. (d) Encontrar la representación matricial de T relativa a la base B del inciso anterior. DEMOSTRACIÓN Q (a) T (−T ) = −T 2 = −(−I) = I; (−T )T = −T 2 = −(−I) = I. Ası́ T es invertible y T −1 = −T . (b) Siu1 , . . . ,um , T (u1 ), . . . , T (um ) son L.D., entonces existen escalares αi , βi , i = 1, . . . , m, con alguno de ellos distinto de cero, tales que m m i=1 i=1 0E = ∑ αiui + ∑ βi T (ui ). βm debe ser distinto de cero; pues en caso contrario los vectores u1 ,u2 , . . . ,um , T (u1 ), . . . , T (um−1 ) serı́an L.D. Entonces existen escalares γi y δ j , i = 1, . . . , m, j = 1, . . . , m − 1, tales que m m−1 i=1 i=1 T (um ) = ∑ γiui + ∑ δi T (ui ) −um = T 2 (um ) por lo que = T T (um ) = de donde 0E = = m m−1 i=1 i=1 Page (PS/TeX): 99 / 515, COMPOSITE i=1 i=1 m−1 ∑ δiui , m−1 ∑ γi T (ui ) + γm T (um ) − ∑ δiui +um m−1 i=1 m m−1 i=1 i=1 ∑ γi T (ui ) + γm ∑ γiui + ∑ δi T (ui ) i=1 = m−1 ∑γi T (ui ) − ∑ γi T (ui ) − ∑ δiui +um i=1 = m m−1 m−1 i=1 i=1 − m−1 ∑ δiui +um i=1 ∑ (γi + γm δi )T (ui ) + ∑ (γm γi − δi )ui + (γm2 + 1)um . 516 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Lo cual implica, puesto que γm2 + 1 = 0, que los vectores u1 , . . . ,um , T (u1 ), . . . , T (um−1 ) son L.D., que es una contradicción de la hipótesis inicial. Luego los vectores u1 , . . . ,um , T (u1 ), . . . , T (um ) deben ser L.I. (c) Sea u1 ∈ E − {0E }. Si existe k ∈ R tal que T (u1 ) = ku1 , entonces −u1 = T 2 (u1 ) = T (T (u1 )) = T (ku1 ) = kT (u1 ) = k2u1 luego (k2 + 1)u1 = 0E ; lo cual es imposible pues u1 = 0E . Por tanto, u1 y T (u1 ) son L.I. Si no existe un vector u2 ∈ E tal que {u1 , T (u1 ),u2 } es L.I., entonces {u1 , T (u1 )} es una base para E y dim(E) = 2. Si existe u2 ∈ E tal que u1 , T (u1 ),u2 son L.I., entonces, por el inciso anterior, u1 ,u2 , T (u1 ), T (u2 ) son L.I. Si no existe u3 ∈ E tal que u1 ,u2 , T (u1 ), T (u2 ),u3 son L.I., entonces {u1 ,u2 , T (u1 ), T (u2 )} es una base de E y dim(E) = 4. Continuando este proceso se debe llegar a un primer número entero m tal que u1 , . . . ,um , T (u1 ), . . . , T (um ) son L.I. y para cualquier vector u ∈ E el conjunto {u1 , . . . ,um , T (u1 ), . . . , T (um ),u} es L.D.; pues E tiene dimensión finita. Luego {u1 , . . . ,um , T (u1 ), . . . , T (um )} es una base de E y dim(E) = 2m. (d) Si B = {u1 , . . . ,um , T (u1 ), . . . , T (um )}, entonces T (T (ui )) = −ui para i = 1, . . . , m luego [T ]B = O Im −Im O donde la submatriz Im es la identidad de orden m y la submatriz O es la matriz cero de orden m × m. Q 30 (Espacio dual y base dual). Sea E un espacio vectorial; se denota por E∗ el espacio vectorial L (E, R) y a toda transformación lineal f ∈ E∗ se le dice funcional lineal (o forma lineal) en E y a E∗ se le llama el espacio dual de E. Si E tiene dimensión finita y B = {e1 , . . . ,en } es una base de E, encontrar una base B ∗ = {φi } del dual del espacio E; esto es, una base de E∗ a partir de esta base y probar que dim(E∗ ) = n y por tanto E ∼ = E∗ . La base B ∗ = {φi } se llama base dual de la base {ei }. Page (PS/TeX): 100 / 516, COMPOSITE SECCIÓN 5.4 Solución Ejercicios resueltos y ejercicios propuestos 517 Sea i ∈ {1, . . . , n}, por el ejercicio resuelto 1 existe un único funcional lineal φi : E → R tal que " φi (e j ) = δi j = 1 si i = j 0 si i = j (al sı́mbolo δi j se le dice delta de Kronecker). Entonces {φ1 , φ2 , . . . , φn } es una base de E∗ : (a) Sean αi n-escalares tales que α1 φ1 + · · · + αi φi + · · · + αn φn = θ, la forma lineal constante cero en E∗ ; entonces, para cada i = 1, . . . , n, αi = α1 φ1 (ei ) + · · · + αi φi (ei ) + · · · + αn φn (ei ) = θ(ei ) =0 ası́ que {φ1 , φ2 , . . . , φn } es L.I. (b) Sea f ∈ E∗ y u = a1e1 + · · · + aiei + · · · + anen , entonces φi (u) = a1 φi (e1 ) + · · · + ai φi (ei ) + · · · + an φn (en ) = ai y por tanto u = φ1 (u)e1 + · · · + φi (u)ei + · · · + φn (u)en . Entonces f (u) = φ1 (u) f (e1 ) + · · · + φi (u) f (ei ) + · · · + φn (u) f (en ); es decir, f = f (e1 )φ1 + · · · + f (ei )φi + · · · + f (en )φn . Luego dim(E∗ ) = n. 31 Construir una base para el espacio dual de R2 , (R2 )∗ , a partir de la base {(1, 2), (1, 1)} de R2 por medio del procedimiento dado en el ejercicio precedente; es decir, encontrar la base dual de la base {(1, 2), (1, 1)}. Solución Por el procedimiento del ejercicio precedente φ1 (1, 2) = 1, φ1 (1, 1) = 0, φ2 (1, 2) = 0 y φ2 (1, 1) = 1. Puesto que los φi son lineales se debe tener φ1 (x, y) = ax + by, φ2 (x, y) = cx + dy para ciertas constantes a, b, c, d. Entonces Page (PS/TeX): 101 / 517, COMPOSITE 518 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 1 = φ1 (1, 2) = a + 2b, 0 = φ1 (1, 1) = a + b, 0 = φ2 (1, 2) = a + 2d, 1 = φ2 (1, 1) = c + d y dado que 1 2 1 1 1 0 0 1 ∼ 1 2 1 0 , 0 −1 −1 1 se obtiene a b = −1 1 y c d = 2 −1 y por tanto φ1 (x, y) = −x + y, φ2 (x, y) = 2x − y son los elementos de la base del espacio dual (R2 )∗ . 32 Si E es un espacio vectorial y E∗ su espacio dual, se denota por E∗∗ el espacio dual de E∗ ; esto es, E∗∗ = (E∗ )∗ = L (E∗ , R). Al espacio E∗∗ se le llama espacio bidual (o doble dual) del espacio E. Sea u ∈ E un elemento fijo (que se ha escrito sin la flecha encima por simplicidad en la notación); se define u# : E∗ → R por u#( f ) = f (u). (a) Probar que u# ∈ E∗∗ . (b) Sea Φ : E → E∗∗ definida por Φ(u) = u#. Probar que Φ es lineal. (c) Si dim(E) = n es finita, probar que Φ es un isomorfismo (el llamado isomorfismo natural o canónico) y por tanto E ∼ = E∗∗ . DEMOSTRACIÓN Q (a) Si f1 , f2 ∈ E∗ y α, β ∈ R, entonces u#(α f1 + β f2 ) = (α f1 + β f2 )(u) = α f1 (u) + β f2 (u) = α# u( f1 ) + β# u( f2 ) y por ende u# ∈ E∗∗ . (b) Sean u, v ∈ E, α, β ∈ R y f cualquier elemento de E∗ , entonces αu + βv( f ) = = = = Page (PS/TeX): 102 / 518, COMPOSITE f (αu + βv) f (αu) + f (βv) α f (u) + β f (v) α# u( f ) + β# v( f ) SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 519 y por tanto, αu + βv = α# u + β# v; i.e., Φ(αu + βv) = αΦ(u) + βΦ(v). (c) Sean {e1 , . . . ,en } una base de E y {φ1 , . . . , φn } la base dual correspondiente. Sea ψ ∈ E∗∗ y f ∈ E∗ un funcional cualquiera. Entonces, por el ejercicio resuelto 30, f = f (e1 )φ1 + · · · + f (en )φn ; luego ψ( f ) = ψ( f (e1 )φ1 + · · · + f (en )φn ) = f (e1 )ψ(φ1 ) + · · · + f (en )ψ(φn ) = f (ψ(φ1 )e1 + · · · + ψ(φn )en ). Entonces, si u = ψ(φ1 )e1 + · · · + ψ(φn )en ∈ E, se tiene ψ( f ) = f (u) = u#( f ) = Φ(u)( f ) y por tanto Φ(u) = ψ. Luego Φ es suprayectiva. Si u ∈ Ker(Φ), entonces u#( f ) = f (u) = 0 para todo funcional f ; luego (cfr. el ejercicio resuelto 30 de esta sección) u = φ1 (u)e1 + · · · + φn (u)en = 0E . Lo cual prueba que Ker(Φ) = {0E }. Entonces Φ es un isomorfismo; por tanto, E ∼ = E∗∗ . 33 Sea E un espacio vectorial de dimensión finita n y E∗ su espacio dual. Probar que si B ∗ = {φ1 , . . . , φn } es una base de E∗ , entonces existe una base B = {e1 , . . . ,en } de E tal que B ∗ es la base dual de B. DEMOSTRACIÓN Q Dado que E∗∗ ∼ = E, dim(E∗∗ ) = n. Sea {Ψ1 , . . . , Ψn } la base dual de la base {φ1 , . . . , φn } del espacio ∗∗ E . Entonces, 1 si i = j Ψi (φ j ) = δi j = 0 si i = j Por el ejercicio 32 existen únicos e1 , . . . ,en ∈ E tales que e#i = Φ(ei ) = Ψi Page (PS/TeX): 103 / 519, COMPOSITE 520 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios para cada i = 1, . . . , n; y por tanto φ j (ei ) = e#i (φ j ) = Ψi (φ j ) = δi j ; y ya que Φ es un isomorfismo y {Ψ1 , . . . , Ψn } es una base, {e1 , . . . ,en } es base de E. Luego {φ1 , . . . , φn } es la base dual de la base {e1 , . . . ,en }. Q 34 Sean f1 , f2 : R2 → R los funcionales lineales definidos por f1 (x, y) = 2x − y y f2 (x, y) = x + y. (a) Probar que { f1 , f2 } es una base de (R2 )∗ . (b) Encontrar una base {u1 ,u2 } de R2 cuya base dual sea { f1 , f2 }. Solución (a) Ya que dim(R2 )∗ = dim(R2 ) = 2, basta probar que f1 y f2 son L.I. Sean λ1 , λ2 ∈ R tales que λ1 f 1 + λ 2 f 2 = θ es decir, λ1 f1 (x, y) + λ2 f2 (x, y) = 0 ∀(x, y) ∈ R2 . Entonces, en particular, 0 = λ1 f1 (1, 0) + λ2 f2 (1, 0) = 2λ1 + λ2 y 0 = λ1 f1 (0, 1) + λ2 f2 (0, 1) = −λ1 + λ2 ; es decir, 2λ1 + λ2 = 0 −λ1 + λ2 = 0 de donde λ1 = λ2 = 0 y, por tanto, f1 y f2 son L.I. (b) Por el ejercicio precedente existe una base {e1 ,e2 }, e1 = (a, b) y e2 = (c, d) cuya base dual es { f1 , f2 }; entonces 1 = f1 (a, b) = 2a − b, 0 = f1 (c, d) = 2c − d, 0 = f2 (a, b) = a + b, 1 = f2 (c, d) = c + d. Y ya que se tiene 2 1 2 −1 1 0 ∼ 0 1 0 1 −1 1 −3 1 0 −2 (a, b) = (1/3, −1/3) y (c, d) = (1/3, 2/3); es decir, {e1 ,e2 } = {(1/3, −1/3), (1/3, 2/3)}. Page (PS/TeX): 104 / 520, COMPOSITE Q SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 521 35 (Hiperespacio). Sean E un espacio vectorial no trivial y H < E. Se dice que H es un hiperespacio de E si se cumplen las siguientes condiciones: (i) H = E. (ii) Si S < E y H ⊂ S, entonces S = H o S = E. Es decir, H es un subespacio propio maximal. Mostrar que un subespacio H es un hiperespacio de E si y sólo si existe u0 ∈ E − H tal que E = H + gn(u0 ). DEMOSTRACIÓN Q (⇒) Como H = E, existe u0 ∈ E − H. Entonces H H + gn(u0 ) ⊂ E y ya que H es un hiperespacio, se deduce que H + gn(u0 ) = E. (⇐) Sea u0 ∈ E − H tal que E = H + gn(u0 ), entonces H = E. Sea S < E tal que H ⊂ S. Dado que E = H + gn(u0 ), todos los elementos de S tienen la forma u = u1 + βu0 para algún u1 ∈ H y para cierto β ∈ R. Si para alguno de éstos β = 0, se tiene u0 = (1/β)(u −u1 ) ∈ S y entonces E = H + gn(u0 ) = S. En caso contrario u ∈ H para todo u ∈ S; es decir, S = H. Q 36 Sean E un espacio vectorial no trivial y f ∈ E∗ . Demostrar lo siguiente (cfr. ejercicio resuelto 9 de esta sección): (a) Si f es un funcional lineal en E no nulo ( f = θ, el funcional lineal constante cero), entonces H = Ker( f ) es un hiperespacio. (b) Si H es un hiperespacio existe un funcional lineal f en E∗ no nulo tal que Ker( f ) = H. DEMOSTRACIÓN Q (a) Sea u0 ∈ E tal que f (u0 ) = 0. Si u ∈ E, entonces u − f (u) u0 ∈ H = Ker( f ) f (u0 ) pues f (u − f (u) f (u) u0 ) = f (u) − f (u0 ) = 0. f (u0 ) f (u0 ) Por tanto, existe u1 ∈ H tal que u − f (u) u0 = u1 ; f (u0 ) luego u = u1 + f (u) u0 ∈ H + gn(u0 ). f (u0 ) Por el ejercicio precedente se concluye que H = Ker( f ) es un hiperespacio. Page (PS/TeX): 105 / 521, COMPOSITE 522 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios (b) Sea H un hiperespacio y u0 ∈ E − H. Entonces, por el ejercicio precedente, E = H + gn(u0 ). y más aún, puesto que H ∩ gn(u0 ) = {0E }, se tiene E = H ⊕ gn(u0 ). Entonces para todo u ∈ E existen únicos u1 ∈ H y β ∈ R tales que u = u1 + βu0 . Sea f : E → R definida por f (u) = β. Si u1 + β1 u0 ,u2 + β2u0 ∈ E = H ⊕ gn(u0 ), y λ ∈ R, entonces f (u1 + β1 u0 +u2 + β2u0 ) = f (u1 +u2 + (β1 + β2 )u0 ) = β1 + β 2 = f (u1 + β1 u0 ) + f (u2 + β2u0 ) y f (λ(u1 + β1 u0 )) = f (λu1 + λβ1 u0 ) = λβ1 = λ f (u1 + β1 u0 ). Finalmente, u = u1 + βu0 ∈ Ker( f ) ⇔β=0 ⇔ u = u1 ∈ H. Es decir, Ker( f ) = H. Q 37 (Teorema de representación de Riesz). Sean E un espacio con producto interior ·, · y f ∈ E∗ un funcional lineal. Si E tiene dimensión finita n, probar que existe un único u f ∈ E tal que f (x) = x,u f para todo x ∈ E. DEMOSTRACIÓN Q Sea {e1 , . . . ,en } una base ortonormal de E y x ∈ E, entonces x = x,e1 e1 + · · · + x,en en Page (PS/TeX): 106 / 522, COMPOSITE Ejercicios resueltos y ejercicios propuestos 523 SECCIÓN 5.4 y por tanto, f (x) = f (x,e1 e1 + · · · + x,en en ) = x,e1 f (e1 ) + · · · + x,en f (en ) = x, f (e1 )e1 + · · · + x, f (en )en = x, f (e1 )e1 + · · · + f (en )en Luego, si u f = f (e1 )e1 + · · · + f (en )en , se tiene f (x) = x,u f para todo x ∈ E. Sea v ∈ E tal que x,u f = f (x) = x,v para todo x ∈ E, entonces x,u f −v = 0 ∀x ∈ E y por ende u f =v. Q 38 (Operador adjunto). Sea E un espacio vectorial con producto interior ·, ·. Si E tiene dimensión finita y T : E → E es un operador lineal, demostrar que existe un único operador lineal T ∗ : E → E tal que T (u),v = u, T ∗ (v) para todo u,v ∈ E. Al operador T ∗ se le llama el operador adjunto de T . DEMOSTRACIÓN Q Es fácil probar que para cada v ∈ E la aplicación f (u) = T (u),v es lineal y por tanto un elemento de E∗ . Por el ejercicio resuelto 37 (teorema de representación de Riesz), existe, para cada v ∈ E, un único v∗ ∈ E tal que f (u) = u,v∗ ∀u ∈ E. Sea T ∗ : E → E definida por T (v) = v∗ . Entonces T (u),v = f (u) = u,v∗ = u, T ∗ (v) para todo u,v ∈ E. Si v1 ,v2 ∈ E, α, β ∈ R y u es cualquier vector en E, se tiene u, T ∗ (αv1 + βv2 ) = T (u), αv1 + βv2 = α T (u),v1 + β T (u),v2 = α u, T ∗ (v1 ) + β u, T ∗ (v2 ) = u, αT ∗ (v1 ) + u, βT ∗ (v2 ) = u, αT ∗ (v1 ) + βT ∗ (v2 ) Page (PS/TeX): 107 / 523, COMPOSITE 524 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios de donde u, T ∗ (αv1 + βv2 ) − (αT ∗ (v1 ) + βT ∗ (v2 )) = 0 ∀u ∈ E; luego T ∗ (αv1 + βv2 ) − (αT ∗ (v1 ) + βT ∗ (v2 )) = 0E y por tanto T ∗ (αv1 + βv2 ) = αT ∗ (v1 ) + βT ∗ (v2 ). Lo cual prueba que T ∗ es lineal. Si T1 es un operador lineal tal que para todo u,v ∈ E T (u),v = u, T1 (v) entonces u, T1 (v) = u, T ∗ (v) por lo que u, T1 (v) − T ∗ (v) = 0 ∀u,v ∈ E; de donde se desprende T1 = T ∗ . Q 39 Sean E, T y T ∗ como en el ejercicio anterior. Probar que si B = {e1 , . . . ,en } es una base ortonormal de E, A es la representación matricial de T relativa a esta base y B es la representación matricial de T ∗ relativa a la misma base, entonces B = At . DEMOSTRACIÓN Q Por el ejercicio resuelto 21 de este capı́tulo, la representación matricial de T está dada por la matriz A = [ai j ]t donde ai j = T (ei ),e j ; por el mismo ejercicio B = [T ∗ ]B = [bi j ]t donde bi j = T ∗ (ei ),e j = ei , T (e j ) = a ji y por tanto B = [bi j ]t = At . Q 40 (Anuladores). Si E es un espacio vectorial y S es un subconjunto no vacı́o de E, se define S 0 = {φ ∈ E∗ | φ(u) = 0 ∀u ∈ S}. (a) Probar que S 0 es un subespacio de E∗ . A S 0 se le llama el anulador de S. (b) Si E tiene dimensión finita y S es un subespacio de E, demostrar que dim(S) + dim(S 0 ) = dim(E). Page (PS/TeX): 108 / 524, COMPOSITE Ejercicios resueltos y ejercicios propuestos 525 SECCIÓN 5.4 DEMOSTRACIÓN Q (a) Claramente el operador constante cero, θ, pertenece a S 0 . Si f , g ∈ S 0 y α, β ∈ R, entonces, para todo u ∈ S, (α f + βg)(u) = α f (u) + βg(u) = 0+0 = 0. (b) Sea {u1 , . . . ,un } una base de S; se completa ésta a una base {u1 , . . . ,um ,vm+1 , . . . ,vn } de E, y sea {φ1 , . . . , φn } su base dual. Entonces si k ≥ m + 1 φk (u j ) = 0 ∀ j y por tanto φm+1 , . . . , φn ∈ S 0 . Si u ∈ E y φ ∈ S 0 , entonces φ(u) = φ(u1 )φ1 (u) + · · · + φ(um )φm (u)+ = φ(vm+1 )φm+1 (u) + · · · + φ(vn )φm (u) = 0 + · · · + 0 + φ(vm+1 )φm+1 (u) + · · · + φ(vn )φm (u) = φ(vm+1 )φm+1 (u) + · · · + φ(vn )φm (u). Luego φm+1 , . . . , φn generan a S 0 y ya que las funciones φm+1 , . . . , φn son L.I., {φm+1 , . . . , φn } es una base de S 0 . De donde dim(E) − dim(S) = dim(S 0 ). Q 41 (Primer teorema de isomorfismo). Sean E y F un par de espacios vectoriales y T : E → F una trans- formación lineal suprayectiva. Si H = Ker(T ), probar que E/H ∼ =F donde E/H es el espacio cociente (cfr. el ejercicio resuelto 29 del capı́tulo 3). DEMOSTRACIÓN Q Sea Φ : E/H → F la transformación definida, para cada [u] ∈ E/H, por Φ([u]) = T (u); entonces, (a) Φ está bien definida: si [u] ∈ E/H y v ∈ [u], entonces u −v ∈ H = Ker(T ) y por tanto T (u −v) = 0F ; i.e., T (u) = T (v). (b) Φ es lineal: si [u], [v] ∈ E/H y α, β ∈ R, se tiene Φ(α[u] + β[v]) = Φ([αu + βv]) = T (αu + βv) = αT (u) + βT (v) = αΦ([u]) + βΦ([v]). Page (PS/TeX): 109 / 525, COMPOSITE 526 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios (c) Φ es inyectiva: si [u] ∈ Ker(Φ), entonces T (u) = Φ([u]) = 0F y por tanto u ∈ Ker(T ) = H; ası́ que [u] = H = [0E ] = 0E/H . (d) Φ es suprayectiva: si w ∈ F, dado que T es suprayectiva, existe u ∈ E tal que T (u) = w, luego Φ([u]) = T (u) = w. Q 42 Sean P el espacio de polinomios y p(x) un polinomio dado de grado grad(p) = n. (a) Probar que H = {p f | f ∈ P} es un subespacio de P. (b) Mostrar que P/H ∼ = Rn . DEMOSTRACIÓN Q (a) Si θ es el polinomio constante cero, entonces pθ = θ y por tanto θ ∈ H. Sean p f1 , p f2 ∈ H y α, β ∈ R, entonces α(p f1 ) + β(p f2 ) = p(α f1 + β f2 ) ∈ H. (b) Por el algoritmo de división para cada g(x) ∈ P existen únicos polinomios q(x) y r(x), r(x) = 0 o 0 ≤ grad(r) ≤ n − 1 (grad(g) representa el grado del polinomio g), tales que g(x) = p(x)q(x) + r(x). Sea T : P → Pn−1 dada por T (g(x)) = r(x). Si g1 (x) = p(x)q1 (x) + r1 (x) y g2 (x) = p(x)q2 (x) + r2 (x) y α ∈ R, con 0 ≤ grad(r1 ), grad(r2 ) ≤ n − 1 o r1 (x) = 0 y/o r2 (x) = 0, entonces g1 (x) + g2 (x) = p(x)(q1 (x) + q2 (x)) + r1 (x) + r2 (x), αg1 (x) = p(x)(αq(x)) + (αr1 (x)), 0 ≤ grad(r1 + r2 ) ≤ n − 1 (o r1 + r2 = θ) y 0 ≤ grad(αr1 ) ≤ n − 1 por lo que T (g1 (x) + g2 (x)) = r1 (x) + r2 (x) = T (g1 (x)) + T (g2 (x)) y T (αg1 (x)) = αr1 (x) = αT (g1 (x)). Lo cual prueba que T es lineal. Si r(x) ∈ Pn−1 , entonces r(x) = p(x)θ(x) + r(x) y por tanto T (r(x)) = r(x); ası́ que T es suprayectiva. Por otra parte Page (PS/TeX): 110 / 526, COMPOSITE Ejercicios resueltos y ejercicios propuestos 527 SECCIÓN 5.4 g(x) ∈ Ker(T ) ⇔ T (g(x)) = r(x) = 0 ⇔ g(x) = p(x)q(x) ⇔ g(x) ∈ H. Por el ejercicio anterior P/H ∼ = Pn−1 y dado que dim(Pn−1 ) = n = dim(Rn ), del teorema 5.24 (cfr. pág. 456) se tiene Pn−1 ∼ = Rn y entonces P/H ∼ = Rn . Q Valores y vectores propios, diagonalización 43 Sean E un espacio vectorial y S un subespacio de él. Si T : S → E es una transformación lineal también se acostumbra decir que T es un operador lineal en E (aunque S sea distinto de E). Un escalar λ es valor propio de T si existe u ∈ S − {0E } tal que T (u) = λu. Sean E = C(−∞, ∞) el espacio vectorial x de funciones continuas en todo punto x ∈ R y S el conjunto de funciones f ∈ E tales que −∞ f (t)dt converge para todo x ∈ R. (a) Mostrar que S es un subespacio de E. (b) Se define T : S → E, para cada f ∈ S, T ( f ) = g donde g(x) = x −∞ f (t)dt. Mostrar T es un operador lineal de S en E. (c) Encontrar los valores propios y vectores propios correspondientes. Solución (a) Claramente la función constante cero, θ, pertenece a S. Sean f1 , f2 ∈ S; α, β ∈ R un par de escalares y x ∈ R, entonces x −∞ (α f1 + β f2 )(t)dt = lı́m r→∞ −r = α lı́m =α y por tanto x −∞ x (α f1 (t) + β f2 (t))dt x r→∞ −r x −∞ f1 (t)dt + β lı́m f1 (t)dt + β (b) Si f ∈ S, entonces f es continua en todo punto y x −∞ Page (PS/TeX): 111 / 527, COMPOSITE r→∞ −r −∞ f2 (t)dt f2 (t)dt f (t)dt converge para todo x ∈ R. Dado que f es continua en todo punto de R, la función G(x) = α= x x (α f1 + β f2 )tdt converge para todo x ∈ R; luego α f1 + β f2 ∈ S; lo cual prueba que S es subespacio de E. 0 −∞ f (t)dt, entonces 0 x f (t)dt es continua en todo x ∈ R. Si 528 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios g(x) = x −∞ f (t)dt = 0 −∞ f (t)dt + x 0 f (t)dt = α + G(x) y por tanto g ∈ E = C(−∞, ∞). Lo cual prueba que efectivamente T ( f ) ∈ E = C(−∞, ∞) para toda f ∈ S. Sean a, b ∈ R y f1 , f2 ∈ S, entonces, para todo x ∈ R, T (a f1 + b f2 )(x) = =a x (a f1 + b f2 )(t)dt −∞ x −∞ f1 (t)dt + b x −∞ f2 (t)dt = aT ( f1 )(x) + bT ( f2 )(x); esto es, T (a f1 + b f2 ) = aT ( f1 ) + bT ( f2 ). (c) Si x −∞ f (t)dt = 0 para todo x ∈ R y a, b ∈ R son cualquier par de números reales, con a < b, entonces a Ası́ que b a b f (t)dt = b −∞ f (t)dt − a −∞ f (t)dt = 0. f (t)dt = 0 en todo intervalo [a, b]. Si existe x0 ∈ R tal que f (x0 ) = 0, digamos f (x0 ) > 0, entonces, por continuidad de f , existe un intervalo [x0 − δ, x0 + δ] tal que f (x) > 0 en todo este intervalo, luego x0 +δ x0 −δ f (t)dt > 0. Lo cual es una contradicción al hecho descubierto de que la integral de f es nula en todo intervalo cerrado. Por tanto, x −∞ f (t)dt = 0 para todo x ∈ R implica f (x) = 0 para todo punto x. Esto significa que λ = 0 no puede ser valor propio de T; pues la única función en S tal que T ( f ) = 0, es la función f (x) = 0 para todo x ∈ R. Si G(x) = x 0 f (t)dt por el teorema fundamental del cálculo, ya que f es continua en todo punto, G es derivable y además G (x) = f (x) para todo x ∈ R. Por el inciso anterior, si g = T ( f ), g(x) = α + G(x) donde α = 0 −∞ f (t)dt; luego g es derivable en todo punto y g (x) = G (x) = f (x) para todo x ∈ R. Si λ = 0 satisface T ( f ) = λ f se debe tener x −∞ f (t)dt = λ f (x) para todo punto x. Al derivar respecto a x en ambos lados de la precedente igualdad se obtiene f (x) = λ f (x) esto es, df 1 = f dx λ Page (PS/TeX): 112 / 528, COMPOSITE Ejercicios resueltos y ejercicios propuestos 529 SECCIÓN 5.4 que, al separar variables (suponiendo f = 0), produce df 1 = f λ dx; es decir, ln | f | = 1 x +C λ y por tanto f = Ae x/λ para alguna constante A = 0. Si λ > 0, g(x) = x −∞ Ae t/λ dt = A lı́m x r→∞ −r e t/λ dt $ % = Aλ lı́m e x/λ − e−r/λ r→∞ = Aλe x/λ = λ f (x) y x −∞ Ae t/λ dt diverge si λ < 0. Ası́, todo λ > 0 es valor propio de T con vectores propios co- rrespondientes f (x) = Ae x/λ para cualquier constante A distinta de cero (cfr. ejemplo 5.44, pág. 460). 44 Sean T , R : E → E dos operadores lineales suprayectivos en el espacio E. Demostrar que T R y RT tienen los mismos valores propios, donde T R = T ◦ R y RT = R ◦ T (cfr. el ejercicio resuelto 12 de este capı́tulo). DEMOSTRACIÓN Q Sea λ un valor propio de T R, se prueba entonces que λ también es valor propio de RT . La demostración de que todo valor propio de RT es también valor propio de T R es completamente simétrica. (a) Si λ = 0, entonces el operador T R no es inyectivo (Ker(T R − 0I) = {0E }, cfr. nota 5, pág. 459); y por tanto, del ejercicio resuelto 13(b) de este apartado, al menos uno de los dos operadores T , R no es inyectivo; entonces, del ejercicio resuelto 13(c), RT no es inyectivo, luego λ = 0 es valor propio de RT pues al no ser inyectivo Ker(T R − 0I) = {0E }. (b) Suponga λ = 0 y sea u ∈ E − {0E } tal que (T R)(u) = λu, entonces T (R(u)) = λu. Sea w = R(u); si w = 0E se tiene 0E = = = = Page (PS/TeX): 113 / 529, COMPOSITE T (w) T (R(u)) (T R)(u) λu 530 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios lo cual es imposible pues λ = 0 y u = 0E ; por tanto w = 0E . Y puesto que (RT )(w) = = = = = RT (R(u)) R((T R)(u)) R(λu) λR(u) λw se concluye que λ es también valor propio de RT . Q 45 Sea T : Pn → Pn el operador definido, para cada p ∈ P2 , por T (p) = q donde q(x) = p(x) + (x + 1)p (x). (a) Probar que T es un operador lineal. (b) Encontrar los valores propios de T . (c) Determinar si T es diagonalizable y en caso positivo hallar una diagonalización para T . (d) ¿Existe una base B de Pn tal que la representación matricial relativa a ésta del operador T es diagonal? Si la respuesta es positiva exhibir dicha base B. Solución (a) Sean p1 , p2 ∈ Pn y α, β ∈ R. Entonces, para todo x ∈ R, T (αp1 + β p2 )(x) = (αp1 + β p2 )(x) + (x + 1)(αp1 + β p2 ) (x) = (αp1 (x) + β p2 (x)) + (x + 1)(αp1 (x) + β p2 (x)) = αp1 (x) + α(x + 1)p1 (x) + β p2 (x) + β(x + 1)p2 (x) = αT (p1 )(x) + βT (p2 )(x) y por tanto, T (αp1 + β p2 ) = αT (p1 ) + βT (p2 ). (b) Si p = θ, donde θ es el polinomio constante cero, es un polinomio propio de T (un vector propio) y λ es un valor propio correspondiente, entonces p + (x + 1)p = λp de donde (x + 1) dp = (λ − 1)p. dx Al separar variables se obtiene dp = (λ − 1) p dx ; x+1 y por ende, ln |p| = ln |x + 1|λ−1 +C Page (PS/TeX): 114 / 530, COMPOSITE Ejercicios resueltos y ejercicios propuestos 531 SECCIÓN 5.4 para alguna constante C. Luego p = C1 (x + 1)λ−1 con C1 una constante distinta a cero. Dado que p debe pertenecer a Pn , se deduce que los valores propios de T son λk = k con k = 1, 2, . . . , n + 1 y los vectores propios correspondientes a cada valor propio λk son los polinomios pk (x) = C(x + 1)k−1 , C = 0. (c) Ya que los valores propios de T , λk = k, k = 1, . . . , n + 1, son distintos entre sı́ y dim(Pn ) = n + 1, T es diagonalizable. Una diagonalización para T consiste en el par D, P donde D = diag(1, 2, . . . , n + 1) y P = [ C1 · · · Cn+1 ] donde la columna Ck es el vector de coordenadas del polinomio propio pk (x) = (1 + x)k−1 correspondiente al valor propio λk = k; i.e., Ck es el vector que tiene como componentes los coeficientes de (1 + x)k−1 : C1 = (1, 0, . . . , 0) n+1 k k Ck = (1, ,..., , k, 1, 0, . . . , 0). 1 k−2 n−k (d) Sı́, por el inciso anterior la base es B = {1, 1 + x, (1 + x)2 , . . . , (1 + x)n }. Del ejercicio 46 al último ejercicio de este apartado de problemas resueltos, los espacios vectoriales, operadores lineales y matrices tratados en ellos se consideran sobre el campo de los números complejos C en forma implı́cita (cfr. 5.3.3). Sin embargo, se puede restringir a los números reales suponiendo que todos los valores propios de cualquier operador o matriz, ası́ como todas las raı́ces de los polinomios involucrados son números reales. 46 Sea la matriz de tamaño k × k ⎡ 0 0 ⎢ 1 0 ⎢ ⎢ A=⎢ ⎢ 0 1 ⎢ .. .. ⎣ . . 0 0 ··· ··· ··· .. . 0 ⎤ −a0 −a1 ⎥ ⎥ ⎥ −a2 ⎥ ⎥. ⎥ .. ⎦ . 0 1 −ak−1 0 0 .. . Demostrar que el polinomio caracterı́stico de A es pA (λ) = (−1)k (a0 + a1 λ + a2 λ2 + · · · + ak−1 λk−1 + λk ). Page (PS/TeX): 115 / 531, COMPOSITE (5.34) 532 CAPÍTULO 5 DEMOSTRACIÓN Transformaciones lineales, valores y vectores propios Q Se procede por inducción sobre k: si k = 1, entonces pA (λ) = det (−a0 − λ) = −a0 − λ = (−1)1 (a0 + λ1 ) y el resultado es cierto para este caso. Sea n un entero mayor a 1 y suponga que la fórmula 5.34 es válida para el caso k = n − 1. Entonces 0−λ 0 ··· 0 −a0 1 0−λ ··· 0 −a1 .. . 1 ··· . −a2 pA (λ) = 0 .. . .. . . . . . 0−λ . . 0 0 0 1 −an−1 − λ Al desarrollar por cofactores en la primera fila y hacer uso de la hipótesis de inducción se obtiene 0−λ 0 ··· 0 −a1 1 0−λ ··· 0 −a2 .. . −a3 1 ··· pA (λ) = −λ 0 .. . .. . . . . . 0−λ . . 0 0 0 1 −an−1 − λ 1 0−λ ··· 0 .. 0 . 1 ··· + (−1)n+1 (−a0 ) . . .. .. .. . 0 − λ 0 0 0 1 = −λ(−1)n−1 (a1 + a2 λ + a3 λ2 + · · · an−1 λn−2 + λn−1 ) + (−1)n a0 = (−1)n (a0 + a1 λ + a2 λ2 + · · · + an−1 λn−1 + λn ). Luego 5.34 vale para todo k ∈ N. Q 47 Sean E un espacio vectorial de dimensión finita, T un operador en E y S un subespacio T -invariante; esto es, T (S) ⊂ S. Sea TS : S → S el operador lineal TS (u) = T (u) para todo u ∈ S; es decir, TS es la restricción de T al subespacio T -invariante S. Demostrar que si pTS (λ) es el polinomio caracterı́stico de TS y pT (λ) es el polinomio caracterı́stico de T , entonces pTS (λ) divide a pT (λ). DEMOSTRACIÓN Q Sea {u1 , . . . ,uk } una base de S, entonces se puede completar ésta a una base B = {u1 , . . . ,uk ,vk+1 , . . . ,vn } de E. Por tanto, por ser S un subespacio T -invariante se tiene k T (u j ) = ∑ ai ju j i=1 para j = 1, . . . , k. Ası́, A = [ai j ] t es la representación matricial de TS relativa a la base {u1 , . . . ,uk } y [T ]B = Page (PS/TeX): 116 / 532, COMPOSITE A B O C ; SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 533 donde B es una matriz de tamaño k × (n − k), C es una matriz de tamaño (n − k) × (n − k) y O es la matriz cero de tamaño (n − k) × k. Entonces pT (λ) = det([T ]B − λIn ) A − λIk B = O C − λIn−k = det(A − λIk ) det(C − λIn−k ) = pTS (λ)pC (λ) donde pC (λ) es el polinomio caracterı́stico de la matriz C. Lo cual prueba que pTS (λ) divide a pT (λ). . Q 48 Sean T un operador lineal en un espacio vectorial E no trivial de dimensión finita y u ∈ E − {0E }. Al subespacio S generado por los vectores u,T (u), T 2 (u), . . .; esto es S = L ({u, T (u), T 2 (u), . . .}) (cfr. el ejercicio resuelto 31 del capı́tulo 3, pág. 190) se le llama el subespacio T -cı́clico generado por el vector u. (a) Demostrar que existe un entero k tal que {u, T (u), T 2 (u), . . . , T k−1 (u)} es una base de S. (b) Probar que S es T -invariante. (c) Sean a0 , a1 , . . . , ak−1 los únicos escalares tales que T k (u) = −a0u − a1 T (u) − a2 T 2 (u) − · · · − ak−1 T k−1 (u). y TS la restricción del operador T al subespacio S como en el ejercicio anterior. Demostrar que pTS (λ) = (−1)k (a0 + a1 λ + a2 λ2 + · · · + ak λk ) es el polinomio caracterı́stico del operador TS . DEMOSTRACIÓN Q (a) Dado que u = 0E , {u} es L.I. y, puesto que la dimensión de E es finita, existe un menor entero k ≥ 1 tal que el conjunto {u, T (u), T 2 (u), . . . , T k−1 (u)} es L.I. Entonces u, T (u), T 2 (u), . . . , T k−1 (u), T k (u) son L.D. y por tanto T k (u) ∈ W = gn(u, T (u), T 2 (u), . . . , T k−1 (u)) ⊂ S. Si v ∈ W , existen escalares α0 , α1 , . . . , αk−1 tales que v = α0u + α1 T (u) + α2 T 2 (u) + · · · + αk−1 T k−1 (u) y por tanto, T (v) = T (α0u + α1 T (u) + α2 T 2 (u) + · · · + αk−1 T k−1 (u) = α0 T (u) + α1 T 2 (u) + α2 T 3 (u) + · · · + αk−1 T k−1 (u) ∈ W. Ası́ que W = gn(u, T (u), T 2 (u), . . . , T k−1 (u)) es T -invariante. Dado que u ∈ W y este subespacio es T -invariante, se desprende que T r (u) ∈ W para todo r ∈ N. Luego W es un subespacio que Page (PS/TeX): 117 / 533, COMPOSITE 534 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios contiene a {u, T (u), T 2 (u), . . .} y ya que S = L ({u, T (u), T 2 (u), . . .}) es el menor subespacio que contiene a este subconjunto (cfr. el ejercicio resuelto 31 del capı́tulo 3), se tiene S ⊂ W y por tanto S = W . Puesto que B = {u, T (u), T 2 (u), . . . , T k−1 (u)} es L.I. y genera a W = S, se concluye que es una base de S. (b) En el inciso anterior se demostró que S = W y que W es T -invariante. (c) Sean TS la restricción del operador T al subespacio T -cı́clico S, B = {u, T (u), . . . , T k−1 (u)} la base que se construyó en el primer inciso para éste y a j , j = 0, 1, . . . , m − 1, los únicos escalares tales que T k (u) = −a0u − a1 T (u) − a2 T 2 (u) − · · · − ak−1 T k−1 (u), entonces ⎡ 0 0 ⎢ 1 0 ⎢ ⎢ [TS ]B = ⎢ ⎢ 0 1 ⎢ .. .. ⎣ . . 0 0 ··· ··· ··· .. . 0 ⎤ −a0 −a1 ⎥ ⎥ ⎥ −a2 ⎥ ⎥. ⎥ .. ⎦ . 0 1 −ak−1 0 0 .. . Por el ejercicio resuelto 46 de este apartado, el polinomio caracterı́stico de esta matriz está dado por la fórmula (5.34), luego pTS (λ) = (−1)k (a0 + a1 λ + · · · + ak−1 λk−1 + λk ). Q Para los ejercicios 49 a 53 considerar lo siguiente: si T es un operador lineal en un espacio vectorial de dimensión finita n y p(x) = a0 + a1 x + · · · + am x m es un polinomio, se define el operador lineal p(T ) = a0 I + a1 T + · · · + am T m (cfr. el ejercicio propuesto 400 de este capı́tulo) donde I es el operador identidad en E. Se puede interpretar a p(T ) como la evaluación del polinomio p en el operador T . De manera análoga si A es una matriz cuadrada de orden n, se define la matriz del mismo tamaño p(A) = a0 I + a1 A + · · · + am Am , donde I es la matriz identidad del mismo tamaño de A y se interpreta p(A) como la evaluación del polinomio p en la matriz A. 49 Sean T un operador lineal en un espacio vectorial de dimensión finita n, A la representación matricial de k T relativa a una base B de E y p(x) = ∑m k=0 ak x un polinomio. Demostrar que p(T ) = θ, el operador constante cero, si y sólo si p(A) = O, la matriz cero del mismo orden de A. DEMOSTRACIÓN Q Por el teorema 5.12 (cfr. pág. 436) [p(T )u]B = [a0 I(u) + a1 T (u) + a2 T 2 (u) + · · · + am T m (u)]B = a0 [u]B + a1 [T (u)]B + a2 [T 2 (u)]B + · · · + am [T m (u)]B = a0 [u]B + a1 A[u]B + a2 A2 [u]B + · · · + am Am [u]B = (a0 I + a1 A + a2 A2 + · · · + am Am )[u]B . Page (PS/TeX): 118 / 534, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 535 De donde p(T ) = θ ⇔ p(T )u = 0E ∀u ∈ E ⇔ [p(T )u]B = 0Rn ∀u ∈ E ⇔ (a0 I + a1 A + a2 A2 + · · · + am Am )[u]B = 0Rn ∀u ∈ E ⇔ (a0 I + a1 A + a2 A2 + · · · + am Am )x = 0Rn ∀x ∈ Rn ⇔ (a0 I + a1 A + a2 A2 + · · · + am Am ) = O ⇔ p(A) = O. Q 50 (Teorema de Cayley-Hamilton). Demostrar el siguiente teorema: (a) Si T es un operador en un espacio vectorial de dimensión finita y pT (λ) es su polinomio caracterı́stico, entonces pT (T ) = θ donde θ es el operador constante cero; es decir, pT (T )(u) = 0E ∀u ∈ E. Lo cual significa que en un espacio vectorial de dimensión finita todo operador es un cero de su polinomio caracterı́stico. (b) Si A es una matriz cuadrada y pA (λ) es su polinomio caracterı́stico, entonces pA (A) = O donde O es la matriz cero del mismo orden que la matriz A. Lo cual se interpreta diciendo que toda matriz cuadrada es un cero de su polinomio caracterı́stico. DEMOSTRACIÓN Q (a) Sea u ∈ E, si u = 0E , entonces claramente pT (T )(u) = 0E porque T es lineal. Suponga que u ∈ E − {0E } y sea S el espacio T -cı́clico generado por u considerado en el ejercicio resuelto 48 de este apartado. Por el ejercicio resuelto 48 existen un entero k ≥ 1 y escalares únicos a j tales que {u, T (u), . . . , T k−1 (u)} es una base de S; S es un subespacio T -invariante; T k (u) = −a0 − a1 T (u) − · · · − ak−1 T k−1 (u); pTS (λ) = (−1)k (a0 + a1 λ + · · · + ak−1 λk−1 + λk ) es el polinomio caracterı́stico de TS , la restricción de T al subespacio S. Entonces, por el ejercicio resuelto 47 de este capı́tulo, pTS (λ) divide al polinomio caracterı́stico de pT (λ) y por tanto existe un polinomio q(λ) tal que pT (λ) = pTS (λ)q(λ). Page (PS/TeX): 119 / 535, COMPOSITE 536 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Y ya que (cfr. ejercicio resuelto 48 de este apartado) pTS (T )u = (−1)k (a0 I + a1 T + · · · + ak−1 T k−1 + T k )u = (−1)k (a0u + a1 T (u) + · · · + ak−1 T k−1 (u) + T k (u)) = (−1)k0E = 0E se desprende que pTS (T ) = θ. (b) Es consecuencia inmediata del inciso anterior al tomar T = TA . Q 51 Sea p(x) = a0 + a1 x + · · · + am x m un polinomio de grado m. (a) Si T es un operador lineal en un espacio vectorial E, λ es un valor propio de T y p se anula en T ; esto es, a0 I + a1 T + · · · am T m = θ, el operador constante cero, demostrar que p(λ) = 0. (b) Si A es una matriz cuadrada, λ es un valor propio de A y p se anula en A; esto es, a0 I + a1 A + · · · + am Am = O , la matriz cero, demostrar que p(λ) = 0. DEMOSTRACIÓN Q (a) Sea u ∈ E − {0E } un vector propio correspondiente al valor propio λ. Entonces 0E = θ(u) = p(T )u = a0 I(u) + a1 T (u) + a2 T 2 (u) + · · · + am T m (u) = a0u + a1 λu + a2 λ2u + · · · + am λmu = (a0 + a1 λ + a2 λ2 + · · · + am λm )u y, ya que u = 0E , se concluye p(λ) = a0 + a1 λ + a2 λ2 + · · · + am λm = 0. (b) Es inmediata del inciso anterior al poner T = TA . Q 52 (Polinomio mı́nimo). (a) Sean E un espacio vectorial de dimensión finita y T un operador lineal en E. (i) Probar que existe un polinomio mónico m (el coeficiente de la mayor potencia es uno) de grado mı́nimo tal que T es un cero de m; es decir, m(T ) = θ. . . (ii) Demostrar que si p es cualquier otro polinomio y T es un cero de p, entonces m divide a p. En particular m divide al polinomio caracterı́stico de T . (iii) Mostrar que sólo puede existir un polinomio mónico de grado mı́nimo que se anula en T. Al polinomio mónico m de grado mı́nimo que se anula en T se le llama el polinomio mı́nimo del operador T . (b) Sea A una matriz cuadrada. (i) Probar que existe un polinomio mónico m (el coeficiente de la mayor potencia es uno) de grado mı́nimo tal que T es un cero de m; es decir, m(A) = O. Page (PS/TeX): 120 / 536, COMPOSITE SECCIÓN 5.4 . . Ejercicios resueltos y ejercicios propuestos 537 (ii) Demostrar que si p es cualquier otro polinomio con A es un cero de p; entonces m divide a p. En particular m divide al polinomio caracterı́stico de A. (iii) Mostrar que sólo puede existir un polinomio mónico de grado mı́nimo que se anula en A. Al polinomio mónico m, de grado mı́nimo y que se anula en A, se le llama el polinomio mı́nimo de la matriz A. DEMOSTRACIÓN Q (a) (i) Por el teorema de Cayley-Hamilton (ejercicio resuelto 50) existe al menos un polinomio que se anula en T , el polinomio caracterı́stico de T . De entre todos los polinomios que se anulan en T hay al menos uno, m, de grado mı́nimo. Es claro que de ser necesario se puede dividir entre el coeficiente principal (el coeficiente de la mayor potencia) y hacer que m(x) sea un polinomio mónico. (ii) Sea p(x) cualquier polinomio tal que p(T ) = θ. Por algoritmo de división existen un par de polinomios q, r tales que p(x) = m(x)q(x) + r(x) con r(x) = 0, el polinomio constante cero, o 0 ≤ grad(r) ≤ grad(m) − 1 (grad(w) denota el grado del polinomio w). Entonces θ = p(T ) = m(T )q(T ) + r(T ) = θ + r(T ) = r(T ) y por tanto r(T ) = θ. Ası́ T se anula en el polinomio r(x) el cual es el polinomio constante cero o tiene grado menor que el grado del polinomio m; por la definición de m la última alternativa no puede ser, entonces se concluye que r(x) es el polinomio constante cero. Luego m divide a p. (iii) Sea p1 (x) un polinomio mónico de grado mı́nimo que se anula en T . Entonces m y p1 tienen el mismo grado y por el inciso anterior existe un escalar c tal que p1 (x) = cm(x) y puesto que ambos son mónicos, se desprende que c = 1 y por tanto p1 (x) = m(x). (b) Es consecuencia inmediata del inciso anterior al poner T = TA . Q 53 Demostrar que el polinomio mı́nimo y el polinomio caracterı́stico de un operador T , en un espacio de dimensión finita, o de una matriz cuadrada, tienen las mismas raı́ces y por ende, los mismos factores irreducibles. DEMOSTRACIÓN Q Sean pT (x) y m(x) los polinomios caracterı́stico y mı́nimo del operador T . Por el ejercicio resuelto 51 de este segmento, toda raı́z del polinomio pT (x) es raı́z del polinomio mı́nimo, pues toda raı́z del polinomio caracterı́stico es valor propio del operador T . Inversamente, puesto que m(x) divide al polinomio pT (x), toda raı́z del polinomio mı́nimo es raı́z del polinomio caracterı́stico. Si λi , i = 1, . . . , k, son los valores propios distintos entre sı́ del operador T , entonces los factores irreducibles pT son (x − λ1 ), . . . , (x − λk ) Page (PS/TeX): 121 / 537, COMPOSITE 538 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios y, ya que ambos polinomios tienen las mismas raı́ces, éstos son también los factores irreducibles de m. El caso para una matriz cuadrada A es consecuencia inmediata de lo precedente al tomar T = TA . Q 54 Encontrar el polinomio mı́nimo del operador lineal T : R3 → R3 definido por T (x, y, z) = (−y, 2x + 3y, −x − y + z). T (1, 0, 0) = (0, 2, −1), Solución T (0, 1, 0) = (−1, 3, −1), T (0, 0, 1) = (0, 0, 1). Por tanto, ⎡ 0 −1 3 [T ]B = ⎣ 2 −1 −1 ⎤ 0 0 ⎦ 1 y 0−λ pT (λ) = 2 −1 −1 3−λ −1 0 0 1−λ −λ −1 = (1 − λ) 2 3−λ = (1 − λ)(λ2 − 3λ + 2) = −(λ − 1)(λ − 1)(λ − 2) = −(λ − 1)2 (λ − 2). Puesto que el polinomio mı́nimo m(λ) divide a pT (λ), ambos tienen los mismos factores lineales y m es mónico, entonces m(λ) es uno de estos polinomios p1 (λ) = (λ − 1)2 (λ − 2), p2 (λ) = (λ − 1)(λ − 2) = λ2 − 3λ + 2. Y como p1 ([T ]B ) = −pT ([T ]B ) = −O = O y p2 ([T ]B ) = (A − I)(A − 2I) ⎤⎡ ⎡ −2 −1 −1 −1 0 1 2 0 ⎦⎣ 2 =⎣ 2 −1 −1 −1 −1 0 ⎤ ⎡ 0 0 0 = ⎣ 0 0 0 ⎦, 0 0 0 se tiene que m(λ) = p2 (λ) = λ2 − 3λ + 2 es el polinomio mı́nimo de T . Page (PS/TeX): 122 / 538, COMPOSITE ⎤ 0 0 ⎦ −1 SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 539 5.4.2 Ejercicios propuestos El lector encontrará la respuesta a los ejercicios en cursiva en el apéndice E al final del libro. Transformaciones lineales (respuestas en páginas 1084-1086) En los ejercicios 1 a 20 utilizar la definición 5.1 para determinar si la transformación T : E → F, definida por la fórmula dada para todo vector en E, es o no lineal. En caso afirmativo probar rigurosamente que se cumplen las dos condiciones de esta definición y en caso contrario mostrar las propiedades que no se cumplen mediante contraejemplos. 1 T : R2 → R3 , T (x, y) = (−x, x + y, 2x − 2y). 2 T : R → R2 , T (x, y) = (e x , ey ). 3 T : R → R2 , T (x) = (x, e x ). 4 T : R2 → R2 , T (x, y) = (x, 0). 5 T : R3 → R3 , T (x, y, z) = (x, y, 0). 6 T : R3 → R3 , T (x, y, z) = (0, 0, z). 7 T : R3 → R2 , T (x, y, z) = (−x + 2y + z, 2x − y + z). 8 T : R2 → R2 , T (x, y) = (y, x). 9 T : R2 → R2 , T (x, y) = (x, −y). 10 T : R2 → R2 , T (x, y) = (−x, y). 11 T : R2 → R2 , T (x, y) = (x2 , y2 ). 12 T : R2 → R2 , T (x, y) = (x, x). 13 T : R2 → R, T (x, y) = xy. 14 T : R2 → R, T (x, y) = −3x + 2y. 15 T : C[0, 1] → R, T ( f ) = f (0). 16 T : C[0, 1] → R2 , T ( f ) = ( f (0), f (1)). 17 T : C1 [−1, 1] → R2 , T ( f ) = ( f (1/2), 1 −1 f (x)dx). 18 T : Mn → R, T (A) = det(A). 19 T : P → P, T (p) = q, donde q(x) = p(x − 1). Page (PS/TeX): 123 / 539, COMPOSITE 540 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 20 T : L1 [a, ∞) → R, T ( f ) = de la página 372. ∞ a f (x)dx, donde L1 [a, ∞) es el espacio vectorial del ejercicio resuelto 37 En los ejercicios 21 a 30 determinar si la transformación T : Rn → Rm es lineal encontrando, si es posible, una representación matricial relativa a las bases canónicas de los espacios Rn y Rm como se hizo en el ejemplo 5.11. 21 T : R3 → R4 , T (x1 , x2 , x3 ) = (−5x1 − x3 , −3x1 − 7x2 , 2x2 + x3 , −3x1 + 3x2 − x3 ). 22 T : R3 → R3 , T (x, y, z) = (x + z, −x + y + z, −2x + y + 3z) 23 T : R3 → R3 , T (x, y, z) = (yx + x, xz − y, x + y + z). 24 T : R3 → R3 , T (x, y, z) = (x, −y, x + y + z). 25 T : R2 → R3 , T (x, y) = (2x − 3y, −x + y). 26 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 + 2x3 − x4 , −2x1 − x2 + x4 , x1 − x2 + x3 − 3x4 ). 27 T : R2 → R2 , T (x, y) = (x − y, x2 − y2 ). 28 T : R3 → R, T (x, y, z) = −2x + 3y − z. 29 T : R3 → R2 , T (x, y, z) = (x + 3y − z, 2x − y + 2z). 30 T : R4 → R2 , T (x1 , x2 , x3 , x4 ) = (x1 + x2 − x3 − x4 , x1 + x2 ). En los ejercicios 31 a 37 utilizar el ejercicio resuelto 1 de esta sección para encontrar una transformación lineal T : Rn → Rm tal que T (ei ) = fi . 31 T : R3 → R4 , T (1, 0, 1) = (−1, 1, 2, 1), T (−1, 1, 1) = (−2, 3, 2, 4) y T (0, 1, 1) = (−2, 1, 3, 0). 32 T : R2 → R3 , T (1, 2) = (1, −1, 1) y T (−1, 1) = (−2, 3, 1). 33 T : R4 → R3 , T (1, 0, 1, 1) = (1, 1, −1), T (0, −1, 1, 1) = (2, 0, 1), T (−2, 1, 2, 1) = (1, 0, 1) y T (−1, 0, 1, 1) = (−2, 1, 2). 34 T : R3 → R3 , T (1, 2, 1) = (1, 2, −1) y T (−1, 1, 0) = (2, −2, 1) y T (−1, 1, 3) = (1, 2, −1). 35 T : R2 → R2 , T (1, 1) = (1, 2) y T (−1, 1) = (1, 2). 36 T : P2 → P3 , T (1) = x, T (2x) = x2 , T (3x2 ) = x3 . Page (PS/TeX): 124 / 540, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 541 1 0 0 1 −1 0 = (−1, 2, 1, 1), T = (1, 0, 1, −1), T = 37 T : M2 → R , T 0 1 1 0 1 1 1 0 (2, −1, 1, 0) y T = (0, 0, 1, 1). 0 0 4 38 Si E, F son dos espacios vectoriales y T : E → E es una transformación, probar que T es lineal si y sólo si T (αu + βv) = αT (u) + βT (v) para todo par de vectores u,v ∈ E y para todo par de escalares α, β. 39 Encontrar la aplicación lineal T : R2 → R2 tal que a todo vector u lo transforma en el vector que se obtiene al girar φ radianes en sentido contrario a las manecillas del reloj a u y que tiene la misma norma que este vector. 40 Encontrar la aplicación lineal T : R2 → R2 que a todo vector u lo transforma en la reflexión de éste respecto al eje x. 41 Encontrar la aplicación lineal T : R2 → R2 que a todo vector u lo transforma en la reflexión de éste respecto al eje y. 42 Encontrar la aplicación lineal T : R3 → R3 tal que a todo vector u lo transforma en el vector que se obtiene al girar φ radianes en sentido contrario a las manecillas del reloj a u alrededor del eje z y que tiene la misma norma que este vector. En los ejercicios 43 a 50 utilizar los ejercicios resueltos 4 y 5 para encontrar una transformación lineal T : E → F cuya imagen esté generada por los vectores fi del espacio F. 43 E = R3 , F = R4 , f1 = (−1, 2, 1, 1), f2 = (−1, 0, 1, 1) y f3 = (2, −1, 0, 2). 44 E = R2 , F = R2 , f1 = (−1, 1) y f2 = (3, 1). 45 E = R3 , F = R3 , f1 = (1, 1, 1) y f2 = (2 − 1, 1). 46 E = R2 , F = R4 , f1 = (1, 0, 1, 1), f2 = (0, −1, 1, 1) y f3 = (2, 1, 1, 2). 47 E =gn(1, x, x2 ) < P, F = P, f1 = x2 − 2x, f2 = x3 + 1. 48 E =gn(1, x + 1, x2 − x) < P, F = P, f1 = 1, f2 = x2 + 1, f3 = 3x − 2. 49 E = gn(cos x, sen x) < F(R), F = R2 , f1 = (1, 1), f2 = (−1, 2). 50 E el espacio de matrices simétricas 2 × 2, F = R3 , f1 = (1, 0, 0), f2 = (0, 1, 0) y f3 = (0, 0, 1). 51 Probar que si E es un espacio de dimensión finita n; F es un espacio vectorial cualquiera; e1 , . . . ,em , con 0 < m < n, son vectores L.I. del espacio E y dim(F) > n − m; entonces existe T ∈ L (E, F), no nula, tal que Ker(T ) = gn(e1 , . . . ,em ). Page (PS/TeX): 125 / 541, COMPOSITE 542 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios En los ejercicios 52 a 57 encontrar, utilizando el ejercicio precedente, una transformación T ∈ L (E, F) cuyo núcleo esté generado por los vectores dados del espacio E. 52 E = R4 , F = R3 , e1 = (−1, 2, 1, 0), e2 = (1, 0, 1, 1). 53 E = R4 , F = R3 , e1 = (−1, 1, −1, 0), e2 = (−2, 0, 1, 1). 54 E = R3 , F = R3 , e1 = (−1, 0, 1). 55 E = R3 , F = R4 , e1 = (1, 0, 1), e2 = (−1, 0, 1). 56 E = P3 , F = P, e1 = x − 1, e2 = x. 57 E = M2 , F = R4 , e1 = 1 0 −1 2 , e2 = 1 0 0 1 . 58 Encontrar una transformación lineal T : R3 → R3 cuyo núcleo esté generado por (−1, 2, 1) y cuya ima- gen esté generada por (−2, 1, 3) y (−1, 0, 1). 59 Encontrar una transformación lineal T : R3 → R4 cuyo núcleo esté generado por (−1, 0, 1), (0, −1, 1) y cuya imagen esté generada por (1, −1, 0, 2) y (3, −1, 0, 1). 60 Hallar una transformación lineal T : P3 → P cuyo núcleo esté generado por x − 2, x2 y cuya imagen esté generada por x − 1, x3 . 61 Encontrar una transformación lineal T : P4 → P tal que su núcleo esté generado por x − 1, 2 − x y la imagen esté generada por x2 − 2, 4 − x2 , x3 + 1. 62 Sea T : Rn → Rm una transformación (no necesariamente lineal); entonces T (u) = (T1 (u), . . . , Tm (u)), donde Ti : Rn → R, i = 1, . . . , m. A las tranformaciones Ti se les llaman funciones componentes de la aplicación T . Por ejemplo, si T : R3 → R2 está definida por T (x, y, z) = (x2 − yz, xz + y2 ) para todo (x, y, z) ∈ R3 , entonces las funciones componentes de T son T1 (x, y, z) = x2 − yz y T2 (x, y, z) = xz + y2 . (a) Sea T : Rn → R una transformación. Probar que T es lineal si y solo si existen ai ∈ R, i = 1, . . . , n, tales que T (x1 , . . . , xn ) = a1 x1 + · · · + an xn . (b) Sea T : Rn → Rm una transformación con funciones componentes Ti : Rn → R, i = 1, . . . , m. Probar que T es lineal si y sólo si todas sus funciones componentes son lineales. (c) Sea T : Rn → Rm una transformación con funciones componentes Ti : Rn → R, i = 1, . . . , m. Probar que T es lineal si y sólo si todas sus funciones componentes son de la forma n T j (x1 , . . . , xn ) = ∑ a ji xi i=1 para ciertos escalares a ji . Page (PS/TeX): 126 / 542, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 543 En los ejercicios 63 a 77 utilice el ejercicio 62(c) para determinar por simple inspección si la transformación T : Rn → Rm , definida por la fórmula indicada para todo u ∈ Rn , es lineal o no. 63 T : R3 → R2 , T (x, y, z) = (x − y, x + y + z). 64 T : R3 → R2 , T (x, y, z) = (x + y, x + y2 + z). 65 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (0, x1 − x2 , 2x1 + x2 + 3x3 − x4 ). 66 T : R4 → R2 , T (x1 , x2 , x3 , x4 ) = (x1 x2 + x3 , x1 + x4 ). 67 T : R2 → R2 , T (x, y) = (x cos θ, y sen θ), donde θ ∈ R es dado. 68 T : R2 → R2 , T (x, y) = (θ cos x, θ sen y), donde θ ∈ R es dado. 69 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 + 1, x2 + 1, x3 + 1, x4 + 1). 70 T : R3 → R3 , T (x, y, z) = (x, 2y, 3z). 71 T : R2 → R2 , T (x, y) = (x, y2 ). 72 T : R2 → R2 , T (x, y) = (x, ey ). 73 T : R2 → R2 , T (x, y) = (x, |y|). 74 T : R3 → R3 , T (x, y, z) = (y, −x, z). 75 T : Rn → R, T (x1 , . . . , xn ) = 1 n ∑ni=1 xi . 76 T : Rn → R, T (x1 , . . . , xn ) = 1 n ∏ni=1 xi = 1n x1 , . . . , xn . 77 T : Rn → Rn , T (x1 , . . . , xn ) = (x1 , x1 + x2 , . . . , x1 + · · · + xn ). 78 Sean E un espacio con producto interior ·, ·, v ∈ E − {0E } un vector dado, S = gn(v) y π : E → S definida por π(u) = pu donde pu es el vector proyección de cada u ∈ E sobre v. (a) Probar que π es lineal. (b) Determinar el núcleo de π. 79 Sean E = Rn , e1 , . . . ,em ∈ E vectores L.I. dados, S = gn(e1 , . . . ,em ) y T : E → S definida por π(u) = pu donde pu es el vector proyección de cada u ∈ E sobre S. (a) Probar que π es lineal. (b) Determinar el núcleo de π. 80 Sean E un espacio con producto interior ·, ·, S = {0E } un subespacio de dimensión finita de E y π : E → S definida por π(u) = pu donde pu es el vector proyección de cada u ∈ E sobre S. (a) Probar que π es lineal. (b) Determinar el núcleo de π. Page (PS/TeX): 127 / 543, COMPOSITE 544 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios En los ejercicios 81 a 90 T : Rn → Rm es una transformación definida por la fórmula dada para todo u ∈ Rn . (i) Por simple inspección, utilizando el ejercicio 62(c), verificar que T es lineal; (ii) hallar una matriz A ∈ Mm×n tal que T = TA (cfr. la discusión dada en la pág. 420); (iii) hallar una base y dim(T (Rn )); (iv) encontrar una base y la dimensión de Ker(T ); (v) determinar si T es inyectiva y (vi) determinar si T es suprayectiva. 81 T : R3 → R2 , T (x, y, z) = (−x + 2y − 3z, x + y − z). 82 T : R2 → R2 , T (x, y) = (x + y, −y). 83 T : R3 → R3 , T (x, y, z) = (−x + y + z, −2x + y + 3z, x − 2z). 84 T : R2 → R3 , T (x, y) = (x + y, y, 0). 85 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 + 3x3 , −x2 + x1 , −x1 + x2 − 4x3 + x4 ). 86 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 , x2 + x3 , x1 − x4 , x1 + x2 + x3 ). 87 T : R3 → R3 , T (x, y, z) = (x − y + z, 2x − y − 3z, 3x − y − 7z). 88 T : R3 → R4 , T (x, y, z) = (x − y + z, x + 3y − 4z, x − 2y + z, 3x − 4y − z). 89 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 , x1 + x3 − x4 , −x1 − 2x2 − 3x3 + 3x4 , −x2 − x3 ). 90 T : R3 → R3 , T (x, y, z) = (x − y + z, −2x + y + z, x − y + 2z). 91 Sea T ∈ L (Rn , R), probar que T es suprayectiva o T es la aplicación constante cero. 92 Sea T ∈ L (R, Rn ), probar que T es inyectiva o T es la aplicación constante cero. 93 Mostrar que si T1 y T2 son transformaciones lineales de un espacio vectorial E de dimensión finita en un espacio F y {u1 , . . . ,un } es una base de E, entonces T1 = T2 si y sólo si T1 (ui ) = T2 (ui ) para todo i = 1, . . . , n. 94 Sean E, F dos espacios vectoriales con dim(E) finita, S < E y T ∈ L (E, F). Demostrar que dim(S) = dim(S ∩ Ker(T )) + dim(T (S)). 95 Sean E, F espacios vectoriales y T ∈ L (E, F). Mostrar que si T (u1 ), . . . , T (um ) son L.I. en F, entonces u1 , . . . ,um son L.I. en E. ¿Es cierto el recı́proco? Si la respuesta es negativa, dar un contraejemplo. 96 Sean E y F un par de espacios vectoriales y T1 , T2 : E → F dos transformaciones lineales tales que T1 (E) ∩ T2 (E) = {0F }, mostrar que T1 y T2 son L.I. en el espacio vectorial L (E, F) (cfr. el ejercicio resuelto 31 del capı́tulo 3, pág. 190). 97 Sean P el espacio de polinomios y n ≥ 1 un entero. Para cada k = 1, . . . , n sea Tk el operador lineal en P definido por Tk (p) = p(k) , donde p(k) es la k-ésima derivada del polinomio p. Demostrar que T1 , . . . , Tn son L.I. Page (PS/TeX): 128 / 544, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 545 98 Probar que si T ∈ L (E, F), entonces dim(T (E)) ≤ dim(F). 99 Sean A ∈ Mm×n y B ∈ Mn×p , probar que Rang(AB) ≤ Rang(B) y Rang(AB) ≤ Rang(A). 100 Sea T : R∞ → R∞ la función definida por T ((an )) = (a2n ) para cada sucesión (an ) ∈ R∞ . (a) Demostrar que T es un operador lineal en el espacio de sucesiones R∞ . (b) Probar que T es suprayectivo. (c) Demostrar que T es singular (no inyectivo). (d) Sea c00 el subespacio de sucesiones finitas (cfr. el ejercicio propuesto 357 del cap. 3, pág. 228). Demostrar que T (c00 ) = c00 . (e) Mostrar que (cfr. el ejercicio resuelto 8 de esta sección) c00 ⊂ T −1 (c00 ) pero c00 = T −1 (c00 ). 101 Sea T : C[0, 1] → C[0, 1] el operador definido por T ( f ) = g donde g(x) = x 0 f (t)dt, mostrar que T es inyectivo pero no suprayectivo. 102 Sean E y F un par de espacios vectoriales con dimensión de E finita, V < F, T ∈ L (E, F) y T −1 (V ) la imagen inversa del subespacio V (cfr. el ejercicio resuelto 8). Probar que dim(T −1 (V )) = dim(Ker(T ) + dim(V ∩ T (E)). En los ejercicios 103 a 107 E = Mn es el espacio de matrices de orden n y T : E → E es el operador definido como T (A) = A + At 2 para toda A ∈ E. 103 Probar que T es un operador lineal en E. 104 Probar que Ker(T ) es el subespacio S2 matrices antisimétricas (cfr. el ejercicio resuelto 28, pág. 187). 105 Demostrar que T (E) es el subespacio de todas las matrices simétricas (cfr. el ejemplo 3.25). 106 En el ejercicio propuesto 353 del capı́tulo 3 (pág. 227), se pide encontrar la dimensión del subespacio de matrices simétricas. Utilizar ese resultado para calcular la dimensión del subespacio de matrices antisimétricas. Page (PS/TeX): 129 / 545, COMPOSITE 546 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 107 Sea L : E → E el operador definido, para cada A ∈ E, por L(A) = A − At . 2 (a) Probar que L es lineal. (b) Describir Ker(L), encontrar una base para este subespacio y su dimensión. (c) Determinar L(E), encontrar un base y la dimensión de este subespacio. 108 Sean F (R) el espacio de funciones reales con dominio en R y T : F (R) → F (R) el operador definido, para cada f ∈ F (R), por T ( f ) = g donde g(x) = f (x) + f (−x) 2 para todo x ∈ R. (a) Probar que T es lineal. (b) Determinar el núcleo y la imagen de T (cfr. los ejercicios 124 y 125 del capı́tulo 3). 109 Sean F (R) el espacio de funciones reales con dominio en R y T : F (R) → F (R) el operador definido, para cada f ∈ F (R), por T ( f ) = g donde g(x) = f (x) − f (−x) 2 para todo x ∈ R. (a) Probar que T es lineal. (b) Determinar el núcleo y la imagen de T (cfr. los ejercicios 124 y 125 del capı́tulo 3). En los ejercicios 110 a 124 se define una transformación T entre los espacios vectoriales indicados E y F. (i) Probar que T es lineal; (ii) determinar el núcleo y la imagen de T ; (iii) calcular las dimensiones de Ker(T ) y T (E) y en caso de ser finitas hallar bases para estos subespacios. 110 E = F = Pn , T : E → F definida por T (p) = q donde, para cada p ∈ E, q(x) = p(x − 1) para todo x. 111 E = F = P3 , T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = x f (x) para todo x. 112 E = F = P3 , T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = f (x) para todo x. 113 E = P, F = R, T : E → F definida por T ( f ) = f (0). 114 E = P3 , F = R, T : E → F definida por T ( f ) = f (0). 115 E = M2 , F = R, T : E → F, T (A) = tra(A), la traza de la matriz A (la suma de los elementos de la diagonal). 116 E = M3 , F = R, T : E → F, T (A) = tra(A), la traza de la matriz A (la suma de los elementos de la diagonal). Page (PS/TeX): 130 / 546, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 547 117 E = P2 , F = P3 , T : E → F, T (p) = q, donde q(x) = xp(x) + p (x). 118 E = C1 (R), el espacio de funciones con valores reales derivables con continuidad en R; F = C(R), el espacio de funciones con valores reales continuas en R; T : E → F definida por T ( f ) = g(x), donde g(x) = x f (x) + f (x) para todo x ∈ R. 119 E = F = P3 , T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = x f (x) para todo x. 120 E = F = C[−1, 1], T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = x f (x) para todo x ∈ [−1, 1]. 121 E = F = C[a, b], T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = a b f (t)e x−t dt para todo x ∈ [a, b]. En este caso se debe primero probar que efectivamente g ∈ C[a, b]. 122 E = F = C[a, b], T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = b a f (t) sen(x − t)dt para todo x ∈ [a, b]. En este caso se debe primero probar que efectivamente g ∈ C[a, b]. 123 E = C2 [a, b], F = C[a, b], T : E → F definida por T ( f ) = f + 2 f − 3 f para cada f ∈ C 2 [a, b]. 124 E = F el espacio de sucesiones convergentes (cfr. el ejercicio 112 de la pág. 213), T : E → F definida, para cada (an ) ∈ E, por T ((an )) = (yn ) donde yn = a − an para todo n y a = lı́mn→∞ an . En los ejercicios 125 a 129 E = C[−π, π], S es el subconjunto de E de funciones f tales que π −π f (x)dx = 0, π −π f (x) cos xdx = 0 y π −π f (x) sen xdx = 0. 125 Probar que S es un subespacio de E. 126 Probar que las funciones fn (x) = cos(nx) y gn (x) = sen(nx) pertenecen a S para todo n = 2, 3, . . . 127 Probar que S tiene dimensión infinita. 128 Sea T : E → E el operador definido, para cada f ∈ E, por T ( f ) = g(x) donde g(x) = π −π (1 + cos(x − t)) f (t)dt para todo x ∈ [−π, π], probar que T es lineal. 129 Sea T el operador lineal definido en el ejercicio anterior. (a) Probar que T (E) tiene dimensión finita, hallar una base para este subespacio y el rango de T (la dimensión de T (E)). Page (PS/TeX): 131 / 547, COMPOSITE 548 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios (b) Encontrar el núcleo de T . (c) Hallar todas las funciones f ∈ C[−π, π] tales que T ( f ) = λ f para alguna constante λ ∈ R (las funciones propias de T ). 130 Sean E un espacio vectorial, T un operador lineal en él que es inyectivo y E = T (E). Probar que T es una transformación lineal biyectiva del espacio E al espacio E y que por tanto es invertible. En los ejercicios 131 a 137 se define un operador T : Rn → Rn en el espacio Rn indicado. (i) Probar que T es un operador lineal; (ii) mostrar que T es biyectivo; (iii) encontrar T −1 (u) para todo u ∈ Rn . 131 R2 , T (x, y) = (x + 2y, x + y). 132 R2 , T (x, y) = (x − 2y, −x + 3y). 133 R2 , T (x, y) = (x − y, 2x − 3y) 134 R3 , T (x, y, z) = (x − y + z, x − 2y − z, −x + 3y − 2z). 135 R3 , T (x, y, z) = (x + y, x − y − z, −x + y − z). 136 R3 , T (x, y, z) = (x + y + 3z, x − y, x + z, ). 137 R3 , T (x, y, z) = (x + y, 3x + y + z, 2x − y + z). En los ejercicios 138 a 148, E es un espacio vectorial y T , T1 , T2 : E → E son operadores lineales. Se acostumbra escribir T T1 en lugar de la notación empleada para la composición T ◦T1 de estos operadores (cfr. el ejercicio resuelto 12 de esta sección). Se definen T 0 = I, donde I(u) = u para todo u ∈ E es el 1 n operador lineal identidad; T n = T ◦ · · · ◦ T o, de manera más rigurosa: T = T y por inducción T = n T ◦ T n−1 para n = 1, 2, . . . y, si T es además invertible, se define T −n = (T −1 )n para todo n = 0, 1, 2, . . . Del ejercicio propuesto 12 de esta sección T T1 , T n son operadores lineales también. 138 Probar que T (αT1 ) = α(T T1 ) para todo α ∈ R. 139 Mostrar que (αT )(βT1 ) = αβ(T T1 ) para todo par de números reales α, β ∈ R. 140 Demostrar que T n T m = T n+m para todo par de números enteros no negativos n, m; y que esta misma igualdad es válida para todo par de números enteros n, m si además el operador T es invertible. 141 Mostrar que (T n )m = T nm para todo par de números enteros no negativos n, m y que esta misma igualdad es válida para todo par de números enteros n, m si además el operador T es invertible. 142 Demostrar que T (T1 + T2 ) = T T1 + T T2 y (T1 + T2 )T = T1 T + T2 T. Page (PS/TeX): 132 / 548, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 549 143 Probar que T I = IT = T . 144 Dar un ejemplo de un espacio E y un par de operadores lineales T1 y T2 tales que T1 T2 = T2 T1 . 145 Si T1 y T2 conmutan; es decir, T1 T2 = T2 T1 , mostrar que (T1 T2 )n = T1n T2n para cualquier entero n ≥ 0. 146 Si T1 y T2 son invertibles, demostrar que T1 T2 es también invertible y (T1 T2 )−1 = T2−1 T1−1 ; i.e., (T1 ◦ T2 )−1 = T2−1 ◦ T1−1 . 147 Si T1 y T2 conmutan y son invertibles, probar que sus respectivos operadores inversos también conmutan. 148 Demostrar que si T1 y T2 conmutan entonces: (a) (T1 + T2 )2 = T12 + 2T1 T2 + T22 . (b) (T1 + T2 )3 = T13 + 3T12 T2 + 3T1 T22 + T23 . (c) Indicar cómo deben modificarse las fórmulas de los dos incisos anteriores en el caso de que T1 T2 = T2 T1 . 149 Sean T1 , T2 : R3 → R3 los operadores lineales definidos por T1 (x, y, z) = (x, z, y) y T2 (x, y, z) = (x, x + y, x + y + z) para cada (x, y, z) ∈ R3 . (a) Encontrar la imagen del punto (x, y, z) al aplicarle cada uno de los operadores lineales (i) T1 T2 ; (ii) T2 T1 ; (iii) T12 ; (iv) T22 ; (v) (T1 T2 − T2 T1 )2 . (b) Demostrar que T1 y T2 son invertibles y encontrar (i) T1−1 (x, y, z), (ii) T2−1 (x, y, z); (iii) (T1 T2 )−1 (x, y, z); (iv) (T2 T1 )−1 (x, y, z); para todo (x, y, z) ∈ R3 . (c) Encontrar (T − I)n (x, y, z) para todo (x, y, z) ∈ R3 y para cada n ≥ 1. 150 Sea E un espacio vectorial. Un proyector en E es un operador lineal T : E → E tal que T 2 = T . Probar que si E es un espacio con producto interior ·, · y S es un subespacio no trivial de dimensión finita de E, entonces π : E → E, con π(u) el vector proyección de u sobre S (cfr. el ejercicio propuesto 80 de esta sección), es un proyector en E. 151 Sean E un espacio vectorial y S1 un subespacio de él. Si T : E → E es una proyección sobre S1 (cfr. el ejercicio 17 de esta sección), mostrar que T es un proyector en E (cfr. el ejercicio anterior). 152 Si E es un espacio vectorial y T es un operador lineal en él, mostrar que T 2 = θ, el operador lineal constante cero, si y sólo si T (E) ⊂ Ker(T ). 153 Sean E un espacio vectorial de dimensión finita, T : E → E un operador lineal tal que Rang(T 2 ) = Rang(T ). (a) Mostrar que T (E) ∩ Ker(T ) = {0E }. (b) Probar que E = T (E) ⊕ Ker(T ) (cfr. el ejercicio resuelto 27 del capı́tulo 3). 154 Sean P el espacio de polinomios y D, J : P → P los operadores derivación, D(p) = p , y el operador x integración, J(p) = q(x) donde q(x) = Page (PS/TeX): 133 / 549, COMPOSITE 0 p(t)dt para todo x ∈ R. 550 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios (a) Mostrar que DJ = I, el operador identidad en P; pero JD = I. (b) Hallar Ker(JD) y (JD)(P). (c) ¿Son invertibles estos operadores? (Cfr. el ejercicio resuelto 14 de esta sección.) 155 Sean P el espacio de polinomios, D el operador derivación en P y T : P → P el operador definido por T (p) = q donde q(x) = xp (x) para cada p ∈ P. (a) Si p(x) = 1 − 2x + 3x2 + x3 calcular la imagen de p bajo los operadores (i) D, (ii) T , (iii) DT , (iv) T D, (v) DT − T D, (vi) T 2 D2 − D2 T 2 . (b) Encontrar los polinomios p para los cuales T (p) = p. (c) Hallar los polinomios p para los cuales (DT − 2D)(p) = θ, el operador constante cero. (d) Hallar los polinomios p para los cuales (DT − T D)n (p) = Dn (p), n ≥ 2 un entero. 156 Sean P el espacio de polinomios; D(p) = p el operador derivación; T (p) = q, donde q(x) = xp(x) para cada p ∈ P; e I el operador identidad en P, I(p) = p. (a) Probar que T es un operador lineal en E. (b) Demostrar que DT − T D = I. (c) Mostrar que DT n − T n D = nT n−1 para cada entero n ≥ 1. 157 Sean E un espacio vectorial; T1 , T2 un par de operadores lineales en E; e I el operador identidad en E, I(u) = u para todo u ∈ E. Si T1 T2 − T2 T1 = I, probar que T1 T2n − T2n T1 = nT2n−1 para todo entero n ≥ 1. 158 Sean E un espacio vectorial, T un operador lineal en él, T 2 = T ◦ T el operador composición de T consigo mismo (cfr. el ejercicio resuelto 12 de esta sección) e I el operador lineal identidad (I(u) = u ∀u ∈ E). Si T 2 = θ, el operador constante cero, probar que I − T es un operador lineal no singular (invertible). (Sugerencia: Utilice el ejercicio resuelto 14 de esta sección y el ejercicio precedente.) 159 Sea T un operador lineal en un espacio vectorial E tal que T 2 + 2T + I = θ, el operador constante cero; mostrar que T es invertible. 160 Sean E un espacio vectorial, T un operador lineal en él, T 3 = T ◦ T ◦ T el operador composición de T consigo mismo tres veces (cfr. el ejercicio resuelto 12 de esta sección) e I el operador lineal identidad (I(u) = u ∀u ∈ E). Si T 3 = θ, el operador constante cero, probar que I − T es un operador lineal no singular (invertible). 161 Probar que si E es un espacio vectorial, T : E → E es un operador lineal, u ∈ E es un vector tal que T 2 (u) = 0E y T (u) = 0E , entonces u y T (u) son L.I. 162 Sean E un espacio vectorial no nulo, T un operador en él tal que T 2 = T , T = θ, el operador constante cero, y T = I, el operador identidad. Mostrar que: Page (PS/TeX): 134 / 550, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 551 (a) Existe u ∈ E − {0E } tal que T (u) = u. (b) Existe v ∈ E − {0E } tal que T (u) = 0E . 163 Sean E y T como en el ejercicio precedente y S1 = {u ∈ E | T (u) = u}, S2 = {u ∈ E | T (u) = 0E }. Mostrar que: (a) S1 < E y S2 < E. (b) S1 = {0E } y S2 = {0E }. (c) E = S1 ⊕ S2 , la suma directa de S1 con S2 (cfr. el ejercicio resuelto 27 del capı́tulo 3). 164 Sea T un operador lineal en un espacio vectorial E tal que T 2 = I. Suponer que existe u ∈ E − {0E } tal que T (u) = αu para algún α ∈ R. Encontrar los posibles valores de α. 165 Sean E un espacio vectorial no nulo y T un operador lineal en él tal que T 2 − 2T + I = θ, el operador lineal constante cero. Mostrar que existe u ∈ E, con u = 0E tal que T (u) = u. 166 Sean E un espacio vectorial y T un operador lineal en él tal que T 2 − 2T + I = θ, el operador lineal constante cero. Probar que T es invertible y hallar T −1 . 167 Sean E un espacio vectorial, T un operador lineal en él y αi ∈ R, i = 1, . . . , n, escalares con αn = 0. Probar que si T satisface T n + α1 T n−1 + · · · + αn−1 T + αn I = 0 entonces T es invertible. Encontrar T −1 . 168 Sean E un espacio vectorial y T un operador lineal en él. T es nilpotente (o nihilpotente) si existe un entero no negativo n tal que T n = θ, el operador constante cero. Al menor entero no negativo ν tal que T ν = θ se le llama el ı́ndice de nilpotencia (o nihilpotencia) de T . Probar que si u ∈ E es tal que T ν−1 (u) = 0E , entonces los vectores u, T (u), T 2 (u), . . . , T ν−1 (u) son L.I. 169 Sean E un espacio vectorial, T un operador nilpotente definido en E y ν el ı́ndice de nilpotencia de él (cfr. el ejercicio precedente). (a) Probar que T m = θ para todo m ≥ ν. (b) Si dim(E) = n < ∞, demostrar que T n = θ. 170 Sea el operador lineal T : R4 → R4 definido por T (x) = Ax donde ⎤ 5 1 −6 −3 ⎢ −2 1 5 3 ⎥ ⎥. A=⎢ ⎣ 9 1 −13 −7 ⎦ −12 −3 14 7 ⎡ Demostrar que T es nilpotente encontrando su ı́ndice de nilpotencia (cfr. el ejercicio propuesto 168 de esta sección). Page (PS/TeX): 135 / 551, COMPOSITE 552 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios Representación matricial (respuestas en páginas 1086-1090) En los ejercicios 171 a 186 probar que B = {e1 , . . . ,en } es una base del espacio E y hallar [u]B ∈ Rn , el vector de coordenadas para el vector dado u relativo a la base ordenada (e1 , . . . ,en ). 171 B = {(1, 2), (1, 1)}, E = R2 , u = (−1, 1). 172 B = {(1, 3), (1, 2)}, E = R2 , u = (2, 3). 173 B = {(−2, 2), (−1, 0)}, E = R2 , u = (3, 1). 174 B = {(3, −2), (−1, 4)}, E = R2 , u = (5, −1). 175 B = {(1, 0, 1), (−1, 1, 0), (1, −1, 1)}, E = R3 , u = (−1, 3, 1). 176 B = {(1, 2, 1), (−1, 1, 1), (−1, 1, 2)}, E = R3 , u = (1, 0, 1). 177 B = {(1, −1, 3), (−1, 2, −3), (2, −2, 5)}, E = R3 , u = (3, −3, 1). 178 B = {(1, −2, −2), (−2, 3, 1), (−1, 2, 1)}, E = R3 , u = (2, 1, −2). 179 B = {(1, −2, 3, 4), (−2, 5, −6, −8), (1, −2, 4, 4), (3, −5, 9, 11)}, E = R4 , u = (2, −3, 0, 1). 180 B = {(1, 2, −1, 0), (−1, −2, 9, −1), (2, 1, 1, 1), (−3, −1, 1, −2)}, E = R4 , u = (−1, 0, 1, 1). 181 B = {x − 1, x − 2, x2 + 1}, E = P2 , u = x2 − 2x + 3. 182 B = {1, x − 1, x2 − 2, x3 + 3}, E = P3 , u = 2x3 − x2 + 3x. 183 B = {x − 1, x − 2, x2 − 1}, E = P2 , u = x2 + 2x. 184 B = {2 − x, x2 − 1, x2 − 2, x3 − 1, x4 }, E = P4 , u = x + x4 . 0 1 1 −1 −1 −2 2 3 185 B = , , , E el espacio de matrices simétricas 2 × 2, u = . 1 2 −1 1 −2 3 3 0 1 1 0 1 −1 0 0 1 1 1 186 B = , , , , E = M2 , u = . 1 2 1 −1 0 −1 0 −1 −1 3 En los ejercicios 187 a 196 encontrar la matriz cambio de base de la base canónica B1 a la base dada B2 del espacio indicado E. 187 Del espacio E y la base B2 = B del ejercicio propuesto 171. 188 Del espacio E y la base B2 = B del ejercicio propuesto 172. 189 Del espacio E y la base B2 = B del ejercicio propuesto 177. Page (PS/TeX): 136 / 552, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 553 190 Del espacio E y la base B2 = B del ejercicio propuesto 178. 191 Del espacio E y la base B2 = B del ejercicio propuesto 179. 192 Del espacio E y la base B2 = B del ejercicio propuesto 180. 193 Del espacio E y la base B2 = B del ejercicio propuesto 181. 194 Del espacio E y la base B2 = B del ejercicio propuesto 182. 195 Del espacio E y la base B2 = B del ejercicio propuesto 184. 196 Del espacio E y la base B2 = B del ejercicio propuesto 185. En los ejercicios 197 a 208 encontrar la matriz cambio de base (i) de la base B2 a la base B1 y (ii) de la base B1 a la base B2 , en el espacio indicado E. 197 B1 = ((1, 1), (1, 0)), B2 = ((−2, 1), (−3, 2)), E = R2 . 198 B1 = ((2, 1), (1, 1)), B2 = ((4, 1), (3, 1)), E = R2 . 199 B1 = ((1, −4), (0, 1)), B2 = ((5, 2), (9, 1)), E = R2 . 200 B1 = ((−3, 5), (1, −2)), B2 = ((2, 1), (1, 0)), E = R2 . 201 B1 = ((2, 1, 4), (3, 2, 5), (0, −1, 1)), B2 = ((1, 2, −1), (0, −1, 1), (0, 0, −1)), E = R3 . 202 B1 = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)), B2 = ((1, −2, −2), (−2, 3, 1), (−1, 2, 1)), E = R3 . 203 B1 = ((1, −1, 3), (−1, 2, −3), (2, −2, 5)), B2 = ((1, −3, 2), (−1, −2, 1), (1, 0, 0)), E = R3 . 204 B1 = ((1, −2, 3, 4), (−2, 5, −6, −8), (1, −2, 4, 4), (3, −5, 9, 11)), B2 la base canónica de E = R4 . 205 B1 = (−x + x2 , 1 − 2x + 2x2 , −2x + x2 ), B2 = (−3 − 3x − x2 , 5 + 2x + 2x2 , x), E = P2 . 206 B1 = (1 − 2x − 2x2 , −2 + 3x + x2 , −1 + 2x + x2 ), B2 = (−2 + 3x − x2 , 5 − x + x2 , 3 − 2x + x2 ), E = P2 . 207 B1 = (1 − x + 3x2 , −1 + 2x − 3x2 , 2 − 2x + 5x2 ), B2 = (1 − x + 3x2 , −1 + 2x − 3x2 , 2 − 2x + 5x2 ), E = P2 . 208 B1 = (−1+3x −2x2 +2x3 , 2−5x +4x2 −4x3 , −1+3x −3x2 −2x3 , 1−3x +2x2 −x3 ), B2 = (1, x, x2 , x3 ), E = P3 . 209 Sean B1 = (e1 , . . . ,en ) y B2 = (f1 , . . . , fn ) bases ordenadas de Rn , A la matriz que tiene por columnas a los vectores ei y B la matriz que tiene por columnas a los vectores fi . Mostrar que si P es la matriz cambio de base de la base B2 a la base B1 , entonces P = A−1 B. Page (PS/TeX): 137 / 553, COMPOSITE 554 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios En los ejercicios 210 a 218 se define un operador T : Rn → Rn . (i) Comprobar por simple inspección (cfr. el ejercicio propuesto 62(c) de este apartado) que el operador es lineal; (ii) encontrar la representación matricial [T ]B relativa a la base ordenada B; (iii) calcular [T (u)]B para el vector u. 210 T (x, y) = (x − y, x + 3y), B = ((−1, 1), (2, 1)) en R2 , u = (1, 2). 211 T (x, y) = (2x − y, x − y), B = ((1, −1), (2, −1)), en R2 , u = (−1, 3). 212 T (x, y) = (2x + y, 3x − 2y), B = ((3, 2), (1, 1)), en R2 , u = (2, −3). 213 T (x, y) = (x, x + y), B = ((−2, 1), (1, −1)), en R2 , u = (1, 0). 214 T (x, y, z) = (x − y + z, x + 3y, z), B = ((2, 1, 4), (3, 2, 5), (0, −1, 1)) en R3 , u = (−1, 2, 2). 215 T (x, y, z) = (x − 3y + 2z, −x − y + z, x + y), B = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)) en R3 , u = (−1, 0, 1). 216 T (x, y, z) = (x, y + z, x − y − z), B = ((1, −1, 3), (−1, 2, −3), (2, −2, 5)) en R3 , u = (2, 1, 0). 217 T (x, y, z) = (z − y, x + 3z, z), B = ((0, −2, 3), (1, −3, 5), (0, 3, 4)) en R3 , u = (1, 1, 1). 218 T (x1 , x2 , x3 , x4 ) = (x1 , x1 − x3 , x2 − x4 , x4 ), B = ((1, −2, 3, 4), (−2, 5, −6, −8), (1, −2, 4, 4), (3, −5, 9, 11)) en R4 , u = (−1, 0, 1, 1). 219 Hallar una transformación lineal T : R2 → R2 tal que T (ı̂) = − ı̂ y T ( ) = 2ı̂ + y para esta transfor- mación: (a) Calcular T (2ı̂ − 3 ) y T 2 (2ı̂ − 3 ). (b) Encontrar T (xı̂ + y ) para todo xı̂ + y ∈ R2 . (c) Encontrar Ker(T ), T (E), bases y dimensiones de sendos subespacios. (d) Hallar [T ]B la representación matricial de T relativa a la base canónica B = {ı̂, }. (e) Hallar [T ]B la representación matricial de T relativa a la base B = {ı̂ − , 3 + ı̂}. (f) Hallar [T 2 ]B la representación matricial de T relativa a la base canónica B = {ı̂, }. (g) Hallar [T 2 ]B la representación matricial de T 2 relativa a la base B = {ı̂ − , 3 + ı̂}. 220 Sea P3 el espacio de polinomios de grado a lo más 3. (a) Encontrar un operador lineal T : P3 → P3 tal que T (1) = x − 1, T (x) = x2 + 2, T (x2 ) = x − 3 y T (x3 ) = 5. (b) Calcular T (1 − 2x + x2 − 3x3 ). (c) Encontrar T (a0 + a1 x + a2 x2 + a3 x3 ) para todo a0 + a1 x + a2 x2 + a3 x3 ∈ P3 . (d) Encontrar Ker(T ) y T (P3 ), bases y dimensiones de sendos subespacios. (e) Hallar [T ]B la representación matricial de T relativa a la base canónica B = {1, x, x2 , x3 }. (f) Hallar [T ]B la representación matricial de T 2 relativa a la base canónica B = {1, x, x2 , x3 }. (g) Hallar [T ]B la representación matricial de T relativa a la base B = {x − 1, 2 − x, x2 − 2, x3 + 1}. (h) Hallar [T ]B la representación matricial de T 2 relativa a la base B = {x − 1, 2 − x, x2 − 2, x3 + 1}. Page (PS/TeX): 138 / 554, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 555 En los ejercicios 221 a 231 se define un operador T : E → E en el espacio E indicado. (i) Demostrar que T es lineal; (ii) encontrar la representación matricial [T ]B relativa a la base ordenada B. −1 1 0 −1 1 0 1 −1 t 221 T : M2 → M2 , T (A) = A , B = , , , 0 1 1 1 −1 1 1 0 222 T : P2 → P2 , T (p) = p (el operador derivación), B = {x − 1, x − 2, x2 }. 223 T : P3 → P3 , T (p) = 224 T : P3 → P3 , T (p) = x 0 x 0 p (t)dt, B = {1, x, x2 , x3 }. p (t)dt, B = {1, x + 1, x2 − 1, x3 }. 225 T : P3 → P3 , T (p) = q, donde q(x) = p(x + 1) B = (1, x, x2 , x3 ). 226 T : P2 → P2 , T (p) = q, donde q(x) = p(x + 1) B = (x − 1, x − 2, x2 ). 227 T : Pn → Pn , T (a0 + a1 x + · · · + an x n ) = ∑ni=0 ai + (∑ni=1 ai )x + (∑ni=2 ai )x2 + · · · + an x n , B = (1, x, x2 , . . . , x n ). 228 T : P3 → P3 , T (p) = q donde q(x) = xp (x), B = (1, x, x2 , x3 ). 229 T : P3 → P3 , T (p) = q donde q(x) = xp (x), B = (1 − x, x + 1, x2 − 1, x3 ). 230 T : E → E, T ( f ) = f , donde E = gn(e x , e2x , e3x ), B = (e x + e2x , e2x + e3x , e x + e3x ). 231 T : P3 → P3 el operador lineal definido por T (1) = 1 + x, T (x) = (1 + x)2 , T (x2 ) = (1 + x)3 , T (x3 ) = x. 232 Sean E un espacio vectorial de dimensión n > 1, T un operador lineal nilpotente con ı́ndice de nilpo- tencia igual a n y u ∈ E − {0̃E } tal que T n−1 (u) = 0E . Por el ejercicio propuesto 172(b) de este capı́tulo, B = {u, T (u), . . . , T n−1 (u)} es una base de E. Encontrar la representación matricial [T ]B de este operador relativa a la base B. En los ejercicios 233 a 237 E es un subespacio de F (R), el espacio de funciones, B es una base ordenada de E y D : E → E es el operador derivación, D( f ) = f . Hallar [T ]B , la representación matricial de T relativa a la base B. 233 B = (cos x, sen x). 234 B = (1, x, x2 ). 235 B = (e x , xe x ). 236 B = (e3x cos x, e3x sen x). 237 B = (cos x, sen x, x cos x, x sen x). 238 Sean E un espacio vectoriales de dimensión finita y T1 , T2 ∈ L (E, E). Probar que si B es una base de E y [T1 ]B , [T2 ]B son las representaciones matriciales de T1 , T2 , respectivamente, relativas a esta base, entonces [T1 + T2 ]B = [T1 ]B + [T2 ]B [αT1 ]B = α[T1 ]B . Page (PS/TeX): 139 / 555, COMPOSITE y 556 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios En los ejercicios 239 a 245 D es el operador derivación en P3 y T : P3 → P3 es el operador lineal T (p) = q, donde q(x) = xp (x) y B = (1, x, x2 , x2 ) es la base ordenada canónica de P3 . Hallar. 239 [T ]B 240 [T ]B 241 [DT ]B 242 [T D]B 243 [T D − DT ]B 244 [T 2 ]B 245 [T 2 D2 − D2 T 2 ]B En los ejercicios 246 a 255 encontrar la representación matricial del operador lineal T : Rn → Rn relativa a la base B2 procediendo de la manera siguiente: (i) Hallar la matriz cambio de base, P, de la base B1 a la base canónica B de Rn . (ii) Utilizar la fórmula del teorema 5.15; esto es, [T ]B1 = P−1 [T ]B P. 246 T : R2 → R2 , T (x, y) = (2x − y, x + y), B1 = ((1, −1), (2, −1)). 247 T : R2 → R2 , T (x, y) = (x + 3y, x − y), B1 = ((2, 3), (1, 2)). 248 T : R2 → R2 , T (x, y) = (y, x), B1 = ((1, 1), (2, 1)). 249 T : R3 → R3 , T (x, y, z) = (x − y + z, x + y + 3z, −x − 2y), B1 = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)). 250 T : R3 → R3 , T (x, y, z) = (x −2y+z, 3x −2y+4z, −x +2y+z), B1 = ((1, 2, −1), (−1, −1, 1), (1, 4, −2)). 251 T : R3 → R3 , T (x, y, z) = (3x − 2y + z, x + y, x − y), B1 = ((1, 0, 0), (2, 2, −1), (1, −1, 1)). 252 T : R3 → R3 , T (x, y, z) = (x − y + 2z, x + y + x, x − 2y − 3z), B1 = ((1, 2, −1), (1, 1, −1), (1, 2, −2)). 253 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x4 , x1 + x3 , x3 − x4 , x4 ), B1 = ((1, 2, 1, 3), (−1, −1, −1, −3), (1, 2, 2, 3), (1, 2, 1, 2)). 254 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x3 + x4 , 2x1 − x2 , x3 , x4 ), B1 = ((1, 4, −2, −1), (1, 3, −2, −1), (−1, −4, 3, 1), (1, 4, −2, −2)). 255 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 , x1 + x2 , x1 + x2 + x3 , x1 + x2 + x3 + x4 ), B1 = ((1, 2, −1, −1), (−1, −1, 1, 1), (1, 2, 0, −1), (−1, −2, 1, 2)). Page (PS/TeX): 140 / 556, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 557 256 Sean T : P3 → P3 el operador lineal T (p) = q donde q(x) = xp (x) y la base ordenada B1 = (2 − x, x + 1, x2 − 1, x3 − 3)). (a) Hallar la matriz cambio de base de la base B1 a la base canónica B = {1, x, x2 , x3 }. (b) Encontrar la representación matricial [T ]B1 del operador T relativa a la base B1 . 257 Sean T : P3 → P3 el operador lineal T (p) = p y la base ordenada B1 = (2 − x, x + 1, x2 − 1, x3 − 3)). (a) Hallar la matriz cambio de base de la base B1 a la base canónica B = {1, x, x2 , x3 }. (b) Encontrar la representación matricial [T ]B1 del operador T relativa a la base B1 . 258 Sean T : M2 → M2 el operador lineal T (A) = At y la base ordenada B1 = 1 1 0 0 1 2 0 0 0 1 , , , . 0 0 1 1 1 0 (a) Hallar la matriz cambio de base de la base B1 a la base canónica B de M2 . (b) Encontrar la representación matricial [T ]B1 del operador T relativa a la base B1 . En los ejercicios 259 a 272 se define un operador T : E → E. (i) Mostrar que T es lineal; (ii) calcular det(T ), el determinante del operador; (iii) determinar si T es invertible y de ser ası́ encontrar T −1 (u) para todo u ∈ E. 259 T : R2 → R2 , T (x, y) = (x − 2y, x + y). 260 T : R2 → R2 , T (x, y) = (x + 2y, 2x + 3y). 261 T : R3 → R3 , T (x, y) = (x + y + z, −2x + y + 3z, 3y + 5z). 262 T : R3 → R3 , T (x, y, z) = (x − y + z, 3x − 2y + 5z, 2x − 2y + z). 263 T : R3 → R3 , T (x, y, z) = (x − 2y + 3z, −x + 4y, x + y + 8z). 264 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 + x3 + x4 , −x1 + 2x2 + 3x3 − 4x4 , 2x3 + x4 , 5x3 + 3x4 ). 265 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (2x1 − x2 + 3x3 + x4 , −x1 + 2x2 + x3 + x4 , −x1 + 5x2 + 6x3 + 4x4 , −x1 + x2 − x3 + 2x4 ). 266 T : M2 → M2 , T (A) = At . 267 T : M2 → M2 , T (A) = 12 (A + At ). 268 T : M2 → M2 , T (A) = 12 (A − At ). 269 T : P3 → P3 , T (p) = p . Page (PS/TeX): 141 / 557, COMPOSITE 558 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 270 T : P3 → P3 , T (p) = q donde q(x) = xp (x). 271 T : P3 → P3 , T (p) = q donde q(x) = p(x + 1). 272 T : P3 → P3 , T (p) = q donde, si p(x) = a0 + a1 x + a2 x2 + a3 x3 , p(x) = a0 + 12 a1 x + 13 a2 x2 + 14 a3 x3 . 273 Sea Mn el espacio vectorial de las matrices de orden n. Se recuerda que la traza de una matriz cuadrada A = [ai j ] se define por tra(A) = ∑ni=1 aii . (a) Demostrar que si A, B ∈ Mn , entonces tra(AB) = tra(BA). (b) Probar que tra(A) = tra(At ) para toda matriz A ∈ Mn . 274 Sean E un espacio vectorial de dimensión finita y T un operador lineal en él, B1 y B2 un par de bases en él. Sean A y B las representaciones matriciales de T relativas a sendas bases, demostrar que tra(A) = tra(B). Es decir, cualquier representación matricial de T tiene la misma traza independientemente de la base que se elija en E. Se define entonces la traza del operador T , tra(T ), como la traza de cualquier representación matricial de este operador. Luego tra(T ) es un invariante de T . 275 Sean E un espacio vectorial y T1 , T2 un par de operadores lineales, mostrar que tra(T2 T1 − T1 T2 ) = 0. 276 Sean E y F espacios vectoriales de dimensiones finitas y T1 , T2 ∈ L (E, F). Probar que si B1 y B2 son B B bases de sendos espacios y [T1 ]B21 , [T2 ]B21 son las representaciones matriciales de T1 , T2 , respectivamente, relativas a estas bases, entonces B B B [T1 + T2 ]B21 = [T1 ]B21 + [T2 ]B21 B [αT1 ]B21 = B α[T1 ]B21 y . 277 Sean E, F y G espacios vectoriales; T1 : E → F y T2 : F → G un par de funciones. Se define la operación composición de T2 con T1 como la función T2 ◦ T1 : E → G dada por (cfr. el ejercicio resuelto 12 de esta sección) (T2 ◦ T1 )(u) = T2 (T1 (u)) ∀u ∈ E. Nuevamente se acostumbra denotar T2 ◦ T1 por T2 T1 . (a) Probar que si T1 y T2 son lineales, entonces T2 ◦ T1 (= T2 T1 ) es también lineal. (b) Sean T1 , T2 : E → F dos funciones y T3 : F → G una transformación lineal, mostrar que: i(i) T3 ◦ (T1 + T2 ) = (T3 ◦ T1 ) + (T3 ◦ T2 ). (ii) T3 ◦ (αT1 ) = α(T3 ◦ T1 ), para todo α ∈ R. (c) Sean T1 , T2 : F → G y T3 : E → F funciones, probar que (T1 + T2 ) ◦ T3 = (T1 ◦ T3 ) + (T2 ◦ T3 ). Page (PS/TeX): 142 / 558, COMPOSITE Ejercicios resueltos y ejercicios propuestos 559 SECCIÓN 5.4 278 Sean E, F y G espacios vectoriales; T1 : E → F y T2 : F → G transformaciones lineales. Demostrar: (a) Si T2 T1 (= T2 ◦ T1 ) es inyectiva, entonces T1 es inyectiva. (b) Si T2 T1 es suprayectiva, entonces T2 es suprayectiva. (c) Si T1 y T2 son biyectivas, entonces T2 T1 es biyectiva. 279 Sean E, F y G espacios vectoriales de dimensiones finitas con sendas bases B1 , B2 y B3 . Si T1 : E → F y T2 : F → G son transformaciones lineales, demostrar que la representación matricial de T2 T1 = T2 ◦ T1 está dada por B B B [T2 T1 ]B31 = [T2 ]B32 [T1 ]B21 . En los ejercicios 280 a 295 E, F son espacios vectoriales con sendas bases B1 y B2 y T : E → F es una transformación definida por la fórmula dada. (i) Comprobar que la transformación es lineal. (ii) Verificar que efectivamente B1 y B2 son bases de E y F, respectivamente. B (iii) Encontrar la representación matricial de T relativa a las bases B1 y B2 ; es decir, [T ]B21 . 280 T : R3 → R2 , T (x, y, z) = (x − y + z, x + 2y − z), B1 = ((1, −1, 1), (1, 0, −1), (−1, −1, 1)), B2 = ((1, 3), (1, 2)). 281 T : R3 → R2 , T (x, y, z) = (x + y − z, x + y − 3z), B1 = ((0, −1, 1), (1, 0, −1), (1, −1, 1)), B2 = ((2, 1), (1, 1)). 282 T : R2 → R3 , T (x, y) = (x − y, x + 2y, x + y), B1 = ((1, 1), ((−1, 1)), B2 = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)). 283 T : R2 → R3 , T (x, y) = (x, x + y, x − y), B1 = ((2, 1), ((−1, 0)), B2 = ((1, 2, −1), (−1, −1, 1), (1, 4, −2)). 284 T : R2 → R3 , T (x, y) = (x − 2y, 2x + y, x − 3y), B1 = ((1, −1), (1, 0)), B2 = ((1, 2, −1), (1, 1, −1), (1, 2, −2)). 285 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 − x4 , x1 + x3 , x2 + x3 − x4 ), B1 = ((1, −1, 1, 1), (1, 0, −1, 1), (0, 1, 1, 1), (0, 1, 0, −1)), B2 = ((1, 5, 2), (−1, −4, −2), (1, 5, 1)). 286 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 , x1 − 2x3 , x2 − x3 − x4 ), B1 = ((1, 0, −1, 1), (0, −1, 1, 1), (−1, 0, 0, 1), (0, 0, 0, 1)), B2 = ((1, 6, −1), (1, 5, −1), (−1, −6, 2)). 287 T : R2 → R4 , T (x, y) = (x + 2y, x − y, x + y, 3x − y), B1 = ((1, −2), (−1, 1)), B2 = ((1, 2, 1, 3), (−1, −1, −1, −3), (1, 2, 2, 3), (1, 2, 1, 2)). 288 T : R2 → R4 , T (x, y) = (2x − 3y, x + 4y, x − y, 3x − 2y), B1 = ((1, 1), (1, −1)), B2 = ((1, 4, −2, −1), (1, 3, −2, −1), (−1, −4, 3, 1), (1, 4, −2, −2)). Page (PS/TeX): 143 / 559, COMPOSITE 560 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 289 T : R3 → R4 , T (x, y, z) = (x − y + z, x + z, x + y − z, x + y + z), B1 = ((1, 0, 1), (0, 1, 1), (1, 1, 0)), B2 = ((1, 2, −1, −1), (−1, −1, 1, 1), (1, 2, 0, −1), (−1, −2, 1, 2)). a b 290 T : M2 → P2 , T = a + b + +2dx + bx2 , c d 1 0 0 1 0 0 0 0 B1 = , , , , B2 = (1, x, x2 ). 0 0 0 0 1 0 0 1 a b 291 T : M2 → P2 , T = a + b + c + 2dx + bx2 , c d 1 1 1 2 0 0 0 1 B1 = , , , , B2 = (1 − x, x − 2, x2 ). 0 0 0 0 1 1 1 0 3p(1) , p (2) 0 0 0 0 , , B2 = (1, x, x2 ). 1 0 0 1 3p(1) , p (2) 0 0 0 1 , , B2 = (1 − x, x − 2, x2 ). 1 1 1 0 p (0) 292 T : P2 → M2 , T (p) = 0 1 0 0 1 B1 = , , 0 0 0 0 p (0) 293 T : P2 → M2 , T (p) = 0 1 1 1 2 B1 = , , 0 0 0 0 294 T : M2 → R, T (A) = tra(A), B1 = 1 0 0 0 , 0 0 1 0 , 295 T : M2 → R, T (A) = tra(A), B1 = 1 1 0 0 , 1 0 2 0 , 0 0 1 0 0 0 , , B2 = {1}. 0 1 0 0 1 1 0 1 , , B2 = {1}. 1 0 B En los ejercicios 296 a 302 encontrar [T (u)]B21 si: 296 T , B1 y B2 son la transformación lineal y las bases del ejercicio propuesto 280 de esta sección y u = (−1, 1, 2). 297 T , B1 y B2 son la transformación lineal y las bases del ejercicio propuesto 283 de esta sección y u = (−1, 4). 298 T , B1 y B2 son la transformación lineal y las bases del ejercicio propuesto 286 de esta sección y u = (−1, 0, 2, 2). 299 T , B1 y B2 son la transformación lineal y las bases del ejercicio propuesto 289 de esta sección y u = (2, 1, 4). 300 T , B 1 y B2 son la transformación lineal y las bases del ejercicio propuesto 291 de esta sección y u = −1 1 1 2 Page (PS/TeX): 144 / 560, COMPOSITE . SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 561 301 T , B1 y B2 son la transformación lineal y las bases del ejercicio propuesto 293 de esta sección y p(x) = 1 − x + x2 . 302 T , B 1 y B2 son la transformación lineal y las bases del ejercicio propuesto 295 de esta sección y u = −1 1 1 3 . En los ejercicios 303 a 306 encontrar la representación matricial del operador lineal T : Rn → Rm relativa a las bases B1 , B2 de Rn y Rm , respectivamente, procediendo de la manera siguiente: (i) Hallar la matriz cambio de base, P, de la base B1 a la base canónica B1 de Rn . (ii) Hallar la matriz cambio de base, Q, de la base B2 a la base canónica B2 de Rm . B B (ii) Utilizando la fórmula el teorema 5.19; esto es, [T ]B2 = Q−1 [T ]B21 P. 1 303 T : R3 → R2 , T (x, y, z) = (x − y + z, x + y − z), B1 = ((−1, 0, 1), (1, 0, 0), (0, −1, 1)), B2 = ((2, 1), (1, 1)). 304 T : R2 → R3 , T (x, y) = (x + 2y, −x + 3y, x − y), B1 = ((1, 1), (−1, 1)), B2 = ((1, 5, 2), (−1, −4, −2), (1, 5, 1)). 305 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 , x1 − x3 , x2 + x4 ), B1 = (1, 0, −1, 1), (0, 1, 1, 1), (−1, 1, 1, 0), (0, −1, 0, 0)), B2 = ((1, 6, 1), (1, 5, −1), (−1, −6, 2)). 306 T : R4 → R2 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 + x3 − x4 , x1 + x2 + x3 + x4 ), B1 = (1, 0, −1, 1), (0, 1, 1, 1), (−1, 1, 1, 0), (0, −1, 0, 0)), B2 = ((3, 1), (5, 2)). 307 Sea π un proyector (cfr. el ejercicio propuesto 150 de esta sección) en un espacio vectorial E que tiene dimensión finita n. Si π tiene rango r; es decir dim(π(E)) = r, mostrar que E posee una base B tal que [π]B = Ir O2 O1 O3 donde Ir es la identidad r × r y las submatrices O1 , O2 y O3 son las matrices cero de tamaños r × (n − r), (n − r) × r y (n − r) × (n − r), respectivamente. 308 Sean E un espacio vectorial de dimensión finita n, S < E y T un operador lineal en E. Se dice que S es T -invariante si T (S) ⊂ S. Mostrar que si S tiene dimensión r, entonces E posee una base B tal que [T ]B = A B O C donde A es una matriz cuadrada de orden r, O es la matriz cero de tamaño (n − r) × r, B ∈ Mr×(n−r) y C ∈ M(n−r)×(n−r) . 309 Sean E un espacio vectorial de dimensión finita, S1 < E y T : E → E una proyección sobre S1 (cfr. el ejercicio resuelto 17 de esta sección). Mostrar que E posee una base B tal que [T ]B es diagonal. Page (PS/TeX): 145 / 561, COMPOSITE 562 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 310 Sea T : R2 → R3 la transformación lineal que satisface T (1, 0) = (0, 1, 1) y T (0, 1) = (0, −1, 1). (a) Calcular T (x, y) para todo (x, y) ∈ R2 . (b) Encontrar bases y dimensiones de Ker(T ) y T (R2 ). (c) Hallar la representación matricial de T para las bases canónicas de R2 y R3 . (d) Encontrar bases B1 = {e1 ,e2 } y B2 = {f1 , f2 , f3 } de R2 y R3 , respectivamente, tal que [T ]B21 sea diagonal (cfr. el teorema 5.20, pág. 450). B 311 Resolver el ejercicio precedente para la transformación T , con T (1, 0) = (−1, 0, 1), T (0, 1) = (1, 1, 1). 312 Sean D, T : P3 → P3 los operadores lineales en D(p) = p , T (p)(x) = xp (x) y T D en P3 . Si F = {f } (T D)(E), entonces T D : P3 → F; encontrar bases {ei } y {fi } de E y F, respectivamente, tal que [T D]{eii } sea diagonal (cfr. el teorema 5.20). 313 Sea f : R2 → R el funcional lineal definido por f (1, 2) = −1 y f (1, 1) = 2. Encontrar f (x, y) para todo (x, y) ∈ R2 . En particular, hallar f (2, −3). 314 Sea f : R2 → R el funcional lineal definido por f (1, −1) = 3 y f (3, 1) = −4. Encontrar f (x, y) para todo (x, y) ∈ R2 . En particular, hallar f (−2, 1). En los ejercicios 315 a 325 φ : E → R es una función definida en el espacio E. Determinar si φ ∈ E∗ ; es decir, si φ es lineal. 315 E = C[0, 1], φ( f ) = f (0). 316 E = C[a, b], φ( f ) = b a f (x)dx. 317 E = P, φ(p) = p(0). 318 E = P, φ(p) = p (0). 319 E = Mn , φ(A) = tra(A). 320 E = P, φ(p) = p(2). 321 E = P2 , φ(a0 + a1 x + a2 x2 ) = a0 + 2a1 − 3a2 . 322 E = M2 , φ(A) = det(A). 323 Sean u2 , . . . ,un , n − 1 vectores fijos de Rn , E = Rn y φ(u) = det(A) donde A es la matriz con primera fila u, e i-ésima fila ui , i = 2, . . . , n. 324 E = Rn , φ(x) =x ·a donde a es un vector fijo de Rn . 325 E = R2 , φ(x, y) = x2 − y2 . Page (PS/TeX): 146 / 562, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 563 En los ejercicios 326 a 333, para cada espacio E, B = {e1 , . . . ,en } es una base del mismo y E∗ el espacio dual definido en el ejercicio resuelto 30 de esta sección. Utilizar ese ejercicio para construir la base dual B ∗ para el espacio E∗ (cfr. el ejercicio resuelto 31 de este capı́tulo). 326 E = R2 , B = {(1, 1), (2, 1)}. 327 E = R2 , B = {(2, −3), (−1, 1)}. 328 E = R3 , B = {(1, 2, 3), (−1, −1, −3), (1, 2, 2)}. 329 E = R3 , B = {(1, 4, 3), (0, 1, 2), (1, 4, 2)}. 330 E = P2 , B = {1, x, x2 }. 331 E = P1 , B = {1 − x, 2 + x}. 332 E = P3 , B = {1 − x, 2 + x, x2 − 1, x3 }. 333 E = Rn , B = {ei } la base canónica. 334 Sea E un espacio vectorial con bases B1 = {e1 , . . . ,en } y B2 = {f1 , . . . , fm }; E∗ el espacio dual definido en el ejercicio resuelto 30 de esta sección. Si B1∗ y B2∗ son las bases duales de B1 y B2 , respectivamente y P es la matriz cambio de base de la base B1 a la base B2 , mostrar que la matriz cambio de base de la base B1∗ a la base B2∗ es (P t )−1 . En los ejercicios 335 a 345: (i) Probar que el conjunto B ∗ es una base del espacio dual E∗ del espacio dado E. (ii) Encontrar una base B del espacio E cuya base dual es B ∗ . 335 E = Rn , B ∗ = {π1 , . . . , πn }, donde πi (x1 , . . . , xi , . . . , xn ) = xi es la i-ésima proyección del vector (x1 , . . . , xi , . . . , xn ). 336 E = R2 , B ∗ = {φ1 , φ2 } donde φ1 (x, y) = x − 2y y φ2 (x, y) = −x + y. 337 E = R2 , B ∗ = {φ1 , φ2 } donde φ1 (x, y) = 3x + 4y y φ2 (x, y) = 2x + 3y. 338 E = R3 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (x, y, z) = x + 3y − 2z, φ2 (x, y, z) = −x − 2y + 2z, φ3 (x, y, z) = y − z. 339 E = R3 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (x, y, z) = x + y + 2z, φ2 (x, y, z) = y + z, φ3 (x, y, z) = −x − y − z. 340 E = P1 , B ∗ = {φ1 , φ2 } donde φ1 (p) = 1 0 p(x)dx y φ2 (p) = 2 0 p(x)dx, para todo p ∈ P1 . 341 E = P1 , B ∗ = {φ1 , φ2 } donde φ1 (a + bx) = 4a + 3b y φ2 (a + bx) = 3a + 2b, para todo p = a + bx ∈ P1 . 342 E = P2 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (p) = p(0), φ2 (p) = p (0) y φ3 (p) = p (0), para todo p(x) = a0 + a1 x + a 2 x 2 ∈ P 2 . Page (PS/TeX): 147 / 563, COMPOSITE 564 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 343 E = P2 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (p) = 2 1 0 p(x)dx, φ2 (p) = p(0) y φ3 (p) = p (1), para todo p(x) = a0 + a1 x + a2 x ∈ P2 . 344 E = M2 , B ∗ = {φ1 , φ2 , φ φ1 (A) = a − b, φ2 (A) = 2a − b, φ3 (A) = b + c y φ4 (A) = −a + 3 , φ4 } donde b + c − d, para toda A = a c b d ∈ M2 . 345 E = M2 , B ∗ = {φ1 , φ2 , φ3 , φ4 } donde φ1 (A) = a − b + c− d, φ2 (A) = 2a − b + 2c − 2d, φ3 (A) = a − a b c d b + 2c − d y φ4 (A) = −3a + 3b − 3c + 2d, para toda A = ∈ M2 . 346 Si E es un espacio vectorial de dimensión finita n y f ∈ E∗ y existe u ∈ E tal que f (u) = 0, ¿cuál es el valor de dim(Ker( f ))? 347 Sean E un espacio vectorial y f , g ∈ E∗ tales que f (u) = 0 ⇒ g(u) = 0; esto es, Ker( f ) ⊂ Ker(g). Probar que g = k f para algún k ∈ R. 348 Mostrar que si E es un espacio vectorial, f , g ∈ E∗ , h : E →R se define por h(u) = f (u)g(u) y h ∈ E∗ , entonces f = θ o g = θ, el funcional constante cero. En los ejercicios 349 a 356 E es un espacio vectorial con producto interior ·, · y f : E → R es un funcional. Comprobar que f es lineal y consultar el ejercicio resuelto 37 de este capı́tulo para encontrar el elemento u f en E tal que f (x) = x,u f para todo x ∈ E. 349 E = R2 , f (x, y) = 2x − 3y, x,y =x ·y. 350 E = R2 , f (x, y) = x − y, x,y =x ·y. 351 E = R3 , f (x, y, z) = x − y + z, x,y =x ·y. 352 E = R3 , f (x, y, z) = 2x + 3y − z, x,y =x ·y. 353 E = M2 , f (A) = a11 − 2a12 + 3a21 + a22 para toda A = [ai j ] ∈ M2 , A, B = tra(B t A). 354 E = M2 , f (A) = 2a11 − a12 + a21 − a22 para toda A = [ai j ] ∈ M2 , A, B = tra(B t A). 355 E = P2 , f (p(x)) = 1 0 p(x)dx para todo p ∈ P2 , p, q = 356 E = P2 , f (p(x)) = p (0) para todo p ∈ P2 , p, q = 1 −1 1 −1 p(x)q(x)dx. p(x)q(x)dx. 357 Si E es un espacio vectorial de dimensión finita dotado de un producto interior ·, ·, por el ejercicio resuelto 37 de este capı́tulo, para cada f ∈ E∗ existe un único u f ∈ E tal que f (x) = x,u f para todo x ∈ E. Probar que la aplicación Φ : E∗ → E definida por Φ( f ) = u f es un isomorfismo. 358 Sea E un espacio vectorial con producto interior ·, ·. Sean u ∈ E y fu : E → R definida por fu (x) = x,u para todo x ∈ E. (a) Probar que fu ∈ E∗ . Page (PS/TeX): 148 / 564, COMPOSITE Ejercicios resueltos y ejercicios propuestos 565 SECCIÓN 5.4 (b) Si E tiene dimensión finita, demostrar que la función Ψ : E → E∗ definida, para cada u ∈ E, por Ψ(u) = fu , es un isomorfismo. ¿Qué función es la inversa de Ψ? 359 Sea E un espacio de dimensión finita. Si S ⊂ E es no vacı́o y f ∈ E∗ , se dice que f es ortogonal a S si f (u) = 0 para todo u ∈ S. Al conjunto de elementos en E que son ortogonales a S se le denota por S⊥ . (a) Mostrar que S⊥ es un subespacio de E∗ . (b) Probar que si S es un subespacio de E, entonces dim(S) + dim(S⊥ ) = dim(E). En los ejercicios 360 a 364 hallar el operador adjunto T ∗ , definido en el ejercicio propuesto 38 de este capı́tulo, para el operador lineal T en el espacio E dotado del producto interior ·, ·. 360 T : R2 → R2 , T (x, y) = (x + y, 2x − 5y), x,y =x ·y. 361 T : R3 → R3 , T (x, y, z) = (x + 3y, 2x + z, −4y), x,y =x ·y. 362 T : R4 → R4 , T (x1 , x2 , x3 , x4 )) = (x1 − x2 , 2x3 + x4 , x1 − 2x2 , x1 + 3x4 ), x,y =x ·y. 363 T : P3 → P3 , T (p) = p , p, q = 1 0 p(x)q(x)dx. 364 T : P2 → P2 , T (p) = q, donde q(x) = xp (x), p, q = 1 0 p(x)q(x)dx. 365 Probar que para el operador lineal D : P → P definido por D(p) = p no existe el operador adjunto D∗ si 1 se considera el producto interior en P: p, q = 0 p(x)q(x)dx. 366 Sean E un espacio de dimensión finita con producto interior ·, ·, T : E → E un operador lineal y T ∗ el operador adjunto correspondiente definido en el ejercicio resuelto 38 de este capı́tulo. Mostrar que si S es un subespacio T -invariante, entonces S⊥ es T ∗ -invariante (cfr. el ejercicio propuesto 308). 367 (Transpuesta de una transformación lineal). Sean E, F dos espacios vectoriales y T : E → F una transformación lineal. Se define T t : F∗ → E∗ , para cada φ ∈ F∗ , por T t (φ) = φ ◦ T , la composición de las transformaciones φ y T (cfr. el ejercicio propuesto 277). A T t se le llama la transpuesta de la transformación T . (a) Probar que T t ∈ E∗ ; es decir, que T es lineal. B (b) Si E y F tienen dimensiones finitas, B1 , B2 son bases de sendos espacios y A = [T ]B21 es la representación de T relativa a las bases B1 , B2 , demostrar que B∗ [T t ]B2∗ = At , 1 donde B1∗ y B2∗ son las bases duales de B1 y B2 , respectivamente. (c) Si E y F tienen dimensiones finitas, probar que Rang(T ) = Rang(T t ). Page (PS/TeX): 149 / 565, COMPOSITE 566 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios En los ejercicios 368 a 376 E es un espacio vectorial de dimensión finita y para cualquier S ⊂ E, S 0 denota el subespacio anulador de S definido en el ejercicio resuelto 40 de este capı́tulo. 368 Probar que S 0 = (L (S))0 , donde L (S) es el espacio generado por S (cfr. el ejercicio resuelto 31 del capı́tulo 3). 369 Si W es un subespacio de E y u ∈ E −W , probar que existe f ∈ W 0 tal que f (u) = 0. 370 Probar que S 00 = L (Φ(S)); es decir, (S 0 )0 = L (Φ(S)) donde Φ es el isomorfismo entre los espacios E y E∗∗ definido en el ejercicio resuelto 32 de este capı́tulo y L (Φ(S)) es el subespacio generado por el conjunto Φ(S) (cfr. el ejercicio resuelto 31 del capı́tulo 3). 371 Mostrar que si W1 ,W2 son dos subespacios de E, entonces W1 = W2 ⇔ W10 = W20 . 372 Si W1 ,W2 son subespacios de E, probar que (W1 +W2 )0 = W10 +W20 . 373 Si W1 ,W2 son subespacios de E y W1 ⊕W2 = E, entonces E∗ = W10 ⊕W20 . 374 Si T : E → E es un operador lineal y W es un subespacio de E, demostrar que W es T -invariante (cfr. el ejercicio propuesto 308 de este capı́tulo) si y sólo si W 0 es T t -invariante, donde T t es la transformación transpuesta de T definida en el ejercicio propuesto 367 de este apartado. 375 Si E = R4 y los funcionales lineales fi definidos por f1 (x1 , x2 , x3 , x4 ) = x1 + x2 − x3 + x4 , f2 (x1 , x2 , x3 , x4 ) = −x2 + x3 , f3 (x1 , x2 , x3 , x4 ) = −x1 + x2 − x3 . Encontrar S ⊂ R4 tal que S 0 = gn( f1 , f2 , f3 ). Hallar una base y la dimensión de S 0 . 376 Sea V = gn((1, 1, −2, 3), (1, 2, −1, 2), (−1, −2, 1, −2)), hallar una base de W 0 . En los ejercicios 377 a 382 T t denota la transformación transpuesta de T definida en el ejercicio propuesto 367 de esta sección. 377 Sea el funcional lineal φ : R2 → R definido por φ(x, y) = 2x − y. Determinar T t (φ) para cada transfor- mación T : R3 → R2 si: (a) T (x, y, z) = (x − y + z, y − 2z). (b) T (x, y, z) = (2x − y, x + y − z). (c) T (x, y, z) = (−x + z, x − y − 3z). 378 Sean E = P1 , F = R2 , con sendas bases B1 = {1, x}, B2 = {(1, 0), (0, 1)} y T : E → F definido por T (p) = (p(0) − p(1), 2p(0) + p (0)). (a) Mostrar que T ∈ L (E, F). Page (PS/TeX): 150 / 566, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 567 (b) Si f : F → R es el funcional lineal f (x, y) = x − y, encontrar T t ( f ) B∗ (c) Hallar [T t ]B2∗ directamente y sin recurrir al resultado del ejercicio propuesto 367. 1 B (d) Encontrar [T ]B21 , transponer y comparar con el resultado del inciso anterior. 379 Si T1 ∈ L (E, F) y T2 ∈ L (F, G), mostrar que (T2 ◦ T1 )t = T1t ◦ T2t . 380 Si E, F son espacios vectoriales y T ∈ L (E, F), mostrar que Ker(T t ) = (T t (F∗ ))0 . 381 Si E, F son espacios vectoriales, T ∈ L (E, F) y F tiene dimensión finita, utilizar el ejercicio precedente y el ejercicio resuelto 40(b) para mostrar que Rang(T ) = Rang(T t ). 382 Si E, F son espacios vectoriales de dimensiones finitas y T ∈ L (E, F) probar que (Ker(T ))0 = T t (F∗ ). 383 Sea c00 el espacio de sucesiones finitas (cfr. el ejercicio propuesto 357 del cap. 3, pág. 228); es decir, c00 = {(an ) ∈ R∞ | an = 0 salvo un número finito de ı́ndices n}. Demostrar que c00 ∼ = P (el espacio de polinomios). 384 Si E y F son espacios vectoriales de dimensiones 2 y 3, respectivamente, y Ti ∈ L (E, F), i = 1, . . . , 7; probar que existen constantes α1 , . . . , α7 , no todas nulas, tales ∑7i=1 αi Ti (u) = 0F para todo u ∈ E. 385 Sean α, β ∈ R con β = 0 y S el subespacio de R∞ de sucesiones (xn ) que satisfacen xn+2 + αxn+1 + βxn = 0 ∀n Sea T : S → R2 definido por T ((xn )) = (x1 , x2 ). (a) Mostrar que S < R∞ . (b) Probar que T es un isomorfismo y determinar la dimensión de S. (c) Si λ, μ ∈ R son dos raı́ces distintas de la ecuación X 2 + αX + β = 0, mostrar que las sucesiones u = (λn ) y v = (β n ) son una base de S. Page (PS/TeX): 151 / 567, COMPOSITE 568 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 386 Sean E, F dos espacios vectoriales y E×F el espacio producto de éstos definido en el ejercicio propuesto 133 del capı́tulo 3. Mostrar que E × F ∼ = F × E. 387 Si E es un espacio vectorial y S1 , S2 son subespacios de E tales que E = S1 ⊕ S2 , demostrar que E ∼ = S1 × S2 . 388 Probar que Rm × Rn ∼ = Rmn . 389 Mostrar que Mm×n ∼ = Rmn , sin utilizar el hecho de que todo par de espacios vectoriales que tienen la misma dimensión son isomorfos. 390 Probar que el espacio de matrices simétricas de orden 2 es isomorfo a R3 . 391 Encontrar un isomorfismo T : Pn → Rn+1 . 392 Sea P ∈ Mn una matriz invertible. Mostrar que T : Mn → Mn definida por T (A) = P−1 AP es un iso- morfismo. 393 Sean E, F espacios vectoriales y U : E → F un isomorfismo. Se define Φ : L (E, E) → L (F, F) por Φ(T ) = U −1 TU mostrar que Φ es un isomorfismo. 394 Sean E, F espacios vectoriales. Si T ∈ L (E, F), E tiene dimensión finita y B es una base de E. Probar que T es un isomorfismo si y sólo si T (B) es una base de F. 395 Sean E un espacio vectorial y U, W dos subespacios de E. Demostrar que (U +W )/W ∼ = U/(U ∩W ). Donde U +V es la suma de subespacios (cfr. el ejercicio resuelto 26 del capı́tulo 3) y G/H es el espacio cociente (cfr. los ejercicios resueltos 29 y 41 de los capı́tulos 3 y 5, respectivamente). 396 Sea T una tranformación lineal del espacio E sobre el espacio F. Si W < F y T −1 (W ) es el subespacio imagen inversa de W bajo T (cfr. el ejercicio resuelto 8 de este capı́tulo), probar que: (a) Ker(T ) ⊂ T −1 (W ). (b) T −1 (W )/Ker(T ) ∼ = W. 397 Sean U,W dos subespacios de un espacio vectorial E y K = {(u,v) ∈ E × E |v = −u}, demostrar que (U ×W )/K ∼ = U +W Valores y vectores propios, diagonalización (respuestas en páginas 1090-1092) 398 Sean E un espacio vectorial, T : E → E un operador lineal, λ un valor propio de T y a un escalar; demostrar que aλ es valor propio del operador lineal aT . Page (PS/TeX): 152 / 568, COMPOSITE Ejercicios resueltos y ejercicios propuestos 569 SECCIÓN 5.4 399 Sean T un operador lineal en un espacio vectorial E y λ un valor propio de T con u un vector propio correspondiente. (a) Mostrar que λ2 es un valor propio de T 2 y que u es un vector propio correspondiente a λ2 . (b) Si n ∈ N mostrar que λn es un valor propio de T n y que u es un vector propio correspondiente a λn . 400 Sea p(x) = a0 + a1 x + a2 x2 + · · · + an x n un polinomio. Si T : E → E es un operador lineal en el espacio E, se define el operador lineal p(T ) = a0 I + a1 T + a2 T 2 + · · · + an T n donde, como en ejercicios anteriores, T k = T ◦ · · · ◦ T es la composición del operador T consigo mismo k k-veces. Si λ es un valor propio de T con u un vector propio correspondiente, probar que μ = p(λ) es un valor propio del operador p(T ) con u un vector propio correspondiente. 401 Sea T : R2 → R2 el operador lineal que rota cada vector π/2 radianes en sentido contrario a las maneci- llas del reloj conservando la norma (cfr. el ejercicio resuelto 3 de este capı́tulo). (a) Probar que T no tiene valores propios. (b) Mostrar que todo vector no nulo es vector propio de T 2 . 402 Si T : E → E es un operador lineal en el espacio E y λ2 es un valor propio del operador T 2 , mostrar que λ o −λ es un valor propio de T . 403 Sean C∞ (0, 1) el espacio vectorial de funciones f : (0, 1) → R que tienen derivada de todo orden en cual- quier punto del intervalo (0, 1) y T : C∞ (0, 1) → C∞ (0, 1) definido, para cada f ∈ C∞ (0, 1), por T ( f ) = g donde g(x) = x f (x) para todo x ∈ (0, 1). Encontrar los valores y vectores propios correspondientes. 404 Sea el operador lineal T : M2 → M2 definido por T (A) = At . Encontrar los valores y vectores propios correspondientes. 405 Sea E = C(−∞, ∞) el espacio de funciones continuas en todo punto y S el conjunto de funciones f ∈ E tales que x −∞ t f (t)dt converge para todo x ∈ R. (a) Mostrar que S es un subespacio de E. (b) Sea, para cada f ∈ S, T ( f ) = g donde g(x) = x −∞ t f (t)dt. Mostrar que g ∈ E y que T : S → E ası́ definido es un operador lineal (cfr. el ejercicio resuelto 43 de este capı́tulo). (c) Encontrar los valores y vectores propios correspondientes de T . 406 Sea T : Pn → Pn el operador lineal definido por T (p) = q donde q(x) = p(x + 1). Encontrar los valores y vectores propios correspondientes de T . 407 Sean E = C[0, π] el espacio de funciones continuas en todo punto del intervalo [0, π], S el subconjunto de E de funciones f dos veces derivables con continuidad que satisfacen f (0) = 0 = f (π). (a) Mostrar que S es un subespacio de E. (b) Sea T : S → E definido por T ( f ) = f . Probar que T es lineal. Page (PS/TeX): 153 / 569, COMPOSITE 570 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios (c) Encontrar los valores y vectores propios correspondientes del operador T . 408 Encontrar los valores y vectores propios correspondientes del operador T definido en el ejercicio pro- puesto 124 de este capı́tulo. 409 Sea T : M2 → M2 el operador definido, para cada A ∈ M2 , por (cfr. el ejercicio propuesto 103 de este capı́tulo) T (A) = A + At . 2 Hallar los valores propios y vectores propios correspondientes de T . 410 Sea T : M2 → M2 el operador definido, para cada A ∈ M2 , por (cfr. el ejercicio propuesto 107 de este capı́tulo) T (A) = A − At . 2 Hallar los valores y vectores propios correspondientes de T . 411 Sean T un operador lineal en un espacio E, λ y μ (λ = μ) valores propios de T con sendos vectores propios u y v. Mostrar que si au + bv es un vector propio de T , entonces a = 0 o b = 0. 412 Probar que si T es un operador lineal en un espacio E tal que todo vector no nulo de E es un vector propio de T , entonces éste tiene la forma T (u) = cu. 413 Sean T , R : E → E dos operadores lineales en el espacio E. Se supone que u es un vector propio de T correspondiente a un valor propio λ de este operador y que R(u) = 0E , ¿R(u) es vector propio del operador T correspondiente al mismo valor propio λ? 414 Sea T : E → E un operador lineal en el espacio vectorial E. (a) Demostrar que T es inyectivo si y sólo si λ = 0 no es valor propio de T . (b) Si E tiene dimensión finita, mostrar que T es invertible si y sólo si λ = 0 no es valor propio de T . (c) Si T es invertible probar que λ es valor propio de T si y sólo si λ−1 es valor propio de T −1 . 415 Probar que los valores propios de una matriz cuadrada triangular superior o triangular inferior son los elementos de la diagonal. 416 Si A es una matriz cuadrada demostrar que A y At tienen el mismo polinomio caracterı́stico y por tanto los mismos valores propios. 417 Sean E un espacio vectorial de dimensión finita, T : E → E un operador lineal y T t : E∗ → E∗ el operador transpuesto de T definido en el ejercicio propuesto 367 de esta sección. Probar que T y T t tienen los mismos valores propios. 418 Sean E es un espacio vectorial de dimensión finita, T : E → E un operador lineal y T ∗ : E → E el operador adjunto de T definido en el ejercicio resuelto 38 de este capı́tulo; mostrar que T y T ∗ tienen los mismos valores propios (cfr. el ejercicio resuelto 39 de este capı́tulo). Page (PS/TeX): 154 / 570, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 571 419 Probar que si A, B ∈ Mn y una de ellas es invertible, entonces AB y BA son similares y por tanto tienen los mismos valores propios. 420 Sean A, B dos matrices cuadradas de orden n. (a) Probar que si AB − In es invertible entonces BA − In es también invertible y que (BA − In )−1 = B(AB − I)−1 A − In . (b) Mostrar que AB y BA tienen los mismos valores propios. −1 1 1 1 421 Si A = yB= , calcular los valores propios de AB y BA. Por el ejercicio pre1 2 1 1 cedente estos productos deben tener los mismos valores propios, ¿tienen los mismos vectores propios correspondientes? En los ejercicios 422 a 440, para la matriz A: (i) encontrar los valores propios; (ii) hallar los vectores y espacios propios correspondientes; (iii) calcular las dimensiones de los espacios propios. 422 A = 423 A = 424 A = 425 A = 426 A = 427 A = 428 A = 429 A = 430 A = 3 4 −1 −3 5 8 −2 −3 . 0 −1 −4 −7 −5 −2 . . 12 5 . 2 0 3 2 0 2 −1 3 3 2 2 1 . . . −1 2 1 4 7 −3 16 −7 . . ⎤ −3 2 0 3 0 ⎦. 431 A = ⎣ −4 4 −2 1 ⎡ Page (PS/TeX): 155 / 571, COMPOSITE 572 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios ⎤ 0 0 ⎦. −1 ⎡ −3 2 3 432 A = ⎣ −4 3 −3 ⎡ 1 433 A = ⎣ 0 0 ⎤ −3 4 4 −2 ⎦. 1 1 ⎤ 1 0 0 434 A = ⎣ 2 −6 −4 ⎦. −1 8 6 ⎡ ⎤ 5 0 −3 435 A = ⎣ 6 −1 −3 ⎦. 6 0 −4 ⎡ ⎤ −1 −2 1 436 A = ⎣ −2 −1 1 ⎦. 2 −4 0 ⎡ ⎡ 5 437 A = ⎣ 2 0 ⎤ 0 6 1 4 ⎦. −1 2 ⎤ 1 0 0 438 A = ⎣ −3 −2 2 ⎦. 2 1 2 ⎡ ⎡ 1 439 A = ⎣ 0 0 ⎤ −2 3 −3 1 ⎦. 1 −1 ⎤ 6 −1 −2 1 −2 ⎦. 440 A = ⎣ 4 6 −2 −1 ⎡ En los ejercicios 441 a 463 determinar si la matriz A o el operador T es o no diagonalizable. En caso afirmativo encontrar una diagonalización para la matriz o el operador en cuestión. 441 A es la matriz del ejercicio propuesto 422 de este capı́tulo. 442 A es la matriz del ejercicio propuesto 424 de este capı́tulo. 443 A = 2 −2 2 6 . 444 A es la matriz del ejercicio propuesto 425 de este capı́tulo. 445 A es la matriz del ejercicio propuesto 426 de este capı́tulo. ⎤ 5 3 0 446 A = ⎣ −3 −1 0 ⎦. 1 1 3 ⎡ Page (PS/TeX): 156 / 572, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 573 447 A es la matriz del ejercicio propuesto 431 de este capı́tulo. ⎤ 2 1 1 448 A = ⎣ 0 2 0 ⎦. −1 0 4 ⎡ ⎤ 8 3 −3 6 ⎦. 449 A = ⎣ −6 −1 0 0 5 ⎡ 450 A es la matriz del ejercicio propuesto 432 de este capı́tulo. 451 T (x, y, z) = (−y + 2z, 3x + 4y − 2z, −x + 4z). 452 T (x, y, z) = (−7x + 15y − 11z, −6x + 12y − 7z, z). 453 T : M2 → M2 , T (A) = At . 454 T : M2 → M2 , T (A) = A+At 2 . 455 T : M2 → M2 , T (A) = A−At 2 . 456 A es la matriz del ejercicio propuesto 438 de este capı́tulo. 457 A es la matriz del ejercicio propuesto 439 de este capı́tulo. 458 T (x, y, z) = (2x − 7y, 2x − 6y, −x − y + z). ⎤ 2 −6 0 0 ⎦. 459 A = ⎣ 2 −5 −3 5 −2 ⎡ ⎡ ⎤ 1 0 0 3 0 0 ⎥ ⎥. 4 −2 −3 ⎦ −3 3 4 ⎡ ⎤ 0 −2 −3 −2 0 0 ⎥ ⎥. 0 5 3 ⎦ 0 2 1 1 ⎢ −1 460 A = ⎢ ⎣ −4 3 −4 ⎢ 0 461 A = ⎢ ⎣ 7 2 ⎤ 5 0 4 0 ⎢ 0 −3 0 0 ⎥ ⎥. 462 A = ⎢ ⎣ −8 0 −7 0 ⎦ 4 0 4 1 ⎡ ⎡ 2 ⎢ −4 463 A = ⎢ ⎣ −1 −1 Page (PS/TeX): 157 / 573, COMPOSITE ⎤ 0 2 −2 2 −3 2 ⎥ ⎥. 0 −1 2 ⎦ 0 0 1 574 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 464 Sea T : Pn → Pn definido por T (p) = q donde q(x) = p(x) + xp (x). (a) Probar que T es un operador lineal. (b) Encontrar los valores propios de T . (c) Determinar si T es diagonalizable y en caso positivo hallar una diagonalización para T . En los ejercicios 465 a 467 para la transformación T : E → E: (i) probar que T es lineal; (ii) determinar si T es diagonalizable y en caso afirmativo encontrar una base B de E tal que [T ]B sea diagonal. 465 T : P3 → P3 , T (p) = p + p . 466 T : P2 → P2 , T (a0 + a1 x + a2 x2 ) = a2 + a1 x + a0 x2 . 467 T : P2 → P2 , T (a0 + a1 x + a2 x2 ) = a0 + 12 a1 x + 13 a2 x2 . 468 Una matriz A ∈ Mn es escalar si A = λIn para algún escalar λ. Demostrar que si B es una matriz de orden n y tiene un único valor propio, entonces B es una matriz escalar. ⎤ 2 0 1 469 ¿Es diagonalizable la matriz ⎣ 0 2 −1 ⎦? 0 0 2 ⎡ 470 Encontrar condiciones necesarias y suficientes, respecto a los parámetros a, b, c, d, para que la matriz a b c d sea diagonalizable (sobre R). 471 Determinar las condiciones sobre los parámetros a, b ∈ R para que la matriz ⎡ 2a − b ⎣ 1 −a + b 0 a 0 ⎤ 2a − 2b ⎦ 2 −a + 2b sea diagonalizable. 472 Sea ⎡ 1 ⎢ a A=⎢ ⎣ a1 a2 0 1 b b1 0 0 2 c ⎤ 0 0 ⎥ ⎥. 0 ⎦ 2 Encontrar condiciones sobre los parámetros a1 , a2 , b, b1 ∈ R para que la matriz A sea diagonalizable. En los ejercicios 473 a 484 se consideran valores propios, vectores propios y diagonalización sobre el campo C. Para la matriz A: (i) encontrar los valores propios; (ii) bases para los espacios propios; (iii) determinar si la matriz A es diagonalizable y en caso afirmativo hallar una diagonalización para la matriz A. 473 A = i 5 1 −i Page (PS/TeX): 158 / 574, COMPOSITE . SECCIÓN 5.4 474 A = 475 A = 476 A = 477 A = 478 A = 1 − 3i 4 1 −1 2 4 3i 4i 2 1 + 3i . 2 1 . −2 −2 2+i 0 Ejercicios resueltos y ejercicios propuestos 575 . 3 2+i −i −i . . ⎤ 1 1 −1 0 ⎦. 479 A = ⎣ 0 1 1 0 1 ⎡ ⎤ 0 −1 0 1 0 ⎦. 480 A = ⎣ 0 −1 0 −i ⎡ ⎤ i −1 + i −2 + i 481 A = ⎣ 0 −3 + 2i −3 + i ⎦. 0 6 − 2i 6−i ⎡ ⎡ −i i 482 A = ⎣ −2 − 2i 1 + 2i −3 − 3i 3i ⎤ 0 0 ⎦. 1 ⎤ −2i −1 − i 0 3+i 0 ⎦. 483 A = ⎣ 2 + 2i −1 − i −1 − i 1 − i ⎡ ⎡ 0 ⎢ 0 484 A = ⎢ ⎣ 0 1 1 0 0 0 0 1 0 0 ⎤ 0 0 ⎥ ⎥. 1 ⎦ 0 En los ejercicios 485 a 489 hallar An para todo n, det(A) y tra(A) para la matriz diagonalizable A utilizando las propiedades de las matrices diagonalizables (teorema 5.34, pág. 481) y de los valores propios de una matriz (teorema 5.36, pág. 486). ⎤ 8 3 −3 6 ⎦. 485 A = ⎣ −6 −1 0 0 5 ⎡ ⎤ 0 −3 −2 5 2 ⎦. 486 A = ⎣ 2 −2 −6 −3 ⎡ Page (PS/TeX): 159 / 575, COMPOSITE 576 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios ⎤ −3i 0 2i 487 A = ⎣ 4i i −2i ⎦. −4i 0 3i ⎡ ⎡ 1 ⎢ 0 488 A = ⎢ ⎣ 0 0 ⎡ 1 ⎢ 2 489 A = ⎢ ⎣ 2 0 0 −1 − 3i 1 −3 − i 0 −3i 0 −4i ⎤ 2i 2 ⎥ ⎥. 2i ⎦ 3i ⎤ 0 2 2 1 −4 −2 ⎥ ⎥. 0 2 3 ⎦ 0 −3 −2 490 Sea E un espacio vectorial complejo con producto interior ·, · y u0 un vector de E. Demostrar que la función f : E →C definida por f (v) = v,u0 es lineal. 491 Sea E un espacio vectorial complejo de dimensión finita y f : E → C un funcional lineal. Mostrar que existe un u f ∈ E tal que f (u) = u,u f para todo u ∈ E. 492 Sea T : C3 → C el funcional lineal definido por f (z1 , z2 , z3 ) = (2 + i)z1 − z2 + (2 − i)z3 . Hallar u0 ∈ C3 tal que f (z) = z,u0 para todoz ∈ C3 , donde (z1 , z2 , z3 ), (w1 , w2 , w3 ) =z · w = ∑3i=1 zi wi es el producto canónico en C3 (cfr. el ejemplo 5.60, pág. 492). 493 Sean E un espacio vectorial de dimensión finita sobre los números complejos, ·, · un producto interior en E y T : E → E un operador lineal. Probar que existe un operador lineal T ∗ : E → E tal que T (u),v = u, T ∗ (v) ∀u,v ∈ E. Al operador T ∗ se le dice el operador adjunto de T . 494 Sean E y T como en el ejercicio anterior. Probar que si A = [T ]B es la representación matricial de T relativa a una base ortonormal B y B = [T ∗ ]B es la representación matricial del operador adjunto T ∗ , entonces B = At , donde M significa la matriz que tiene por componentes los conjugados de las componentes de la matriz M. Page (PS/TeX): 160 / 576, COMPOSITE SECCIÓN 5.4 Ejercicios resueltos y ejercicios propuestos 577 495 Sea T : C3 → C3 el operador lineal definido por T (z1 , z2 , z3 ) = (iz1 + (2 − 3i)z2 , 2z1 + 3iz2 , z2 − iz3 ). Hallar T ∗ si se considera el producto interior z, w =z · w (cfr. el ejemplo 5.60). 496 Sea T un operador lineal en un espacio E. Probar que el subespacio S es T -invariante (T (S) ⊂ S) si: (a) S = {0E }. (b) S = E. (c) S = T (E). (d) S = Ker(T ). (e) S = Eλ para cualquier valor propio λ del operador T. En los ejercicios 497 a 500 determinar si el subespacio S es T -invariante para la transformación T : E → E; esto es, si T (S) ⊂ S. 497 T : P3 → P3 , T (p) = p , S = P2 . 498 T : P → P, T (p) = q donde q(x) = xp(x), S = P2 . 499 T : C[0, 1] → C[0, 1], T ( f ) = g donde g(x) = x 500 T : M2 → M2 , T (A) = 1 0 f (t)dt, S = {g ∈ C[0, 1] | g(x) = a0 + a1 x, a0 , a1 ∈ R}. 0 1 1 0 A, S es subespacio de matrices simétricas. 501 Probar que si T : E → E es un operador lineal en el espacio E y Sα , α ∈ Λ, es una colección de subes pacios de E, entonces S = α∈Λ Sα es un subespacio T -invariante; es decir, T (S) ⊂ S (cfr. el ejercicio resuelto 30 del capı́tulo 3, pág. 190). En los ejercicios 502 a 504 encontrar una base para el subespacio T -cı́clico, definido en el ejercicio resuelto 48 de este capı́tulo, generado por el vector u. 502 T : P3 → P3 , T (p) = p , u = x3 . ⎤ 0 1 0 503 T : M3 → M3 , T (A) = At , u = ⎣ 1 0 1 ⎦. 0 1 0 ⎡ 504 T : P2 → P2 , T (p) = p ,u = x2 . En los ejercicios 505 a 514 encontrar el polinomio caracterı́stico y el polinomio mı́nimo de la matriz A. En algunos casos se debe considerar trabajar sobre el campo C. 505 A = 1 0 Page (PS/TeX): 161 / 577, COMPOSITE 1 1 . 578 CAPÍTULO 5 Transformaciones lineales, valores y vectores propios 506 A = 507 A = 0 0 0 0 1 1 1 1 . . ⎤ 4 3 0 508 A = ⎣ −6 −5 0 ⎦. 3 3 1 ⎡ ⎤ −4 0 −3 3 ⎦. 509 A = ⎣ 3 −1 6 0 5 ⎡ ⎤ −5 0 4 510 A = ⎣ 4 −1 −4 ⎦. −8 0 7 ⎡ ⎡ −1 ⎢ 2 ⎢ 511 A = ⎣ −3 3 ⎤ 0 1 −1 1 −1 1 ⎥ ⎥. 0 3 −1 ⎦ 0 −1 3 ⎡ 1 1 0 512 A = ⎣ 2 −3 −2 ⎡ 0 ⎢ 1 513 A = ⎢ ⎣ 0 0 ⎤ 0 2 ⎦. −1 ⎤ −1 2 −1 0 1 2 ⎥ ⎥. 0 0 1 ⎦ 0 −1 0 ⎡ −1 1 ⎢ −2 1 514 A = ⎢ ⎣ 3 1 2 −5 ⎤ 0 0 0 0 ⎥ ⎥. 1 1 ⎦ −2 −1 515 Demostrar el teorema de Cayley-Hamilton (cfr. el ejercicio resuelto 50 de este capı́tulo) para una matriz 2 × 2, A = a b c d , utilizando directamente la fórmula pA (λ) = λ2 − tra(A)λ + det(A) para el polinomio caracterı́stico de A para matrices de orden 2. Page (PS/TeX): 162 / 578, COMPOSITE III Aplicaciones, uso de tecnología, métodos numéricos Page (PS/TeX): 1 / 579, COMPOSITE Page (PS/TeX): 2 / 580, COMPOSITE 6 Aplicaciones Se han seleccionado unas cuantas de las aplicaciones que tiene la materia de álgebra lineal para formar parte de este capı́tulo. Van desde lo elemental hasta aplicaciones más sofisticadas. Todas deben considerarse como introducciones a temas que son bastos y complejos; sin embargo, algunas de ellas se han tratado con suficiente detalle para que este libro resulte, en la medida de lo posible, un texto autocontenido. Las primeras aplicaciones ilustran conceptos muy simples y cuestiones bastante elementales de álgebra lineal; pero las demás involucran conceptos que en sı́ requieren de una formulación conceptual más complicada. Las secciones 6.1, 6.2, 6.4, 6.5 y 6.6 necesitan, esencialmente, el conocimiento de matrices y sistemas lineales. La sección 6.3 requiere, además, saber los conceptos básicos de matrices invertibles, ası́ que pueden abordarse inmediatamente que se hayan cubierto esos temas. Para lograr una mayor flexibilidad en el manejo de este capı́tulo se hacen patentes, al inicio de cada sección y donde es necesario, los requisitos de álgebra lineal –mencionando los apartados donde están incluidos en el libro– y los conocimientos de otras ramas de las matemáticas que son necesarios para su comprensión. Por tanto, su estudio puede llevarse a cabo en el orden que convenga y, no necesariamente, en el orden en el que aparecen los tópicos. La última sección contiene una serie de ejercicios propuestos al lector para su resolución. 6.1 Matrices de incidencia y teorı́a de grafos Requisitos: Operaciones con matrices: 1.1.1 a 1.1.3 Una matriz de incidencia es una matriz cuadrada cuyas entradas son ceros o unos y, por conveniencia, todas las componentes de la diagonal son nulas. Ejemplo 6.1 ⎡ 0 ⎢ 1 A=⎢ ⎣ 1 0 0 0 1 1 1 0 0 1 ⎤ 1 1 ⎥ ⎥ 0 ⎦ 0 es una matriz de incidencia. Estas matrices tienen una interpretación muy sencilla que es de gran utilidad en varias aplicaciones. Supongamos que se tienen n personas, P1 , . . . , Pn , con ciertos dispositivos de comunicación, de manera 581 Page (PS/TeX): 3 / 581, COMPOSITE 582 CAPÍTULO 6 Aplicaciones que algunas personas pueden enviar (transmitir) mensajes a otras. Formamos una matriz A = [ai j ] para este esquema definiendo ai j = 1, si i = j y Pi puede transmitir a Pj ; 0 en otro caso. Entonces, A es una matriz de incidencia. Note que si ai j = 1 no necesariamente a ji = 1; esto es, si la persona Pi puede enviar mensajes a la persona Pj , no forzosamente la persona Pj puede transmitir a la persona Pi . Una forma de representar las relaciones de comunicación de este tipo es por medio de un diagrama llamado grafo dirigido o digrafo. Por ejemplo, la figura 6-1 muestra el digrafo de la matriz de incidencia del P2 P4 ejemplo 6.1. En él los individuos Pi , i = 1, . . . , 4, están representados por los puntos Pi que se llaman vértices del digrafo y las lı́neas que unen ciertos vértices se llaman aristas; las flechas indican direcciones hacia donde es posible transmitir comunicación. Aunque en el digrafo de la figura 6-1 P1 no se puede comunicar directamente con P2 , existe una cadena o trayectoria P3 a través de la cual puede enviar mensajes a P2 , por ejemplo, P1 → P3 → P2 . Se dice que ésta es una 2-cadena porque Figura 6-1 para transmitir un mensaje es necesario hacerlo en dos etapas, esto es, recorrer una trayectoria que tiene dos aristas con un vértice intermedio. Otra trayectoria por la que P1 puede transmitir a P2 es la 3-cadena P1 → P4 → P3 → P2 . En general, en un digrafo cualquiera, una k-cadena, es una sucesión de la forma Pi → Pl → · · · → Pj por medio de la cual Pi puede enviar mensajes a Pj , donde esta cadena contiene k + 1 vértices y k aristas. Supongamos ahora que un digrafo tiene n > 1 vértices y estamos interesados en encontrar el número de formas distintas en las que un individuo Pi puede transmitir al individuo Pj a través de una 2-cadena; es decir, el número total de 2-cadenas con vértice inicial Pi y vértice final Pj o, de manera equivalente, el número de formas distintas en las que Pi puede transmitir a Pj con un intermediario, exactamente, Pi → Pl → Pj . Representemos por (A2 )i j la componente en la fila i y la columna j de la matriz A2 , donde A = [Ai j ] es la matriz de incidencia del digrafo. Entonces P1 ⎡ (A2 )i j = Ai1 ··· Ain ⎤ A1 j ⎢ .. ⎥ ⎣ . ⎦ An j n = ∑ Ail Al j . l=1 Puesto que A es una matriz de incidencia, los términos de la precedente sumatoria son iguales a 1, o iguales a 0; y ya que Ail Al j = 1 si y sólo si Pi puede transmitir a Pl y Pl puede transmitir a Pj , se tiene que el resultado de esta sumatoria es el número total de 2-cadenas con vértice inicial Pi y vértice final Pj . La generalización de este resultado es inmediata, se hace patente en el siguiente teorema y su demostración se deja de ejercicio al lector. Page (PS/TeX): 4 / 582, COMPOSITE Matrices de incidencia y teorı́a de grafos 583 SECCIÓN 6.1 Teorema 6.1 Sea un digrafo con n > 1 vértices y matriz de incidencia A. Si r ≥ 1 es un número entero y (Ar )i j representa la componente i j de la matriz Ar , entonces (Ar )i j es el número de r-cadenas con vértice inicial Pi y vértice final Pj o, equivalentemente, el número de formas distintas en las que Pi puede transmitir a Pj con r − 1 intermediarios. Ejemplo 6.2 Consideremos el digrafo que se muestra en la figura 6-1 cuya matriz de incidencia es la matriz del ejemplo 6.1; esto es, ⎤ ⎡ 0 0 1 1 ⎢ 1 0 0 1 ⎥ ⎥ A=⎢ ⎣ 1 1 0 0 ⎦. 0 1 1 0 Entonces, ⎡ 1 ⎢ 0 2 ⎢ A =⎣ 1 2 2 1 0 1 1 2 1 0 ⎤ 0 1 ⎥ ⎥ 2 ⎦ 1 Ası́, el individuo P1 puede transmitir en dos formas distintas al individuo P2 , con un relevo (intermediario) de por medio, las 2-cadenas: P1 → P4 → P2 y P1 → P3 → P2 ; el individuo P2 puede transmitir al individuo P3 en dos formas distintas con un relevo de por medio: P2 → P4 → P3 y P2 → P1 → P3 ; sólo hay una 2-cadena con vértice inicial P1 y vértice final P4 : P1 → P2 → P4 (es decir, sólo hay una forma de transmisión de P1 a P4 en dos etapas); hay cero 2-cadenas con vértice inicial P4 y vértice final P3 ; etc., lo cual se puede constatar observando la figura 6-1. Ejemplo 6.3 Si A es la matriz de incidencia del ejemplo anterior, ⎡ 3 ⎢ 3 3 A =⎢ ⎣ 1 1 1 3 3 1 1 1 3 3 ⎤ 3 1 ⎥ ⎥. 1 ⎦ 3 Entonces (A3 )14 = 3, ası́ que existen tres 3-cadenas con vértice inicial P1 y vértice final P4 : P1 P1 P1 → → → P3 P4 P3 → → → P2 P2 P1 → → → P4 , P4 y P4 . Es evidente que el teorema precedente incluye en el conteo r-cadenas que no son, en general, de interés en la práctica, son aquellas en las que se repiten vértices; estas cadenas se llaman redundantes. En el ejemplo anterior, las 3-cadenas P1 P1 → → P4 P3 → → P2 P1 → → P4 y P4 son 3-cadenas redundantes. Si A es una matriz de incidencia, entonces, por el teorema 6.1 (Ak )i j , k = 1, . . . , r, es el número de k-cadenas con vértice inicial Pi y vértice final Pj , luego (A + A2 + · · · + Ar )i j es el número de cadenas con a lo más r aristas con vértice inicial Pi y vértice final Pj . Hemos probado ası́ el siguiente corolario. Page (PS/TeX): 5 / 583, COMPOSITE 584 CAPÍTULO 6 Aplicaciones Corolario 6.1 Si un digrafo tiene n vértices Pi , A es su matriz de incidencia y r ≥ 1 es un entero, entonces (A + A2 + · · · + Ar )i j es el número de formas distintas que Pi puede transmitir a Pj en a lo más r etapas. Ejemplo 6.4 Para la matriz de incidencia ⎡ 0 1 0 A=⎣ 1 0 1 0 1 0 ⎡ 1 0 1 A2 = ⎣ 0 2 0 1 0 1 ⎡ 0 2 0 A3 = ⎣ 2 0 2 0 2 0 ⎤ ⎦: ⎤ ⎦ y ⎤ ⎦. Entonces (A + A2 + A3 )12 = 3 es el número de formas en las que P1 puede transmitir a P2 en a lo más 3 etapas. La figura 6-2 contiene el digrafo de esta matriz, donde se puede observar que las k-cadenas, con k = 1, 2, 3, con vértice inicial P1 y vértice final P2 son: P1 P1 P1 → → → P2 , P2 → P2 → P1 P3 → → P2 , P2 . P1 P2 P3 Figura 6-2 • Digrafo de la matriz. Un problema importante que surge en la teorı́a de grafos es determinar subconjuntos maximales de vértices que estén intercomunicados. Un subconjunto S de un digrafo es un clan si: 1. S contiene 3 o más vértices. 2. Si Pi , Pj ∈ S, entonces Pi → Pj y Pj → Pi ; es decir, cualquier par de vértices en S se pueden comunicar directamente uno con otro. 3. No existe un subconjunto propio del digrafo que satisfaga las dos condiciones precedentes y contenga propiamente a S. Page (PS/TeX): 6 / 584, COMPOSITE SECCIÓN 6.1 Matrices de incidencia y teorı́a de grafos 585 P1 P1 P4 P2 P4 P2 P5 P3 P3 (a) (b) Figura 6-3 • Ejemplo 6.5 En la figura 6-3(a) S1 = {P1 , P2 , P3 } y S2 = {P1 , P2 , P4 } son clanes. En la misma figura (b) ni {P1 , P2 , P3 } ni {P1 , P2 , P4 } son clanes, pues ambos subconjuntos están contenidos en S = {P1 , P2 , P3 , P4 }, el cual sı́ es un clan (el único) del digrafo. Supongamos ahora que se tiene un digrafo con matriz de incidencia A, se define la matriz A (A) = [bi j ] donde bi j = 1 si Pi y Pj pueden transmitir mensajes directos en forma mutua; es decir, en una etapa y en las dos direcciones; y bi j = 0 en otro caso. Llamaremos a A (A) la matriz asociada de la matriz A. Ejemplo 6.6 Hallar la matriz de incidencia del digrafo de la figura 6-3(a) y su matriz asociada. Solución De la figura 6-3(a) se desprende que ⎡ 0 ⎢ 1 A=⎢ ⎣ 1 1 1 0 1 1 1 1 0 0 ⎤ 1 1 ⎥ ⎥ 1 ⎦ 0 1 0 1 1 1 1 0 0 ⎤ 1 1 ⎥ ⎥. 0 ⎦ 0 y ⎡ 0 ⎢ 1 A (A) = ⎢ ⎣ 1 1 El siguiente teorema no es difı́cil de probar y su demostración se deja de ejercicio al lector. Teorema 6.2 Si un digrafo tiene n vértices con matriz de incidencia A y matriz asociada B = A (A), entonces Pi pertenece a un clan del digrafo si y sólo si (B3 )ii > 0. Page (PS/TeX): 7 / 585, COMPOSITE 586 CAPÍTULO 6 Aplicaciones Ejemplo 6.7 Consideremos el digrafo contenido en la figura 6-3(a). Por el ejemplo anterior, ⎡ 0 ⎢ 1 B=⎢ ⎣ 1 1 1 0 1 1 1 1 0 0 ⎤ 1 1 ⎥ ⎥ 0 ⎦ 0 5 4 5 5 5 5 2 2 ⎤ 5 5 ⎥ ⎥, 2 ⎦ 2 ya que ⎡ 4 ⎢ 5 3 B =⎢ ⎣ 5 5 todos los vértices P1 , P2 , P3 y P4 están en un clan. Efectivamente, en el ejemplo 6.5 vimos que este digrafo tiene dos clanes: S1 = {P1 , P2 , P3 } y S2 = {P1 , P2 , P4 }. Ejemplo 6.8 Ahora consideremos el digrafo contenido en la figura 6-3(b), su matriz de incidencia es ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣ 0 1 1 1 0 1 0 1 1 0 1 1 0 1 0 1 1 1 0 0 0 0 1 0 0 0 1 1 1 0 1 0 1 1 0 1 1 0 1 0 1 1 1 0 0 0 0 0 0 0 ⎤ ⎥ ⎥ ⎥; ⎥ ⎦ mientras que la matriz asociada a A es ⎡ ⎢ ⎢ B=⎢ ⎢ ⎣ ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ Puesto que ⎡ ⎢ ⎢ B3 = ⎢ ⎢ ⎣ 6 7 7 7 0 7 6 7 7 0 7 7 6 7 0 7 7 7 6 0 0 0 0 0 0 ⎤ ⎥ ⎥ ⎥ ⎥ ⎦ se desprende que todos los vértices, excepto P5 , están en un clan. De hecho, por el ejemplo 6.5, sabemos que {P1 , P2 , P3 , P4 } es el único clan de este digrafo. Dominancia total Supongamos ahora que en un digrafo queremos representar una relación entre ciertos individuos Pi que tiene que ver con el dominio, o influencia directa, que algunos ejercen sobre otros. Esta relación puede ser, por ejemplo, de liderazgo o de algún tipo de influencia sicológica o nuevamente de transmisión de información, de tal manera que si un individuo ejerce dominio sobre otro, éste no lo hace sobre el Page (PS/TeX): 8 / 586, COMPOSITE Matrices de incidencia y teorı́a de grafos 587 SECCIÓN 6.1 P2 P1 P3 P5 P4 Figura 6-4 • Digrafo. primero. Si se supone además que todo individuo domina, o es dominado, en forma directa por los demás miembros del grupo, entonces se dice que la relación es de dominancia total. Por tanto, en el digrafo todo par de vértices Pi y Pj están conectados en la forma Pi → Pj o en la forma Pj → Pi , pero no en ambas. Luego, la matriz de incidencia, A = [ai j ], para una relación de dominancia total tienen una caracterı́stica más: ai j = 1 si y sólo si a ji = 0. Como antes, la relación de dominancia puede ejercerse a través de k-cadenas, esto es, si Pi → Pj (y, por tanto, Pj Pi ), puede existir una k-cadena tal que Pj → · · · → Pl → Pi . Por ejemplo, en el digrafo contenido en la figura 6-4, P4 → P2 y P2 P4 , pero P2 → P3 → P4 , esto es, P2 establece dominio sobre P4 en dos etapas. Ejemplo 6.9 Consideremos el digrafo mostrado en la figura 6-4. Entonces, la matriz de incidencia es ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣ 0 0 1 0 1 1 0 0 1 1 0 1 0 0 1 1 0 1 0 0 0 0 0 1 0 ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ Por tanto, la relación que representa el digrafo de la figura 6-4 es de dominancia total, ya que: las componentes de ai j de A son ceros o unos, aii = 0 para todo i, ai j = 1 ⇔ a ji = 0 para todo i = j. Se puede probar que si A es la matriz de incidencia de una relación de dominancia total, entonces A + A2 tiene una fila (columna) con todos sus elementos positivos excepto el de la diagonal y, por el corolario 6.1, se desprende, entonces, que siempre existe un individuo Pi que domina a todos los demás (o es dominado por todos los demás) en a lo sumo dos etapas. Ejemplo 6.10 Si A es la relación de dominancia cuya matriz de incidencia es la matriz A del ejemplo precedente, entonces, ⎡ ⎢ ⎢ A + A2 = ⎢ ⎢ ⎣ Page (PS/TeX): 9 / 587, COMPOSITE 0 1 1 1 2 2 0 2 2 2 1 1 0 2 2 1 1 2 0 2 1 0 1 1 0 ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ 588 CAPÍTULO 6 Aplicaciones Luego, los individuos P1 , P3 , P4 y P5 ejercen su influencia en todos los demás en, a lo sumo, dos etapas; mientras que P1 , P2 , P3 y P4 son dominados por todos los demás en a lo más dos etapas. El lector puede verificar estas afirmaciones gráficamente observando el digrafo de la figura 6-4. Dominancia parcial Existen relaciones en las que si un individuo domina a otro, éste no domina al primero, pero en las que no necesariamente en toda pareja del grupo existe una relación de dominio. Entonces se dice que en el grupo hay una relación de dominancia parcial. En este caso, si A = [ai j ] es la matriz de incidencia se tiene: todos los ai j son ceros o unos; aii = 0 para todo i; si ai j = 1, entonces a ji = 0. Como antes, la relación de dominancia parcial se puede transmitir a través de alguna k-cadena. Ejemplo 6.11 Consideremos la relación representada en el digrafo contenido en la figura 6-5. P2 P3 P1 P5 Figura 6-5 P4 • Entonces, la matriz de incidencia para éste es ⎡ ⎢ ⎢ A=⎢ ⎢ ⎣ 0 0 0 1 1 1 0 1 0 1 1 0 0 0 1 0 0 1 0 0 0 0 0 1 0 ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ Luego, la relación es de dominancia parcial, pues ai j = 1 ⇒ a ji = 0, las entradas en la diagonal son nulas y todas las componentes de esta matriz son unos o ceros. Ejemplo 6.12 Si A es la matriz de incidencia de la relación de dominancia parcial del ejemplo anterior, entonces, ⎡ ⎢ ⎢ A + A2 = ⎢ ⎢ ⎣ Page (PS/TeX): 10 / 588, COMPOSITE 0 0 1 2 1 2 0 1 2 3 1 0 0 2 2 1 0 1 0 1 0 0 1 1 0 ⎤ ⎥ ⎥ ⎥. ⎥ ⎦ Redes de conducción y principios de conservación 589 SECCIÓN 6.2 De donde, por el corolario 6.1, se desprende que P3 , P4 y P5 dominan a todos los demás en, a lo sumo, dos etapas; mientras que P2 es dominado por todos los demás, cuando mucho, dos etapas y P2 nunca domina a individuo alguno en este grupo. 6.2 Redes de conducción y principios de conservación Requisitos: Sistemas lineales y método de Gauss: 1.2.1 a 1.2.4 En una gran variedad de situaciones es posible resolver problemas utilizando principios básicos de conservación. En esta sección veremos unas cuantas aplicaciones del álgebra lineal que utilizan esta clase de principios de manera natural. La primera tiene que ver con redes muy simples que conducen cierto tipo de fluido, éste puede ser lı́quido, gas, electricidad, mensajes, vehı́culos, personas, etc. La figura 6-6 contiene un esquema de una de estas redes. Las lı́neas representan los conductores de la red, las flechas indican las direcciones hacia donde se mueve el fluido cuando cruza determinada sección de la red a través de un conductor; los puntos, llamados nodos, es donde convergen dos o más conductores. En los nodos se producen bifurcaciones donde el fluido se reparte a distintos conductores. Cada literal representa la magnitud del fluido que atraviesa el respectivo conductor en una sección de la red. f1 A f2 f3 f4 B f5 Figura 6-6 • El germen que rige las redes conductoras es el siguiente: Principio de los nodos: En cada nodo, la suma de las magnitudes del fluido que entra a él, es igual a la suma de las magnitudes del fluido que sale del mismo. Ası́, en la red de la figura 6-6, se cumple: • En el nodo A: f1 = f2 + f3 . • En el nodo B: f3 = f4 + f5 . Conociendo las magnitudes de algunos de los flujos y utilizando el principio de los nodos es posible, en general, establecer un sistema de ecuaciones lineales cuyo conjunto de soluciones determina los posibles flujos en la red conductora. Con frecuencia, las direcciones de los flujos que aparecen como variables en el esquema de una red conductora son convencionales y las direcciones dependen de los valores que resulten al resolver el sistema; entonces, si una de las soluciones fi resulta negativa, significa que en realidad el flujo correspondiente tiene dirección opuesta a la que se le asignó en el diagrama; sin Page (PS/TeX): 11 / 589, COMPOSITE 590 CAPÍTULO 6 Aplicaciones embargo, en algunas redes, por ejemplo en circuitos vehiculares, las direcciones son fijas y no se pueden invertir. En tal caso, es necesario imponer resticciones a los parámetros del conjunto solución del sistema de ecuaciones para que los valores de las fi sean no negativos. La segunda aplicación trata un tipo particularmente importante de redes de conducción, circuitos o redes eléctricas que están conformados por mallas de conductores, resistores y baterı́as. Para analizar las redes eléctricas, además del principio de los nodos, se requiere de un principio fı́sico de conservación que tiene que ver con los potenciales eléctricos en cada malla del circuito, contenido en la llamada segunda regla o segunda ley de Kirchhoff. Finalmente, la última aplicación –balance quı́mico– que trataremos en este apartado, es consecuencia del principio básico de la naturaleza en el que se establece que la materia no se crea ni se destruye, sino que se transforma en otro tipo de materia o energı́a. 6.2.1 Flujo vehicular Supongamos que en una zona de cierta ciudad el flujo vehicular se comporta como lo muestra la figura 6-7; donde las direcciones de las flechas indican las sentidos en cada avenida y las cantidades al lado, o por encima de las mismas, el volumen promedio de automóviles que atraviesan por hora cada sección. Se requieren determinar los volúmenes promedio en las intersecciones; esto es, los valores xi , i = 1, 2, 3 y 4 de la figura 6-7. El problema lo podemos resolver utilizando el principio de los nodos, pues en cada una de las intersecciones la suma de los flujos de entrada debe ser igual a la suma de los flujos de salida; ası́: 150 350 600 A x1 B x3 450 Figura 6-7 • Flujo vehicular en una zona de cierta ciudad. Page (PS/TeX): 12 / 590, COMPOSITE 600 x4 x2 400 D C 350 500 SECCIÓN 6.2 Redes de conducción y principios de conservación 591 En la intersección A: x1 + 350 = x2 + 600 En la intersección B: x2 + 400 = x3 + 450 En la intersección C: x3 + 350 = x4 + 500 En la intersección D: x4 + 600 = x1 + 150 Llevemos a forma escalonada la matriz aumentada del sistema, ⎡ ⎤ ⎡ 1 −1 0 250 1 −1 0 0 ⎢ 0 ⎥ ⎢ 0 1 −1 50 1 −1 0 ⎥ ↔ ⎢ ⎢ ⎣ 0 ⎣ 0 0 1 150 ⎦ 0 1 −1 0 1 0 450 1 0 0 −1 ⎡ 1 −1 0 ⎢ 0 1 −1 ↔ ⎢ ⎣ 0 0 1 0 0 1 ⎡ 1 −1 0 ⎢ 0 1 −1 ↔ ⎢ ⎣ 0 0 1 0 0 0 0 0 −1 −1 0 0 −1 −1 0 0 −1 0 ⎤ 250 50 ⎥ ⎥ 150 ⎦ 200 ⎤ 250 50 ⎥ ⎥ 150 ⎦ 150 ⎤ 250 50 ⎥ ⎥ 150 ⎦ 0 y hagamos sustitución regresiva para obtener ⎤ ⎡ 450 + r x1 ⎢ x2 ⎥ ⎢ 200 + r ⎢ ⎥ ⎢ ⎣ x3 ⎦ = ⎣ 150 + r r x4 ⎡ ⎤ ⎥ ⎥ ; r ∈ R. ⎦ Entonces, si se conoce el flujo vehicular entre C y D, se pueden determinar los demás flujos, por ejemplo, si x4 = 150, entonces ⎤ ⎡ 600 x1 ⎢ x2 ⎥ ⎢ 350 ⎢ ⎥ ⎢ ⎣ x3 ⎦ = ⎣ 300 150 x4 ⎡ ⎤ ⎥ ⎥ ⎦ es decir, el problema no tiene solución única. Sin embargo, sirve para modelar el tráfico vehicular cambiando el valor de x4 (o especificando el valor de una, cualquiera, de las otras variables) para predecir los valores de las demás, siempre y cuando todas se conserven no negativas. 6.2.2 Circuitos eléctricos En un circuito eléctrico es posible determinar la corriente en cada una de sus ramas en función de las resistencias y voltajes. Consideremos el circuito contenido en la figura 6-8. El sı́mbolo representa una baterı́a cuyo potencial eléctrico, o fuerza electromotriz ( f em = ε), se mide en voltios (V); la baterı́a produce una corriente eléctrica que fluye hacia afuera de la terminal indicada mediante la lı́nea vertical más larga o, en forma esquemática, Page (PS/TeX): 13 / 591, COMPOSITE . El resistor, representado por el sı́mbolo , cuya 592 CAPÍTULO 6 Aplicaciones resistencia es medida en omhios (Ω), produce una caı́da en el potencial eléctrico gobernada por la ley de Ohm E = IR, donde I es la corriente, medida en amperios (A) y R la resistencia del resistor. Las flechas indican las direcciones de las corrientes en el circuito; sin embargo, si después de calcular alguna de ellas tiene signo negativo, significa que tiene dirección contraria a la que inicialmente se le asignó. Los nodos son los puntos donde se unen dos o más conductores en el circuito, en la figura 6-8 el dispositivo tiene dos nodos denotados por las letras A y B. Una malla en un circuito es cualquier recorrido conductor cerrado, en la figura 6-8 la trayectoria ABCDA es una malla de esta red. Para resolver un circuito eléctrico se usan las llamadas leyes de Kirchhoff: 13 V D C 2Ω I1 3Ω B A I2 4Ω 1Ω I3 F E 14 V Figura 6-8 • K1 En todo nodo la suma de las corrientes entrantes es igual a la suma de las corrientes salientes. K2 En toda malla del circuito la suma algebraica de las fuerzas electromotrices es igual a la suma algebraica de las caı́das de potencial en cada resistencia. Esto es, en una malla dada ∑ ε j = ∑ IjR j ; donde las ε j son las fuerzas electromotrices en cada baterı́a y los factores en los productos I j R j están formados por las resistencias R j de los resistores que están en la malla y las respectivas intensidades de corriente I j que fluyen en cada uno de ellos. Para resolver un circuito eléctrico es conveniente tener presentes los siguientes puntos: 1. Cuando se aplica la ley K2 en una malla, se elige positivo un sentido de recorrido, por ejemplo, la dirección en sentido contrario al que avanzan las manecillas del reloj y negativo el sentido opuesto. Entonces, si una corriente está en contraflujo a la dirección elegida, se considera con signo negativo para calcular la caı́da de potencial en las resistencias que atraviesa. De manera similar, toda fuerza electromotriz cuya corriente de salida esté en sentido contrario a la dirección elegida como positiva, se considera negativa. Page (PS/TeX): 14 / 592, COMPOSITE Redes de conducción y principios de conservación 593 SECCIÓN 6.2 2. Si un circuito tiene n nodos, la ley K1 se debe aplicar únicamente a cualquier subconjunto de n − 1 nodos; pues la ecuación que se obtenga con esta ley en el enésimo nodo será redundante. 3. La ley K2 se debe aplicar a cada una de las mallas que forman el circuito. Ejemplo 6.13 Encontrar las corrientes I j del circuito contenido en la figura 6-8. Solución En virtud de K1, en el nodo A se tiene I1 + I3 = I2 ; mientras que en el nodo B I2 = I1 + I3 . Por K2, en la malla ABCDA (se eligió positivo el sentido contrario al que avanzan las manecillas del reloj), 2I1 + 3I2 = 13 y en la malla ABFEA (se consideró positivo el sentido en el que avanzan las manecillas del reloj), 3I2 + 5I3 = 14. De donde se obtiene el sistema (observe que las dos primeras ecuaciones son idénticas, por eso es recomendable tener en cuenta el punto 2 de las precedentes recomendaciones) I1 I1 2I1 − − + I2 I2 3I2 3I2 + + I3 I3 + 5I3 = = = = 0 0 13 14 ya que ⎡ 1 −1 1 ⎢ 1 −1 1 ⎢ ⎣ 2 3 0 0 3 5 ⎤ 0 1 −1 1 ⎢ 2 13 ⎥ 3 0 ⎥ ⎢ ⎣ 0 14 ⎦ 3 5 0 0 0 0 ⎤ ⎡ 0 1 −1 1 ⎢ 0 13 ⎥ 5 −2 ⎥ ∼ ⎢ ⎣ 0 14 ⎦ 3 5 0 0 0 0 ⎤ ⎡ 0 1 −1 1 ⎢ 0 13 ⎥ 5 −2 ⎥, ∼ ⎢ ⎣ 0 31 ⎦ 0 31 0 0 0 0 ⎤ 0 0 ⎥ ⎥ ∼ 13 ⎦ 14 ⎡ al hacer sustitución regresiva resulta I3 = 1A, I2 = 3A, I1 = 2A. Page (PS/TeX): 15 / 593, COMPOSITE 594 CAPÍTULO 6 Aplicaciones Ejemplo 6.14 Encontrar las corrientes I j del circuito contenido en la figura 6-9. B D C 5Ω I1 15 Ω I2 I3 140 V 80 V 60 V 10 Ω 35 Ω A Figura 6-9 Solución F E • Aplicando K1 al nodo C se obtiene I1 + I2 = I3 . Aplicando K2 a la malla CDEFC (se considera positiva la dirección en el sentido en el que avanzan las manecillas del reloj), 10I2 + 50I3 = 140 + 60; y aplicando K2 ahora a la malla ABCFA (se eligió la dirección positiva en el sentido en el que avanzan las manecillas del reloj), 5I1 − 10I2 = 80 − 140. El sistema a resolver es entonces, + I2 10I2 − 10I2 I1 5I1 − + I3 50I3 = = = 0 200 −60 Y, ya que ⎡ 1 ⎣ 0 5 1 −1 10 50 −10 0 ⎤ 0 200 ⎦ ∼ −60 ⎡ 1 ⎣ 0 0 ⎡ 1 ∼ ⎣ 0 0 −1 5 1 1 1 −3 1 1 0 −1 5 16 ⎤ 0 20 ⎦ −12 ⎤ 0 20 ⎦ , 48 al hacer sustitución regresiva resulta I1 = −2 A, I2 = 5 A, I3 = 3 A; donde el signo menos en I1 = −2 A, significa que la corriente I1 fluye en sentido contrario al que le asignamos en la figura 6-9. Page (PS/TeX): 16 / 594, COMPOSITE SECCIÓN 6.2 Redes de conducción y principios de conservación 595 6.2.3 Balance quı́mico Las reacciones quı́micas se representan simbólicamente mediante las llamadas ecuaciones quı́micas. Cuando moléculas con dos atómos de hidrógeno (H2 ) arden, reaccionan con moléculas con 2 atómos de oxı́geno (O2 ) del aire, para formar moléculas de agua (H2 O). La ecuación quı́mica de esta reacción es 2H2 + O2 −→ 2H2 O (6.1) El signo + se lee como “reacciona con” y la flecha “produce”. En el lado izquierdo de la ecuación quı́mica se encuentran las sustancias de partida, se les llama reactivas y en el lado derecho de la flecha las sustancias que se producen con la reacción, productos, separados por el sı́mbolo + cuando hay más de una sustancia producto; los números que anteceden a los términos de la ecuación se llaman coeficientes y, de manera análoga al álgebra, no se escriben si son iguales a la unidad. Los subı́ndices significan el número de átomos de un elemento que forma una molécula; por ejemplo, H2 representa una molécula con dos átomos de hidrógeno (otra vez, si no aparece un subı́ndice es que éste es uno). Los coeficientes indican el número de moléculas del término; ası́, en la ecuación (6.1) el coeficiente 2 en 2H2 , indica que se tienen dos moléculas con dos átomos de hidrógeno cada una; mientras que el coeficiente 2 de H2 O en el lado derecho de (6.1), significa que se producen dos moléculas de agua con dos átomos de hidrógeno y uno de oxı́geno cada una. Dado que en la naturaleza no se crea ni se destruye materia, en toda ecuación quı́mica, para cualquiera de los elementos que la componen, el número de átomos de un elemento es igual en ambos lados (de la flecha). De esta manera, en la ecuación (6.1) en el lado izquierdo se tienen 2 × 2 = 4 átomos de hidrógeno y 2 átomos de oxı́geno; mientras que en el lado derecho 2(2 átomos de hidrógeno + un átomo de óxigeno) = 4 átomos de hidrógeno y 2 átomos de oxı́geno. Cuando se cumple con el principio de conservación en una ecuación quı́mica, se dice que está balanceada. Sin embargo, en general se conocen las sustancias reactivas y las sustancias producto y se escribe la ecuación quı́mica sin balancear; entonces se tiene que encontrar los coeficientes, para que se cumpla el principio de conservación de la igualdad en la cantidad de átomos de cada elemento en ambos lados de la ecuación; a este proceso se le llama balancear la ecuación quı́mica. Por ejemplo, consideremos la siguiente reacción quı́mica CH4 + O2 −→ CO2 + H2 O de las sustancias reactivas metano y óxigeno para producir dióxido de carbono y vapor de agua. Sean x1 : número de moléculas de CH2 x2 : número de moléculas de O2 que tienen que reccionar para producir x3 : número de moléculas de CO2 x4 : número de moléculas de H2 O de tal manera que la ecuación quı́mica x1 CH4 + x2 O2 −→ x3 CO2 + x4 H2 O esté balanceada. Entonces, por el principio de conservación en la igualdad del número de átomos por cada elemento en ambos lados de la ecuación quı́mica, se debe tener: Page (PS/TeX): 17 / 595, COMPOSITE 596 CAPÍTULO 6 Aplicaciones • el número de átomos de carbono (C) debe ser igual en ambos lados: x1 − x3 = 0, • el número de átomos de hidrógeno (H) debe ser igual en ambos lados: 4x1 − 2x4 = 0, • el número de átomos de óxigeno (O) debe ser igual en ambos lados: 2x2 − 2x3 − x4 = 0. Que produce el sistema lineal homogéneo x1 4x1 y ya que 2x2 − x3 − 2x3 − − 2x4 x4 = = = ⎤ ⎡ 1 0 −1 1 0 −1 0 ⎣ 4 0 4 0 −2 ⎦ ∼ ⎣ 0 0 0 2 −2 0 2 −2 −1 ⎡ 1 0 −1 ∼ ⎣ 0 2 −2 0 0 4 ⎡ 0 0 0 ⎤ 0 −2 ⎦ −1 ⎤ 0 −1 ⎦ ; −2 al hacer sustitución regresiva se obtiene ⎡ 1 ⎤ ⎤ 2 x1 ⎢ ⎥ ⎢ x2 ⎥ ⎢ 1 ⎥ ⎢ ⎥ ⎥ = r⎢ ⎢ 1 ⎥; r ∈ R ⎣ x3 ⎦ ⎣ 2 ⎦ x4 1 ⎡ como solución. Como es evidente que los xi deben ser enteros no negativos, se puede tomar r igual a cualquier múltiplo entero positivo de 2; sin embargo, se acostrumbra siempre elegir el menor entero para balancear la ecuación. En este caso r = 2. Luego ⎤ ⎡ ⎤ ⎡ 1 x1 ⎢ x2 ⎥ ⎢ 2 ⎥ ⎥ ⎢ ⎥ ⎢ ⎣ x3 ⎦ = ⎣ 1 ⎦ 2 x4 es la solución buscada y la ecuación balanceada resultante es, entonces, CH4 + 2O2 −→ CO2 + 2H2 O. 6.3 Análisis insumo-producto 6.3.1 Modelo para economı́a abierta Supongamos que una economı́a se divide en n industrias y cada una de ellas fabrica un solo producto final. Como es natural, cada una utiliza algunos productos (insumos) de las otras para fabricar sus propios artı́culos. Además, cada industria debe generar productos terminados para la demanda final. El análisis de insumo-producto tiene por objetivo determinar la producción de cada una de las industrias para satisfacer la demanda final si ésta cambia, suponiendo que la estructura económica no varı́a. La Page (PS/TeX): 18 / 596, COMPOSITE SECCIÓN 6.3 Requisitos: 2.1.3. Análisis insumo-producto 597 Sistemas lineales, matrices invertibles y método de Gauss-Jordan: 1.2.4, 1.2.5 y 2.1.1 a Consumidor Productor I1 I2 .. . In I1 I2 · · · In b11 b12 · · · b1n b21 b22 · · · b2n .. .. .. .. . . . . bn1 bn2 · · · bnn Demanda final Producción total h1 h2 .. . x1 x2 .. . hn xn Tabla 6-1 • Tabla de insumo-demanda-producción. tabla 6-1, es una tabla de insumo-demanda-producción que contiene la información necesaria para llevar a cabo este análisis. Cada elemento bi j es el importe, en unidades monetarias, del producto que fabrica la industra Ii y requiere la industria I j . Cada hi es el importe, en unidades monetarias, que se demanda finalmente del producto que fabrica la industria Ii y cada xi es la producción total necesaria, también en unidades monetarias, del producto fabricado por Ii . Entonces se debe tener xi = n ∑ bi j + hi ∀i. (6.2) j=1 Definamos ai j = bi j xj es decir, ai j es el valor monetario de la industria Ii que la industria I j debe adquirir para producir una unidad monetaria de su propio producto. Se tiene entonces xi = n ∑ bi j + hi j=1 = ∑ ai j x j + hi . j=1 De esta forma, si A = [ai j ], el sistema de ecuaciones (6.2) equivale a la ecuación matricial Ax +h =x donde x = (x1 , x2 , . . . , xn ) = [ x1 temente (6.3) equivale a x2 ··· xn ]t y h = (h1 , h2 , . . . , hn ) = [ h1 (In − A)x = h (6.3) h2 ··· hn ]t . Eviden(6.4) donde In es la matriz identidad de orden n. La matriz In − A se conoce como matriz de Leontief1 (para econonomı́a abierta), por el creador de estas ideas y ganador del premio Nobel en economı́a en 1973 por sus estudios relacionados con el análisis insumo-producto (input-output) y a la matriz A se le llama 11 Wassily Leontief (1906-1999). Page (PS/TeX): 19 / 597, COMPOSITE 598 CAPÍTULO 6 Aplicaciones matriz de insumos o matriz de intercambio. En el caso de que la matriz de Leontief sea invertible, la solución de estos sistemas equivalentes está dada por x = (In − A)−1h siempre que2 x ≥ 0Rn . Ejemplo 6.15 Una economı́a hipotética consta de tres industrias I1 , I2 e I3 , con la siguiente tabla de insumo-demanda-producción: Consumidor Productor I1 I2 I2 I1 I2 80 100 80 100 80 60 I3 100 100 100 Demanda final Producción total 40 40 160 320 320 400 Determinar el correspondiente vector de producción x si la demanda final cambia a: 1. h = (84, 56, 35). 2. h = (56, 63, 70). Las cifras están en millones de unidades monetarias. Solución La matriz de insumos A = [ai j ], ai j = ⎡ bi j xj , está dada por 80/320 100/320 100/400 ⎢ A = ⎣ 80/320 100/320 ⎡ ⎢ =⎣ 80/320 1 4 1 4 1 4 5 16 5 16 3 16 1 4 1 4 1 4 ⎤ ⎥ 100/400 ⎦ 60/320 100/400 ⎤ ⎥ ⎦ Entonces, ⎤ ⎡ 1 0 0 ⎢ I3 − A = ⎣ 0 1 0 ⎦ − ⎣ 0 0 1 ⎡ ⎡ = 3 4 ⎢ 1 ⎣ −4 − 14 5 − 16 − 14 11 16 3 − 16 1 5 1 4 16 4 1 5 1 4 16 4 1 3 1 4 16 4 ⎤ ⎥ ⎦ ⎤ ⎥ − 14 ⎦ . 1 4 Calculemos, por el método de Gauss-Jordan, la inversa de la matriz de Leontief I3 − A: 12 Recuerde que si U = [ui j ] y V = [vi j ] son dos matrices del mismo tamaño, la notación U < V significa ui j < vi j para todo par i j; mientras 0Rn representa el vector que tiene sus n componentes nulas, y que utilizamos las notaciones u = (u1 , u2 , . . . , un ) para representar indistintamente a esta n-eada ordenada, o a la matriz columna [ u1 u2 · · · un ]t . Page (PS/TeX): 20 / 598, COMPOSITE Análisis insumo-producto 599 SECCIÓN 6.3 ⎡ ⎢ ⎣ 3 4 − 14 − 14 5 − 16 − 41 11 16 3 − 16 − 41 3 4 1 0 0 ⎤ ⎡ 1 5 − 12 − 31 − 41 − 14 11 16 3 − 16 ⎥ ⎢ 0 1 0 ⎦ ∼ ⎣ − 14 0 0 1 ⎡ 5 − 12 − 13 − 13 0 7 12 7 − 24 ⎡ 1 5 − 12 − 13 ⎢ ∼⎣ 0 ⎡ 7 − 24 2 3 1 5 − 12 − 13 ⎢ ∼⎣ 0 ⎡ 0 0 1 2 1 5 − 12 − 13 1 − 47 4 3 4 7 0 0 1 1 5 − 12 ⎢ ∼⎣ 0 ⎡ ⎢ ∼⎣ 0 0 ⎡ 1 ⎢ ∼⎣ 0 0 1 ⎢ (I3 − A)−1 = ⎣ 1 ⎢ =⎣ 7 16 7 2 0 8 7 8 7 1 1 1 2 0 ⎡ 1 ⎤1 292 =⎣ 264 ⎦ . 210 Page (PS/TeX): 21 / 599, COMPOSITE ⎤⎡ 1 2 9 7 16 7 8 7 8 7 ⎤ ⎥ ⎦. 2 ⎤ ⎥ 0 ⎦ 12 7 1 ⎤ 84 ⎥⎣ ⎦ 56 ⎦ 35 2 8 7 8 7 1 0 0 15 7 8 7 ⎤ ⎥ 0 ⎦ 12 7 1 2 1 1. Si h = (84, 56, 35), entonces 7 8 7 0 0 0 1 Por tanto: x=(I3 − A)−1h ⎡ 15 9 0 1 1 0 1 ⎤ ⎥ 0 ⎦ 12 7 2 3 8 7 0 1 0 0 1 3 16 7 0 9 7 16 7 15 7 8 7 0 1 5 3 8 7 0 De donde ⎡ ⎥ 1 0 ⎦ 4 3 4 7 1 2 1 − 47 ⎤ 0 0 4 3 4 7 1 3 1 − 47 0 0 0 1 4 3 1 3 1 3 2 3 ⎤ 0 0 ⎥ 0 1 0 ⎦ 3 4 1 ⎢ ∼⎣ 0 4 3 ⎤ ⎥ ⎦ ⎤ ⎥ ⎦. 600 CAPÍTULO 6 Aplicaciones 2. Si h = (56, 63, 70), ⎡ ⎢ x = ⎣ ⎡ 15 7 8 7 9 7 16 7 1 1 ⎤ 281 = ⎣ 288 ⎦ . 259 ⎤⎡ ⎤ 56 ⎥⎣ ⎦ 63 ⎦ 70 2 8 7 8 7 Para resolver este tipo de problemas no siempre es necesario encontrar (In − A)−1 , donde A es la matriz de insumos, pues si únicamente se va a buscar el vector de producción para un solo vector de demanda dado h1 , entonces es posible que convenga resolver por el método de Gauss el sistema (In − A)x =h1 , formando la matriz ampliada [ In − A h1 ] para llevarla a forma escalonada y hacer sustitución regresiva. Pero, dado que en la práctica la demanda final va cambiando por perı́odos, entonces el calcular una vez la inversa de la matriz de Leontief, y multiplicar por las correspondientes demandas finales, resulta más útil para estos casos. También, con frecuencia este tipo de problemas se plantea dando la información de la matriz de insumos, en vez de la tabla de insumo-demanda-producto, y la demanda final. Ejemplo 6.16 Una economı́a está dividida en tres sectores: manufactura (I1 ), agricultura (I2 ) y servicios (I3 ). La siguiente tabla contiene la información (hipotética) del intercambio de las cantidades de insumos entre ellas por unidad de producción: Productor I1 I2 I2 Consumidor I1 I2 I3 ⎤ 1/4 1/8 3/8 ⎣ 3/8 1/4 1/8 ⎦ 1/8 1/8 1/4 ⎡ Encontrar las cantidades que tienen que producir (en millones de unidades monetarias) estas industrias para satisfacer la demanda final: • 82 unidades del sector manufactura. • 41 unidades del sector agricultura. • 123 unidades del sector de servicios. ⎡ Solución 1 ⎣ 0 0 0 1 0 ⎤ ⎡ 1/4 0 0 ⎦ − ⎣ 3/8 1/8 1 ⎤ ⎡ 3 4 1/8 3/8 ⎢ 1/4 1/8 ⎦ = ⎣ − 38 1/8 1/4 − 18 Como el vector de demanda final es h = [ 82 41 123 del sistema ⎤ ⎡ ⎡ 3 − 18 − 38 4 −1/8 82 ⎥ ⎣ ⎢ 1 3 41 −3/8 ∼ − ⎦ ⎣ − 38 4 8 123 3/4 3 1 1 −8 −8 4 ⎡ 1 ∼⎣ −3/8 3/4 Page (PS/TeX): 22 / 600, COMPOSITE − 18 − 38 3 4 − 18 3 4 ⎤ ⎥ − 18 ⎦ ]V t , el vector de produción x es la solución −1/8 3/4 3/4 −1/8 −1/8 −3/8 ⎤ 123 41 ⎦ 82 1 −6 3/4 −1/8 −1/8 −3/8 ⎤ −984 41 ⎦ 82 SECCIÓN 6.3 ⎡ 1 −6 − 19 8 0 9 8 − 78 33 8 820 1 1 −6 −984 ⎢ ∼⎣ 0 ⎡ −984 1 ⎢ ∼⎣ 0 0 ⎡ 1 − 19 9 − 78 33 8 1 1 −6 ⎢ ∼⎣ 0 1 − 19 9 41 18 0 0 Análisis insumo-producto 601 ⎤ ⎥ −328 ⎦ ⎤ ⎥ − 2624 ⎦ 9 820 ⎤ −984 ⎥ − 2624 ⎦ 9 5084 9 y al hacer sustitución regresiva obtenemos ⎤ ⎤ ⎡ x1 272 ⎣ x2 ⎦ = ⎣ 232 ⎦ . 248 x3 ⎡ Es decir, el sector de manufactura debe producir 272 unidades, el sector agropecuario debe producir 232 unidades y el sector de servicios tiene que producir 248 unidades. Una cuestión básica, que ya mencionamos, es la posibilidad de que la matriz de Leontief pueda no ser invertible y si lo es, ello no garantiza (In − A)−1h ≥ 0Rn para todos los vectores de demanda admisibles. La suma de los elementos de una columna de la matriz de insumos representa la fracción de una unidad monetaria que la industria, que encabeza esa columna, gasta para crear una unidad monetaria de su propio producto. En una economı́a abierta existe un sector externo (exógeno), que consume la demanda final de cada sector industrial; este sector participa en el proceso, por ejemplo, con mano de obra; ası́ que parte del gasto que hace cada industria debe destinarse a salarios, los cuales no están considerados en la matriz de insumos. Por tanto, en el modelo de Leontief, la suma de los elementos de cada columna debe ser inferior a una unidad monetaria; pues el resto se destina, por ejemplo, a pagar salarios. Esta propiedad es suficiente para garantizar la no singularidad de la matriz de Leontief y la no negatividad del producto de su inversa con los vectores de demanda que son admisibles. Enunciamos este resultado en la siguiente proposición y postergamos la demostración para el final de esta sección (apartado 6.3.4, proposición 6.9) donde también se incluye un método de aproximación para la inversa de la matriz de Leontief. Proposición 6.1 Sea A una matriz de insumos para una economı́a abierta; esto es, A = [ai j ] ∈ n Mn , ai j ≥ 0 para todo par de subı́ndices i, j y ∑ ai j < 1, para todo j = 1, 2, . . . , n. Entonces: i=1 1. La matriz de Leontief (In − A), donde In es la matriz identidad de orden n, es invertible. 2. Todas las componentes de la matriz (In − A)−1 son no negativas. 3. (In − A)−1x ≥ 0Rn para todo x ≥ 0Rn . Page (PS/TeX): 23 / 601, COMPOSITE 602 CAPÍTULO 6 Aplicaciones 6.3.2 Modelo para economı́a cerrada En el análisis insumo-producto supusimos que existe una demanda externa de los productos que fabrican los sectores industriales que forman el sistema económico productivo. Sin embargo, es posible que en economı́as más simples todo lo producido por esos sectores sea consumido en su totalidad por ellos mismos. En tal caso el modelo de Leontief, para economı́as cerradas, consiste en encontrar valores de equilibrio del sistema; es decir, la relación que deben tener las producciones de cada sector de tal manera que sus ingresos igualen a sus egresos. Supongamos que una economı́a sencilla tiene la siguiente tabla insumo-producción, Productor I1 I2 ··· In I1 I2 .. . a11 a21 .. . a12 a22 .. . ··· ··· .. . a1n a2n .. . In an1 an2 ··· ann Consumidor (6.5) donde ai j es la fracción del total de la producción de la industria I j que requiere como insumo la industria Ii . En este modelo todo lo que produce una industria se consume en el sistema; ası́ que los ai j satisfacen 0 ≤ ai j ≤ 1 y ∑ni=1 ai j = 1 para todo j; es decir, la suma de los elementos en cada columna es uno. Nuevamente, a la matriz A = [ai j ] se le llama matriz de insumos o matriz de intercambio. Sea x = (x1 , x2 , . . . , xn ) el vector de producción; esto es, xi es la cantidad, en unidades monetarias, que la industria Ii debe producir para que se cumplan las condiciones de equilibrio. Sea Ii una de estas industrias, entonces, de la tabla 6-5, el egreso total de Ii está dado por ai1 x1 + ai2 x2 + · · · + ain xn puesto que el egreso debe ser igual al ingreso, ai1 x1 + ai2 x2 + · · · + ain xn = xi . Por tanto, se obtiene el sistema lineal homogéneo (1 − a11 )x1 −a21 x1 − + .. . a12 x2 (1 − a22 )x2 −an1 x1 − an2 x2 − ··· − − ··· − .. .. . . − ··· − a1n xn a2n xn = = .. . 0 0 (1 − ann )xn = 0 Es decir, (In − A)x = 0Rn (6.6) Llamaremos a la matriz In − A, matriz de Leontief para el modelo de economı́a cerrada. Ejemplo 6.17 En una economı́a sencilla, la distribución insumo-producto se muestra en la siguiente tabla (hipotética): Page (PS/TeX): 24 / 602, COMPOSITE SECCIÓN 6.3 Análisis insumo-producto 603 Productor Consumidor Agricultura Construcción Vestido Agricultura 1/4 1/2 1/4 Construcción 1/2 1/4 1/4 Vestido 1/4 1/4 1/2 Encontrar qué condición debe cumplir el vector de producción para que los ingresos sean iguales a los egresos en cada sector. Solución La matriz de insumo para este caso es ⎡ 1/4 1/2 A = ⎣ 1/2 1/4 1/4 1/4 ⎤ 1/4 1/4 ⎦ 1/2 Resolvamos el sistema homogéneo (6.6): ⎤ ⎡ 1/4 1 0 0 ⎣ 0 1 0 ⎦ − ⎣ 1/2 1/4 0 0 1 ⎡ 3/4 −1/2 −1/4 ⎣ −1/2 3/4 −1/4 −1/4 −1/4 1/2 ⎡ −1/4 −1/4 1/2 ⎣ −1/2 3/4 −1/4 3/4 −1/2 −1/4 ⎡ 1 1 −2 ⎣ −1/2 3/4 −1/4 3/4 −1/2 −1/4 ⎤ ⎡ 1 1 −2 ⎣ 0 5/4 −5/4 ⎦ 0 −5/4 5/4 ⎡ ⎤ 1 1 −2 ⎣ 0 5/4 −5/4 ⎦ 0 0 0 ⎤ ⎡ 1 1 −2 ⎣ 0 1 −1 ⎦ 0 0 0 ⎡ I3 − A = = ∼ ∼ ∼ ∼ ∼ 1/2 1/4 1/4 ⎤ ⎤ 1/4 1/4 ⎦ 1/2 ⎦ ⎤ ⎦ ⎤ ⎦ Al hacer sustitución regresiva obtenemos ⎡ ⎤ ⎡ ⎤ x1 r ⎣ x2 ⎦ = ⎣ r ⎦ , r > 0. r x3 Es decir, los tres sectores deben producir el mismo número de unidades monetarias. Para que existan soluciones del sistema (6.6) es necesario que la matriz In − A no sea invertible (contrariamente al modelo para economı́a abierta); sin embargo, como la economı́a es cerrada, todo se vende y todo se compra dentro del propio sistema; por tanto, la suma de las componentes de cada columna en la matriz de insumo debe resultar igual a 1. Esto garantizará que la matriz de Leontief para Page (PS/TeX): 25 / 603, COMPOSITE 604 CAPÍTULO 6 Aplicaciones el modelo de economı́a cerrada no sea invertible y que el sistema homogéneo (6.6) tenga una infinidad de soluciones. Debido a esto, en el modelo de economı́a cerrada no se resuelve el problema de cómo fijar los valores de la producción en el vector que las contiene, sino las relaciones numéricas que ellos tienen; en el ejemplo precedente la relación es x1 = x2 = x3 . El lector puede consultar la demostración de que la matriz de Leontief para el modelo de economı́a cerrada no es invertible en la proposición 6.2 del siguiente apartado dedicado a ese fin. 6.3.3 Singularidad de la matriz de Leontief para el modelo de economı́a cerrada Requisitos: Criterios de independencia lineal en Rn : 3.3.1 Recordemos que en el inciso (b), del teorema 3.12, del apartado 3.3.1, mostramos que una matriz cuadrada de orden n no es invertible si y sólo si los n vectores que corresponden a sus columnas son linealmente dependientes. Es evidente, dado que una matriz es invertible si y sólo si su matriz transpuesta lo es, que la citada afirmación del teorema 3.12 sigue siendo válida si en lugar de considerar los vectores columna de la matriz, se aplica el criterio a los vectores fila de la matriz. Proposición 6.2 Sea A = [ai j ] la matriz de insumos para el modelo de economı́a cerrada de Leontief, esto es: 1. 0 ≤ ai j ≤ 1 para todo i, j. 2. ∑ni=1 ai j = 1 para todo j = 1, 2, . . . , n. Entonces, la matriz de Leontief para el modelo de economı́a cerrada, In − A, no es invertible. DEMOSTRACIÓN ⎡ Q ⎢ ⎢ ⎢ In − A = ⎢ ⎢ ⎣ 1 − a11 −a21 −a31 .. . −a12 1 − a22 −a32 .. . −a13 −a23 1 − a33 .. . ··· ··· ··· .. . −a1n −a2n −a3n .. . −an1 −an2 −an3 ··· 1 − ann ⎤ ⎥ ⎥ ⎥ ⎥. ⎥ ⎦ (6.7) y ya que para cada j = 1, . . . , n, ∑ni=1 ai j = 1, entonces 1 − a11 = −(−a21 − a31 − · · · − an1 ) −a12 = −(1 − a22 − a32 − · · · − an2 ) −a13 = −(−a23 + (1 − a33 ) − · · · − an3 ) .. . −a1n = −(−a2n − a3n − · · · + (1 − ann )); por tanto (1 − a11 , −a12 , −a13 , . . . , −a1n ) = (−1)(−a21 , 1 − a22 , −a23 , . . . , −a2n ) +(−1)(−a31 , −a32 , 1 − a33 , . . . , −a3n ) + · · · + (−1)(−an1 , −an2 , −an3 , . . . , 1 − ann ). Por lo que las filas de la matriz son linealmente dependientes y, por ende, la matriz In − A no es invertible. Page (PS/TeX): 26 / 604, COMPOSITE Q SECCIÓN 6.3 Análisis insumo-producto 605 6.3.4 Inversa de la matriz de Leontief para el modelo de economı́a abierta 6.3.4 y método de aproximación Requisitos: Espacios vectoriales normados, nociones de lı́mite de sucesiones reales: 4.2. Inversa de la matriz de Leontief En el ejemplo 4.41 vimos que (x1 , x2 , . . . , xn ) 1 = |x1 | + |x2 | + · · · + |xn | es una norma en Rn ; en el ejemplo 4.43 probamos que si A = [ai j ] es una matriz de tamaño m × n, entonces A 1 = ∑ni=1 ∑nj=1 |ai j |, la suma de los valores absolutos de todas las componentes de la matriz y A ∞ = máx{ |ai j | : i = 1, . . . , n, j = 1, . . . , m } son normas en el espacio vectorial Mm×n . En el teorema 4.22 se hizo patente el hecho de que cualquier par de normas en un espacio vectorial de dimensión finita son equivalentes y que, por tanto, para fines de proximidad, se puede trabajar en cualquier espacio finitamente generado con la norma que más convenga. Vamos entonces a definir, en la siguiente proposición, una norma en el espacio de matrices cuadradas que será bastante cómoda para poder establecer la demostración de la proposición 6.1 y dar un método de aproximación a la inversa de la matriz de Leontief. Proposición 6.3 Sea A = [ai j ] ∈ Mn , con columnask j = (a1 j , a2 j , . . . , an j ) = [ a1 j j = 1, 2, . . . , n; se define A = máx k j 1 a2 j ··· an j ]t , 1≤ j≤n es decir, A = máx 1≤ j≤n n ∑ |ai j | . i=1 Entonces · es una norma en Mn . DEMOSTRACIÓN Q 1. Claramente A ≥ 0 para toda matriz A ∈ Mn . 2. Si A = O, evidentemente A = 0. Supongamos que A = [ai j ] ∈ Mn y A = 0, entonces |ai j | ≤ A = 0 implica A = O. 3. Sea λ ∈ R y A = [ai j ] ∈ Mn . Entonces λA = máx λk j 1≤ j≤n 1 = máx |λ| k j 1 = |λ| máx k j 1 1≤ j≤n 1≤ j≤n = |λ| A . 4. Si A = [ai j ] y B = [bi j ] son matrices cuadradas de orden n con columnas k j y h j , respectivamente, entonces Page (PS/TeX): 27 / 605, COMPOSITE 606 CAPÍTULO 6 Aplicaciones A + B = máx k j +h j 1 1≤ j≤n ≤ máx 1≤ j≤n k j 1+ h j 1 ≤ A + B . De 1, 2, 3 y 4 se concluye que · es una norma en Mn . Q La norma definida en la proposición anterior tiene una propiedad muy importante que no poseen otras normas, por ejemplo · ∞ , (cfr. ejercicio 327 del capı́tulo 4); esta es la razón por la que hemos dicho que es una norma cómoda para alcanzar el propósito de este apartado. La propiedad a la que hacemos referencia está contenida en el segundo inciso de la siguiente proposición. Proposición 6.4 Sea · la norma definida en la proposición 6.3, entonces 1. Ax ≤ A x 1 1 n para toda matriz A ∈ Mn y para todo x ∈ R . AB ≤ A B 2. para todo par de matrices A, B ∈ Mn . DEMOSTRACIÓN Q 1. Sea A ∈ Mn , con columnas k j , y x = (x1 , x2 , . . . , xn ) ∈ Rn . Entonces (cfr. ejemplo 1.15) Ax 1 = x1k1 + x2k2 + · · · + xnkn ≤ |x1 | k1 1 + |x2 | k2 1 + · · · + |xn | kn 1 ≤ |x1 | A + |x2 | A + · · · + |xn | A = A (|x1 | + |x2 | + · · · + |xn |) = A x 1. 2. Sean A, B ∈ Mn , con h j , j = 1, 2, . . . , n, las columnas de B. Entonces (cfr. ejemplo 1.14) AB = [ Ah1 Ah2 Ahn ] ··· y, por tanto, AB = máx Ah j 1≤ j≤n 1 ≤ máx A h j 1≤ j≤n = A B . 1 Q Definición 6.1 (Convergencia de sucesiones de matrices) Sea {Aν } una sucesión de matrices A1 , A2 , . . . , Aν , . . . en el espacio de matrices cuadradas Mn . Se dice que la sucesión {Aν } converge o tiene como lı́mite a una matriz L ∈ Mn , cuando ν tiende a infinito y se escribe lı́m Aν = L, ν→∞ Page (PS/TeX): 28 / 606, COMPOSITE si lı́m Aν − L = 0. ν→∞ SECCIÓN 6.3 Análisis insumo-producto 607 Una sucesión de matrices cuadradas, {Aν }, converge a lo más a una matriz L. En efecto, si L1 , L2 ∈ Mn y la sucesión de matrices converge a L1 y a L2 , entonces L1 − L2 = (L1 − Aν ) + (Aν − L2 ) ≤ (L1 − Aν ) + (Aν − L2 ) y como {Aν } converge a L1 y L2 , entonces (L1 − Aν ) , (Aν − L2 ) son arbitrariamente pequeños tomando ν suficientemente grande; lo cual implica L1 − L 2 = 0 y, por tanto, L1 = L2 . P Nota 6.1 Se puede probar, lo cual no haremos para no extendernos más, que una sucesión {Aν } es convergente si y sólo si lı́m ν,μ→∞ Aμ − Aν = 0. Esta es un propiedad fundamental en las matemáticas que no se da únicamente en este caso, sino en cualquier espacio vectorial normado de dimensión finita. Pero no siempre es válida si la dimensión del espacio es infinita; de hecho, cuando se cumple en un espacio, se dice que éste es completo. Esta propiedad es de gran utilidad porque sirve para probar la convergencia de una sucesión aun cuando no sea posible exhibir explı́citamente su lı́mite. Las siguientes dos propiedades son sencillas de probar y se dejan de ejercicio las demostraciones al lector. Proposición 6.5 Si lı́mν→∞ Aν = L y lı́mν→∞ Bν = H y α ∈ R, entonces: lı́m (Aν + Bν ) = L + H. 1. ν→∞ lı́m α Aν = αL. 2. ν→∞ Proposición 6.6 Sean {Aν } una sucesión de matrices cuadradas que converge a L ∈ Mn y M ∈ Mn . Entonces lı́m MAν = ML. ν→∞ DEMOSTRACIÓN Q lı́m MAν − ML = lı́m M(Aν − L) ν→∞ ν→∞ ≤ lı́m M ν→∞ Aν − L = M lı́m Aν − L ν→∞ = M ·0 = 0; Page (PS/TeX): 29 / 607, COMPOSITE 608 CAPÍTULO 6 Aplicaciones lo cual implica lı́m MAν = ML. Q ν→∞ (ν) Proposición 6.7 Sea Aν = [ai j ] una3 sucesión de matrices cuadradas y L = [li j ] ∈ Mn . Entonces (ν) lı́m Aν = L ⇔ lı́m ai j = li j ∀ i, j. ν→∞ DEMOSTRACIÓN ν→∞ Q (⇒) Supongamos que lı́mν→∞ Aν = L, entonces si i, j son un par de ı́ndices fijos, (ν) ≤ ai j − li j n ∑ (ν) ak j − lk j k=1 ≤ Aν − L de donde (ν) lı́m ai j − li j = 0. ν→∞ (ν) (ν) (⇐) Sean k j las columnas de la matriz Aν y l j las columnas de la matriz L. Entonces lı́mν→∞ ai j = li j ∀ i, j implica (ν) lı́m k j −l j ν→∞ 1 =0 y, por tanto, (ν) lı́m Aν − L = lı́m máx k j −l j ν→∞ ν→∞ 1≤ j≤1 = 0. 1 Q Ejemplo 6.18 Probar que si A ∈ Mn es tal que A < 1, entonces lı́m Aν = O. ν→∞ DEMOSTRACIÓN Q Sabemos que si {aν } es una sucesión de números reales, con |aν | < 1 para todo ν, entonces lı́mν→∞ aν = 0; por tanto, de la proposición 6.4, 0 ≤ lı́m Aν ≤ lı́m A ν→∞ ν→∞ luego lı́m Aν = 0; ν→∞ esto es, lı́m Aν = O . ν→∞ (v) 13 En la notación ai j , (ν) es un supraı́ndice, no un exponente. Page (PS/TeX): 30 / 608, COMPOSITE Q ν = 0, Análisis insumo-producto 609 SECCIÓN 6.3 Proposición 6.8 (Serie geométrica en Mn ) Sea A ∈ Mn con A < 1. Se define Sν = In + A + A2 + · · · + Aν , para cada v = 1, 2, . . . . , donde In es la matriz identidad de orden n. Entonces la sucesión {Sν } es convergente. DEMOSTRACIÓN Q Sabemos que una sucesión de números reales {an } es convergente si y sólo si lı́mv,μ→∞ (aν − aμ ) = 0. Entonces, ya que, suponiendo sin perder generalidad que μ ≥ ν, Sμ − Sν = Aν+1 + Aν+2 + · · · + Aμ ≤ Aν+1 + Aν+2 + · · · + Aμ ≤ A ν+1 se desprende del hecho de que la serie geométrica ν+2 + A ∞ ∑ K A +···+ A μ converge, pues A < 1, que k=1 lı́m ν,μ→∞ Sμ − Sν = lı́m ν,μ→∞ A ν+1 + A ν+2 +···+ A μ = 0. Por tanto (cfr. nota 6.1), la sucesión {Sν } es convergente. Q Sea ahora L = lı́mν→∞ Sν . Tenemos Sν = In + A + A2 + · · · + Aν . M