in a r Matemáticas Avanzadas: Variable Compleja, Series y Ecuaciones Diferenciales Ordinarias, con aplicaciones en Maxima m H. Hernández Departamento de Fı́sica, Facultad de Ciencias, Universidad de Los Andes, Mérida-Venezuela Pr eli L. A. Núñez Escuela de Fı́sica, Facultad de Ciencias, Universidad Industrial de Santander, Bucaramanga-Colombia Bo rr ad or 9 de septiembre de 2018 in a r Índice general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 8 8 8 8 9 11 12 12 14 18 19 21 21 23 23 24 26 2. Series 2.1. Sucesiones y Series . . . . . . . . . . . . . . . . . . . 2.1.1. Introducción a las sucesiones . . . . . . . . . 2.1.2. Acercándonos al concepto de series . . . . . . 2.1.3. Series elementales . . . . . . . . . . . . . . . 2.1.4. Derivación de series geométricas elementales . 2.1.5. El método de la diferencia . . . . . . . . . . . 2.1.6. Sumando por analogı́a . . . . . . . . . . . . . 2.1.7. Algebra elemental de series . . . . . . . . . . 2.1.8. Series telescópicas . . . . . . . . . . . . . . . 2.1.9. Ejemplos . . . . . . . . . . . . . . . . . . . . 2.1.10. Practicando con Maxima . . . . . . . . . . . 2.1.11. Ejercicios . . . . . . . . . . . . . . . . . . . . 2.2. Criterios de convergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 30 31 35 36 39 42 44 44 45 47 48 52 53 Bo rr ad or Pr eli m 1. Variable Compleja 1.1. Funciones de Variable Compleja . . . . . . . . . . . . . . . . . 1.1.1. De la recta real al plano complejo . . . . . . . . . . . . 1.1.2. Continuidad en el plano complejo . . . . . . . . . . . . . 1.1.3. Diferenciabilidad de funciones complejas . . . . . . . . . 1.1.4. Funciones Analı́ticas y Condiciones de Cauchy-Riemann 1.1.5. Curiosidades de Cauchy-Riemann . . . . . . . . . . . . . 1.2. Puntos y lı́neas de corte, ceros de funciones complejas . . . . . 1.2.1. Puntos y lı́neas de corte . . . . . . . . . . . . . . . . . . 1.2.2. Singularidades, polos y ceros de funciones complejas . . 1.3. Transformaciones conformes . . . . . . . . . . . . . . . . . . . . 1.3.1. Algunas consecuencias y ejemplos . . . . . . . . . . . . . 1.4. Integrales complejas . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1. Algunas propiedades . . . . . . . . . . . . . . . . . . . . 1.5. Teorema Integral de Cauchy . . . . . . . . . . . . . . . . . . . . 1.5.1. El teorema y las regiones . . . . . . . . . . . . . . . . . 1.5.2. Algunas observaciones y el Teorema de Morera . . . . . 1.5.3. Fórmula integral de Cauchy . . . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ÍNDICE GENERAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . or Bo rr ad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 . 54 . 55 . 55 . 56 . 58 . 60 . 60 . 60 . 60 . 61 . 61 . 62 . 64 . 65 . 66 . 69 . 69 . 69 . 69 . 71 . 72 . 73 . 74 . 74 . 74 . 75 . 75 . 76 . 78 . 78 . 80 . 82 . 84 . 85 . 86 . 86 . 87 . 87 . 90 . 91 . 94 . 95 . 95 . 97 . 98 . 99 . 101 r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . in a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . m . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pr eli 2.2.1. Convergencia absoluta o condicional . . . . . . . . 2.2.2. Criterio de Comparación . . . . . . . . . . . . . . . 2.2.3. Criterio de la Raı́z . . . . . . . . . . . . . . . . . . 2.2.4. Criterio de d’Alembert . . . . . . . . . . . . . . . . 2.2.5. Criterio de la Integral de Maclaurin . . . . . . . . 2.2.6. Series alternantes y convergencia condicional . . . 2.2.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . 2.2.8. Practicando con Maxima . . . . . . . . . . . . . . 2.2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 2.3. Series de funciones . . . . . . . . . . . . . . . . . . . . . . 2.3.1. Series de Potencias . . . . . . . . . . . . . . . . . . 2.3.2. Convergencia de una serie de potencias . . . . . . 2.3.3. Covergencia uniforme . . . . . . . . . . . . . . . . 2.3.4. Criterio Mayorante de Weierstrass . . . . . . . . . 2.3.5. Criterio de Abel . . . . . . . . . . . . . . . . . . . 2.3.6. Nota sobre el algebra de series de potencias . . . . 2.3.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . 2.3.8. Practicando con Maxima . . . . . . . . . . . . . . 2.3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 2.4. Serie de Taylor . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1. Algunas series de Taylor . . . . . . . . . . . . . . . 2.4.2. La expansión binomial . . . . . . . . . . . . . . . . 2.4.3. Taylor en varias variables . . . . . . . . . . . . . . 2.4.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . 2.4.5. Practicando con Maxima . . . . . . . . . . . . . . 2.4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 2.5. Series y espacios de Hilbert . . . . . . . . . . . . . . . . . 2.5.1. Completitud de E ∞ . . . . . . . . . . . . . . . . . 2.5.2. Conjunto completo de funciones . . . . . . . . . . 2.6. Series de Laurent . . . . . . . . . . . . . . . . . . . . . . 2.6.1. Series de Taylor para funciones analı́ticas . . . . . 2.6.2. Series de Laurent . . . . . . . . . . . . . . . . . . . 2.6.3. Algunos Ejemplos . . . . . . . . . . . . . . . . . . 2.6.4. Integración por el método de los residuos . . . . . 2.6.5. Los residuos de Laurent . . . . . . . . . . . . . . . 2.7. Teorema del Residuo . . . . . . . . .R . . . . . . . . . . . . ∞ 2.7.1. Integrales impropias del tipo −∞ dx f (x) . . . . . 2.7.2. Evaluación de integrales, reales, R ∞impropias . . . . . 2.7.3. Integrales impropias del tipo −∞ dx f (x) . . . . . 2.7.4. Integrales de funciones racionales de cos θ y sen θ . 2.8. Integrales de Fourier . . . . . . . . . . . . . . . . . . . . . 2.9. Series de Polinomios Ortogonales . . . . . . . . . . . . . . 2.10. Polinomios de Legendre . . . . . . . . . . . . . . . . . . . 2.10.1. Generalidades de los Polinomios de Legendre . . . 2.10.2. Relación de Recurrencia . . . . . . . . . . . . . . . 2.10.3. Norma de los Polinomios de Legendre . . . . . . . 2.10.4. Función Generatriz de los Polinomios de Legendre 2.10.5. Otras propiedades de los polinomios de Legendre . 3 ÍNDICE GENERAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 104 104 105 108 108 110 110 111 113 113 114 114 115 115 115 116 116 122 125 126 126 126 128 128 129 129 130 131 132 132 132 134 134 . . . . . . . . . . . . . . . . . . . . . . . . 140 141 146 147 147 148 149 150 150 r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . or Pr eli m in a 2.10.6. Potencial Electrostático de un Dipolo Eléctrico . . . . . . . . . . . . . . . 2.10.7. Resumen de Propiedades Polinomios Legendre . . . . . . . . . . . . . . . 2.11. Polinomios de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.11.1. Generalidades de los Polinomios de Hemite . . . . . . . . . . . . . . . . . 2.11.2. Función Generatriz de los Polinomios de Hermite . . . . . . . . . . . . . . 2.11.3. Relación de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.11.4. Ortogonalidad y Norma de los Polinomios de Hermite . . . . . . . . . . . 2.11.5. Representación Integral de los Polinomios de Hermite . . . . . . . . . . . 2.11.6. El Oscilador armónico, independiente del tiempo, en Mecánica Cuántica. 2.11.7. Resumen de Propiedades Polinomios Hermite . . . . . . . . . . . . . . . . 2.12. Planteamiento General para Polinomios Ortogonales . . . . . . . . . . . . . . . . 2.12.1. Producto interno genérico, norma y ortogonalidad . . . . . . . . . . . . . 2.12.2. Fórmula de Rodrigues genelarizada . . . . . . . . . . . . . . . . . . . . . . 2.12.3. Ejemplos de Polinomios Ortogonales . . . . . . . . . . . . . . . . . . . . . 2.12.4. Relaciones de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.12.5. Función generatriz generalizada . . . . . . . . . . . . . . . . . . . . . . . . 2.12.6. Ecuación diferencial para los Polinomios Ortogonales . . . . . . . . . . . . 2.12.7. Aplicaciones para los polinomios ortogonales . . . . . . . . . . . . . . . . 2.13. Series y transformadas de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.14. Condiciones de Dirichlet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.15. Algunos ejemplos de expansiones en series de Fourier . . . . . . . . . . . . . . . . 2.15.1. Ondas Cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.15.2. Variedades de dientes de sierra . . . . . . . . . . . . . . . . . . . . . . . . 2.15.3. Función cuadrática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.16. Consideraciones de Simetrı́a en series de Fourier . . . . . . . . . . . . . . . . . . 2.16.1. Tratamiento de discontinuidades . . . . . . . . . . . . . . . . . . . . . . . 2.17. El Fenómeno de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.17.1. Corrección al fenómeno de Gibbs: Factor σ de Lanczos . . . . . . . . . . . 2.18. Tranformadas de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.18.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.18.2. Funciones pares e impares . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.18.3. Bases discreta y contı́nuas: La base de Ondas Planas . . . . . . . . . . . . 2.18.4. Un par de ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.18.5. Tranformadas Discretas de Fourier . . . . . . . . . . . . . . . . . . . . . . Bo rr ad 3. Ecuaciones diferenciales ordinarias 3.1. Motivación y origen . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Ejemplos de algunas ecuaciones diferenciales . . . . . . . . . . . . 3.3. De ecuaciones y ecuaciones diferenciales . . . . . . . . . . . . . . 3.4. Orden y linealidad . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Soluciones explı́citas e implı́citas . . . . . . . . . . . . . . . . . . 3.6. Soluciones generales y particulares . . . . . . . . . . . . . . . . . 3.6.1. Familia de soluciones n−paramétricas . . . . . . . . . . . 3.6.2. Solución particular, valores iniciales y valores de contorno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 ÍNDICE GENERAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Ecuaciones diferenciales ordinarias de orden mayor a 1 5.1. Definiciones para comenzar . . . . . . . . . . . . . . . . . . 5.2. Homogéneas, lineales, de segundo orden . . . . . . . . . . . 5.3. Ecuaciones diferenciales de orden n . . . . . . . . . . . . . . 5.4. Algunos métodos de solución para ecuaciones inhomogéneas 5.4.1. El Wronskiano . . . . . . . . . . . . . . . . . . . . . 5.4.2. Métodos de los coeficientes indeterminados . . . . . 5.4.3. Métodos de variación de parámetros . . . . . . . . . 5.4.4. Métodos de reducción de orden . . . . . . . . . . . . 5.5. Algunas aplicaciones de las ecuaciones de orden superior . . 5.5.1. Mecánica y Electricidad . . . . . . . . . . . . . . . . 5.5.2. Oscilaciones libres . . . . . . . . . . . . . . . . . . . 5.5.3. Oscilaciones libres amortiguadas . . . . . . . . . . . 5.5.4. Oscilaciones forzadas . . . . . . . . . . . . . . . . . . 5.5.5. Oscilaciones forzadas amortiguadas . . . . . . . . . . 5.5.6. Movimiento alrededor de un punto de equilibrio . . . 5.5.7. Péndulo simple con desplazamiento finito . . . . . . 5.5.8. Disgresión elı́ptica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 153 153 155 156 157 159 160 162 165 165 168 169 172 173 175 176 177 185 185 187 193 195 195 196 197 199 200 205 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 210 210 213 215 215 216 218 220 221 221 221 222 225 227 230 231 238 r . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bo rr ad or Pr eli m in a 4. Ecuaciones diferenciales de orden 1 4.1. Soluciones analı́ticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1. Métodos elementales de integración . . . . . . . . . . . . . . . . . . . 4.1.2. Ecuaciones diferenciales separables . . . . . . . . . . . . . . . . . . . 4.1.3. Ecuaciones diferenciales no separables . . . . . . . . . . . . . . . . . 4.1.4. Método de las Isoclinas . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.5. Ecuaciones diferenciales separables . . . . . . . . . . . . . . . . . . . 4.1.6. Variaciones sobre separabilidad . . . . . . . . . . . . . . . . . . . . . 4.1.7. Ecuaciones diferenciales homogéneas . . . . . . . . . . . . . . . . . . 4.1.8. Ecuaciones Isóbaras . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.9. Ecuaciones diferenciales exactas . . . . . . . . . . . . . . . . . . . . . 4.1.10. Ecuaciones diferenciales lineales de orden 1 . . . . . . . . . . . . . . 4.1.11. Ecuaciones diferenciales no lineales y el factor integrador . . . . . . 4.1.12. Ecuación de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.13. Ecuación de Riccati . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.14. Un tipo muy especial de ecuación diferencial no lineal . . . . . . . . 4.1.15. Otros métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.16. Solución paramétrica: Ecuaciones no resueltas respecto a la derivada 4.2. Soluciones numéricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1. Las ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2. La idea de la integración y los métodos . . . . . . . . . . . . . . . . 4.2.3. Control del Paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3. Algunas aplicaciones de ecuaciones diferenciales de primer orden . . . . . . 4.3.1. Ley de Malthus y el decaimiento radioactivo . . . . . . . . . . . . . . 4.3.2. La Ecuación logı́stica o Ley de Verhulst . . . . . . . . . . . . . . . . 4.3.3. La Ley de Enfriamiento de Newton . . . . . . . . . . . . . . . . . . . 4.3.4. Interés Compuesto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.5. Mecánica Elemental. . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.6. Modelado de Concentración/Desliemiento de Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 ÍNDICE GENERAL 5.5.9. ¿Cuán buena es la aproximación lineal? . . . . . . . . . . . . . . . . . . . . . . . . . . 241 5.5.10. El péndulo fı́sico: integración numérica . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 6. Sistemas de ecuaciones diferenciales 6.1. Algunos comentarios iniciales . . . . . . . . . . . . . . . . . . . . 6.1.1. Sistemas lineales homogéneos . . . . . . . . . . . . . . . . 6.1.2. Sistemas lineales inhomogéneos . . . . . . . . . . . . . . . 6.2. Sistemas de ecuaciones diferenciales y el uso de operadores . . . . 6.3. Sistemas de ecuaciones diferenciales y la transformada de Laplace . . . . . . . . . . . . . . . . . . . . 7. Métodos de soluciones por series 7.1. Otra vez Algebra de Series . . . . . . . . . . . . . . . 7.2. Un Ejemplo conocido. . . . . . . . . . . . . . . . . . 7.3. Otro Ejemplo menos conocido pero importante . . . 7.4. Método de Diferenciaciones Sucesiva . . . . . . 7.5. Métodos de los Coeficientes Indeterminados . 7.6. Los Puntos y las Estrategias . . . . . . . . . . . . . . 7.7. Ecuaciónes e intervalos en puntos regulares . . . . . 7.8. El Método de Frobenius . . . . . . . . . . . . . . . . 7.8.1. m1 6= m2 ∧ m1 − m2 6= N con N entero. . . . 7.8.2. m1 = m2 . . . . . . . . . . . . . . . . . . . . . 7.8.3. m1 6= m2 ∧ m1 − m2 = N con N entero. . . . 7.9. Revisitando a Bessel . . . . . . . . . . . . . . . . . . 7.9.1. Otras Formas de la Ecuación de Bessel . . . . 7.9.2. Relaciones de Recurrencia: . . . . . . . . . . 7.9.3. Funciones de Bessel y Funciones Elementales 7.9.4. Reflexión: . . . . . . . . . . . . . . . . . . . . 7.9.5. Función Generatriz . . . . . . . . . . . . . . . 7.9.6. Representación Integral para las Funciones de 7.9.7. Ortogonalidad de las Funciones de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264 265 265 267 269 270 272 272 274 279 281 286 289 296 296 297 298 298 298 299 8. Funciones Especiales 8.1. Algunas funciones Especiales . . . . . . . . . . . . . 8.1.1. Función Gamma e Integrales de Probabilidad 8.1.2. La Funciones Digamma y Poligamma . . . . 8.1.3. La Aproximación de Stirling . . . . . . . . . . 8.1.4. La función Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 302 302 306 307 308 9. El problema de Sturm-Liuoville 9.1. El problema de Sturm-Liuoville . . . . . . . . . . 9.1.1. Cálculo Operacional . . . . . . . . . . . . 9.1.2. Operadores diferenciales de segundo orden 9.1.3. Operadores diferenciales autoadjuntos . . 9.1.4. El Sistema Sturm-Liouville . . . . . . . . 9.1.5. Algunos ejemplos ilustrativos . . . . . . . 9.1.6. Función de Green . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 311 311 312 313 315 316 320 m Pr eli or Bo rr ad 10.Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 245 247 251 254 260 r . . . . . in a . . . . . 322 6 r 1 in a Capı́tulo Bo rr ad or Pr eli m Variable Compleja 7 1.1. FUNCIONES DE VARIABLE COMPLEJA 1.1. Funciones de Variable Compleja A continuación, generalizaremos algunos conceptos de funciones de variable compleja. 1.1.1. De la recta real al plano complejo f (z) = u(x, y) + iv(x, y) in a r La idea de función de variable (o variables) reales puede ser extendida (continuada, le dicen también) al plano complejo. La idea es la de siempre: si en una determinada región del plano complejo a un número complejo z le corresponde un número (o varios números) complejos w = f (z), diremos que f (z) es una función de variable compleja z. Obvio que f (z) puede ser biyectiva, en cuyo caso tendremos que a z le estará asociado uno y solo un número complejo w = f (z). Es claro también que siempre se podrá expresar con u(x, y) la parte real y v(x, y) la parte imaginaria (1.1) Continuidad en el plano complejo Pr eli 1.1.2. m Esta representación tiene una interpretación adicional. Como representamos un número complejo en el plano 0xy como z = x + iy, pero w = f (z) también podrá ser representada como un punto en el plano 0uv. Entonces, desde el punto de vista geométrico una función de variable compleja podrá ser entendida como una ley de transformación entre pares de puntos (x, y) del plano 0xy del argumento z y los puntos (u, v) del plano 0uv de valor w. Podemos también extender el concepto de continuidad de una función de variable real a una función de variable compleja. Esto es: diremos que una función compleja1 w = f (z) será contı́nua en z0 si para un > 0 siempre existe un δ > 0 tal que |z − z0 | < δ tan pequeño como uno quiera y siempre puede encontrar |f (z) − f (z0 )| < . La otra manera de verlo es la estándar: si existe el lı́mite cuando z → z0 , es decir, lı́m f (z) = f (z0 ) z→z0 con u(x, y) y v(x, y) contı́nuas en (x0 , y0 ) ⇒ f (z) será contı́nua en z0 = x0 + iy0 Bo rr ad f (z) = u(x, y) + iv(x, y) or En este punto se pueden resaltar que los lı́mites (y con ello la idea de continuidad) en el plano complejo hereda las sutilezas y dificultades de los lı́mites y continuidades de las funciones en varias variables. En segundo lugar cabe señalar que la diferencia con las funciones de variable real radica en que los y δ son radios de un cı́rculo centrado en f (z0 ) y z0 , respectivamente. Adicionalmente, para el caso de las funciones complejas no tiene sentido los lı́mites por la derecha y por la izquierda que planteábamos para funciones de variable real. También es obvio que si 1.1.3. Diferenciabilidad de funciones complejas La dificultad que subyace en esta definición es equivalente a las dificultades que enfrentamos en las definiciones de derivadas para funciones de varias variables. Diremos entonces que, una función f (z) univaluada en una región S será diferencialble en esa región si la derivada f (z + ∆z) − f (z) ∆z→0 ∆z lı́m 1A [u(x + ∆x, y + ∆y) − u(x, y)] + i [v(x + ∆x, y + ∆y) − v(x, y)] ∆x,∆y→0 ∆x + i∆y df 0 = = f (z) dz = lı́m partir de ahora y por razones de simplicidad llamaremos a f (z) función compleja en vez de función de variable compleja. 8 1.1. FUNCIONES DE VARIABLE COMPLEJA existe y es única. Una vez más, al igual que en el caso de funciones de varias variables, el concepto de lı́mite (y con éste el de derivada), debe existir sin importar la ruta o forma de aproximación al punto sobre el cual estamos calculando la derivada. Esto es, si ∆z → 0 ⇔ ∆x + i∆y → 0, entonces [u(x + ∆x, y) − u(x, y)] + i [v(x + ∆x, y) − v(x, y)] ∆x [u(x, y + ∆y) − u(x, y)] + i [v(x, y + ∆y) − v(x, y)] = −i lı́m ∆y→0 ∆y = r f 0 (z)∆x=0 lı́m ∆x→0 in a f 0 (z)∆y=0 Ejemplos 1. Sea f (z) = x2 − y 2 + 2ixy f (z + ∆z) − f (z) (x + ∆x)2 − (y + ∆y)2 + 2i(x + ∆x)(y + ∆y) − x2 + y 2 − 2ixy = lı́m ∆x,∆y→0 ∆z→0 ∆z ∆x + i∆y f 0 (z) = lı́m Pr eli m al desarrollar pruebe que, independientemente de la ruta en el plano complejo (∆y = 0; ∆x → 0 o viceversa) resulta: (∆x)2 − (∆y)2 + 2i∆x∆y 0 = 2x + i2y f (z) = lı́m 2x + i2y + ∆x,∆y→0 ∆x + i∆y que es más o menos obvio si hubiéramos notado que f (z) = x2 − y 2 + 2ixy = (x + iy)2 ≡ z 2 con lo cual (z + ∆z)2 − z 2 2z∆z + (∆z)2 = lı́m = lı́m (2z + ∆z) = 2z ∆z→0 ∆z→0 ∆z→0 ∆z ∆z f 0 (z) = lı́m 2. Ahora bien, las cosas no siempre son ası́. Si consideramos f (z) = 2x + iy es rápido comprobar que no es diferenciable en el plano complejo, ya que 2x + 2∆x + i(y + ∆y) − 2x − iy 2∆x + i∆y = lı́m ∆x,∆y→0 ∆x + i∆y ∆x,∆y→0 ∆x + i∆y lı́m or f 0 (z) = el cual, claramente no coincide si las direcciones de aproximación a z0 = x0 + iy0 son distintas, vale decir, por ejemplo: ∆y = 0; ∆x → 0 o ∆x = 0; ∆y → 0. Bo rr ad Como heredamos todas las ideas y métodos del campo real se cumplen todas las reglas de la derivación para funciones reales. Vale decir df (z) dg(z) d (f (z) + g(z)) = + ; dz dz dz 1.1.4. d df (z) dg(z) (f (z)g(z)) = g(z) + f (z) ; dz dz dz d df (g) dg(z) (f (g(z)) = dz dg dz Funciones Analı́ticas y Condiciones de Cauchy-Riemann Diremos que una función es analı́tica (holomorfa o regular) en una región S, si es univaluada y derivable en todos los puntos dentro de esa misma región S. Puede darse el caso de que sea analı́tica en la región excepto en un número finito de puntos (donde es singular). Entonces diremos que es es analı́tica (holomorfa o regular) en S, excepto en esos puntos. Una función se denomina una función entera si ésta es analı́tica en todos los puntos del plano finito, como por ejemplo, los polinomios. 9 1.1. FUNCIONES DE VARIABLE COMPLEJA A partir de dos estrategias (muy particulares) de aproximación a ∆z → 0 tales como ∆y = 0; ∆x → 0 o ∆x = 0; ∆y → 0, podremos encontrar un criterio para identificar dónde, una función compleja, f (z), es analı́tica. Esto es [u(x + ∆x, y) − u(x, y)] + i [v(x + ∆x, y) − v(x, y)] ∆x ∆u(x, y) ∆v(x, y) = lı́m +i , ∆x→0 ∆x ∆x f 0 (z)∆x=0 lı́m ∆x→0 r = in a f 0 (z)∆y=0 [u(x, y + ∆y) − u(x, y)] + i [v(x, y + ∆y) − v(x, y)] = −i lı́m ∆y→0 ∆y ∆u(x, y) ∆v(x, y) = lı́m −i + , ∆y→0 ∆y ∆y ⇔ lı́m ∆x→0 y equivalentemente f 0 (z)∆y=0 = f 0 (z)∆x=0 ⇔ ∆u(x, y) ∆v(x, y) ∆u(x, y) ∆v(x, y) +i = lı́m −i + , ∆y→0 ∆x ∆x ∆y ∆y Pr eli f 0 (z)∆y=0 = f 0 (z)∆x=0 m y ambas tienen que coincidir. Con lo cual ∂v(x, y) ∂u(x, y) ∂v(x, y) ∂u(x, y) +i = −i + ∂x ∂x ∂y ∂y Con ello hemos encontrado las condiciones necesarias para que una función compleja sea analı́tica, vale decir: Las condiciones de Cauchy Riemann ∂v(x, y) ∂u(x, y) = ∂x ∂y ∧ ∂v(x, y) ∂u(x, y) =− ∂x ∂y (1.2) or Ahora tendremos un criterio más expedito para determinar que la función f (z) = 2x + iy no es analı́tica. ∂u(x, y) ∂v(x, y) ∂v(x, y) ∂u(x, y) u(x, y) = 2x ⇒ = 2 6= 1 = ∧ =0=0=− v(x, y) = y ∂x ∂y ∂x ∂y Bo rr ad Para el caso f (z) = x2 − y 2 + 2ixy se cumplen las condiciones de Cauchy-Riemann ∂u(x, y) ∂v(x, y) ∂v(x, y) ∂u(x, y) u(x, y) = x2 − y 2 ⇒ = 2x = ∧ = 2y = − v(x, y) = 2xy ∂x ∂y ∂x ∂y pero como esas condiciones son necesarias porque para encontrarlas hemos seleccionado un par de rutas muy especı́ficas: ∆y = 0; ∆x → 0 y ∆x = 0; ∆y → 0, se requiere exigir algunas condiciones adicionales. Sin demostración (puede consultar para detalles y demostraciones las referencias indicadas) exigiremos como condición necesaria y suficiente para que una función sea analı́tica que las cuatro derivadas parciales para u(x, y) y v(x, y), existan, sean contı́nuas en la región S y que se cumplan las condiciones de Cauchy-Riemann. El punto crucial (adicional) es que las derivadas sean contı́nuas. Ejercicios Investigar los dominios del plano complejo para los cuales las funciones f (z) = |x|−i|y| y f (z) = |z|2 = zz ∗ son analı́ticas. 10 1.1. FUNCIONES DE VARIABLE COMPLEJA 1.1.5. Curiosidades de Cauchy-Riemann in a r Las funciones analı́ticas satisfacen algunas propiedades adicionales consecuencias de las condiciones de Cauchy-Riemann. La primera es que dada una función compleja genérica f (z) = u(x, y) + iv(x, y), si f (z) es análitica, u(x, y) y v(x, y) serán funciones armónicas conjugadas, ∇2 u(x, y) = ∇2 v(x, y) = 0, i.e. satisfacen la ecuación de Laplace. Si derivamos apropiadamente las ecuaciones (1.2) respecto a una y otra variable encontramos que ∂ ∂v(x, y) ∂ ∂v(x, y) ∂ ∂u(x, y) ∂ 2 u(x, y) ∂ 2 u(x, y) ∂ ∂u(x, y) + =0 = = =− ⇒ ∂x ∂x ∂x ∂y ∂y ∂x ∂y ∂y ∂x2 ∂y 2 y equivalentemente ∂ ∂v(x, y) ∂ ∂u(x, y) ∂ ∂u(x, y) ∂ ∂v(x, y) ∂ 2 v(x, y) ∂ 2 v(x, y) + = 0, =− =− =− ⇒ ∂x ∂x ∂x ∂y ∂y ∂x ∂y ∂y ∂x2 ∂y 2 Ejemplo Pr eli m es decir, hemos demostrado que las partes reales e imaginarias de una función analı́tica son necesariamente armónicas. La importancia de este resultado radica, en primer lugar, que no son arbitrarias las funciones u(x, y) y v(x, y) con las cuales construimos f (z). Ambas deben satisfacer la ecuación de Laplace. En segundo lugar que ambas están ligadas por las condiciones de Cauchy-Riemann, y esto implica que al conocer una de las funciones armónicas conjugadas, siempre es posible encontrar (salvo una constante de integración) la otra. Para ilustrar lo anterior, supongamos la siguiente función armónica conjugada u(x, y) = 2x − x3 + 3xy 2 correspondiente a la parte real de f (z). Es fácil comprobar que es una función armónica, ahora construyamos la parte imaginaria v(x, y). Esto es entonces ∂u(x, y) ∂v(x, y) = = 2 − 3x2 + 3y 2 ⇒ v(x, y) = 2y − 3x2 y + y 3 + φ(x) ∂x ∂y or u(x, y) = 2x − x3 + 3xy 2 ⇒ ∂φ(x) ∂u(x, y) ∂φ(x) ∂v(x, y) = −6xy+ = −6xy = − ⇒ = 0 ⇒ φ(x) = C ⇒ v(x, y) = 2y−3x2 y+y 3 +C . ∂x ∂x ∂y ∂x Bo rr ad La segunda curiosidad, consecuencia de las ecuaciones (1.2), es que para una función compleja genérica f (z) = u(x, y) + iv(x, y), en la cual además se cumple que u(x, y) = const y v(x, y) = const, entonces se cumplirá que: ∇u(x, y) · ∇v(x, y) = 0. ∂u(x, y) ∂u(x, y) ∂v(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y) ∇u(x, y)·∇v(x, y) = i+ j · i+ j = + ∂x ∂y ∂x ∂y ∂x ∂x ∂y ∂y y por obra de las condiciones de Cauchy-Riemann es inmediato comprobar que se anulan ∇u(x, y) · ∇v(x, y) = − ∂u(x, y) ∂u(x, y) ∂u(x, y) ∂u(x, y) + =0 ∂x ∂y ∂y ∂x Es decir, u(x, y) =const y v(x, y) =const, corresponden a trayectorias mutuamente ortogonales. Esta “curiosidad” nos permite construir sistemas de coordenadas alternativos en el plano complejo y, sobre todo 11 1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS in a r saber como establecer su transformación a otros planos complejos. Esto se representa en la Figura 1.2 y será considerado en la sección 1.3 de la página 18. La tercera curiosidad es un resultado el cual, siendo una formalidad, nos indica que las funciones analı́ticas f (z) dependen de z y no de su conjugado z ∗ . O dicho de otra manera: z y z ∗ son variables independientes. Para demostrar esto procedemos primero a convencernos que si f (z) = u(x, y) + iv(x, y) y f (z) analı́tica, (z) entonces ∂f ∂z ∗ = 0. Sin detenernos a pensar en el significado de la derivada respecto a la variable conjugada, recordamos que operacionalmente z + z∗ x= 2 ∂f (z) ∂x ∂f (z) ∂y 1 ∂u(x, y) ∂v(x, y) 1 ∂u(x, y) ∂v(x, y) ∂f (z) = + = +i − +i ⇒ ∂z ∗ ∂x ∂z ∗ ∂y ∂z ∗ 2 ∂x ∂x 2i ∂y ∂y z − z∗ y= 2i m arreglando tendremos que es inmediato comprobar que se anula si se cumplen las condiciones (1.2) 1 ∂u(x, y) ∂v(x, y) ∂f (z) i ∂u(x, y) ∂v(x, y) z + z∗ z − z∗ = − + + = 0 ⇒ f (z) ⇔ 6 f (x, y) = f , ∂z ∗ 2 ∂x ∂y 2 ∂y ∂x 2 2i Pr eli en otras palabras, la funciones analı́ticas son verdaderas funciones de variable complejas y no, como pudiera parecer, de dos variables reales interpuestas. Ejercicios 1. Determine la función f (z) analı́tica cuya parte imaginaria es [y cos(y) + xsen(z)]ex 2. Muestre que si f (z) es analı́tica entonces f ∗ (z ∗ ) también lo es. 1.2. Puntos y lı́neas de corte, ceros de funciones complejas Bo rr ad or Hemos mencionamos anteriormente, que los números complejos se representan por su forma polar en dos ejes coordenados. Ese diagrama bidimiensional lo llamamos Diagrama de Argand. Como en el caso del Análisis de Funciones Reales, existen funciones multivaluadas, a las cuales les debemos imponer ciertas condiciones para convertirlas en univaluadas, si una función es multivaluada, automáticamente deja de ser analı́tica. El objetivo de esta sección es identificar ese conjunto de condiciones para detectar en cual región del plano complejo una determinada función es univaluada. 1.2.1. Puntos y lı́neas de corte Consideremos entonces la función f (z) = z 1/2 y hagamos distintos circuitos cerrados 0 ≤ θ < 2π con el “vector” z. f (z) = z 1/2 ≡ r1/2 eiθ/2 → f (z) = r1/2 eiθ/2 → r1/2 ei(θ+2π)/2 = −r1/2 eiθ/2 Visto ası́ nos tendremos que preguntar ahora cual fue el circuito que recorrimos con z, y dependiendo de ese circuito identificaremos algunos puntos con caracterı́sticas distintas. Si el circuito cerrado descrito por z no contiene el punto z = 0, la función f (z) = z 1/2 retoma su valor original (ver Figura 1.1 cuadrante superior izquierdo contorno C1 ). Pero si, como se aprecia en la misma Figura 1.1, el circuito cerrado C2 si contiene el punto z = 0 entonces la función no retoma su valor original, f (z) → −f (z). También es claro que si el circuito cerrado lo recorremos dos veces θ → 4π entonces f (z) = z 1/2 retoma su valor inicial. 12 m in a r 1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS Pr eli Figura 1.1: Los distintos contornos que identifican los puntos de corte or Los puntos alrededor de los cuales se construye un circuito cerrado en el diagrama de Argand y la función no retoma su valor inicial se denominan puntos de corte y las lı́neas de corte (o simplemente cortes) serán aquellas lı́neas que separan regiones en las cuales una determinada función es univaluada. Es claro que los puntos de corte son puntos singulares, en los cuales la función deja de ser analı́tica y existirán si θ toma, valores 0 ≤ θ ≤ 2nπ. Es decir, puede dar n vueltas. En este caso, para nuestra función f (z) = z 1/2 , la lı́nea de corte será cualquiera que comience en z = 0 y continúe para |z| → ∞. Por simplicidad es costumbre tomar las lı́neas de corte a lo largo de los ejes reales o complejos. De este modo aparece ilustrado en la Figura 1.1 cuadrante superior derecho la lı́nea de corte que sigue el eje positivo de las x. La situación se torna más interesante cuando estas definiciones se analizan a la luz de funciones con más de un punto de corte. Consideremos la función q p p √ √ f (z) = z 2 + 1 ⇒ f (z) = (z − i)(z + i) ≡ (r1 eiθ1 ) (r2 eiθ2 ) = r1 r2 eiθ1 /2 eiθ2 /2 = r1 r2 ei(θ1 +θ2 )/2 Bo rr ad analicemos entonces, varios contornos en el plano de Argand. Otra vez la Figura 1.1 ilustra en el cuadrante inferior los distintos contornos C1 , C2 , C3 y C4 . Tal y como se aprecia en esa figura, se dan cuatro casos: 1. Contorno C1 no incluye ningún punto de corte, entonces θ1min ≤ θ1 ≤ θ1max y θ2min ≤ θ2 ≤ θ2max , con lo cual f (z) retoma su valor inicial luego de recorrer el C1 2. Contorno C2 incluye z = i como punto de corte, entonces 0 ≤ θ1 ≤ 2nπ y θ2min ≤ θ2 ≤ θ2max , por lo cual f (z) → −f (z) 3. Contorno C3 incluye z = −i como punto de corte, entonces θ1min ≤ θ1 ≤ θ1max y 0 ≤ θ2 ≤ 2nπ, por lo cual f (z) → −f (z) 4. Contorno C4 incluye ambos como punto de corte,z = i y z = −i, entonces 0 ≤ θ1 ≤ 2nπ y 0 ≤ θ2 ≤ 2nπ, por lo cual f (z) → f (z) retoma su valor. 13 1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS De este modo para construir los cortes que impidan que nuestra función sea multivaluada podremos seleccionar: zcorte > i y zcorte < −i , o − i < zcorte < i 1.2.2. Singularidades, polos y ceros de funciones complejas Un punto donde la función f (z) no es analı́tica se denomina un punto singular. Estos puntos pueden ser: in a r Singularidades aisladas: sı́ una función es analı́tica en todo el entorno de un punto z0 , excepto en el propio punto z0 , entonces se dice que el punto z0 es una singularidad aislada o un punto singular de la función f (z). Por ejemplo, para la función f (z) = 1/z, sabemos que es analı́tica en todo punto excepto en z = 0. La única singularidad de la función esta en el punto z = 0 y este punto es entonces una singularidad aiaslada. m Singularidades no aisladas: Si una función contiene un conjunto de singularidades aisladas en una vecindad de un punto z0 , entonces se dice que z0 es una singularidad no aislada. Es decir, una singularidad no aislada de una función es un punto lı́mite del conjunto de sus singularidades. Clasificación de las singularidades aisladas Pr eli 1. Un punto singular aislado z0 de una función f se denomina removible o evitable si: lı́m f (z) ∃ . z→z0 Observemos que: a) la función f puede no estar definida en z0 y por esta razón la función no es analı́tica en z0 . b) la función puede estar definida en z0 pero de valor diferente al lı́mz→z0 f (z). Con lo cual la función no es contı́nua en z0 y por lo tanto no es analı́tica en z0 . c) la función puede estar definida en z0 y su valor igual al del lı́mz→z0 f (z). En este caso la función no es singular en z0 . or Por lo tanto, sı́ f tiene una singularidad removible en z0 entonces una de las posibilidades (a) o (b) debe ser la causa de que la función no sea analı́tica o regular en z0 . Si una función g es igual a f en todos los puntos, excepto en z0 , y Bo rr ad g(z0 ) = lı́m f (z) , z→z0 entonces g no es singular en z0 , esto significa que la singularidad de f puede ser removida mediante la redefinición de la función f en z0 . 2. Un punto singular aislado z0 de una función f que no esta definida en z0 se llama un polo de orden n de f si: n lı́m (z − z0 ) f (z) = M 6= 0 , z→z0 donde n es un número entero positivo. Un polo de orden 1 se denomina un polo simple. 3. Un punto singular aislado de una función f recibe el nombre de singularidad esencial de f si n lı́m (z − z0 ) f (z) @ , z→z0 para ningún entero positivo de n. 14 1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS Ejemplos 1. Consideremos la función 3z 2 + 2z , (z − 4)(z − i) la función es analı́tica en todos los puntos, excepto en z = 4 y z = i. Entonces, las únicas singularidades están en los puntos z = 4 y z = i, y como son un conjunto finito de singularidades cada una de estas son singularidades aisladas. 2. Sea f la función: sen −1 y x y x cosh − i cos senh , |z|2 |z|2 |z|2 |z|2 in a f (z) = r f (z) = m Si denotamos al denominador como g(z), entonces y x y x cosh 2 − i cos 2 senh 2 g(z) = sen 2 x + y2 x + y2 x + y2 x + y2 = u(x, y) + iv(x, y) 6= 0 , Pr eli Es claro que z 6= 0. Por otra parte, de las condiciones de Cauchy-Riemann se tiene: ∂u x x y 2 − x2 y y 2xy ∂v = cosh − senh = cos sen 2 2 ∂x x2 + y 2 x2 + y 2 x2 + y 2 x2 + y 2 ∂y (x2 + y 2 ) (x2 + y 2 ) 2xy x x ∂u y x2 − y 2 y ∂v =− 2 cos x2 + y 2 cosh x2 + y 2 + 2 sen x2 + y 2 senh x2 + y 2 = − ∂x 2 2 2 2 ∂y (x + y ) (x + y ) Las condiciones de Cauchy-Riemann se satisfacen en todas partes salvo en z = 0, donde ni g ni las derivadas parciales están definidas. Como las derivadas parciales son contı́nuas, entonces g es analı́tica en todos los puntos excepto z = 0. Por lo tanto, f es analı́tica salvo en z = 0. or Por otra parte, g = 0 si su parte real como su parte imaginaria son nulas, ası́ que las singularidades de f , además de z = 0, vienen dadas por el siguiente sistema ecuaciones: x y x y sen 2 cosh 2 = 0 y cos 2 senh 2 =0 x + y2 x + y2 x + y2 x + y2 Bo rr ad Como cosh(α) > 0, la primera ecuación se satisface si x x sen 2 = ± nπ , =0 ⇒ 2 x + y2 x + y2 puesto que cos(α) 6= 0 cuando senh(α) = 0, entonces la segunda ecuación se satisface si y = 0. Por lo tanto, el sistema se satisface simultáneamente si x x2 + y 2 = ± nπ 1 = ± nπ , n = 0, 1, 2, ... ⇒ x y=0 Las singularidades ocurren en el eje real y en los puntos donde x = ± 1/nπ. El punto lı́mite de este conjunto, cuando n → ∞, es el punto z = 0. Por lo tanto, f tiene una singularidad no aislada en z = 0 y singularidades aisladas en los puntos z = ± 1/nπ, con n = 1, 2, 3, .... 15 1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS 3. Dada la función z 2 + 16 , z 6= 4i , z − 4i esta función es el cociente de dos funciones enteras y por lo tanto es analı́tica, salvo donde el denominador se hace nulo, esto es en z = 4i. Por otra parte: f (z) = (z + 4i)(z − 4i) = z + 4i , z − 4i r f (z) = y lı́m f (z) = lı́m z + 4i = 8i. z→4i in a z→4i y queda claro que g es una función entera. 4. Para 1 2z 1 − = 1−z 1+z (1 − z)(1 + z) Pr eli f (z) = m la función f tiene una singularidad removible en z = 4i pues el lı́mite existe. Podemos definir una función g igual a f , para z 6= 4i z + 4i si z 6= 4i g(z) = 8i si z = 4i y es inmediato darse cuenta que tendremos polos de orden 1 en z = 1 y z = −1 5. Para senh(z) ez − e−z = z ⇒ ez = ei(2n+1)π e−z es un polo cosh(z) e + e−z es decir donde ez = −e−z , con lo cual z0 = n + 21 iπ y al utilizar la definición: z − n + 12 iπ senh(z) z − n + 21 iπ cosh(z) + senh(z) lı́m = lı́m =1 cosh(z) senh(z) z→(n+ 21 )iπ z→(n+ 12 )iπ f (z) = tanh(z) = or donde hemos utilizado el Teorema de L’Hopital y consecuentemente z0 = n + 1 2 iπ es un polo simple. Bo rr ad Existe otro tipo de singularidades conocidas como removibles. Estas singularidades se caracterizan porque el valor de f (z) → 0/0 cuando z → z0 . El caso más emblemático es la función sen(z) 1 z3 z5 z2 z4 f (z) = ⇒ f (z) = z− + ··· = 1 − + ··· ⇒ lı́m f (z) = 1 z→0 z z 3! 5! 3! 5! con lo cual, luego de desarrollar por Taylor la función sen(z), se ha removido la singularidad aparente. El comportamiento de una función compleja en infinito (o cuando tiende a infinito), vale decir, cuando z → ∞ no está tan bien definida como en los casos de funciones de variable real. Es claro como una cantidad real, digamos |f (z)| o |z| tiende a infinito, pero z es una cantidad “bidimensional” y, en principio, existirı́an varias formas de tender a infinito. Para precisar el comportamiento de una función compleja de variable compleja en infinito, hacemos un cambio de variable z = 1/ξ y estudiamos f (1/ξ) con 1/ξ → ∞. De esta manera: 1. lı́m z(1 + z 2 ) ≡ lı́m z→∞ ξ→0 1 1 + 3 ξ ξ con lo cual tendrá un polo de orden 3. 16 1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS 2. z→∞ ∞ X 1 ξ→0 n! ξ n n=0 lı́m ez ≡ lı́m y presenta una singularidad esencial para z → ∞ . Los ceros de una función compleja (f (z0 ) = 0, entonces llamaremos z0 un cero de f (z)) se clasifican al igual que los polos. Esto es r f (z) = (z − z0 )n g(z) con n entero positivo y g(z) 6= 0 ∀ z . in a Ejercicios 1. Determine el tipo de singularidades (en caso de poseerlas) de las siguientes funciones en: z = 0 y z = ∞ f (z) = 1 z−2 f (z) = 1 + z3 z2 b) c) Pr eli 1 z m a) f (z) = senh 2. Identifique los ceros, polos y las singularidades esenciales de las siguientes funciones: a) f (z) = b) z−2 sen z2 1 1−z c) or f (z) = e1/z f (z) = tan 1 z Bo rr ad 3. Encuentre el comportamiento en el infinito de a) f (z) = a + b z2 b) f (z) = z(1 + z 2 ) c) f (z) = ez 17 m in a r 1.3. TRANSFORMACIONES CONFORMES 1.3. Pr eli Figura 1.2: Tranformaciones conformes. Tomado de Eric W. Weisstein. Conformal Mapping. MathWorld– A Wolfram Web Resource. http://mathworld.wolfram.com/ConformalMapping.html Transformaciones conformes Nos interesará ahora considerar transformaciones entre planos complejos, esto es: z = x + iy ↔ w = r + is ⇒ w = g(z) = r(x, y) + is(x, y) ↔ z = h(w) = x(r, s) + iy(r, s) or Es decir, transformaciones entre puntos (x, y) ↔ (r, s) correspondientes a dos diagramas de Argand, de tal modo que existe la función inversa z = h(g(z)) con w = g(z) y z = h(w) funciones analı́ticas, salvo en un número finito de polos aislados. Entonces denominaremos a este tipo de transformaciones transformaciones conformes si además, en todo punto z y w (excepto en aquellos en los cuales g 0 (z) y por lo tanto h0 (w) son cero o infinita) cumple con: Curvas contı́nuas en el plano z transforman en curvas contı́nuas en el w. Bo rr ad Los ángulos entre dos curvas cualesquiera que se intersecten en el plano z serán los mismos que los que formen las curvas transformadas en el plano w. Esto es, los ángulos entre las curvas serán invariantes bajo la transformación.2 El cambio de escala en la vecindad de puntos transformados es independiente de la dirección en la cual se mida. Cualquier función analı́tica en z = x + iy transforma en otra función w = r + is también analı́tica. La segunda de las afirmaciones es inmediata a partir de la primera. Es decir, si una transformación conforme de coordenadas tienen inversa y ambas són analı́ticas, es obvio que curvas contı́unas C(z) serán ˜ transformadas a curvas contı́nuas C(w). 2 De esta propiedad es donde la transformación hereda su nombre de conforme. Son transformaciones isogonales es decir, que preservan los ángulos entre las curvas que se intersectan. 18 m in a r 1.3. TRANSFORMACIONES CONFORMES Pr eli Figura 1.3: Tranformaciones conformes. Cuadrante superior representa las conservación de ángulos y escala bajo transformaciones y el inferior un ejemplo de transformaciones conforme El hecho que la transformación conforme preserva el ángulo y las escalas se muestra en la figura 1.3 y puede comprobarse de la siguiente manera. Considere dos curvas, C1 (z) y C2 (z), en el plano complejo z = x + iy. Supongamos además que estas curvas se intersectan en un punto z = z0 . Entonces, sobre las tangentes a cada curva, en z0 , definimos otros dos puntos z1 y z2 de tal forma que z1 − z0 = ρeiθ1 w1 − w0 = ρ1 eiφ1 ⇒ w2 − w0 = ρ2 eiφ2 z2 − z0 = ρeiθ2 = dw dz = lı́m z1 →z0 w1 − w0 ρ2 w2 − w0 ρ1 = lı́m ⇒ g 0 (z0 ) = lı́m ei(φ1 −θ1 ) = lı́m ei(φ2 −θ2 ) z2 →z0 z2 − z0 ρ→0 ρ ρ→0 ρ z1 − z0 Bo rr ad dg(z) dz or Nótese que hemos construido los puntos z1 y z2 sobre las tangentes a z0 a la misma distancia ρ de z0 y, en principio, hemos supuesto que las distancias a los puntos transformados w1 y w2 (las cuales hemos identificado como ρ1 y ρ2 , respectivamente), no son iguales. Ahora bien, dado que w = g(z) es analı́tica entonces z=z0 z=z0 Es claro que al comparar las magnitudes y las fases demostramos que las transformaciones conformes preservan las distancias, ρ1 = ρ2 , y los ángulos (φ2 − φ1 ) = (θ2 − θ1 ). Adicionalmente, es muy fácil convecerse que si la transformación conforme conserva los ángulos entre curvas y las escalas en todas direcciones las figuras son transformadas en figuras equivalentes quizá ampliadas y rotadas, pero no deformadas. 1.3.1. Algunas consecuencias y ejemplos Las consecuencias de la última afirmación reviste alguna importancia. Si f = f (z) es analı́tica en el plano (x, y) y la transformación z = h(w) también lo es, entonces la función F (w) = f (h(w)) necesariamente es analı́tica en el plano (r, s). ∆F ∆f ∆h ∆f ∆h = ≡ ∆w ∆h ∆w ∆z ∆w 19 1.3. TRANSFORMACIONES CONFORMES in a r Por hipótesis supusimos que f y h erán analı́ticas, por lo cual es inmediato concluir que debido a que los dos factores de la derecha son analı́ticos, la función F (w) también lo será. Tal y como mostramos en la sección 1.1.5 si f (z) = u(x, y) + iv(x, y), es análitica, entonces u(x, y) y v(x, y) serán funciones armónicas conjugadas, vale decir que satisfacen la ecuación de Laplace, con lo cual ∇2 u(x, y) = ∇2 v(x, y) = 0. Eso significa que si F = Φ(w) + iΨ(w), entonces: 2 2 ∂ φ ∂2φ ∂ Φ ∂2Φ + = 0 + = 0 ∂x2 ∂x2 ∂y 2 ∂y 2 f = φ + iψ ⇒ ⇔ F = Φ + iΨ ⇒ ∂2ψ ∂2ψ ∂2Ψ ∂2Ψ + = 0 + = 0 2 2 2 2 ∂x ∂y ∂x ∂y Las siguientes transformaciones representan: rotaciones de ángulo θ: w = zeiθ ; expansiones de escala a : w = az Pr eli traslaciones: w = z + b; m Esto impone que si <[f (z)] = φ es constante en el plano (x, y), también lo será <[F (w)] = Φ en (r, s) (¡Demuéstrelo!). Esta propiedad deriva una serie de aplicaciones en la solución de la ecuación de Laplace en dos dimensiones. Si bien es una técnica elegante y útil cuando es posible, no deja de ser limitada porque se restringe a 2D. Hoy los métodos numéricos para resolver ecuaciones diferenciales en derivadas parciales han superado con creces este tipo de técnicas. Los ejemplos son variados. y pueden ser combinadas como: w = az+b con a y b números complejos. Para la traslación es inmediado. Para la rotación también si recordamos que z = |z|eiφ con lo cual w = |z|eiφ eiθ = |z|ei(φ+θ) También la transformación de inversión w = 1/z que transforma los puntos del interior de un cı́rculo 1 1 1 −iφ unidad a su exterior y viceversa. Una vez más, w = = = e . Entonces es claro que z |z|eiφ z 0 ≤ |z| ≤ 1 ⇒ ∞ < |w| ≤ 1 ∧ 1 ≤ |z| ≤ ∞ ⇒ 0 < |w| ≤ 1 z − z0 , la cual transforma los z − z0∗ puntos z0 del semiplano superior complejo y > 0 al interior de un cı́rculo unidad en el w−plano (ver figura 1.3 en la página 19). Para convencernos de ello notamos que z − z0 z − z0 |w| = eiθ = z − z0∗ z − z0∗ Bo rr ad or Un caso más interesante lo constituye la transformación w = eiθ En general si z0 y z los consideramos en el semiplano complejo superior y ≥ 0, entonces siempre se cumple que |z − z0 | ≤ |z − z0∗ | con lo cual |w| ≤ 1, y como se cumple para todo z en ese semiplano, entonces cada uno de esos puntos es transformado dentro de un cı́rculo de radio |w|. Es inmediato convencerse que, la igualdad se cumple para puntos z sobre el eje real y que el punto z = z0 es llevado al punto w = 0. Finalmente, notamos que si conocemos como transforman dos puntos z1 → w1 y z2 → w2 entonces podremos determinar la transformación, esto es, conocer los valores de los parámetros z0 y φ. Este caso lo podemos apreciar si consideramos un par de puntos en el semiplano complejo y conocemos como tranforman, digamos z = i sobre el eje imaginario, e imponemos que sea transformado a w = 0, entonces es inmediato determinar que z0 = i. Por otro lado, si imponemos que z = ∞ ⇒ w = 1, z−i . entonces: 1 = w = eiθ ⇒ θ = 0, con lo cual w = z+i 20 m in a r 1.4. INTEGRALES COMPLEJAS 1.4. Integrales complejas Pr eli Figura 1.4: Integrales complejas y circuitos Como siempre, luego de definir la derivada, construimos el concepto de integral a partir de la suma de Riemann. Esto es Z z2 n n X X Sn = f (ζj )(zj − zj−1 ) si n → ∞ ⇒ |zj − zj−1 | → 0 ⇒ lı́m f (ζj )(zj − zj−1 ) = dz f (z) n→∞ j=1 z1 j=1 Es decir, que si el lı́mn→∞ Sn existe, entonces se corresponde con la definición de la integral. Z Algunas propiedades or 1.4.1. Es claro que esta integral es, necesariamente, una integral de lı́nea, ya que z tiene “dos dimensiones” Z z2 Z x2 ,y2 Z x2 ,y2 z2 dz f (z) = [dx + idy] [u(x, y) + iv(x, y)] = [u(x, y)dx − v(x, y)dy]+i [v(x, y)dx + u(x, y)dy] z1 Bo rr ad z1 x1 ,y1 x1 ,y1 (1.3) con lo cual transformamos una integral compleja en una suma de integrales reales. Pero necesitamos definir el contorno a través del cual vamos del punto z1 = x1 + iy1 al punto z2 = x2 + iy2 . La integración compleja tendrá las propiedades acostumbradas R R R dz (f (z) + g(z)) = C dz f (z) + C dzg(z) C R R dz Kf (z) = K C dz f (z) con K una constante real o compleja C Rb Ra dz f (z) = − b dz f (z) a Rb Rm Rb dz f (z) = a dz f (z) + m dz f (z) a R dz |f (z)| ≤ M L , donde M = máx |f (z)| y L la longitud de C C 21 1.4. INTEGRALES COMPLEJAS Esta última propiedad es importante porque permite establecer cotas a las integrales complejas sin tener que evaluarlas. De la definición de integral es casi inmediata la demotración lı́m n X n→∞ Z z2 dz f (z) f (ζj )∆zj = z1 j=1 ⇒ n X f (ζj )∆zj ≤ n X |f (ζj )| |∆zj | ≤ M j=1 j=1 n X |∆zj | ≤ M L j=1 r Donde hemos utilizado que |f (ζj )| ≤ M y que la suma de los intervalos ∆zjR = zj − zj−1 es R la longitud L del recorrido C. Es claro que tomando lı́mites a ambos miembros obtendremos C dz f (z) ≤ C dz |f (z)| ≤ M L. in a Ejemplos 1. Evaluemos la integral compleja f (z) = z −1 a lo largo de diferentes contornos, tal y como se ilustran en la figura 1.4 m a) un circuito cerrado a lo largo de una circunferencia de radio R I I Z 2π −1 iθ −1 −iθ dθ = 2πi dz z ≡ d(Re ) R e =i 0 π Pr eli b) siguiendo una semicircunferencia desde (R, 0) → (−R, 0). Esto es Z z2 =(−R,0) Z (R,π) Z dz z −1 = d(Reiθ ) R−1 e−iθ = i z1 =(R,0) (R,0) dθ = πi 0 c) siguiendo dos lı́neas rectas entre los puntos (R, 0) → (0, R) → (−R, 0). En este caso, procedemos utilizando la expresión cartesiana para los números complejos. Para ello, vamos a parametrizar z = z(t) para (R, 0) → (0, R) y z = z(s) cuando (0, R) → (−R, 0). Veamos Z z3 =(−R,0) Z z2 =(0,R) Z z3 =(0,−R) dz z −1 = dz z −1 + dz z −1 z1 =(R,0) z1 =(R,0) z2 =(0,R) para cada una de las integrales se cumple, respectivamente, que con lo cual con 0 ≤ t ≤ 1 ∧ or z = (1 − t)R + itR Z z2 =(−R,0) Bo rr ad z1 =(R,0) dz = z Z 1 dt 0 z = −sR + i(1 − s)R −1 + i + 1 + t(−1 + i) 1 Z ds 0 con 0 ≤ s ≤ 1 −1 − i i + s(−1 − i) procedemos entonces con la primera de las integrales Z 1 Z 1 Z 1 Z 1 (2t − 1)dt (−1 + i)dt (−1 + i)((1 − t) − it)dt dt = = + i 2 − t2 2 (1 − t) + it (1 − t) 1 − 2t + 2t 1 − 2t + 2t2 0 0 0 0 es decir Z 1 0 1 (−1 + i)dt = ln(1 − 2t + 2t2 ) (1 − t) + it 2 1 0 + i arctan t− 1 2 1 2 1 =0+ 0 i π π π − − = 2 2 2 2 y, la segunda integral también tendrá el mismo resultado, con lo cual Z z2 =(−R,0) dz = πi ¡el mismo resultado que a través del arco de circunferencia! z z1 =(R,0) 22 1.5. TEOREMA INTEGRAL DE CAUCHY Es interesante notar que si regresamos al punto (R, 0) a través del contorno (−R, 0) → (0, −R) → (R, 0) la integral cerrada se anula, no ası́ cuando nos regresamos a través el arco complementario de circunferencia. En pocas palabras, como se esperaba, el valor de las integrales de camino, para algunas funciones, dependeran del camino seleccionado. En la próxima sección veremos a cuáles funciones corresponderá un mismo valor de la integral cerrada, independientemente del circuito que uno elija. dz ⇒ (z − z0 )n+1 Z 0 2π Rieiθ dθ i = n n+1 i(n+1)θ R R e Z 2π dθ e−inθ ⇒ 0 n=0: n 6= 0 : R 2π 0 dθ = 2iπ in a I r 2. Otro ejemplo ilustrativo lo constituye i Rn R 2π 0 dθ[cos(nθ) − isen(nθ)] = 0 donde hemos utilizado la forma polar z − z0 ≡ Reiθ e integrado a lo largo de una circunferencia de radio R centrada en z = z0 . m Ejercicios Repetir los mismos pasos del primer ejemplo para el caso de 1.5. 1.5.1. Pr eli f (z) = (z ∗ )−1 . Teorema Integral de Cauchy El teorema y las regiones El teorema integral de Cauchy es uno de los dos teoremas básicos en la teorı́a de funciones de variable compleja. Este teorema considera que si f (z) es analı́tica en una región simplemente conexa, R, en su contorno C y su derivada f 0 (z) existe y es contı́nua en esta región3 , entonces la circulación a lo largo de cualquier contorno cerrado C se anula. Esto es I dz f (z) = 0 or C Bo rr ad Antes que nada, y como parte de ese adiestramiento en lenguaje, precisaremos qué queremos decir (qué quieren decir los matemáticos) con regiones simplemente conexas y múltiplemente conexas. Una región simplemente conexa es aquella que no tiene “huecos”, o dicho de una manera más precisa y elegante, en la cual una curva Γ puede ser reducida (encogida) a un punto sin salir de la región R. En la figura 1.5 cuadrante Ia se muestra una región simplemente conexa y en los cuadrantes Ib y Ic regiones multiplemente conexas. Estas dos últimas figuras clarifican este concepto. Es decir, una región múltiplemente conexa es aquella que no es simplemente conexa y con eso queremos decir que “tiene huecos”, o lo que es lo mismo existen curvas que no se pueden reducir a puntos en la región. Tal y como hemos comentado la demostración rigurosa del Teorema de Cauchy está fuera de los alcances de estas notas, pero algo se puede hacer si invocamos el Teorema de Stokes (o uno de los Teoremas de Green en el plano) que vimos cuando estudiamos análisis vectorial. Con ello recordamos la ecuación (1.3), entonces Z z2 Z x2 ,y2 Z x2 ,y2 dz f (z) = [u(x, y)dx − v(x, y)dy] + i [v(x, y)dx + u(x, y)dy] z1 x1 ,y1 x1 ,y1 3 Esta última condición no es necesaria, pero la demostración del teorema se torna mucho más sofisticada, y referimos al lector a los libros especializados, vale decir a las referencias [?, ?]. 23 m in a r 1.5. TEOREMA INTEGRAL DE CAUCHY El Teorema de Stokes nos dice que Z Pr eli Figura 1.5: Regiones en el plano complejo dxdy R ∂p ∂q + ∂x ∂y I (pdy − qdx) = C con lo cual, si una vez más suponemos f (z) = u(x, y) + iv(x, y) y dz = dx + idy, entonces tendremos que Z I I Z ∂(u) ∂(−v) ∂(−v) ∂(−u) + +i dxdy + =0 (udx − vdy) + i (vdx + udy) = dxdy ∂x ∂y ∂x ∂y R C C R 1.5.2. or y acto seguido, como f (z) es analı́tica, invocamos las condiciones de Cauchy Riemann (ecuación (1.2)) y es inmediato ver que se anula la integral de circulación. Algunas observaciones y el Teorema de Morera Bo rr ad De la anterior “demostración” del Teorema de Cauchy Riemann emergen algunas observaciones La primera es la insistencia de que la condición que la derivada f 0 (z) existe y es continua en esta región no es necesaria. La segunda es que el Teorema de Cauchy, es válido también para regiones múltiplementes conexas. Consideremos una región como la descrita en la figura 1.5 cuadrante II, es claro que podemos circular la integral en los siguientes contornos I Z Z Z Z Z dz f (z) = dz f (z) ≡ dz f (z)+ dz f (z)+ dz f (z)+ dz f (z) = 0 C y como ABDEAF GHF A R ABDEA AF F GHF FA R AF dz f (z) = − F A dz f (z) entonces Z Z dz f (z) + dz f (z) = 0 ABDEA F GHF I ⇔ I dz f (z) + C1 dz f (z) = 0 C2 24 1.5. TEOREMA INTEGRAL DE CAUCHY con lo cual se nota que para regiones múltiplemente conexas, a pesar que las circulaciones son opuestas, el “observador” que circula por C1 y C2 siempre tiene la región R a su izquierda. Siguiendo con la reflexión anterior, podemos invertir el sentido de la circulación en el contorno C2 con lo cual I I I I dz f (z) − dz f (z) = 0 ⇔ dz f (z) = dz f (z) C1 C2 C1 C2 r Es decir, que si f (z) es analı́tica en una región R, da igual cualquier recorrido por las fronteras de una región y el valor de la integral permanecerá inalterado. I dz f (z) = C1 n I X j=1 in a Más aún, este resultado puede extenderse a regiones con n huecos de tal forma que, tal y como ilustra en en la figura 1.5 cuadrante III dz f (z) Cj m Con lo cual estamos afirmando que, dada una región que contiene un número finito (¿numerable?) n de singularidades, la integral a lo largo del contorno que encierra la región R es equivalente a la suma de las integrales que encierran cada una de las n singularidades. Pr eli Enunciaremos sin demostración el Teorema de Morera4 , también conocido como el teorema inverso de Cauchy. Teorema de Morera: Si una función f (z) es continua en una región R encerrada por un contorno C y H dz f (z) = 0 entonces f (z) es analı́tica en R. C Ejemplo Considere la función definida en una región R f (z) = 1 z − z0 con z0 fuera de la región R z0 dentro de la región R or Si z0 está fuera de la región, entonces f (z) es analı́tica en R, con lo cual el Teorema de Cauchy implica que I dz f (z) = 0 Bo rr ad C Si z0 está dentro de la región, entonces f (z) no es analı́tica en R por cuanto existe una singularidad z = z0 . Si consideramos C el contorno que bordea a R, como una circunsferencia centrada en z = z0 y Γ otra circunsferencia que aisla a z0 con un radio |z − z0 | = (esta situación se ilustra en la figura 1.6 cuadrante I). Entonces, si hacemos z − z0 = z̃ = eiθ el Teorema de Cauchy implica I C 4 Pueden dz = z − z0 I Γ dz = z − z0 Z 0 2π ieiθ dθ =i eiθ Z 2π dθ = 2πi 0 consultar la demostración en la referencia [Arfken, Weber y Weber 2000]. 25 m in a r 1.5. TEOREMA INTEGRAL DE CAUCHY 1.5.3. Pr eli Figura 1.6: Circulaciones y Polos Fórmula integral de Cauchy El ejemplo de la sección anterior nos lleva a una de las expresiones más útiles e importantes del análisis complejo: La Fórmula Integral de Cauchy, la cual dice que si f (z) es analı́tica en una región R encerrada por un contorno C y consideramos un punto z = z0 contenido en esa región, entonces I 1 f (z) dz = f (z0 ) 2iπ C z − z0 Para probar esta afirmación supongamos una vez más un circuito en encierra al polo z = z0 (ver figura 1.6 cuadrante II). Con lo cual, como f (z) es analı́tica en una región, el Teorema de Cauchy nos garantiza I C f (z) dz 1 = z − z0 2iπ I Γ f (z) dz z − z0 1 ⇒ 2iπ or 1 2iπ iθ si z−z0 = re Z 0 2π f (z0 + reiθ )rieiθ dθ 1 = iθ re 2π Z 2π f (z0 +reiθ )dθ 0 Bo rr ad si hacemos r → 0 tendremos que I I Z 2π Z 2π f (z) dz f (z) dz 1 1 1 1 iθ f (z0 + re )dθ = lı́m f (z0 + reiθ )dθ = f (z0 ) = = lı́m r→0 2π 0 2iπ C z − z0 2iπ Γ z − z0 2π 0 r→0 Observaciones Surgen también observaciones al respecto Obvio que es válido para regiones múltiplemente conexas y es fácil demostrarlo. Se lo dejamos al lector como ejercicio. Si reacomodamos la expresión para la forma integral podemos hacer que esa fórmula sea válida para todo z I 1 f (ζ) dζ f (z) = 2iπ C ζ − z 26 1.5. TEOREMA INTEGRAL DE CAUCHY Más aún, veremos que es fácil generalizar esta fórmula para derivdas de funciones, vale decir I n! f (z) dz f (n) (z0 ) = 2iπ C (z − z0 )n+1 in a tal y como se muestra en la figura 1.6, cuadrante III tenemos que I I 1 f (z) dz 1 f (z) dz 0 f (z0 ) = lı́m = h→0 2iπ C (z − z0 − h)(z − z0 ) 2iπ C (z − z0 )2 r Veamos el caso más sencillo y demostremos que para n = 1 I I f (z0 + h) − f (z0 ) 1 f (z) dz 1 f (z) 1 1 0 0 ⇒ f (z0 ) = lı́m f (z0 ) = = lı́m − dz h→0 h→0 2iπ C h 2iπ C (z − z0 )2 h z − z0 − h z − z0 m Pero mucho más interesante hubiera sido “derivar respecto a una constante”. Este truco implica que I I I 1 f (ζ) dζ 1 ∂ n f (ζ) n! f (ζ) dζ (n) f (z) = (1.4) ⇒ f (z) = dζ = 2iπ C ζ − z 2iπ C ∂z n ζ − z 2iπ C (ζ − z)n+1 Pr eli Esta fórmula es muy util para calcular integrales. Considere, por ejemplo la siguiente integral I e2ζ dζ 2iπ (3) 8iπ −2 I= ≡ f (−1) con f (z) = e2z ⇒ I = e 4 (ζ + 1) 3! 3 C donde hemos supuesto que el contorno C encerraba el punto z = −1, porque de otro modo la función e2z serı́a analı́tica y la integral se anuları́a por el Teorema de Cauchy. (z + 1)4 Ejemplos 1. Evaluar 1 I= 2πi Z C ez dz , para los entornos: C: |z| = 3 y C: |z| = 1 . z−2 or El entorno |z| = 3 contiene en su interior al punto z0 = 2, esto implica que: Z ez 1 dz = e2 . 2πi C z − 2 Bo rr ad Para el entorno |z| = 1, vemos que el punto z0 = 2 no está contenido en ese entorno, esto significa que el integrando es una función analı́tica en toda la región. Por lo tanto: Z 1 ez dz = 0. 2πi C z − 2 2. Evaluar Z I= C 1 dz , para los entornos: C1 : |z − i| = 2 , C2 : |z| = 3 y C3 : |z + i| = 2 . z2 + 4 La integral puede ser escrita de la siguiente manera: Z 1 I= dz . C (z + 2i)(z − 2i) 27 1.5. TEOREMA INTEGRAL DE CAUCHY Para el contorno |z − i| = 2, tenemos que éste contiene en su interior al punto z0 = 2i. Si escribimos la integral como Z 1 z+2i I= dz , C z − 2i la función 1/(z + 2i) es analı́tica dentro de C1 y entonces por el teorema de Cauchy I= C z − 2i dz = 2πi 1 4i = π . 2 r 1 z+2i Z Pr eli m in a Consideremos ahora el contorno |z| = 3. Este contorno contiene en su interior a los puntos 2i y −2i. Podemos trazar dos contornos adicionales, de radio alrededor de cada punto, entonces: Z Z Z 1 1 1 dz = dz + dz 2+4 2+4 2+4 z z z C C(2i) C(−2i) Z Z 1 1 z+2i z−2i = dz + dz C(2i) z − 2i C(−2i) z + 2i 1 1 = 2πi + 2πi z + 2i z=2i z − 2i z=−2i 1 1 + 2πi − = 0. = 2πi 4i 4i Finalmente, para el contorno |z + i| = 2 se tiene que éste contiene al punto z0 = −2i. Repitiendo lo que hicimos en el primer caso tenemos: Z I= C 1 z−2i z + 2i dz la función 1/(z − 2i) es analı́tica dentro de C3 y entonces por el teorema de Cauchy Z 1 z−2i 1 π dz = 2πi − =− . z + 2i 4i 2 or I= Bo rr ad C 28 r 2 in a Capı́tulo Bo rr ad or Pr eli m Series 29 2.1. SUCESIONES Y SERIES La ruta de este capı́tulo 2.1. Sucesiones y Series dy(x) = 1 − 3x + y(x) + x2 + xy(x) . dx in a r Básicamente el tema central de este curso tiene que ver con el estudio de las ecuaciones diferenciales ordinarias y el desarrollo de métodos para resolverlas. Las ecuaciones diferenciales aparecen ya como tema de estudio, o curiosidad matemática, desde los tiempos de Isaac Newton1 cuando se comenzó con el desarrollo del Cálculo Diferencial. El propio Newton las estudia en su tratado de cálculo diferencial donde discute sus soluciones a través de una expansión en series. Newton estudia la siguiente ecuación diferencial, que por contener una primera derivada llamaremos una ecuación diferencial de primer orden: (2.1) y = 0 + ··· Pr eli el cual corresponde al valor inicial x = 0 en la ecuación (2.1). Al insertar este valor en (2.1) resulta dy(x) = 1 + ··· dx que al integrarse se obtiene y = x + ··· m Para buscar su solución, Newton propone el siguiente método que consiste en suponer una solución que tiene la forma de una serie infinita. El primer término de la serie es: Sustituyendo esta última expresión en (2.1), resulta dy(x) = 1 − 3x + x + · · · = 1 − 2x + 2x2 + · · · dx Integrando esta última ecuación, se obtiene Repitiendo el proceso: or 2 y = x − x2 + x2 + · · · 3 Bo rr ad dy(x) 1 2 = 1 − 2x + x2 − x3 + x4 · · · dx 3 3 ⇒ y = x − x2 + x3 1 2 − x4 + x5 + · · · 3 12 15 Continuando con el método repetidamente se van calculando los diferentes términos de la serie y = x − x2 + x4 x5 x6 x7 x3 − + − + + ··· 3 6 30 45 630 En la figura 2.1 se puede apreciar parte del manuscrito original donde aparece el esquema de solución por series propuesto por Newton. 1 Sir Isaac Newton (1643-1727), fue un cientı́fico, fı́sico, filósofo, inventor, alquimista y matemático inglés, autor de los Philosophiae Naturalis Principia Mathematica, más conocidos como los Principia, donde describió la ley de gravitación universal y estableció las bases de la Mecánica Clásica mediante las leyes que llevan su nombre. Entre sus otros descubrimientos cientı́ficos destacan los trabajos sobre la naturaleza de la luz y la óptica y el desarrollo del cálculo matemático. Newton fue el primero en demostrar que las leyes naturales que gobiernan el movimiento en la Tierra y las que gobiernan el movimiento de los cuerpos celestes son las mismas. Es, a menudo, calificado como el cientı́fico más grande de todos los tiempos, y su obra como la culminación de la revolución cientı́fica. (Tomado de Wikipedia). 30 m in a r 2.1. SUCESIONES Y SERIES Pr eli Figura 2.1: El esquema de Newton Por otra parte, notemos que para cada valor de x y y, la ecuación (2.1) no es más que la derivada y 0 (x), es decir la pendiente, de las soluciones de: y 0 (x) = 1 − 3x + y(x) + x2 + xy(x) . Bo rr ad or De esta manera, con un poco de paciencia, o con algún programa de computación algebraico apropiado, se puede obtener el campo vectorial correspondiente a la ecuación diferencial, como se puede apreciar en la figura 2.2 (figura 2a). En realidad las soluciones se pueden ver como las curvas determinadas por las direcciones indicadas en el campo vectorial, figura 2b. Las aproximaciones que se van obteniendo con el método mostrado anteriormente se pueden observar, junto con la solución verdadera en la Figura 2c. Notemos que todas las aproximaciones son más cercanas entre si cuando x toma valores cada vez más próximos a cero. Comencemos entonces nuestro estudio sobre ecuaciones diferenciales precisamente con las series matemáticas. 2.1.1. Introducción a las sucesiones Para empezar, vayamos a la noción elemental de sucesiones. Básicamente, una sucesión es una colección numerable de elementos, dados en cierto orden, como: 1, 2, 3, 4, . . . , 1, x, x2 , x3 , . . . , a, b, c, d . En matemáticas se puede entender las sucesiones como una aplicación desde los números naturales a cualquier otro conjunto, no necesariamente de la misma naturaleza. Estos números se denominan los términos, elementos o miembros de la sucesión. Siendo más rigurosos, una sucesión se puede definir como una función sobre el conjunto de los números naturales, es decir, que estarı́amos hablando en este caso de una función discreta. 31 2.1. SUCESIONES Y SERIES b (c) 2 2 K 2 K 0 1 1 2 x K2 y 1 y 1 K1 0 1 2 K 1 K 2 0 1 1 K 1 K1 K K2 2 x x K r y(x) 2 1 in a a K 2 2 C1 C2 C3 C4 Sol. Figura 2.2: (a) Representación de los campos vectoriales. (b) Diferentes soluciones para la ecuación diferencial (2.1). m (c) La solución correcta correspondiente al valor inicial y(0) = 0 con las diferentes soluciones aproximadas. Pr eli Es bastante común que se confundan las sucesiones con series matemáticas, veremos que una serie entenderemos es en realidad una suma de términos. Las sucesiones se diferencian de los conjuntos en el hecho de que es importante considerar el orden en que aparecen distribuidos. Además, un mismo término de una sucesión puede aparecer varias veces en posiciones diferentes. Esto significa que las siguientes sucesiones finitas son diferentes: a, b, c, d 6= b, c, d, a . Una sucesión puede contener infinitos elementos y en este caso se denomina una sucesión infinita, por lo tanto, si a cada número entero positivo se le asocia un elemento un , entonces el conjunto ordenado: u1 , u2 , u3 , ...un , . . . . Bo rr ad or define una sucesión infinita. Cada término un tendrá un siguiente término un+1 y por lo tanto no existe un último término. Las sucesiones se pueden expresar de una manera más sencilla definiendo el n-ésimo término, como por ejemplo: 1 un = , n = 1, 2, 3, . . . n cuyos primeros cuatro términos son: 1 1 1 1, , , . 2 3 4 Otra manera de definir sucesiones es por medio de una relación de recurrencia, por ejemplo, para la bien conocida sucesión de Fibonacci la relación de recurrencia es: u1 = u2 = 1 , un+1 = un + un−1 , n ≥ 2, y cuyos primeros términos son: 1, 1, 2, 3, 5, 8, 13, 21, 34, . . . Como curiosidad matemática, podemos ver que existe una función que permite generar los números de Fibonacci, esta función cuando se expande en potencias de x tiene como coeficientes, ¡los números de Fibonacci! x = x + x2 + 2 x3 + 3 x4 + 5 x5 + 8 x6 + 13 x7 + 21 x8 + 34 x9 + · · · f (x) = 1 − x − x2 32 2.1. SUCESIONES Y SERIES También es posible definir una sucesión a través del concepto de función. Se define una función para los enteros positivos, de manera que f (n) es el término n-ésimo de la sucesión para cada n = 1, 2, 3, . . . . Por lo tanto, los términos de las sucesión se escriben como: f (1), f (2), f (3), ...f (n), . . . Las siguientes fórmulas son ejemplos de sucesiones: (−1)n ⇒ −1, 1, −1, 1, −1, . . . π nπ 3π 5π ⇒ sin , sin (π) , sin f (n) = sen , sin (2 π) , sin ... 2 2 2 2 1 3 4 5 6 f (n) = (−1)n 1 + ⇒ −2, , − , , − . . . n 2 3 4 5 r = in a f (n) m Las sucesiones pueden tener la caracterı́stica de ser crecientes o decrecientes. Una sucesión {f (n)} se dice que es creciente si: f (n) ≤ f (n + 1) ∀ n ≥ 1 , es decir, cada término es menor o igual al término siguiente. Y si de impone la condición f (n) < f (n + 1) se denomina estrictamente creciente. Por otro lado, una sucesión se llama decreciente si: ∀ n ≥ 1. Pr eli f (n) ≥ f (n + 1) y estrictamente decreciente si f (n) > f (n + 1). Bo rr ad or Las sucesiones pueden estar acotadas de diferente manera. Diremos que la sucesión {f (n)} es acotada superiormente si existe un número positivo M tal que f (n) ≤ M para todo n. También puede ser acotada inferiormente si existe un número positivo N tal que f (n) ≥ N para todo n. En el caso de cumplirse ambas condiciones hablaremos de una sucesión acotada N ≤ f (n) ≤ M . Podemos hablar de sucesiones monótonas cuando la diferencia entre un término y el que le sigue siempre es del mismo signo y además son del tipo creciente o decreciente. Nos vemos ahora en la necesidad de hablar del significado de los términos convergencia o divergencia de una sucesión. Figura 2.3: Sucesión convergente a cero. La convergencia o divergencia se determina de manera sencilla, como lo indica el siguiente teorema: Teorema: Una sucesión monótona converge si y sólo si es acotada. Revisemos el concepto de convergencia (divergencia). Cuando una sucesión converge, lo que significa es que tiende a un valor particular llamado su lı́mite, diremos en éste caso la sucesión será una sucesión convergente. Las sucesiones que no son convergentes se denominan divergentes. En otras palabras, una sucesión tiene lı́mite si los elementos de la sucesión se hacen cada vez más y más cercanos a algún valor L (llamado lı́mite de la sucesión). Esto significa que dado un número real ε mayor que 33 2.1. SUCESIONES Y SERIES cero, todos menos un número finito de elementos de la sucesión estarán siempre a una distancia a L menor que ε. Matemáticamente es lo siguiente: lı́m f (n) = L . (2.2) n→∞ Si una sucesión f (n) converge, entonces el lı́mite 2.2 existe, es único y la sucesión es acotada. En la figura 2.3 podemos ver una representación gráfica para la sucesión: r n+1 . 2n2 in a f (n) = Esta serie converge, y es fácil ver que: n+1 = 0. 2n2 |xm − xn | < ε . Pr eli También existen las sucesiones oscilantes, las cuales suelen ser divergentes por no tener lı́mite. Estas sucesiones presentan términos que se alternan de manera indefinida. Cuando cambian de signo se llaman sucesiones alternadas, como la que mencionamos anteriormente f (n) = (−1)n ⇒ −1, 1, −1, 1, −1, . . . . Un ejemplo particular de sucesiones oscilantes convergentes es la sucesión de Cauchy. Una sucesión de números reales: x1 , x2 , x3 , . . . se denomina una sucesión de Cauchy fundamental si para todo número positivo ε existe un entero positivo M tal que para todos los números naturales n, m > M se cumple: m lı́m n→∞ Figura 2.4: Sucesión de Cauchy. or En este tipo de sucesiones los elementos se la sucesión se vuelven arbitrariamente cercanos entre sı́ a medida que la sucesión progresa, como se puede ver en la figura 2.4. Esta condición, necesaria para hablar de convergencia, se llama la condición de Cauchy. Existe una serie de resultados interesantes que podemos mencionar: Bo rr ad Toda sucesión convergente es de Cauchy. Toda sucesión de Cauchy está acotada. Para los números reales R, toda sucesión de Cauchy es convergente. Toda sucesión convergente está acotada. A medida que n se hace cada más grande, el valor de una sucesión {f (n)} o {un } se puede comportar de una manera bastante particular. Por ejemplo, si un = 1/n, es claro que un converge a cero a medida que n → ∞. Pero si un = eαn , el lı́mite dependerá del valor de α. Por lo tanto, la pregunta a responder tiene que ver con el hecho de saber si los términos de un tienden, o no, a un lı́mite finito cuando n crece indefinidamente. 34 2.1. SUCESIONES Y SERIES 2.1.2. Acercándonos al concepto de series Con el concepto de sucesiones es posible definir una expresión analı́tica que formalmente tiene aspecto de suma, que contiene un número infinito de sumandos y que denominaremos serie infinita. Si {un } (con n = 1, 2, 3, . . . ) es una sucesión infinita de números reales o complejos, es posible formar una nueva sucesión {sn } a partir de tomar sumas parciales de {un }. Veamos el procedimiento: s2 = u1 + u2 , s3 = u1 + u2 + u3 , ... sn = u1 + u2 + u3 + · · · un = n X i=1 ui . r s1 = u1 , in a Es decir, partimos con s1 = u1 y decimos que para todo n ∈ N se tiene que sn+1 = sn + un+1 . La sucesión {sn } la llamaremos la serie de término general an definida a través de la sucesión {un } y la representaremos por: ∞ X un . (2.3) Al número sn = n X m n=1 ui i=1 Pr eli le denominaremos la suma parcial de orden n de la serie (2.3). Es importante aclarar que una serie es una sucesión cuyos términos se obtienen al sumar de manera consecutiva lo términos de una sucesión diferente. Si la sucesión sn tiende a un lı́mite S, la serie infinita ∞ X ui , i=1 se dice que es convergente y converge al valor S, el cual es único. Entonces se puede escribir: S = u1 + u2 + u3 + · · · + un + · · · = ∞ X n→∞ n→∞ n X ui . (2.4) i=1 or n=1 un = lı́m {sn } = lı́m El número S se denomina la suma de la serie infinita y debe ser entendido como el lı́mite de la sucesión. Lo anterior se puede formalizar diciendo que la condición para la existencia de un lı́mite S es que para cada ε > 0 existe un número N = N (ε) ∈ N tal que: Bo rr ad |S − si | < ε para i > N ⇒ |sj − si | < ε para, todo i, j > N . Esta afirmación se denomina criterio de Cauchy2 sobre la convergencia de las series parciales, y viene a ser la condición necesaria y suficiente para que una suma parcial si converja a medida que avanzamos en los términos de la serie. Se dirá que la serie diverge si el valor de la sumatoria aumenta indeteniblemente. La serie también puede oscilar: si = i X (−1)n = 1 − 1 + 1 − 1 + · · · + (−1)i + · · · n=1 2 Augustin Louis Cauchy Parı́s, 1789 - 1857, matemático francés pionero en los estudios de análisis (real y complejo) y de la teorı́a de los grupos de permutación. Cauchy hizo aportes importantes en los criterios de convergencia y divergencia de series infinitas, ası́ como también, en ecuaciones diferenciales, determinantes, probabilidades y fı́sica matemática 35 2.1. SUCESIONES Y SERIES Aquı́ sn será 0 o 1 y por lo tanto el lı́mite no existe. La serie cuyos términos son tomados a partir del (n + 1)-ésimo término, y en el mismo orden, de la serie (2.4) se llama el resto n-ésimo de la serie (2.4) y se denota por: ∞ X uk ⇒ un+1 + un+2 + un+3 + · · · . (2.5) k=n+1 rn = uk , (2.6) in a ∞ X r Si el resto n-ésimo de la serie (2.4) converge, entonces su suma: k=n+1 se denomina el resto de la serie. De las series nos interesa conocer cuánto suman. Es decir, cuál es el valor de si para una serie finita donde i = N . Pero también estamos interesados en conocer cuánto suma una serie infinita. Series elementales m 2.1.3. Pr eli Probablemente, de cursos anteriores hemos conocido algunas series emblemáticas, estudiemos aquı́ algunas de estas series: Serie aritmética Seguramente con anterioridad hemos oı́do hablar de progresiones aritméticas. Ellas son, sencillamente series de la forma: sN = N −1 X (a + nd) = a + (a + d) + (a + 2d) + (a + 3d) + (a + 4d) + · · · + [a + (N − 1)d] , n=0 donde a y d son números reales o complejos. Al desarrollar la serie anterior en orden inverso y sumarla con la serie original obtemos: resultando: +(a + d) + [a + (N − 2)d] +(a + 2d) + [a + (N − 3)d] or sN = a sN = [a + (N − 1)d] Bo rr ad 2sN = N [a + a + (N − 1)d] ⇒ sN = +(a + 3d) +··· + [a + (N − 4)d] + · · · + [a + (N − 1)d] +a i Nh Primer Término + Último Término 2 obviamente, si N → ∞ la serie diverge. Serie Geométrica De ésta serie también sabemos que: sN = N X xn = 1 + x + x2 + x3 + · · · + xN , n=0 y si realizamos la resta sN − xsN , tenemos sN = 1 +x xsN = x +x2 +x2 +x3 +x3 +x4 +··· +··· +xN +xN +1 36 2.1. SUCESIONES Y SERIES Es inmediato comprobar que: (1 − x)sN = 1 − xN +1 ⇒ sN = 1 − xN +1 1 xN +1 = − , 1−x 1−x 1−x Notemos que si x 6= 1 podemos reescribir la serie anterior como: n=0 1 xn+1 − 1−x 1−x Por lo tanto podemos ver que si |x| < 1 tendremos que la suma será: n ∞ X X xn+1 1 = 0 ⇒ lı́m xn = . xn = n→∞ 1 − x n→∞ 1 − x n=0 n=0 Por otro lado, la serie divergirá (u oscilará) si |x| > 1. Series Aritmético-geométricas (2.8) m lı́m (2.7) r xn = 1 + x + x2 + x3 + · · · + xn = in a n X sN = N −1 X Pr eli Estas series, un poco más exóticas y como su nombre lo sugiere son una combinación de las anteriores. (a + nd)xn = a + (a + d)x + (a + 2d)x2 + (a + 3d)x3 + (a + 4d)x4 + · · · + [a + (N − 1)d] xN −1 . n=0 Utilizando la misma estrategia que aplicamos a las series geométricas (se deja como ejercicio al lector) se llega a encontrar el valor, nada intuitiva, de la suma S: sN = xd(1 − xN −1 ) a − [a + (N − 1)d] xN + . 1−x (1 − x)2 or Otra vez, si |x| < 1, entonces cuando N → ∞ la serie converge a: S= Bo rr ad Serie Armónica a xd + . 1 − x (1 − x)2 Quizá no la conocı́amos con este nombre (y menos por sus propiedades) pero seguro nos la hemos tropezado. ∞ X 1 1 1 1 1 1 = 1 + + + + + ··· + ··· n 2 3 4 5 n n=1 Esta serie infinita resulta ser engañosa, en apariencia parece converger, pero no es ası́. Además notemos lo siguiente: 220 20220 20 X X 1 X 1 1 ≈ 3, 5977 , ≈ 5, 9731 , ≈ 10, 492 , n n n n=1 n=1 n=1 la suma de los primeros 20 términos es más grande que la suma de los siguientes ¡200 términos! y da la impresión de que la serie crece muy lentamente hacia algún valor lı́mite. 37 2.1. SUCESIONES Y SERIES Si analizamos con más cuidado, veremos que hay sutilezas. Acomodemos los términos de la siguiente forma: ∞ X 1 1 1 1 1 1 1 1 1 1 1 + + +··· =1+ + + + + + + + ··· + n 2 3 4 5 6 7 8 9 10 16 |{z} n=1 {z } | {z } | {z } | σ0 σ1 σ2 σ3 σ0 σ1 σ2 n + in a ∞ X 1 1 1 1 1 1 1 1 + + =1+ + + + + n 1 + 1 2 + 1 2 + 2 4 + 1 4 + 2 4 + 3 4 + 4 n=1 | {z } | {z } | {z } r la expresión anterior puede ser reescrita como: 2 X 1 1 1 1 +··· + + + ··· + + ··· n 8+1 8+2 8+8 2 +j j=1 {z } | σ3 1 7 1 ; σ1 = > ; 2 12 2 y claramente diverge ya que: σ0 = σ2 = 533 1 > ; 840 2 95549 1 > ;··· 144144 2 1 1 1 1 + + + + ··· 2 2 2 2 Pr eli 1 + σ0 + σ1 + σ2 + σ3 + · · · > 1 + σ3 = m con lo cual: Esta prueba aparentemente se le debe a Nicole D’Oresme3 . Ahora bien, notemos que para todo n ∈ N resulta: Z n 1 dx = ln(n) ⇒ ln(n) x Z 3 Z 4 Z k+1 n−1 Z k+1 dx dx dx dx X dx + + + ··· + = x x x x x 1 2 3 k k k=1 Z n−1 k+1 X dx 1 1 1 ≤ < 1 + + + ··· + . k 2 3 n k Z = 2 Es decir 1 1 1 ≥ lı́m ln(n) = +∞ . lı́m 1 + + + · · · + n→∞ n→∞ 2 3 n Bo rr ad Por lo tanto: or k=1 ∞ X 1 = +∞ . n n=1 Una de las generalizaciones de la serie armónica es la función Zeta de Riemann4 ∞ X 1 1 1 1 ζ(z) = = z + z + z + ··· , z n 1 2 3 n=1 <(z) > 1 . 3 Nicole D’Oresme (1323-1382) Matemático francés que inventó la geometrı́a coordenada antes de Descartes. Sobre la serie armónica consulte: http://mathworld.wolfram.com/HarmonicSeries.html 4 Georg Friedrich Bernhard Riemann (1826 Hanover, Alemania - 1866 Selasca, Italia) Matemático alemán cuyas ideas sobre las geometrı́a del espacio han tenido un profundo impacto en el desarrollo de la fı́sica teórica. Igualmente clarificó la noción de integral al introducir el concepto de lo que hoy se conoce como integral de Riemann. Más detalles en http: //mathworld.wolfram.com/RiemannIntegral.html. 38 2.1. SUCESIONES Y SERIES Esta última expresión es también un ejemplo donde a partir de una serie se define una función, en este caso una función analı́tica. Aquı́ z puede ser un número complejo, z = a + ib, y la serie converge cuando su parte real es mayor o igual a 1. La función Zeta de Riemann viene también definida por: Z ∞ Z ∞ z −x xz 1 x e ζ(z) = dx , donde Γ(z) = dx . Γ(z) 0 x (ex − 1) x 0 r Γ(z) es la función gamma. sn = sn−1 + an ≥ sn−1 2.1.4. m de manera que las sumas parciales sn son una sucesión monótona creciente. in a Las mayorı́a de las series que hemos mencionado P con anterioridad tienen la particularidad de que todos sus términos son positivos, es decir, para la serie an se tiene que an ≥ 0, y por lo tanto: Derivación de series geométricas elementales Pr eli Las series infinitas se encuentran entre las más poderosas herramientas que se introducen en un curso de cálculo elemental. Son un ejercicio bastante inteligente para la manipulación de limites y son una buena herramienta para el estudio de las ecuaciones diferenciales, en el desarrollo de métodos numéricos y para estimar el comportamiento de funciones. Consideremos la serie geométrica: a + az + az 2 + az 3 + · · · + az n + · · · con |z| < 1. Este es uno de los pocos ejemplos donde se puede encontrar el término de las sumas parciales a través de una expresión sencilla. Esta serie se puede tomar como punto de partida para encontrar la suma de un gran número de series interesantes. Consideremos el caso a = 1 y z = x, como en la ecuación (2.8). or 1 + x + x2 + x3 + · · · + xn + · · · = 1 , |x| < 1 . 1−x (2.9) Si cambiamos x por x2 en (2.9) resulta: Bo rr ad 1 + x2 + x4 + x6 + · · · + x2n + · · · = 1 , |x| < 1 . 1 − x2 (2.10) Si se multiplica (2.10) por x se obtiene: x + x3 + x5 + x7 + · · · + x2n+1 + · · · = x , |x| < 1 . 1 − x2 (2.11) 1 , |x| < 1 . 1+x (2.12) 1 , |x| < 1 . 1 + x2 (2.13) Si cambiamos x por −x en (2.9) resulta: 1 − x + x2 − x3 + · · · + (−1)n xn + · · · = Si cambiamos x por x2 en (2.12) resulta: 1 − x2 + x4 − x6 + · · · + (−1)n x2n + · · · = 39 2.1. SUCESIONES Y SERIES Si se multiplica (2.13) por x se obtiene: x − x3 + x5 − x7 + · · · + (−1)n x2n+1 + · · · = x , |x| < 1 . 1 + x2 (2.14) Si cambiamos x por 2x en (2.10) resulta: 1 1 , |x| < . 2 1 − 4x 2 1 + 2x + 3x2 + · · · + nxn−1 + · · · = in a Si se deriva (2.9) entonces: 1 , |x| < 1 . (1 − x)2 Si se integra (2.12): x2 x3 x4 (−1)n xn+1 + − + ··· + + · · · = ln(1 + x) , |x| < 1 . 2 3 4 n+1 m x− Si se integra (2.13) ahora resulta: x3 x5 x7 (−1)n x2n+1 + − + ··· + + · · · = arctan(x) , |x| < 1 . 3 5 7 2n + 1 Pr eli x− (2.15) r 1 + 4x2 + 16x4 + · · · + 4n x2n + · · · = (2.16) (2.17) (2.18) Siguiendo a Laplace, quien dijo que habı́a que leer a Euler: “Read Euler, read Euler. He is the master of us all ”, podemos hacer lo siguiente con la serie (2.17): ln(1 + x) = x − x2 x3 x4 + − + ··· 2 3 4 (2.19) Es bueno acotar que Euler utilizó esta expresión para construir ¡tablas de logaritmos! Ahora hagamos lo siguiente, cambiemos x por −x en la ecuación anterior: or ln(1 − x) = −x − x2 x3 x4 − − − ··· 2 3 4 (2.20) restando (2.19) menos (2.20): Bo rr ad x2 x3 x4 x2 x3 x4 ln(1 + x) − ln(1 − x) = x− + − + · · · − −x − − − − ··· 2 3 4 2 3 4 2x3 2x5 = 2x + + + ··· 3 5 Es decir: ln 1+x 1−x = 2x + 2x3 2x5 + + ··· 3 5 Para valores pequeños de x, digamos x = 1/3 resulta: ln 1+ 1− 1 3 1 3 3 5 2 13 2 13 1 = ln (2) = 2 + + + · · · ≈ 0,6930041152 3 3 5 40 2.1. SUCESIONES Y SERIES Euler notó la siguiente conexión entre logaritmos y las series armónicas. Cambiando x por 1/n en (2.19) se obtiene 1 1 1 1 1 ln 1 + = − 2 + 3 − 4 + ··· n n 2n 3n 4n por lo tanto: 1 1 1 1 1 = ln 1 + + 2 − 3 + 4 − ··· n n 2n 3n 4n n+1 n Ahora bien, para diferentes valores de n se obtienen las siguientes relaciones in a 1 = ln n r y para valores de n muy grandes, se cumple que: 1 1 1 ln (2) + − + − · · · 2 3 4 1 3 1 1 1 n=2 ⇒ = ln + − + − ··· 2 2 8 24 64 1 4 1 1 1 n=3 ⇒ = ln + − + − ··· 3 3 18 81 324 .. .. .. .. .. . . . . . n+1 1 1 1 1 = ln + 2 − 3 + 4 − ··· n n 2n 3n 4n = Pr eli m n=1 ⇒ 1 or Si sumamos columna por columna resulta: n X 3 4 n+1 1 = ln (2) + ln + ln + · · · + ln k 2 3 n k=1 1 1 1 1 1 1 1 1 + 1 + + + ··· + 2 − 1+ + + ··· + 3 2 4 9 n 3 8 27 n 1 1 1 1 + + + ··· + 4 − ··· 1+ 4 16 81 n Bo rr ad Es fácil ver que la suma de los logaritmos de la primera lı́nea se puede escribir como el logaritmo de sus productos, es decir, 3 4 n+1 3 4 n+1 ln (2) + ln + ln + · · · + ln = ln 2 ··· = ln (n + 1) . 2 3 n 2 3 n De manera que, y siguiendo a Euler que llevó a cabo un estimado para los términos sobrantes, resulta lo siguiente: n X 1 ≈ ln (n + 1) + 0,577218 . k k=1 Para valores de n muy grandes la suma de las serie armónica es igual a un logaritmo más una constante. Esta constante es actualmente llamada la Constante de Euler y denotada por la letra γ: " n # X1 γ = lı́m − ln (n + 1) . (2.21) n→∞ k k=1 41 2.1. SUCESIONES Y SERIES La constante de Euler juega un papel central en otras ramas de las matemáticas, por ejemplo, en el análisis real aparece como: Z ∞ γ=− e−x ln (x) dx . 0 2.1.5. El método de la diferencia r A veces para una serie finita, {sN }, uno encuentra que para el término n-ésimo se tiene que: in a an = f (n) − f (n − 1) . para alguna función f (n). En ese caso es inmediato demostrar lo siguiente: an = n=1 N X f (n) − n=1 N X f (n − 1) = f (N ) − f (0) . n=1 Por ejemplo, si tenemos la serie: N X Pr eli 1 , n(n + 1) n=1 se puede ver que: an = (2.22) m sN = N X 1 1 1 1 =− + ⇒ f (n) = − , n(n + 1) n+1 n n+1 por lo tanto, la suma se podrá expresar como: sN = f (N ) − f (0) = − 1 N +1= . N +1 N +1 Se puede ir más allá si identificamos que el término n-ésimo tiene la forma: an = f (n) − f (n − m) , or por lo tanto, la suma de la serie se puede escribir como: sN = N X an = Bo rr ad n=1 N X n=1 f (n) − N X f (n − m) . (2.23) n=1 Hay que hacer notar que el argumento n − m puede ser positivo o negativo. Con lo cual el método de la diferencia resulta versátil y muy útil cuando se requiere encontrar la suma de series de variada dificultad. Podemos ver que: Si m = 1 sN = N X an = f (N ) − f (0) . n=1 como la ecuación (2.22). Si m = 2 sN = N X an = f (N ) + f (N − 1) − f (0) − f (−1) . n=1 42 2.1. SUCESIONES Y SERIES Si m = 3 sN = N X an = f (N ) + f (N − 1) + f (N − 2) − f (0) − f (−1) − f (−2) . n=1 Consideremos la siguiente serie y su expansión en fracciones simples N X se tiene que el término n-ésimo es: an = 1 1 1 1 =− + ⇒ f (n) = − , n(n + 2) 2(n + 2) 2n 2(n + 2) de manera que: 1 1 − − , 2(n + 2) 2n m an = f (n) − f (n − 2) = − de forma y manera que, como m = 2, resulta: 3 1 = f (N ) + f (N − 1) − f (0) − f (−1) = − 4 2 1 1 + N +2 N +1 = N (3 N + 5) . 4 (N + 1) (N + 2) Pr eli sN in a r 1 , n(n + 2) n=1 Ahora bien, con alguna frecuencia surgen las series de números naturales. La más simple es: sN = 1 + 2 + 3 + · · · + N = N X n= n=1 N (N + 1) , 2 es decir, una serie aritmética de razón d = 1. Más interesante puede ser la serie de cuadrados de números enteros: or sN = 1 + 22 + 32 + · · · + N 2 = N X n=1 n2 = N (N + 1)(2N + 1) . 6 Bo rr ad Este resultado, nada intuitivo, surge de la aplicación ingeniosa del método de la diferencia. Tal y como hemos dicho, se trata de encontrar que el elemento genérico de la serie sea: an = f (n) − f (n − 1) = n2 para alguna función. Suponga una función del tipo f (n) = n(n + 1)(2n + 1) ⇒ f (n − 1) = (n − 1)n(2n − 1) , entonces: f (n) − f (n − 1) = n(n + 1)(2n + 1) − (n − 1)n(2n − 1) = 6n2 , con lo cual: an = 6n2 ⇒ sN = N X n=1 an = f (N ) − f (0) N (N + 1)(2N + 1) = . 6 6 43 2.1. SUCESIONES Y SERIES 2.1.6. Sumando por analogı́a Como siempre, intentaremos proceder por analogı́a. La intención es expresar una serie complicada como sumas de series conocidas. Considere el siguiente ejemplo: N X (n + 1)(n + 3) = n=1 con lo cual: sN = 2.1.7. N N N X X X n2 + 4n + 3 = n2 + 4n + 3, n=1 n=1 n=1 n=1 N (2N 2 + 15N + 31) N (N + 1)(2N + 1) N (N + 1) + + 3N = . 6 2 6 r N X in a sN = Algebra elemental de series ∞ X u= an ∞ X y v= n=0 bn , n=0 con lo cual la suma de esas series será: ∞ X an + ∞ X bn = ∞ X (an + bn ) . Pr eli u+v = m Las series se suman, se igualan y se multiplican. Para ello es importante que tengamos cuidado con los ı́ndices y sus valores. Consideremos un par de series infinitas: n=0 n=0 n=0 Los ı́ndices son mudos y se acomodan para ser sumados. Para sumar series es imperioso que los ı́ndices de cada serie comiencen con el mismo valor, esto es: ∞ X an + n=0 ∞ X bj = j=1 ∞ X (an−1 + bn ) = a0 + n=1 ∞ X (an + bn ) . n=1 Nótese que hemos hecho los siguientes cambios: j → n y n → n − 1. Algo parecido ocurre cuando las series se igualan: n=0 bn = ∞ X n=1 nan ⇒ ∞ X bn = ∞ X (k + 1)ak+1 ⇐⇒ or ∞ X n=0 ∞ X [(n + 1)an+1 − bn ] = 0 . n=0 k=0 Bo rr ad Para finalizar se puede comprobar que las series también se pueden multiplicar: uv = ∞ X n=0 an ∞ X bn = n=0 ∞ X cn , n=0 donde: cn = a0 bn + a1 bn−1 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0 . Cuando las sucesiones comprenden sumas y productos de otras sucesiones, es decir, sı́ uk y vk son dos sucesiones con uk → U y vk → V cuando k → ∞, entonces se cumple que: 1. si a y b son números independientes de k, entonces auk + bvk → aU + bV cuando k → ∞. 2. uk vk → U V para k → ∞. 3. si V 6= 0 entonces uk /vk → U/V a medida que k → ∞. 4. si uk < vk ∀ k > N entonces U ≤ V cuando k → ∞. 44 2.1. SUCESIONES Y SERIES P∞ Teorema: P Si la serie n=1 un converge, entonces cualquiera de sus restos converge. Si cualquier resto ∞ de la serie n=1 un converge, entonces la propia serie también converge, y si además: S= ∞ X un , si = n=1 ∞ X un , n=1 ri = ∞ X un . n=i+1 Entonces: r S = si + ri . i→∞ i→∞ Series telescópicas m 2.1.8. in a Se tiene entonces que es posible agregar o quitar un número finito de términos a la serie dada y esta operación no influirá sobre su convergencia. También se desprende del teorema anterior que si la serie converge entonces su resto tiende a cero: lı́m ri = lı́m (S − si ) = 0 . Una propiedad importante de las series finitas es la propiedad denominada telescópica: k=1 (ak − ak+1 ) = a1 − an+1 , (2.24) Pr eli n X P para el caso de series infinitas, se consideran aquellas series un donde cada término se puede expresar como una diferencia de la forma: un = an − an+1 . Las series telescópica son series cuyas sumas parciales se van cancelando de manera tal que al final resulta un número fijo de términos: (a1 − a2 ) + (a2 − a3 ) + (a3 − a4 ) + · · · + (an − an+1 ) = a1 − an+1 . or Teorema: Sean {un } y {an } dos sucesiones de números reales o complejos tales que: un = an − an+1 P un converge si y sólo si la sucesión {an } converge, en cuyo caso se tiene: Bo rr ad Entonces la serie para n = 1, 2, 3, ... . ∞ X un = a1 − L donde L = lı́m an . n→∞ n=1 Consideremos la siguiente serie: ∞ X 1 . 2+n n n=1 Podemos demostrar que: un = n2 1 1 1 = − , +n n n+1 45 2.1. SUCESIONES Y SERIES Es fácil verificar que: N X 1 n=1 n − 1 1 1 1 1 1 1 1 1 1 1 = 1− + − + − + − + ··· + − =1− . n+1 2 2 3 3 4 4 5 N N +1 N +1 in a r Pero si aplicamos el teorema anterior, tenemos entonces que: an = 1/n , a1 = 1 y además ya vimos que la sucesión an = 1/n converge: 1 = 0. L = lı́m an = lı́m n→∞ n→∞ n Por lo tanto: ∞ X 1 = 1. 2+n n n=1 m Las series pueden llegar a tener comportamientos extraños, como se ve con la siguiente serie armónica alternada: ∞ X 1 1 1 1 1 (−1)(n−1) = 1 − + − + − + ··· , n 2 3 4 5 6 n=1 Recordemos que anteriormente estudiamos la serie geométrica (2.7), la cual volveremos a escribir pero está vez intercambiando x → −x, de manera que nos queda de la siguiente forma: 1 xn+1 = . 1+x 1+x Pr eli 1 − x + x2 − x3 + · · · + (−1)n xn + (−1)n+1 (2.25) Ecuación que es válida para todo n ∈ N y x 6= 1. Integrando (2.25) entre 0 y 1 se obtiene: Z 1 1 1 1 1 n n+1 1 − + − + · · · + (−1) + (−1) 2 3 4 n+1 0 Z 1 n+1 X (−1)(k−1) + (−1)n+1 k 0 k=1 or Por lo tanto: ln(2) − n+1 X k=1 (−1)(k−1) = (−1)n+1 k Z 0 1 xn+1 dx 1+x = ln(2) xn+1 dx 1+x = ln(2) . xn+1 dx . 1+x Bo rr ad Se puede ver también que: Z 0 1 xn+1 dx ≤ 1+x Entonces: Z x n→∞ n+1 0 " lı́m n+1 1 ln(2) − n+1 X k=1 X (−1)(k−1) 1 1 ⇒ ln(2) − = dx = n+2 k n+2 k=1 (−1)(k−1) k # = 0 ⇒ ln(2) = ∞ X (−1)(n−1) . n n=1 La suma tienen el valor de S = ln(2). Se puede mostrar lo que sucede si se arreglan los términos de la manera siguiente: 1 1 1 1 1 1 1 1 1 − + + − + + − + + ··· , S =1+ 3 2 5 7 4 9 11 6 13 46 2.1. SUCESIONES Y SERIES ∞ X x3 x4 xn x2 + + + ··· = . 2! 3! 4! n! n=0 (2.26) in a ex = 1 + x + r la cual contiene exactamente los mismos términos, aunque en orden diferente, pero ahora la serie converge a S = 32 ln(2). Esta aparente contradicción surge cuando pasamos por alto el hecho de que al sumar los términos de una serie no se hace la suma con los infinitos términos, lo que hacemos es calcular un lı́mite de una sucesión de términos que se obtienen sumando de manera consecutiva los términos de otra sucesión dada, es decir, lo que se hacemos es aplicar un proceso de lı́mite. Para que al sumar no importe el orden de los sumandos tendrı́amos que sumar los infinitos términos de la sucesión. A pesar de que las series pueden presentar estos comportamientos extraños, las series resultan muy buenas representaciones aproximadas de funciones, por ejemplo: La suma directa de una serie infinita no es un método práctico para estudiar su convergencia, por ejemplo, la serie ∞ X ln(k) , k2 k=2 2.1.9. Pr eli m converge al valor 0, 937548..., pero para obtener estos primeros cinco decimales se tendrı́a que sumar unos 107 términos! Es necesario entonces desarrollar algunos criterios que nos permitan saber si una serie puede llegar a converger o no. Ejemplos 1. Dada la sucesión {un } de números reales, se llama sucesión de Cauchy o sucesión fundamental, en el caso de que satisfaga el requisito siguiente: dado un número real r positivo se pueda conseguir dos enteros positivos p y q tal que de p > n0 y q > n0 se deduzca que |cp − cq | < r?. En los números reales toda sucesión de Cauchy converge a algún lı́mite. Esta particularidad implica un resultado importante en el análisis real que es la caracterización de Cauchy para la convergencia de sucesiones: 2. Demuestre que ∞ X 1 =1 n 2 n=1 Bo rr ad Se tiene que or Una sucesión de números reales es convergente (en los reales) si y solo si es de Cauchy. y que al multiplicar por restando 1 2 sn = 1 1 1 1 + + 3 + ··· + n , 2 22 2 2 se obtiene 1 1 1 1 1 sn = 2 + 3 + 4 + · · · + n+1 , 2 2 2 2 2 1 1 1 1 1− sn = − n+1 = 1 − n . 2 2 2 2 por lo tanto lı́m n→∞ 1 1 − n = 1, 2 la serie converge. 47 2.1. SUCESIONES Y SERIES 2.1.10. Practicando con Maxima Maxima puede calcular fácilmente sumas numéricas finitas, pero cuando le pedimos calcular sumas simbólicas infinitas podrá calcularlas solo en casos particulares. Es útil al trabajar con series utilizar la librerı́a simplify sum Veamos algunos ejemplos sencillos de sumas (%i1) load(simplify_sum)$ in a ( %o2) N X r (%i2) sum(n^2, n, 1, N); n2 n=1 (%i3) sum(1/n^2, n, 1, inf); ∞ X 1 n2 n=1 m ( %o3) (%i4) sum(n^2, n, 1, 20); ( %o4) 2870 Pr eli La función sum nos deja indicada la suma porque no hemos especificado el rango para los valores de la suma. También podemos utilizar float para pedirle al programa que nos escriba el valor numérico (%i5) sum(1/n^2, n, 1, 1000),float; ( %o5) 1,643934566681561 Con las funciones simpsum o simplify sum es posible que el programa realice la suma simbólica. 2 N3 + 3 N2 + N 6 Bo rr ad ( %o6) or (%i6) sum(n^2, n, 1, N),simpsum; (%i7) simplify_sum(sum(n^2, n, 1, N)); ( %o7) 2 N3 + 3 N2 + N 6 Con este último comando podemos escribir la expresión de la sumatoria de manera más elegante. (%i8) sum(n^2, n, 1, N)=simplify_sum(sum(n^2, n, 1, N)); ( %o8) N X n=1 n2 = 2 N3 + 3 N2 + N 6 Consideremos las siguientes series infinitas: 48 2.1. SUCESIONES Y SERIES (%i9) sum(x^n/n!, n, 0, inf)=simplify_sum(sum(x^n/n!, n, 0, inf)); ( %o9) ∞ X xn = ex n! n=0 (%i10)sum(1/n^2, n, 1, inf)=simplify_sum(sum(1/n^2, n, 1, inf)); r ∞ X π2 1 = 2 n 6 n=1 in a ( %o10) Podemos ahorrarnos el estar escribiendo el término enésimo varias veces si definimos la función f = f (n) en primer lugar. (%i11)f:(-1)^(n-1)/n$ sum(f, n, 1,inf)=simplify_sum(sum(f, n, 1,inf)); ∞ n−1 X (−1) = log(2) n n=1 m ( %o11) (%i12)f:log(n)/n^2; ( %o12) log(n) n2 Pr eli En el siguiente ejemplo el programa no podrá encontrar la serie de manera simbólica, pero como comentamos anteriormente, podemos evaluar la serie para algunos valores de N . En este caso, para N >10.000 el consumo en tiempo de cálculo para la computadora comienza a notarse. (%i13)sum(f, n, 1,inf)=simplify_sum(sum(f, n, 1,inf)); ∞ ∞ X log(n) X log(n) = n2 n2 n=1 n=1 or ( %o13) (%i14)sum(f,n,2,10),numer;sum(f,n,2,100),numer;sum(f,n,2,1000),numer;sum(f,n,2,10000),numer; Bo rr ad ( %o14) 0,6185026440390787 ( %o15) 0,8817261267819703 ( %o16) 0,9296439518465429 ( %o17) 0,9365272663288963 Este último ejercicio puede ser resuelto de una manera más eficiente si expresamos la función de variable discreta como una sucesión utilizando la opción de crear una lista, makelist, para evaluarla. Primero escribimos la función discreta, note que usamos := (%i18)g[n]:=log([n])/[n]^2; log([n]) [n]2 (%i19)makelist(sum(g[n],n,2,N),N,[10,100,1000,10000]),numer; ( %o18) gn := ( %o19) [[0,6185026440390787], [0,8817261267819703], [0,9296439518465429], [0,9365272663288963]] 49 2.1. SUCESIONES Y SERIES Por lo tanto, hacer cálculos con sucesiones es sencillo, veamos algunos ejemplo de sucesiones. Definimos la siguiente sucesión, la de Fobonacci : (%i20)kill(all)$ (%i1) F[1]:1$ F[2]:1$ F[n]:=F[n-1]+F[n-2]; r ( %o3) Fn := F [n − 1] + F [n − 2] in a (%i4) makelist(F[n],n,1,15); ( %o4) [1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610] Definamos otra sucesión m (%i5) G[n]:=(-1)^n*(1+1/n); 1 ( %o5) Gn := (−1)n 1 + n Pr eli (%i6) makelist(G[n],n,1,15); 3 4 5 6 7 8 9 10 11 12 13 14 15 16 ( %o6) −2, , − , , − , , − , , − , , − , , − , , − 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Podemos hacer operaciones básicas con sucesiones, como sumarlas (%i7) S[n]:=F[n]+G[n]; makelist(S[n],n,1,15); ( %o7) Sn := Fn + Gn 5 2 17 19 55 83 177 296 561 967 1741 3015 5293 9134 , , , , , , , ( %o8) −1, , , , , , , 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Operaciones combinadas or (%i9) C[n]:=3*F[n]-n*G[n]; makelist(C[n],n,1,15); Bo rr ad ( %o9) Cn := 3Fn − n Gn ( %o10) [5, 0, 10, 4, 21, 17, 47, 54, 112, 154, 279, 419, 713, 1116, 1846] Multiplicación (%i11)M[n]:=F[n]*G[n]; makelist(M[n],n,1,15); ( %o11) M n := Fn Gn 28 104 189 340 121 1068 3262 5655 1952 3 8 15 ( %o12) −2, , − , , −6, , − , ,− , ,− , 156, − , ,− 2 3 4 3 7 8 9 2 11 13 14 3 División (%i13)D[n]:=F[n]/G[n]; makelist(M[n],n,1,15); ( %o13) Dn := Fn Gn 50 2.1. SUCESIONES Y SERIES 1 2 3 12 25 48 91 56 153 979 1728 3029 5278 4575 ( %o14) − , , − , , − , , − , , − , 50, − , ,− , ,− 2 3 2 5 6 7 8 3 5 12 13 14 15 8 Consideremos la siguiente sucesión: (%i15)f[n]:=(n+1)/(2*n^2); n+1 2n2 r ( %o15) fn := (%i16)f[2]; ( %o16) 3 8 Para un conjunto de valores: Pr eli Si queremos graficar la sucesión hacemos lo siguiente m (%i17)makelist(f[n],n,1,15); 3 2 5 3 7 4 9 5 11 6 13 7 15 8 ( %o17) 1, , , , , , , , , , , , , , 8 9 32 25 72 49 128 81 200 121 288 169 392 225 in a Para algún valor de n en particular: (%i18)N[n]:=n$ LisN:makelist(N[n],n,1,50)$ Listf:makelist(f[n],n,1,50)$ (%i21)wxplot2d([discrete,LisN,Listf],[style,[points,2,2,1]],[xlabel,"n"],[ylabel,"f(n)"]); Bo rr ad or ( %o21) Otro ejemplo de una sucesión que converge es el siguiente (%i22)g[n]:=1+(-1)^n/(n); 51 2.1. SUCESIONES Y SERIES ( %o22) gn := 1 + (−1)n ; n (%i23)Listg:makelist(g[n],n,1,50)$ (%i24)wxplot2d([discrete,LisN,Listg],[style,[points,2,2,4]],[xlabel,"n"],[ylabel,"g(n)"]); 2.1.11. Pr eli m in a r ( %o24) Ejercicios 1. Encuentre la suma de los 100 primeros enteros. or 2. Encuentre la distancia total que recorre una pelota que rebota verticalmente y que en cada rebote pierde 2/3 de su energı́a cinética. 3. Encuentre la suma de la serie S = 2 + Bo rr ad 4. Demuestre que 5 2 + 8 4 + 11 8 + ···. a) ∞ X 1 =1 n(n + 1) n=1 b) ∞ X 1 1 = (2n − 1)(2n + 1) 2 n=1 5. Determine el limite de las siguientes sucesiones cuando n → ∞. a) un = b) un = n n+1 1 1+n2 52 2.2. CRITERIOS DE CONVERGENCIA n2 1+n d ) un = (an+b)2 cn2 +d 6. Muestre que sN = 1 + 23 + 33 + · · · + N 3 = PN n=1 n3 = P N n=1 lı́m n→∞ N 2 (N +1)2 . 4 # " n # n X1 X 1 − ln (n + 1) = lı́m − ln (n) . n→∞ k k k=1 k=1 Criterios de convergencia Pr eli 2.2. = in a 8. Demuestre que: " 2 r 7. Demuestre que para |x| < 1 P∞ x n a) n=1 nx = (1−x)2 P∞ x2 +x 2 n b) n=1 n x = (1−x)3 P∞ x3 +4x2 +x 3 n c) n=1 n x = (1−x)4 P∞ x4 +11x3 +11x2 +x 4 n d) n=1 n x = (1−x)5 n m c) un = PN La pregunta que nos planteamos es la siguiente: Si hacemos que N → ∞ entonces ¿la suma k=1 ak , tiene un lı́mite? Existen algunas formas de averiguarlo, a pesar de que sólo podremos calcular la suma de algunas series. En la mayorı́a de los casos nos será imposible y nos tendremos que conformar con saber si convergen o no, o peor aún, si una suma parcial converge sin poder calcular el valor de esa suma. Los términos de una serie pueden ser positivos, negativos o números complejos y las series pueden converger (decrecer o crecer hacia un valor finito) no converger (incrementar o decrecer indefinidamente) u oscilar. Existe una serie de criterios y teoremas de aplicación general que expondremos a continuación. 2.2.1. Convergencia absoluta o condicional Bo rr ad or P Para estudiar P la convergencia de una serie infinita dada, i.e., ai veremos que siempre podremos asociarle otra de la forma |ai |, es decir la serie de valores absolutos, con lo cual garantizamos P la positividad (y que sean números reales) de los términos de la serie. Si la serie de los valores absolutos |ai | converge, entonces P también covergerá la serie original ai y diremos que esa seriePes absolutamente convergente. Sin embargo si la serie de valores absolutos diverge, no podremos decir que ai converja. De hecho si converge diremos que es condicionalmente convergente y, con un rearreglo de sus términos podrá converger, diverger u oscilar. Teorema: Si P |an | converge, entonces también converge ∞ X n=1 an ≤ ∞ X P an y se tiene que: |an | n=1 Para una serie de términos positivos el criterio de convergencia más intuitivo (necesario pero no suficiente) es que en lı́mite cuando n → ∞ el término n-ésimo tienda a cero. Con lo cual tenemos que si esta condición no se satisface, la serie diverge. 53 2.2. CRITERIOS DE CONVERGENCIA Teorema: Si la serie P an converge, el término n-ésimo tiende a cero, esto significa que: lı́m an = 0 . n→∞ Notemos que para la serie P∞ n=1 1/n se tiene que lı́m 1 = 0, n r n→∞ ∞ X (−1)n+1 n=1 in a sin embargo, como ya vimos anteriormente, esta serie diverge. Esto significa que el teorema suministra una condición suficiente para que exista la divergencia de la serie, es decir, Psi para el término n-ésimo de la serie an no se cumple que tiende a cero cuando n → ∞, entonces la serie an diverge. Una serie que es convergente pero que no es absolutamente convergente es la siguiente 1 1 1 1 = 1 − + − + · · · = ln(2) n 2 3 4 m porque ya vimos que la serie de los valores absolutos asociada a la serie anterior es Pr eli ∞ X 1 n n=1 la cual diverge. 2.2.2. Criterio de Comparación En segundo lugar de simplicidad está el criterio de comparación entre un par de series de términos positivos. Si conocemos el comportamiento P∞ de una de ellas comparamos el de la otra. Esto es, suponga P∞ que consideramos dos series: una de prueba n=0 an y una serie conocida y convergente (o divergente) n=0 ãn , entonces Si ∞ X ãn converge y ∀ n se tiene que ãn > an Por otro lado Si ∞ X ãn diverge y ∀ n se tiene que 0 6 ãn 6 an Bo rr ad n=0 ∞ X ãn > n=0 or n=0 ⇒ ⇒ ∞ X ∞ X an n=0 ãn 6 n=0 ∞ X n=0 ⇒ ∞ X an converge n=0 an ⇒ ∞ X an diverge n=0 Ejemplo Para ilustrar esta estrategia consideremos las siguientes series ∞ X 1 1 1 1 1 + + + + ··· = 2 3 7 25 n! +1 n=1 En ese caso compararmos con una serie conocida ∞ X 1 1 1 1 1 1 1 = + + + + ··· = 1 + 1 + + + ··· = 1 + e n! 0! 1! 2! 3! 2! 3! | {z } n=0 e y es claro que la serie indicada no es otra cosa que e, con lo cual la serie claramente converge y su suma es 1 + e. 54 2.2. CRITERIOS DE CONVERGENCIA 2.2.3. Criterio de la Raı́z P∞ Dada una serie de términos positivos n=0 an , el criterio de la raı́z (o también de la raı́z de Cauchy) puede resumirse en el siguiente par de afirmaciones. Sı́: para un n suficientemente grande y ρ independiente de n =⇒ (?) Otra forma, más compacta de expresarlo serı́a 1 Sı́ ρ = lı́m (an ) n n→∞ entonces: ρ < 1 =⇒ converge ρ > 1 =⇒ diverge ρ = 1 =⇒ (?) Pr eli Es fácil ver que si utilizamos el criterio de comparación, entonces cuando ρ < 1 1 ⇒ an 6 ρn ⇒ (an ) n 6 ρ cuando ρ > 1 Ejemplo Dada la siguiente serie: r 1 (an ) n = 1 para un n suficientemente grande y ρ independiente de n =⇒ diverge in a 1 (an ) n > 1 para un n suficientemente grande y ρ independiente de n =⇒ converge m 1 (an ) n 6 ρ < 1 la serie converge la serie diverge 2 n ∞ X n , n+1 n=0 por lo tanto: 1 La serie converge. 2.2.4. n n+1 n = 1 n 1 + n1 or (an ) n = ⇒ ρ = lı́m n→∞ 1 1 n = < 1 . e 1 + n1 Criterio de d’Alembert Bo rr ad P∞ Dada una serie de términos positivos n=0 an , el criterio de d’Alembert5 o también llamado criterio del cociente, compara el valor relativo de un término de la serie con el que le precede. Este criterio se resume también fácilmente ρ < 1 =⇒ converge an+1 ρ > 1 =⇒ diverge Si ρ = lı́m entonces: n→∞ an ρ = 1 =⇒ indeterminado 5 Jean Le Rond d’Alembert Parı́s, Francia 1717 - 1783. Matemático francés pionero en el estudio de las ecuaciones diferenciales y su utilización en la Fı́sica, en particular en el estudio de los fluı́dos. Más detalles en http://es.wikipedia.org/ wiki/Jean_Le_Rond_d’Alembert 55 2.2. CRITERIOS DE CONVERGENCIA Nótese que si ⇒ρ<x<1 ρ<1 ⇒ an+1 <x an ⇒ an+1 = an x Entonces para un N < n, pero también suficientemente grande, tendremos que los términos de la serie a partir de ese N serán aN + aN +1 + aN +2 + aN +3 · · · = aN + xaN + x2 aN + x3 aN · · · = aN 1 + x + x2 + x3 + x4 · · · Ejemplo Un ejemplo inmediato lo constituye la serie ∞ X 1 1 3 1 5 n + + + + + ··· = n 2 2 8 4 32 2 n=1 n+1 2n+1 n 2n ⇒ = 1n+1 1 = 2 n 2 Pr eli con lo cual tiene que converger. 2.2.5. 1 1+ , n m 1 1 1 ρ = lı́m 1+ = < 1, n→∞ 2 n 2 in a r y que no es otra cosa que una serie geométrica con razón x < 1 y por consiguiente converge. Es claro que un argumento similar se puede utilizar para probar la divergencia. Criterio de la Integral de Maclaurin El criterio de la Integral de Maclaurin6 es otro criterio de comparación, pero esta vez se compara la serie con una integral. Ası́ supondremos que existe una función f (x) contı́nua y monótonamente decreciente para un valor de x > x0 y que, adicionalmente, se cumple que para algún valor entero x = n el valor de la función RN es igual a un término de la serie. dx f (x) P∞ Esto es f (n) = an . Entonces se tendrá que si el lı́mite lı́mN →∞ existe y es finito, entonces n=1 an converge. Por el contrario si el lı́mite no existe o es infinito, entonces diverge. La idea de este criterio es comparar la integral de f (x) (es decir, el área bajo la curva) con la suma de rectángulos que representa la serie. Entonces, la suma parcial i X or si = an ≡ n=1 R i+1 Bo rr ad Pero: si > 1 si − a1 < dx f (x) Ri dx f (x) 1 Z ⇒ i X i+1 Z dx f (x) ≤ si ≤ 1 f (n) . n=1 i dx f (x) + a1 1 dondePa1 = f (1), con lo cual, al hacer i → ∞ tendremos que si el lı́mite de la integral existe, entonces la ∞ serie n=1 an converge. Z ∞ Z ∞ ∞ X dx f (x) ≤ an ≤ dx f (x) + a1 1 n=1 1 6 Colin Maclaurin 1698, Argyllshire, Escocia - 1746 Edinburgo, Escocia. Matemático escocés quien escribió el Tratado de los Fluxiones el primer tratado que expuso de una manera sistemática y rigurosa el cálculo diferencial ideado por Newton. Este tratado fue como respuesta a la crı́tica de Berkeley sobre la falta de rigurosidad de los métodos Newton. 56 in a r 2.2. CRITERIOS DE CONVERGENCIA m Figura 2.5: El criterio de la integral Ejemplos Pr eli 1. Un ejemplo inmediato podrı́a ser determinar si la siguiente serie converge Z N ∞ X 1 −1 1 1 ⇒ f (x) = ⇒ lı́m dx ⇒ lı́m =0 2 2 3 2 N →∞ N →∞ N − 3 x − 32 x − 32 2 n=1 n − 2 con lo cual claramente converge. Este criterio es muy útil para acotar (entre un ı́nfimo y un supremo) el residuo de una determinada serie. Vale decir Z ∞ Z ∞ ∞ N ∞ ∞ X X X X an ⇒ an + an = an ≤ dx f (x) ≤ dx f (x) + aN +1 n=1 n=1 N +1 n=N +1 {z Residuo 2. Comprobar que la función Zeta de Riemann, ζ(p) = f (x) = x−p , entonces Bo rr ad ∞ X ζ(p) = n=1 n−p n=N +1 N +1 } or | Z ⇒ P∞ ∞ dx x−p = 1 n=1 n−p , efectivamente converge. En este caso x−p+1 −p+1 ln x|1 ∞ ∞ Para p 6= 1 1 Para p = 1 y es claro P∞que para p > 1 el lı́mite existe y es finito, por lo tanto, la función Zeta de Riemann, ζ(p) = n=1 n−p , converge para p > 1. > restart: > assume(p>1): > Limit(Int((x)∧ (-p),x=1..infinity),x=infinity)= limit(int((x)∧ (-p),x=1..infinity),x=infinity); > assume(p<=1): > Limit(Int((x)∧ (-p),x=1..infinity),x=infinity)= limit(int((x)∧ (-p),x=1..infinity),x=infinity); 57 2.2. CRITERIOS DE CONVERGENCIA 2.2.6. Series alternantes y convergencia condicional Hasta ahora todos los criterios que analizamos eran para una serie de términos positivos, P∞por lo cual todos esos criterios nos llevaban al concepto de series absolutamente convergente. Esto es, si n=0 |an | converge, P∞ entonces n=0 an también converge. Sin embargo, muchas veces nos tendremos que conformar con que una serie sea simplemente convergente y no requerir que sea absolutamente convergente. Este es el caso de las series alternantes. Series en las cuales se alternan términos positivos y negativos: (−1)n+1 (an ) con an ≥ 0 in a n=1 r a1 − a2 + a3 − a4 + a5 − a6 + · · · + a2n−1 − a2n + · · · = ∞ X m Entonces, si la serie es monótona decreciente para un n suficientemente grande tenemos lo que se denomina el Criterio de Leibniz: an > an−1 ∀ n>N ∞ X ∧ (−1)n+1 (an ) converge, si: n=1 an → 0 cuando n → ∞ Pr eli De otro modo la serie oscilará. Estas condiciones son fáciles de ver si reorganizamos la serie de los primeros 2m términos, a partir de un determinado N par y N > n, entonces s2m = (aN − aN −1 ) + (aN −2 − aN −3 ) + · · · + (aN +2m−2 − aN +2m−1 ) donde todos los paréntesis son positivos, con lo cual s2m > 0 y se incrementa al incrementar m. Ahora bien, si rearreglamos la serie tendremos que s2m = aN − (aN −1 − aN −2 ) − (aN −3 − aN −4 ) + · · · − (aN +2m−1 − aN +2m−2 ) − aN +2m−1 or donde, otra vez los paréntesis son positivos y es inmediato comprobar que entonces s2m < an para todo m. Como an → 0 cuando n → ∞, la serie alternante necesariamente converge. La series alternantes ya eran conocidas desde hace mucho tiempo, como por ejemplo la serie ∞ X Bo rr ad x3 x4 x2 + − + · · · + (−1)n−1 an = x − 2 3 4 n=1 xn n + ··· . Esta serie converge y su suma es ln(1 + x) para −1 < x ≤ 1. Para x positivo es una serie alternante y en el caso particular de x = 1 se tiene: 1 1 1 1 1 − + − + · · · + (−1)n−1 + · · · = ln(2) 2 3 4 n Otra relación interesante es: 1− 1 1 1 + − + · · · + (−1)n−1 3 5 7 1 2n − 1 + ··· = π 4 58 2.2. CRITERIOS DE CONVERGENCIA Teorema: Si {an } es una sucesión monótona decreciente con lı́mite igual a cero, la serie alternante ∞ X (−1)n−1 an , n=1 converge. Si S es su suma y sn su suma parcial n-ésima, se tiene que: 0 < (−1)n (S − sn ) < an+1 ∞ X (−1)n−1 n=1 1 1 1 1 = 1 − + − + ··· , n 2 3 4 lı́m n→∞ m Sabemos que 1/n es una sucesión monótona decreciente y que: in a Ejemplo Estudiemos la serie r para n ≥ 1 . 1 = 0, n Ejemplo Sea n+1 Z 1 2 a2n−1 = Pr eli por lo tanto, de acuerdo al teorema anterior la serie converge; como ya hemos visto. y a2n = n Por otro lado, se tiene también que: dx x para n = 1, 2, 3, ... . lı́m an = 0 , n→∞ y que an es monótona decreciente, por lo tanto la serie ∞ X (−1)n−1 an , or n=1 converge. La suma parcial (2n − 1) se puede escribir de la siguiente manera: 2 dx 1 + − x 2 Bo rr ad Z s2n−1 = 1 − 1 s2n−1 = 1 + Z 3 dx 1 + ··· + − x n−1 2 1 1 + ··· + − 2 n Z n 1 Z n n−1 dx 1 + = x n 1 1 dx = 1 + + · · · + − ln(n) . x 2 n y obtenemos lı́m n→∞ 1+ 1 1 + · · · + − ln(n) = γ , 2 n donde γ es la constante de Euler, γ ≈ 0, 5772156649. 59 2.3. SERIES DE FUNCIONES Ejercicios 1. Encuentre el radio de convergencia de las siguientes series a) ∞ X n2 xn n=0 r b) in a ∞ X 2n n x n! n=0 c) d) ∞ X n4 n x 5n n=0 Pr eli e) m ∞ X 5n n x n3/2 n=0 ∞ X xn [3 + (−1)n ]n n=0 f) ∞ X n=0 Ejemplos 2.2.8. Practicando con Maxima 2.2.9. Ejercicios Series de funciones Bo rr ad 2.3. or 2.2.7. xn 2n+(−1)n La idea de series se puede ampliar al permitir que sus términos sean función de alguna variable (una o varias), esto es an = an (x). Esta extensión del concepto se serie, trae como consecuencia que ahora las sumas parciales dependen de x n X sn (x) = ak (x) = a0 (x) + a1 (x) + a2 (x) + · · · , k=0 con lo cual, si lı́m sn (x) = S(x) = n→∞ ∞ X ak (x) , k=1 entonces, el comportamiento de las serie también dependerá de la variable. 60 2.3. SERIES DE FUNCIONES La convergencia de la serie podrá ser posible para algunos valores de x y no para otros. El punto central con las series de funciones f (x) complicadas es la de tratar de construir funciones como una serie de términos, ak (x), más simples. Ası́, esas sumas parciales fn (x) constituirán la función deseada f (x) = ∞ X ak (x) = lı́m n→∞ k=1 n X ak (x) . k=1 2.3.1. in a r Estaremos interesados en aquellas funciones a las cuales converjan las sumas parciales de una serie. Para fijar conceptos, comenzaremos por las series de funciones más comunes: Las Series de Potencias. Series de Potencias Asociaremos una serie de potencias an = cn xn a un polinomio de grado infinito. P (x) = c0 + c1 x + c2 x2 + c3 x3 + c4 x4 + · · · = ∞ X cn xn , o también P (x − x0 ) = n cn (x − x0 ) . n=0 m n=0 ∞ X 2.3.2. Pr eli Esta asociación tiene la ventaja de permitirnos intuir algunos comportamientos de la serie para algunos valores de x. Los coeficientes cn son números independientes de x. Pero, más aún, estas series pueden ser P∞ series de potencias de número complejos. Vale decir, n=0 cn z n con z = x + iy. Convergencia de una serie de potencias todos los criterios que hemos desarrollado anteriormente. Ası́ una serie de potencias P∞Se pueden utilizar n n=0 an (x − x0 ) converge en un punto x0 si el lı́mite lı́m n→∞ ∞ X an (x − x0 ) n n=0 or existe, para x = x0 , para todo x. P∞x o para algunos n Una serie de potencias n=0 cn (x − x0 ) convergerá absolutamente sı́ lı́m n→∞ n X j cj (x − x0 ) = ρ, existe. j=0 Bo rr ad P∞ n También P∞ se cumplirá nel criterio de convergencia absoluta. Esto es, si n=0 |cn (x − x0 ) | converge, entonces, n=0 cn (x − x0 ) converge, pero el inverso no es siempre verdad. Los criterios más populares para evaluar la convergencia, se seguirán cumpliendo. Ası́ el criterio de d’Alembert y el de la raı́z de Cauchy se podrán reescribir como: n+1 lı́mn→∞ cn+1 (x − x0 )n ρ(x) < 1 ⇒ converge cn (x − x0 ) ⇒ ρ(x) = ρ(x) > 1 ⇒ diverge p n lı́mn→∞ n cn (x − x0 ) Sólo que ahora es bueno enfatizar que ρ = ρ(x) dependerá de la variable. Llamaremos, de ahora en adelante a este lı́mite el radio o entorno de convergencia, el cual delimitará los valores de x para que la serie de potencias converja. 61 2.3. SERIES DE FUNCIONES Ejemplos 1. Considermos la siguiente serie 1+x+ ∞ X x2 x3 xn xn + + ··· + + ··· = , 2 6 n! n! n=0 por lo tanto r in a an+1 = lı́m n→∞ an n→∞ lı́m xn+1 x (n + 1)! = lı́m = 0, n x n→∞ n + 1 n! es decir, an+1 = 0, n→∞ an con lo cual la serie converge para todo valor de x. m ρ(x) = lı́m 2. Otro caso ocurre cuando consideramos la siguiente serie de potencias: (−1) n+1 n 2 3 4 n (x − 2) = x − 2 − 2 (x − 2) + 3 (x − 2) − 4 (x − 2) + · · · , n=1 por lo tanto: ρ(x) = lı́m n→∞ (−1) n+2 (−1) lo que implica que la serie: Pr eli ∞ X n+1 (n + 1) (x − 2) n+1 n (x − 2) n = |x − 2| lı́m n→∞ n+1 = |x − 2| n Para puntualizar: or converge si: |x − 2| < 1 ⇒ 1 < x < 3 y diverge si: |x − 2| > 1 . P∞ n+1 n Es decir, la serie n=1 (−1) n (x − 2) convergerá únicamente para 1 < x < 3. Para otros valores de x, diverge. Bo rr ad Si una serie converge en x = x1 , convergerá absolutamente para |x − x0 | < |x1 − x0 | y divergerá para |x − x0 | > |x1 − x0 |. P∞ n Se llama radio de convergencia, ρ = ρ(x) a aquella cantidad tal que la serie n=0 an (x − x0 ) converge para |x − x0 | < ρ y diverge para |x − x0 | > ρ. P∞ n Una serie n=0 an (x − x0 ) que converge únicamente para x = x0 tendrá un radio de convergencia ρ = 0, mientras que una que converja para todo x tendrá un radio de convergencia ρ = ∞. 2.3.3. Covergencia uniforme Se puede refrasear el criterio de convergencia de Cauchy que vimos anteriormente. Para cualquier valor de > 0, tan pequeño como uno quiera, siempre existirá un número N independiente de x, con a ≤ x ≤ b, tal que: ∞ X si S(x) = lı́m sn (x) = an (x) ⇒ |S(x) − sn (x)| < ∀ x ∈ [a, b] ∧ n ≥ N. n→∞ n=1 62 2.3. SERIES DE FUNCIONES Con ello es inmediato indentificar el error que se comete cuando se corta la serie en un N suficientemente grande N ∞ X X S(x) = an (x) + an (x) n=1 | n=N +1 {z sn (x) } | {z } ≈ in a r Hay que resaltar el hecho de que las suma de funciones contı́nuas an (x) no necesariamente habrá de ser contı́nua, el concepto de convergencia uniforme busca garantizar que esa suma de funciones contı́nuas también sea contı́nua. Recordemos la idea de continuidad de una función. Una función será contı́nua si sus lı́mites por la derecha y por izquierda coinciden lı́m± f (t) = f (x) t→x Por otro lado, a partir del hecho de que f (x) = lı́m fn (x) n→∞ n→∞ t→x Pr eli n→∞ t→x m es valido preguntarse si el lı́mite de la sucesión de sumas parciales es contı́nua, esto es: h i ? lı́m± lı́m fn (x) = lı́m lı́m± fn (x) . Es decir, al suponer que la suma de términos contı́nuos tiende a una función contı́nua estamos suponiendo que podemos intercambiar los lı́mites, pero eso no es simpre cierto. Consideremos el caso (extremo) n fn = n 2 x 1 − x2 con: 0 ≤ x ≤ 1 y n = 1, 2, 3, . . . entonces: Z lı́m fn = 0 ⇒ n→∞ 1 Z 1 Z ⇒ 1 dx fn → ∞ lı́m n→∞ 0 or 0 n 2(n + 1) i lı́m fn (x) = 0 n→∞ 0 2 dx fn (x) = h dx Claramente no se pueden intercambiar los lı́mites. Bo rr ad Ejemplo Sea la serie f (x) = ∞ X k=0 ak (x) = x2 + x2 x2 x2 x2 + + + ··· + + ··· , 2 3 k 2 1+x (1 + x2 ) (1 + x2 ) (1 + x2 ) de manera que Como ak (x) = x2 k (1 + x2 ) an+1 (x) 1 = <1 an (x) 1 + x2 ∀ . x 6= 0 , la serie es absolutamente convergente ∀ x (x 6= 0). 63 2.3. SERIES DE FUNCIONES Sin embargo, tenemos que f (0) = 0. El término n-ésimo para la suma parcial es fn (x) = x 2 n−1 X k=0 1 (1 + = 1 + x2 − k x2 ) 1 (1 + n−1 x2 ) = 1 + x2 − 1 + x2 n , (1 + x2 ) como 1 + x2 > 1, entonces: x 6= 0 . r lı́m fn (x) = 1 + x2 , n→∞ ∞ X an (x) = n=1 ∞ X x , [(n − 1)x + 1] [nx + 1] n=1 cuya suma n-ésima parcial es sn (x) = nx . nx + 1 m Ejemplo Dada la serie in a pero hemos establecido que f (0) = 0 de manera que f (x) no es contı́nua. La función sn (x) es una función continua de x ∀ 0 ≤ x ≤ 1, y para todo n. Por otro lado, = S(x) = lı́m sn (x) = 0 , si x = 0 n→∞ Pr eli S(x) lı́m sn (x) = 1 , si x 6= 0 . n→∞ Existe una discontinuidad en x = 0 para S(x) y por lo tanto la condición (2.3.3) no se cumplirá. Para el caso de series de funciones, existen un par de criterios que identifican la convergencia uniforme. El criterio Mayorante de Weierstrass7 y el criterio de Abel8 . Estos criterios desarrollan la noción de convergencia uniforme la cual es necesaria para asegurar el intercambio en los lı́mites. 2.3.4. Criterio Mayorante de Weierstrass or La idea de convergencia uniforme se introduce para garantizar que la sumas infinitas de un conjunto de funciones sea contı́nua. Una condición suficiente, pero no necesaria, para que la serie Bo rr ad a1 (x) + a2 (x) + a3 (x) + · · · + an (x) + · · · = ∞ X an (x) n=1 sea uniformemente convergente es dada por la condición de Weierstrass: Si encontramos una serie convergente de números positivos M= ∞ X Mj con Mi ≥ |ai (x)| j=1 ∀ x ∈ [a, b] entonces la serie ∞ X an (x) n=1 es uniformemente convergente. 7 Karl Theodor Wilhelm Weierstrass (1815 - 1897). Matemático Alemán con importantes contribuciones al análisis complejo mediante la utilización de series. 8 Niels Henrik Abel (1802-1829). Matemático Noruego. Su primera mayor aportación fue la prueba de la imposibilidad de resolución algebraica de la ecuación quı́ntica mediante radicales. 64 2.3. SERIES DE FUNCIONES La demostración se obtiene a partir de la definición misma de convergencia. Si para n + 1 ≥ N se tiene ∞ X ∞ X Mj < y como |ai (x)| ≤ Mi ⇒ j=n+1 P∞ j=1 |ai (x)| < ⇒ |S(x) − sn (x)| ≡ j=n+1 Mj converge, entonces ∞ X |ai (x)| < j=n+1 ∞ X (−1)n n + x2 n=1 para − ∞ < x < ∞ ∞ X ∧ (−1)n−1 n=1 xn n in a r P∞ con la cual la serie n=1 an (x) será uniformemente convergente para todo x ∈ [a, b]. Ahora bien, como consideramos los Mi ≥ 0. La serie en cuestión también será absolutamente convergente. Otra vez, los criterios de convergencia absoluta y, en este caso, de convergencia uniforme, no son consecuencia uno del otro, ni están relacionados. Las series para 0 ≤ x ≤ 1 Pr eli j=0 m P∞ convergen uniformemente pero NO absolutamente. Sin embargo, en el intervalo 0 ≤ x ≤ 1 la serie j=0 (1 − x)xj converge absolutamente pero no uniformemente, por cuanto tiene una discontinuidad. Se puede demostrar que ∞ X 1, 0 ≤ x < 1 (1 − x)xj = 0, x=1 con lo cual se puede concluir que una serie arbitraria f (x) = en intervalos en los cuales la función f (x) sea discontı́nua. Ejemplo La serie P∞ j=1 ai (x) no podrá converger uniformemente 1 1 cos2 (x) + 2 cos3 (x) + · · · 2 2 3 es uniformemente convergente, porque al tomar Mk = 1/k 2 la serie f (x) = cos(x) + ∞ X 1 , k2 converge a π 2 /6. Criterio de Abel Bo rr ad 2.3.5. or k=1 El criterio de Abel se puede resumir de la siguiente manera. Sı́ f (x) = donde P∞ i=0 ci (x) ∞ X ai (x) ∧ ai (x) = ci (x)fi (x) , i=0 converge, es decir: lı́m n→∞ n X ci (x) = S , i=0 entonces la serie converge uniformemente en [a, b]. Para que se cumpla el criterio de Abel, fn (x) tiene que estar acotada (0 ≤ fn ≤ M ∀ n) y tiene que ser monótonamente decreciente en el intervalo en el cual esté definida, fn+1 (x) ≤ fn (x) con x ∈ [a, b]. 65 2.3. SERIES DE FUNCIONES En resumen, si la serie f (x) = a1 (x) + a2 (x) + a3 (x) + · · · + an (x) + · · · = ∞ X an (x) n=1 es uniformemente convergente para a ≤ x ≤ b, entonces es posible integrar y diferenciar término por témino. dx k=1 ∞ Z β X β Z r ∞ X dak = f (x) dx = α ak (x) dx , α k=1 in a df dx m donde a ≤ α < β ≤ b. La convergencia uniforme no implica convergencia absoluta y convergencia absoluta no implica convergencia uniforme, como se vió anteriormente, la serie ∞ X Pr eli x2 n , (1 + x2 ) n=0 es absolutamente convergente pero no uniformemente convergente cerca de x = 0. Las series absolutamente convergentes tienen la propiedad de comportarse como las series finitas, los términos pueden ser multiplicados e intercambiado el orden de la suma. Las series uniformemente convergentes se comportan como las series finitas donde la serie es contı́nua si cada término de la serie también lo es. La serie ∞ X 1 1 1 (−1)n−1 = − + + ··· 2 2 2 n + x 1 + x 2 + x 3 + x2 n=1 2.3.6. or es únicamente condicionalmente convergente, pero, es también uniformemente convergente. Nota sobre el algebra de series de potencias Bo rr ad El álgebra elemental de series se puede reconsiderar a la luz de las series de potencias. De esta forma recordamos que los ı́ndices en las series son mudos ∞ X n−1 an n (x − x0 ) n=1 = ∞ X j−1 aj j (x − x0 ) = j=1 ∞ X k ak+1 (k + 1) (x − x0 ) k=0 en la última sumatoria hemos hecho k = j − 1, por lo cual j = k + 1. Las series se igualan ∞ X n=0 ∞ X n=0 n ∞ X n n=1 ∞ X bn (x − x0 ) = bn (x − x0 ) = k=0 n−1 an n (x − x0 ) k ak+1 (k + 1) (x − x0 ) = ∞ X n an+1 (n + 1) (x − x0 ) n=0 66 2.3. SERIES DE FUNCIONES por lo cual bn = an+1 (n + 1) . Si la igualdad hubiera sido ∞ X n an (x − x0 ) = n=0 ∞ X an n (x − x0 ) n−1 ∞ X = n=1 n an+1 (n + 1) (x − x0 ) =⇒ an+1 = n=0 an (n + 1) n an (x − x0 ) + n=0 ∞ X k bk (x − x0 ) = a0 + a1 (x − x0 ) + ∞ X n (an + bn ) (x − x0 ) in a ∞ X n=2 k=2 o también n an (x − x0 ) + n=0 ∞ X bk+2 (x − x0 ) k+2 = a0 + a1 (x − x0 ) + ∞ X (an + bn ) (x − x0 ) n=2 k=0 = ∞ X n m ∞ X r Las series se suman n (an + cn−2 ) (x − x0 ) , n=0 Pr eli y en este último caso c−2 = c−1 = 0 y ci = bi+2 . Nótese como en los dos ejemplos anteriores hemos hecho coincidir los dos ı́ndices de la sumatoria desde el comienzo. La series también se multiplican, esto es "∞ #" ∞ # ∞ X X X n n n an (x − x0 ) bn (x − x0 ) = cn (x − x0 ) n=0 n=0 con n=0 cn = a0 bn + a1 bn−1 + a2 bn−2 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0 or Si alguna de las series de potencias es absolutamente convergente, entonces su multiplicación con otra, será absolutamente convergente. Pero también las series de potencias se ¡invierten! y para ello utilizamos todo lo visto anteriormente veamos. Supongamos que se tiene una serie del tipo 2 n Bo rr ad y − y0 = a0 + a1 (x − x0 ) + a2 (x − x0 ) + · · · + an (x − x0 ) + · · · = ∞ X an (x − x0 ) n n=0 n Es decir tenemos y−y0 expresado en términos de una serie de potencias de (x − x0 ) entonces, igual podremos n plantearnos invertir el proceso, vale decir, expresar (x − x0 ) en términos de potencias (y − y0 ) Esto es x − x0 = ∞ X n=0 n bn (y − y0 ) ⇒ x − x0 = ∞ X k=0 k ∞ X j bk aj (x − x0 ) j=0 y al igualar términos con la misma potencia, despejamos los coeficientes bn en términos de los an , de forma 67 2.3. SERIES DE FUNCIONES que b1 = 1 a1 a2 (a1 )3 2(a2 )2 − a1 a3 b3 = (a1 )5 5a1 a2 a3 − a21 a4 − 5a32 b4 = (a1 )7 .. .. .= . P∞ P∞ n Igualmente, si una serie f (x) = n=0 an (x−x0 ) = n=0 cn (x − x0 ) converge para un entorno −R ≤ x ≤ R entonces por el criterio de Mayorante de Weierstrass, convergerá absoluta y uniformemente para −S ≤ x ≤ S con 0 ≤ S ≤ R. Más aún, el criterio de Abel nos garantiza las siguientes propiedades: P∞ n n Dado que todos los términos an (x) = cn (x − x0 ) son funciones contı́nuas de x y f (x) = n=0 cn (x − x0 ) converge uniformemente para un entorno −S ≤ x ≤ S, entonces la función f (x) es contı́nua en el intervalo de convergencia. n m in a r b2 = − Pr eli Si los términos an (x) = cn (x − x0 ) son funciones contı́nuas de x, entonces la serie puede ser derivada término a término # "∞ ∞ X d X n−1 n cn n (x − x0 ) cn (x − x0 ) = dx n=0 n=1 (nótese como cambia el comienzo de la serie) y convergerá a ∞ X n−1 cn n (x − x0 ) n=1 converge uniformemente en [a, b]. → df (x) dx an (x) ∧ d an (x) dx contı́nuas ∧ ∞ X an (x) , n=0 Bo rr ad or De igual manera las series pueden ser integradas término a término Z b Z b ∞ Z b ∞ ∞ X X X cn n n n+1 dx f (x) = cn (x − x0 ) = dx cn (x − x0 ) = (x − x0 ) . dx n + 1 a a a n=0 n=0 n=0 Ejercicios 1. Demuestre que la serie ∞ X (−1)n , n + x2 n=0 es uniformemente y condicionalmente convergente. 2. Demuestre que la serie ∞ X (−1)n n=1 n + x2 , n2 converge uniformemente, pero no absolutamente. 68 2.4. SERIE DE TAYLOR 3. Determine el radio de convergencia de la serie x x2 x3 xn √ + √ + ··· + √ + ··· + a+1 a+ 2 a+ 3 a+ n donde a es un número real y positivo. Determine si la serie es o no uniformemente convergente. 4. Considere la siguiente sucesión r sen(nx) √ , n = 1, 2, 3, . . . n in a fn (x) = demuestre que: i d d h lı́m fn (x) 6= lı́m fn (x) , n→∞ dx dx n→∞ a) 1− 2 3 4 + − + ··· 3 5 7 b a− 2 Pr eli b) m 5. Discuta la convergencia de las siguientes series + a b − 3 4 + ··· + a b − 2n − 1 2n + ··· donde a y b son constantes positivas. 6. Utilizando fracciones parciales, demuestre que a) ∞ X k=1 23 1 = (k + 1)(k + 3)(k + 5) 480 b) 3k − 2 = 1. k(k + 1)(k + 2) or ∞ X k=1 Ejemplos 2.3.8. Practicando con Maxima 2.3.9. Ejercicios Bo rr ad 2.3.7. 2.4. Serie de Taylor Para los fı́sicos el uso apropiado (y frecuente) de la serie Taylor facilita muchos cálculos. La idea detrás de este tipo de series es la de la aproximación de una determinada función por una serie de potencias en donde existe una forma sistemática de construir los coeficientes y, dependiendo de el número de términos que utilicemos en la serie, tendremos una idea de cuan aproximada es la serie y cuanto es el error que cometemos al desarrollar la serie hasta un determinado término. Ası́ supondremos que f = f (x) es una función 69 2.4. SERIE DE TAYLOR (x) contı́nua y contı́nuamente diferenciable. Con lo cual, si denotamos dfdx = f 0 (x), entonces supondremos que 0 00 000 (n) f (x), f (x), f (x), · · · , f (x) están definidas en el intervalo [a, b]. De cursos anteriores se sabe que: Z a+h dx f 0 (x) = f (a + h) − f (a) ⇒ f (a + h) = f (a) + a+h Z a dx f 0 (x) ⇒ f (a + h) ≈ f (a) + hf 0 (a) , a r donde hemos supuesto que en intervalo [a, a + h] la función f 0 (x) es constante y tiene como valor f 0 (a). Ahora bien, esto vale para todo x y para cualquier función, por lo tanto se cumple que: in a f (x) ≈ f (a) + (x − a)f 0 (a) , f 0 (x) ≈ f 0 (a) + (x − a)f 00 (a) , f 00 (x) ≈ .. . f 00 (a) + (x − a)f 000 (a) , .. . m f (n−1) (x) ≈ f (n−1) (a) + (x − a)f (n) (a) . Con lo cual podemos construir a+h a+h Z 0 Pr eli Z dx [f 0 (a) + (x − a)f 00 (a)] ≈ f (a) + hf 0 (a) + dx f (x) ≈ f (a) + f (a + h) = f (a) + a a h2 00 f (a) , 2 que no es otra cosa que una aproximación de segundo orden a f (a + h). En general podemos construir a+h Z f (a + h) = dx f 0 (x) = f (a) + f (a) + a = Z 0 f (a) + hf (a) + "Z a+h dx f (x) a a+h or f (a) + hf 0 (a) + h2 f (a) + hf (a) + f 00 (a) + 2 " a+h Z du 0 Bo rr ad # 00 dv Z dx f 00 (x) a a+h f 00 (a) + dv a = f 0 (a) + dx # a+h Z a a = " a+h Z a dx f 000 (x) a a+h Z #! a+h Z Z "Z a+h du dv a a #! a+h 000 dx f (x) a y si repetimos ese procedimiento n veces, suponiendo que las derivadas de f (x) existan, tendremos la aproximación n − 1 a la función. Esto es f (a + h) = f (a) + hf 0 (a) + h2 00 h3 hn−1 (n−1) f (a) + f 000 (a) + · · · + f (a) + Rn 2! 3! (n − 1)! y también es fácil convencerse por inspección que el residuo o el error que cometemos en la aproximación n − 1 viene dado por la integración enésima de la derivada enésima, vale decir Z Rn = a a+h Z du a a+h Z dv ·|· ·{z· ·}· n veces a+h dx f 000 (x) a 70 2.4. SERIE DE TAYLOR y por el Teorema del Valor medio Z a+h dτ g(τ ) = hg(ξ) ⇒ Rn = a hn (n) f (ξ) n! con a ≤ ξ ≤ a + h Ahora bien, una elección astuta del parámetro h = x − a nos lleva a la conocida expresión de la serie de Taylor para una función de una variable r (x − a)2 00 (x − a)3 000 (x − a)n−1 (n−1) f (a) + f (a) + · · · + f (a) + Rn 2! 3! (n − 1)! in a f (x) = f (a) + (x − a)f 0 (a) + y el error vendrá dado por (x − a)n (n) f (ξ) con a ≤ ξ ≤ a + h n! ası́ la expansión de Taylor especifica el valor de una función en un punto x en términos de el valor de la función y sus derivadas en un punto de referencia a. La expansión se hace en términos de potencias de la diferencia, (x − a), entre el punto que se evalúa y el punto de referencia. Algunas otras formas de expresar la serie de Taylor, serı́an m Rn = donde, D ≡ d dx Pr eli ∞ ∞ ∞ dn X X X hn dx hn Dn hn (n) n f (x) = f (x) = f (x) = ehD f (x) f (x + h) = n! n! n! n=0 n=0 n=0 Si el punto de referencia es a = 0 tendremos la serie de Maclaurin f (x) = f (0) + xf 0 (0) + 2.4.1. x2 00 x3 xn−1 (n−1) f (0) + f 000 (0) + · · · + f (0) + Rn 2! 3! (n − 1)! Algunas series de Taylor Un listado incompleto de las series de Taylor más utilizadas es: sen(x) = cos(x) = x3 x4 xn x2 + + + ··· + + · · · para − ∞ < x < ∞ 2! 3! 4! n! x3 x5 x7 x2n−1 x− + − + · · · + (−1)n+1 + · · · para − ∞ < x < ∞ 3! 5! 7! (2n − 1)! x2 x4 x6 x2n−2 1− + − + · · · + (−1)n+1 + · · · para − ∞ < x < ∞ 2! 4! 6! (2n − 2)! x5 x7 x3 x2n−1 + − + · · · + (−1)n+1 + · · · para − 1 < x < 1 x− 3 5 7 (2n − 1) x2 x3 x4 xn x− + − + · · · + (−1)n+1 + · · · para − 1 < x < 1 2 3 4 n x2 x3 m! 1 + mx + m(m − 1) + m(m − 1)(m − 2) + · · · + xn + · · · 2 3! n!(m − n)! 1+x+ or = Bo rr ad ex arctan(x) = ln(1 + x) = (1 + x)m = ∀x Si tenemos una función y queremos determinar su serie de potencias, es posible que los cálculos se simplifiquen notablemente si utilizamos apropiadamente las series elementales anteriores, por ejemplo: 2 3 4 αx2 + βx αx2 + βx αx2 + βx αx2 +βx 2 e = 1 + αx + βx + + + + ··· 2 3! 4! 71 in a r 2.4. SERIE DE TAYLOR m Figura 2.6: La función Gamma para n = 5 Pr eli desarrollando los términos binomiales 1 2 1 3 1 2 1 1 4 αx2 +βx 2 3 2 e =1+βx+ α+ β x + βα+ β x + α + αβ + β x4 + · · · 2 6 2 2 24 Si se quiere hacer el desarrollo alrededor de un punto diferente de x0 = 0, podemos completar cuadrados: 2 eαx +βx = eα(x 2 +βx/α) 2 = eα(x 2 2 +βx/α+β 2 /4α2 −β 2 /4α2 ) 2 = eα(x 2 +βx/α+β 2 /4α2 )−β 2 /4α 2 = eα(x+β/2α) −β /4α = eα(x+β/2α) e−β /4α 2 = e−β /4α 1 + α(x + β/2α)2 + α2 (x + β/2α)4 /2 + · · · 2.4.2. or y esta es la expanción en series de potencias alrededor del punto x0 = −β/2α. La expansión binomial Por su uso frecuente, consideremos el caso de la expansión binomial ∞ X x2 x3 m! = 1 + mx + m(m − 1) + m(m − 1)(m − 2) + · · · = xn , 2 3! n!(m − n)! n=0 ∞ X m = xn , n Bo rr ad m (1 + x) n=0 m se denomina el coeficiente binomial y la serie termina cuando m = n. Ahora bien, n escrito de la forma compacta se sugiere que el exponente m tendrı́a que ser entero y positivo. Pero no es ası́. La serie explı́cita no se restringe a valores enteros y positivos de m. Por ello, la forma compacta pero exacta donde el término 72 2.4. SERIE DE TAYLOR de la expansión binomial es 1+ x m a m(m − 1) x 2 m(m − 1)(m − 2) x 3 + + ··· a 2 a 3! a ∞ x n X Γ(1 + m) . Γ(1 + n)Γ(1 + m − n) a n=0 = 1+m = x + 0 in a r Donde hemos utilizado la función Γ(x) como la generalización del factorial para m valores que no se restringen tiene una singularidad o un a enteros positivos. Nótese también que si el exponente es negativo, 1 + xa polo en x = −a. Cuando n es un entero positivo tendremos Z ∞ Z ∞ −t n e−t+n ln(t) dt e t dt = n! = Γ(1 + n) = 0 f (t) = −t + n ln(t) m Esta integral, como se puede ver en la figura, nos recuerda la forma de una Gaussiana con un máximo en t = n. Al hacer una expansión alrededor de este punto = f (n) + (t − n)f 0 (n) + (t − n)2 f 00 (n)/2 + · · · Pr eli = −n + n ln(n) + 0 + (t − n)2 (−n/n2 )/2 + · · · Si conservamos los términos hasta segundo orden, la integral puede ser aproximadamente igual a: Z ∞ Z ∞ 2 2 n! ∼ e−n+n ln(n)−(t−n) /2n dt = nn e−n e−(t−n) /2n dt 0 0 Para valores de n grandes, y esto es lo que se conoce como la aproximación de Stirling, se tiene: Z ∞ √ 2 n! ∼ nn e−n e−(t−n) /2n dt = nn e−n 2πn −∞ or Aquı́, el sı́mbolo ∼ se refiere a un comportamiento asintótico de la función Gamma. En la siguiente tabla se muestran, para algunos valores de n, el valor exacto del factorial, el valor por la fórmula de Stirling y el cociente entre estos dos valores. Se puede apreciar entonces lo buena que resulta tal aproximación. n! 1 2 120 3628800 Bo rr ad n 1 2 5 10 2.4.3. √ nn e−n 2πn 0,922 1,919 118,019 3598695,619 √ n!/(nn e−n 2πn) 0,922 0,960 0,983 0,992 Taylor en varias variables Sólo por razones de completitud, y para reforzar los conceptos de que es un desarrollo en series para una función alrededor de un determinado punto, escribiremos el desarrollo en series de Taylor para una funcionón 73 2.4. SERIE DE TAYLOR de dos variables f = f (x, y). Esta es = + + + f (a, b) + (x − a) fx |ab + (y − b) fy |ab 1 (x − a)2 fxx ab + 2(x − a)(y − a) fxy |ab + (y − a)2 fyy |ab 2! 1 (x − a)3 fxxx |ab + 3(x − a)2 (y − a) fxxy |ab + 3(x − a)(y − a)2 fxyy |ab + (y − a)3 fyyy |ab 3! ··· r f (x, y) ∞ X n 1 xk ∂k f (xm ) f xj + xj0 = n! n=0 ⇒ f (~r + ~a) = xm =xm 0 ∞ X 1 ~ n ~r · ∇ f (xm ) n! n=0 Dónde hemos utilizado la siguiente convención ∂ = ∂x ; ∂x fy = ∂ = ∂y ; ∂y fxx = Ejemplos 2.4.5. Practicando con Maxima ∂2 = ∂xy ; ∂x∂y fyy = ∂2 = ∂yy ; ∂y 2 ··· La gráfica mostrada en la Figura 1 pueden obtenerse de la siguiente manera: restart: n := 5: f := exp(-t)*t∧ n; Int(f,t=0..infinity)=int(f,t=0..infinity); GAMMA(5+1); plot(f,t=0..20); ‘f(5)‘=evalf(subs(t=5,f)); 2.4.6. Ejercicios or > > > > > > > fxy = ~ r =~ a Pr eli 2.4.4. ∂2 = ∂xx ; ∂x2 m fx = in a De una manera más compacta Bo rr ad 1. Utilice la siguiente definición tan−1 x = Z 0 x 1 , 1 + t2 expanda el integrando y luego integre término por término para derivar la siguiente expansión conocida como expansión de Gregory tan−1 x = x − Evalúe la serie para x = ∞ X x3 x5 (−1)n 2n+1 + − ··· = x . 3 5 2n + 1 n=0 π 4. 2. Utilizando la definición sen −1 Z x= 0 x √ 1 , 1 + t2 74 2.5. SERIES Y ESPACIOS DE HILBERT derive las expresiones siguientes sen−1 x = ∞ X π √ 1.3.5. · · · .(2n − 1) n (1 − x) = − 2x 1 + x 2 4n (2n + 1)n! n=1 ! . r sen −1 ∞ X (2n)! x2n+1 , 4n (n!)2 2n + 1 n=0 2.5. Series y espacios de Hilbert m Puedes usar el programa Maxima. in a 3. Encuentre los primeros cinco términos, diferentes de cero, de la serie de Taylor, de la función 1 + x 2 + 2x ln(1 + 2x) f (x) = − . x2 1 + 2x x Completitud de E ∞ Bo rr ad 2.5.1. or Pr eli Hemos dejado “sueltos” algunos conceptos para los espacios de Hilbert infito-dimensional. El primero de estos conceptos es que un vector |ai ∈ E ∞ surge de la combinación lineal de elementos de una base infinita {|ei i}, (de una serie) que converge al vector |ai para un espacio donde también la norma del vector converge a un valor finito kak2 = ha |ai. El segundo concepto fue la posibilidad de expresar un determinado vector (una función) como combinación lineal de una base (de dimensión infinita) de un espacio vectorial E ∞ . Efectivamente, esa combinación lineal (de dimensión infinita) habrá de converger a el valor de la función en ese punto. En su momento expresamos estos conceptos intuitivos y fácilmente demostrables para E n (un espacio vectorial Euclidiano de dimensión finita, n−dimensional) y sin mayores justificaciones hicimos el “salto ” a E ∞ (un espacio Euclidiano infinitodimensional). Ahora, equipados con los conceptos de convergencia uniforme estamos en capacidad de explorar esas razones que antes eludimos. Ambos conceptos tienen que ver con la palabra completitud, la cual, como veremos, no tiene el mismo significado en cada una de las situaciones antes mencionadas, pero será complementario. En el primer caso la completitud de E ∞ se logra al poder expresar un vector como una combinación lineal de una base infinita que converja al valor del vector. En el segundo caso diremos que la base {|ei i} para E ∞ será completa si expande la totalidad de los vectores de E ∞ . La primera idea de completitud de un Espacio de Hilbert E ∞ tiene que ver con el hecho que, en ese espacio, donde la norma de un vector es finita kak2 = ha |ai < ∞, la combinación lineal de los elementos de n→∞ una base infinita, {|ei i}, converja al vector |ai. Esto es, ai |ei i −→ |ai. n Para el caso de E es inmediato que, dada una base (ortonormal, por ejemplo) |ai = ai |ei i ⇒ kak2 = ha |ai = ai ai < ∞ , con i = 1, 2, 3, . . . n , la norma es finita, por cuanto es la suma de términos finitos (las componentes del vector (a1 , a2 , a3 , · · · an )). Sin embargo, para el caso de E ∞ las componentes del vector será función de las sumas parciales, esto es hasta dónde desarrollemos la serie y debemos demostrar que si n→∞ |ain ⇔ (a1n , a2n , a3n , a4n , · · · ann ) −→ |a∞ i ⇔ (a1∞ , a2∞ , a3∞ , · · · aj∞ , · · · ) ⇒ k |a∞ i − |an i k < . 75 2.5. SERIES Y ESPACIOS DE HILBERT Es decir que, efectivamente, componente a componente el vector |an i converja al vector |ai. El criterio de convergencia de Cauchy en este caso significa que: dadas dos sumas parciales (desarrollos parciales en una determinada base infinita {|ei i}) |an i = ai |ei i con i = 1, 2, . . . n y |am i = aj |ej i con j = 1, 2, . . . m entonces: k |am i − |an i k = k |am i − |ai − |an i + |ai k ≤ k |ai − |an i k + k |ai − |am i k < 0 + 00 ≡ , |ajn − ajm |2 ≤ ∞ X |ajn − ajm |2 ≡ k |am i − |an i k2 < , j=1 in a r con lo cual las diferencias en las sumas parciales serán siempre menor que un 0 < < 1. Nótese que hemos utilizado la desigualdad triangular kx + yk ≤ kxk + kyk, y es esa misma desigualdad triangular lo que nos garantiza que: j=1 j=1 con lo cual si m → ∞ tendremos que M →∞ ⇒ ∞ X Pr eli m vale decir, hemos demostrado que el término j−ésimo (y con ello todas las componentes del vector) de una n→∞ m→∞ suma parcial, converge al término correspondiente de la serie lı́mite. Esto es, ajn −→ ajm −→ aj por lo tanto que la combinación lineal converge al vector. Nos queda por demostrar si su norma es finita, o lo que es lo mismo, ha |ai = ai ai < ∞ con i = 1, 2, 3, · · · ∞. Es claro que: M ∞ X X j j 2 |an − am | ≤ |ajn − ajm |2 ≡ k |am i − |an i k2 < , PM j=1 |ajn − aj |2 < , y si ahora hacemos: |ajn − aj |2 < ⇒ ha |ai = j=1 ∞ X |aj |2 ≡ j=1 ∞ X |aj + ajn − ajn |2 . j=1 Ahora bien, para α y β complejos, se cumple: 2 para que resulte: or (|α| − |β|) ≡ |α|2 +|β|2 −2|α||β| ≥ 0 ⇒ 2|α||β| ≤ α|2 +|β|2 ⇒ |α+β|2 ≤ ||α|+|β||2 = |α|2 +|β|2 +2|α||β| , 2 (|α| − |β|) ≤ 2 |α|2 + |β|2 . Bo rr ad Finalmente, podemos aplicarlo al caso que nos compete: ∞ ∞ ∞ X X X ha |ai ≡ |aj + ajn − ajn |2 ≤ 2 |aj − ajn |2 + |ajn |2 < ∞ . j=1 2.5.2. j=1 j=1 Conjunto completo de funciones El segundo sentido de completitud tiene que ver con que el conjunto (funciones) de vectores base expandan la totalidad del espacio vectorial (de funciones). Esto es, si {|ui i} ⇔ {ui (x)} es una base ortonormal para E ∞ entonces: |ai = ai |ui i ⇒ k |ai k2 = ha |ai = ai ai = ∞ X |ak |2 con i = 1, 2, 3, . . . ∞ . k=1 76 2.5. SERIES Y ESPACIOS DE HILBERT Otra vez es la misma afirmación que consideramos en el caso de un espacio finito dimensional E n , en el cual demostramos que una base {|ui i} con i = 1, 2, 3, · · · , n expandı́a todo el espacio. Si adicionalmente existe una función cuadrado integrable, L2[a,b] definidas en el intervalo [a, b], la cual pueda ser aproximada por la base: Z b ∞ N N X X X 2 i i 2 k |f i k ≡ hf |f i < ∞ ⇒ |f i = c |ui i ∼ dx|f (x)|2 ⇒ f (x) ∼ c |ui i ⇔ kf (x)k ≡ cj uj (x) . i=0 a i=0 j=0 in a r Nótese que hemos supuesto la existencia de un producto interno y si las bases son ortonormales tendremos que: Z b Z b Z b ∞ X 2 ∗k k 2 ∗ k dx|f (x)| = dx u (x)ul (x) = δl ⇒ kf (x)k ≡ |cj |2 . dx g (x)f (x) ⇒ u |ul i ≡ hg |f i ≡ a a a donde: ck = Z b dx u∗k (x)f (x) . m a j=0 Pr eli Para demostrar que E ∞ es completo, comenzamos por demostrar la llamada desigualdad de Bessel. Esta es: dada una base ortonormal infinita, {|ui i} ⇔ {ui (x)} para un espacio vectorial de Hilbert, E ∞ , de Rb funciones cuadrado integrable f (x) ∈ L2[a,b] , con un producto interno definido por hg |f i ≡ a dx g ∗ (x)f (x), entonces se cumple que: Z b Z b ∞ X kf (x)k2 ≥ |ck |2 con ck = uk |f i = dx u∗k (x)f (x) ∧ hg |f i ≡ dx g ∗ (x)f (x) . a k=1 a Para demostrar la desigualdad de Bessel, partimos de una afirmación obvia en espacios finito dimensionales: 0 ≤ k |f i − ci |ui i k2 ≡ hf | − c∗k uk |f i − ci |ui i = k |f i k2 − c∗k uk |f i −ci hf |ui i +c∗k ci uk |ui i , | {z } | {z } | {z } ck c∗ i δik donde k, i = 1, 2, 3, . . . , n Entonces, queda demostrada la desigualdad de Bessel al tomar el lı́mite n → ∞: 2 2 |ck | or 0 ≤ k |f i k − n X n→∞ 2 =⇒ k |f i k ≥ k=1 ∞ X |ck |2 . k=1 Bo rr ad Si definimos el error, Mn , que se comete al aproximar una función con su expansión hasta un término n−ésimo como Mn (b − a) ≡ k |f i − αi |ui i k2 demostraremos que Mn es mı́nima si αi = ci = ui |f i. Para ello procedemos como es costumbre, partiendo de la definición que acabamos de hacer y nos concentramos en el caso finito dimensional: 0 ≤ Mn (b − a) ≡ k |f i − αi |ui i k2 = k |f i − (αi − ci ) |ui i − ck |uk i k2 . Desarrollando Mn (b − a) = hf | − (αk∗ − c∗k ) uk − c∗k uk |f i − (αi − ci ) |ui i − ci |ui i n X =k |f i k2 − c∗i (αi − ci ) − 2c∗i ci − (αk∗ − c∗k )ck + kαj − cj k2 + (αk∗ − c∗k )ck + c∗i (αi − ci ) + c∗i ci " = k |f i k2 − n X i=1 # kci k2 + n X j=1 kαj − cj k2 . j=1 77 2.6. SERIES DE LAURENT Pero la desigualdad de Bessel garantiza que la cantidad entre corchetes es positiva, por lo tanto Mn es mı́nima (y la denotaremos M̃n ) cuando seleccionamos αj = cj . Más aún, M̃n decrece cuando n → ∞, vale decir: n ∞ X X n→∞ M̃n (b − a) = k |f i k2 − kci k2 =⇒ M̃∞ (b − a) = k |f i k2 − kci k2 , i=1 i=1 y si, adicionalmente tenemos que M̃n → 0 cuando n → ∞ entonces es claro que: ∞ X kci k2 ⇒ {|ui i} ⇔ {ui (x)} es completa. r k |f i k2 = in a i=1 Esta noción de convergencia se denomina convergencia al promedio. Si adicionalmente exigimos que la serie ci |ui i converja uniformemente para x ∈ [a, b] entonces es claro que: Z b ∞ X dx kf (x) − ci |ui i k2 = 0 ⇒ |f i = ci |ui i (con i = 1, 2, 3 · · · , ∞) ⇔ f (x) = ci ui (x) . a m i=1 Podemos enumerar las condiciones para la cual exigiremos que una función pueda ser expresada en términos de una base completa de funciones. Pr eli Que f (x) sea cuadrado integrable f (x) ∈ L2[a,b] . P∞ Que la base sea completa, {|ui i} ⇔ {ui (x)} i.e. k |f i k2 = i=1 kci k2 . P∞ Que la serie ci |ui i ⇔ i=1 ci ui (x) converja uniformemente, para x ∈ [a, b]. 2.6. Series de Laurent Anteriormente consideramos series complejas de potencias. En esta sección revisaremos, desde la perspectiva de haber expresado la derivada n-ésima de una función analı́tica, el equivalente a las series de Taylor para funciones complejas de variable complejas. Series de Taylor para funciones analı́ticas or 2.6.1. Bo rr ad Si f (z) es analı́tica en un cı́rculo de radio R, encerrado por un contorno C y centrado en un punto z = z0 , entonces f (z) puede ser expandida en series de potencias (enteras positivas) para todo |z − z0 | < R de la forma: ∞ X f (n) (z0 ) f 00 (z0 ) f (n) (z0 ) f (z) = (z − z0 )n ≡ f (z0 ) + f 0 (z0 )(z − z0 ) + (z − z0 )2 + · · · + (z − z0 )n + Rn , n! 2 n! n=0 con el resto Rn (z) definido como: Rn (z) = (z − z0 )n 2iπ I C f (ζ) dζ . (ζ − z0 )n (ζ − z) Para probar esta afirmación partimos de la fórmula integral de Cauchy escrita convenientemente: I I 1 f (ζ) dζ 1 f (ζ) 1 f (z) = = dζ (2.27) , 2iπ C ζ − z 2iπ C ζ − z0 1 − z − z0 ζ − z0 78 2.6. SERIES DE LAURENT de donde: 1 f (z) = 2iπ I C f (ζ) dζ 1 ≡ ζ −z 2iπ I f (ζ) dζ ζ − z0 C 2 n z − z0 z − z0 z − z0 + ··· + + + 1 + ζ − z0 ζ − z0 ζ − z0 n+1 z − z0 ζ − z0 , ζ −z ζ − z0 1 − rn+1 1 rn+1 1 rn+1 = − ⇒ = 1 + r + r2 + r3 + · · · + rn + . 1−r 1−r 1−r 1−r 1−r Entonces: 1 2iπ C j n f (ζ) dζ 1 f (ζ) X z − z0 + ≡ dζ ζ −z 2iπ C ζ − z0 j=0 ζ − z0 I Pr eli con lo cual: n+1 z − z0 ζ − z0 , ζ −z ζ − z0 m f (z) = I in a Para entenderlo, recordemos que para una serie geométrica, se cumple que: 1 + r + r2 + r3 + · · · + rn = I n n X X 1 f (ζ) f (j) (z0 ) j (z − z0 ) f (z) = dζ + R (z) = (z − z0 )j + Rn (z) , n j+1 2iπ (ζ − z ) j! 0 C j=0 j=0 donde: z − z0 . ζ − z0 r este último corchete proviene de una forma ingeniosa de utilizar una serie geométrica de razón r = (z − z0 )n Rn (z) = 2iπ I dζ C f (ζ) . (ζ − z0 )n (ζ − z) (2.28) (2.29) Bo rr ad or Obvio que la serie (2.28) converge si Rn (z) → 0 cuando n → ∞ y de eso es fácil convencerse al acotar la ecuación (2.29). Esto es, considerando ζ sobre el contorno C y z en el interior de R, entonces: I I (z − z0 )n f (ζ) |z − z0 |n f (ζ) |Rn (z)| = dζ < dζ n 2iπ (ζ − z0 )n (ζ − z) 2π C C (ζ − z0 ) (ζ − z) 1 |z − z0 |n < M n 2πR , 2π R donde, una vez más, hemos utilizado la forma polar ζ̃ = ζ − z0 = Reiθ y hemos acotado lo cual es inmediato constatar que lı́mn→∞ z − z0 R n f (ζ) < M , con ζ −z = 0 ⇒ Rn (z) → 0, con lo cual la serie converge. Ejemplos Expanda f (z) = f (z) = 1 , alrededor de z = z0 1−z ∞ X 1 1 1 1 (z − z0 )n (z − z0 )n 2 3 + (z−z )+ (z−z ) + (z−z ) +· · ·+ +· · · = 0 0 0 2 3 4 n+1 1 − z0 (1 − z0 ) (1 − z0 ) (1 − z0 ) (1 − z0 ) (1 − z0 )n+1 n=0 79 m in a r 2.6. SERIES DE LAURENT Pr eli Figura 2.7: Expansión de Laurent f (z) = ln(1 + z), alrededor de z = 0 (Serie de Maclaurin) ∞ X (−1)n+1 n! (1 − z)n+1 n=1 f (z) = ln(1+z) = ln(1 + z)|z=0 + z=0 f 00 (0) 2 f 000 (0) 3 z2 z3 z + z +· · · = z− + +· · · 2 3! 2 3 1+z f (z) = ln , alrededor de z = 0 (Serie de Maclaurin) 1−z X ∞ 1+z 2z 2n+1 z3 z2 z3 z3 z5 z2 ln + · · · − −z − − ··· = 2 z + + ··· = . ≡ ln[1+z]−ln[1−z] = z − 1−z 2 3 2 3 3 5 2n + 1 n=0 2.6.2. or z n ≡ f (0)+f 0 (0)z+ Series de Laurent Bo rr ad Hemos dicho que si una función f (z) es analı́tica en una región (digamos que circular) R, entonces puede ser expandida por series de Taylor. Sin embargo, si f (z) tiene un polo de orden p, digamos, en z = z0 , dentro de la región R, no será analı́tica en ese punto, mientras que la función: g(z) = (z − z0 )p f (z) si lo será en todos los puntos de esa región. Entonces f (z) podrá ser expandida como series de potencias (de Laurent) de la forma I ∞ ∞ ∞ X X X u−n 1 f (ζ) dζ f (z) = uk (z − z0 )k = un (z − z0 )n + , con u = , (2.30) n n (z − z0 ) 2iπ C (ζ − z0 )n+1 n=0 n=0 k=−∞ para: n = 0, ±1, ±2, · · · y R1 < |z − z0 | < R2 . Equivalentemente g(z) a−p a−p+1 a−1 = + + ··· + + a0 + a1 (z − z0 ) + a2 (z − z0 )2 + · · · (2.31) p p p−1 (z − z0 ) (z − z0 ) (z − z0 ) (z − z0 ) P∞ u−n La suma de todos los términos que tengan potencias negativas, vale decir n=0 (z−z n , se denomina parte 0) principal de f (z). f (z) = 80 2.6. SERIES DE LAURENT Para demostrar (2.30) o (2.31), recordamos que, tal y como muestra la figura 2.8 cuadrante I, si f (z) es analı́tica en la regiún anular, entonces el Teorema de Cauchy, nos garantiza que I I I I 1 f (ζ) dζ 1 f (ζ) dζ 1 f (ζ) dζ 1 f (ζ) dζ f (z) = + ≡ − 2iπ C1 ζ − z0 2iπ C2 ζ − z0 2iπ C1 ζ − z0 2iπ C2 ζ − z0 in a r donde en el segundo caso hemos supuesto que ambas circulaciones tienen el mismo sentido. Del mismo modo como procedimos en la ecuación (2.27) reescribimos el segundo par de integrales como I I 1 1 f (ζ) 1 f (ζ) 1 dζ dζ f (z) = + z − z ζ − z 0 2iπ C1 ζ − z0 1 − 2iπ C2 z − z0 0 1− ζ − z0 z − z0 Pr eli m y ahora invocando, una vez más la progresión geométrica (??) podemos construir expresiones de integrales equivalentes a la ecuación (??). Vale decir n n z − z0 ζ − z0 I I n−1 n−1 X z − z0 j X ζ − z0 j 1 1 f (ζ) f (ζ) ζ − z0 z − z0 + f (z) = dζ + dζ + ζ − z 2iπ C2 ζ −z 2iπ C1 ζ − z0 j=0 ζ − z0 z − z0 j=0 z − z0 ζ − z0 z − z0 y equivalentemente I I n−1 n−1 1 X f (ζ) 1 X 1 j +Rn1 (z) + (z − z0 ) dζ f (z) = dζ f (ζ)(ζ − z0 )j +Rn2 (z) j+1 j+1 2iπ j=0 (ζ − z ) 2iπ (z − z ) 0 0 C C j=0 {z } {z } | 1 | 2 uj u−j (2.32) Con lo cual queda demostrado la forma funcional de los coeficientes de la expansión de Laurent. La demostración de la convergencia, esto es n → ∞ ⇒ Rn1 (z) → Rn2 (z) → 0 sigue el mismo esquema que utilizamos para demostrar la convergencia de la ecuación (2.30) y se lo dejamos como ejercicio al lector. Otra manera de representar las series de Laurent es por medio de las fórmulas: ∞ X ak (z − z0 )k + k=1 k=0 Bo rr ad donde: ∞ X bk , (z − z0 )k or f (z) = ak = bk = R1 < |z − z0 | < R2 . Z 1 f (z) dz , k = 0, 1, 2, . . . , 2πi C (z − z0 )k+1 Z f (z) 1 dz , k = 1, 2, . . . . 2πi C (z − z0 )−k+1 (2.33) (2.34) (2.35) En este caso, se supone que la función es analı́tica en el dominio anular: R1 < |z − z0 | < R2 y C es un contorno cerrado simple en torno a z0 y contenido en la región anular. En el caso de bk podemos ver que el integrando se puede escribir también como f (z)(z − z0 )k−1 . Si f es analı́tica en |z − z0 | < R2 , entonces el integrando es una función analı́tica en dicho disco y por lo tanto bk = 0. Es decir, la serie (2.33) se reduce a una serie de Taylor donde los coeficientes son: Z f (z) 1 f (k) (z0 ) , k = 0, 1, 2, . . . . ak = dz = 2πi C (z − z0 )k+1 n! 81 2.6. SERIES DE LAURENT 2.6.3. Algunos Ejemplos En muchos casos las expansiones en series de Laurent no se generan a partir de las ecuaciones (2.30) o (2.33) sino a partir de manipulaciones algebráicas y expansiones en Taylor moduladas por otros factores. Ejemplo 1: El primero lo haremos directamente, vale decir, que como lo vamos a hacer no lo haremos otra vez. Queremos hacer una representación en serie de Laurent de la función: r 1 . z(z − 1) Utilizando las fórmulas de (2.32), construimos la relación 1 uj = 2πi I C1 1 f (ζ)dζ = (ζ − z0 )j+1 2πi I C1 dζ 1 =− ζ j+2 (ζ − 1) 2πi ∞ dζ X I C1 ζ j+2 ∞ I 1 X dζ ζ =− j+2−n 2πi ζ n=0 n=0 C1 n f (z) = un = −1 un = 0 para n ≥ −1 para n < −1 Pr eli es decir ⇒ m conviertiendo a la forma polar tendremos que ∞ I ∞ X riθeiθ dθ 1 X − =− δj+2−n,1 2πi n=0 C1 rj+2−n ei(j+2−n)θ n=0 in a f (z) = 1 1 = − − 1 − z − z2 − z3 − · · · z(z − 1) z Consideremos los siguientes ejemplos de desarrollos en Series de Laurent: Ejemplo 2: f (z) = 1 . z(z − 2) or La función puede escribirse en la forma: f (z) = 1 1 1 1 =− − , z(z − 2) 2 z z−2 0 < |z| < 2 . Bo rr ad Por otro lado, sabemos que: ∞ ∞ 1 1 1 1 X z n X z n − = = = , z−2 2 1 − z/2 2 n=0 2 2n+1 n=0 |z| < 2 , por lo tanto: 1 f (z) = z(z − 2) ∞ 1 1 1 X zn = − − 2z 2 n=0 2n+1 = − 11 1 1 1 1 1 1 5 − − z − z2 − z3 − z4 − z − ··· , 2z 4 8 16 32 64 128 0 < |z| < 2 . 82 2.6. SERIES DE LAURENT Ejemplo 3: f (z) = 1 (z − 1)(z − 3) Para 1 < |z| < 3. Tenemos los siguientes desarrollos: = ∞ n ∞ X 1 1 1X 1 1 , = = n+1 z 1 − 1/z z n=0 z z n=0 1 z−3 = ∞ ∞ 1 1 1 X z n X z n = , = 3 1 − z/3 3 n=0 3 3n+1 n=0 La serie es: "∞ # ∞ X 1 X zn 1 = − + 2 n=0 3n+1 n=0 z n+1 |z| < 3 , Pr eli 1 f (z) = (z − 1)(z − 3) |z| > 1 , m − 1 z−1 in a r Esta función tienes polos de orden 1 en z = 1 y z = 3. Además, expresando f (z) como una suma de fracciones parciales, tendremos: 1 1 1 1 f (z) = =− − , 1 < |z| < 3 , (z − 1)(z − 3) 2 z−1 z−3 1 1 2 1 3 1 −1 1 −2 1 −3 1 −4 1 z− z − z − z − z − z − z − ··· . = − − 6 18 54 162 2 2 2 2 or Para |z| > 3. En este caso no podemos utilizar el segundo desarrollo anterior, ya que éste es válido sólo para |z| < 3. Por lo tanto: ∞ n ∞ X 1 1 1 1X 3 3n − = − =− , |z| > 3 , =− z−3 z 1 − 3/z z n=0 z z n+1 n=0 podemos entonces escribir Bo rr ad 1 f (z) = (z − 1)(z − 3) para |z| < 1. Escribimos f (z) = = "∞ # ∞ ∞ X 1 X 1 3n 1 X 1 − 3n − = − − 2 n=0 z n+1 n=0 z n+1 2 n=0 z n+1 = z −2 + 4 z −3 + 13 z −4 + 40 z −5 + · · · . 1 1 1 1 1 1 1 1 =− − = − , (z − 1)(z − 3) 2 z−1 z−3 21−z 6 1 − z/3 como |z| < 1 y |z/3| < 1 en este dominio, entonces: f (z) = ∞ ∞ ∞ 1 X n 1 X zn 1X n 1 z − = z 1 − 2 n=0 6 n=0 3n 2 n=0 3n+1 = 13 2 40 3 121 4 1 4 + z+ z + z + z + ··· . 3 9 27 81 243 83 2.6. SERIES DE LAURENT Ejemplo 4: f (z) = Sabemos que: ez = e2z . (z − 1)3 ∞ X zn , n! n=0 |z| < ∞ , e2z (z − 1)3 ∞ ∞ X X 2n (z − 1)n 2n e2 e2(z−1) 2 2 = e = e (z − 1)n−3 3 (z − 1)3 n!(z − 1) n! n=0 n=0 2 4 −3 −2 −1 2 2 2 = e + (z − 1) + 2 (z − 1) + 2 (z − 1) + z + (z − 1) + · · · , 3 3 15 = in a f (z) = r por lo tanto: Ejemplo 5: Esta función se puede escribir como: 1 sen z − 3 . 2 z z f (z) = Sabemos que: sen z = ∞ X (−1)n n=0 entonces 1 sen z − 3 z2 z z 2n+1 , (2n + 1)! |z| < ∞ , ∞ = ∞ X X 1 1 z 2n+1 z 2(n−1) − (−1)n 3 = 2− (−1)n 2 z z (2n + 1)! z (2n + 1)! n=0 n=0 = ∞ ∞ 2(n−1) 2(n−1) X X 1 1 n z n z (−1) (−1) − − = − z2 z 2 n=1 (2n + 1)! (2n + 1)! n=1 = 1 1 2 1 1 1 − z + z4 − z6 + z8 − · · · , 6 120 5040 362880 39916800 Bo rr ad or f (z) = z − sen z . z3 Pr eli f (z) = m la cual es válida para: 0 < |z − 1| < ∞. válida para: 0 < |z| < ∞. 2.6.4. Integración por el método de los residuos Las expansiones de funciones en series de potencias dejan “residuos” al detener la expansión a para una determinada potencia. Esto se puede apreciar claramente en la expresión de Taylor para funciones analı́ticas. Ahora, las expansiones de Laurent nos muestran otro “residuo”. Explotaremos las series de Laurent para funciones con polos y construiremos un método para evaluar integrales de funciones en esos puntos. Primero estudiaremos los residuos en general y luego los utilizaremos para evaluar integrales. 84 2.6. SERIES DE LAURENT 2.6.5. Los residuos de Laurent Hemos dicho que si f (z) tiene un polo de orden p en z = z0 ∈ R, entonces ∞ X I dz f (z) 6= 0 ⇒ f (z) = C ak (z−z0 )k = n=−∞ a−p+1 a−1 a−p + +· · ·+ +a0 +a1 (z−z0 )+a2 (z−z0 )2 +· · · (z − z0 )p (z − z0 )p−1 (z − z0 ) r más aún, tendremos que los coeficientes de la expansión pueden ser calculados a partir de I I 1 f (ζ) dζ n = 0, ±1, ±2, · · · si n = −1 ⇒ an = f (ζ) dζ = 2iπa−1 ≡ 2iπRes f (z) 2iπ C (ζ − z)n+1 C in a (2.36) m Es decir, la integración a lo largo de un contorno C que aisle al polo z = z0 es proporcional al residuo correspondiente a la expansión de Laurent alrededor de ese polo. Nos queda entonces calcular el residuo para ası́ no calcular la integral. Esta situación se ilustra con el siguiente ejemplo. Supongamos 1 z3 1 z5 1 z sen z = 4 z− + + ··· = 3 − + + ··· , f (z) = 4 z z 3! 5! z 3!z 5! por lo tanto: I 1 3! ⇒ f (ζ) dζ = 2iπa−1 = − iπ 3 Pr eli a−1 = − C En general, si f (z) tiene un polo de orden p en z = z0 ∈ R, entonces (z−z0 )p f (z) = a−p +a−p+1 (z−z0 )+· · ·+a0 (z−z0 )p +· · · ⇒ con lo cual concluimos que a−1 ≡ Res f (z) = lı́m z→z0 ∞ X dp−1 p bn (z−z0 )n [(z−z ) f (z)] = (p−1)!a + 0 −1 dz p−1 n=1 1 dp−1 p [(z − z0 ) f (z)] (p − 1)! dz p−1 (2.37) or Si, por ejemplo consideramos Bo rr ad eiz eiz ≡ f (z) = 2 2 (z + 1) (z + i)2 (z − i)2 ⇒ z0 = i ⇒ d d eiz 2 [(z − i) f (z)] = dz dz (z + i)2 z0 = −i ⇒ d eiz d 2 [(z + i) f (z)] = dz dz (z − i)2 con lo cual Res eiz 2 (z + 1)2 1 d eiz (z + i)2 ieiz − eiz 2(z + i) −4ie−1 − −4ie−1 i = lı́m = =− 2 2 z→i 1! dz (z + i) z→i (z + i) 16 2e = lı́m i del mismo modo se procede para el caso z = −i Un caso particular y muy útil lo constituyen las funciones racionales del tipo f (z) = p(z) y f (z) tiene q(z) un polo simple en z = z0 . Esto es q(z0 ) = 0 entonces Res f (z)|z0 = lı́m z→z0 p(z0 ) (z − z0 )p(z) (z − z0 ) = p(z0 ) lı́m = 0 z→z0 q(z) q(z) q (z0 ) (2.38) 85 m in a r 2.7. TEOREMA DEL RESIDUO Pr eli Figura 2.8: Expansión de Laurent porque hemos utilizado el Teorema de L’Hopital. Este caso lo podemos ejemplificar si consideramos una función 4 − 3z z = 0 ⇒ Res f (z)|z=0 = = −4 2z − 1 z=0 4 − 3z 4 − 3z ≡ con polos en (2.39) f (z) = 2 z −z z(z − 1) 4 − 3z =1 z = 1 ⇒ Res f (z)|z=1 = 2z − 1 z=1 2.7.1. Teorema del Residuo Integrales impropias del tipo R∞ or 2.7. −∞ dx f (x) Bo rr ad Hemos visto como calcular las integrales de funciones, en regiones múltiplemente conexas, con polos simples a partir de residuos. Ahora generalizaremos ese esquema para una región, también múltiplemente conexa, pero con un número finito de polos. Tal y como se muestra en la figura 2.8 en el cuadrante II, realizamos una circulación ingeniosa, de tal modo que aislamos los distintos polos. Ahora bien, como la función es analı́tica en la región bordeada por todos esos contornos, entonces I I I I dz f (z) + dz f (z) + dz f (z) + · · · dz f (z) = 0 C C1 C2 Cm y al cambiar el sentido de circulación comprobamos lo que ya sabı́amos I I I I I m X dz f (z) = dz f (z) + dz f (z) + · · · dz f (z) ⇔ dz f (z) = 2iπ Res f (z)z=z0j C C1 C2 Cm C j=1 donde hemos utilizado lo que hicimos para la ecuación (2.36) Con ello podemos enunciar el Teorema del Residuo que ya hemos demostrado 86 2.7. TEOREMA DEL RESIDUO Si f (z) es analı́tica en una región R excepto en un número, m, finito de polos z01 , z02 , z03 , · · · z0m entonces m X I dz f (z) = 2iπ C Res f (z)z=z0j j=1 4 − 3z , una función con polos simples en z = 0 y z2 − z z = 1 correspondientes a residuos 4 y 1, respectivamente, tal y como se vió en la sección (2.6.5). Entonces, utilizamos los resultado expuestos en el ejemplo (2.39) I 4 − 3z dz 2 = 2πi(−4 + 1) = −6πi z −z C in a r Una vez más ejemplificamos. Sea la función f (z) = siempre y cuando el circuito C encierre los dos polos, z = 0 y z = 1, para los cuales hemos calculado los residuos. m Ejercicios 2. Evaluar a) I C dz ez cosh z b) I C Pr eli 1. Determinar los polos y los residuos correspondientes para cada una de las funciones propuestas 2 z+1 sen z 2z + 1 ; f (z) = ; f (z) = cot z ; f (z) = f (z) = 2 z −z−2 z−1 z2 a lo largo de una circunsferencia |z| = 5 (2z 2 + 5)dz (z + 2)3 (z 2 + 4)z 2 a lo largo de una circunsferencia |z − 2i| = 6 y 2.7.2. or un cuadrado de vértices z = 1 + i; z = 2 + i; z = 2 + 2i y z = 1 + 2i. Evaluación de integrales, reales, impropias Bo rr ad El teorema del residuo (2.7) es una herramienta poderosa para evaluar algunos tipos de integrales definidas en variable real. La intención es “extender” el dominio de las funciones de la recta real al Plano Complejo. Una de las restricciones es que los contornos deben ser cerrados antes de que sean evaluados los residuos. El punto es que muchas integrales reales tienen contornos abiertos y la posibilidad de evaluar estas integrales a través del Teorema del Residuo descansa en la forma como se cierran los contornos. En estos casos se debe estimar las contribuciones de esos contornos adicionales que pemiten cerrar los contornos abiertos. A continuación expondremos algunas técnicas para cerrar algunos tipos de contornos abiertos. 2.7.3. Integrales impropias del tipo R∞ −∞ dx f (x) Este tipo de integrales implica, si ambos lı́mites existen Z ∞ Z 0 Z dx f (x) = lı́m dx f (x) + lı́m −∞ r→−∞ r r→∞ 0 r Z r dx f (x) ↔ lı́m r→∞ dx f (x) −r 87 m in a r 2.7. TEOREMA DEL RESIDUO Pr eli Figura 2.9: Circuitos y evaluación de integrales reales, impropias Necesitaremos que el integrando sea una función racional f (x) = p(x)/q(x), donde q(x) 6= 0 ∀ x. Adicionalmente requeriremos que cuando menos q(x) ∼ x2 p(x). Supuesto todo esto, convertimos nuestra Hfunción racional en una función de variable compleja f (x) → f (z) y consideramos la integral de circulación, C dz f (z), sobre un contorno C descrito por el eje real y una semicircunsfrencia Γ en el plano complejo con y ≥ 0, tal y como R ∞ se muestra en el cuadrante I la figura 2.10. La intención es hacer r → ∞ y con ello evaluar la integral dx f (x). Es fácil convencerse que 0 I Z dz f (z) = C r Γ dx f (x) = 2iπ −r Z r dx f (x) = 2iπ −r m X m X Res f (z)z=z0j j=1 or es decir, Z dz f (z) + Z Res f (z)z=z0j − dz f (z) Γ j=1 Bo rr ad Esta estrategia es válida porque hemos supuesto que f (x) es racional y que q(x) 6= 0 ∀ x, entonces si existen polos para f (z) estarán en el plano complejo (no sobre el eje real). Todos esos polos serán encenrados R por el contorno C que hemos seleccionado. Más aún, comprobaremos que Γ dz f (z) → 0 cuandoz → ∞. Esto es sencillo si notamos que Z k kπ k 2 dz f (z) < 2 πr = para |z| = r ≥ 0 q(x) ∼ x p(x) ⇒ |f (z)| < 2 ⇒ |z| r r Γ con lo cual llegamos a que para este tipo de integrales Z ∞ dx f (x) = 2iπ −∞ m X j=1 Res f (z)z=z0j para f (x) = p(x) , q(x) con q(x) 6= 0 ∀ x ∧ p(x) ∼ x2 q(x) (2.40) 88 2.7. TEOREMA DEL RESIDUO Ejemplo Considere evaluar la siguiente integral Z ∞ Z ∞ m X dx dx ⇒ = 2iπ Res f (z)z=z0j 4 4 4 4 −∞ x + 1 −∞ x + 1 j=1 donde hemos utilizado la expresión (2.40). La extensión analı́tica 1 z4 + 1 iπ tendró cuatro polos simples: z = e± 4 ; z = e± 3iπ 4 ; r f (x) → f (z) = m in a correspondientes a las cuatro raı́ces de z 4 = −1. Acto seguido calculamos los residuos invocando la relación (2.38) que hemos construido para funciones racionales. Esto es −3iπ iπ 1 e 4 e4 iπ 4 iπ = = = z = e ⇒ Res f (z)| z=e 4 4z 3 z=e iπ 4 4 4 p(z0 ) p(z) = 0 Res ⇒ −9iπ −iπ q(z) z=z0 q (z0 ) 1 e 4 e 4 3iπ 4 3iπ ⇒ Res f (z)| z = e = = = z=e 4 4z 3 z=e 3iπ 4 4 4 Pr eli Hemos considerado únicamente los polos para el semiplano complejo y > 0 ya que seguimos considerando el circuito descrito en el cuadrante I de la figura 2.10. Quedan dos polos ubicados en el semiplano complejo y < 0, tal y como se muestra en el cuadrante II de la misma figura 2.10. Consecuentemente, tendremos que √ Z ∞ Z ∞ Z π √2 −iπ dx 2πi iπ dx 1 ∞ dx 2 4 + e 4 = e = πsen = π ⇒ = = π 4+1 4 + 14 4 + 14 x 4 4 2 x 2 x 4 −∞ 0 −∞ Ejemplo Para evaluar la siguiente integral Z ∞ x2 dx 2 2 2 −∞ (x + 1) (x + 2x + 2) ⇒ f (z) = z2 (z 2 + 1)2 (z 2 + 2z + 2) Bo rr ad or donde hemos realizado la extensión analı́tica f (x) → f (z) y ubicado sus polos de z = i y z = i − 1 en el semiplano complejo y > 0 y los encerrados por el circuito descrito en el cuadrante I de la figura 2.10. El primero de estos polos es de segundo orden, mientras que el segundo corresponde a un polo simple. Consecuentemente, los residuos se calculan invocando la relación general (2.37) arriba expuesta. Con lo cual para d z2 −12 + 9i 2 = z = i ⇒ lı́m (z − i) z→i dz (z − i)2 (z + i)2 (z 2 + 2z + 2) 100 y para z2 3 − 4i z = i − 1 ⇒ lı́m (z − i + 1) 2 = 2 z→i−1 (z + 1) (z − i − 1)(z + i − 1) 25 Finalmente, podemos evaluar la integral Z ∞ −∞ Ejercicios 2 X −12 + 9i 3 − 4i 7π x2 dx = 2iπ Res f (z)z=z0j = 2πi + = (x2 + 1)2 (x2 + 2x + 2) 100 25 50 j=1 Evaluar las siguientes integrales Z ∞ Z ∞ dx dx ; ; 2 2 2 4 (x + 1)(x + 4) x + x2 + 1 0 0 Z ∞ −∞ (x2 dx + 4x + 5)2 89 2.7. TEOREMA DEL RESIDUO 2.7.4. Integrales de funciones racionales de cos θ y sen θ r Ahora mostraremos la estrategia para integrales de funciones racionales de funciones trigonométricas, G(cos θ, sen θ). La idea es transformar estas integrales en otras de funciones de varible compleja a través de los cambios de variables que conectan las funciones trigonométricas y los números complejos. Esto es transformar integrales de la forma Z 2π I dz dθ G(cos θ, sen θ) → f (z) 0 C zi z = re dz ; ⇒ dθ = zi 1 cos θ = 2 1 z+ ; z Ejemplo En las tablas de integrales encontrábamos9 que Z 2π dθ 2π =√ 2 a + bsen θ a − b2 0 y 1 sen θ = 2i con |a| > |b| 1 z− z (2.41) m iθ in a mediante cambios de variables estándares Pr eli veamos como se llega a ese resultado. Haciendo z = reiθ y asumiendo las consecuencias, tal y como se presenta en (2.41) arriba, tendremos que I I Z 2π dz 2dz dθ zi = = con C una circunferencia |z| = 1 b 1 2 a + bsen θ C a + 2i z − z C bz + 2aiz − b 0 los polos de √ 2 −a ± a2 − b2 ⇒ z = i ±0 bz 2 + 2aiz − b b son los valores de z que anulan el denominador de f (z). Seguidamente verificamos la ubicación de los polos simples y comprobamos que como |a| > |b| entonces √ √ −a − a2 − b2 −a + a2 − b2 y |z−0 | = |z+0 | = i <1 i >1 b b or f (z) = Bo rr ad y por lo tanto, sólo el primero de los polos está encerrado por el circuito C con |z| = 1 tal y como muestra en el cuadrante III de la figura 2.10. Una vez más calculamos el residuo para z+0 a partir de (2.37). Entonces tendremos que Res f (z)|z=z+0 = lı́m (z − z+0 ) z→z+0 finalmente Z 0 2π dθ = a + bsen θ I C 2 2 1 −i = lı́m = ≡√ bz 2 + 2aiz − b z→z+0 2bz + 2ai bz+0 + ai a2 + b2 2dz 2π = 2iπRes f (z)z=z+0 = √ . 2 bz 2 + 2aiz − b a − b2 Ejercicios Compruebe las siguientes evaluaciones Z 2π dθ 2π =√ con a2 > b2 + c2 ; 2 a + b cos θ + csen θ a − b2 − c2 0 Z 0 2π cos2 3θ dθ 3π = . 5 − 4 cos 2θ 8 9 Encontrábamos porque hoy en dı́a estas integrales las calculamos con manipuladores simbólicos del tipo Maple, Reduce, Matemathica o Mupad 90 2.8. INTEGRALES DE FOURIER 2.8. Integrales de Fourier Otro grupo de integrales que pueden ser evaluadas mediante el Teorema de Residuos son las integrales de Fourier. Integrales que involucran funciones racionales, f (x), que satisfacen las condiciones expuestas anteriormente y funciones senos y consenos. Integrales del tipo I Z ∞ Z ∞ m X cos mx dx f (x)eimx → dz f (z)eimz = 2iπ dx f (x) ↔ Res f (z)eimz z=z0j (2.42) sen mx −∞ C −∞ r j=1 −∞ j=1 ∞ dx f (x)sen mx = 2π −∞ m X m Z in a Con m > 0 y los polos correspondientes a los residuos que se muestran en el lado derecho, están ubicados en el semiplano complejo con y > 0. Es claro que el circuito seleccionado es Γ que muestra el cuadrante II de la figura 2.10. Equivalentemente, igualando partes reales e imaginarias Z ∞ m X dx f (x) cos mx = −2π Im Res f (z)eimz z=z0j Re Res f (z)eimz j=1 z=z0j . Pr eli Otra vez, el circuito C se separa en una semicircunferencia Γ y el eje real. Para demostrar que para evaluar las integrales de Fourier (2.42) se requiere la suma de los residuos nos convencemos que la integral a lo largo de la semicircunferencia se anula. Esto es fácil si comprobamos que y > 0 y m > 0, entonces si z = x + iy tendremos que |eimz | = |eimx ||e−my | = e−my < 1 ⇒ |f (z)eimz | = |f (z)| ≤ |f (z)| |eimz | con lo cual redujimos al de una función racional. Comprobemos que Z ∞ dx cos mx π = e−km 2 + k2 x k −∞ Z ∞ y or Ejemplo: −∞ dx sen mx =0 x2 + k 2 es fácil ver que el polo simple de la continuación analı́tica de f (x) es z0 = ik y su residuo será eimz + k2 ⇒ z0 = ik Bo rr ad f (z) = z2 y por lo tanto Z ∞ dx −∞ Ejemplo: ⇒ Res eimz + k2 z2 = z=ik eimz 2z = z=ik e−mk 2ik e−mk π eimx = 2iπ = e−mk x2 + k 2 2ik k Evalue Z ∞ dx −∞ xsen πx x2 + 2x + 5 Partimos de la continuación analı́tica de zeizπ f (x) → f (z) = 2 z + 2z + 5 ⇒ z±0 = −1 ± 2i I ⇒ dz C zeizπ zeizπ = Res z 2 + 2z + 5 z 2 + 2z + 5 z=−1+2i 91 m in a r 2.8. INTEGRALES DE FOURIER Pr eli Figura 2.10: Circuitos y evaluación de integrales reales, impropias ya que ese es el único polo encerrado por la circulación Γ. Calculando el residuo tendremos zeizπ zeizπ e−π(2+i) = lı́m (z + 1 − 2i) 2 Res 2 = (−1 + 2i) z + 2z + 5 z=−1+2i z→−1+2i z + 2z + 5 4i con lo cual I Z ∞ Z ∞ zeizπ x cos πx xsen πx e−π(2+i) π dz 2 = dx 2 +i dx 2 = 2iπ(−1 + 2i) = (1 − 2i)e−2π z + 2z + 5 x + 2x + 5 x + 2x + 5 4i 2 C −∞ −∞ Bo rr ad or igualando parte real e imaginaria tendremos que Z ∞ x cos πx π dx 2 = e−2π x + 2x + 5 2 −∞ Z ∞ y xsen πx = −πe−2π x2 + 2x + 5 dx −∞ Ejercicios: Compruebe que Z ∞ πe−m (1 + m) cos mx = Para m > 0 dx 2 (x + 1)2 4 0 Z y ∞ dx 0 π −π/√3 cos 2πx √ = e x4 + x2 + 1 2 3 Otras Integrales Impropias Existen integrales definidas para las cuales el integrando se hace infinito para un determinado punto en el rango de integración. Esto es, en general Z b Z x0 −ζ Z b lı́m |f (x)| → ∞ ⇒ dx f (x) = lı́m dx f (x) + lı́m dx f (x) x→x0 a ζ→0 a ξ→0 x0 +ξ 92 2.8. INTEGRALES DE FOURIER donde ζ y ξ tienden a cero de forma independiene, es decir, ambos lı́mites se efectuan independientemente. Ahora bien, puede darse el caso que uno o ambos lı́mites no existan pero si existe ! Z x0 − Z b Z b dx f (x) + lı́m dx f (x) lı́m ⇔ V.P. dx f (x) →0 ξ→0 a x0 + a Ejemplo: in a r Diremos entonces que existe el Valor Principal de Cauchy para esa integral. La estrategia en estos casos será diseñar un circuito tal que evite los polos de la extensiı́on analı́tica de la función. Normalmente se establece este recorrido rodeando los polos con arcos de circunferencia cuyos radios luego tenderán a cero. Veamos con un ejemplo esta estrategia de circunsnavegación. Consideremos que queremos evaluar la siguiente integral Z ∞ sen x sen x ↔ lı́m =1 dx x→−0 x x 0 Pr eli m Si bien el lı́mite está definido, cuando hacemos la extensión analı́tica10 f (x) = sen x/x → f (z) = eiz /z la función compleja presenta un polo simple en z = 0, con lo cual la integral compleja presenta un polo en la región de integración. Esto es I Z − Z Z R Z Z ∞ eiz eix eiz eix eiz sen x → dz = dx + dz + dx + dz =0 dx x z x z x z C −R C2 C1 0 donde hemos construido un circuito que rodea el polo z = 0 (cuadrante IV de la figura 2.10.). Es claro que H iz dz ez = 0 porque la región no contiene ningún polo. C R iz Ahora mostraremos que C1 dz ez → 0, cuando R → ∞. Para ello, convertimos z = Reiθ ⇒ dz/z = idθ , entonces dz C1 eiz = z I1 = dθ |eiz | = Z 0 π Z π dθ |eiz | = 0 dθ e−Rsen θ = 2 Bo rr ad 0 π dθ ieiz ≤ 0 con lo cual Z π Z Z 0 or Z Z 0 π dθ |eiR cos θ | |e−Rsen θ | = | {z } π/2 dθ e−Rsen θ Z 1 Z = 2 0 ζ θ dθ e|−Rsen {z } + I1 π dθ e−Rsen θ 0 Z ζ π/2 θ dθ e|−Rsen {z } I2 para 0 ≤ ζ ≤ π/2. Es claro que e−Rsen θ es una función decreciente en θ y como estamos tratando de demostrar que la integral a lo largo del circuito se anula I1 → 0, podremos considerar los máximos valores para I1 y I2 en el entorno de integración y fijarlos como constantes, al hacer esto tendremos lo máximos valores que podrán tomar las integrales respectivas. Los máximos valores para I1 y I2 , son, 1 y e−Rζ . Entonces, "Z Z π Z π/2 # ζ h π i iz −Rsen ζ I1 = dθ |e | ≤ 2 dθ + e dθ = 2 ζ + e−Rsen ζ − ζ < 2ζ + πe−Rsen ζ 2 0 0 ζ 10 Nótese que la extensión analı́tica ha sido f (x) = sen x/x → f (z) = eiz /z y no f (x) = sen x/x → f (z) = sen z/z La razón de esta selección se fundamenta en el comportamiento patológico (oscilante) de la función seno en infinito. 93 2.9. SERIES DE POLINOMIOS ORTOGONALES Al considerar que ζ → 0 y R → ∞ comprobamos que I1 → 0. R iz Seguidamente nos toca demostrar que I2 = C2 dz ez → 0 cuando → 0. Para este caso z = eiθ y como siempre, dz/z = idθ, entonces la integral Z Z π Z π eiz I2 = dz dθ iei exp(iθ) = iπ = dθ iei exp(iθ) ⇒ lı́m I2 = lı́m →0 →0 z 0 C2 0 dz C Z − dx −R eix + iπ + x Z R eix =0 x dx R Z | ⇒ {z } dx x→−x eix − e−ix + iπ = 0 x con lo cual es claro que R eix − e−ix dx = −iπ x R Z ⇒ 2i donde hemos hecho los lı́mites R → ∞ y → 0. Z ∞ 2 Z dx sen x = 0 2. Z 0 ∞ dx 0 sen x π = x 2 Z ∞ 2 0 Z x−p = 2 x + 2x cos α + 1 ∞ 0 2π 4 √ (ln x)2 3π 3 2 dx 4 = x +1 16 π sen pπ sen pα sen α or 0 √ ∞ dx cos x = √ ln x π2 2 dx 4 =− ; x +1 16 dx 2.9. ∞ Comprobar las evaluaciones para las siguientes integrales 1. 3. ⇒ Pr eli Ejercicios: Z sen x dx = −iπ x m Z in a eiz = z I r Esto implica que Series de Polinomios Ortogonales Bo rr ad Enunciaremos un teorema debido a Weierstrass el cual garantiza que una función contı́nua en un intervalo [a, b] puede ser aproximada uniformemente por una serie de polinomios. Por lo tanto, cualquier función contı́nua podrá ser aproximada por combinaciones lineales de potencias. El Teorema de aproximación polinómica de Weiernstrass queda enunciado como sigue. Cualquier función contı́nua f (x) en un intervalo cerrado x ∈ [a, b] podrá ser aproximada uniformente por polinomios en ese mismo intervalo si, para un n suficientemente grande y un suficientemente pequeño siempre se tiene que |Pn (x) − f (x)| < ∀ x ∈ [a, b] Aceptaremos este teorema sin demostración11 , sin embargo este teorema nos permitirá desarrollar las secciones siguientes. 11 Consultar: Byron, F.W. y Fuller W.F. (1970) Mathematics of Classical and Quantum Physics y Cushing, J. (1975) Applied Analytical Mathematics for Physical Sciences. 94 2.10. POLINOMIOS DE LEGENDRE 2.10. Polinomios de Legendre El primero de los ejemplos de una base ortonormal de polinomios en la cual podremos expresar cualquier función contı́nua en el intervalo cerrado x ∈ [−1, 1] serán los Polinomios de Legendre. Estos vienen construidos a partir de la Fórmula de Rodrı́gues 1 dn 2 (x − 1)n , n!2n dxn n = 0, 1, 2, ..... r Pn (x) = in a con P0 (x) = 1. Es decir Generalidades de los Polinomios de Legendre Pr eli 2.10.1. P1 (x) = x 1 P3 (x) = (5x3 − 3x) 2 1 P5 (x) = (63x5 − 70x3 + 15x) 8 .. . m P0 (x) = 1 1 P2 (x) = (3x2 − 1) 2 1 P4 (x) = (35x4 − 30x2 + 3) 8 .. . Es fácil comprobar que los polinomios de Legendre son mutuamente ortogonales para un producto interno definido de la siguiente manera Z 1 2 δnm . Pn (x)Pm (x)dx = 2n +1 −1 Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1. La norma es definida por Z 1 Pn2 (x)dx = −1 2 2n + 1 Ejemplos: 1. Z 1 or nótese que los polinomios de Legendre, calculados a partir de la Fórmula de Rodrigues no están normalizados. Z 1 Bo rr ad P1 (x) P2 (x) dx = −1 2. Z 1 Z 1 P2 (x) P2 (x) dx = −1 −1 [x] −1 1 3x2 − 1 2 Z 1 1 3 3 1 3x2 − 1 dx = x − x dx = 0 . 2 2 2 −1 Z 1 1 9 4 3 2 1 2 3x2 − 1 dx = x − x + dx = . 2 4 2 4 5 −1 Al ser los Polinomios de Legendre un conjunto completo de funciones, ellos expanden el espacio de funciones contı́nuas en el intervalo cerrado x ∈ [−1, 1]. Por ello cualquier función en el intervalo [−1, 1] puede ser expresada en esa base. Z 1 ∞ X 2k + 1 f (x) = f (t)Pk (t) dt Pk (x) , 2 −1 k=0 | {z } ak 95 2.10. POLINOMIOS DE LEGENDRE los primeros términos son: Z 1 Z 1 Z 1 1 3 5 2 f (x) = f (t)dt + tf (t)dt P1 (x) + (3t − 1)f (t)dt P2 (x) 2 −1 2 −1 4 −1 Z 1 Z 1 9 7 (5t3 − 3t)f (t)dt P3 (x) + (35t4 − 30t2 + 3)f (t)dt P4 (x) + · · · + 4 −1 16 −1 1. Si f (x) es un polinomio f (x) = m X bn x n = n=0 ∞ X an Pn (x) , n=0 in a r Ejemplos entonces, no se requiere hacer ninguna integral por cuanto los coeficientes an se determinan a través de un sistema de ecuaciones algebraicas. Para el caso de f (x) = x2 tendremos m = a0 P0 (x) + a1 P1 (x) + a2 P2 (x) 1 = a0 + a1 x + a2 (3x2 − 1) 2 3 1 2 1 = a0 − a2 + a1 x + a2 x2 ⇒ a0 = , a1 = 0 , a2 = 2 2 3 3 1 2 = P0 (x) + P2 (x) . 3 3 Pr eli f (x) = x2 2. En el caso de una función mas complicada r f (x) = por un lado Z 1 Z 1−x , 2 1 or f (x)Pk (x)dx = −1 −1 r 1−x Pk (x)dx 2 Bo rr ad la expansión en series de Legendre quedarı́a como "Z # "Z # r r r Z r 1 1 1−x 1 1 1−t 3 1−t 5 1−t 2 = dt + t dt P1 (x) + (3t − 1) dt P2 (x) 2 2 −1 2 2 −1 2 4 −1 2 "Z # "Z # r r 1 1 7 1−t 9 1−t 3 4 2 + (5t − 3t) dt P3 (x) + (35t − 30t + 3) dt P4 (x) + · · · 4 −1 2 16 −1 2 = = 2 2 2 2 2 2 P0 (x) − P1 (x) − P2 (x) − P3 (x) − P4 (x) − P5 (x) − · · · 3 5 21 45 77 117 ∞ X 2 Pn (x) P0 (x) − 2 . 3 (2n − 1) (2n + 3) n=1 Antes de entrar en el detalle de las propiedades de estos polinomios, hay que enfatizar que los Polinomios de Legendre constituyen la única base ortogonal para un espacio de Hilbert con un producto interno definido como el producto simple de funciones en el intervalo cerrado. Al ortonormalizar mediante Gram Schmidt 96 2.10. POLINOMIOS DE LEGENDRE la base 1, x, x2 , x3 , · · · , xn , · · · del espacio de polinomios, P n , de grado n en el intervalo [−1, 1], con el R1 producto interno definido por −1 dx f (x) g (x) se obtienen los polinomios de Legendre. Los polinomios de Legendre surgen, originalmente, como soluciones a la ecuación diferencial ordinaria del tipo d 2 dy 1−x + λ y = 0 , −1 ≤ x ≤ 1 . dx dx dPn (x) d2 Pn (x) − 2x + n(n + 1) Pn (x) = 0 , dx2 dx in a (1 − x2 ) r o de manera equivalente a ecuaciones como donde y = Pn (x) y λ = n(n + 1). La siguiente tabla muestra algunas ecuaciones diferenciales con sus respectivas soluciones Ecuación de Legendre 2 (1 − x ) 0 Solución dP0 (x) dx − 2x =0 P0 (x) = 1 1 (1 − x2 ) d2 P1 (x) dx2 − 2x dP1 (x) dx + 2 P1 (x) = 0 P1 (x) = x 2 (1 − x2 ) d2 P2 (x) dx2 − 2x dP2 (x) dx + 6 P2 (x) = 0 P2 (x) = 1 − 3x2 Pr eli 2.10.2. d2 P0 (x) dx2 m n 3 (1 − x2 ) d2 P3 (x) dx2 − 2x dP3 (x) dx + 12 P3 (x) = 0 P3 (x) = x − 35 x3 4 (1 − x2 ) d2 P4 (x) dx2 − 2x dP4 (x) dx + 20 P4 (x) = 0 P4 (x) = 1 − 10x2 + 35 4 3 x Relación de Recurrencia or Supongamos que conocemos todos los polinomios de Legendre hasta Pn (x) y queremos generar el próximo. Obviamente ese polinomio será de grado n + 1. Nos plantemos generarlo a partir de xPn (x). Como estos polinomios son base del espacio de funciones, entonces xPn (x) = n+1 X Bo rr ad k=0 2k + 1 2 Z 1 Pk (t)tPn (t) dt Pk (x) , −1 Observando con algo más de detalle Z 1 Z 1 Z 3 5 1 1 tPn (t)dt + t2 Pn (t)dt P1 (x) + (3t3 − t)Pn (t)dt P2 (x) xPn (x) = 2 −1 2 −1 4 −1 Z 1 Z 1 7 9 4 2 5 3 + (5t − 3t )Pn (t)dt P3 (x) + (35t − 30t + 3t)Pn (t)dt P4 (x) + · · · . 4 −1 16 −1 Notemos que Z 1 −1 Z 1 Pn (t)tPn (t)dt = tPn2 (t)dt , −1 por lo tanto, el integrando es una función impar. Consideremos algunos casos: 97 2.10. POLINOMIOS DE LEGENDRE Para n = 0 xP0 (x) = 3 2 1 Z 2 t dt P1 (x) = P1 (x) −1 Para n = 1 = Z 1 5 1 2 t2 dt + (3t4 − t2 )dt P2 (x) = + P2 (x) 4 3 3 −1 −1 Z 1 2 1 Para n = 2 = = in a xP2 (x) Z 1 Z 1 3 7 4 2 3 3 (3t − t )dt P1 (x) + (5t − 3t)(3t − t)dt P3 (x) 4 −1 16 −1 2 3 P1 (x) + P3 (x) . 5 5 = 3 4 P2 (x) + P4 (x) . 7 7 Se puede apreciar que Z 1 m Para n = 3 xP3 (x) r xP1 (x) Pr eli Pn (x)xPk (x)dx = 0 , para k < n − 1 . −1 Esto implica que sobreviven únicamente tres términos xPn (x) = APn+1 (x) + BPn−1 (x) . Desarrollando con la fórmula de Rodrı́gues = = A dn+1 2 B dn−1 2 n+1 (x − 1) + (x − 1)n−1 , (n + 1)!2n+1 dxn+1 (n − 1)!2n−1 dxn−1 A dn+1 2 dn−1 2 n+1 (x − 1) + 2nB (x − 1)n−1 . 2(n + 1) dxn+1 dxn−1 or x dn 2 (x − 1)n n!2n dxn dn x n (x2 − 1)n dx Igualando coeficientes resulta n+1 n , B= 2n + 1 2n + 1 La relación de recurrencia se puede obtener entonces de: Bo rr ad A= (n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x) . 2.10.3. Norma de los Polinomios de Legendre Conociendo que la ortogonalidad de los polinomios de Legendre y la relación de recurrencia, procedemos encontrar el valor de su norma Z 1 2 Pn2 (x)dx = 2n + 1 −1 De la relación de recurrencia cambiando n → n − 1 se tiene nPn (x) = (2n − 1) xPn−1 (x) − (n − 1) Pn−2 (x) , (2n + 1) Pn (x)nPn (x) = (2n + 1) Pn (x) [(2n − 1) xPn−1 (x) − (n − 1) Pn−2 (x)] , (2.43) 98 2.10. POLINOMIOS DE LEGENDRE ahora multiplicamos la relación de recurrencia por (2n − 1) Pn−1 (x) para obtener (2n − 1) Pn−1 (x) (n + 1) Pn+1 (x) = (2n − 1) Pn−1 (x) [(2n + 1) xPn (x) − nPn−1 (x)] , (2.44) restando miembro a miembro (6.13) - (6.14) obtenemos : 2 (2n + 1) nPn2 (x) + (n − 1) Pn (x)Pn−2 (x) − (2n − 1) (n + 1) Pn−1 (x)Pn+1 (x) + nPn−1 (x) = 0 , (n − 1) Pn (x)Pn−2 (x) n 2 (2n − 1) (n + 1) Pn−1 (x)Pn+1 (x) + nPn−1 (x) , 2n − 1 (n + 1) 2 = Pn−1 (x)Pn+1 (x) + Pn−1 (x) , 2n + 1 n in a Pn2 (x) + r lo que es igual a: (2n + 1) nPn2 (x) + (n − 1) Pn (x)Pn−2 (x) = continuando con este proceso Z 1 Pn2 (x)dx = −1 1 Z Pr eli m integrando y considerando la ortogonalidad Z 1 Z 1 2n − 1 2 Pn−1 Pn2 (x)dx = (x)dx 2n + 1 −1 −1 Z 1 Z 1 2n − 1 2n − 3 2 2 Pn (x)dx = Pn−2 (x)dx 2n + 1 2n − 1 −1 −1 Z 1 Z 1 2n − 1 2n − 3 2n − 5 2 Pn2 (x)dx = Pn−3 (x)dx 2n + 1 2n − 1 2n − 3 −1 −1 3 2n + 1 Z 1 P12 (x)dx = −1 3 2 2n + 1 3 2 . Pn2 (x)dx = 2n +1 −1 Función Generatriz de los Polinomios de Legendre or 2.10.4. Se puede encontrar una función generatriz P(t, x) de los polinomios de Legendre, es decir una función que tenga la forma: ∞ X 1 = P0 (x) + P1 (x) t + P2 (x) t2 + · · · = Pn (x) tn , |t| < 1 , |x| ≤ 1 , 1 − 2xt + t2 n=0 Bo rr ad P(t, x) = √ para la cual los Pn (x) son los coeficientes de su desarrollo en series de potencias. Esta serie converge para |2xt + t2 | < 1. Para demostrar que el desarrollo en serie de la función G(t, x) tiene como coeficientes a los Pn (x) partimos de que: P(t, x) = √ 1 1 − 2xt + t2 ⇒ ∂P(t, x) t−x = 3/2 ∂t (1 − 2xt + t2 ) combinando estas dos expresiones, resulta (t − x) P(t, x) + 1 − 2xt + t2 ∂P(t, x) =0 ∂t 99 2.10. POLINOMIOS DE LEGENDRE y, consecuentemente (t − x) ∞ X Pn (x) tn + 1 − 2xt + t2 ∞ X n=0 nPn (x) tn−1 = 0 . n=1 Multiplicando y acomodando queda (t − x) ∞ X Pn (x) tn + n=1 (t − x) P0 (x) + + ∞ X n=1 ∞ X ∞ X nPn (x)tn−1 − n=1 Pn (x) tn+1 − ∞ X ∞ X 2xnPn (x)tn + n=1 xPn (x) tn + n=1 ∞ X nPn (x)tn−1 − n=1 n=1 nPn (x)tn+1 = 0 , (t − x) P0 (x) + ∞ X Pn−1 (x) tn − n=2 ∞ X xPn (x) tn + n=1 ∞ X (n + 1)Pn+1 (x)tn − n=0 (n + 1)Pn+1 (x)tn − ∞ X (2n + 1)xPn (x) tn + tP0 (x) − xP0 (x) + P1 (x) + 2P2 (x)t + ∞ X nPn−1 (x)tn = 0 , n=2 n=1 n=0 ∞ X (n + 1)Pn+1 (x)tn − 3xP1 (x)t − n=2 + ∞ X nPn−1 (x)tn = 0 n=2 por lo tanto P1 (x) − x P0 (x) {z } | (2n + 1)xPn (x) tn n=2 2P2 (x) − 3xP1 (x) + P0 (x) t | {z } =0 ∞ X (n + 1) Pn+1 (x) − (2n + 1) xPn (x) + nPn−1 (x) tn = 0 + | {z } n=2 + Bo rr ad =0 ∞ X or 2xnPn (x)tn n=1 (n − 1)Pn−1 (x)tn = 0 , n=2 ∞ X ∞ X m + ∞ X 2xnPn (x)tn Pr eli + nPn (x)tn+1 = 0 , n=1 ∞ X n=1 (t − x) P0 (x) ∞ X r + in a (t − x) P0 (x) =0 El primero de los términos se cumple siempre por cuanto P0 (x) = 1 y P1 (x) = x. El tercer término conforma la relación de recurrencia para los polinomios de Legendre. Con esto queda demostrado que el desarrollo en series de potencias de la función generatriz, tiene como coeficientes a los polinomios de Legendre. La función generatriz muestra su utilidad en la expansión de r 1−x f (x) = , 2 recordemos que por la definición del producto interno se tiene Z 1 Z 1r 1−x f (x)Pk (x)dx = Pk (x)dx . 2 −1 −1 100 2.10. POLINOMIOS DE LEGENDRE Al formar el producto r r ∞ 1−x 1−x X n 1 √ = t Pn (x) , 2 2 n=0 1 − 2xt + t2 e integrando, se obtiene Z 1r ∞ X 1−x 1 1−x n √ dx = t Pn (x)dx 2 2 2 1 − 2xt + t −1 −1 n=0 " √ # Z 1r ∞ 2 X 1+ t 1 (1 − t) 1−x n √ ln √ 1+t− = t Pn (x)dx . 2t 2 2 t 1− t −1 n=0 r Expandiendo el lado izquierdo en series de potencias de t lo cual nos conduce, al igualar coeficientes a Z 1r 4 1−x = P0 (x)dx y 3 2 −1 r 1−x Pn (x)dx 2 −4 = 2 (4n − 1) (2n + 3) m Z 1 ∞ ∞ X X tn 4 n = t −4 3 (4n2 − 1) (2n + 3) n=0 −1 n=1 r 1 in a Z Z 1 r −1 1−x Pn (x)dx 2 2.10.5. Pr eli y finalmente a la forma de la expansión en series r ∞ X Pn (x) 1−x 2 = P0 (x) − 2 2 3 (2n − 1) (2n + 3) n=1 Otras propiedades de los polinomios de Legendre Pn (1) = 1 y Pn (−1) = (−1)n . Entonces se tiene lo que se conoce como la relación de paridad: Pn (−x) = (−1)n Pn (x) para todo n. or Pn (x) tiene n raı́ces en el intervalo (−1, 1) Esta propiedad puede apreciarse para los primeros 5 polinomios en la figura 2.11. Bo rr ad Tienen una representación integral de la forma Z πh in p 1 Pn (x) = x + x2 − 1 cos ϕ dϕ 2π 0 Cambios de variables inmediatos conllevan a ecuaciones diferenciales equivalentes • Forma autoadjunta 0 (1 − x2 ) y 0 + λ(λ + 1) y = 0 • En coordenadas esféricas con u = Pn (cos(θ)) 1 d du sen(θ) + λ(λ + 1)u = 0 sen(θ) dθ dθ √ • En coordenadas esféricas con u = sen θPn (cos θ) " # 2 d2 u 1 1 + λ+ + u=0 dθ2 2 4 sen2 (θ) 101 Pr eli m in a r 2.10. POLINOMIOS DE LEGENDRE Figura 2.11: Polinomios de Legendre 2.10.6. Potencial Electrostático de un Dipolo Eléctrico 2 or En Fı́sica el ejemplo claro es el cálculo del potencial electrostático producido por dos cargas q1 = +q y q2 = −q separadas por una distancia 2d en un punto P cualquiera de un plano (x, y). El potencial en ese punto genérico viene dado por 1 1 V =q − R0 R Tal y como puede apreciarse de la figura 2.12 (R0 ) = r2 + d2 − 2r d cos(θ) por lo cual y R2 = r2 + d2 − 2r d cos (π − θ) , Bo rr ad " 2 #−1/2 1 1 d d = 1 − 2 cos(θ) + R0 r r r " 2 #−1/2 1 1 d d = 1 − 2 cos (π − θ) + R r r r y consecuentemente n ∞ 1 1X d = Pn (cos(θ)) R0 r n=0 r n n ∞ ∞ 1 1X d 1X d = Pn [cos (π − θ)] = Pn (− cos(θ)) R r n=0 r r n=0 r 102 m in a r 2.10. POLINOMIOS DE LEGENDRE El potencial será V = Pr eli Figura 2.12: Potencial electrostático de un dipolo eláctrico n ∞ q X d [Pn (cos(θ)) − Pn (− cos(θ))] r n=0 r donde todos los términos pares de Pn (cos(θ)) se anulan y finalmente tendremos la expresión del potencial para cualquier punto del plano V = 2n+1 ∞ 2q X d P2n+1 (cos(θ)) r n=0 r or Nos quedamos con el primer término de la serie, si ⇒ V ≈ q 2d cos(θ) . r2 Bo rr ad d 1 r 103 2.11. POLINOMIOS DE HERMITE 2.10.7. Resumen de Propiedades Polinomios Legendre Definición: Pn (x) = Ejemplos: P0 ≡ 1; 1 dn 2 (x − 1)n , n!2n dxn P1 = x; n = 0, 1, 2, . . . P2 = 21 (3x2 − 1); P3 = 21 (5x3 − 3x) (n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x) Ecuaciones Diferenciales: (1 − x2 ) y 00 − 2x y 0 + λ(λ + 1) y = 0 Representación Integral: Pn (x) = Z 1 2π ∞ X 1 = Pn (x) tn 1 − 2xt + t2 n=0 Z π √ n x + x2 − 1 cos ϕ dϕ 0 1 Ortogonalidad: in a P(t, x) = √ u = Pn (cos(θ)) 2 2α + 1 Pr eli Función Generatriz: du sen(θ) + n(n + 1)u = 0; dθ m d 1 sen(θ) dθ r Relación de Recurrencia: Pα (x)Pβ (x)dx = δαβ −1 Practicando con Maple: > restart: > plot([LegendreP(0,x),LegendreP(1,x),LegendreP(2,x),LegendreP(3,x), LegendreP(4,x)],x=-1..1); 2.11. Polinomios de Hermite Bo rr ad or Los polinomios de Hermite a diferencia de los de Legendre (y Tchevychev), vienen definidos en toda la recta real, vale decir, x ∈ (−∞, ∞), por lo cual la función peso w(x) en el producto interno deberá decrecer más rápido que |x|n , para garantizar que la norma de los vectores en este espacio vectorial sea 2 finita. La función más simple que cumple estos requisitos es w(x) = e−x (también algunos autores utilizan 2 w(x) = e−x /2 ) Esto es, el producto interno entre los polinomios de Hermite vendrá definido como Z ∞ Z ∞ 2 dx w(x)f (x)g(x) = dx e−x f (x)g(x) . −∞ −∞ Otra vez, para este producto interno, si ortogonalizamos con Gram-Schmidt se obtienen los polinomios de Hermite. Al igual que el resto de los polinomios ortogonales, existe una fórmula de Rodrigues para los polinomios de Hermite n 2 2 d e−x , Hn (x) = (−1)n ex n dx los cinco primeros polinomios de Hermite son los siguientes: H0 (x) = 1, 2 H1 (x) = 2x H2 (x) = 4x − 2, H3 (x) = 8x3 − 12x, H4 (x) = 16x4 − 48x2 + 12 H5 (x) = 32x5 − 160x3 + 120x 104 2.11. POLINOMIOS DE HERMITE 2.11.1. Generalidades de los Polinomios de Hemite Los polinomios de Hermite serán ortogonales, pero no normales Z ∞ √ 2 e−x Hβ (x)Hα (x)dx = 2α α! π δαβ , −∞ por lo tanto: Z ∞ √ 2 e−x Hα2 (x)dx = 2α α! π . r −∞ Sean f y g dos funciones arbitrarias, cuando menos continuas a trozos en (−∞, ∞) y que Z ∞ Z 2 e−x f 2 (x)dx ∃ ∞ −∞ 2 e−x g 2 (x)d ∃ ∧ −∞ m Teorema 1: cumplen con in a Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1. Antes de desarrollar funciones en términos de los polinomios de Hermite, expondremos un par de teoremas sin demostración. Pr eli Entonces el conjunto de estas funciones forman un espacio vectorial euclideano I2w con un producto interno definido por Z ∞ 2 e−x f (x)g(x)dx −∞ Las funciones f (x) y g(x) se denominan cuadrado-integrables respecto al peso w. Es por ello que denotamos el espacio de funciones como I2w . Teorema 2: Si f (x) es una función continua arbitraria en I2w entonces puede ser aproximada por un polinomio en ese mismo espacio. Es decir Z ∞ 1/2 2 −x2 lı́m |f (x) − pn (x)| = lı́m e [f (x) − pn (x)] dx =0 n→∞ n→∞ −∞ or Ası́, la expresión de una función arbitraria en la base de los polinomio de Hermite se reduce a Z ∞ ∞ X 1 −t2 √ f (x) = e f (t)H (t) dx Hk (x) , k 2k k! π −∞ k=0 donde Bo rr ad 1 ak = k √ 2 k! π Ejemplo: Z ∞ 2 e−t f (t)Hk (t) dx . −∞ Si f (x) = x2 f (x) = x2 = f (x) = x2 2 X bk xk = k=0 ∞ X ak Hk (x) k=0 = a0 H0 (x) + a1 H1 (x) + a2 H2 (x) = a0 + a1 (2x) + a2 (4x2 − 1) = (a0 − a2 ) + 2a1 x + 4a2 x2 ⇒ a0 = = 1 1 H0 (x) + H2 (x) 4 4 1 1 , a1 = 0 , a2 = . 4 4 105 2.11. POLINOMIOS DE HERMITE Si generalizamos para funciones del tipo f (x) = x2p con p = 1, 2, 3, · · · , entonces f (x) = x 2p 2p X = bk x k = k=0 ∞ X a2k H2k (x) , k=0 1 √ 22k (2k)! π Z ∞ 2 e−x x2p H2k (x)dx = −∞ 1 √ 22k (2k)! π Z ∞ x2p −∞ d2k −x2 e dx . dx2k in a a2k = r por lo tanto Una integración por partes estratégica muestra que: ) ( Z ∞ ∞ 2k−1 2k−1 1 −x2 −x2 2p d 2p−1 d √ − 2px e e dx . a2k = 2k x dx2k−1 dx2k−1 2 (2k)! π −∞ −∞ d2k−1 −x2 e x dx2k−1 ∞ 2 = x2p (−1)2k−1 e−x H2k−1 (x) 2p −∞ si en la integral hacemos x = √ ∞ −∞ . Pr eli Repitiendo el proceso 2k veces, tendremos a2k m El primer término de la resta se anula debido a la definición de los polinomios de Hermite 1 (2p)! √ = 2k 2 (2k)! π (2p − 2k)! Z ∞ 2 x2p−2k e−x dx −∞ t obtenemos Bo rr ad or Z ∞ 1 (2p)! dt √ a2k = 2k tp−k e−t √ (2p − 2k)! 2 (2k)! π 2 t −∞ Z ∞ 1 (2p)! 1 √ = 2k+1 tp−k− 2 e−t dt 2 (2k)! π (2p − 2k)! −∞ R∞ y utilizando la definición Γ (z) ≡ 0 e−t tz−1 dt ≡ (z − 1)! , queda como (2p)! 1 1 √ Γ p−k+ . a2k = 2k+1 2 2 (2k)! π (2p − 2k)! Ahora, recurrimos a la propiedad de “duplicación” de la Función Gamma, i.e. √ 1 22z−1 Γ (z) Γ z + = πΓ (2z) 2 tenemos que √ 1 22p−2k Γ p − k + (p − k)! = π (2p − 2k)! 2 quedan entonces los coeficientes determinados como a2k = (2p)! 22p+1 (2k)! (p − k)! 106 2.11. POLINOMIOS DE HERMITE y, por lo tanto el desarrollo en la base de los polinomios de Hermite f (x) = x 2p p (2p)! X H2k (x) = 2p+1 2 (2k)! (p − k)! − ∞ < x < ∞. k=0 Muestre que del mismo modo se puede encontrar p (2p − 1)! X H2k+1 (x) 2p−1 2 (2k + 1)! (p − k)! − ∞ < x < ∞. r f (x) = x2p+1 = 2 Si f (x) = e−a x2 con Re a2 > −1. Otra vez 2 f (x) = e−a x2 = ∞ X a2k H2k (x) k=0 a2k 1 √ = 2k 2 (2k)! π Z ∞ 2 e−(a +1)x2 H2k (x)dx −∞ m entonces in a k=0 Bo rr ad or Pr eli Sustituyendo H2k (x) por su expresión integral tendremos " # Z ∞ 2 Z ∞ 2k+1 1 (−1)k ex −(a2 +1)x2 2 −t2 2k √ √ a2k = 2k e e t cos 2xt dt dx 2 (2k)! π −∞ π 0 Z ∞ Z 2(−1)k ∞ −a2 x2 −t2 2k e = e t cos 2xt dt dx π(2k)! −∞ 0 Z ∞ Z 2 2 2(−1)k ∞ −t2 2k e t e−a x cos 2xt dx dt ≡ π(2k)! 0 −∞ r k Z ∞ 2 2(−1) π −t2 /a2 = e e−t t2k dt = π(2k)! 0 a2 Z ∞ 2 −2 2(−1)k e−t (1+a ) t2k dt =√ π(2k)!a 0 Z ∞ 1 a2k (−1)k =√ e−s sk− 2 ds ← t2 (1 + a−2 ) = s π(2k)! (1 + a2 )k+1/2 0 a2k 1 (−1)k Γ k + =√ 2 π(2k)! (1 + a2 )k+1/2 y ahora usando, otra vez la propiedad de “duplicación” de la función gamma, √ 1 2k 2 Γ k+ k! = π (2k)! 2 obtenemos a2k = por lo tanto f (x) = e−a 2 x2 = (−1)k a2k k+1/2 22k k! (1 + a2 ) ∞ X (−1)k a2k k=0 22k k! (1 + a2 ) k+1/2 H2k (x) 107 2.11. POLINOMIOS DE HERMITE Al igual que los polinomios de Legendre, los de Hermite, surgen tambián en sus orı́genes como soluciones a la ecuación diferencial ordinaria del tipo d2 Hn (x) dHn (x) − 2x + nHn (x) = 0 dx2 dx Vale decir: Solución 0 dH0 (x) d2 H0 (x) − 2x =0 dx2 dx H0 (x) = 1 1 dH1 (x) d2 H1 (x) − 2x + 2H1 (x) = 0 dx2 dx H1 (x) = 2x 2 dH2 (x) d2 H2 (x) − 2x + 4H2 (x) = 0 2 dx dx H2 (x) = 4x2 − 2 3 dH3 (x) d2 H3 (x) − 2x + 6H3 (x) = 0 dx2 dx H3 (x) = 8x3 − 12x 4 dH4 (x) d2 H4 (x) − 2x + 8H4 (x) = 0 2 dx dx m in a r Ecuación de Hermite Pr eli 2.11.2. n H4 (x) = 16x4 − 48x2 + 12 Función Generatriz de los Polinomios de Hermite Se puede encontrar una función generatriz H(t, x) de los polinomios de Hermite: 2 H(t, x) = e2xt−t = H0 (x) + H1 (x) t + ∞ X H2 (x) 2 H3 (x) 2 Hn (x) n t + t + ··· = t 2 3! n! n=0 or para la cual los Hn (x) son los coeficientes de su desarrollo en series de potencias. Es fácil darse cuenta que esta expresión proviene del desarrollo en Serie de Taylor 2 Bo rr ad H(t, x) = e2xt−t = ∞ X 1 ∂ n H(t, x) tn n n! ∂t t=0 n=0 ktk < ∞ para lo cual 2.11.3. ∂ n H(t, x) ∂tn =e t=0 x2 ∂ n −(x−t)2 e ∂tn n x2 = (−1) e t=0 dn −(u)2 e dun = Hn (x) u=x Relación de Recurrencia A partir de la función generatriz se puede construir la siguiente identidad ∂H(t, x) = (2x − 2t) H ∂t 108 2.11. POLINOMIOS DE HERMITE y utilizando el desarrollo en series de potencias en t tendremos, ∞ X Hn (x) n−1 nt n! n=1 = ∞ X Hn (x) n−1 nt n! n=1 − 2x ∞ ∞ X Hn (x) n X Hn (x) n+1 t + t = 0, n! n! n=0 n=0 ∞ X Hn+1 (x) (n + 1)tn (n + 1)! n=0 − 2x ∞ ∞ X Hn (x) n X Hn−1 (x) n t + t = 0, n! (n − 1)! n=0 n=1 ∞ ∞ X Hn (x) n X Hn (x) n+1 t − t , n! n! n=0 n=0 ∞ ∞ X Hn (x) n X Hn−1 (x) n − 2xH0 (x) − 2x t + t = 0, n! (n − 1)! n=1 n=1 ∞ X Hn+1 (x) Hn (x) Hn−1 (x) n H1 (x) − 2xH0 (x) + (n + 1) − 2x + t = 0, | {z } (n + 1)! n! (n − 1)! n=1 in a ∞ X Hn+1 (x) H1 (x) + (n + 1)tn (n + 1)! n=1 r 2x m =0 es decir: ∞ X Hn+1 (x) Hn (x) Hn−1 (x) n (n + 1)! (n + 1) − 2x n! + (n − 1)! t = 0 . n=1 | {z } Pr eli =0 Por lo tanto: Hn+1 (x) Hn (x) Hn−1 (x) − 2x + =0 n! n! (n − 1)! Ası́ la relación de recurrencia será Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) = 0 De igual modo, podemos partir de otra identidad ∞ ∞ X X Hn0 (x) n Hn (x) n+1 ∂H(t, x) = 2t H ⇒ t =2 t , ∂x n! n! n=0 n=0 ∞ ∞ X X Hn−1 (x) n Hn0 (x) n H 0 (x) Hn−1 (x) t =2 t ⇒ n =2 n! (n − 1)! n! (n − 1)! n=1 n=1 or es decir: y encontrar una relación para generar las derivadas de los polinomios de Hermite en término de ellos mismos: Bo rr ad Hn0 (x) = 2n Hn−1 (x), n = 1, 2, 3, · · · . Finalmente, utilizando la ecuación anterior en la relación de recurrencia y derivando esa expresión una vez más, queda como: Hn+1 (x) − 2xHn (x) + Hn0 (x) = 0 Hn00 (x) − 2xHn0 (x) + 2n Hn (x) = 0 con lo cual queda demostrado que los polinomios de Hermite son una solución particular de esa ecuación diferencial. y 00 − 2xy 0 + 2ny = 0, Donde hemos hecho y = Hn (x) Adicionalmente, podremos demostrar que y = e−x ecuación diferencial autoadjunta y 00 + 2n + 1 − x2 y = 0 . 2 /2 Hn (x) es solución de la 109 2.11. POLINOMIOS DE HERMITE 2.11.4. Ortogonalidad y Norma de los Polinomios de Hermite En general estos polinomios cumplen con Z ∞ √ 2 e−x Hβ (x)Hα (x)dx = 2α α! πδαβ . −∞ ya que 2 e−x /2 α 6= β; Pr eli −∞ m restando miembro a miembro e integrando se tiene que: 0 0 uα uβ − u0β uα + 2 (α − β) uα uβ = 0 Z ∞ 2 (α − β) e−x Hα (x)Hβ (x)dx = 0 −∞ Z ∞ 2 e−x Hα (x)Hβ (x)dx = 0 in a r Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1. Para demostrar el caso α 6= β partimos de uβ u00α + 2α + 1 − x2 uα = 0 uα u00β + 2β + 1 − x2 uβ = 0 ∞ {2α Hα−1 (x)Hβ (x) − 2β Hβ−1 (x)Hα (x)} −∞ =0 Para encontrar el valor de la norma, procedemos a partir de la relación de recurrencia Hn (x) [Hn (x) − 2xHn−1 (x) + 2(n − 1)Hn−2 (x)] = 0 Hn−1 (x) [Hn+1 (x) − 2xHn (x) + 2nHn−1 (x)] = 0 2 or restando miembro a miembro, multiplicando por e−x e integrando entre (−∞, ∞) se obtiene Z ∞ Z ∞ 2 −x2 2 2 e Hα (x)dx = 2α e−x Hα−1 (x)dx −∞ −∞ Bo rr ad repitiendo la operación y recordando que al final queda Z ∞ √ 2 e−x x2 dx = 2 π Obtenemos 2.11.5. −∞ Z ∞ √ 2 e−x Hα2 (x)dx = 2α α! π −∞ Representación Integral de los Polinomios de Hermite Los polinomios de Hermite pueden ser representados como Hn (x) = 2n (−i)n ex √ π 2 Z ∞ 2 e−t +2itx n t dt −∞ 110 m in a r 2.11. POLINOMIOS DE HERMITE Figura 2.13: Polinomios de Hermite H2n (x) = Pr eli que puede ser separada como 22n+1 (−1)n ex √ π y para los términos impares H2n+1 (x) = 2 22n+2 (−1)n ex √ π ∞ Z 2 e−t t2n cos(2xt)dt , n = 1, 2, 3, · · · 0 2 Z ∞ 2 e−t t2n+1 sen(2xt)dt , n = 1, 2, 3, · · · 0 or La forma de llegar a cualquiera de estas últimas fórmulas se parte de las conocidas integrales desarrolladas en el plano complejo Z ∞ 2 2 −x2 e−t cos(2xt)dt e =√ π −∞ Bo rr ad se deriva 2n veces a ambos miembros se utiliza la definición de los polinomios de Hermite. 2.11.6. El Oscilador armónico, independiente del tiempo, en Mecánica Cuántica. La Ecuación de Schrödinger independiente del tiempo y en una dimensión es d2 2µ ψ(x) + 2 [E − U(x)] ψ(x) = 0 , 2 dx ~ con µ la “masa” de la partı́cula; E los niveles de energı́a y U(x) el potencial al cual está sometida la partı́cula. En el caso que estudiemos un potencial del tipo U(x) = 21 µω 2 x2 en el cual la frecuencia angular del oscilador viene representada por ω. La ecuación de Schrödinger se convierte en 2µ d2 1 2 2 ψ(x) + µω x ψ(x) = 0 , E − dx2 ~2 2 111 2.11. POLINOMIOS DE HERMITE haciendo un cambio de variable ξ = x p µω/~ para adimensionalizar la ecuación de Schrödinger, se obtiene 2E 00 2 ψ (ξ) + − ξ ψ(ξ) = 0 , ~ω r la cual corresponde a la forma autoadjunta de la Ecuación de Hermite: ψ 00 (ξ) + 2n + 1 − ξ 2 ψ(ξ) = 0 , y por lo tanto identificamos ⇒ E= 1 n+ 2 ~ω , in a 2E = 2n + 1 ~ω con lo cual comprobamos la forma como viene cuantizada la energı́a en este sistema y la energı́a del estado fundamental. Por su parte, la función de onda se podrá expresar en la base de soluciones de esa ecuación ∞ X cn ψn (ξ) = n=0 2 /2 Hn (ξ) . n=0 ψn2 (ξ)dξ = 1 con cn = µω 1/4 √ 1 . 2n n! π~ Bo rr ad or −∞ cn e−ξ Pr eli Si mantenemos la normalización Z ∞ ∞ X m ψ(ξ) = 112 2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES 2.11.7. Resumen de Propiedades Polinomios Hermite Definición: Hn (x) = (−1)n ex Hn (x) = 2 dn −x2 e , dxn n = 0, 1, 2, . . . n/2 X (−1)k n! n−2k (2x) k! (n − 2k)! H0 (x) = 1; Hn0 (x) = 2n Hn−1 (x), Ecuaciones Diferenciales: n = 1, 2, 3, . . . y 00 − 2xy 0 + 2ny = 0 u00 + 2n + 1 − x2 u = 0; Función Generatriz: 2 H(t, x) = e2xt−t = n! tn 2 /2 Hn (x) Pr eli H2n (x) = 22n+1 (−1)n ex √ π H2n+1 (x) = Ortogonalidad: u(x) = e−x ∞ X Hn (x) n=0 Representación Integral: H2 (x) = 4x2 − 2 H1 (x) = 2x; in a Relaciones de Recurrencia: H0 (x) = 1; H1 (x) = 2x; H2 (x) = 4x2 − 2; H3 (x) = 8x3 − 12x m Ejemplos: r k=0 √ 2α α! π δαβ 2 Z ∞ 2 e−t t2n cos(2xt) dt 0 2 Z ∞ 22n+2 (−1)n ex 2 √ e−t t2n+1 sen(2xt) dt π 0 Z ∞ 2 = e−x Hβ (x)Hα (x)dx −∞ Planteamiento General para Polinomios Ortogonales Bo rr ad 2.12. or Practicando con Maple: > restart: with(orthopoly): > plot([H(0,x), H(1,x), H(2,x), H(3,x), H(4,x)], x=-3..3,y=-25..25); Hemos considerado un par de ejemplos de Polinomios Ortogonales. En ambos podemos idenficar algunas caracterı́sticas comunes. En base a estas caracterı́sticas comunes definiremos otras familias de polinomios ortogonales. † En el caso de los polinomios de Jacobi, la norma es hn = 2α+β+1 Γ(n + α + 1)Γ(n + β + 1) 2n + α + β + 1 n!Γ(n + α + β + 1) con α > −1 y β > −1 . 113 2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES Nombre a b w(x) Pn (x) Legendre −1 1 Tn (x) Tchebychev 1E −1 1 Un (x) Tchebychev 2E −1 1 1 1 √ 2 1 √ −x 1 − x2 Hn (x) Ln (x) Lα n (x) αβ Pn (x) Hermite Laguerre Laguerre G Jacobi −∞ 0 0 −1 ∞ ∞ ∞ 1 e−x e−x xα e−x con α > −1 (1 − x)α (1 + x)β hn 2 2n + 1 π 2 π 2√ 2n n! π 1 2 Γ(n+α+1) n! π in a † h0 r Nomenclatura Cuadro 2.1: Propiedades genéricas de los Polinomios Ortogonales, Nn indica la norma del polinomio de grado n. Producto interno genérico, norma y ortogonalidad m 2.12.1. Los polinomios ortogonales se definen como un conjunto de polinomios {pn (x)} de orden n definidos en un determinado intervalo a ≤ x ≤ b, los cuales son ortogonales respecto a una definición de producto interno b Pr eli Z w(x)pm (x)pn (x)dx = hn δnm a con w(x) > 0 una función peso en a ≤ x ≤ b que garantiza que la norma sea finita en ese intervalo. Dado que el Teorema de Weierstrass garantiza que el conjunto de polinomios {1, x, x2 , · · · , xn , · · · } es una base completa para un espacio vectorial E∞ , se procede a ortogonalizar esa base con la definición de producto interno y el intervalo que corresponda. Para cada caso tendremos una base ortogonal de polinomios. Polinomio Pn (−1)n n+1 √ 2 Γ n + 12 π (−1)n √ 2n+1 Γ n + 32 (n + 1) π (−1)n n! n! or Tn µn 2n n! Un Bo rr ad Hn Ln Lα n w(x) 1 1 √ 1 − x2 √ 1 − x2 2 e−x e−x xα e−x q(x) 1 − x2 1 − x2 1 − x2 1 x x Cuadro 2.2: Funciones para determinar la Fórmula de Rodrigues generalizada En el cuadro 2.1 resumimos las propiedades más resaltantes, com lo son: la función peso en el producto interno, el intervalo en el cual están definidas estas fuciones y su norma. 2.12.2. Fórmula de Rodrigues genelarizada En general todos los polinomios ortogonales {pn (x)} vienen definidos por la fórmula de Rodrigues generalizada 1 dn pn (x) = (w(x)q(x)n ) w(x)µn dxn 114 2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES donde w(x), q(x) y µn vienen especficados en el cuadro 2.2 para cada conjunto de polinomios ortogonales 2.12.3. Ejemplos de Polinomios Ortogonales Utilizando la fórmula de Rodrigues generalizada, podemos construir algunos polinomios generalizados. El cuadro 2.3 muestra algunos de ejemplos de estos polinomios ortogonales n=1 Pn 1 x Tn Un Hn 1 1 1 x 2x 2x Ln 1 1−x n=2 1 (3x2 − 1) 2 2x2 − 1 4x2 − 1 4x2 − 2 n=3 1 (5x3 − 3x) 2 4x3 − 3x 8x3 − 4x 8x3 − 12x n=4 1 (35x4 − 30x2 + 3) 8 8x4 − 8x2 + 1 16x4 − 12x2 + 1 16x4 − 48x2 + 12 1 2 x − 2x + 1 2 1 − (x3 − 9x2 + 18x − 6) 6 r n=0 1 4 (x − 16x3 + 72x2 − 96x + 24) 24 m Cuadro 2.3: Ejemplos de Polinomios Ortogonales Relaciones de Recurrencia Pr eli 2.12.4. in a Polinomio También se pueden formular, de manera genérica las relaciones de recurrencia. Obviamente, las relaciones de recurrencia también constituyen una forma alternativa de ir construyendo los polinomios ortogonales. Ası́, un polinomio ortogonal genérico, pn (x), cumplirá pn+1 (x) = (an + xbn )pn (x) − cn pn−1 (x) El cuadro 2.4 contiene las expresiones de los coeficientes para construir las relaciones de recurrencia generalizadas para cada uno de los polinomios Polinomio an 0 Tn Un Hn 0 0 0 2n + 1 n+1 2n + 1 + α n+1 Bo rr ad or Pn Ln Lα n bn 2n + 1 n+1 2 2 2 1 − n+1 1 − n+1 cn n n+1 1 1 2n n n+1 n+α n+1 Cuadro 2.4: Funciones para determinar la Relación de Recurrencia Generalizada 2.12.5. Función generatriz generalizada Para todos los polinomimos ortogonales podemos definir una función generatriz G(x, t), de tal manera que cada uno de los polinomios ortogonales {pn (x)} será proporcional al coeficiente de tn del desarrollo en 115 2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES series de Taylor, en potencias de t alrededor del punto x = 0. Esta función generatriz que constituye una forma alternativa de definir los polinomios ortogonales viene expresada por la serie G(x, t) = ∞ X Cn pn (x) tn con an constante n=0 1 Tn 2 Un 1 Hn H2n H2n+1 1/n! 1n /(2n)! 1n /(2n + 1)! Ln Lα n in a Pn G(x, t) 1 √ 1 − 2xt + t2 1 − t2 +1 1 − 2xt + t2 1 1 − 2xt +2 t2 e2xt−x 2 cos(2xt)et 2 sen(2xt)et xt 1 −1 − t e 1−t xt − 1 1−t e (1 − t)α m Cn Pr eli Polinomio r Las funciones generatrices no son exclusivas de los polinomios ortogonales. Como veremos más adelante, existen funciones generatrices para las funciones de Bessel. 1 1 Cuadro 2.5: Funciones para determinar la función generatriz generalizada 2.12.6. Ecuación diferencial para los Polinomios Ortogonales Bo rr ad or Cada uno de los polinomios ortogonales habrá de ser solución de una ecuación diferencial ordinaria de la forma d2 pn (x) dpn (x) g2 (x) + g1 (x) + αn pn (x) = 0 2 dx dx En el cuadro 2.6 mostramos las expresiones para los coeficientes de las ecuaciones correspondientes a las ecuaciones diferenciales para las cuales cada uno de los polinomio ortogonales es solución 2.12.7. Aplicaciones para los polinomios ortogonales Interpolación polinomial de puntos experimentales Muchas veces nos encontramos con la situación en la cual tenemos un conjunto de n medidas o puntos experimentales {(x1 , y1 ) = f (x1 ), (x2 , y2 ) = f (x2 ), · · · , (xn , yn ) = f (xn )} y para modelar ese experimento quisiéramos una función que ajuste estos puntos. El tener una función nos provee la gran ventaja de poder intuir o aproximar los puntos que no hemos medido. La función candidata más inmediata es un polinomio y debemos definir el grado del polinomio y la estrategia que aproxime esos puntos. Si queremos aproximar esos puntos por una recta el Método de Mı́nimos Cuadrados es el más utilizado. Puede ser que el polinomio no sea lineal y sea necesarios ajustar esos puntos a un polinomio tal que éste pase por los puntos experimentales. Queda entonces por decidir la estrategia. Esto es, ajustamos la 116 Polinomio Pn Tn Un Hn Ln Lα n Pnαβ g2 (x) 1 − x2 1 − x2 1 − x2 1 x x 1 − x2 g1 (x) −2x −x −2x −2x 1−x 1−x+α β − α − x(2 + α + β) αn n(n + 1) n2 n(n + 1) 2n n n n(n + α + β + 1) r 2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES in a Cuadro 2.6: Funciones para determinar la ecuación diferencial para la cual son solución los polinomios ortogonales Pr eli m función como “trozos” de polinomios que a su vez se ajusten a subconjuntos: {(x1 , y1 ) = f (x1 ), (x2 , y2 ) = f (x2 ), · · · , (xm , ym ) = f (xm )}, con m < n, de los puntos experimentales En este caso tendremos una función de ajuste, para cada conjunto de puntos. También podemos ajustar la función a todo el conjunto de puntos experimentales y, en ese caso, el máximo grado del polinomio que los ajuste será n − 1. Para encontrar este polinomio lo expresaremos como una combinación lineal de Polinomios de Legendre. Esto es: y1 = f (x1 ) = C0 P0 (x1 ) + C1 P1 (x1 ) + · · · + Cn−1 Pn−1 (x1 ) n−1 y2 = f (x2 ) = C0 P0 (x2 ) + C1 P1 (x2 ) + · · · + Cn−1 Pn−1 (x2 ) X Ck Pk (x) ⇒ P(x) = f (x) = . .. k=0 yn = f (xn ) = C0 P0 (xn ) + C1 P1 (xn ) + · · · + Cn−1 Pn−1 (xn ) or que no es otra cosa que un sistema de n ecuaciones con n incógnitas: los coeficientes {C0 , C1 , · · · Cn−1 } Al resolver el sistema de ecuaciones y obtener los coeficientes, podremos obtener la función polinómica que interpola esos puntos. Una expansión equivalente se pudo haber logrado con cualquier otro conjunto de polinomios ortogonales, ya que ellos son base del espacio de funciones. Es importante hacer notar que debido a que los polinomios de Legendre están definidos en el intervalo [−1, 1] los puntos experimentales deberán re-escalarse a ese intervalo para poder encontrar el polinomio de interpolación como combinación lineal de los Polinomios de Legendre. Esto se puede hacer con la ayuda del siguiente cambio de variable: b−a (b − a)t + b + a , dx = dt 2 2 Consideremos los puntos experimentales representado en la figura 2.14. Al construir el sistema de ecuaciones obtendremos: (a = 2 y b = 12) Bo rr ad x= (−1, 8) ⇒ 8 = C0 − C1 + C2 − C3 + C4 − C5 − 53 , 10 ⇒ 10 = C0 − 3 5 C1 + 1 25 C2 + 9 25 C3 − 51 125 C4 + 477 3125 C5 − 15 , 11 ⇒ 11 = C0 − 1 5 C1 − 11 25 C2 + 7 25 C3 + 29 125 C4 − 961 3125 C5 1 5 , 18 ⇒ 18 = C0 + 1 5 C1 − 11 25 C2 − 7 25 C3 + 29 125 C4 + 961 3125 C5 3 5 , 20 ⇒ 20 = C0 + 3 5 C1 + 1 25 C2 − 9 25 C3 − 51 125 C4 − 477 3125 C5 (1, 34) ⇒ 34 = C0 + C1 + C2 + C3 + C4 + C5 117 2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES f(x) f(x) 30 30 25 20 15 15 10 in a 20 r 25 10 x 2 4 6 8 10 12 K 1.0 K 0.5 x 0.0 0.5 1.0 C0 = 2249 , 144 C1 = 3043 , 336 con lo cual P(x) = f (x) = Pr eli y al resolver el sistema obtendremos que m Figura 2.14: En el lado izquierdo se muestran el conjunto de puntos experimentales: {(2, 8), (4, 10), (6, 11), (8, 18), (10, 20), (12, 34)} y a la derecha la función polinómica que los interpola. C2 = 1775 , 504 C3 = − 175 , 216 C4 = 625 , 336 C5 = 14375 3024 2249 3043 1775 175 625 14375 + x+ P (2, x) − P (3, x) + P (4, x) + P (5, x) 144 336 504 216 336 3024 Bo rr ad or la interpolación queda representada en al figura 2.14. Es importante se nalar que mientras más puntos experimentales se incluyan para la interpolación, el polinomio resultante será de mayor grado y, por lo tanto incluirá oscilaciones que distorcionarán una aproximación más razonable. Por ello, la estrategia de hacer la interpolación a trozos, digamos de tres puntos en tres puntos, generará un mejor ajuste, pero será una función (polinomio) contı́nua a trozos. Practicando con Maple: > restart: with(plots): > pointplot([2,8],[4,10],[6,11],[8,18],[10,20],[12,34]); > > P:=pointplot([-1,8],[-3/5,10],[-1/5,11],[1/5,18],[3/5,20],[1,34]): > eq1:=C0-C1+C2-C3+C4-C5=8: > eq2:=C0-3/5*C1+1/25*C2+9/25*C3-51/125*C4+477/3125*C5=10: > eq3:=C0-1/5*C1-11/25*C2+7/25*C3+29/125*C4-961/3125*C5=11: > eq4:=C0+1/5*C1-11/25*C2-7/25*C3+29/125*C4+961/3125*C5=18: > eq5:=C0+3/5*C1+1/25*C2-9/25*C3-51/125*C4-477/3125*C5=20: > eq6:=C0+C1+C2+C3+C4+C5=34: > s:=solve(eq1,eq2,eq3,eq4,eq5,eq6,[C0,C1,C2,C3,C4,C5]);assign(s); > f:=C0 + C1*x + C2*LegendreP(2,x) + C3*LegendreP(3,x) + C4*LegendreP(4,x)+ C5*LegendreP(5,x); > F:=plot(f,x=-1..1): > display(F, P); 118 2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES Cuadratura de Gauss-Legendre Una de los usos más comunes de los polinomios ortogonales es la de aproximar funciones, en particular integrales que requieren ser resueltas numéricamente. La idea es aproximar una integral, para una funcion f (x), definida en el intervalo [a, b] y suficientemente bien comportada, por una suma finita de términos ck f (xk ) y estimar el error que cometemos en esta aproximación. Esto es: N X b f (x)dx = a ck f (xk ) + EN (2.45) r Z k=1 f (x) = ∞ X m in a Nótese que la intención es utilizar la función a integrar evaluada en un conjunto de puntos estratégicos para los cuales están definidos unos coeficientes, también inteligentemente seleccionados. Es decir se requieren 2N números (ck y los xk con k = 1, 2, · · · N ). Más aún, esas 2N cantidades pueden ser seleccionadas de forma tal que la aproximación es exacta EN = 0 cuando f (x) es un polinomio de grado ≤ 2N − 1. Supongamos, para empezar que la función f (x) está definida para x ∈ [−1, 1]12 y por lo tanto los polinomios ortogonales que seleccionaremos para aproximar la integral (y la función) serán los del Legendre (igual pudimos haber utilizado los polinomios de Tchebychev), con lo cual ak Pk (x) , donde: ak = Con lo cual Z 1 f (x)dx ≈ −1 k+ N X 1 2 Z 1 Pr eli k=0 dx f (x)Pk (x) y a0 = −1 ck f (xk ) = N X ck an Pn (xk ) = Z 1 dx f (x) . −1 ∞ X an n=0 n=0 k=1 k=1 ∞ X 1 2 N X ck Pn (xk ) . k=1 N X or Quedan todavı́a por determinar los pesos ck y los puntos xk . Para ello procedemos de la siguiente forma. Notamos que PN (x) tiene N raı́ces, x = xj , en el intervalo −1 ≤ x ≤ 1. Entonces, si seleccionamos esos puntos x = xj para evaluar la función f (xk ) se anulan el coeficiente para el término aN y, además podremos encontrar los pesos ck resolviendo el sistema de N ecuaciones de la forma cj P0 (xj ) = cj = 2 N X ∧ j=1 para k = 1, 2, · · · N − 1 cj Pk (xj ) = 0 j=1 Bo rr ad j=1 N X donde los Pk (xj ) son los distintos polinomios evaluados en las raı́ces del polinomio de grado N , i.e. PN (xj ) = 0 Se puede demostrar que la solución de este sistema provee los pesos escritos de la forma cj = 2 (1 − 2 x2j ) (PN0 (xj )) , donde: PN0 (xj ) = dPN (x) dx x=xj Más aún, podremos escribir Z 1 f (x)dx ≈ −1 12 Esta x= b−a 2 N X k=1 ck f (xk ) = 2a0 + EN con EN = ∞ X n=N +1 an N X ck Pn (xk ) , k=1 no limitación muy severa porque siempre podemos hacer, como ya vimos, un cambio de variable del tipo es una t + b+a y convertir cualquier intervalo cerrado [a, b] en un intervalo cerrado [−1, 1]. 2 119 2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES 2 (1 − √ ± 3/3 √0 ± 15/5 ±0,3399810436 ±0,8611363116 0 ±0,5384693101 ±0,9061798459 ±0,2386191861 ±0,6612093865 ±0,9324695142 .. . 2 3 4 5 6 .. . 2 x2j ) (PN0 (xj )) 1 8/9 5/9 0,65214515 0,34785485 0,56888889 0,47862867 0,23692689 0,46791393 0,36076157 0,17132449 .. . 2N − 1 3 5 7 9 11 .. . r cj = in a PN (xj ) = 0 m N pero como a0 = 1 2 Z 1 Pr eli Cuadro 2.7: Puntos y pesos para una cuadratura de Gauss-Legendre Z dx f (x) −1 1 ⇒ dx f (x) = −1 N X ck f (xk ) − EN k=1 Bo rr ad or Es decir, demostramos que es posible aproximar la integral del la función con un promedio pesado de la función evaluada en unos puntos estratégicos. Los puntos estratégicos son los ceros del polinomio de Legendre de grado igual al número de puntos con los cuales se quiere aproximar la función y los pesos vienen de resolver las ecuaciones para los coeficientes de la expansión. En el cuadro 2.7 se ilustran los valores de los puntos de interpolación y sus pesos correspondientes. Es inmediato comprobar que si f (x) es un polinomio de grado ≤ N − 1 la aproximación es exacta y el error es nulo. Pero lo que realmente hace útil a este tipo de aproximaciones es que también será exacta para polinomios de grado ≤ 2N − 1. Esto se puede ver si expresamos un polinomio de grado 2N − 1 como la suma de dos polinomios f (x) = PN (x)Y1 (x) + Y2 (x) donde Y1 y Y2 son polinomios de grado N − 1. Entonces, al integrar miembro a miembro Z 1 Z 1 Z 1 dx f (x) = dx PN (x)Y1 (x) + dx Y2 (x) −1 −1 −1 | {z } =0 el primer término se anula por ser PN (x) ortogonal a cualquier polinomio de grado inferior, y el segundo término no es más que el caso que analizamos anteriormente de un polinomio de grado ≤ N − 1. Puede resultar conveniente escribir la ecuación Z b Z (b − a)t + b + a b−a 1 f dt f (x)dx = 2 2 −1 a 120 2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES Entonces, para la cuadratura de Gauss-Legendre N b Z f (x)dx = a b−a X ck f 2 k=1 (b − a)tk + b + a 2 in a Ejemplo Utilizar la fórmula de cuadratura de dos puntos de Gauss-Legendre para calcular Z 4 (x2 − 2x + 1)dx 2 = = m 2 4−2 (4 − 2)t1 + 4 + 2 (4 − 2)t2 + 4 + 2 c1 f + c2 f 2 2 2 ! ! √ √ 2t1 + 6 −2 3/3 + 6 2t2 + 6 2 3/3 + 6 (1)f +f + (1)f =f 2 2 2 2 √ √ 26 4 3 13 4 3 13 + − + = . 3 3 3 3 3 Pr eli Entonces, N = 2: Z 4 (x2 − 2x + 1)dx = r donde los tk son las raı́ces de PN (t) = 0. Estrategia General para cuadraturas de Gauss Para el caso general, la aproximación de una integral Z b dx w(x)f (x) ≈ a N X ck f (xk ) , k=1 donde las {x1 , · · · xk , · · · xN } son los ceros del polinomio ortogonal, de grado N , pN (x), elegido para hacer esta aproximación. Los N pesos {c1 , · · · ck , · · · cN } surgen de resolver el sistema de ecuaciones h0 cj = 2 p0 j=1 Z N X b w(x)p20 (x)dx or N X con h0 = ∧ a cj pk (xj ) = 0 para k = 1, 2, · · · N − 1 . j=1 Bo rr ad Ası́ para aproximar integrales con funciones pesos, w(x), utilizaremos cuadraturas adaptadas a los polinomios ortogonales. Esto es Z ∞ Z ∞ Z 1 2 f (x) ⇒ Tchebychev . dx e−x f (x) ⇒ Laguerre, dx e−x f (x) ⇒ Hermite, dx √ 1 − x2 −1 0 −∞ Ejercicio Para integrales con funciones peso del tipo w(x) = √ 1 1 − x2 los pesos son: wi = π/N , rsultando N f (x) π X dx √ ' f (xk ) , N 1 − x2 −1 k=1 Z 1 con xk = cos k− N 1 2 π 121 2.13. SERIES Y TRANSFORMADAS DE FOURIER Muestre que para un intervalo arbitrario a ≤ x ≤ b, esta última integral es: Z b N f (x) π X dx p ' f (xk ) N (x − a)(b − x) a k=1 donde: k− N 1 2 π. Series y transformadas de Fourier in a 2.13. r 1 1 xk = (b + a) + (b − a) cos 2 2 Otro de los casos de expansión en una base completa de funciones lo constituyen la base de Fourier. En este caso la serie de Fourier la constituyen funciones continuas, reales de variable real y definidas en [0, 2π], ∞ C[0,2π] , en término de funciones trigonométricas. Esto es el conjunto de funciones {|u1 i , |u2 i , |u3 i , · · · , |un i · · · } representadas por |u2n i = cos(nx) y |u2n−1 i = sen(nx), de funciones ortogonales por cuanto R 2π dx sen(nx) sen(mx) = 0 0 R 2π dx cos(nx) sen(mx) = 0 0 R 2π dx cos(nx) cos(mx) = 0 0 Pr eli Es claro que {|u1 i , |u2 i , |u3 i · · · , |un i , · · · } es un conjunto 0 si n 6= m 2 hun |um i = δnm | |un i | ⇒ ||un i|2 si n = m con n = 1, 2, 3, · · · m |u0 i = 1, R 2π dx = 2π 0 R 2π dx cos2 (nx) = π 0 R 2π dx sen2 (nx) = π 0 or Por lo tanto, podremos construir una base ortonormal de funciones {|e1 i , |e2 i , |e3 i , · · · , |en i , · · · } de la forma 1 |e2n i = √ cos(nx) π Bo rr ad 1 |e0 i = √ , 2π y 1 |e2n−1 i = √ sen(nx) π Tal y como se muestra en la figura 2.15 distintas funciones pueden ser expandidas con sumas parciales de Fourier. A diferencia de las series de potencias, que imponen que las funciones a ser expandidas deben ser contı́nuas y contı́nuamente diferenciables en el intervalo, la series de Fourier pueden representar funciones contı́nuas a trozos, siempre y cuando cumplan con algunas condiciones. Por lo tanto cualquier función definida en el intervalo [0, 2π] puede expresarse en términos de esta base como 1 R 2π √ dx f (x) = c0 ≡ a0 si i = 0 2π 0 ∞ X R 2π √1 dx f (x) cos(nx) = c2n ≡ am si i = 2n |f i = ci |ei i ⇒ ci = hei |f i = 0 π i=0 √1 R 2π dx f (x) sen(nx) = c2n−1 ≡ bm si i = 2n − 1 π 0 122 Pr eli m in a r 2.13. SERIES Y TRANSFORMADAS DE FOURIER Figura 2.15: Expansiones de Varias funciones en sumas parciales de Series de Fourier. Tomado de Eric W. Weisstein. Fourier Series. http://mathworld.wolfram.com/FourierSeries.html donde los ci son los coeficientes de Fourier, con lo cual podemos escribir ∞ a0 X + [an cos(nx) + bn sen(nx)] 2 n=1 or F (x) = Bo rr ad el término a0 es colocado fuera de la sumatoria, y multiplicado por 1/2, solo por conveniencia. De manera equivalente, si el perı́odo es T y para un un t0 genérico R t +T a0 = T2 t00 dt f (t) ∞ R t +T a0 X 2πnt 2πnt F (t) = + + bn sen con an cos an = T2 t00 dx f (t) cos 2 T T n=1 R t +T bn = T2 t00 dt f (t) sen 2πnt T 2πnt T La figura 2.15 muestra la aproximación de las distintas sumas parciales para distintas funciones, a medida que aumentamos el número de términos la aproximación mejora. Podemos expresar la expansión de una serie de Fourier de manera más compacta atendendiendo a las expresiones anteriores. Esta expresión se conoce en algunos ámbitos como la expresión integral para la series 123 2.13. SERIES Y TRANSFORMADAS DE FOURIER de Fourier + Z 2π 1 √ dt f (t) 2π 0 Z ∞ Z 2π X dt f (t) cos(nt) cos(nx) + F (x) = 1 √ 2π Z dt f (t) sen(nt) sen(nx) 0 0 n=1 2π 2π dt f (t) + 0 ∞ Z X 2π dt f (t) cos(n[t − x]) . r = 0 n=1 in a F (x) expresar una serie de Fourier en término de una base compleja. Vale decir También es muy común · · · |φ̃k i · · · ↔ {· · · e−ikx · · · } con k = 0, ±1, ±2, · · · . Con lo cual |f i = ∞ X ∞ X C̃k e−ikx con k=−∞ C̃k = 1 hφ̃k |f i = 2π hφ̃k |φ̃k i Z π dx e−ikx f (x) . −π m k=−∞ C̃k |φ̃k i ≡ Pr eli Podremos reescribir (una vez más) la expresión de una suma parcial de la Serie de Fourier, dado que Z 1 π an cos(nx) + bn sen(nx) = dt f (t) cos(n[t − x]) π −π tendremos que n n Z a0 X a0 X 1 π Fn (x) = + [ak cos(kx) + bk sen(kx)] = + dt f (t) cos(n(t − x)) 2 2 π −π k=1 k=1 "Z # n π n1 X o −i(t−x)k = < dt f (t) + e 2 −π k=1 or y al sumar la progresión geometrica que representa una serie de exponenciales llegamos a " # Z π Z π sen n + 21 (t − x) 1 1 Fn (x) = ≡ dt f (t) dt f (t) K(x, n, t) 2π −π 2π −π sen 12 (t − x) Bo rr ad la cual siempre es convergente y el término K(x, n, t) = " sen # n + 12 (t − x) sen 12 (t − x) se conoce como el núcleo de la transformación de F , el Kernel de Dirichlet. La pregunta básica que sigue es, en todos estos casos: ¿ cómo se relaciona la expansión de Fourier |f i ⇔ F (x) con la función f (t) que genera los coeficientes de la expansión? Nótese que es una forma de mirar una relación entre F (x) ↔ f (t). Pasamos de f (t) a F (x) mediante una “transformación” Z π 1 Fn (x) = dt f (t) K(x, n, t) 2π −π Este tipo de relaciones se denomina transformación integral y en particular ésta es una de las expresiones de las llamadas Transformaciones de Fourier. 124 2.14. CONDICIONES DE DIRICHLET 2.14. Condiciones de Dirichlet Las condiciones que una determinada función f (x) debe cumplir para poder ser representada como una serie de Fourier, se conocen con el nombre de condiciones de Dirichlet13 las cuales pueden ser esquematizadas en los siguientes puntos: la función f (x) debe ser periódica in a r la función f (x) debe se univaluada y contı́nua a trozos (contı́nua menos, en un número finito de puntos) con un número finito de máximos y mı́nimos R T /2 la integral −T /2 dx|f (x)| debe ser convergente. Donde [−T /2, T /2] quiere indicar el intervalo de definición de una función con perı́odo T . Podemos formalizar un poco más las condiciones de Dirichlet en el llamado Teorema de Fourier. Pr eli m Teorema de Fourier Sea f (x) una función en el intervalo −π ≤ x ≤ π y definida para el resto de la recta real tal que cumpla con f (x + 2π) = f (x). Es decir f (x) es 2π−periódica. Supongamos además que existe la integral Z π Z π 1 dx f (x) , y que Ck = dx e−ikx f (x) con k = 0, ±1, ±2, · · · . 2π −π −π y si |f (x)| está acotada para un intervalo [a, b] con −π < a ≤ x ≤ b < π, entonces F (x) = ∞ X Ck e−ikx es convergente al valor F (x) = k=−∞ 1 2 lı́m f (x + ) + lı́m f (x − ) →0+ →0− y si f (x) es contı́nua en x = x0 entonces F (x0 ) → f (x0 ). En este punto se pueden puntualizar varias cosas: Bo rr ad or 1. El valor F (x) = 21 lı́m→0+ f (x + ) + lı́m→0+ f (x − ) al cual converge la expansión de Fourier, cobra particular importancia cuando el punto x = x0 es una discontinuidad. Tal y como veremos más adelante (sección 2.16.1) y expresa este teorema, las series de Fourier son particularmente apropiadas para expandir funciones discontı́nuas (en un número finito de puntos en el intervalo), sin embargo, por ser una base de funciones contı́nuas no puede reproducir la discontinuidad como tal. La expansión de Fourier alrededor de un punto de discontinuidad x → x±0 tenderá al valor F (x) → F (x±0 ) ≡ Fm (x−0 ) . Es decir, tenderá al valor medio de los valores de la discontinuidad por la donde Fm = F (x+0 )+F 2 izquierda F (x−0 ) y por la derecha F (x+0 ). 2. Si los coeficientes de Fourier tienen variaciones acotadas en el intervalo y |Ck | → 0 con k → ∞. Entonces Z π Z ∞ ∞ X 1 1 2 X 2 1 π |Ck |2 = dx |f (x)|2 ⇔ a0 + |an + b2n | = dx |f (x)|2 2π −π 2 π −π n=1 k=−∞ que no es otra cosa que la expresión de la completitud de esta base de funciones. 13 Johann Peter Gustav Lejeune Dirichlet 1805 - 1859. Matemático Alemán con importantes contribuciones en Teorı́as de números Algebráica, Series y aproximaciones de funciones y ecuaciones diferenciales parciales. 125 2.15. ALGUNOS EJEMPLOS DE EXPANSIONES EN SERIES DE FOURIER 2.15. Algunos ejemplos de expansiones en series de Fourier Para ilustrar esta relación entre la función f (x) y su expansión en serie de Fourier F (x) analicemos algunos ejemplos tı́picos 2.15.1. Ondas Cuadradas En este caso se puede integrar entre [0, T /2] y luego multiplicar todo por 2. bn = = 2 T Z 2 T Z T 2 dt = 1 , an = 0 T 2 sen 0 2πnt T 2 T dt = Z T 2 cos 0 2πnt T dt = sen (nπ) = 0, nπ m a0 in a r Para empezar, el caso de una función muy conocida en el ámbito de los circuitos eléctrico. Una onda cuadrada −1 si − 21 T ≤ t < 0 f (t) = +1 si 0 ≤ t ≤ 12 T , 1 − cos (nπ) 1 − (−1)n = , nπ nπ f (t) = a0 + 2 ∞ X bn sen n=1 2πnt T Pr eli Entonces solo sobreviven los b2n+1 ya que coeficientes pares se anulan: b2n = 0. =1+ 4 π sen(ωt) + sen(3ωt) sen(5ωt) sen(7ωt) + + + ··· 3 5 7 or donde hemos denotado ω = 2π/T . Al definir la función ω podemos interpretar los coeficientes de Fourier an , bn como las contribuciones de cada uno de los armónicos an , bn → ωn = 2nπ T . A partir de estas contribuciones se construye el espectro de potencia, el cual está relacionado con la energı́a que aporta cada uno de estos armónicos. Por ello construimos p un cantidad En = a2n + b2n y graficamos En vs n tal y como se puede comprobar en la figura 2.16, cuadrantes IV y VII. Se encuentra que se puede asociar un espectro de potencia a cada se nal y con lo cual realizar una especie de identificación. En este punto podemos hacernos algunas preguntas: ¿qué hubiera pasado si en vez de considerar el intervalo − T2 , T2 hubieramos considerado (0, T )? Bo rr ad ¿tendrı́amos el mismo desarrollo en serie de Fourier? ¿el mismo espectro? Justifique sus respuestas. 2.15.2. Variedades de dientes de sierra Otra función muy común es la denominada dientes de sierra f (t) = at si 0 ≤ t ≤ T , con a constante 126 2.15. ALGUNOS EJEMPLOS DE EXPANSIONES EN SERIES DE FOURIER r los coeficientes son los siguientes: Z 2 T atdt = aT , a0 = T 0 Z 2 T 2πnt aT an = at cos dt = 2 2 nπsen (2n π) − sen2 (nπ) = 0 , T 0 T π n Z T 2 2πnt aT bn = at sen dt = − . T 0 T nπ ∞ f (t) = at = a0 X + bn sen 2 n=1 2πnt T = ∞ aT aT X sen (ωnt) − , 2 π n=1 n En el caso particular de hacer a = 3 y T = 2 → ωn = nπ, entonces: para 0 ≤ t ≤ T ∞ 6 X sen (nπt) 6sen (π t) 3sen (2 π t) 2sen (3 π t) 3sen (4 π t) 6sen (5 π t) = 3− − − − − +··· π n=1 n π π π 2π 5π m f (t) = 3t = 3 − in a Tenemos entonces que Pr eli La figura 2.16 (cuadrantes V y VI) muestra la construcción de esta función y su representación en Series de Fourier. A partir de esta función podemos hacer unas variaciones. Por ejemplo considérese la función R 2 T /2 =0 a0 = T −T /2 atdt R T /2 T −T ≤ t ≤ , con a constante ⇒ f (t) = at si an = T2 −T /2 at cos 2πnt dt = 0 T 2 2 b = 2 R T /2 at sen 2πnt dt = − aT (−1)n . n T −T /2 T nπ Claramente es una función impar f (−x) = −f (x) y ası́ lo refleja su expansión en series de Fourier. Si hacemos a = 3 y T = 2 → ωn = nπ tendremos que la expresión para de la serie es 6sen (π t) 3sen (2 π t) 2sen (3 π t) 3sen (4 π t) 6sen (5 π t) − + − + + ··· π π π 2π 5π or f (t) = 3t = con −T T ≤t≤ 2 2 Bo rr ad la cual, si bien es parecida no es igual a la anterior, debido que estamos expandiendo otra función. Otra variación posible de la función “diente de sierra” puede ser la versión completamente par del “diente”, f (−x) = f (x). Esta es −at si −T 2 ≤t≤0 f (t) = at si 0 ≤ t ≤ T2 El cálculo de los coeficientes resulta en: Z Z 2 0 2 T /2 aT a0 = (−at)dt + atdt = , T −T /2 T 0 2 Z Z 2 0 2πnt 2 T /2 2πnt aT n an = (−at) cos dt + at cos dt = 2 2 [(−1) − 1] , T −T /2 T T 0 T π n Z Z 2πnt 2 T /2 2πnt 2 0 (−at) sen dt + at sen dt = 0 . bn = T −T /2 T T 0 T 127 2.16. CONSIDERACIONES DE SIMETRÍA EN SERIES DE FOURIER En este caso son los coeficiente bn los que se anulan. Adicionalmente, nótese que para n par, los coeficientes an también se anulan, Otra vez, si hacemos a = 3 y T = 2 → ωn = nπ tendremos la serie: f (t) = 2.15.3. 3 12 cos (π t) 4 cos (3 π t) 12 cos (5 π t) − + ··· − − 2 π2 25 π2 3π 2 con −T T ≤t≤ 2 2 Función cuadrática in a r Otro caso, complementario al anterior por sus propiedades de simetrı́a, es la expansión en series de Fourier de la función f (x) = x2 para −π < x < π. Entonces los coeficientes se la expansión serán Rπ 2 = 2π3 a0 = π1 −π x2 dx f (x) = x2 ⇒ a = 2 R π x2 cos(nx)dx = 4(−1)n n π 0 n2 x2 = ∞ X π2 (−1)n cos(nx) +4 3 n2 n=1 m ya que los coeficientes correspondientes a los términos impares bn se anulan. Con lo cual Pr eli Nótese que como un resultado particular, al evaluar en x = π, se tiene la función zeta de Riemann ζ(2) ∞ X π2 1 π = +4 2 3 n n=1 2 ∞ X 1 π2 ⇒ ζ(2) ≡ = n2 6 n=1 ∞ πnx X 4 (−1)n + 16 cos 3 π 2 n2 2 n=1 Bo rr ad Con lo cual tendremos que or Pero este caso se presta también para considerar funciones no periódicas. Supongamos que queremos desarrollar la expansión de Fourier para f (t) = t2 pero en este caso con 0 < t < 2. Si este fuera el caso, empezamos por suponer que la función tienen un perı́odo, digamos T = 4. Esto es −2 ≤ t ≤ 2. Con lo cual Z Z 2 2 2 4 2 2 8 a0 = t dt = t dt = 4 −2 4 0 3 Z 2 Z 2 2πnt 4 2 2 πnt 16 16 2 an = t cos dt = t cos dt = 2 2 cos(nπ) = 2 2 (−1)n 4 −2 4 4 0 2 π n π n t2 = 2.16. para 0 < t ≤ 2 Consideraciones de Simetrı́a en series de Fourier Es de hacer notar que estas propiedades de simetrı́a respecto al perı́odo de la función (f (x) = f (−x) simetrı́a y f (x) = −f (−x) antisimetrı́a) para un perı́odo − T2 ≤ x ≤ T2 pueden y deben ser explotadas para simplificar los cálculos. Esto se puede resumir en an 6= 0 an = 0 f (x) = f (−x) ⇒ y alternativamente f (x) = −f (−x) ⇒ bn = 0 bn 6= 0 128 2.17. EL FENÓMENO DE GIBBS Pero más interesante aún es cuando estas propiedades de simetrı́a se presentan en un cuarto del perı́odo. Vale decir, que f (x) será par o impar respecto a T /4 i.e. f T4 + x = ±f T4 − x ⇒ f (−s) = ±f (s) donde s = T4 − x. Entonces Z 2πns πn 2 x0 +T ds f (s) sen bn = + T x0 T 2 in a r Donde los lı́mites de integración no se han visto alterados porque la función es periódica. Es inmediato comprobar que πn πn 2πns 2πns πn 2πns + cos sen + = sen cos sen T 2 T 2 T 2 es decir " # πn Z x0 +T πn Z x0 +T 2πns 2πns 2 ds f (s)sen ds f (s) cos cos + sen bn = T 2 T 2 T x0 x0 Pr eli Si f (x) par en T /4 entonces a2n−1 = b2n = 0 m por lo que si n = 2k ⇒ sen πn = sen(πk) = 0 y si n = 2k − 1 ⇒ cos 2k−1 2 2 π = 0. La misma consideración se puede hacer para los coeficientes an (queda como ejercicio para el lector) y se puede concluir que Si f (x) impar en T /4 entonces a2n = b2n−1 = 0 2.16.1. Tratamiento de discontinuidades 2.17. or Tal y como hemos mencionado, a diferencia de las series de potencias, las series de Fourier manejan razonablemente bien las discontinuidades, pero por ser una base de funciones contı́nuas, no puede reproducirlas. Tal y como comentamos en el Teorema de Fourier y muestra la figura 2.17 el valor de las sumas parciales de Fourier en un punto de discontinuidad x = x±0 será el promedio de los valores F (x−0 ) (por la izquierda) y F (x+0 ) (por la derecha) en la discontinuidad. Esto es la expansión de Fourier alrededor de un punto de (x−0 ) discontinuidad x → x±0 tenderá al valor F (x) → F (x±0 ) ≡ Fm donde Fm = F (x+0 )+F . 2 El Fenómeno de Gibbs Bo rr ad También se muestra en la figura 2.17 que, tanto por la izquierda como por la derecha de la discontinuidad de la función escalón, las sumas parciales de Fourier oscilan y no convergen a los valores x±0 . El comportamiento oscilante de las sumas parciales de Fourier alrdedor de las discontinuidades, que no desaparecen ni en el lı́mite se denominan fenómeno de Gibbs en honor a su descubridor Josiah Willard Gibbs.14 Para entender qué pasa en la discontinuidad consideremos una variación de la onda cuadrada considerada anteriormente (2.15). Entonces sus sumas parciales serán n 1 si 0 ≤ t < π 1 2X 1 c f (t) = ⇒ F2n (x) = + sen((2k − 1)x) 2 π 2k − 1 0 si π ≤ t < 2π k=1 14 Josiah Willard Gibbs 1839 - 1903. Algunos lo consideran el primer Fı́sico Norteamericano, de hecho fue el primero en recibir un tı́tulo de doctorado por una universidad norteamericana (Yale University). Hizo importantes aportes en electromagnetismo y sobre todo en termodinámica y fı́sica estadı́stica, sentando las bases matemáticas para estas disciplinas. En matemáticas es conocido su estudio de las oscilaciones de las expansiones de las series de Fourier en los puntos de discontinuidad. 129 2.17. EL FENÓMENO DE GIBBS porque los coeficientes pares (an ) se anulan. Para estudiar el fenómeno de Gibbs reescribimos la suma parcial anterior de una manera ingeniosa ! Z Z n n Z t X 1 1 sen(2ns) 1 2X 2 t 1 t c ds cos(2k − 1)s = + ds cos(2k − 1)s = + ds F2n (t) = + 2 π 2 π 0 2 π 0 sen(s) 0 k=1 k=1 cos(2k − 1)s = k=1 sen(2ns) sen(s) in a n X r donde, utilizando la fórmula de Moivre y convirtiendo esa serie de cosenos en una de exponenciales la cual, a su vez es una progresión geométrica (y le queda la comprobación al lector), hemos sustituido c Es inmediato convencerse que las sumas parciales F2n (x) siempre tendrán máximos y mı́nimos ⇒ para x = mπ 2n con m = 1, 2, 3, · · · m c sen(2nx) dF2n (x) = =0 dx sen(x) Pr eli Las Series de Fourier tienden a sobre-estimar el valor de los puntos de discontinuidad en ±18 % esto es un valor de ≈ 1,1789797. La inclusión de más términos en las sumas parciales no mejoran la situación. El fenómeno de Gibbs no se restringe a Series de Fourier sino que también se presenta en las demás series de funciones (ver detalles en la referencia: Arfken-Weber-2000) . El fenómeno de Gibbs fue observado ¡experimentalmente! por primera vez por Albert Michelson.15 Para finales de 1800 Michelson habı́a creado un dispositivo mecánico para medir las componentes de Fourier de señales eléctricas. Al incorporarle una onda cuadrada observó que una oscilación inesperada en los puntos de discontinuidad. Creyó que esa oscilación se debı́a a defectos del dispositivo. Luego de probar múltiples tipos de señales periódicas y observar un comportamiento similar, decidió comentárselo a su amigo Willard Gibbs, de la Universidad Yale. Al poco tiempo Gibbs volvió con una explicación que dejó intacta la fama de Michelson como instrumentista. El fenómeno es una consecuencia de la teorı́a de series de Fourier y no del equipo diseñado por Michelson16 . Corrección al fenómeno de Gibbs: Factor σ de Lanczos or 2.17.1. Bo rr ad Una de las estrategia para corregir las oscilaciones del fenómeno de Gibbs se le debe a Lanczos17 Considerando el mismo caso de la función onda cuadrada, se puede intentar sustituir la función oscilante Fnc (x) por su promedio F̄nc (x) alrededor del punto x. Vale decir # " π π Z Z n 2X 1 n x+ 2n n x+ 2n 1 c c c F2n (x) → F̄2n (x) = + sen((2k − 1)s) ds F2n (s) = ds π π π x− 2n π x− 2n 2 π 2k − 1 k=1 15 Albert Abraham Michelson Strelno, Prussia, 1852 - Pasadena EEUU. 1931. Premio Nobel en Fı́sica (1907) uno de los fı́sicos experimentales más habilidosos de todos los tiempos. La precisión y lo ingenioso de los instrumentos creados por él son famosos. Con importantes contribuciones en medidas de fenómenos en óptica. Una de sus contribuciones más conocidas son los experimentos para mostrar la inexistencia del Ether como medio de trasmisión para el fenómeno electromagnético. Más detalles http://nobelprize.org/physics/laureates/1907/michelson-bio.html 16 Más detalles http://en.wikipedia.org/wiki/Gibbs_phenomenon 17 Cornelius Lanczos 1893 - 1974 Hungrı́a. Matemático húngaro con contribuciones importante en Relatividad y Fı́sica Teórica. En matemáticas es conocido inventar la transformada rápida de Fourier. Más detalles en http://www-history.mcs. st-and.ac.uk/Biographies/Lanczos.html 130 2.18. TRANFORMADAS DE FOURIER desarmando tendremos que = c F̄2n (x) = " π x+ 2n r = Z in a c F̄2n (x) # n 1 2X 1 ds + sen((2k − 1)s) π 2 π 2k − 1 x− 2n k=1 " π # n x+ 2n n π 2X 1 cos((2k − 1)s) + π 2n π (2k − 1)2 π x− 2n k=1 " # n π sen 2n (2k − 1) 2X 1 1 sen((2k − 1)x) + π 2 π 2k − 1 2n (2k − 1) k=1 {z } | n π σ m Con lo cual hemos identificado el factor σ de Lanczos. Siguiendo este mismo proceso se puede generalizar para cualquier función de tal modo que una serie de Fourier genérica podrá ser corregida con un factor σ para lograr " # n−1 n−1 a0 X a0 X sen kπ n (a cos(kx) + b sen(kx)) ≡ F̄n (x) = + + σk (ak cos(kx) + bk sen(kx)) k k kπ 2 2 n k=1 Tranformadas de Fourier Pr eli 2.18. k=1 La transformada de Fourier representa (como combinación lineal de funciones sinusoidadesl) a funciones definidas en toda la recta real y/o sin una periodicidad definida. Puede ser considerada como la generalización de la representación en serie de Fourier, y es mayormente utilizada R ∞ para expresar funciones que varı́an en el tiempo con el único requisito que tengan norma acotada, i.e. −∞ dt |f (t)| finita Anteriormente hemos visto, que podemos expresar una función en término de series de Fourier complejas f (t) = ∞ X C n ei 2nπ T t ∞ X = Cn eiωn t n=−∞ n=−∞ Bo rr ad or donde hemos definido ω = 2nπ T . Ahora bien, podemos hacer T → ∞ con lo cual [−T /2, T /2] → [−∞, ∞] pero también se tiene: R T /2 Z ∞ dt f (t) 2π ω −T /2 T →∞ ⇒ = = ∆ω → dω y además → 0 ya que dt f (t) , existe y es acotada. T n T −∞ Si recordamos la expresión que toman los coeficientes de la expansión ! Z Z ∞ X −i2nπx 1 T /2 ∆ω T /2 −inx Cn = dx e T f (x) ⇒ f (t) = dx e f (x) eiωn t T −T /2 2π −T /2 n=−∞ con lo cual hacer T → ∞ f (t) = 1 2π Z ∞ dω eiωt Z −∞ ∞ −∞ | dx e−iωx f (x) {z } F (ω) De este modo, la transformada de Fourier de una función y su inversa, pueden escribirse como Z ∞ Z ∞ 1 1 F (ω) ≡ F[f (t)] = √ dt e−iωt f (t) ⇔ f (t) ≡ F −1 [F (ω)] = √ dω eiωt F (ω) 2π −∞ 2π −∞ 131 2.18. TRANFORMADAS DE FOURIER 2.18.1. Propiedades Las transformada de Fourier cumplen con las siguiente propiedades, las cuales de derivan de la definición arriba expuesta 2. La transformada de la integral Z F t 1 ds f (s) = F (ω) + 2πcδ(ω) iω in a r 1. Las transformada de la derivada F[f 0 (t)] = iωF (ω) y en general F[f n (t)] = in ω n F (ω). Esta propiedad es más o menos inmediata a partir de la definición integrando por partes Z ∞ Z ∞ 1 iω 1 ∞ dt eiωt f 0 (t) = √ dt eiωt f 0 (t)iωF (ω) eiωt f (t) −∞ + √ F[f 0 (t)] = √ 2π −∞ 2π 2π −∞ m donde la función (distribución) δ(ω) se denomina delta de Dirac y el término 2πcδ(ω) representa la transformada de la constante de integración 3. Escalamiento F[f (at)] = a1 F ( ωa ) 4. Traslación F[f (t + a)] = eiaω F (ω) 2.18.2. Pr eli 5. Multiplicación por un exponencial F [eαt f (t)] = f (ω + iα) Funciones pares e impares Al igual que en las expansiones de Fourier, la paridad de las función f (t) es importante. Esto se nota rápidamente a partir de la definición. Supongamos f (t) = −f (−t), entonces Z ∞ Z ∞ Z 1 1 −2i ∞ F (ω) = √ dt e−iωt f (t) = √ dt (cos(ωt) − isen(ωt)) f (t) = √ dt sen(ωt) f (t) 2π −∞ 2π −∞ 2π 0 or con lo cual podremos definir las transformadas de Fourier seno y coseno para funciones impares y pares respectivamente. Esto es para funciones impares f (t) = −f (−t) r Z ∞ r Z ∞ 2 2 F (ω) = dt cos(ωt) f (t) ⇔ f (t) = dω cos(ωt) F (ω) π 0 π 0 Bo rr ad y para funciones pares f (t) = f (−t) r Z ∞ 2 F (ω) = dt sen(ωt) f (t) π 0 2.18.3. r ⇔ f (t) = 2 π Z ∞ dω sen(ωt) F (ω) 0 Bases discreta y contı́nuas: La base de Ondas Planas Haremos una disgresión para fijar conceptos y extender algunos de los razonamientos que hemos desarrollado hasta aquı́. Tal y como hemos visto repetidas veces, la representación de un vector |F i en un espacio vectorial abstracto V puede darse en término de una base ortonormal de vectores (discreta y finita BDF = {|u1 i , |u2 i , |u3 i , · · · |un i} o discreta e infinita BDI = {|v1 i , |v2 i , |v3 i · · · |vn i · · · }) de la forma: Pn Pn ⇐ BDF = {|u1 i , |u2 i , |u3 i · · · |un i} i=0 ci |ui i = i=0 hui | F i |ui i |F i = P∞ P∞ ⇐ BDI = {|v1 i , |v2 i , |v3 i · · · |vn i · · · } i=0 ci |vi i = i=0 hvi | F i |vi i 132 2.18. TRANFORMADAS DE FOURIER donde en ambos casos: ci = hui | F i = ∞ X cj hui |uj i = j=0 ∞ X cj δij j=0 donde Z c (β) = hwβ |Ψi = in a r la intención ahora será utilizar la transformada de Fourier para construir la generalización de bases discretas a continua |wα i de tal forma que transformamos el ı́ndice de la sumatoria en la variable de una integral Z |Ψi = dα c (α) |wα i Z dα c (α) hwβ |wα i = dα c (α) δ (α − β) con en la cual δ (α − β) es una Delta de Dirac. Ası́, los dos conceptos expresados hasta ahora tienen una expresión: Continua hwβ |w R α i = δ (α − β) 1 = dα |wα i hwα | R |Ψi = dα c (α) |wα i c (β)R = hwβ |Ψi hG| F i = dα g ∗ (α) f (α) R 2 hF | F i = dα |f (α)| m Discreta hvP i |vj i = δij ∞ 1 = j=0 |vj i hvj | P∞ |F i = i=0 ci |ui i ci = hu | Fi Pi∞ hG| F i = i=0 gi∗ fi P∞ 2 hF | F i = i=0 |fi | Pr eli Propiedad\Base Ortogonalidad Cierre Expansión Componentes Producto Interno Norma Ilustraremos esta generalización con la construcción de la base de ondas planas. Hemos visto que la transformada compleja de Fourier compleja para una función, se puede escribir como Z ∞ Z ∞ F (s) = dt eist f (t) f (t) = ds e−ist F (s) −∞ −∞ or las cuales reescribiremos en términos más familiares a la comunidad de fı́sicos como Z ∞ Z ∞ 1 1 ψ (x) = √ dp eipx/~ ψ̄ (p) ψ̄ (p) = √ dx e−ipx/~ ψ (x) 2π~ −∞ 2π~ −∞ Bo rr ad Hemos tenido cuidado de incluir los factores de normalización adecuados para el caso de las descripciones en mecánica cuántica. Estas fórmulas pueden ser reinterpretadas en función de los conceptos anteriormente expuestos y podemos definir una base continua de la forma Z ∞ Z ∞ 1 1 1 1 i px/~ −i px/~ e e ψ (x) = √ dp √ ψ̄ (p) ψ̄ (p) = √ dx √ ψ (x) 2π~ −∞ 2π~ 2π~ −∞ 2π~ | {z } | {z } vpx (x) vp (x) por lo cual Z ∞ ψ (x) = dp vp (x) ψ̄ (p) Z ∞ ψ̄ (p) = −∞ dx vp∗ (x) ψ (x) −∞ Diremos que la función ψ (x) está expresada en la base de ondas planas vp (x) = Nótese √ 1 ei px/~ 2π~ El ı́ndice p de vp (x) varı́a de forma continua entre −∞ e ∞. 133 2.18. TRANFORMADAS DE FOURIER 1 Que vp (x) = √2π~ ei px/~ ∈ / L2 es decir no pertenece al espacio vectorial de funciones de cuadrado integrable ya que su norma diverge Z ∞ Z ∞ 1 2 hvp | vp i = dx |vp (x)| = dx →∞ 2π~ −∞ −∞ ∞ dp −∞ −∞ 1 i p(x0 −x)/~ e = δ (x0 − x) 2π~ in a La relación de cierre para esta base se expresa como Z Z Z ∞ ∗ 0 dp vp (x ) vp (x) = 1 = dα |vα i hvα | r Que las proyecciones de ψ (x) sobre la base de ondas planas es ψ̄ (p) = hvp | ψi 2.18.4. m mientras que de la definición de producto interno, uno obtiene Z ∞ Z ∞ 1 i x(p0 −p)/~ hvp0 | vp i = dx vp∗0 (x) vp (x) = dp e = δ (p0 − p) 2π~ −∞ −∞ Un par de ejemplos f (t) = 1 0 si |t| < 1 el resto Pr eli Un ejemplo inmediato lo tenemos al considerar la función 1 ⇒ F (ω) = √ 2π 1 1 e−iω − eiω dt 1 e−iωt = √ −iω 2π −1 Z 1 −1 2sen ω = √ 2πω el otro ejemplo de uso lo podremos construir a si consideramos la ecuación diferencial inhomogénea y buscamos su solución Z 1 dφ(x) 1 dφ(x) 2 2 − K φ(x) = f (x) ⇒ √ − K φ(x) e−iωt = F (ω) dt dx2 dx2 2π −1 or donde F (ω) es la transformada de Fourier de la función f (x). Utilizando las propiedades de la transformada de Fourier obtenemos que Z 1 1 dφ(x) −iωt F (ω) √ dt e − K 2 φ̃(ω) = F (ω) ⇒ −k 2 φ̃(ω) − K 2 φ̃(ω) = F (ω) ⇒ φ̃(ω) = − 2 2 dx k + K2 2π −1 Bo rr ad donde hemos representado φ̃(ω) como la transformada de Fourier de la solución φ(x). Con lo cual 1 φ(x) = √ 2π Z 1 −1 dt φ̃(ω) e −iωt 1 = −√ 2π Z 1 dt −1 F (ω) e−iωt k2 + K 2 Como solución formal de la ecuación diferencial resulta sencilla y el método también es inmediato. El punto crucial es la solución del la integral que resulta de la transformación inversa. Normalmente este tipo de integrales no son tratables de manera analı́tica. Pero siempre queda el recurso numérico. 2.18.5. Tranformadas Discretas de Fourier Aquı́ haremos algo más contemporaneo que será estudiar la versión discreta de esta transformación. En general las integrales, en su mayorı́a, no se pueden resolver analı́ticamente por lo que tenemos que proceder 134 2.18. TRANFORMADAS DE FOURIER in a r a resolverlas de forma numérica. La mayor parte de los métodos numéricos involucra convertir integrales en sumatorias. Es decir en series de funciones. Hemos visto como las funciones trigonométricas (y las exponenciales de argumento imaginario) son ortogonales bajo integrales evaluadas en un determinado intervalo. En otras palabras con la definición de producto interno en un espacio de funciones. Ahora bien, esas mismas funciones (Fourier Generalidades, cosenos y funciones exponenciales de argumento imaginario) serán también ortogonales al ser evaluadas en puntos muy particulares. kT y probaremos que las funciones e2πiptk /T y e2πiqtk /T Consideremos los siguientes 2N puntos tk = 2N serán ortogonales ∝ δqp en un conjunto esos puntos tk . Esto es 1 − r2N 2N −1 2N −1 2N −1 = 0 r 6= 1 X h 2πiptk i∗ 2πiqtk X 2πistk X 2πisk 1−r e T e T = e T = e 2N = k=0 k=0 k=0 2N r=1 kT con k = 1, 2, 3, · · · , 2N − 1. Nótese 2N que la última de las series es una serie finita y geométrica con razón r = e(πis)/N , que comienza con 1 y por lo tanto suma (dependiendo del valor de r) lo que aparece en la llave. Es inmediato convencerse que, para todo N se cumple que r2N = e2πis = 1 (con s entero) con lo cual se cumple la relación de ortogonaliadad que buscamos 2N −1 h i 2πiqtk X 2πiptk ? e T = 2N δqp con k = 1, 2, 3, · · · , 2N − 1 (2.46) e T Pr eli m donde hemos sustituido s = q − p, y evaluado en los puntos tk = k=0 Si hacemos un ligero cambio de notación y llamamos ωm = cosméticos e± 2πimtk T → e±ωm tk 2πm tendremos algunos cambios, en apariencia, T 2N −1 1 X f (tk )e±ωm tk 2N ⇒ F (ωm ) = ⇔ k=0 f (tk ) = 2N −1 1 X F (ωm )e±ωm tk (2.47) 2N m=0 or La función F (ωm ) representa la tranformada discreta de Fourier de la f (tk ). Para despejar la función f (tk ) hemos utilizado la relación de ortogonalidad 2.46. Consideremos el siguiente f (tk ) = cos(tk ) evaluado en un perı́odo T = 2π y dividido, digamos en N = 2 intervalos. Los puntos en los cuales evaluaremos nuestra serie serán 2N = 4, vale decir kT kπ 2πm eiωm tk eimkπ/2 ≡ con k = 0, 1, 2, 3 ⇔ ωm = ≡m ⇒ ≡ 2N 2 T 2N 2N nótese que la función f (tk ) puede ser escrita como un vector f (tk ) = (1, 0, −1, 0), con lo cual para encotrar la expresión de su tranformada discreta de Fourier, F (ωm ), podemos expresar la suma como una matriz de transformación con ı́ndices m, k. Esto es 1 1 1 1 eimkπ/2 1 1 i −1 −i ⇔ 1 −1 1 −1 2N 4 1 −i −1 0 Bo rr ad tk = con lo cual F (ωm ) = 1 2N 2N −1 X k=0 f (tk )e±ωm tk F (ω0 ) F (ω1 ) 1 ⇒ F (ω2 ) = 4 F (ω3 ) 1 1 1 1 1 1 1 1 i −1 −i 0 −1 1 −1 −1 −i −1 0 0 0 1 1 = 2 0 1 135 2.18. TRANFORMADAS DE FOURIER Respecto a la ecuación 2.47 se deben puntualizar varios elementos 2πm corresponde a lo que en Fı́sica se denomina el espacio recı́proco (al T temporal), espacio de frecuencias u ω-espacio. Por ello la función F (ωm ) está expresada en este espacio de frecuencias, mientras que la función f (tk ) en el de tiempos. la frecuencia angular ωm = La elección de uno de los signos + y − en la expresión e±ωm tk es arbitraria. f (tk ) = 1 −itk 1 −3itk e + e 2 2 ⇒ < [f (tk )] = in a r Con lo cual si “reconstruimos” la función original a partir de la transformada discreta nos sorprende el resultado, por cuanto no coincide 1 1 cos tk + cos 3tk 2 2 Bo rr ad or Pr eli m Ahora bien, para los puntos tk = 0, π2 , π, y π2 si se cumple que los valores cos tk = 12 cos tk + 12 cos 3tk . En los pocos puntos seleccionados cos tk y cos 3tk se asemejan. En la medida que seleccionemos más puntos en esa medida se dejan de parecer y la recontrucción de la función será más fidedigna. 136 2.18. TRANFORMADAS DE FOURIER Programa para generar cuadraturas de Gauss K Legendre para n puntos r (1) in a O restart: Digits:=20: O n := 3: O L := LegendreP(n,z): p:=expand(%); 5 3 3 p := z K z 2 2 Lar raíces de los polinomios de Legendre representan las abscisas del problema O x := [fsolve(p)]; x := K0.77459666924148337704, 0., 0.77459666924148337704 (2) Pr eli m Se puede construir una procedimiento que tome como entrada una función f x y genere los valores aproximados O proced := f -> sum(c['i']*f(x['i']),'i'=1..n): Se calculan los pesos a partir de resolver el siguiente sistema lineal de ecuaciones: O ecs := []: O for i from 1 to n do O ecs := [op(ecs),proced(z->z^(i-1)) = int(z^(i-1),z=-1..1)]: O end do: O ecs; c1 C c2 C c3 = 2, K0.77459666924148337704 c1 C 0.77459666924148337704 c3 = 0, 0.60000000000000000001 c1 C 0.60000000000000000001 c3 = 2 3 O sys := {op(ecs)}:var := {seq(c[k],k=1..n)}: O pesos := solve(sys,var); assign(pesos): pesos := c1 = 0.55555555555555555555, c2 = 0.88888888888888888891, c3 = 0.55555555555555555555 Bo rr ad or Para probar el método, generemos aleatoriamente un polinomio de grado 2 n K 1 O q := randpoly(z,degree=2*n-1); q := K56 K 7 z 5 C 22 z 4 K 55 z 3 K 94 z 2 C 87 z con el polinomio anterior construyamos una función g x O g := unapply(q,z); g := z/K56 K 7 z 5 C 22 z 4 K 55 z 3 K 94 z 2 C 87 z apliquemos la regla definida anteriormente O calculado := proced(g); calculado := K165.86666666666666667 Calculemos el resultado exacto O exacto := int(q,z=-1..1); 2488 15 exacto := K Ahora podemos comparar el resultado exacto con el aproximado O evalf(exacto - calculado); 0. FIN (3) (4) (5) (6) (7) 137 m in a r 2.18. TRANFORMADAS DE FOURIER Bo rr ad or Pr eli Figura 2.16: Un par de funciones, definidas con un perı́do T , a ser expresadas en como expansiones en Series de Fourier. En los cuadrantes I y II, encontramos una onda cuadrada. La primera (cuadrante I) definida en un intervalo − T2 , T2 y en el cuadrante II la misma función definida en un intervalo (0, T ). El cuadrante III ilustra las aproximaciones de la serie de Fourier para n = 3, 7, 20, mientras que el espectro de potencia se presenta en el cuadrante IV. La onda “diente de sierra”, definida en un intervalo (0, T ), se presenta en el cuadrante V. Sus aproximaciones en series de Fourier para n = 3, 7, 10 se pueden observar en el cuadrante VI, mientras que el espectro de potencia en el cuadrante VII. Figura 2.17: Aproximaciones por series de Fourier para la función escalón, linea roja. Las curvas corresponden a sumas parciales de Fourier: F40 (x), F100 (x), F200 (x), 138 in a r Bibliografı́a m [Aleksandrov Kolmogorov y Lavrentiev 1999] A. D. Aleksandrov, A. N. Kolmogorov y M. A. Lavrentiev (1999) Mathematics: Its Content, Methods and Meaning. (Dover Publications, New York ) Existe traducción por Editorial Alianza Universidad. Pr eli [Arfken, Weber y Weber 2000] Arfken, G. B., Weber, H., y Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición (Academic Press, Nueva York ) [1] Byron, F.W. y Fuller W.F. (1970) Mathematics of Classical and Quantum Physics (Dover Publications, New York ) [Cushing 1975] Cushing, J. (1975) Applied Analytical Mathematics for Physical Sciences (John Wiley & Sons, New York ) [Hamming 1973] Hamming R.W. (1973) Numerical Methods For Scientist and Engineers, 2nd ed. (Dover, New York.) or [Hassani 1991] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London:) [Lebedev 1972] Lebedev, N.N. (1972) Special Functions & Their Applications (Dover Publications, New York ) Bo rr ad [math-atlas.org URL] The Mathematical Atlas http://www.math-atlas.org/welcome.html [Richards 2002] Richards, D. (2002) Advanced Mathematical Methods with MAPLE (Cambridge University Press Cambridge) [Riley Hobson y Bence 2002] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press Cambridge) [Weisstein URL] Weisstein, E. W., MathWorld http://mathworld.wolfram.com/ 139 r 3 Bo rr ad or Pr eli m Ecuaciones diferenciales ordinarias in a Capı́tulo 140 3.1. MOTIVACIÓN Y ORIGEN 3.1. Motivación y origen in a r En Ciencias, una de las formas de modelar fenómenos fı́sicos es mediante su caracterización a través de una función matemática, digamos G = G (x, y, z; t). Una las formas (la ideal) para modelar los cambios de esta función, G (x, y, z; t), que depende de la posición y del tiempo, es a través de una ecuación en la cual están involucradas la función, G (x, y, z; t) y sus derivadas. A esa ecuación, que involucra las derivadas, la llamaremos Ecuación Diferencial. Existe toda una “fauna” de ecuaciones diferenciales y hoy disponemos de un importante arsenal de técnicas, métodos y herramientas para encontrar la función G (x, y, z; t), la cual será nuestra función incógnita. Este curso trata, parcialmente, de mostrar parte de esta “fauna” y de indicarles métodos para resolver un tipo particular de ecuaciones diferenciales: las Ecuaciones Diferenciales Ordinarias. Las ecuaciones diferenciales ordinarias son básicamente funciones del tipo h i F x, y(x), y 0 (x), y 00 (x), y 000 (x), · · · , y (n) (x) = 0 , (3.1) d2 y(x) d3 y(x) dy(x) , y 000 (x) = , , y 00 (x) = 2 dx dx dx3 Son ejemplos de ecuaciones diferenciales ordinarias: y 0 (x) = x2 y 000 − (y 0 )2 = ex , ··· , y (n) (x) = y 00 cos(x) + cos(y) = 2 . Pr eli ax + yy 0 = 0 , d(n) y . dx(n) m donde: Cuando la función incógnita f viene definida por una relación entre sus derivadas parciales con respecto a las variables independientes nos estamos enfrentando a un problema de Ecuaciones Diferenciales en Derivadas Parciales Si la función es f = f (x, y, z) una ecuación diferencial en derivadas parciales es una de la forma: F x, y, z, f, ∂x f, ∂y f, ∂z f, ∂x2 f, ∂y2 f, ∂z2 f, ∂xy f, ∂xz f, . . . = 0 , (3.2) donde: ∂f ∂f ∂f ∂2f ∂2f ∂2f ∂2f ∂2f , ∂y f = , ∂z f = , ∂x2 f = , ∂xz f = , ∂y2 f = , ∂z2 f = , ∂xy f = 2 2 2 ∂x ∂y ∂y ∂x ∂y ∂y ∂x∂y ∂x∂z or ∂x f = Ejemplos de ecuaciones diferenciales en derivadas parciales: ∂f ∂f + f = 0, ∂x ∂y Bo rr ad ∂2f ∂2f + = f (x, y) , ∂x2 ∂y 2 ∂ 2 f (x, y) ∂f (x, y) + − f (x, y) = p(y) . ∂x∂y ∂x Como ya mencionamos, en estas notas de métodos matemáticos trataremos las ecuaciones diferenciales ordinarias y sus métodos de resolución. Un estudio de la ecuaciones en derivadas parciales será tratado en un curso posterior. Empecemos por recordar que desde los primeros cursos hemos tratado, la mayor de las veces sin saberlo o sin explicitarlo, con este tipo de ecuaciones en donde la incógnita no es un número sino un conjunto de números: una función. El caso más emblemático lo constituye el conjunto de “fórmulas” que aprendimos cuando estudiábamos bachillerato o, más recientemente, en los primeros cursos de fı́sica general en la universidad. Entonces describı́amos el movimiento de partı́culas en una dimensión, a través de dos ecuaciones: vf (t) = v0 + at y d(t) = v0 t + a t2 . 2 (3.3) 141 3.1. MOTIVACIÓN Y ORIGEN Pr eli m in a r De memoria repetı́amos que vf representaba la velocidad final, v0 la velocidad inicial, a la aceleración, t el tiempo transcurrido y d la distancia recorrida en ese tiempo. El problema consistı́a en encontrar, para un sinfı́n de situaciones fı́sicas, primeramente el valor de la aceleración del móvil y a partir de las leyes de Newton, conociendo la velocidad y la posición inicial, encontrábamos la posición d y la velocidad vf en todo instante de tiempo. Ası́, mediante diagramas de cuerpo libre y la utilización de las leyes de Newton, encontrábamos el valor de la aceleración y con las “formulitas” (3.3) resolvı́amos el problema. v = v0 + at P f X Fext (3.4) ⇒ Fext = ma ⇒ a = 2 m d = v t + at 0 2 Lo más Pprobable es que nuestros profesores nos repitieran hasta el cansancio que la sumatoria de fuerzas externas Fext era constante, y lo más seguro que nosotros en aquellos momentos no comprendiéramos la trascendencia de esa suposición. El caso más representativo era el del movimiento de un cuerpo bajo la acción de un campo gravitatorio: el problema llamado de caı́da libre. v = v0 − gt f (3.5) − mg = ma ⇒ a = −g ⇒ 2 d = v t − gt 0 2 Lo que está detrás de esta historia que nos inició en el estudio de la fı́sica y a muchos de nosotros nos sedujo para seguir estudiando y aprendiendo a tratar de describir la naturaleza, es, efectivamente, la utilización de las leyes de Newton para modelar el fenómeno del movimiento. De este modo: X Fext = ma = m dv(t) d2 x(t) =m . dt dt2 or Sı́ la sumatoria de fuerzas externas es una contante tendremos que: R P v(t) = dt a = at + C2 dv(t) Fext =a= = constante ⇒ R 2 dt m x(t) = dt (at + C2 ) = a t2 + C2 t + C1 (3.6) (3.7) Claramente al identificar: Bo rr ad C2 = v(t = 0) = v0 y C1 = x(t = 0) = x0 = 0 , (3.8) reobtenemos nuestras “formulitas” ancestrales. Es importante señalar que: dv(t) =a dt y dx(t) = at + C2 , dt (3.9) constituyen ecuaciones diferenciales donde las funciones incógnitas son la velocidad v(t) y la posición, x(t), respectivamente. Ambas funciones se encontraban dentro de un signo de derivada y fueron “despejadas” mediante un proceso de integración. La descripción del movimiento de un sistema de partı́culas es más rica y compleja. El movimiento de una gran cantidad de partı́culas puede ser simulado a través de una ecuación diferencial del tipo: X dr(t) dv(t) d2 r(t) Fext r (t) , , t = ma = m =m . (3.10) dt dt dt2 142 3.1. MOTIVACIÓN Y ORIGEN in a r El carácter vectorial implica tres ecuaciones diferenciales, una por cada dimensión del movimiento: P x dvx (t) d2 x(t) dx(t) =m , t = ma = m F x (t) , x ext 2 dt dt dt P X dr(t) dy(t) dvy (t) d2 y(t) y Fext r (t) , , t = ma ⇒ Fext y (t) , =m , t = may = m 2 dt dt dt dt P dz(t) dvz (t) d2 z(t) z Fext z (t) , =m , t = maz = m 2 dt dt dt Pr eli m Además del carácter vectorial de la ecuación, las componentes de la fuerza pueden dejar de ser constantes y depender no sólo del tiempo, sino del vector posición, del vector velocidad o de ambas simultáneamente. En este caso nuestras “formulitas” dejan de ser válidas y debemos integrar las ecuaciones diferenciales para obtener la trayectoria de la partı́cula, es decir, r (t), conocidas: la masa, la expresión de la sumatoria de fuerzas externas, la posición y la velocidad inicial. Este problema se conoce como el problema de condiciones iniciales y es, como hemos dicho antes, la razón de este curso. Pero antes vamos a mostrar como el conocimiento del movimiento bajo la acción de una fuerza constante, es decir, el movimiento de una partı́cula con aceleración constante puede resultar muy útil para resolver, de forma aproximada, el caso más general que hemos mencionado. Veamos con detenimiento que significan estas afirmaciones. Es claro que el tiempo de evolución esta comprendido entre el tiempo inicial, t0 , y el tiempo final, tf , es decir: t0 ≤ t ≤ tf . Supongamos que dividimos ese intervalo de tiempo en N subintervalos [t0 , tf ] = [t0 , t1 ] ∪ [t1 , t2 ] ∪ [t2 , t3 ] ∪ · · · ∪ [ti , ti+1 ] ∪ · · · ∪ [tN −2 , tN −1 ] ∪ [tN −1 , tN = tf ] [t1 , t2 ] : or de tal modo que en cada uno de esos N subintervalos la aceleración es constante. En estas situación, nuestras “formulitas” son válidas. Esto es: v(t1 ) = v1 = v0 + a (x0 , v0 , t0 ) [t1 − t0 ] v(t0 ) = v0 (3.11) [t0 , t1 ] : ⇒ 2 [t1 − t0 ] x (t0 ) = x0 x (t1 ) = x1 = v0 [t1 − t0 ] + a (x0 , v0 , t0 ) 2 v(t1 ) = v1 ⇒ Bo rr ad x (t1 ) = x1 v2 = v1 + a (x1 , v1 , t1 ) [t2 − t1 ] x2 = x1 + v1 [t2 − t1 ] + a (x1 , v1 , t1 ) 2 [t2 − t1 ] 2 Si continuamos con este procedimiento, para un tiempo n-ésimo se tiene: [ti , ti+1 ] : v(ti ) = vi x (ti ) = xi vi+1 = vi + a (xi , vi , ti ) [ti+1 − ti ] ⇒ xi+1 = xi + vi [ti+1 − ti ] + a (xi , vi , ti ) [ti+1 − ti ] 2 2 hasta i = N − 1: [tN −1 , tN ] : v(tN −1 ) = vN −1 x (tN −1 ) = xN −1 vN = vN −1 + a (xN −1 , vN −1 , tN −1 ) [tN − tN −1 ] ⇒ xN = xN −1 + vN −1 [tN − tN −1 ] + a (xN −1 , vN −1 , tN −1 ) [tN − tN −1 ] 2 2 143 in a cho que emerge desde el fondo de un tanque de agua. dv(t) dr(t) , t ⇒ −mg − ηv (t) + ml g = m . Fext r (t) , dt dt En la cual podemos identificar: Peso: − mg , (3.12) Pr eli X Figura 3.1: Diagrama de Cuerpo Libre de una esfera de cor- m Nótese que las posiciones y velocidades finales para cada intervalo, son las posiciones y velocidades iniciales para el intervalo siguiente y que el valor de la aceleración, que es variable, se toma como constante e igual al valor que tiene en el comienzo del intervalo. Para analizar este caso consideremos la situación de una esfera de corcho, con radio a y masa m que se suelta desde el fondo de un tanque de agua de profundidad h. Queremos conocer con que velocidad llega la esfera a la superficie. El diagrama de cuerpo libre se puede observar en la Figura 3.1 y la ecuación de Newton para este caso se expresa como: r 3.1. MOTIVACIÓN Y ORIGEN Fricción: − ηv (t) , Empuje: ml g . Como sabemos de cursos anteriores, el empuje o fuerza de Arquı́mides es igual al peso del fluido desalojado por el cuerpo. Por ello aparece ml que representa la masa del fluido. Para el caso en el cual el fluido no es viscoso (η = 0), es decir, no hay fricción con el fluido, la ecuación se reduce a: X dr(t) Fext r (t) , , t ⇒ −mg + ml g = ma , (3.13) dt or en la cual claramente la aceleración es constante e igual a: m ρl l a=g −1 ≡g − 1 = cte . m ρ (3.14) Bo rr ad donde hemos identificado ρl la densidad del fluido y ρ la densidad del cuerpo. Para buscar la velocidad con la cual llega a la superficie, encontramos primero el tiempo que tarda en subir y luego evaluamos la velocidad en ese tiempo. Esto es: s 2 tf ρl 2hρ y(tf ) = h = g −1 ⇒ tf = ± , (3.15) ρ 2 g (ρl − ρ) por lo tanto, la velocidad final es: vf = ±g s 2hρ ρl −1 . ρ g (ρl − ρ) (3.16) En el caso general, descrito por la ecuación (3.12), procedemos del mismo modo: encontramos el tiempo en el cual llega la superficie y luego evaluamos la expresión de la velocidad para ese tiempo. Fı́jense que 144 3.1. MOTIVACIÓN Y ORIGEN la estrategia para resolver el problema fı́sico es la misma, sólo que tendremos que disponer de un arsenal adicional de herramientas y técnicas para “despejar” la función velocidad. Aprenderemos a resolver ecuaciones diferenciales de la misma manera que antes resolvı́amos ecuaciones algebraicas. En este caso, y como veremos más adelante, la solución exacta para la expresión de la velocidad es: i dv(t) g (m − ml ) h − η t e m −1 . (3.17) m = −mg − ηv (t) + ml g ⇒ v (t) = dt η Con lo cual: y (t) = − i g(m − ml ) h − η t me m + ηt − m , 2 η (3.18) in a y la función posición surge de integrar la ecuación diferencial anterior r i dy(t) g (m − ml ) h − η t e m −1 , = v (t) = dt η (3.19) y(tf ) = h = − m desafortunadamente, no se puede despejar el tiempo de manera exacta por cuanto la ecuación: gm (m − ml ) h − η tf η i m e tf , − 1 + η2 m (3.20) ml = 4π ξ ρ a3 , 3 Pr eli para el tiempo final tf , ésta es una ecuación trascendente y debe ser resuelta numéricamente. Hagamos ahora algunas sustituciones simplificadoras: m= 4π φ ρ a3 , 3 ρl = ξρ , ρ = φρa , (3.21) donde ξ y φ representan las densidades relativas del fluido y del cuerpo respecto al agua (que es de densidad ρa ), respectivamente. Sustituyendo por valores numéricos: g = 9,8 ; a = 0,02 ; ρa = 103 ; ξ = 1 ; φ = 0,8 ; v0 = 0 ; η = (6πa) 1,002 × 10−3 , (3.22) (3.23) y se obtiene, de manera numérica, que tf = 2,876443096 s. Con este resultado se evalúa la ecuación para la velocidad: h i v (tf ) = 173,8744730 1 − e(−0,01409062500 tf ) ⇒ vf = 6,9063798 m/s . (3.24) Bo rr ad or entonces, de la ecuación (3.20) nos queda que para h = 10(mts) h i 10 = 12339,72755 1 − e(−0,01409062500tf ) − 173,8744736tf , En la siguiente tabla se implementan las ecuaciones (3.11) habida cuenta de las simplificaciones (3.21) y los valores numéricos (3.22) para h = 1/10 ∼ [ti+1 − ti ] 145 vi (m/s) 0.2449999997 0.4896547791 0.7339648246 0.9779306220 1.221552656 1.464831412 1.707767373 1.950361022 2.192612841 2.434523312 2.676092916 2.917322134 3.158211444 3.398761326 yi (m) 0.01224999998 0.04898273892 0.11016371910 0.19575849150 0.30573265540 0.44005185880 0.59868179800 0.7815882177 0.9887369109 1.220093719 1.475624530 1.755295283 2.059071962 2.386920600 v(t)(m/s) 0.2448275 0.4893102 0.7334487 0.9772434 1.2206949 1.4638035 1.7065698 1.9489943 2.1910775 2.4328198 2.6742217 2.9152836 3.1560062 3.3963898 y(t)(m) 0.01225 0.04895 0.11009 0.19563 0.30553 0.43976 0.59828 0.78106 0.98807 1.21926 1.47462 1.75410 2.05767 2.38529 in a ti (s) 0.100 0.200 0.300 0.400 0.500 0.600 0.700 0.800 0.900 1.000 1.100 1.200 1.300 1.400 r 3.2. EJEMPLOS DE ALGUNAS ECUACIONES DIFERENCIALES Ejemplos de algunas ecuaciones diferenciales Pr eli 3.2. m aquı́, vi y yi representan la velocidad y la posición aproximada, tal y como se expresan en las ecuaciones (3.11). Mientras que v (t) y y (t) ilustran los valores de la velocidad y la posición exactas, calculadas a partir de las ecuaciones (3.18) y (3.19). Es claro que la aproximación es buena hasta la segunda cifra decimal. Thomas Robert Malthus1 fue uno de los primeros en darse cuenta que la población crece como una razón geométrica mientras que los medios de subsistencias crecen de manera aritmética. Esta afirmación plasmada en su Ensayo sobre el Principio de Poblaciones, el cual inspiró a Darwin en la formulación de principio de selección natural. Malthus, muy religioso y creyente pensaba que esa diferencia en el crecimiento de la población y las necesidades que ellas generaban, erán de procedencia divina y que forzarı́a a la humanidad a ser más laboriosa e ingeniosa para lograr los medios de subsistencia. Darwin, no tan religioso, lo formuló como una situación natural presente en todas las especies. La Ley de Malthus o Decaimiento Radioactivo es: or dy(t) = k y(t) ⇒ y(t) = y0 ek t , con y0 = y(0) . (3.25) dt Para k > 0 la población crece y para k < 0 tenemos una situación de decaimiento: la población decrece con el tiempo. Este concepto se utiliza los procesos de decaimiento radiactivo. Bo rr ad La ecuación logı́stica o Ley de Verhulst2 se utiliza para describir el crecimiento de la población de una manera más precisa que la Ley de Malthus. Esta ecuación toma en cuenta el decrecimiento de la población con el término −y 2 dy(t) k y0 = [k − ay(t)] y(t) = ky(t) − ay 2 (t) ⇒ y(t) = dt a y0 + (k − a y0 ) e−k t La Ley de Enfriamiento de Newton expresa que la tasa de cambio de la temperatura respecto al tiempo es proporcional a la diferencia de temperatura entre el cuerpo y el medio ambiente. dT (t) = k(T − Tm ) ⇒ T (t) = (T0 − Tm ) ek t + T m , dt con T0 = T (0) 1 En honor al economista polı́tico inglés Thomas Robert Malthus (1766-1834). François Verhulst 1804 - 1849. Matemático belga con sus más importantes comtribuciones en estadı́stica demográfica. 2 Pierre 146 3.3. DE ECUACIONES Y ECUACIONES DIFERENCIALES La Ley de Torricelli, la cual establece (para un tanque cilı́ndrico) la tasa de cambio respecto al tiempo de la profundidad del agua en un tanque: dy(t) kp 1 = y(t) ⇒ y(t) = t + y(0)2 . dt A 2 3.3. De ecuaciones y ecuaciones diferenciales in a r En cursos anteriores consideramos una ecuación algebráica como aquella que se cumplı́a para ciertos valores de x: x2 − 4x + 4 = 0 ⇒ x = 2 , llamaremos ahora una ecuación diferencial aquella que se cumple para ciertas funciones i.e. df (x) − f (x) = 0 ⇒ f (x) = ex dx d2 f (x) cos(x) = , dx2 1 − x2 x df (x) = 2[f (x)]2 . dx Pr eli d3 f (x) = −e−x , dx3 df (x) + f (x) = 0 , dx m Definición: Sea f (x) una función definida sobre un intrervalo a < x < b. Por una Ecuación Diferencial Ordinaria entenderemos toda ecuación que involucre a x, f (x) y una o más derivadas de f (x). Ejemplos: Utilizaremos para tal efecto varias notaciones equivalentes: d2 f (x) df (x) + g(x) − af 2 (x) = k(x) dx2 dx f 00 (x) + g(x)f 0 (x) − af 2 (x) = k(x) fxx (x) + g(x)fx (x) − af 2 (x) = k(x) . Se llaman ordinarias porque involucran funciones de una sola variable y derivadas respecto a ella. Orden y linealidad or 3.4. Una ecuación diferencial ordinaria, de orden n, generica suele denotarse de la siguiente manera: Bo rr ad F[x, y(x), y 0 (x), y 00 (x), y 00 (x), · · · , y (n) (x)] = 0 , (3.26) y será lineal si sólo parecen funciones lineales de y(x) y sus derivadas. Por ejemplo: y 0 y 00 + yy 0 − ay 2 α(x)y 00 + β(x)y 0 + γ(x)y = k(x) es no lineal = es lineal k(x) Muchas veces se acostumbra a omitir la dependencia de la función de la variable porque ésta queda sobreentendida: y(x) = y. El orden de la derivada mayor define el orden de la ecuación diferencial, para la EDO (3.26) se tiene entonces que ésta será de orden n. Ejemplos: 3 y 00 + (3y 0 ) + 2x = 7 , EDO no lineal de orden 2 0 + y = x, EDO lineal de orden 1 . y 147 m in a r 3.5. SOLUCIONES EXPLÍCITAS E IMPLÍCITAS Pr eli Figura 3.2: Gráfica de la función implı́cita f (x, y) = x3 + y 3 (x) − 3xy(x) = 0 La ecuación diferencial (3.26) será homogénea si NO contiene términos independientes de y(x), en caso contrario será inhomogénea: = k(x) y 00 (x) + g(x)y 0 (x) − ay(x) = 0 lineal inhomogénea lineal homogénea. Soluciones explı́citas e implı́citas or 3.5. d2 y(x) dy(x) + g(x) − ay(x) 2 dx dx Las soluciones heredan su nombre del tipo de función que las representa, ası́ tendremos soluciónes explı́citas cuando las funciones sean soluciones y sean explı́citas. Esto es Bo rr ad d2 y(t) = y(t) + 4 et ⇒ y(t) = et C2 + e−t C1 + 2 tet dt2 y también y 0 = (x + y)2 ⇒ y(t) = tan(t − C1 ) − t , con t − C1 6= Las soluciones serán implı́citas si son representadas por funciones como √ y= 25 − x2 0 2 2 √ y y + x = 0 ⇒ f (x, y) = x + y(x) − 25 = 0 ⇒ y = − 25 − x2 π 2 con − 5 < x < 5 En este caso, se tiene que seleccionar una rama de la función raı́z. Igualmente, será solución implı́cita de la ecuación: [y 2 (x) − x] y 0 (x) − y(x) + x2 = 0 148 3.6. SOLUCIONES GENERALES Y PARTICULARES la siguiente función f (x, y) = x3 + y 3 (x) − 3xy(x) = 0, ahora no es tan fácil verificar si efectivamente es una solución. Para comprobarla derivamos la función d x3 + y 3 (x) − 3xy(x) d[f (x, y)] dy(x) dy(x) = = 0 ⇒ 3x2 + 3y 2 (x) − 3y(x) − 3x = 0, dx dx dx dx 3.6. in a r simplificando y agrupando obtenemos la ecuación diferencial. Otra vez, la función solución no es univaluada. Al graficarla (ver Figura 3.2) nos damos cuenta que tenemos varias soluciones de funciones univaluadas unas 2 contı́nuas y otras no. La función es univaluada fuera del lóbulo. Esto es para x ≤ 0 ∧ x > 2 3 . Con lo cual tendremos que seleccionar, dentro del lóbulo, cuál de las partes univaluadas corresponde a la solución. Soluciones generales y particulares ← y(x) = ex + C1 ← y(x) = ex + C2 x + C1 ← y(x) = ex + C3 x2 + C2 x + C1 Pr eli y 0 = ex y 00 = ex y 000 = ex m Veamos las siguientes ecuaciones y soluciones Cada una de las soluciones representan familias de soluciones, una para cada constante. Este tipo de soluciones las denominaremos soluciones generales. Es decir, llamaremos solución general de una ecuación diferencial aquella que queda indeterminada por un conjunto de constantes {C1 , C2 , C3 , . . . , Cn }. En contraste, cuando particularizamos los valores de las constantes tendremos una solución particular par cada una de las ecuaciones. Adicionalmente, cuando nos referimos a las ecuaciones no lineales el concepto de solución particular varı́a. Soluciones particulares en este tipo de ecuaciones serán aquellas que se cumplen para rangos (o puntos) muy particulares. Vale decir (y 0 )2 + y 2 = 0 ⇒ y = 0 única solución (y 00 )2 + y 2 = 0 Bo rr ad or Tamibién en este caso llamaremos a este tipo de soluciones, particulares. De igual modo puede darse casos para los cuales no exista solución en un determinado intervalo. |y 0 |2 + 1 = 0 ⇒ no tienen solución |y 00 |2 + 1 = 0 Ecuaciones de la forma xy 0 = 1 ⇒ y(x) = ln |x| + C ⇒ y(x) = ln(x) + C1 para x > 0 y(x) = ln(−x) + C1 para x < 0 con: −1 < x < 0 ∧ 0 < x < 1, tienen soluciones particulares para intervalos de la variables x. Del mismo modo (y 0 − y)(y 0 − 2y) = 0 ⇒ [y(x) − C1 ex ] y(x) − C2 e2x = 0 tendrá dos soluciones particulares. 149 3.6. SOLUCIONES GENERALES Y PARTICULARES 3.6.1. Familia de soluciones n−paramétricas Si y(x) = f (x, C1 , C2 , . . . , Cn ) es solución de una ecuación diferencial F[x, y(x), y 0 (x), y 00 (x), · · · , y (n) (x)] = 0 , para n constantes {C1 , C2 , C3 , . . . , Cn } arbitrarias, entonces diremos que es una familia n-paramétrica de soluciones. r y(x) = f (x, C1 , C2 , . . . , Cn ) m in a Existe una diferencia entre una solución general de una ecuación y una solución n−paramétrica. La solución general tiene que contener todas las soluciones de una ecuación diferencial determinada. Una solución n−paramétrica no necesariamente. Veamos y(x) = Cx + C 2 y = xy 0 + (y 0 )2 ⇒ 2 y(x) = − x 4 Se estarı́a tentado en llamar solución general a la solución 1−paramétrica y = Cx + C 2 . Sin embargo, se deja por fuera a la otra solución que no tiene que ver con un valor particular de la constante C. Otro ejemplo, lo constituye pero también C2 Pr eli 3 y 0 = −2y 2 ⇒ y(x) = (Cx + 1) 2 , ∀x, −2 y(x) = x + C̃ , es solución con y(x) 6= 0 . Una solución n−paramétrica se denominará solución general si contiene todas las soluciones de una determinada ecuación diferencial. En el caso de ecuaciones diferenciales lineales, las soluciones n−paramétricas constituyen las soluciones generales a las ecuaciones diferenciales. Solución particular, valores iniciales y valores de contorno or 3.6.2. Dependiendo de la situación fı́sica que estemos modelando quizá podamos determinar las constantes arbitrarias de una familia n−paramétrica con información para un único punto x = x0 . Esto es: Bo rr ad F[x, y(x), y 0 (x), y 00 (x), · · · , y (n) (x)] = 0 ⇒ y(x) = f (x, C1 , C2 , . . . Cn ) donde y(x0 ) = C1 y 0 (x0 ) = C2 ... y (n−1) (x0 ) = Cn . En este caso diremos que tendremos un problema de valores iniciales, ya que determinamos las constantes arbitrarias a partir de la información de la función y sus derivadas en un solo punto, por ejemplo: 1 y(0) = 0 y 00 + ω 2 y = 0 con ⇒ y(x) = sen(ωx) . y 0 (0) = 1 ω Si por el contrario, para determinar el valor de las constantes arbitrarias disponemos de información de la función y sus derivadas en dos o más puntos, diremos que tendremos un problema de contorno. Esto es: y(0) = 0 y 00 + ω 2 y = 0 con ⇒ y(x) = sen(nπωx) . y(1) = 0 150 3.6. SOLUCIONES GENERALES Y PARTICULARES Nótese que también pudimos haber tenido información del tipo y(0) = y0 , y 0 (1) = y1 ; y 0 (0) = y0 , y 0 (1) = y1 ; y 0 (0) = y0 , y(1) = y1 , Bo rr ad or Pr eli m in a r y para cada uno de estos caso tendremos una solución distinta. Demostraremos que los problemas de valores iniciales para ecuaciones diferenciales lineales siempre tienen solución particular (siempre se pueden determinar las constantes a partir de la información de la función y las derivadas en UN punto). No ası́ los problemas de valores de contorno. 151 r 4 Bo rr ad or Pr eli m Ecuaciones diferenciales de orden 1 in a Capı́tulo 152 4.1. SOLUCIONES ANALÍTICAS 4.1. Soluciones analı́ticas = 0, EDO no lineal, homogénea de orden 2 d2 θ g + θ dt2 l = 0, EDO lineal, homogénea de orden 2 d2 θ g + θ dt2 l = E(t) , EDO lineal, no homogénea de orden 2 y 0 + xy = x , y3 EDO no lineal, homogénea de orden 1 y 0 − x3 + 2 xy − x1 y 2 = 0, EDO no lineal, no homogénea de orden 1 tan(x)y 0 − y = tan2 (x) , EDO lineal, homogénea de orden 1 xy 0 + y = x3 , EDO lineal, no homogénea de orden 1 Pr eli m in a d2 θ g + sen(θ) dt2 l r Es fundamental, primero que todo, identificar con que tipo de ecuación diferencial ordinaria que estamos tratando antes de cualquier intento de conseguir una solución. Veamos varios ejemplos: Ahora de manera un poco más sistemática diremos que una ecuación diferencial de primer orden será un funcional tal que si es explı́cita respecto a la derivada ésta se podrá despejar dy(x) y0 ≡ = H(x, y) 0 dx F[x, y(x), y (x)] = 0 ⇒ P (x, y)dx + Q(x, y)dy = 0 or Ejemplos: ⇒ (2xy − ex ) dx − dy = 0 , y 0 = ln(x) + y ⇒ (ln(x) + y) dx − dy = 0 Bo rr ad y 0 = 2xy + ex 4.1.1. Métodos elementales de integración Para comenzar expondremos unos métodos de integración, los cuales si bien son elementales y casi triviales serán utilizados en lo que sigue con bastante frecuencia. Integración directa La integración directa tiene varias variantes las cuales nos hemos tropezado en varias situaciones de modelaje y que nos han permitido integrar (intuitivamente) ecuaciones diferenciales. La más directa de todas tiene que ver con la siguiente ecuación diferencial dy(x) = f (x) dx 153 4.1. SOLUCIONES ANALÍTICAS por lo cual, al integrar (analı́tica o numéricamente) tendremos la expresión para la función y(x), Z Z Z dy(x) = dx f (x) ⇒ y(x) = dx f (x) + C v(0) = v0 ≡ C1 ⇒ v(t) = v0 + at in a r La integración directa fue la estrategia que utilizamos anteriormente para encontrar las formulitas que nos aprendimos en bachillerato. Esto es R v(t) = dt a = at + C1 P Fext dv(t) = = a = constante ⇒ 2 m dt x(t) = R dt (at + C ) = a t + C t + C 1 1 2 2 en la cual al recordar las condiciones iniciales se tiene: t2 . 2 Una primera variante de la estrategia de integración directa anterior se aplica a la siguiente ecuación ⇒ x(t) = x0 + v0 t + a m x(0) = x0 ≡ C2 dy(x) = f (y) dx Pr eli acomodando los términos e integrando resulta: Z Z dy = dx f (y) ⇒ F[y(x)] = x + C donde F[y(x)] será un funcional, desde el cual quizá se pueda despejar y(x). Esta estrategia se ilustra en el siguiente ejemplo: dy(x) = −ay (x) , con y(0) = 2 , dx entonces: Z dy = −a dx ⇒ y(x) = Ce−ax ⇒ yp (x) = 2e−ax . y la Figura 4.1 muestra varias soluciones particulares pertenecientes a esta familia, para a = 31 . Otro ejemplo de integración directa se puede ver en la búsqueda de la solución de la siguiente ecuación diferencial no lineal: yy 0 = (y + 1)2 Bo rr ad or Z esto es: yy 0 =1 (y + 1)2 Z ⇒ ydy = (y + 1)2 Z dx , para y 6= −1 , integrando 1 + ln |y + 1| = x + C , y+1 que no es otra cosa que una familia de soluciones implı́citas, 1−paramétrica. Para una condición inicial como y(2) = 0 entonces y(2) = 0 ⇒ C = −1 ⇒ 1 + ln |y + 1| = x − 1 para y 6= −1 , y+1 una vez más esta familia de soluciones 1−paramétrica no constituye la solución general de la ecuación diferencial ya que no contiene todas las soluciones. En este caso, y(x) = −1 también es solución. 154 4.1.2. 1 3. En particular han sido tomados los valores Pr eli Figura 4.1: Familia de soluciones 1−paramétrica para a = C = −3, −2, −1, 0, 1, 2, 3 m in a r 4.1. SOLUCIONES ANALÍTICAS Ecuaciones diferenciales separables Los casos anteriores de integración directa son generalizados por una ecuación que llamaremos separable. Esto es, la función (funcional) de dos variables del lado derecho se supone que es el resultado del producto de dos funciones de una variable, con lo cual las variables dependientes e independientes se agrupan a lados distintos de la igualdad. La siguiente ecuación es separable or dy(x) = F [y(x)]G(x) dx y por lo tanto dy(x) = G(x) dx F (y) Z ⇔ dy = F (y) Z G(x) dx . Bo rr ad Por ejemplo, al querer resolver la siguiente ecuación se tiene Z dy = 1+y dy(x) = x + xy dx Z x dx ⇒ ln(1 + y) = x2 +C 2 ⇒ y(x) = Ae x2 2 − 1, donde C o A son constantes arbitrarias a ser determinadas por las condiciones iniciales y además con y 6= −1. De todos modos y = −1 es una solución particular. 155 4.1. SOLUCIONES ANALÍTICAS 4.1.3. Ecuaciones diferenciales no separables Veamos ahora un caso bastante sencillo de resolver donde la EDO no es una ecuación diferencial separable. Consideremos, a manera de prueba, la ecuación diferencial siguiente dy(x) + ay(x) = e−x , con y(0) = 2 , dx in a r entonces, podemos preguntarnos sobre la posibilidad de que exista una función µ(x) de manera que si multiplicamos ambos lados de la ecuación diferencial por µ(x) entonces, el lado izquierdo de la ecuación diferencial se pueda escribir como: dy(x) ? d + ay(x) ≡ [µ(x)y(x)] . µ(x) dx dx m De esta manera, la función µ(x) es una función a determinar (en este caso a adivinar). Efectivamente tenemos que si µ(x) = eax , entonces al multiplicar ambos lados de la ecuación diferencial por µ(x), resulta: dy(x) + eax ay(x) = eax e−x dx d ax [e y(x)] = e(a−1)x dx Z Z d [eax y(x)] = dx e(a−1)x Pr eli eax de forma y manera que: eax y(x) = Para y(0) = 2: 1 2a − 3 +C ⇒ C = a−1 a−1 or y(0) = 2 = 1 (a−1)x e +C. a−1 Una solución particular será entonces: 1 −x e + (2a − 3)e−ax . a−1 Bo rr ad yp (x) = Un par comentarios son pertinentes: Llamaremos al término µ(x) factor integrador de la ecuación diferencial. Este factor está relacionado con propiedades de simetrı́a de la ecuación, pero en este nivel lo buscaremos tanteando. La solución general de esa ecuación diferencial toma la forma de y(x) = e−x + Ce−ax , donde el segundo de los términos yH (x) = Ce−ax corresponde a la solución general para la ecuación homogénea asociada −x a esa ecuación diferencial: dy(x) corresponde a la solución dx + ay(x) = 0. El otro término yI (x) = e dy(x) −x particular de la inhomogénea: dx + ay(x) = e . Esto último será una propiedad general para ecuaciones diferenciales lineales de cualquier orden. Resolveremos la ecuación homogénea y luego encontraremos una solución de la inhomogénea. La solución general será una suma de ambas soluciones. 156 Pr eli m in a r 4.1. SOLUCIONES ANALÍTICAS Figura 4.2: Mapa de las ecuaciones diferenciales explı́citas En general, para la ecuación y 0 + ay = g(x) , y se tiene la siguiente solución general e | Z x dt g(t)eat {z } or y(x) = −ax el factor integrador es: µ(x) = eax x0 + −ax Ce | {z } solución de la homogénea solución de la inhomogénea Bo rr ad la demostración la dejamos como ejercicio para el lector. La figura 4.2 muestra el mapa de ruta para la resolución de las EDO lineales. 4.1.4. Método de las Isoclinas Este método se basa en la idea de campo y curvas integrales que vimos cuando estudiamos campos vectoriales. La idea es bien simple, en general, una ecuación diferencial de primer orden (explı́cita respecto a la derivada) se podrá representar como: y 0 = f (y, x) . (4.1) Ahora bien, el lado derecho de esa igualdad lo representa una función de dos variables, la cual tendrá un valor en cada punto (x, y). Ese valor (por la igualdad que representa la ecuación diferencial) será el valor de la derivada en ese punto y el valor de la derivada en un punto, no es otra cosa que la pendiente de la recta tangente a una curva en ese punto. Con eso, al construir una gráfica recordamos las curvas integrales de los campos vectoriales y reconstruimos las curvas solución a partir de sus tangentes. 157 (a) in a r 4.1. SOLUCIONES ANALÍTICAS (b) m Figura 4.3: Isoclinas para los ejemplos (a) y (b) Ejemplos: La EDO y0 = y ⇒ y = Cx ← curva integral. x Para la ecuación y0 = − Pr eli Tenemos entonces que si y = f (x) o f (x, y) = 0 define y como una función de x que satisface y 0 = f (y, x) sobre un intervalo a < x < b, entonces el gráfico de esta función se denomina una curva integral y a la totalidad de esas curvas se le llama un campo de direcciones. A las curvas con la propiedad: y 0 = f (x, y) = constante se le denominan isoclinas (igual pendiente). (x 6= 0 , y 6= 0) . x ⇒ x2 + y 2 = C 2 ← curva integral. y (x 6= 0 , y 6= 0) . Bo rr ad or Cuando por un punto pasa más de una curva integral lo llamaremos un punto singular y para los puntos por donde pase una y solo una curva integral le llamaremos puntos ordinarios. La Figura 4.3 contiene la representación gráfica para las tangentes de las siguientes ecuaciones diferenciales: 1 y (a) y 0 = e−x − y (b) y 0 = 3 x y la Figura 4.4 las de x (c) y 0 = − (d) y 0 = 1 + xy y En el Cuadrante (a) de la Figura 4.3 se muestran las soluciones particulares para las condiciones iniciales: y(0) = 0,75, 0,50, 0, −0,50, −0,75. El Cuadrante (b) de la misma figura corresponde a las tangentes generadas a partir de la ecuación diferencial. Nótese que son curvas integrales radiales y que para el punto x = 0 no está definida la curva integral. En el Cuadrante (c), de la Figura 4.4, se representan las tangentes de la ecuación. Finalmente el Cuadrante (d) contiene las tangentes a la ecuación diferencial, en ella se han indicado las curvas integrales para las soluciones particulares correspondientes a las condiciones iniciales: y(0) = 0,75, 0,50, 0, −0,50, −0,75. Es importante señalar que este método permite obtener las posibles soluciones de una ecuación diferencial no importa lo complicada que sea. 158 in a r 4.1. SOLUCIONES ANALÍTICAS (d) m (c) Pr eli Figura 4.4: Isoclinas para los ejemplos (c) y (d) Ejercicio Utilice el método anterior para estudiar las soluciones de las siguientes ecuaciones: p (a) y 0 = x + y , |x| < 5 . (b) y 0 = x2 + y 2 , |x| < 1 . (c) y 0 = 1 + xy , |x| < 5 . 4.1.5. Ecuaciones diferenciales separables o equivalentemente or La primera estrategia será la que consideramos anteriormente en el sentido que la ecuación diferencial sea separable. Es decir que las variables dependientes e independientes puedan ser agrupadas y, a partir de allı́ intentar una integración de cada grupo por separado. Esto lo esbozamos, más o menos ası́ Z Z dy(x) dy dy = F (y(x))G(x) ⇒ = G(x) dx ⇔ = G(x) dx dx F (y) F (y) ⇔ P1 (x)P2 (y)dy + Q1 (x)Q2 (y)dx = 0 Bo rr ad P (x, y)dx + Q(x, y)dy = 0 ⇔ Q1 (x) P2 (y) dy + dx = 0 Q2 (y) P1 (x) Ejemplo Consideremos la siguiente ecuación diferencial no lineal √ Z Z p p p p 1 − x2 0 2 2 y =− √ ⇔ 1 − x dx + 5 − y dy = 0 ⇒ dx 1 − x + dy 5 − y = 0 5−y con lo cual, al integrar resulta que 1 p 1 2 x 1 − x2 + arcsen(x) + (5 − y)3/2 = C 2 2 3 para − 1 ≤ x ≤ 1 ∧ y > −5 Nótese que el arcsen(x) es multivaluada por lo tanto debemos restringir el intervalo a su valor principal − π2 < x < π2 . 159 4.1. SOLUCIONES ANALÍTICAS Ejercicio Pruebe que y0 p p 1 − x2 = x 1 − y , tiene como solución: p p 1 − x2 − 2 1 − y = C para − 1 < x < 1 ∧ y < 1. Variaciones sobre separabilidad in a 4.1.6. r Es y = 1 una solución particular? Existen otras situaciones en las cuales encontremos ecuaciones diferenciales que podremos convertir en separables a través de un cambio de variable: dy = f (ax + by + c) {z } | dx ⇒ dz = a dx + b dy , m z por lo tanto: Pr eli dy 1 dz a 1 dz a dz = − ⇒ − = f (z) ⇒ = bf (z) + a dx b dx b b dx b dx es decir, el cambio de variable nos conduce a una ecuación diferencial separable: dz = dx . bf (z) + a Ejemplo: y 0 = sen2 (x − y) esto es dz y =1− dx 0 ⇒ 0 ⇒ dz = dx − dy , 2 z = 1 − sen (z) Z ⇒ dz = 1 − sen2 (z) Z dx es decir dz = x + C ⇒ tan(z) = x + C ⇒ tan(x − y) = x + C ⇒ y = x − arctan(x + C) . cos2 (z) or Z Bo rr ad Se puede tratar de generalizar el caso anterior y considerar ecuaciones diferenciales del tipo dy a1 x + b1 y + c1 =f dx a2 x + b2 y + c2 Entonces, se distinguen dos casos dependiendo de si las rectas a1 x + b1 y + c1 = 0 y a2 x + b2 y + c2 = 0 son paralelas o no. 1. Son paralelas: a2 b2 = =λ a1 b1 dy ⇒ =f dx a1 x + b1 y + c1 λ(a1 x + b1 y) + c2 ≡ f˜(a1 x + b1 y) la cual analizamos anteriormente. 160 4.1. SOLUCIONES ANALÍTICAS Ejemplo y0 = − 2x + 3y − 1 4x + 6y + 2 z = 2x + 3y − 1 ⇒ dz = 2dx + 3dy ⇒ y 0 = ⇒ λ = 2, 1 0 (z − 2) 3 con lo cual ⇒ Z dz z+8 = dx 2z + 4 ⇒ 2z + 4 dz = z+8 Z ⇒ 2z − 12 ln |z + 8| = x + C , dx por lo tanto, la solución será: in a 4x + 6y − 2 − 12 ln |2x + 3y + 7| = x + C ⇒ x + 2y − 4 ln |2x + 3y + 7| = C̃ , r 1 0 z (z − 2) = − 3 2z + 4 con 2x + 3y + 7 6= 0. Podemos comprobar que 2x + 3y + 7 = 0 es una solución particular de la ecuación diferencial. 2. No son paralelas, entonces se intuye el siguiente cambio de variables ⇒ du = a1 dx + b1 dy dx = b2 du − b1 dv a1 b2 − a2 b1 dy = a1 dv − a2 du a1 b2 − a2 b1 m u = a1 x + b1 y + c1 ⇒ ⇒ con lo cual, la ecuación diferencial dy =f dx queda de la forma dv = a2 dx + b2 dy Pr eli v = a2 x + b2 y + c2 a1 x + b1 y + c1 a2 x + b2 y + c2 =f u v , u i h u i du − a1 + b1 f dv = 0 , v v donde la función f uv se conoce como una función homogénea al igual que la ecuación diferencial que hereda de ésta su nombre. Este tipo de ecuaciones diferenciales serán consideradas en la próxima sección. h a2 + b2 f Bo rr ad or Otro enfoque (equivalente) de este mismo problema puede ser consultado en el problemario de Kiseliov, Kransnov, Makarenko1 . En este enfoque el cambio de variables se relaciona con el punto de corte (x0 , y0 ) Para ejemplificar este caso analizaremos un ejemplo sencillo de una función con argumento inhomogéneo del tipo. Q(x, y) ∝ a2 x + b2 y + c2 dy(x) a1 x + b1 y + c1 = ⇔ Q(x, y)dy + P (x, y)dx = 0 ⇒ dx a2 x + b2 y + c2 P (x, y) ∝ a1 x + b1 y + c1 Decimos, entonces que los coeficientes Q(x, y) y P (x, y) son inhomogéneos (ci 6= 0). Su pondremos que las rectas no son paralelas, por lo cual utilizamos el cambio de variable propuesto anteriormente. Entonces du dv 1 − u = a2 x + b2 y + c2 ⇒ du = a2 dx + b2 dy ⇒ dy = b2 − b1 a2 a1 v = a1 x + b1 y + c1 1 A. ⇒ dv = a1 dx + b1 dy ⇒ dx = 1 a2 − a1 du dv − b2 b1 Kiseliov, M. Krasnov y G. Makarenko (1969) Problemas de Ecuaciones Diferenciales Ordinarias. (Mir, Moscú) 161 4.1. SOLUCIONES ANALÍTICAS con lo cual convertimos los los coeficientes Q(x, y) y P (x, y) en homogéneos. Esto es (a2 x + b2 y + c2 )dy + (a1 x + b1 y + c1 )dx = 0 | {z } ⇓ }| { z u v u v + du − + dv = 0 a2 (b2 − b1 ) b2 (a2 − a1 ) a1 (b2 − b1 ) b1 (a2 − a1 ) v 1 u + a2 (b2 − b1 ) b2 (a2 − a1 ) = ug1 v u ; Q(u, v) = u v 1 u + a1 (b2 − b1 ) b1 (a2 − a1 ) Este tipo de funciones homogéneas serń consideradas en la siguiente sección. 4.1.7. Ecuaciones diferenciales homogéneas v u . Diremos que una función f (x, y) es homogénea de grado n si y n si w = ⇒ f (x, y) = x g(w) x f (tx, ty) = tn f (x, y) ⇔ x si w = ⇒ f (x, y) = y n h(w) y Pr eli Definición: = ug2 m Funciones homogéneas de grado n in a P (u, v) = u r es decir donde n es una constante y t > 0. Las funciones homogéneas indican un comportamiento particular cuando cambiamos la escala de sus variables. Se utilizan con bastante frecuencia en hidrodinámica y termodinámica. Ejemplo: La siguiente función: f (x, y) = x2 + y 2 ln y Bo rr ad or x es una función homogénea de grado 2, ya que: h y i ty f (tx, ty) = (tx)2 + (ty)2 ln ⇒ f (tx, ty) = t2 x2 + y 2 ln = t2 f (x, y) . tx x Ejercicios: Muestre que: √ 1. f (x, y) = y sen xy es homogénea de grado 21 . 2. f (x, y) = ey/x + tan Definición x y es homogénea de grado 0. Una ecuación diferencial ordinaria de primer orden P (x, y)dx + Q(x, y)dy = 0 , (4.2) será una ecuación diferencial con coeficientes homogéneos si: Q(x, y) y P (x, y) son homogéneas de grado n . 162 4.1. SOLUCIONES ANALÍTICAS Teorema Si los coeficientes P (x, y) y Q(x, y) de una ecuación diferencial son homogéneos de orden n, entonces la siguiente sustitución: y = ux, convertirá la ecuación diferencial en una ecuación diferencial donde las variables son separables. Demostración Como P (x, y) y Q(x, y) son funciones homogéneas de orden n (hipótesis) entonces: P (x, y) = xn f (u) y Q(x, y) = xn g(u) , = 0 [f (u) + ug(u)] dx + xg(u)du = dx [f (u) + ug(u)] + g(u)du = x g(u)du dx + = x f (u) + ug(u) 0 0, m donde x 6= 0 y f (u) + ug(u) 6= 0. § 0 in a xn f (u)dx + xn g(u)(udx + xdu) r sustituyendo en la ecuación diferencial (4.2): Pr eli Ejercicio: Demuestre que la sustitución x = uy también convierte la ecuación diferencial en una de variables separables. Nótese que exigir que Q(x, y) y P (x, y) sean funciones homogéneas de grado n, equivale a imponer que y y P (x, y) dy(x) = ≡F donde F es homogéna de grado 0 , dx Q(x, y) x x con lo cual estamos diciendo que si los coeficientes Q(x, y) y P (x, y) son funciones homogéneas de grado n, la ecuación diferencial es invariante de escala. Ejemplos: Esto es or 1. Como un primer ejemplo consideremos la siguiente ecuación diferencial no lineal p xy 0 = x2 − y 2 + y = t p x2 − y 2 + y Bo rr ad p P (tx, ty) = (tx)2 − (ty)2 + ty p x2 − y 2 + y dx − xdy = 0 ⇒ Q(tx, ty) = −tx los coeficientes son funciones homgéneas de grado 1 y por lo tanto al hacer y = ux tendremos Z Z p p dx du 2 2 x 1 − u + u dx − x(udx + xdu) = 0 ⇒ ± 1 − u dx − xdu = 0 ⇒ =± √ . x 1 − u2 Notemos que: u 6= ±1 y x 6= 0. Integramos y, finalmente, llegamos a y y ln |x| = arcsen(u) + C ⇒ ln |x| = arcsen + C , para < 1 con x > 0 x x y y − ln | − x| = arcsen(u) + C ⇒ − ln | − x| = arcsen + C , para < 1 con x < 0 . x x y = 1 ⇒ y = ±x también es solución. En este caso tenemos que u = x 163 4.1. SOLUCIONES ANALÍTICAS 2. Consideremos la siguiente ecuación diferencial (x + y)y 0 − 2x + y − 1 = 0 r la cual corresponde al caso en los cuales los coeficientes de la ecuación Q(x, y) y P (x, y) son funciones inhomogéneas. Tal y como hemos visto un cambio de variable lo convierte en homogéneo. De nuevo, hay que tener cuidado con el signo + de: P dx + Qdy = 0. du = 2dx − dy dx = 31 (du − dv) u = 2x − y + 1 ⇒ ⇒ (2x − y + 1) dx−(x + y) dy = 0 ⇒ v = −(x + y) dv = −dx − dy dy = − 31 (du + 2dv) (u + v)du − (u − 2v)dv = 0 , y ahora haciendo el cambio de variables u = tv con lo cual du = tdv + vdt Z 2 2x − y + 1 u t= = v −(x + y) √ ! √ 2 t = C ⇒ ln |v 2 (t2 + 2)| + 2 arctan 2 Z t+1 dt = 0 t2 + 2 √ ! 2 t = C̃ , 2 Pr eli para v 6= 0, y ahora dv + v m (tv + v)(tdv + vdt) − (tv − 2v)dv = 0 ⇒ (t + 2)dv + v(t + 1)dt = 0 ⇒ e integrando tendremos que √ 1 2 ln |v| + ln |t2 + 2| + arctan 2 2 in a ası́ nuestra ecuación diferencial tendrá la forma de una ecuación homogénea 2 ⇒ ln (x + y) + 2(2x − y + 1) 2 + √ √ 2 arctan 2 2x − y + 1 =C, 2 −(x + y) para x + y 6= 0. La Figura 4.5 ilustra esta familia de soluciones. Bo rr ad or Ejemplo Tratemos con un ejemplo para ilustrar las ecuaciones isóbaras. Consideremos la ecuación 2 2xyy 0 + y 2 + = 0 , entonces, x 2 x→x ↔ dx = dx y2 + dx + 2xydy = 0 ⇒ m y → z ↔ dy = mz m−1 dz x En la contabilidad de los exponentes de x aporta un peso de 1 mientras que y aporta un peso de m. La intención es balancear los términos para que la ecuación sea homogénea de grado n. Esto es 2 2m dx + 2xz m mz m−1 dz = 0 z + x 1 v 2 2m dx + 2mxz −1 z 2m dz = 0 ⇒ m = − ⇒ y = vxm ⇒ y = √ z + x 2 x El exponente del primer término es 2m, del segundo −1 del tercero 2m. Al balancear todos los exponentes tendremos 2m = −1, con lo cual m = − 12 . 2 v 2 v dv 1 v dx √ √ √ + dx + 2x − dx = 0 ⇒ vdv + =0 x x x x x 2x x √ entonces al integrar y devolver el cambio v = y x tendremos Z Z dx v2 1 dv v + =0 ⇒ + ln |x| = c ⇒ y 2 x + ln |x| = c . x 2 2 164 4.1. SOLUCIONES ANALÍTICAS 4.1.8. Ecuaciones Isóbaras + in a P (x, y)dx r Las ecuaciones isóbaras generalizan a las ecuaciones homogéneas por cuanto los coeficientes de la ecuación Q(x, y) y P (x, y) no son funciones homogéneas del mismo grado y se busca una transformación que convierta la ecuación en homogénea. Es decir, si la dimensionalidad en potencias de y es la misma que la dimensionalidad en potencias de x. Diremos que una ecuación diferencial es isóbara si cumple con Q(x, y)dy = 0 ⇓ P (tx, tm y) → tn−m+1 Q(x, y) 4.1.9. Figura 4.5: Solución gráfica para la ecuación diferencial (x + y)y 0 − 2x + y − 1 = 0. Las curvas de diferentes colores indican soluciones particulares: y(0) = 7; y(0) = 5; y(0) = 2; y(0) = −7; y(0) = −5; y(0) = −2. Pr eli y el cambio de variable que se impone es y = vxm . Con lo cual habrá que estudiar si es posible “balancear” el orden de las dimensionalidades de variables y funciones. m Q(tx, tm y) → tn P (x, y) Ecuaciones diferenciales exactas El segundo grupo de estrategias apunta a escribir una ecuación diferencial como una derivada total de un conjunto de funciones. Uno se ayuda en una posible función que pueda acomodar los términos de la ecuación. Esa función se denomina factor integrador, para una ecuación diferencial lineal de primer orden or dy(x) + f (x)y(x) = g(x) , dx al multiplicar a ambos lados por µ(x) resulta dy(x) + µ(x)f (x)y(x) = µ(x)g(x) , dx por otro lado, tenemos y queremos que µ(x) Bo rr ad d dy(x) dµ(x) [µ(x)y(x)] ≡ µ(x) + y(x) = µ(x)g(x) , dx dx dx para que esas dos últimas ecuaciones sean equivalentes los coeficientes de y(x) tienen que ser iguales, es decir, Z Z R dµ(x) dµ(x) = µ(x)f (x) ⇒ = dx f (x) ⇒ µ(x) = e dx f (x) dx µ(x) Con lo cual hemos demostrado que para una ecuación lineal de primer orden, siempre es posible encontrar un factor integrador µ(x) tal que la ecuación diferencial pueda ser expresada como una derivada total del factor integrador y la función incognita. Z d 1 dy(x) + f (x)y(x) = g(x) ⇒ [µ(x)y(x)] = µ(x)g(x) ⇒ y(x) = dx µ(x)g(x) + C dx dx µ(x) R donde µ(x) = e dx f (x) . 165 4.1. SOLUCIONES ANALÍTICAS Definición Una ecuación diferencial de la forma P (x, y)dx + Q(x, y)dy = 0 , se llama una ecuación diferencial exacta si esta es el diferencial total de alguna función f (x, y), es decir, si: y Q(x, y) = ∂ f (x, y) . ∂y Una condición necesaria y suficiente para que la ecuación diferencial in a Teorema ∂ f (x, y) ∂x r P (x, y) = P (x, y)dx + Q(x, y)dy = 0 , sea exacta es que: ∂ ∂ P (x, y) = Q(x, y) , ∂y ∂x m donde las funciones: P (x, y), Q(x, y), ∂y P (x, y), ∂x Q(x, y) deben existir y ser contı́nuas. Demostración Vamos a probar que si: P (x, y)dx + Q(x, y)dy = 0, entonces: ∂y P (x, y) = ∂x Q(x, y). Como la ecuación es exacta, por la definición anterior se tiene que: ∂ f (x, y) ∂x ∂ f (x, y) , ∂y Pr eli P (x, y) = ∧ Q(x, y) = y como suponemos que P (x, y), Q(x, y), ∂y P (x, y), ∂x Q(x, y) existen y son contı́nuas: ∂ ∂ f (x, y) ∂y ∂x y como: ∧ ∂ ∂ f (x, y) ∃ , ∂x ∂y ∂ ∂ ∂ ∂ f (x, y) = f (x, y) , ∂y ∂x ∂x ∂y or por lo tanto tenemos que una condición necesaria es: ∂ ∂ P (x, y) = Q(x, y) . ∂y ∂x Bo rr ad Por otro lado, probemos que si: ∂y P (x, y) = ∂x Q(x, y) entonces: P (x, y)dx + Q(x, y)dy = 0 es exacta. Ası́, para una ecuación diferencial que pueda ser escrita como ? d [f (x, y)] = 0 ⇔ P (x, y)dx + Q(x, y)dy = 0 ⇒ d [f (x, y)] = ∂f (x, y) ∂f (x, y) dx + dy = 0 ∂x ∂y donde f (x, y) será la función a determinar. Entonces tendremos que la condición necesaria y suficiente para que una ecuación diferencial sea exacta es ∂f (x, y) P (x, y) ⇔ ∂x ∂ 2 f (x, y) ∂ 2 f (x, y) ∂P (x, y) ∂Q(x, y) ⇒ ≡ ⇔ ≡ ⇒ d [f (x, y)] = 0 ∂y∂x ∂x∂y ∂y ∂x ∂f (x, y) Q(x, y) ⇔ ∂y 166 4.1. SOLUCIONES ANALÍTICAS Si esto se cumple entonces, podremos encontrar la función f (x, y) integrando respecto a cualquiera de las variables (ahora consideradas independientes ambas) Z x Z x ∂f (x, y) dS(y) ∂f (x, y) ∂ P (x, y) ≡ P (u, y)du + ⇔ f (x, y) = P (u, y)du + S(y) ⇒ Q(x, y) = = ∂x ∂y ∂y dy x0 x0 Z x Q(x, y) = Z x x0 ∂Q(v, y) dS(y) dS(y) v=x dv + = Q(v, y)|v=x0 + ∂v dy dy in a x0 dS(y) ∂P (u, y) du + ≡ ∂y dy r entonces con lo cual nos queda finalmente otra ecuación diferencial para encontrar S(y) y con ella f (x, y). Esto es Z y Z x Z y dS(y) Q(x0 , w)dw = C . § P (u, y)du + Q(x0 , w)dw ⇒ f (x, y) = = Q(x0 , y) ⇒ S(y) = dy y0 x0 y0 f (x, y) = P (u, y)du + x0 Ejemplos: Pr eli m Hay que hacer notar que los segmentos de lı́nea que unen el punto (x0 , y0 ) con los puntos genéricos (x, y0 ) ∧ (x0 , y) pertenecen al entorno de (x0 , y0 ). Este tipo de entornos también se denomina multiplemente conexo. Notemos que además de demostrar el teorema también encontramos una familia 1-parámetrica de soluciones: Z x Z y Q(x0 , w)dw = C . y0 1.- Consideremos la siguiente ecuación diferencial no lineal [xsen(y) − y 2 ]y 0 = cos(y) . Entonces: 0 y xsen(y) − y 2 = cos(y) ⇔ cos(y) dx − xsen(y) − y 2 dy = 0 ⇒ P (x, y) = cos(y) Q(x, y) = − xsen(y) − y 2 or Bo rr ad y verificamos que esta ecuación diferencial es exacta, ya que Z x Z y ∂P (x, y) ∂Q(x, y) = = − sen(y) ⇒ f (x, y) = P (u, y)du + Q(x, w)dw = C ∂x ∂y x0 y0 con lo cual, si particularizamos el punto (x0 , y0 ) ≡ (0, 0) tendremos que Z x Z y y3 f (x, y) = cos(y)du + w2 dw = C ⇒ x cos(y) + =C 3 x0 y0 2.- Sea la siguiente ecuación x2 y + y 3 y 0 + x3 + y 2 x = 0 . Por lo tanto: x3 + y 2 x dx + x2 y + y 3 dy ⇒ P (x, y) Q(x, y) = x3 + y 2 x = 2 x y+y 3 ⇒ ∂Q(x, y) ∂P (x, y) = = 2yx ∂x ∂y 167 4.1. SOLUCIONES ANALÍTICAS la ecuación diferencial es exacta, y otra vez: Z x Z f (x, y) = u3 + y 2 u du + Ejercicio: 4.1.10. y0 2 2 4 x + 2x y + y = C , 2 x2 + y 2 = C . Resuelva la ecuación diferencial siguiente: 2xysen2 (x) y 0 + x3 + xy 2 sen(2x) + y 2 sen2 (x) = 0 . Ecuaciones diferenciales lineales de orden 1 dy(x) + f (x)y(x) = g(x) , dx no es exacta, ya que: ⇒ = f (x)y(x) − g(x) ⇒ Pr eli [f (x)y(x) − g(x)] dx + dy = 0 P (x, y) Q(x, y) = 1 pero como ya vimos, si µ(x) es un factor integrador, entonces: P (x, y) µ(x) [f (x)y(x) − g(x)] dx + µ(x)dy = 0 ⇒ Q(x, y) y por lo tanto m Una ecuación diferencial lineal de orden 1 r = x2 w + w3 dw = C , in a = x0 4 y ∂P ∂Q 6= . ∂x ∂y = µ(x) [f (x)y(x) − g(x)] = µ(x) Bo rr ad es decir, or ∂x µ(x) = ∂y {µ(x) [f (x)y(x) − g(x)]} dµ(x) = µ(x)f (x) dx Z Z Z dµ(x) dµ(x) = f (x)dx ⇒ = f (x)dx ⇒ ln |µ(x)| = f (x)dx , µ(x) µ(x) µ(x) = e R f (x)dx . Esto significa que para las ecuaciones lineales de orden 1 se tiene P (x, y) R R e f (x)dx [f (x)y(x) − g(x)] dx + e f (x)dx dy = 0 ⇒ Q(x, y) R f (x)dx R f (x)dx = e = e [f (x)y(x) − g(x)] por lo tanto ahora es una ecuación exacta, ya que: h R i R R ∂P ⇒ ∂y e f (x)dx f (x)y(x) − e f (x)dx g(x) = f (x)e f (x)dx ∂y h R i R ∂Q ⇒ ∂x e f (x)dx = f (x)e f (x)dx ∂x 168 4.1. SOLUCIONES ANALÍTICAS Volviendo a la ecuación original multiplicada por el factor integrador que la convierte en exacta, podemos escribir: R f (x)dx f (x)y(x)dx − e e R R f (x)dx f (x)dx g(x)dx + e R dy + e R f (x)dx dy f (x)dx f (x)y(x)dx h i R d y(x)e f (x)dx R f (x)dx 0 = e R f (x)dx g(x)dx R = e f (x)dx g(x)dx Z R = e f (x)dx g(x)dx + C . in a y(x)e = r e m Llegamos entonces a la fórmula que nos dará la solución general para cualquier ecuación diferencial lineal de orden 1. Z R C 1 e f (x)dx g(x)dx + R f (x)dx . (4.3) y(x) = R f (x)dx e e En realidad, lo anterior se puede formalizar con el siguiente teorema para el problema de valores iniciales. Consultar la bibliografı́a recomendada para estudiar su demostración Pr eli Teorema Sean las funciones F y ∂y F funciones contı́nuas en algún intervalo a < x < b y c < y < d que contienen al punto (x0 , y0 ). Entonces, en algún intervalo x0 − < x < x0 + contenido en a < x < b, existe una única solución y = y(x) del problema de valores iniciales: dy(x) = F (x, y) , dx Ejemplo con y(x0 ) = y0 . 2 y 0 − 2xy = ex , 2 aquı́: f (x) = −2x y g(x) = ex . Por lo tanto, el factor integrador es: µ(x) = e R f (x)dx R =e −2xdx 2 = e−x . or La solución viene a ser: y(x) = e−x2 xy 0 + 3y = 4.1.11. Z 2 2 e−x ex dx + 2 C = ex (x + C) . e−x2 Resuelva la ecuación Bo rr ad Ejercicio 1 sen(x) , x2 con x 6= 0 , y y π 2 = 1. Ecuaciones diferenciales no lineales y el factor integrador Del mismo modo, y con la misma idea, podemos incorporar el factor integrador µ(x, y) para extender la idea a ecuaciones que no sean, necesariamente lineales. Ası́ para una ecuación diferencial que pueda ser escrita como ? d [f (x, y)] = 0 ⇔ µ(x, y)Q(x, y)dy + µ(x, y)P (x, y)dx = 0 es decir d [f (x, y)] = ∂f (x, y) ∂f (x, y) dx + dy = µ(x, y)Q(x, y)dy + µ(x, y)P (x, y)dx = 0 ∂x ∂y 169 4.1. SOLUCIONES ANALÍTICAS Entonces tendremos que la condición necesaria y suficiente para que una ecuación diferencial sea exacta es: ∂f (x, y) µ(x, y)P (x, y) ⇔ ∂x ∂ 2 f (x, y) ∂ ∂ ∂ 2 f (x, y) ≡ ⇔ [µ(x, y)P (x, y)] ≡ [µ(x, y)Q(x, y)] ⇒ ∂y ∂x ∂x ∂y ∂y ∂x ∂f (x, y) µ(x, y)Q(x, y) ⇔ ∂y r y, obviamente, esta condición de integrabilidad dependerá del µ(x, y) que propongamos. Veamos algunos casos: µ(x) in a 1. Si µ(x, y) = µ(x) entonces la condición es ∂P (x, y) dµ(x) ∂Q(x, y) 1 dµ(x) 1 ∂P (x, y) ∂Q(x, y) = Q(x, y) + µ(x) ⇒ = − ∂y dx ∂x µ(x) dx Q(x, y) ∂y ∂x m con lo cual, si se cumple que R ∂P (x, y) ∂Q(x, y) 1 dµ(x) 1 − = f (x) = ⇒ µ(x) = e dx f (x) Q(x, y) ∂y ∂x µ(x) dx podremos deteriminar el factor integrador. Pr eli Una vez identificado procedemos a integrar, formalmente f (x, y) Z y Z y ∂ ∂f (x, y) = µ(x)P (x, y) ≡ f (x, y) = µ(x) Q(x, u)du + S(x) ⇒ µ(x) Q(x, u)du + S(x) ∂x ∂x y0 y0 y finalmente, una vez más Z y Z y dS(x) ∂µ(x, u)P (x, u) dS(x) ∂µ(x)Q(x, u) du + ⇒ µ(x)P (x, y) = du + µ(x)P (x, y) = ∂x dx ∂u dx y0 y0 con lo cual Z x or x0 Ejemplo Z y µ(u, y0 )P (u, y0 )du ⇒ f (x, y) = µ(x) S(x) = Z x Q(x, u)du + y0 µ(u, y0 )P (u, y0 )du + C . x0 Bo rr ad cos(y)y 0 = −ex + sen(y) . Esta ecuación no es exacta, ya que: x [e − sen(y)] dx + cos(y)dy = 0 ⇒ P (x, y) Q(x, y) = ex − sen(y) ⇒ = cos(y) ∂Q ∂P = 0 6= = − cos(y) . ∂x ∂y Podemos ver que el arreglo: 1 ∂P (x, y) ∂Q(x, y) − cos(y) − 0 f (x) = − = = −1 , Q(x, y) ∂y ∂x cos(y) entonces, el factor integrante es exacta: µ(x) = e R dx f (x) = e− R dx = e−x . 170 4.1. SOLUCIONES ANALÍTICAS Por lo tanto, la ecuación −x e x −x [e − sen(y)] dx+e cos(y)dy = 0 ⇒ P (x, y) Q(x, y) 1 − e−x sen(y) = ⇒ = e−x cos(y) ∂Q ∂P = = −e−x cos(y) . ∂x ∂y Queda como ejercicio resolver esta ecuación diferencial. 2. Si µ(x, y) = µ(y) entonces la condición queda como in a r ∂P (x, y) ∂Q(x, y) 1 dµ(x) 1 ∂Q(x, y) ∂P (x, y) du(y) P (x, y) + µ(y) = µ(y) ⇒ = − , dy ∂y ∂x µ(y) dx P (x, y) ∂x ∂y con lo cual si se cumple que R 1 ∂Q(x, y) ∂P (x, y) 1 dµ(y) − = f (y) = ⇒ µ(y) = e dy f (y) P (x, y) ∂x ∂y µ(y) dy Ejemplo 1 + x2 y 0 + xy = 0 . (xy)dx + 1 + x 2 Pr eli Esta ecuación no es exacta, ya que: dy = 0 ⇒ P (x, y) Podemos ver que el arreglo: m y podremos deteriminar el factor integrador. = xy ∂Q ∂P = 2x 6= = x. ∂x ∂y ⇒ Q(x, y) 1 + x2 = ∂Q(x, y) ∂P (x, y) 2x − x 1 1 − = = = f (y) , P (x, y) ∂x ∂y xy y entonces, el factor integrante es µ(y) = e R dy y = eln(y) = y . or Por lo tanto, la ecuación es exacta: P (x, y) (xy 2 )dx + y + yx2 dy = 0 ⇒ Q(x, y) = xy 2 ⇒ 2 = y + yx ∂Q ∂P = = 2xy . ∂x ∂y Bo rr ad Queda como ejercicio resolver esta ecuación diferencial. Ejercicios 1. Demuestre que si µ = µ(z) donde z = xy, entonces el factor integrante viene dado por µ(z) = e R dz f (z) , donde: ∂P (x, y) ∂Q(x, y) − ∂y ∂x f (z) = yQ(x, y) − xP (x, y) Con este resultado resuelva la ecuación: x3 + x2 y + x y 0 + y 3 + xy 2 + y = 0 . 171 4.1. SOLUCIONES ANALÍTICAS 2. Demuestre que si µ = µ(z) donde z = x/y, entonces el factor integrante viene dado por µ(z) = e donde: R dz f (z) , r ∂P (x, y) ∂Q(x, y) − y ∂y ∂x f (z) = yQ(x, y) + xP (x, y) 2 xy 0 = 3y . in a Resuelva la ecuación: 3. Demuestre que si µ = µ(z) donde z = y/x, entonces el factor integrante viene dado por µ(z) = e donde: R dz f (z) , Resuelva la ecuación: 4.1.12. Ecuación de Bernoulli Pr eli 3xy 0 = y . m ∂Q(x, y) ∂P (x, y) − x ∂x ∂y f (z) = yQ(x, y) + xP (x, y) 2 La ecuación de Bernoulli, formulada por James Bernoulli2 y resuelta por su hermano Johann Bernoulli, se caracteriza por tener la forma: dy(x) + y(x)f (x) = y(x)n g(x) . (4.4) dx Es fácil darse cuenta de que la ecuación de Bernoulli se reduce a una ecuación con variables separadas cuando n = 0 y cuando n = 1 se trata de una ecuación de la forma: or dy(x) = y(x) [g(x) − f (x)] . dx Bo rr ad la cual también es de variables separables. Entonces, es la presencia del término y n lo que hace que la ecuación no sea lineal. Leibniz, en 1696, indicó que el cambio de variable z = y 1−n convierte la ecuación (4.4) en una ecuación lineal. Consideremos entonces n 6= 1, si multiplicamos ambos lados de (4.4) por (1 − n)y −n resulta: −n dy (1 − n)y + yf (x) = (1 − n)y −n y n g(x) dx dy (1 − n)y −n + (1 − n)f (x)y 1−n = (1 − n)g(x) dx d 1−n y + (1 − n)f (x)y 1−n = (1 − n)g(x) , dx 2 James Bernoulli (1654-1705), fue un matemático y cientı́fico suizo, formaba parte de la gran familia Bernoulli. En 1690 se convirtió en la primera persona en desarrollar la técnica para resolver ecuaciones diferenciales separables. 172 4.1. SOLUCIONES ANALÍTICAS si se hace el cambio de variable z = y 1−n se tiene dz + (1 − n)f (x) z = (1 − n)g(x) . dx (4.5) Ejemplo Sea la ecuación: y 0 + xy = x , y3 con y 6= 0 . 4y 3 = = 4x = 4x x y3 m 4y 3 y 0 + 4y 3 xy 4y 3 y 0 + 4xy 4 d 4 y + 4xy 4 dx in a esta ecuación es de la forma (4.4) con n = −3. Si multiplicamos por 4y 3 se tiene: r La ecuación (4.5) es una ecuación diferencial lineal, la cual ya sabemos resolver. con el cambio de variable z = y 4 , resulta Pr eli dz + 4xz = 4x , dx la cual es una ecuación diferencial lineal con factor integrador µ(x) = e R dx f (x) =e R 4xdx 2 = e2x , Por lo tanto, la solución vendrá dada por Z 2 2 C C 1 h 2i 1 y(x) = 2x2 e2x (4x)dx + 2x2 = 2x2 e2x + 2x2 = 1 + Ce−2x . e e e e Ejercicio Resuelva la ecuación 4.1.13. or xy 0 + y − y 2 ln x = 0 . Ecuación de Riccati La ecuación de Riccati3 es conocida como una ecuación diferencial no lineal que tiene la siguiente forma: Bo rr ad dy(x) = A(x) + B(x)y(x) + C(x)y(x)2 , dx C(x) 6= 0 . (4.6) Esta ecuación fue estudiada por muchos matemáticos, entre ellos los propios integrantes de la familia Bernoulli. Daniel Bernoulli, hijo de John y sobrino de James Bernoulli, publicó su solución en 1724, luego de mantenerla oculta por mucho tiempo en modo de anagrama. Podemos seguir las recomendaciones de Euler4 quien propuso que una sustitución del tipo: y(x) = y1 (x) + 1 , z(x) (4.7) 3 El conde Jacopo Francesco Riccati (1676-1754) fue un matemático veneciano, que estudió detalladamente la hidrodinámica sobre la base de la mecánica newtoniana. 4 Leonhard Paul Euler nació el 15 de abril de 1707 en Basilea, Suiza y murió el 18 de septiembre de 1783 en San Petersburgo, Rusia. Fue un reputado matemático y fı́sico, y es considerado uno de los más grandes matemáticos de la historia. 173 4.1. SOLUCIONES ANALÍTICAS =0 por lo tanto: y(x) = y1 (x) + u(x) m dz = − [2 C(x)y1 + B(x)] z − C(x) . dx También podemos hacer la siguiente sustitución in a r donde y1 (x) es una solución particular de (4.6), convierte la ecuación de Riccati en una ecuación lineal para z(x). Al sustituir (4.7) en (4.6) resulta lo siguiente: 2 dy1 1 dz 1 1 − 2 = A(x) + B(x) y1 + + C(x) y1 + dx z dx z z dz dy 1 − = A(x) + B(x)y1 + C(x)y12 z 2 + [2 C(x)y1 + B(x)] z + C(x) z2 dx dx dz dy1 2 2 z + [2 C(x)y1 + B(x)] z + C(x) − = A(x) + B(x)y1 + C(x)y1 − dx dx {z } | (4.8) (4.9) donde y1 (x) es una solución particular de (4.6). Esto es, al sustituir (4.9) en (4.6) resulta: = A(x) + B(x) [y1 + u] + C(x) y12 + 2y1 u + u2 Pr eli du dy1 + dx dx dy1 du + dx dx du dx = A(x) + B(x)y1 + C(x)y12 + [B(x) + 2C(x)y1 ] u + C(x)u2 = [B(x) + 2C(x)y1 ] u + C(x)u2 , es decir: du − [B(x) + 2C(x)y1 ] u = C(x)u2 , (4.10) dx que no es más que la ecuación de Bernoulli (4.4) con f (x) = − [B(x) + 2C(x)y1 ], g(x) = C(x) y n = 2. or Ejemplo Resolver la siguiente ecuación de Riccati y0 = y2 − 2 , x2 Bo rr ad conociendo la solución particular y1 = 1/x. En lugar de hacer todo el desarrollo anterior, podemos reconocer de manera fácil que: A(x) = − 2 , x2 B(x) = 0 , C(x) = 1 . Tenemos entonces dos posibilidades: la primera es utilizar la ecuación lineal (4.8) dz(x) 2 1 c =− z(x) − 1 ⇒ z(x) = − x + 2 . dx x 3 x por lo tanto, al volver a la variable y(x): y(x) = 1 1 + x − 31 x + c x2 =− 2 x3 + 3 c . x (x3 − 3 c) 174 4.1. SOLUCIONES ANALÍTICAS La segunda, es resolver la ecuación de Bernoulli (4.10) con n = 2 du(x) 2 3x2 − u(x) = u(x)2 ⇒ u(x) = − 3 , dx x x − 3c y en función de y(x) Resuelva la siguiente ecuación de Riccati y 0 = x3 + 4.1.14. 2 1 y − y2 , x x y1 (x) = −x2 . in a Ejercicios 1 3x2 2 x3 + 3 c − 3 =− . x x − 3c x (x3 − 3 c) r y(x) = Un tipo muy especial de ecuación diferencial no lineal y0 = − y (Axp y q + Bxr y s ) , x (Cxp y q + Dxr y s ) Pr eli donde A, B, C, D son constantes. La ecuación diferencial puede ser escrita como: m Vamos a estudiar la siguiente ecuación diferencial: y (Axp y q + Bxr y s ) dx + x (Cxp y q + Dxr y s ) dy = 0 . Y se puede demostrar que el factor integrante será de la forma µ(x, y) = xa y b , donde a y b son constantes a determinar. Veamos un ejemplo. Ejemplo entonces: or y 2x2 y 3 + 3 dx + x x2 y 3 − 1 dy = 0 , P (x, y) = y 2x2 y 3 + 3 Q(x, y) = x x2 y 3 − 1 ⇒ ∂P ∂Q = 3x2 y 3 − 1 6= = 8x2 y 3 + 3 ∂x ∂y Bo rr ad La ecuación no es exacta. Si µ(x, y) = xa y b es un factor integrante, resulta que: xa y b 2x2 y 4 + 3y dx + xa y b x3 y 3 − x dy = 0 2x2+a y 4+b + 3xa y 1+b dx + x3+a y 3+b − x1+a y b dy = 0 y será exacta si ∂y P = ∂x Q, esto es ∂y P = 2x2+a (4 + b)y 3+b + 3xa (1 + b)y b = (3 + a)x2+a y 3+b − (1 + a)xa y b = ∂x Q , si multiplicamos por 1/(xa y b ) la ecuación anterior queda como: 2(4 + b)x2 y 3 + 3(1 + b) = (3 + a)x2 y 3 − (1 + a) , 175 4.1. SOLUCIONES ANALÍTICAS igualando coeficientes resulta 8 + 2b = 3+a ⇒ a= 3 + 3b = −1 − a 7 , 5 9 b=− . 5 Otros métodos in a 4.1.15. r Por lo tanto el factor integrador es µ(x, y) = x7/5 y −9/5 . Queda como ejercicio verificar que con este factor integrador la ecuación original es exacta. Muchas veces, la solución de una ecuación diferencial se puede obtener utilizando más de un método. Si fallan los métodos vistos anteriormente entonces podemos utilizar un poco de ingenio matemático. Veamos los siguientes ejemplos 1. Resolvamos la ecuación m xy 0 = y − y 2 − x2 , la ecuación no es del tipo con coeficientes homogéneos P (x, y) = y − y 2 − x2 2 2 y − y − x dx − xdy = 0 ⇒ Q(x, y) = −x ydx − xdy − y 2 + x2 dx or ydx − xdy x2 hyi −d x y d − y 2 x +1 x Z − = 0 y2 = + 1 dx , x 6= 0 x2 y 2 + 1 dx = x = dx Z y d xy = x + C ⇒ y(x) = −x tan(x + c) , = dx ⇒ − arc tg y 2 x +1 x Bo rr ad integrando: ∂P ∂Q = −1 6= 1 − 2y = . ∂x ∂y Pr eli pero podemos hacer lo siguiente: ⇒ 2. Resolver y 0 = −2x + 2 x2 + y − 1 32 x 6= 0 . . Podemos hacer la siguiente sustitución: z = x2 + y − 1 Por lo tanto ⇒ 2 dz − 2x = −2x + 2z 3 dx dy dz = − 2x dx dx ⇒ 2 dz = 2z 3 dx 176 4.1. SOLUCIONES ANALÍTICAS Nos queda entonces una ecuación separable Z Z dz − 32 z dz = 2dx 2 = 2dx ⇒ z3 ⇒ 1 z 6= 0 3z 3 = 2x + C , regresando a la variable original 1 3 x2 + y − 1 3 = 2x + C ⇒ 3 27 x2 + y − 1 = (2x + C) , x2 + y − 1 6= 0 1 3 (2x + C) . 27 in a y(x) = 1 − x2 + r para finalizar, despejamos lo que será nuestra solución Es bueno acotar y queda como ejercicio, demostrar que y(x) = 1 − x2 también es una solución. 3. Resolver 2 cos(y)y 0 + sen(y) = x2 csc(y) , y 6= 0 . m Podemos verificar que los métodos anteriores no funcionan, pero si multiplicamos por sen(y): Pr eli 2 cos(y)sen(y)y 0 + sen2 (y) = x2 csc(y)sen(y) d 2 sen (y) + sen2 (y) = x2 dx Esta es una ecuación lineal para sen2 (y), si hacemos z = sen2 (y) tenemos: dz + z = x2 dx donde el fácil ver que el factor integrador es µ(x) = ex . Por lo tanto: Z C 1 C 1 x2 ex dx + x = x 2 − 2 x + x2 ex + x = 2 − 2 x + x2 + Ce−x , z= x e e e e or la solución es entonces: h p i y(x) = arcsen ± 2 − 2 x + x2 + Ce−x , Solución paramétrica: Ecuaciones no resueltas respecto a la derivada Bo rr ad 4.1.16. y 6= 0 . Podemos preguntarnos sobre los casos donde no es posible despejar y 0 de la ecuación diferencial ordinaria de primer orden: F[x, y(x), y 0 (x)] = 0. Varias situaciones pueden aparecer: F[y 0 (x)] = 0 F[x, y 0 (x)] = 0 0 F[x, y(x), y (x)] = 0 ⇒ F[y(x), y 0 (x)] = 0 F[x, y(x), y 0 (x)] = 0 Veamos todos estos casos: 177 4.1. SOLUCIONES ANALÍTICAS 1. F[y 0 (x)] = 0 Como F[y 0 (x)] = 0 no contiene ni a x ni a y(x), entonces sı́ existe al menos una raı́z κi de la ecuación F[y 0 (x)] = 0 entonces y 0 = κi ⇒ ⇒ y(x) = κi x + C Por lo tanto κi = y(x) − C . x y(x) − C F =0 x r in a es la integral de la ecuación diferencial. Ejemplo La solución de la ecuación (y 0 )7 − (y 0 )5 + y 0 + 3 = 0 , y(x) − C x 7 − y(x) − C x 5 + y(x) − C +3=0 x m es 2. F[x, y 0 (x)] = 0 Pr eli Si se puede despejar x, entones podemos hacer los siguientes cambios de variable R dx = f 0 (t) dt g(t)f 0 (t) dt + C x = f (t) y(x) = 0 ⇒ ⇒ dy = g(t)f (t) dt ⇒ 0 y = g(t) dy = g(t) dx x = f (t) Este tipo de soluciones se conocen como soluciones parametrizadas. Ejemplo La ecuación (y 0 )3 − y 0 = 1 + x . or Hacemos entonces los siguientes cambios de variables dx = (3t2 − 1) dt x = t3 − t − 1 ⇒ 0 y = t dy = t dx integrando: = R Bo rr ad R dy x = t(3t2 − 1) dt ⇒ t3 − t − 1 y(x) = x = ⇒ dy = t(3t2 − 1) dt t2 2 4 (3t − 2) + C t3 − t − 1 3. Caso: F[y(x), y 0 (x)] = 0 a) Se puede despejar y(x), es decir: y = f (y 0 ). Entonces hacemos los siguientes cambios de variables: 0 dy = z dx y = z df dz df dz ⇒ ⇒ z(x) = ⇒ dx = dz dx dz z y = f (z) dy = f 0 (z) z 0 dx Por lo tanto, la solución paramétrica será x = y = R df dz dz z +C f (z) 178 4.1. SOLUCIONES ANALÍTICAS La ecuación Tenemos entonces: 0 y = z ⇒ dx = (2az + 3bz 2 ) = az 2 + bz 3 y la solución paramétrica es : R (2a + 3bz) dz + C x = y = a y b = constantes ⇒ az 2 + bz 3 x dz z r y = a(y 0 )2 + b(y 0 )3 , 2az + 23 bz 2 + C = in a Ejemplo . = az 2 + bz 3 y z(x) = − m En el caso de que queramos obtener y(x) podemos intentar despejar z de la primera ecuación, en este caso esto es posible i p 1 h 2 a ± 4 a2 + 6 b(x − C) , 3b y(x) = Pr eli y sustituir en la segunda: 2 p p 1 2 a ± 4 a2 + 6 b(x − C) a ∓ 4 a2 + 6 b(x − C) . 2 27b b) No se puede despejar y 0 ni y de F[y(x), y 0 (x)] = 0, pero puede existir un parámetro tal que dy = f 0 (t) dt y = f (t) f 0 (t) dt = dx ⇒ ⇒ f 0 (t) dt = g(t) dx ⇒ 0 g(t) y = g(t) dy = g(t) dx or La solución paramétrica es entonces la siguiente: R f 0 (t) g(t) dt = x + C . = f (t) La ecuación Bo rr ad Ejemplo y y 2/3 + (y 0 )2/3 = 1 , Tenemos entonces: y = y0 = cos3 (t) ⇒ − sen3 (t) 3 cos2 (t)sen(t) dt = dx sen3 (t) Por lo tanto R −3 cot2 (t)dt = y = x+C ⇒ cos3 (t) x = 3 [cot(t) + t] + C y = cos3 (t) 179 4.1. SOLUCIONES ANALÍTICAS 4. Caso: F[x, y(x), y 0 (x)] = 0 a) Si se puede despejar la función y, entonces y = G(x, y 0 ). En este caso consideramos la siguiente sustitución: y 0 = z(x) y = G(x, y 0 ) = G(x, z) ⇒ dy = ∂x G dx + ∂z G dz = z dx , ⇒ φ(x, z, C) = 0 y = G(x, z) in a dz z = ∂x G + ∂z G dx r por lo tanto: b) Si se puede despejar a la variable x, entonces x = H(y, y 0 ). Como en el caso anterior tenemos la siguiente sustitución: y 0 = z(x) x = H(y, y 0 ) = H(y, z) ⇒ dx = ∂y H dy + ∂z H dz . m Si multiplicamos por z, se tiene zdx = z [∂y H dy + ∂z H dz] Pr eli por lo tanto: dy = z [∂y H dy + ∂z H dz] ⇒ φ(y, z, C) x = 0 = H(x, z) Aquı́ podemos considerar dos tipos de ecuaciones bien conocidas: y = xf (y 0 ) + g(y 0 ) → Ecuac. de Lagrange y un caso particular de la ecuación de Lagrange: → Ecuac. de Clairaut or y = xy 0 + g(y 0 ) En cuanto a la ecuación de Clairaut podemos notar que al reemplazar y 0 por el parámetro m, lo que se obtiene es la ecuación de la lı́nea recta Bo rr ad y = mx + f (m) . Por ejemplo, la solución de la ecuación de Clairaut: y = xy 0 + (y 0 )2 es la familia de rectas con pendiente m, es decir: y(x) = mx + m2 . Ejemplos a) Sea la ecuación Tenemos entonces: 0 y = z y = xz 2 − z −1 y = x(y 0 )2 − (y 0 )−1 dy = y = G(x, y 0 ) ⇒ z dx ⇒ dy = z 2 dx + 2xz + 1 z2 dz 1 ⇒ z dx = z dx + 2xz + 2 z 2 dz 180 4.1. SOLUCIONES ANALÍTICAS es decir: 1 = dx dz = dx + 2x dz 2x dx + dz z−1 (z − 1) = = r = in a z 1 dz z + 2xz + 2 z dx dz 1 z + 2x + 3 z dx dx 1 z + 2x + 3 dz z 1 − 3 z 1 − 3 . z (z − 1) 2 Pr eli m Esta última ecuación es una ecuación diferencial lineal, por lo tanto, la sabemos resolver Z R 1 C R x(z) = e f (z)dz g(z)dz + R f (z)dz e f (z)dz e Z R 2x 1 1 C z−1 dz R 2 = e − dz + R 2x dz 3 dz z (z − 1) e z−1 e z−1 Z z−1 C 1 dz + = − (z − 1)2 z3 (z − 1)2 2 2 Cz + 2 z − 1 = 2 2 (z − 1) z 2 or La solución, en forma paramétrica, a la ecuación diferencial es entonces 2 z(Cz + 1) − 1 x(z) = 2 2 (z − 1) z 2 . y(x) = xz 2 − z −1 b) Consideremos la ecuación Bo rr ad y = xy 0 + a1 , 2 y0 donde a es una constante. Como en el caso anterior y = G(x, y 0 ). Entonces: 0 dy = z dx y = z ⇒ a y = xz + 2z dy = z dx + x − a 2z 2 dz a ⇒ z dx = z dx + x − 2 dz 2z con un poco de álgebra se tiene z 0 = = a dz z + x− 2 2z dx a dz ⇒ x− 2 2z dx a x= 2 2z r ⇒ z=± a 2x 181 4.1. SOLUCIONES ANALÍTICAS por lo tanto, un conjunto de la soluciones particulares son r r a 2x a y(x) = ±x ± . 2x 2 a Y la familia 1-paramétrica de soluciones será: y(x) = xC + a . 2C r El método de las envolventes m in a Hemos descrito varios métodos para obtener una familia 1-paramétrica de soluciones a la ecuación F[x, y(x), y 0 (x)] = 0. Si ésta familia de soluciones f (x, y, C) = 0 no es una solución general, entonces el problema de encontrar una solución particular puede llegar a ser complejo. Sin embargo, en algunos casos, existe un método para encontrar soluciones particulares de una ecuación diferencial de primer orden, este método tiene que ver con el concepto de envolvente de una familia de curvas. Primero veamos que significa una envolvente de manera conceptual Una curva Γ se denomina una envolvente de una familia de curvas f (x, y, C) = 0 si se cumplen las siguientes dos propiedades 1. En cada punto de la envolvente existe un único miembro de la familia tangente al punto. Pr eli 2. Todo miembro de la familia de curvas es tangente a la envolvente en un punto distinto de la envolvente. El siguiente teorema nos suministra una condición suficiente para que exista una envolvente de la familia de curvas f (x, y, C) = 0. Teorema Si la función f (x, y, C) = 0 es una función dos veces diferenciable para un conjunto de valores x, y, C, y si para este conjunto de valores se cumple que: f (x, y, C) = 0 , ∂x f ∂c f (x, y, C) = 0 ∂y f ∂cc f 6= 0 , or 6= 0 , ∂cx f ∂cy f Bo rr ad entonces, la familia de curvas f (x, y, C) = 0 tiene una envolvente cuya ecuación paramétrica estará dada por: f (x, y, C) = 0 ∂c f (x, y, C) = 0 Ejemplos 1. Veamos si la familia de curvas: y = cos(x + C) , posee una envolvente. Tenemos entonces: f (x, y, C) = y − cos(x + C) ⇒ ∂c [y − cos(x + C)] = sen(x + C) = 0 ⇒ x + C = π/2 182 4.1. SOLUCIONES ANALÍTICAS por otro lado sen(x + C) 1 cos(x + C) 0 = − cos(x + C) , ∂cc f = cos(x + C) , sen(x + C) = 0 conforman una envolvente a la familia y = cos(x + C). in a r La función cos(x + C) es diferente de cero si x + C 6= π/2, por lo tanto, todos los valores que excluyan a x + C = π/2 y que satisfacen la ecuación paramétrica y − cos(x + C) = 0 Podemos notar lo siguiente, si tomamos la primera de estas curvas: y = cos(x + C), la elevamos al cuadrado y sumamos con la segunda también elevada al cuadrado, resulta: ⇒ y = ±1 . m y 2 = cos2 (x + C) + sen2 (x + C) = 1 Las rectas y = 1 y y = −1 son las envolventes de y = cos(x + C). 2. Encontrar las envolventes de Como en el ejemplo anterior, Pr eli y 2 = 2xC − C 2 . f (x, y, C) = y 2 − 2xC + C 2 ⇒ ∂c [y 2 − 2xC + C 2 ] = −2x + 2C = 0 ⇒ x = C −2C 2y −2 0 = 4y 6= 0 , ∂cc f = 2 6= 0 , or Aquı́, y 6= 0. La envolvente tiene entonces su forma paramétrica dada por 2 y − 2xC + C 2 = 0 y ⇒ y 2 − x2 = 0 ⇒ x = C y = x = −x Bo rr ad Envolventes y soluciones Sea f (x, y, C) = 0 una familia 1-paramétrica de soluciones a la ecuación diferencial y 0 = f (x, y). Para esta familia puede existir o no una envolvente, si la envolvente existe, entonces se tiene que en cada punto de la envolvente hay un miembro de la familia de soluciones tangente a la envolvente. Esto significa que la curva envolvente en cada uno de sus puntos tiene la misma pendiente y 0 que las curvas integrales, y por lo tanto, cada envolvente satisface la ecuación diferencial y 0 = f (x, y). Podemos decir entonces, que una envolvente de una familia de soluciones de y 0 = f (x, y) es también una solución de la ecuación diferencial. La inversa de esta afirmación no tiene porque ser verdadera, es decir, una solución particular, que no sea obtenida a partir de la familia 1-paramétrica de soluciones, no es necesariamente una envolvente. 183 4.1. SOLUCIONES ANALÍTICAS Ejemplos 1. Utilizando el método de las envolventes encontrar una solución particular de 1 y 0 = (1 − y 2 ) 2 , que no sea obtenible de la familia de soluciones y = cos(x + C). r Como vimos en el ejemplo anterior, y = 1 y y = −1 son envolventes de y = cos(x + C). Por lo tanto, tenemos dos soluciones particulares a la ecuación diferencial: y = 1 y y = −1. in a 2. Encontrar una solución particular de 9(y 0 )2 (2 − y 2 ) = 4(3 − y) , no obtenible de su solución (x − C)2 = 3y 2 − y 3 . Veamos si esta familia de soluciones tiene envolventes m f (x, y, C) = (x − C)2 − 3y 2 + y 3 ⇒ ∂c [(x − C)2 − 3y 2 + y 3 ] = −2(x − C) = 0 ⇒ x = C Por otro lado, Pr eli 2(x − C) −6y + 3y 2 = −6y(2 − y) 6= 0 2 0 ∂cc f = 2 6= 0 , Se tiene que y 6= 0 y y 6= 2. La envolvente tiene entonces su forma paramétrica dada por (x − C)2 − 3y 2 + y 3 = 0 y = 0 ⇒ −y 2 (3 − y) = 0 ⇒ x = C y = 3 or La solución y = 0, no se puede considerar ya que el determinante anterior tiene que ser diferente de cero. Por lo tanto, una solución particular es la recta y = 3. 3. Resuelva la ecuación de Clairaut y = xy 0 + (y 0 )2 Bo rr ad y estudie sus posibles envolventes. Esta es una ecuación del tipo y = G(x, y 0 ). Por lo tanto 0 dy = z dx y = z ⇒ y = xz + z 2 dy = z dx + (x + 2z) dz es decir: z dx = z dx + (x + 2z) dz dz ⇒ x = −2z z dx Esto nos permite encontrar una solución particular de la ecuación diferencial, ya que z=− 0= x 2 x ⇒ ⇒ +2 y = xz + z 2 ⇒ y(x) = − x2 . 4 184 4.2. SOLUCIONES NUMÉRICAS Si consideramos y(x) = xC + C 2 , que es la familia de soluciones de la ecuación diferencial, entonces al hacer un estudio sobre las envolventes encontramos lo siguiente f (x, y, C) = y − xC − C 2 ⇒ ∂c [y − xC − C 2 ] = −x − 2C = 0 ⇒ x = −2C Por otro lado, −1 0 = 1 6= 0 ∂cc f = −2 6= 0 , r 1 La envolvente tiene entonces su forma paramétrica dada por y − xC − C 2 = 0 x2 ⇒ y+ =0 4 x = −2C y(x) = − x2 . 4 m Ejercicios ⇒ in a −C 1. y0 = √ y − x, 2. Pr eli Encuentre, utilizando el método de las envolventes, soluciones particulares no obtenibles de la familia de soluciones. 1 y = x + (x + c)2 , 4 y 0 = 3y 2/3 , 3. y = xy 0 + 3 p 1 + (y 0 )2 , 4. p 1 + C2 , y > 0 , x2 < 9 . y = Cx + ln C . or 5. y = (x − c)3 . y = Cx + 3 y = xy 0 + ln y 0 , x ≤ y ≤ x + 1. y = xy 0 − (y 0 )2/3 . Soluciones numéricas Bo rr ad 4.2. 4.2.1. Las ideas generales Dada una ecuación diferencial de segundo orden de la forma d2 x(t) d x(t) = F , x(t), t dt2 dt siempre se puede convertir en un sistema de dos ecuaciones lineales de primer orden, al extender el espacio de variables de la forma ) ( d x(t) def d q(t) 2 d x(t) d x(t) = p(t) = p(t) dt dt ⇒ =F , x(t), t ⇔ d p(t) def 2 dt dt = F (p(t), q(t), t) x(t) = q(t) dt 185 4.2. SOLUCIONES NUMÉRICAS ⇔ d Q(t) = F (Q(t),t) dt in a Ası́ dado un conjunto de potenciales elśticos y las fuerzas que de ellos derivan, x −k kxk kx ←p=1 1 kx2 ← p = 2 −kx 2 d V (x) ⇒ Fk (x) = − V (x) = ⇒ Fk (x) = 1 3 dx ←p=3 −kx2 3 kx . .. .. . p 1 p−1 k kxk −k kxk p r este sistema puede ser re-arreglado en forma vectorial q(t) d p(t) p(t) = F (p(t), q(t), t) dt Pr eli m el sistema dinámico correspondiente a la ecuación de Newton será x(t) d p(t) p(t) d Q(t) = F (Q(t),t) ⇒ = dt dt p−1 1 m [Fext (x(t), t)] − k kx(t)k x kxk Métodos y su clasificación x(t) kx(t)k or 0 Dada una ecuación diferencial de primer orden, dy(x) dx = y (x) = f (y(x), x), con yk el valor de la función obtenida con el método, con yk = y(xk ), donde xk = x0 + kh y h el paso. Diremos que un método es de paso único si la determinación de yk+1 sólo involucra un único valor de yk y múltiple paso si para calcularlo se utilizan varios valores yk , yk−1 , · · · , yk−p . Por otra parte se denomina un método explı́cito si para determinar yk+1 se utilizan valores anteriores yk , yk−1 , · · · , yk−p y implı́cito si se utilizan una función del mismo valor yk+1 . Ası́ yk+1 = yk−1 + 2h f (xk , yk ) representa un método explı́cito de paso único mientras que Bo rr ad yk+1 = yk + h [f (xk , yk ) + f (xk+1 , yk+1 )] 2 será implı́cito de múltiples pasos. El rebusque de Taylor Tal y como hemos dicho arriba, dada una ecuación diferencial, su solución a través de un método de paso único puede ser escrita como y 0 (x) = f (y(x), x) ⇒ yk+1 = yk + ϕ (xk , yk , h) con h = xi+1 − xi ; Lo primero que se puede hacer es expandir por Taylor alrededor del punto x = xk y(x) = y(xk ) + (x − xk ) y 0 (xk ) + 1 1 2 n (x − xk ) y 00 (xk ) + · · · + (x − xk ) y (n) (xk ) + · · · 2! n! 186 4.2. SOLUCIONES NUMÉRICAS e identificamos y(xk ) → yk y 0 (x) = f (y(x), x) y 0 (xk ) → f (yk , xk ) y 00 (xk ) → f 0 (yk , xk ) = ∂f ∂x x=xx y=yk + ∂f ∂y x=xx y=yk yk0 in a r y 000 (xk ) → f 00 (yk , xk ) = ∂x f 0 + ∂y f 0 yk0 = ∂xx f + (∂xy f ) yk0 + [∂yx f + (∂yy f ) yk0 ] yk0 + ∂y f yk00 .. . por lo que reconstruimos la serie de Taylor hasta el orden que podamos o requiramos yn+1 = yn + h f (yk , xk ) + 1 2 0 1 1 n (n−1) h f (yk , xk ) + h3 f 00 (yk , xk ) + · · · + h f (yk , xk ) + · · · 2! 3! n! quedando acotado el error por 4.2.2. 1 hn+1 f (n) (y(ξ), x(ξ)) (n + 1)! La idea de la integración y los métodos m εred = Pr eli La idea de integrar una ecuación diferencial ordinaria puede ilustrarse, formalmente de la siguiente forma Z xk+1 y 0 (x) = f (y(x), x) ⇒ yk+1 = yk + dξ f (ξ, y(ξ)) xk entonces el método se centra en como se aproxima la función dentro de la integral Euler f (xk , yk ) Euler Mejorado o Heuns 1 2 [f (xk , yk ) + f (xk+1 , yk+1 )] Se aproxima la función con en el punto anterior ⇒ yk+1 = yk + h f (xk , yk ) Se aproxima la función mediante un promedio en los extremos ⇒ yk+1 = yk + h2 [f (xk , yk ) + f (xk+1 , yk+1 )] h 2 [f (xk , yk ) + f (xk+1 , yk + h f (xk , yk ))] or ⇒ yk+1 = yk + Bo rr ad con h = xi+1 − xi el paso de integración. Nótese además que hemos utilizado Euler otra vez para expresar yk+1 = yk+1 (yk , xk ) El Método de Euler constituye una expansión por Taylor hasta primer orden por lo que el error es claramente de segundo orden por cuanto si comparamos con la expansión en series de Taylor correspondiente tendremos yk+1 = yk + h kεtot k ∝ dy dx h2 d2 y 2! dx2 + x=xk h2 d2 y 2! dx2 + ··· x=xk x=xk El método de Euler y el problema de valores iniciales Este método si bien no se utiliza en la práctica en su forma estándar para ecuaciones diferenciales ordinarias, si ilustra el proceso de discretización de una ecuación diferencial y su solución mediante métodos numéricos. 187 4.2. SOLUCIONES NUMÉRICAS Para resolver la ecuación de un oscilador armónico libre que parte del reposo, i.e. d2 φ(t) + ω02 φ(t) = 0 dt2 con: ω02 = k ; m φ (t0 ) = 1; y dφ(t) dt =0 t=t0 d2 φ(t) 1 1 ≈ 2 [φ(ti+1 ) − 2φ(ti ) + φ(ti−1 )] ≡ 2 [φi+1 − 2φi + φi−1 ] dt2 h h in a h = ti+1 − ti ; con lo cual la ecuación del oscilador libre queda como d2 φ(t) + ω02 φ(t) = 0 dt2 r en la cual φ(t) representa la posición de un cuerpo de masa m unido a un resorte de constante elástica k. Discretizando mediante diferencia centrada ⇒ φi+1 − 2 − h2 ω02 φi + φi−1 = 0 φ0 ≡ φ (t = t0 ) = 1 Los Métodos de Runge-Kutta ⇒ φ1 ≈ φ0 Pr eli dφ(t) dt m esta última ecuación es la versión en diferencias finitas de la ecuación diferencial y es claro que se convierte en una ecuación algebraica. Finalmente, los dos valores iniciales para la iteración φ0 y φ1 surgen de las condiciones iniciales =0 t=t0 Es el conjunto de métodos más populares y de mayor uso. La idea del método de Runge-Kutta es producir resultados equivalentes a desarrollos en Taylor de orden superior a Euler en métodos de un único paso por lo tanto Z x k+1 y 0 (x) = f (y(x), x) ⇒ yk+1 = yk + dξ f (ξ, y(ξ)) xk or y se aproxima la función con un promedio ponderado. f (ξ, y(ξ)) ≈ [α f (yk , xk ) + β f (yk + δ f (yk , xk ) hk , xk + γ hk )] con hk = xk+1 − xk donde α, β, γ y δ son los pesos estadı́sticos a ser determinados. Por lo tanto Bo rr ad yk+1 = yk + [α f (yk , xk ) + β f (yk + δ f (yk , xk ) hk , xk + γ hk )] hk Expandiendo por Taylor de dos variables g (x + λ, y + µ) = g (x, y) + [λ ∂x g + µ ∂y g] + 1 2 2 λ ∂x g + 2λµ ∂xy g + µ2 ∂y2 g + · · · 2! tendremos yk+1 = yk + [α + β] fk hk + β [γ ∂x fk + δ fk ∂y fk ] h2k + 2 γ 2 δ2 2 2 +β ∂ fk + 2γδ fk ∂xy fk + f ∂ fk h3k + · · · 2 x 2 k y 188 4.2. SOLUCIONES NUMÉRICAS con fk = f (yk , xk ) y como se ve claramente, queda libertad para escoger γ=δ=1 yk+1 = yk + fk hk + Euler Modificado α = 0; β = 1; 1 2 [∂x fk + fk ∂y fk ] h2k γ=δ= yk+1 = yk + fk hk + 1 1 2 2 ∂x fk + 1 2 fk ∂y fk h2k r α = β = 12 ; in a Euler Mejorado o Heuns Runge-Kutta de cuarto orden aproxima la función f (ξ, y(ξ)) en cuatro puntos intermedios en el intervalo xk < x < xk+1 por lo cual yk+1 = yk + [α κ1 + β κ2 + γ κ3 + δ κ4 ] hk podemos plantearnos varias formas de hacerlo hk [κ1 + 2κ2 + 2κ3 + κ4 ] 6 donde Pr eli κ1 = f (xk , yk ) 1 1 κ2 = f xk + hk , yk + κ1 2 2 1 1 κ3 = f xk + hk , yk + κ2 2 2 m yk+1 = yk + κ4 = f (xk + hk , yk + κ3 ) o también yk+1 = yk + hk [κ1 + 3κ2 + 3κ3 + κ4 ] 8 Bo rr ad or donde κ1 = f (xk , yk ) 1 1 κ2 = f xk + hk , yk + κ1 3 3 1 1 κ3 = f xk + hk , yk + κ2 3 3 κ4 = f (xk + hk , yk + κ3 ) Más aún el método de Fehlberg de 4/5 orden se puede escribir como yk+1 = yk + hk [C1 κ1 + C2 κ2 + C3 κ3 + C4 κ4 + C5 κ5 + C6 κ6 ] + O(h6 ) 189 4.2. SOLUCIONES NUMÉRICAS κ1 = f (xk , yk ) κ2 = f (xk + a2 hk , yk + b21 κ1 ) κ3 = f (xk + a3 hk , yk + b31 κ1 + b32 κ2 ) κ4 = f (xk + a4 hk , yk + b41 κ1 + b42 κ2 + b43 κ3 ) .. . in a la cual puede ser redefinida y truncada para obtener h i ỹk+1 = yk + hk C̃1 κ1 + C̃2 κ2 + C̃3 κ3 + C̃4 κ4 + C̃5 κ5 + O(h5 ) r κ6 = f (xk + a6 hk , yk + b61 κ1 + b62 κ2 + b63 κ3 + b64 κ4 + b65 κ5 ) Métodos multipaso Pr eli m Los métodos multipaso se basan encontrar el valor yn+k como una función de k valores precedentes: yn+k−1, yn+k−2, yn+k−3, · · · yn . Para k = 1, retomamos los métodos de paso único del tipo Euler o RungeKutta. Será explı́cito (abierto) si el valor yn+k puede ser calculado directamente o implı́cito (abierto) si la fórmula contiene el valor yn+k deseado. Otra vez la idea está en aproximar el argumento de la integración formal Z xi+1 y 0 (x) = f (y(x), x) ⇒ yi+1 = yi + dξ f (ξ, y(ξ)) xi−k nótese en este caso que el punto i + 1 recibe la contribución de k puntos anteriores. El integrando f (ξ, y(ξ)) lo aproximaremos con un polinomio de interpolación de Newton de orden n. Tal que f (ξ, y(ξ)) → f (ξ) = pn (ξ) + Rn (ξ) con pn (ξ) el polinomio de interpolación y Rn (ξ) el residuo. Donde i pn (x) = f [xn ] + (x − xn ) f [xn , xn−1 ] + (x − xn ) (x − xn−1 ) f [xn , xn−1 , xn−2 ] + · · · or + (x − xn ) (x − xn−1 ) (x − xn−2 ) · · · (x − x1 ) f [xn , xn−1 , xn−2 , xn−3 , · · · x0 ] Rn (x) = (x − xn ) (x − xn−1 ) (x − xn−2 ) · · · (x − x0 ) f (n+1) (ζ) (n + 1)! con x0 < ζ < xn Bo rr ad haciendo pn (x) ≡ f (xn + αh) con α cero o negativo de tal modo que en términos del operador diferencias atrasada ∇f (x) = f (x) − f (x − h) siendo h el incremento α (α + 1) 2 α (α + 1) (α + 2) 3 ∇ fn + ∇ fn + 2! 3! α (α + 1) (α + 2) · · · (α + r − 1) r + ∇ fn r! f (xn + αh) = fn + α∇fn + 190 4.2. SOLUCIONES NUMÉRICAS donde hemos denotado fn ≡ f (xn , y(xn )), ∇m fn ≡ ∇m f |x=xn , y α = (x − xi ) /h Por lo tanto Z xi+1 yi+1 = yi + dξ f (ξ, y(ξ)) xi−k Z 1 in a yi+1 dα f (xn + αh) −k 2 3 α2 α 1 ∇2 fi α ∇ fi 2 2 = yi + h αfi + ∇fi + α + +α +α+1 + 2 3 2 2! 4 3! 4 1 3 3α2 11α ∇ fi α + + +3 + ··· +α2 5 2 3 4! −k r = yi + h Pr eli m por razones de conveniencia que son evidentes al hacer el desarrollo, se toman las fórmulas para k = r y k impar y obtendremos 5 ∇2 fi + 38 ∇3 fi yi+1 = yi + h fi + 21 ∇fi + 12 k=0 ⇒ r=3 251 5 (4) R = 720 h f (ζ) yi+1 = yi + h [2fi + 0∇fi ] k=1 ⇒ r=1 1 3 (2) R = 3 h f (ζ) yi+1 = yi + h 4fi − 4∇fi + 83 ∇2 fi + 0∇3 fi k=3 ⇒ r=3 14 5 (4) R = 45 h f (ζ) ∇4 fi yi+1 = yi + h 6fi − 12∇fi + 15∇2 fi − 9∇3 fi + 33 10 k=5 ⇒ r=5 41 7 (6) R = 140 h f (ζ) Bo rr ad or y al expresar las diferencias atrasadas las fórmulas explı́citas (abierta) quedan expresadas como k=0 h y = yi + 24 [55fi − 59fi−1 + 37fi−2 − 9fi−3 ] R ∼ O h5 r = 3 i+1 k=1 y = yi + 2hfi R ∼ O h3 r = 1 i+1 k=3 y = yi + 4h R ∼ O h5 3 [2fi − fi−1 + 2fi−2 ] r = 3 i+1 k=5 7 yi+1 = yi + 3h 10 [11fi − 14fi−1 + 26fi−2 − 14fi−3 + 11fi−4 ] R ∼ O h r=5 Siguiendo el mis procedimiento se pueden escribir las fórmulas implı́citas (cerradas) para las mismas “curiosas” situaciones. Para este caso la conveniencia se obtienes para k impar y r = k + 2 1 1 ∇2 fi+1 − 24 ∇3 fi+1 yi+1 = yi + h fi+1 − 12 ∇fi+1 − 12 k=0 ⇒ r=3 −19 5 (4) R = 720 h f (ζ) yi+1 = yi−1 + h 2fi+1 − 2∇fi − 13 ∇2 fi+1 − 0∇3 fi+1 k=1 ⇒ r=3 −1 5 (4) R = 90 h f (ζ) ∇2 fi+1 − 38 ∇3 fi+1 + 14 ∇4 fi+1 yi+1 = yi−3 + h 4fi+1 − 8∇fi − 20 3 45 k=3 ⇒ r=5 −8 5 (4) R = 945 h f (ζ) 191 4.2. SOLUCIONES NUMÉRICAS r desarrollando las diferencias atrasadas, tendremos k=0 h yi+1 = yi + 24 [9fi+1 + 19fi−1 − 5fi−1 + 9fi−2 ] R ∼ O h5 r=3 k=1 R ∼ O h5 yi+1 = yi−1 + h3 [fi+1 + fi + fi−1 ] r=3 k=3 yi+1 = yi−3 + 2h [7fi+1 + 32fi + 12fi−1 + 32fi−2 + 7fi−3 ] R ∼ O h7 45 r=5 in a Se debe puntualizar lo siguiente respecto a las fórmulas explı́citas e implı́citas de los métodos multipaso antes mencionados Los métodos multipasos, normalmente, requieren menos evaluaciones de las funciones que los métodos monopaso para un mismo nivel de precisión. m Los métodos multipaso requieren de un método monopaso que le permita determinar los yn+k−1, yn+k−2, yn+k−3, · · · , yn puntos iniciales. Pr eli Las fórmulas explı́citas son, normalmente, menos precisas que las implı́citas. La razón se fundamenta en que, mientras las explı́citas extrapolan la solución al punto yi+1 , las implı́citas la interpolan, por cuanto la toman en cuenta en el momento de calcularla. Las fórmulas explı́citas e implı́citas deben ser consideradas como complementarias, por cuanto las ∗ explı́citas pueden predecir el valor de yi+1 necesario para la fi+1 = f (xi+1 , yi+1 ) del cálculo de yi+1 en la fórmula implı́cita. Existen varias combinaciones predictor-corrector, entre ellas mencionamos: Milne de cuarto orden • Predictor yi+1 = yi−3 + • Corrector 4h [2fi − fi−1 + 2fi−2 ] 3 or yi+1 = yi−1 + h [fi+1 − 4fi + fi−1 ] 3 Milne de sexto orden Bo rr ad • Predictor yi+1 = yi−5 + 3h [11fi − 14fi−1 + 26fi−2 − 14fi−3 + 11fi−4 ] 10 • Corrector yi+1 = yi−3 + 2h [7fi+1 + 32fi + 12fi−1 + 32fi−2 + 7fi−3 ] 45 Adams Modificado o Adams Moulton • Predictor yi+1 = yi + h [55fi − 59fi−1 + 37fi−2 − 9fi−3 ] 24 • Corrector yi+1 = yi + h [9fi+1 + 19fi − 5fi−1 + fi−2 ] 24 192 4.2. SOLUCIONES NUMÉRICAS y(xn ) − y(n−1 ) 2h in a y 0 (x) = f (y(x), x) ⇒ y 0 (xn ) = f (y(xn ), xn ) = por lo tanto zn+1 = zn−1 − 2hf (x + nh, zn ) Pr eli para finalmente calcular m z0 ≡ y(x) z1 = z0 + hf (x, z0 ) .. . r El método de extrapolación multipaso más exitoso (conjuntamente con los métodos de paso único del tipo Runge-Kutta) es el de extrapolación racional de Bulirsch-Stoer en el cual se define un paso superior de H y una serie de subpaso hη = H/η con el aumento del número de subpasos, en algún momento siguiendo algún criterio de convergencia se hace una extrapolación (racional) que representa el lı́mite η → ∞. El método de Bulirsch-Stoer tiene una estrategia diferente al los anteriores y posee, como motor de aproximación el método del punto medio modificado o salto de rana (leap frog). Este esquema se utiliza con frecuencia en discretizaciones de ecuaciones diferenciales en derivadas parciales y se basa en aproximar la derivada por el valor el promedio en los dos extremos: y(x + H) ≈ yn ≡ Nótese que si reacomodamos 1 [zn + zn−1 + hf (x + H, zn )] 2 4yn − yn/2 3 obtendremos un método de cuarto orden que requiere menos evaluaciones de f (y(xn ), xn ) por paso h y(x + H) ≈ 4.2.3. Control del Paso or En General para métodos de 4to orden. Tal y como se mencionó en el caso de la integración numérica, el primer criterio que surge es dividir el paso h en la mitad, calcular todo de nuevo y comparar los resultados a ver si está dentro del los lı́mites de tolerancia que nos hemos impuesto Bo rr ad yh − yh/2 yh ≡ ∆ yh , yh/2 < εmáx ⇒ εmáx ≈ ∆ yh , yh/2 h0 ht 5 ⇒ h0 = ht εmáx ∆ yh , yh/2 !1/5 donde hemos denotado h0 como el paso ideal. Esta relación es general para cualquier método de 4 orden de paso único, multipaso, implı́cito o explı́cito. Más aún, la práctica ha indicado que 0,20 0,20 ∆0 εmáx Mh ≡ Mh ∆0 ≥ ∆1 t t ∗ ∆(yh ,yh ) ∆h h0 = 0,25 0,25 ∆0 εmáx Mht ≡ Mht ∆0 < ∆1 ∗ ∆(yh ,yh ) ∆h 193 4.2. SOLUCIONES NUMÉRICAS in a yk+1 = yk + hk [C1 κ1 + C2 κ2 + C3 κ3 + C4 κ4 + C5 κ5 + C6 κ6 ] + O(h6 ) κ1 = f (xk , yk ) κ2 = f (xk + a2 hk , yk + b21 κ1 ) m κ3 = f (xk + a3 hk , yk + b31 κ1 + b32 κ2 ) κ4 = f (xk + a4 hk , yk + b41 κ1 + b42 κ2 + b43 κ3 ) .. . r donde 0 < M < 1 un factor de seguridad Para métodos Runge-Kutta. es importante mencionar que se utilizan mayoritariamente métodos hasta cuarto orden porque de mayor orden (M , por ejemplo) involucran más de M evaluaciones (y menos M − 2) de la derivada. Por ello para este tipo de métodos se descubrió que considerando el mismo número de puntos para la evaluación intermedia se pueden generar métodos de distinto orden, y para colmo de suerte el menor orden de esta situación se expresa para métodos de 4 y 5 orden. En particular Runge-Kutta de 5 orden se puede escribir como: κ6 = f (xk + a6 hk , yk + b61 κ1 + b62 κ2 + b63 κ3 + b64 κ4 + b65 κ5 ) por lo tanto el error se puede estimar Pr eli y con los mismos puntos (¡ las mismas evaluaciones !) se puede reescribir para 4 orden como: h i ỹk+1 = yk + hk C̃1 κ1 + C̃2 κ2 + C̃3 κ3 + C̃4 κ4 + C̃5 κ5 + O(h5 ) ∆ (yk+1 , ỹk+1 ) = 6 X Ci − C̃i ki i=1 y el control del paso se utiliza exactamente igual εmáx ∆ (yh , ỹh ) 0,20 or h0 = ht Bo rr ad Para métodos multipasos y predictor corrector la situación puede tener un refinamiento adicional antes de proceder a modificar el paso h. El esquema serı́a para un método predictor corrector del tipo Adams Modificado o Adams Moulton, donde el Predictor yi+1 = yi + h [55fi − 59fi−1 + 37fi−2 − 9fi−3 ] 24 Corrector yi+1 = yi + h [9fi+1 + 19fi − 5fi−1 + fi−2 ] 24 se realiza una serie de iteraciones dentro de la fórmula de corrector, i.e. h yi+1 = yi + 9f xi+1 , yi+1 + 19f (xi , yi ) − 5f (xi−1 , yi−1 ) + f (xi−2 , yi−2 ) 24 1 0 194 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN 4.3. Algunas aplicaciones de ecuaciones diferenciales de primer orden Ley de Malthus y el decaimiento radioactivo Malthus5 d y(x) = k y(x) dx k>0 k<0 y(0) = y0 . (4.11) m y(t) = y0 ek t in a 4.3.1. r Modelar o describir matemáticamente un fenómeno es el fin último de la ciencias. Las matemáticas son el lenguaje de la fı́sica. ¿ Cómo describir el chisporroteo de una llama ? ¿ la textura de un pintura al oleo ? ¿ el tráfico en carreteras durante horas picos ? ¿ el titilar de las estrellas ? Describir matemáticamente estas situaciones no sólo no es fácil, pero tampoco es única. Son fenómenos complejos y su descripción puede tener muchos grados de profundidad. Pr eli Para k < 0 tenemos una situación de decaimiento: la población decrece con el tiempo. Este concepto se utiliza los procesos de decaimiento radiactivo. El tiempo de vida media se define como el tiempo necesario para que la mitad de los núcleos decaigan, lo cual es independiente de la cantidad de la muestra y permite medir la edad de todo aquello que contenga isótopos radioactivos. En particular el C14 del cual se sabe que: tiene una vida media de 5730 años y que todos los organismos están (o estuvieron) formados por carbono. Por lo tanto, si sabemos el porcentaje de C14 en una muestra, digamos el 63 % podremos inferir su edad y(0) = 1 y(5730) = ek 5730 = Por lo tanto, despejando k tendremos finalmente or k= 1 2 − ln 2 5730 y(t) = 2−t/5730 Bo rr ad de aquı́ obtendremos la edad en años de la muestra y(t) = 0,63 ⇒ t = − ln 0,63 5730 ≈ 3819,48 ln 2 Para k > 0 la ecuación 4.11 describe el incremento poblacional. El valor de k se calcula experimentalmente (promediando sus valores para cada uno de los parámetros). Para la población venezolana k = 0,018 5 En honor al economista polı́tico inglés Thomas Robert Malthus (1766-1834). Quien fue uno de los primeros en darse cuenta queÑ la población crece como una razón geométrica mientras que los medios de subsistencias crecen de manera aritmética. Esta afirmación plasmada en su Ensayo sobre el Principio de Poblaciones, el cual inspiró a Darwin en la formulación de principio de selección natural. Malthus, muy religioso y creyente pensaba que esa diferencia en el crecimiento de la población y las necesidades que ellas generaban, eran de procedencia divina y que forzarı́a a la humanidad a ser más laboriosa e ingeniosa para lograr los medios de subsistencia. Darwin, no tan religioso, lo formuló como una situación natural presente en todas las especies. 195 m in a r 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Pr eli Figura 4.6: Decaimiento Radioactivo Bo rr ad or Población Venezolana (Millones Hab.) Año Población y(t) = 0,350 e0,018t 1800 (0) 0.350 0.350 1847 (47) 0.750 0.816 1873 (73) 1.000 1.302 1881 (81) 1.750 1.504 1891 (91) 2.100 1.801 1926 (126) 2.850 3.381 1936 (136) 3.200 4.048 1941 (141) 3.850 4.429 1950 (150) 4.350 5.208 1961 (161) 6.800 6.348 1971 (171) 10.800 7.600 1981 (181) 14.100 9.099 4.3.2. La Ecuación logı́stica o Ley de Verhulst Esta ecuacióon se utiliza para describir el crecimiento de la población de una manera más precisa que la Ley de Malthus. Esta ecuación toma en cuenta le decrecimiento de la población con el término −y 2 y 0 = (k − ay) y = ky − ay 2 donde k y a son constantes arbitrarias. Esta ecuación es separable y la solución tiene la forma de ln y =k t+C k − ay 196 m in a r 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Pr eli Figura 4.7: Población de Venezuela desde 1800 y por lo tanto y(t) = k y0 a y0 + (k − a y0 ) e−k t el crecimiento de la población venezolana desde 1800 puede modelarse con k = 0,018, a = 0,001 4.3.3. La Ley de Enfriamiento de Newton la solución será T (0) = T0 or dT = k(T − Tm ) dt T = (T0 − Tm ) ek t + T m Bo rr ad y para el caso de una torta recien sacada del horno a una temperatura de T0 = 176◦ , y una temperatura ambiente de Tm = 23◦ , con T (80) = 63◦ ,la gráfica será también se puede modelar el enfriamiento con una temperatura del ambiente variable esto es dT = k(T − Tm (t)) dt T (0) = T0 tómese, por ejemplo, Tm (t) = 23 − 10 cos πt 12 con 0 ≤ t ≤ 24 horas si T (0) = 15◦ dT 1 = dt 4 πt T − 23 − 7 cos 12 197 m in a r 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Bo rr ad or Pr eli Figura 4.8: Población de Venezuela desde 1800 Figura 4.9: Enfriamiento de una torta recien horneada 198 m in a r 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN con la solución t Pr eli Figura 4.10: Variación de la Temperatura Construcciones t −23 π 2 + 11 e− 4 π 2 + 21 π sen( π12t ) + 63 cos( π12t ) − 207 + 36 e− 4 T (t) = − 9 + π2 y la siguiente evolución 4.3.4. Interés Compuesto. Bo rr ad or Otra de las aplicaciones de las ecuaciones diferenciales es en el cálculo del crecimiento del capital inicial, depositado en un banco C0 durante un cierto lapso de tiempo y sujeto a un determinada tasa de interés. Luego del lapso de tiempo, el nuevo capital será int C1 = C0 1 + 100 Pasados dos lapsos (años) de tiempo el capital será int int int C2 = C1 1 + = C0 1 + 1+ 100 100 100 en t lapsos de tiempo, t int C(t) = C0 1 + 100 Ahora bien, si el pago de los intereses se hace varias veces durante ese lapso, entonces tendremos int int int C2 = C1 1 + = C0 1 + 1+ . 100 · 2 100 · 2 100 · 2 199 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Finalmente, si el interés se paga k veces en cada lapso, entonces C(t) = C0 int 1+ 100 · k kt . (4.12) k→∞⇒ int 1+ 100 · k kt int → e 100 t ; in a r Si k = 12 entonces se tienen intereses pagaderos sobre saldos mensuales. En el caso de que k = 365, los intereses son pagaderos sobre saldos diarios. Nótese que si entonces, podemos aproximar este modelo discreto de pagos sobre saldos por uno continuo, i.e. int C(t) = C0 e 100 t ⇔ C 0 (t) = int C(t). 100 Pr eli m Existen situaciones en las cuales los bancos, movidos por la competencia, ofrecen cancelar los intereses sobre un año hipotético de 360 dı́as. En este caso, el capital crece como: 365t int . (4.13) C(t) = C0 1 + 100 · 360 La siguiente tabla muestra una comparación del crecimiento del capital inicial C0 = 1, en un lapso de 10 años, sujeto a intereses del 40 % sobre saldos diarios y siguiendo los tres modelos antes mencionados. int t 4.3.5. int C(t) = C0 1 + 100·k 1.0 1.491824698 2.225540928 3.320116923 4.953032424 7.389056099 11.02317638 16.44464677 24.53253020 36.59823444 54.59815003 kt or C(t) = C0 e 100 1.0 1.491497997 2.224566275 3.317936142 4.948695110 7.380968843 11.00870024 16.41945436 24.48958329 36.52616442 54.47870107 Bo rr ad Años 0 1 2 3 4 5 6 7 8 9 10 . int C(t) = C0 1 + 100·360 1.0 1.499797972 2.249393957 3.373636494 5.059773172 7.588637542 11.38142320 17.06983543 25.60130455 38.39678465 57.58741975 365t Mecánica Elemental. El estudio del movimiento de los cuerpos sometidos a la acción de un conjunto de fuerzas externas, fue una de las principales motivaciones para el planteamiento y solución de las ecuaciones diferenciales. −−−−→ −−−− − −−− − −−→ −→ −− → −−→ d mv(t) F (r(t), v(t), t) = = m a(t) , dt externas X (4.14) −−→ −−→ para sistemas con m = cte (partı́culas) y con v(t) la velocidad y r(t) la posición. −−→ −−→ dr(t) v(t) = . dt 200 m in a r 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Pr eli Figura 4.11: Velocidad del paracaidista en función del tiempo Movimientos con Acelaración Constante Ası́ en carreras de velocidad, en las cuales los autos tienen que generar el máximo posible de velocidad para una distancia dada tendremos, que la ecuación Newton 5.7 se expresa F dv(t) v(t) = v0 + m t cte = F = m ⇒ F 2 x(t) = x0 + v0 t + 21 m t dt Fricción en Fluidos or F Los valores tı́picos para este caso son v0 = r0 = 0 , a = m = 9,8 m/s2 , y por lo tanto la velocidad final a los 400 m. es √ vf = 2ax ≈ 89 m/s = 320, 4 Km/h Bo rr ad Por su parte, la descripción del movimiento de un paracaidista la ecuación 5.7 se convierte en X F (v(t)) = −mg + cv 2 = externas d v(t) d p(t) = m = m a(t) , dt dt (4.15) con c una constante arbitraria que depende de la forma del cuerpo. Integrando esta ecuación separable se obtiene 1 − exp − 2gt vt (4.16) v(t) = −vt 1 + exp − 2gt vt Donde hemos definido la velocidad terminal r vt = mg c 201 m in a r 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Pr eli Figura 4.12: Posición del paracaidista respecto al tiempo or como la velocidad que anula la sumatoria de fuerzas y a partir de la cual el cuerpo cae sin aceleración. El tiempo que tarda en alcanzar esa velocidad es estrictamente para t −→ ∞ , sin embargo, una buena aproximación que surge de la ecuación 4.16, la constituye: t vt /2g . La velocidad terminal tı́pica en un dı́a soleado para un paracaidista de 70 Kg., en posición de “águila extendida”, es 54 m/s. (194,4 Km/h.) y por lo tanto alcanza la velocidad terminal luego de aproximadamente 15 s. esta situación se aprecia claramente en la figura 4.11. Por su parte, la posición surge al integrar la ecuación 4.16 2gt 1 − exp − vt dy(t) v(t) = = −vt 2gt dt 1 + exp − vt integrando esta ecuación obtendremos v 2 t y0 − y(t) = vt t + ln g exp − 2gt + 1 Bo rr ad (4.17) vt Con el comportamiento gráfico que muestra la figura 4.12. Fuerzas Elásticas Otra situación muy conocida se presenta bajo la acción de fuerzas elásticas. Ası́, la ecuación 5.7, ahora se expresa como X dv(t) F (x(t)) = −kx(t) = m = m a(t) , dt externas 202 m in a r 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Utilizando la “regla de la cadena” Pr eli Figura 4.13: Trayectoria de la Flecha al abandonar el arco. dv(t) dx(t) dv(t) dv(t) = = v(t) dt dx(t) dt dx(t) Se convierte en separable y se integra para obtener la velocidad dx(t) m v(t) = −k x(t) + C1 ⇒ v(t) = = dt 2 La posición será 2 r or x(t) = C1 sen k t + C2 m r −k x(t)2 + C0 m (4.18) ! Bo rr ad Para analizar el caso del lanzamiento de una flecha (23 g.) por una arco de 30 lb (134 N) el cual un arquero puede separarlo 0,72 m. se obtiene la velocidad de salida de la flecha como s r 134 k 0,72 vf = d = 0, 72 = 65 m/s m 23 × 10−3 Es interesante mencionar que en 100 m la flecha baja una distancia de ≈ 11 m. ¡! Sistemas de Masa Variable Otro de los ejemplos interesantes es la evolución de sistemas de masa variable. El primero de los caso tiene que ver con una barca de masa m0 que tiene una velocidad inicial v0 en su navegar, comienza a llover y se va llenando de agua. El agua se acumula con una tasa σ (masa por unidad de tiempo). Se pide encontrar la velocidad de la barca como función del tiempo. P = mv = const = m0 v0 203 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN si dm dt = σ = cont ⇒ m (t) = m0 + σt y consecuentemente v (t) = v0 m0 m0 + σt d (mv) dt ⇔ −M g − ρxg = o equivalentemente −gρξp = p Z dp dt ξ gρ2 ξ 2 dξ = − M ρ ⇒ Z donde ξ= ⇒ 3 pdp m0 v0 Z t − t0 = ξ gρ2 − 3 ⇒ M ρ −gρξρξdξ = pdp 3 (m0 v0 ) p2 − = 2 2 2 3 ρξdξ s 2gρ2 Un Cohete en Movimiento +x y p = mv = ρξ dξ dt −gρξmdξ = pdp p M ρ Pr eli con lo cual m dp −gρξ = dt dm dv v+ m dt dt in a −P esoM asa − P esocadena = r Un segundo caso tiene que ver con una masa M atada a una cadena de densidad lineal de masa ρ. Esta masa se impulsa hacia arriba con una velocidad inicial v0 . Se pide encontrar el tiempo en que alcanza la altura máxima. La ecuación de Newton para este caso se puede expresar como ξ3 3 − ( Mρ ) 3 3 + (m0 v0 )2 2 or Finalmente el caso más emblemático es el movimiemto de un cohete que consume una fracción importante de su combustible. Llamemos v la velocidad de cohete para un instante de tiempo t y v 0 la velocidad de salida de los gases respecto a tierra. Para ese instante t la cantidad de movimiento del cohete es mv un instante dt más tarde la cantidad de movimiento será p0 = (m + dm)(v + dv) + (−dm)v 0 = mv + m dv − dm (v 0 − v) | {z } | {z } | {z } Bo rr ad cohete gases vel. rel. Entonces el cambio en la cantidad de movimiento será dp = p0 − p = mdv − vgases dm y por lo tanto la ecuación de Newton m(t) X dm dv(t) − vgases = F dt dt externas Despreciando la resistencia del aire y suponiendo la gravedad constante, tendremos dv(t) vgases dm − = −g dt m dt 204 m in a r 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Pr eli Figura 4.14: Velocidad del Cohete integrando v = v0 + vgases ln mi m(t) − gt si suponemos que el combustible se quema de la forma m(t) = mi (1 + αt) ↔ La cantidad dm dt or E = vgases dm = α = cte dt se denomina el empuje del cohete. Modelado de Concentración/Desliemiento de Soluciones Bo rr ad 4.3.6. Otro de los problemas tı́picos donde se aplican exitosamente las ecuaciones diferenciales son los problemas de manejo de concentración de sustancias en soluciones lı́quidas. El principal objetivo, consiste en plantear el problema en término del problema de valores iniciales que gobierna el fenomeno (ecuación diferencial + condiciones iniciales). Para ello, en este tipo de problemas, siempre utilizaremos la regla intuitiva de Tasa de Cambio de la Concentración = Tasa de Ingreso − Tasa de Egreso Ası́, tendremos que para un problema tı́pico en el cual inicialmente se encuentran diluidos en un recipiente (un tanque) y0 gr de una sustancia en V0 litros de un lı́quido. A este tanque le cae otro lı́quido con una concentración distinta de la misma sustancia a ventrada lit/min, mientras que vsalida lit/min salen del tanque. Si suponemos que dentro del tanque sucede algún proceso de homogenización de la solución, la pregunta tı́pica esque queremos saber la cantidad de sustancia que se encuentra en el tanque en un tiempo t. A la 205 Pr eli Figura 4.15: Posición del Cohete m in a r 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN concentración de la sustancia en el lı́quido de entrada (gr/lit), en un tiempo t, la denotaremos como C (t) gr/lit. La figura (4.16) ilustra este proceso. Para empezar notemos que, en esta situación el volumen no es constante. Por lo tanto, con el mismo espı́ritu de la “ley de balanceo” que hemos propuesto, si las velocidades de ingreso y egreso son constantes, nos queda que la variación del volumen inicial viene dada por la diferencia de estas velocidades, esto es V 0 (t) = ventrada − vsalida ⇒ V (t) = V0 + (ventrada − vsalida ) t Bo rr ad or con lo cual también hemos integrado una ecuación diferencial para encontrar como variará el volumen con el tiempo. Para la construcción de la ecuación diferencial, procedemos de manera similar y si describimos la cantidad de sustancia en el tanque como y (t) , nos queda que la tasa de cambio de la cantidad de sustancia en el tanque será gr lit y (t) gr lit 0 C (t) − vsalida y (t) = ventrada mı́n lit mı́n V0 + (ventrada − vsalida ) t lit | {z } | {z } Tasa de Ingreso Tasa de Egreso Por lo tanto la ecuación diferencial tomará la forma tı́pica de una ecuación diferencial lineal de primer orden inhomogénea vsal y 0 (t) + y (t) = vent C (t) V0 + (vent − vsal ) t 206 Pr eli m in a r 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Figura 4.16: Soluciones y tanques que tendrá por solución y0 − (−V0 ) | ! {z Respuesta a las Condiciones iniciales vsal Z t −v + v ent sal V0 ) vent C (u) (u (vent − vsal ) 0 or y (t) = vsal vent − vsal −vsal ((−vent + vsal ) t − V0 ) vent − vsal − ((−vent + vsal ) t − | {z Respuesta a la Exitación externa ! } vsal + V 0) vent − vsal ! du } Bo rr ad Nótese lo genérico de esta solución. Por un lado, la concentración de la sustancia, C (t) , en la solución que entra al sistema es distinta a la concentración de la sustancia presente en el tanque, más aún, puede ser variable con el tiempo. Por otro lado esta solución presenta una singularidad (un infinito) cuando la velocidad de ingreso es igual a la velocidad de egreso. Para este caso en el cual el volumen del tanque permanece constante tendremos que resolver la ecuación diferencial v ! vsalida t Z t salida u − vsal 0 V V y (t) + y (t) = vent C (t) ⇒ y (t) = C (u) ventrada e du + y0 e V0 0 Tal y como hemos mencionado varias veces (y seguiremos mencionando) la solución general para una ecuación diferencial inhomogénea se compone de dos soluciones, la solución de la ecuación diferencial homgénea más la solución de la inhomogéna. ygeneral (x) = yhomogénea (x) + yinhomogénea (x) 207 4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN Este ejemplo nos permite constatar el sentido cada una de estas soluciones, vale decir y (t) = vsalida t V y0e | {z } − v vsalida t Z t salida u V V C (u) ventrada e du +e 0 | {z } − Respuesta a las Condiciones Iniciales Respuesta a la Exitación externa in a r En esta es una visión que debemos conservar, en general para todas las ecuaciones lineales inhomogéneas independientes del orden de la ecuación diferencial, ası́ recordando, dada una ecuación diferencial y su solución tal que se cumple la condición inicial y (0) = y0 entonces siempre es posible Z x Rx R Rx d y (x) + p (x) y (x) = g (x) ⇔ y (x) = y0 e 0 −p(u)du + e 0 −p(u)du g (u) e p(u)du du | {z } dx 0 | {z } solución homgénea Solución inhomogénea or Pr eli m donde ahora vemos claramente que la solución de la homogénea da cuenta a las condiciones iniciales del proceso y la solución de la inhomogénea provee la respuesta a la exitación externa al sistema. Este comportamiento de las soluciones es útil si nos planteamos que al tratar de “limpiar” una piscina, a la cual le hemos añadido el doble de la cantidad de sulfatos permitida, y queremos saber cuanto tiempo tenemos que mantener abierta una entrada de 120 lits/min de agua sin sulfatos y la salida de la piscina que responde a 60 lits/min. La piscina en cuestión tiene 20 m de longitud, 10 m de ancho y 2 m de profundidad. Siguiendo los pasos anteriormente planteados, tendremos que lit 60 vsal mı́n = 0 ⇒ y 0 (t) + y (t) =0 y 0 (t) + y (t) lit V0 + (vent − vsal ) t 4 × 105 lit + (120 − 60) t mı́n lit 60 y0 mı́n y 0 (t) + y (t) = 0 ⇒ y (t) = 20000 3t + 20000 lit t 4 × 105 lit + 60 mı́n 3 donde el volumen es V = 400m3 = 400 (100cm) = 4 × 108 cm3 = 4 × 108 10−3 lit = 4 × 105 lit. Con lo cual el tiempo para que la cantidad final decaiga a la mitad de la inicial surge de Bo rr ad y0 = 20000 2y0 ⇒ t ≈ 6,666, 66 minutos !!!!! 3t + 20000 208 r 5 in a Capı́tulo Bo rr ad or Pr eli m Ecuaciones diferenciales ordinarias de orden mayor a 1 209 5.1. DEFINICIONES PARA COMENZAR 5.1. Definiciones para comenzar Definición La ecuación diferencial a0 (x) y(x) + a1 (x) y 0 (x) + · · · + an−1 (x) y (n−1) (x) + an (x) y (n) (x) = F(x) ⇔ n X ai (x) y (i) (x) = F(x) i=0 r es lineal de orden n . Obviamente, in a F(x) = 0 =⇒ Homogénea F(x) 6= 0 =⇒ InHomogénea ai (x) = ai = ctes m Definición Si los coeficientes ai = ctes entonces la ecuación diferencial lineal y homogénea, de orden n , tiene asociada un polinomio caracterı́stico de la forma an rn + an−1 rn−1 + · · · + a2 r2 + a1 r + a0 = 0 Pr eli Las raı́ces de este polinomio indicarán la forma de la solución. Definición Si el polinomio caracterı́stico puede factorizarse (r − m1 )k1 (r − m2 )k2 (r − m3 )k3 · · · (r − ml )kl = 0 entonces diremos que las raı́ces mk1 , mk2 , mk3 , · · · , mkl tienen multiplicidades k1 , k2 , k3 , · · · , kl , respectivamente. 5.2. Homogéneas, lineales, de segundo orden La ecuación or a y 00 + b y 0 + c y = 0 ⇔ a r2 + b r + c = 0 tiene asociada ese polinomio caracterı́stico y sus raı́ces m1 y m2 condicionan la solución de la manera siguiente Bo rr ad 1. Si m1 6= m2 y m1 y m2 son reales, entonces la solución es y = C 1 em 1 x + C 2 em 2 x 2. Si m1 = m2 y m1 y m2 son reales, entonces la solución es y = C1 em1 x + C2 xem1 x 3. Si m1 = α + iβ con β 6= 0 y m2 = m1 = α − iβ, entonces la solución es y = eα x (C1 cos βx + C2 sen betax) 210 in a r 5.2. HOMOGÉNEAS, LINEALES, DE SEGUNDO ORDEN Pr eli m Figura 5.1: y(x) = 25 e−4x + 35 ex Ejemplos La ecuación y 0 (0) = −1 ∧ y(0) = 1 Bo rr ad y 00 + 3y 0 − 4y = 0; or Figura 5.2: y(x) = C1 e−4x + C2 ex para C1 = {−1, 0, 1} y C2 = {−1, 0, 1} r2 + 3r − 4 = (r + 4)(r − 1) = 0 ⇔ tiene asociado ese polinomio caracterı́stico y por lo tanto tiene como solución general 2 −4x 3 x e + e 5 5 En la figura 5.1 se encuentra graficada esa soluci’on particular. De igual modo, para distintos valores de C1 = {−1, 0, 1} y C2 = {−1, 0, 1} tendremos las gráficas representadas en la figura 5.2 ¿ Cuáles son las condiciones iniciales a las cuales corresponden esos valores de las constantes? Otra ecuación podr’ia ser y(x) = C1 e−4x + C2 ex y 00 + 2y 0 + y = 0; y como solución particular y(x) = y(0) = 1 ∧ y 0 (0) = −1 ⇔ r2 + 2r + 1 = (r + 1)2 = 0 y por lo tanto tiene como solución general y(x) = C1 e−x + C2 xe−x y como solución particular y(x) = e−x 211 Pr eli m Figura 5.3: y(x) = e−x in a r 5.2. HOMOGÉNEAS, LINEALES, DE SEGUNDO ORDEN or Figura 5.4: y(x) = C1 e−x + C2 xe−x para C1 = {−1, 0, 1} y C2 = {−1, 0, 1} Bo rr ad La gráfica para esta soluci’on est’a representada en la figura 5.3 Para distintos valores de C1 = {−1, 0, 1} y C2 = {−1, 0, 1} tendremos las gráficas representadas en la figura 5.4. Cabe seguir preguntando ¿ Cuáles son las condiciones iniciales a las cuales corresponden esos valores de las constantes? Finalmente, la ecuación y 00 + 4y 0 + 20y = 0; y(0) = 3 ∧ y 0 (0) = −1 ⇔ r2 + 4r + 20 = (r + 2)2 + 16 = 0 con las siguientes soluciones r = −2 ± 4i y por lo tanto tiene como solución general 5 −2x −2x y(x) = e (C1 cos 4x + C2 sen4x) y como solución particular y(x) = e 3 cos 4x + sen4x 4 y su representaci’on gr’afica se encuentra en la figura 5.5 y para distintos valores de las constantes Al igual que en los casos anteriores, para distintos valores de las constantes de integraci’on, tendremos las gráficas de la figura 5.6 212 3 cos 4x + 45 sen4x Pr eli m Figura 5.5: y(x) = e−2x in a r 5.3. ECUACIONES DIFERENCIALES DE ORDEN N 5.3. or Figura 5.6: y(x) = e−2x (C1 cos 4x + C2 sen4x) para C1 = {−1, 0, 1} y C2 = {−1, 0, 1} Ecuaciones diferenciales de orden n La ecuación Bo rr ad a0 y(x) + a1 y 0 (x) + · · · + an−1 y (n−1) (x) + an y (n) (x) = 0 con ai = ctes tiene asociada un polinomio caracterı́stico de la forma an rn + an−1 rn−1 + · · · + a2 r2 + a1 r + a0 = 0 el cual condicionará la solución de la siguiente forma 1. Si m es una raı́z real con multiplicidad k = 2 entonces las k soluciones asociadas con m serán de la forma emx , xemx , x2 emx , x3 emx , · · · xk−1 emx 2. Si m y m son parejas de soluciones complejas, α±iβ , del polinomio caracterı́stico y tienen multiplicidad k , entonces las soluciones correspondientes serán eαx cos βx; eαx senβx; · · · xk−1 eαx cos βx; xk−1 eαx senβx 213 5.3. ECUACIONES DIFERENCIALES DE ORDEN N Ejemplos La ecuación 24y 000 + 2y 00 − 5y 0 − y = 0 24r3 + 2r2 − 5r − 1 = (3r + 1)(2r − 1)(4r + 1) = 0 ⇔ consecuentemente con las raı́ces m2 = 1 , 2 1 m3 = − , 4 r 1 m1 = − , 3 y(x) = C1 e−x/3 + C2 ex/2 + C3 e−x/4 La ecuación y 000 + 3y 00 + 3y 0 + y = 0 in a y con la solución de la forma r3 + 3r2 + 3r + 1 = (r + 1)3 = 0 ⇔ con las raı́ces m = −1 con multiplicidad k = 3 y con una solución de la forma m y(x) = C1 e−x + C2 xe−x + C3 x2 e−x La ecuación 4y (4) + 12y 000 + 49y 00 + 42y 0 + 10y = 0 m1 = −1 + 3i, 4r4 + 12r3 + 49r2 + 42r + 10 = (r2 + 2r + 10)(2r + 1)2 = 0 Pr eli consecuentemente con las raı́ces ⇔ m2 = −1 − 3i, Entonces la solución es de la forma 1 m3 = − , con multiplicidad 2 2 y(x) = e−x (C1 cos 3x + C2 sen3x) + C3 e−x/2 + C4 xe−x/2 La ecuación y (4) + 4y 000 + 24y 00 + 40y 0 + 100y = 0 r4 + 4r3 + 24r2 + 40r + 100 = (r2 + 2r + 10)2 = 0 ⇔ con las raı́ces m2 = −1 − 3i, or m1 = −1 + 3i, con multiplicidad 2. Entonces la solución es de la forma Bo rr ad y(x) = e−x (C1 cos 3x + C2 sen3x + C3 x cos 3x + C4 xsen3x) La ecuación 4y 000 + 33y 0 − 37y = 0; con y(0) = 0; y 0 (0) = −1; y 00 (0) = 3 ⇔ 4r3 + 33r − 37 = (r − 1)(4r2 + 4r + 37) = 0 consecuentemente con una solución general de la forma y(x) = C1 ex + e−x/2 (C2 cos 3x + C3 sen3x) y con la solución particular y(x) = 8 x 8 19 e − e−x/2 ( cos 3x + sen3x) 45 45 45 214 5.4.1. 8 − e−x/2 ( 45 cos 3x + 19 45 sen3x) Algunos métodos de solución para ecuaciones inhomogéneas El Wronskiano Pr eli 5.4. 8 x 45 e m Figura 5.7: y(x) = in a r 5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS Definición: Independencia y Dependencia Lineal. Sean n funciones f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x), cuando menos n − 1 veces diferenciables. Entonces, el conjunto S = {f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)}, se dice linealmente dependiente en el intervalo I, si existen algunas constantes, c1 , c2 , c3 , c4 , · · · cn distintas de cero tal que n X ci fi (x) = c1 f1 (x) + c2 f2 (x) + · · · + cn fn (x) = 0 i=1 or Por el contrario, si no existe ninguna constante ci 6= 0, se dirá que S es linealmente independiente. Definición:Wronskiano El conjunto S = {f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)} de funciones, cuando menos n−1 veces diferenciables, conforman el Wronskiano, W (S) = W (f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)) Bo rr ad a través del siguiente determinante f1 (x) f10 (x) .. . W (S) = (n−1) f1 f2 (x) f20 (x) .. . (n−1) (x) f2 ··· ··· .. . (x) · · · fn (x) fn0 (x) .. . (n−1) fn (x) Si W (S) 6= 0 al menos en un punto dentro del intervalo I, entonces S es linealmente independiente Definición: Conjunto Fundamental de Soluciones. El conjunto S = {f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)} de n soluciones no triviales a la ecuación diferencial: a0 (x) y(x) + a1 (x) y 0 (x) + · · · + an (x) y (n) (x) = 0, (5.1) 215 5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS Se le denomina conjunto fundamental de soluciones. La combinación lineal f (x) = n X ci fi (x) = c1 f1 (x) + c2 f2 (x) + · · · + cn fn (x) i=1 a0 (x) y(x) + a1 (x) y 0 (x) + · · · + an (x) y (n) (x) = F(x) in a r también es solución de la ecuación diferencial (5.1) y se denomina como solución general de (5.1). Adicionalmente, si los coeficientes ai (x) son continuos en el intervalo abierto I para todo i = 1, 2, · · · , n , entonces la ecuación diferencial (5.1) tiene un conjunto fundamental de n soluciones linealmente independientes. Definición: Soluciones Particulares y Generales. Dada una ecuación diferencial lineal Inhomogénea (5.2) y(x) = yh (x) + yp (x) Métodos de los coeficientes indeterminados Pr eli 5.4.2. m Si yp (x) es solución de (5.2) sin constantes arbitrarias, entonces yp (x) se denomina solución particular de (5.2). De igual modo, se denominará solución general de (5.2) a la suma de la solución, yh (x), de la ecuación homogénea (5.1) más la solución particular: Dada la ecuación diferencial a0 y(x) + a1 y 0 (x) + · · · + an y (n) (x) = F(x) (5.3) con a0 , a1 , a2 , · · · an coeficientes constantes, el método de los coeficientes indeterminados se puede esquematizar de la siguiente manera 1. Resuelva la ecuación diferencial homogénea y obtenga yh (x). (5.4) or a0 y(x) + a1 y 0 (x) + · · · + an y (n) (x) = 0 Bo rr ad 2. Proponga la forma de la solución particular para la ecuación inhomogénea (5.3) siguiendo el siguiente procedimiento. Dada F (x) = b0 g0 (x) + b1 g1 (x) + · · · + bn gn (x), con los bi coeficientes constantes, entonces a) Si F (x) = P (x), un polinomio, es decir gi (x) = xm entonces proponga como solución particular a yp (x) = A0 + A1 x + A2 x2 + A3 x3 + · · · + Am xm b) Si gi (x) = xm ekx entonces proponga como conjunto fundamental de soluciones particulares a yp (x) = ekx (A0 + A1 x + A2 x2 + A3 x3 + · · · + Am xm ) c) Si gi (x) = xm ekx cos βx o gi (x) = xm ekx senβx, entonces proponga como conjunto fundamental de soluciones particulares a yp (x) = ekx (A0 + A1 x + A2 x2 + A3 x3 + · · · + Am xm ) cos βx+ ekx (Ã0 + Ã1 x + Ã2 x2 + Ã3 x3 + · · · + Ãm xm )senβx 216 5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS 3. Determine el valor de los coeficientes Ai al sustituir la solución propuesta yp (x) en (5.3) 4. Construya las solución general y(x) = yh (x) + yp (x) Ejemplos y 00 + 4y 0 + 4y = 4x2 + 6ex Tiene como solución de la homogénea r yh = (C1 + C2 x) e−2x in a y proponemos como solución particular de la ecuación a yp = (Ax2 + Bx + C) + Dex 2A + Dex + 4 (2Ax + B + Dex ) + 4 (Ax2 + Bx + C) + Dex + = 4x2 + 6ex Pr eli de donde surge el siguiente sistema de ecuaciones m sustituimos su expresión en la ecuación y obtenemos 4A = 4 8A + 4B = 0 2A + 4B + 4C = 0 9D = 6 y de allı́ el valor de los coeficientes A = 1; C= or y con ellos la solución general B = −2; 3 ; 2 y = (C1 + C2 x) e−2x + x2 − 2x + Bo rr ad Ejercicios D= 2 3 3 2 x + e 2 3 1. La ecuación y 00 − 3y 0 + 2y = 2x e3x + 3senx tiene como solución y = C1 ex + C2 e2x + x e3x − 3 3x 3 9 e + senx + cos x 2 10 10 2. La ecuación y 00 − 3y 0 + 2y = 2x2 + 3 e2x tiene como solución y = C1 ex + C2 e2x + 7 + 3x + x2 + 3x e2x 2 217 5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS 5.4.3. Métodos de variación de parámetros Dada la ecuación diferencial a0 y(x) + a1 y 0 (x) + · · · + an y (n) (x) = F(x) (5.5) El método de variación de los parámetros se puede esquematizar de la siguiente manera 1. Resuelva la ecuación diferencial homogénea a0 y(x) + a1 y 0 (x) + · · · + an y (n) (x) = 0 r in a y obtenga yh (x). (5.6) 2. Proponga como solución particular yp = u1 (x) yh1 + u2 (x) yh2 m donde las funciones u1 (x) y u2 (x) son funciones a determinar en el método y las y1 y y2 son las soluciones a la ecuación homogénea (5.6). Pr eli 3. Sustituya esta solución propuesta en la ecuación (5.5) para obtener, luego de algún nivel de álgebra elemental =0 }| { z u1 (x) (a0 y1 + a1 y10 + a2 y100 ) + =0 }| { z u2 (x) (a0 y2 + a1 y20 + a2 y200 ) + 0 a2 (u01 y1 + u02 y2 ) + a1 (u01 y1 + u02 y2 ) 0 0 a2 (u1 y1 + u02 y20 ) = F(x) de donde surge el siguiente sistema de ecuaciones algebraico a2 (u01 y10 con sus soluciones de la forma 0 y2 y20 or F (x) a2 Bo rr ad u01 = u02 = y1 y10 y1 y10 y1 y10 y2 y20 u01 y1 + u02 y2 = 0 + u02 y20 ) = F(x) 0 = 0 F (x) a2 y2 y20 = F (x) a2 y2 y20 W (y1 , y2 ) y1 y10 = G1 (x) 0 F (x) a2 (x) W (y1 , y2 ) = G2 (x) e integrando se obtienen los coeficientes respectivos, Z Z u1 (x) = G1 (x) dx; u2 (x) = G2 (x) dx para finalmente obtener la solución general y = C1 y1 + C2 y2 + u1 (x) y1 + u2 (x) y2 nótese que no incorporamos las constantes de integración en la funciones u1 (x) y u2 (x). 218 5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS Ejemplo: La ecuación inhomogénea de Cauchy1 -Euler2 a0 y(x) + a1 x y 0 (x) + · · · + an xn y (n) (x) = F(x) con los ai = ctes, puede ser resuelta por este método. Consideremos una ecuación de orden 2 c y(x) + b x y 0 (x) + a x2 y 00 (x) = F(x) por lo tanto am2 + (b − a)m + c = 0 m= −(b − a) ± p m con in a c y(x) + b x y 0 (x) + a x2 y 00 (x) = 0 c x + b x mxm−1 + a x2 m(m − 1)xm−2 = 0 xm (c + bm + am(m − 1)) = 0 m r La solución de la homogénea se propone como yh = xm por lo tanto (b − a)2 − 4ac 2a Pr eli por lo tanto 1. Si m1 6= m2 y ambas reales, entonces la solución de la homogénea será yh = C1 xm1 + C2 xm2 2. Si m1 = m2 y ambas reales, entonces la solución de la homogénea será yh = xm1 (C1 + C2 ln x) 3. Si m1 = m2 = α + iβ , entonces la solución de la homogénea será yh = xα (C1 cos(β ln x) + C2 sen(β ln x)) or Ahora para lograr la solución de la inhomogénea suponemos el caso m1 6= m2 por lo tanto y1h = xm1 u01 = xm 2 m2 xm2 −1 x xm2 m1 −1 m1 x m2 xm2 −1 u02 = xm 1 0 m1 xm1 −1 aF (x) x2 xm1 xm2 m1 xm1 −1 m2 xm2 −1 y2h = xm2 xm2 m2 xm2 −1 W (y1 , y2 ) 0 F (x) a x2 Bo rr ad 0 F (x) a x2 m1 = = xm1 0 m1 xm1 −1 aF (x) x2 W (y1 , y2 ) = G1 (x) = G2 (x) 1 Louis Augustin Baron de Cauchy (1789-1857). Matemático francés, uno de los creadores del análisis matemático moderno. Estudió, entre otras cuestiones, los criterios de convergencia de series, las funciones de variable compleja y los sistemas de ecuaciones diferenciales 2 Leonhard Euler (1707-1783). Matemático suizo. Destacó en el estudio de diversas cuestiones del cálculo logarı́tmico y diferencial, ası́ como de las series algebraicas y la trigonometrı́a. 219 5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS La siguiente ecuación diferencial x2 y 00 − xy 0 + 5y = 1 x tiene como solución de la homogénea yh = x (C1 cos(2 ln x) + C2 sen(2 ln x)) r la solución particular por el método de variación de los parámetros queda como calculando los coeficientes respectivos en donde el Wronskiano W (x cos(2 ln x); x sen(2 ln x)) = 2x Pr eli m por lo cual los coeficientes quedan Z Z xsen(2 ln x) x1 1 u1 = G1 (x) dx = dx = cos(2 ln x) 2x 4 Z Z x cos(2 ln x) x1 1 u2 = G2 (x) dx = dx = sen(2 ln x) 2x 4 finalmente las solución particular será 1 1 1 2 2 cos (2 ln x) + sen (2 ln x) = x yp = x 4 4 4 in a yp = u1 (x) yh1 + u2 (x) yh2 y la general 1 y = x (C1 cos(2 ln x) + C2 sen(2 ln x)) + x 4 5.4.4. Métodos de reducción de orden or Este método supone, por lo tanto a0 (x) y(x) + a1 (x) y 0 (x) + a2 (x) y 00 (x) = F(x) Bo rr ad tendrá como primer solución no trivial para la ecuación homogénea, yh1 (x), entonces la segunda solución vendrá dada por Z yh2 (x) = yh1 (x) u(x) dx donde u(x) es la función incógnita a determinar. Sustituyendo esta expresión en la ecuación homogénea se obtiene =0 z }| {Z (a0 (x) y1 (x) + a1 (x) y10 (x) + a2 (x) y100 (x)) u(x) dx+ +a2 (x) y1 (x) u0 (x) + (2a2 (x) y10 (x) + a1 (x) y1 (x)) u(x) = 0 resolviendo la ecuación diferencial para u(x) tendremos que: Z − u(x) = e a1 a2 dx y12 220 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR La ecuación (x − 1)y 000 + 2y 00 = x+1 2x2 tiene como solución y1 = C1 x + C2 y como solución general y = C1 x + C2 + C3 ln |x − 1| + r 5.5.1. Algunas aplicaciones de las ecuaciones de orden superior Mecánica y Electricidad in a 5.5. 1 x ln |x| 2 Una de las más famosas ecuaciones diferenciales, lineales, ordinaria con coeficientes constantes es du d2 u +β + γ u = Λ (t) 2 dt dt y circuitos eléctricos d2 Q 1 dQ + Q = E (t) +R 2 dt dt C donde or L forma ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ Desplazamiento Velocidad masa Constante de Amortiguamiento Constante Elástica Fuerza Aplicada Pr eli La cual utiliza para describir sistemas mecánicos y toma la x dx dt d2 x dx m m 2 +η + k x = F (t) donde η dt dt k F (t) m α ü + β u̇ + γ u ≡ α Q =I L R C E (t) dQ dt ⇒ ⇒ ⇒ ⇒ ⇒ ⇒ Carga Eléctrica Intensidad de Corriente Inductancia Resistencia Capacitancia Fuerza Electromotriz Bo rr ad Analicemos la ecuación que describe sistemas mecánicos y dejamos la cual describe sistemas eléctricos para un análisis posterior. El primero de los casos a analizar será el de las oscilaciones libres, vale decir F (t) = 0, lo cual en el lenguaje de las ecuaciones diferenciales se traduce a ecuaciones diferenciales homogéneas. En contraste, si F (t) 6= 0, es decir, el caso inhomogéneo, estaremos describiendo oscilaciones forzadas. 5.5.2. Oscilaciones libres Analicemos pues del caso del oscilador armónico libre, i.e. d2 x m 2 +k x=0 dt ⇒ r x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) con ω0 = k m ω0 se denomina la frecuencia natural de oscilación y C1 y C2 las constantes de integración que se determinan de las condiciones iniciales. Es claro que C1 = A cos δ si ⇒ x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) ⇔ x (t) = A cos (ω0 t + δ) C2 = A sen δ 221 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.8: Oscilador armónico libre. Cambios en la posición inicial no afectan la frecuencia natural. con R la amplitud y δ en ángulo de fase. Obviamente, el perı́odo del movimiento será r 2π m T = = 2π ω0 k Bo rr ad or Ejemplo Como un ejemplo analicemos q el caso de un sistema en el cual m = 0,1 Kg. y k = 0,4 N/m En k este caso la frecuencia angular ω0 = m = 2 rad/sg. La ecuación diferencial que describe este movimiento será dx ⇒ x (t) = cos(2t) x (0) = 1; dt t=0 = 0; 2 d x x (0) = 4; dx ⇒ x (t) = 4 cos (2t) +4 x=0 ∧ dt t=0 = 0 dt2 ⇒ x (t) = −2 cos (2t) x (0) = −2; dx dt t=0 = 0 x (0) = 0; dx ⇒ x (t) = 12 sen(2t) dt t=0 = 1; d2 x ⇒ x (t) = 2 sen (2t) x (0) = 0; dx + 4 x = 0 ∧ dt t=0 = 4; 2 dt x (0) = 0; dx dt t=0 = −2 ⇒ x (t) = − sen (2t) 5.5.3. Oscilaciones libres amortiguadas Consideremos que en el movimiento actúa una fuerza de amortiguación proporcional a la velocidad, por lo cual el movimiento viene descrito por m d2 x d2 x dx dx +k x= + ω02 x = 0 +η + 2µ 2 dt dt dt2 dt 222 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.9: Oscilador Armónico Libre. Cambios de velocidad incial no afectan la frecuencia natural la cual constituye una ecuación diferencial lineal homogénea de segundo orden. Las raı́ces del polinomio caracterı́stico asociado serán r p q k η −η ± η 2 − 4km η 2 − =− ± = −µ ± µ2 − ω02 r= 2m 2m 2m m por lo tanto la solución será x (t) = C1 e √ − µ+ µ2 −ω02 t de donde se deducen los siguientes casos ⇐ µ2 − ω02 > 0 Sobreamortiguado ⇐ µ2 − ω02 = 0 Crı́tico i hp io n hp ω02 − µ2 t + C2 sen ω02 − µ2 t ⇐ C1 cos µ2 − ω02 < 0 Subamortiguado t Bo rr ad x (t) = (C1 + C2 t) eµ or x (t) = C1 er1 t + C2 er2 t x (t) = e−µ t + C2 e √ − µ− µ2 −ω02 t Ejemplo Como un ejemplo analicemos el mismo caso del sistema anterior en el cual m = 0,1 Kg. y k = 0,4 N/m, sólo que ahora q la constante de amortiguamiento será η = 0,60,0,40 y 0,15 En todos los caso la k = 2 rad/sg. y la cantidad subradical µ2 − ω02 corresponderá a los tres casos frecuencia angular ω0 = m 223 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.10: Oscilaciones libres amortiguadas y no amortiguadas. Nótese que el perı́odo es mayor para el caso subamortiguado anteriormente mencionados. Las ecuaciones diferenciales que describen este movimiento serán x (0) = 0 √ √ dx 7 7 d2 x ⇒ x (t) = 21 + 2√ e( 5−3)t + 12 − 2√ e−(3+ 5)t dt2 + 6 dt + 4 x = 0 ∧ 5 5 dx dt t=0 = 4 d2 x dt2 +4 dx dt +4 x=0 ∧ x (0) = 0 + dx dt +4 x=0 ∧ =4 x (0) = 0 ⇒ x (t) = (1 + 6t) e−2t or d2 x dt2 dx dt t=0 dx dt t=0 =4 1 ⇒ x (t) = e− 2 t h √9 15 sen √ 15 2 t + cos √ 15 2 t i Bo rr ad Si en los casos anteriores cambiamos el signo de la velocidad inicial, i.e. dx dt t=0 = −4 m/s, tendremos la siguiente representación gráfica. √ √ −(3+ 5)t 1 1 1 ( 5−3)t + 1 + √ √ x (0) = 1; dx e dt t=0 = −4; ⇒ x (t) = 2 − 2 5 e 2 2 5 x (0) = 1; dx dt t=0 = −4; ⇒ x (t) = (1 + 2t) e−2t x (0) = 1; dx dt t=0 = −4 1 ⇒ x (t) = e− 2 t h −7 √ 15 sen √ 15 2 t + cos √ 15 2 t i En todos los casos dado que r1 , r2 < 0 se tiene que x (t → 0) → 0. El movimiento subamortiguado es 224 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR periódico y el perı́odo viene descrito por Tam 2π ω0 T =r 2 = r 2 1 − ωµ0 1 − ωµ0 Pr eli Figura 5.11: Oscilaciones Libres amortiguadas con cambio de signo en la velocidad inicial si µ ω0 2 << 1 ⇒ Tam ≈ T 1 1+ 2 µ ω0 2 ! el cual siempre sera mayor que el periodo de oscilación natural del sistema. 5.5.4. Oscilaciones forzadas or Supongamos ahora que existe una fuerza aplicada al sistema tal que dx F0 d2 x + ω02 x = cos ($t) + 2µ dt2 dt m Bo rr ad Oscilaciones forzadas no amortiguadas En este caso µ = 0 y por lo tanto d2 x F0 + ω02 x = cos ($t) 2 dt m Amplitud modulada $ 6= ω0 y tendrá como solución F0 F0 cos ($t) = A cos (ω0 t + δ) + cos ($t) x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) + | {z } m (ω02 − $2 ) m (ω02 − $2 ) | {z } homogénea inhomogénea 225 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.12: Oscilador armónico forzado con $ = ω02 Nótese el fenómeno de resonancia con lo cual es la suma de dos movimientos armónicos con distintas frecuencias y amplitudes. Si el cuerpo parte del reposo, esto es: x (0) = ẋ (0) = 0 entonces 0 C1 = m ω−F 2 −$ 2 ( 0 ) F0 ⇒ x (t) = 2 − $ 2 ) [cos ($t) − cos (ω0 t)] m (ω 0 C2 = 0 dado que ω0 − $ ω0 + $ + t 2 2 ω0 + $ ω0 − $ ω0 + $ ω0 − $ cos − sen sen cos (ω0 t) = cos 2 2 2 2 ω0 − $ ω0 + $ cos ($t) = cos − t 2 2 ω0 − $ ω0 + $ ω0 − $ ω0 + $ cos ($t) = cos cos + sen sen 2 2 2 2 2F0 ω0 − $ ω0 + $ x (t) = sen t sen t m (ω02 − $2 ) 2 2 | {z } Bo rr ad or cos (ω0 t) = cos Envolvente Ejemplo El mismo sistema anterior en el cual m = 0,1 Kg. y k = 0,4 N/m, cuando parte del reposo desde el origen de coordenadas y existe una fuerza de excitación F = 0,5 cos (3t) . Por lo tanto la ecuación 226 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Figura 5.13: Oscilador armónico forzado. Nótese la envolvente de la función Pr eli diferencial que describe el movimiento sera x (0) = 0 2 d x 1 5 =⇒ x (t) = cos(2t) − cos(3t) ≡ 2 sen + 4 x = 5 cos (3t) t sen t dx | {z } | {z } dt2 2 2 | {z } dt t=0 = 0 homogénea inhomogénea Resonancia $ = ω0 envolvente En el caso que la frecuencia de la fuerza de excitación coincida con la frecuencia natural del sistema, se tiene d2 x + ω02 x = F0 cos (ω0 t) dt2 x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) + or =⇒ F0 t sen (ω0 t) 2mω0 | {z } envolvente Bo rr ad Ejemplo El sistema anterior (m = 0,1 Kg. y k = 0,4 N/m), cuando parte del reposo desde el origen de coordenadas y existe una fuerza de excitación F = 0,5 cos (2t) . Por lo tanto la ecuación diferencial que describe el movimiento sera x (0) = 0 d2 x 5t + 4 x = 5 cos (2t) ∧ =⇒ x(t) = sen (2t) dx dt2 4 dt t=0 = 0 5.5.5. Oscilaciones forzadas amortiguadas En este caso µ 6= 0 y por lo tanto d2 x F0 dx + 2µ + ω02 x = cos ($t) dt2 dt m 227 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.14: Carga en función del tiempo en un circuito RLC sometido a un voltaje constante. Nótese que el sistema alcanza el régimen estacionario cercano a los 0,3 sg la cual tendrá como solución √ √ F0 − µ+ µ2 −ω02 t − µ− µ2 −ω02 t x (t) = C1 e + C2 e + m una vez más se puede convertir en √ √ − µ− µ2 −ω02 t − µ+ µ2 −ω02 t + C2 e x (t) = C1 e + {z } | solución homogéne ≡régimen transitorio ! ω02 − $2 cos ($t) + 2µ$ sen ($t) 2 (ω02 − $2 ) + (2µ$) 2 F0 cos ($t − ζ) q m 2 2 (ω02 − $2 ) + (2µ$) | {z } donde cos (ζ) = q or solución inhomogénea ≡ régimen estacionario ω02 − $2 (ω02 − 2 $2 ) + (2µ$) 2 y sen (ζ) = q 2µ$ 2 2 (ω02 − $2 ) + (2µ$) Bo rr ad Es claro que el término homogéneo en todos sus casos (sobreamortiguado, crı́tico y subamortiguado) tiende a cero, por ello se considera un término transitorio, no ası́ el término inhomogéneo que permanece oscilando. En términos Fı́sico se pude decir que el término transitorio representa la disipación de la energı́a inicial que se le provee al sistema a través de la posición y la velocidad inicial de lanzamiento. Esta energı́a inicial se expresa a través de las condiciones iniciales se disipa. Si no existiera disipación esta energı́a inicial permanecerı́a por siempre en el sistema. Finalmente el término inhomogéneo, a través de la fuerza de excitación, impone el movimiento al sistema. Nótese además que el termino inhomogéneo nunca se hace infinito, ni siquiera para el caso para el cual tiene un máximo y es aquel en el cual la frecuencia de excitación coincide con la frecuencia natural del sistema. 1 faradios, se Ejemplo En un circuito RLC, cuyos componentes son L = 1 henry, R = 40 ohmios y C = 40000 le aplica un tensión de V = 24 voltios. Determine el comportamiento de la carga y la intensidad de corriente en el circuito. 228 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.15: Intensidad en un circuito RLC sometido a un voltaje constante. La ecuación diferencial que describe el comportamiento del sistema dQ (t) 1 d2 Q (t) +R + Q = E (t) dt2 dt C d2 I (t) dI (t) 1 dE (t) L +R + I (t) = 2 dt dt C dt L ⇒ ⇒ d2 Q (t) dQ (t) 1 + 40 + 40000 Q (t) = dt2 dt 2 d2 I (t) dI (t) + 40 + 40000 I (t) = 0 2 dt dt Si en vez de un tensión constante de 0,5 V. la fuente de tensión es sinusoidal de la forma E (t) = cos (180t) voltios las ecuaciones se transforman en Bo rr ad 1 2 or tomando en cuenta las condiciones iniciales tendremos como solución h √ √ √ i 47 11 1 7 −20t Q (0) = 10−4 Q(t) = + e sen 1160t + cos 1160t 8000 2640000 8000 ⇒ h √ √ √ i I (0) = dQ = 10−2 I (t) = dQ = e−20t 1 cos 1160t − 37 11 sen 1160t dt dt 100 6600 t=0 d2 Q dQ 1 + 40 + 40000 Q = cos (180t) dt2 dt 2 con Q (0) = 10−4 ∧ I (0) = dQ dt = 10−2 t=0 dI d2 I + 40 + 40000 I = −90sen (180t) 2 dt dt con sus correspondientes soluciones a las condiciones iniciales del sistema ( " # ) √ √ √ 1 293 9 19 11 91 Q(t) = e−20t sen 60 11t + cos 60 11t − cos (180t) + sen (180t) 1000 30140 685 274 548 ( " # ) √ 2461√11 √ 1 81 171 −20t 103 I(t) = e cos 60 11t − sen 60 11t + sen (180t) + cos (180t) 100 274 3014 137 274 229 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.16: Carga en función del tiempo en un circuito RLC sometido a un voltaje sinusoidal V (t) = 1 2 cos (180t) . Nótese el régimen transitorio (0 ≤ t . 0,17) y estacionario (t & 0,17) . Por analogı́a con el caso mecánico procedemos a identificar cantidades 2µ = R L V0 1 ⇒A= q = √ 4 2 2 2 $ − 78400$2 + 1600000000 1 1 2 ω02 = LC L + R LC − $ L$ con ello se puede ver la funcionalidad de la amplitud con la frecuencia excitatriz 5.5.6. Movimiento alrededor de un punto de equilibrio Bo rr ad or La fuerza elástica F = −k x más allá de ser el caso más simple, representa la primera aproximación al movimiento alrededor de un punto de equilibrio estable. Si recordamos que para una fuerza que derive de un potencial d 21 k x2 dV F =− ⇒ F = −k x = − dx dx mas aun, un punto de equilibrio estable se define aquel en el cual no existen fuerzas externas, vale decir F |x=x0 = 0 ⇒− dV dx =0 x=x0 por lo cual, dado un potencial de una fuerza arbitraria siempre podemos expandirlo en series de Taylor alrededor de un punto de equilibrio x = x0 V (x) = v (x0 ) + (x − x0 ) 2 dV 1 2 d V + (x − x0 ) dx x=x 2! dx2 | {z }0 + x=x0 3 1 3 d V (x − x0 ) 3! dx3 ··· x=x0 =0 230 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR 1 2 cos (180t) Pr eli Figura 5.17: Intensidad de corriente en un circuito RLC sometido a un voltaje sinusoidal V (t) = Ası́, en general, alrededor de un punto de equilibrio x = x0 la primera aproximación de una función potencial 2 2 2 1 ≈ 12 k (x − x0 ) . Ası́, un potencial de la forma (x − x0 ) ddxV2 seraV (x) ≈ 2! x=x0 V (x) = 1 6 35 50 x − 2x5 + x4 − x3 + 12x2 6 4 3 Solución: x5 − 10x4 + 35x3 − 50x2 + 24x Solución: que genera una fuerza F =− dV (x) = − x5 − 10x4 + 35x3 − 50x2 + 24x dx or tendrá dos puntos de equilibrio x = 0 y x = 4. En torno a x = 0 se podrá aproximar con un potencial parabólico 2 1 2 d V (x) Ṽ (x) = (x − x0 ) = 12x2 2! dx2 x=x0 Bo rr ad tal y como se observa gráficamente 5.5.7. Péndulo simple con desplazamiento finito El caso tı́pico de esta aproximación lo constituye el péndulo simple: una masa m, empotrada a una varilla, de masa despreciable y de longitud L. La varilla se desplaza un ángulo θ de la vertical y se suelta. La Figura (5.20) muestra el diagrama de cuerpo libre del Péndulo Fı́sico. Desde la ancestral fı́sica general, aún en secundaria, era proverbial resolver este problema suponiendo ángulos pequeños. En esas tempranas épocas de nuestro conocimiento de Fı́sica era limitado y más limitado aún era nuestra capacidad para resolver ecuaciones diferenciales. A este “problema” se le conoce con el péndulo fı́sico. Como siempre, aproximar es un arte y exploremos este arte. Como norma general tendremos que se debe aproximar al final. Pero no siempre. Si suponemos un cuerpo de masa constante, m, las ecuaciones diferenciales que describen el movimiento no 231 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.18: Amplitud como función de la frecuencia excitatriz. Nótese el máximo de la amplitud cuando el sistema entra en resonancia, i.e. $ = ω0 pueden ser otras que aquellas que provengan de las ecuaciones de Newton −−−−→ −−−− − −−− − −−→ −−→ −→ −− → d mv(t) = m a(t) = m (ar ûr + aθ ûθ ) , F (r(t), v(t), t) = dt externas X (5.7) Es bueno recordar que hay que expresar la aceleración en un sistema de coordenadas móviles (ûr , ûθ ). Esto es dûr dθ (t) dθ (t) = (− sen (θ)ı̂+ cos (θ) ̂) = ûθ = θ̇ (t) ûθ dt dt dt =⇒ or ûr = cos (θ)ı̂+ sen (θ) ̂ dθ (t) dθ (t) dûθ = − (cos (θ)ı̂+ sen (θ) ̂) =− ûr = −θ̇ (t) ûr dt dt dt ûθ = − sen (θ)ı̂+ cos (θ) ̂ =⇒ Bo rr ad con lo cual ~r (t) = r (t) ûr d ṙ (t) ûr + r (t) θ̇ (t) ûθ ~a (t) = =⇒ y r̈ (t) − r (t) θ̇2 (t) ûr + 2ṙ (t) θ̇ (t) + r (t) θ̈ (t) ûθ = =⇒ṙ (t) = ~v (t) = r̈ (t) = ~a (t) = 0 ~r (t) = Lûr =⇒ y d Lθ̇ (t) ûθ ~a (t) = d (r (t) ûr ) = ṙ (t) ûr + r (t) θ̇ (t) ûθ dt dt es claro que si r (t) = L = cte ~v (t) = dt = ~v (t) = d (Lûr ) = Lθ̇ (t) ûθ dt 2 −L θ̇ (t) ûr + Lθ̈ (t) ûθ 232 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Figura 5.19: Aproximación por una parábola en torno a x = 0 Pr eli Ası́, y para este caso particular, las ecuaciones de Newton quedan como m ar ≡ −mLθ̇2 (t) = −T + mg cos (θ) ~ m ~a = T + m ~g =⇒ m aθ = mLθ̈ (t) = −mg sen (θ) . (5.8) El caso que todos nos aprendimos de memoria, proviene de la suposición θ ≈ sen (θ) 1 que implica: mLθ̇2 (t) = −T + mg m ~a = T~ + m ~g =⇒ (5.9) mLθ̈ (t) = −mgθ. or con lo cual, ahora, en este curso, sabemos que lo podemos integrar inmediatamente. Si suponemos que parte del reposo: θ̇ (0) = 0 y θ (0) = θ0 r r r g g g t + C2 cos t =⇒θ (t) = θ0 cos t Lθ̈ (t) = −gθ (t) =⇒θ (t) = C1 sen L L L Bo rr ad y el perı́odo puede ser integrado g θ̇ (t) θ̈ (t) = − θ (t) θ̇ (t) L =⇒Etotal g 2 ∝ cte = θ̇ (t) + 2 θ (t) L 2 r =⇒θ̇ (t) = g 2 (θ − θ2 ) L 0 (5.10) que no es otra cosa que la energı́a total del sistema. Por lo tanto sabemos que en el instante inicial, si soltamos la masa desde un ángulo θ0 , la energı́a total es puramente potencial. Es decir 1 2 Etotal = Epotencial = mgL (1 − cos (θ0 )) = 2mgL sen θ0 (5.11) 2 por otro lado, de la ecuación (5.10) podemos obtener el perı́odo de oscilación para el Péndulo Fı́sico linealizado: ! r g 2 1 θ ω = θ̇ (t) = (θ − θ2 ) =⇒T = p g arctan p 2 L 0 θ0 − θ2 L 233 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.20: Diagrama de Cuerpo Libre, del Péndulo Fı́sico Este caso también se conoce con el nombre de oscilador armónico simple o péndulo fı́sico linealizado. Igualmente podemos analizar el caso de general del péndulo amortiguado forzado linealizado. Vale decir, una masa, m,atada a una varilla sin masa de longitud L,y que oscila, inmersa en un fluido que la frena el movimiento de la masa con una fuerza, −η ~v (t) y que adicionalmente está excitada por una fuerza exterior F (t) = F0 cos ($t) . Recordamos que en este caso la ecuación en la dirección tangente (ûθ ), es d2 θ (t) dθ (t) +η + mg θ (t) = F0 cos ($t) dt2 dt d2 θ (t) dθ (t) F0 + 2µ + ω02 θ (t) = cos ($t) dt2 dt mL r g η y ω0 = . donde, por costumbre, hemos rebautizado las constantes tales que µ = 2mL L Por lo tanto, su solución tendrá la forma √ √ cos ($t − ζ) F0 − µ+ µ2 −ω02 t − µ− µ2 −ω02 t q θ (t) = C1 e +C e + | {z 2 } mL 2 2 (ω02 − $2 ) + (2µ$) solución homogéne ≡régimen transitorio | {z } =⇒ Bo rr ad or mL donde cos (ζ) = q solución inhomogénea ≡ régimen estacionario ω02 − $2 (ω02 − 2 $2 ) + (2µ$) y 2 sen (ζ) = q 2µ$ 2 2 (ω02 − $2 ) + (2µ$) Hemos aprendido que dependiendo del valor de los coeficientes de la ecuación caracterı́stica del Péndulo Fı́sico amortiguado libre (F0 = 0) se derivan tres casos posibles: Subamortiguado: µ2 − ω02 < 0 Sobreamortiguado: µ2 − ω02 > 0 234 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.21: √ Evolución θ (t) vs t del Péndulo Fı́sico libre, para distintos valores de la velocidad inicial V0 = 3, 5, 40, 7, 8. Crı́tico µ2 − ω02 = 0 Bo rr ad or En el caso del Péndulo Fı́sico amortiguado forzado (F0 6= 0) la fı́sica se hace mucho más rica y pueden 2 2 ocurrir fenómenos de resonancia cuando ω02 − $2 + (2µ$) → 0. Es interesante considerar los gráficos tanto de la evolución del sistema en el espacio directo: θ (t) vs t; como la evolución del sistema en el espacio de fases ω = θ̇ (t) vs θ (t) . Las figuras (5.23) y (5.25) muestran la primera de estas evoluciones, es decir, la evolución del ángulo en el espacio directo. Las figuras (5.24) y (5.26) muestran la evolución del sistema en el espacio de fases. Es claro de la ecuación (5.10), en la cual aparece ω = θ̇ (t) = θ̇ (θ (t)) ,que las curvas en el diagrama de fase tanto para el caso libre (figura (5.22)) como para los de los casos amortiguados (figuras (5.24) y (5.26)) corresponden a curvas de misma energı́a. En el caso del Péndulo Fı́sico linealizado libre, corresponden a curvas de energı́a constante. en los otros casos el sistema va disipando energı́a debido al coeficiente de amortiguación. Nótese que la disipación obliga al sistema a evolucionar al punto de equilibrio siguiendo trayectorias espirales en el espacio de fases. Claramente más rápidamente en el caso sobreamortiguado que en el subamortiguado. También sabemos que para el caso crı́tico (µ2 − ω02 = 0) el tiempo de evolución del sistema hasta llegar al punto de equilibrio será menor que en cualquiera de los casos sobreamortiguados. Dejamos al lector la comprobación de esta última afirmación. Hemos aprendido que dependiendo del valor de los coeficientes de la ecuación caracterı́stica del Péndulo Fı́sico amortiguado libre (F0 = 0) se derivan tres casos posibles: Ahora bien, la situación que nos interesa simular es la del péndulo fı́sico para los casos en los cuales los ángulos de oscilación no necesariamente sean pequeños. Denominaremos péndulo libre al caso en el cual no recurriremos a ninguna aproximación respecto al ángulo de oscilación. Recordemos que para este caso partimos de la ecuación (5.8) en la dirección tangente. Es decir ! 2 g θ̇ (t) g − cos θ (t) Lθ̈ (t) = −g sen (θ) =⇒ θ̇ (t) θ̈ (t) = − sen θ (t) θ̇ (t) =⇒ Etotal ∝ cte = L 2 L 235 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.22: Digrama de Fase para el Oscilador Armónico Simple. Nótese que el punto de equilibrio es el origen de coordenadas. Bo rr ad or Al igual que en la ecuación en la dirección tangente linealizada (5.10), nos encontramos con la Energı́a total del sistema. Con lo cual Es fácil despejar θ̇ (t) = θ̇ (θ (t)) y construir los diagramas de fases del sistema. Otra vez, las lı́neas del diagrama de fase serán lı́neas de la misma energı́a. Ası́ podemos graficar r 2g cos (θ (t)) (5.12) θ̇ (t) = ± C + L g para distintos valores de la constante C = 4, 01; 4, 1; 6; 8; 10; 20 y para el caso = 4. La Figura (5.27) L representa el diagrama de fase para estos casos. Las curvas cerradas (aquellas que tienen los valores de ángulos y velocidades acotadas) representan oscilaciones del sistema, mientras que las curvas abiertas (aquellas en las cuales las velocidades están acotadas pero no ası́ el valor del ángulo) representan que el sistema rota. Nótese que el sistema presenta puntos de equilibrio inestable para θ (t) ≈ ±nπ con n = 0, 1, 2. Lo cual era de esperarse por cuanto corresponde al ángulo en el cual el sistema varilla-masa se encuentran verticalmente dispuestos y el peso y la tensión son colineales y se anulan momentáneamente. Otro enfoque, quizá más intuitivo para resolver este problema, pudo haber sido el análisis energético. Para ello sabemos que, por ser un sistema conservativo, la energı́a total viene definida por 1 θ (t) 1 2 2 Etotal = mL2 θ̇ (t) + mgL (1 − cos (θ (t))) ≡ mL2 θ̇ (t) + 2mgL sen2 | {z } 2 2 |2 {z } Energı́a Potencial Energı́a Cinética por consiguiente s θ̇ (t) = ± 2Etotal 4g − sen2 2 mL L θ (t) 2 θmáx s ≡ ±2 g θmáx θ (t) sen2 − sen2 L 2 2 (5.13) donde hemos sustituido Etotal = 2mL sen2 2 con θmáx el ángulo máximo que alcanza el Péndulo Fı́sico, por cuanto en ese punto la energı́á total es puramente potencial. Nótese que ese ángulo no necesariamente es el ángulo inicial, debido a que la velocidad incial puede ser distinta de cero. 236 in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli m g Figura 5.23: Evolución θ (t) vs t del Péndulo Simple, Subamortiguado ( = 4; µ = 0, 5) libre,para distintos L √ valores de la velocidad inicial V0 = 3, 5, 40, 7, 8. La ecuación (5.13) es claramente integrable por separación de variables y conduce a encontrar la expresión para el perı́odo: s Z dθ 1 L θ(t) r t= con − π ≤ θ (t) ≤ π y θ0 = θ (0) 2 g θ0 g 2 θ sen2 θmáx − sen 2 2 L sen 2 or La integral anterior, puede ser transformada en otra que aparece en las tablas integrales, si hacemos sen β = sen( θ2 ) , con lo cual θmáx Bo rr ad s Z L ζ(t) dβ q t= g ζ(0) 1 − sen2 θmáx sen2 β 2 donde sen β = sen sen θ 2 θmáx 2 sen θ(t) 2 ζ (t) = arcsin sen θmáx 2 (5.14) π Es claro que el recorrido entre ζ (0) = 0 =⇒ θ = 0 a θ = θmáx =⇒ ζ (t) = representa un cuarto del 2 perı́do, por consiguiente el perı́odo total del Péndulo Fı́sico será: s Z π L 2 dβ q T =4 g 0 1 − sen2 θmáx sen2 β 2 237 in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR 5.5.8. Pr eli m g Figura 5.24: Evolución θ̇ (t) vs θ (t) del Péndulo Fı́sico Subamortiguado libre ( = 4; µ = 0, 5) en el Espacio L √ de Fases para distintos valores de la velocidad inicial V0 = 3, 5, 40, 7, 8. Nótese que la disipación lleva irremediablemente al sistema al punto de equilibrio, vale decir al origen de coordenadas del espacio de fases. Disgresión elı́ptica En este punto haremos una disgresión respecto a las integrales elı́pticas, su clasificación y algunas de sus propiedades. En general encontrarán en la bibliografı́á que las integrales elı́pticas se dividen en Integrales Elı́pticas de Primera Especie Z x Z ϕ dt dβ p p ⇐⇒ F (x|m) = F (ϕ\α) = 2 (1 − t ) (1 − mt2 ) 1 − sen2 α sen2 β 0 0 con 0 ≤ m ≤ 1 or π las cuales, para el caso particular ϕ = o x = 1, se puede reacomodar como una Integral Elı́ptica de 2 Primera Especie Completa Bo rr ad Z π K (m) = 2 p 0 Z dβ 1 − m sen2 β ≡ 0 1 dt p (1 − t2 ) (1 − mt2 ) con 0 ≤ m ≤ 1 (5.15) Integrales Elı́pticas de Segunda Especie Z E (ϕ\α) = 0 y si ϕ = ϕ p 1− sen2 α sen2 Z βdβ ⇐⇒ E (x|m) = 0 x s 1 − mt2 dt (1 − t2 ) con 0 ≤ m ≤ 1 π o x = 1, entonces se obtiene una Integral Elı́ptica de Segunda Especie Completa 2 s Z πp Z 1 1 − mt2 2 2 E (m) = 1 − m sen βdβ ≡ dt con 0 ≤ m ≤ 1 (1 − t2 ) 0 0 238 in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli m g Figura 5.25: Evolución θ (t) vs t del Péndulo Fı́sico Sobreamortiguado ( = 4; µ = 3, 5) libre,para distintos L √ valores de la velocidad inicial V0 = 3, 5, 40, 7, 8. Adicionalmente, y también sin perder generalidad, dado que 0 ≤ m ≤ 1, el denominador de la integral elı́ptica K (m) de la ecuación (5.15) y equivalentemente de la ecuación (5.14) puede ser expandido en series de potencias. Con lo cual 1 1 3 5 35 2 4 2 2 6 3 3 8 4 p = 1 + sen βm + sen β m + sen β m + sen β m4 + · · · 2 8 16 128 1 − m sen2 β 1 1 − m sen2 β = 1 1 1·3 π 1+ sen2 β m + sen4 β m2 + 2 2 2·4 1·3·5 6 3 4 sen β m + O m + 2·4·6 or p ∞ X (2n − 1)!! n m sen2n β (2n)!! n=0 Bo rr ad 1 p 1 − m sen2 β = y siendo una serie uniformemente convergente puede ser integrada término a término como Z π K (m) = 2 p 0 Z π Z π ∞ ∞ X X (2n − 1)!! (2n − 1)!! n 2 = m sen2n β = mn 2 sen2n β dβ dβ 2 (2n)!! (2n)!! 1 − m sen β 0 0 n=0 n=0 dβ 2 ∞ ∞ X π X (2n − 1)!! (2n − 1)!! n (2n − 1)!! π K (m) = m · = mn (2n)!! (2n)!! 2 2 (2n)!! n=0 n=0 239 in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli m g Figura 5.26: Fı́sico Sobreamortiguado libre ( = 4; µ = 3, 5) en el Espacio de Fases para distintos valores de L √ la velocidad inicial V0 = 3, 5, 40, 7, 8. Nótese que la disipación lleva irremediablemente al sistema al punto de equilibrio, vale decir al origen de coordenadas del espacio de fases. Del mismo modo se obtiene para las integrales elı́pticas completas de segunda especie que " # 2 Z πp ∞ X π mn (2n − 1)!! 2 2 E (m) = 1 − m sen βdβ = 1− 2 (2n)!! 2n − 1 0 n=1 Bo rr ad 3 Abramowitz, or Finalmente podemos mencionar la relación de “recurrencia” de Legendre para las Integrales Elı́pticas completas. Ella es π E (m) K (1 − m) + E (1 − m) K (m) − K (m) K (1 − m) = 2 Las integrales elı́pticas de primera y segunda especie, incompletas y completa deben resolverse numéricamente y tradicionalmente están tabuladas en algunas tablas integrales 3 . En nuestros dı́ás también pueden ser resueltas numéricamente utilizando comandos de manipuladores simbólicos4 . M. y Stegun I.A (1964) Handbook of Mathematical Functions Dover, New York el caso de MAPLEV se puede proceder directamente evaluando numéricamente la integral (5.14) a través del comando evalf(int(...)) o mediante la función de biblioteca EllipticF(z,k) donde z= β es al argumento del seno y k= sen θ20 el 4 En parámetro (consulte la ayuda de MAPLE para más detalles). 240 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Figura 5.27: Diagrama de Fase para el Péndulo Fı́sico. ¿Cuán buena es la aproximación lineal? Pr eli 5.5.9. Utilizando la expansión en serie de la Integral Elı́ptica completa de primera especie (5.14) del péndulo fı́sico, tendremos que se cumple s s Z π dβ π θmáx L 2 L 2 q =4 F \ sen T =4 =⇒ g 0 g 2 2 1 − sen2 θmáx sen2 β 2 T = 2π 2 2n ∞ L X (2n − 1)!! θmáx sen g n=0 (2n)!! 2 or s q 2π 7 + O θmáx y que T0 = = 2π Lg tendremos ω0 s ∞ 2 2n L X (2n − 1)!! 1 1 3 1 5 7 T = 2π θmáx − θmáx + θmáx + O θmáx =⇒ g n=0 (2n)!! 2 48 3840 θmáx 2 = 21 θmáx − 1 3 48 θmáx + 1 5 3840 θmáx Bo rr ad más aún, dado que sen 1 2 11 4 T ≈ T0 1 + θmáx + θmáx 16 3072 y si realizamos un estimado de las correcciones al problema lineal que conlleva esta expansión veremos que π aún para ángulos θmáx = las correcciones son del orden de un pı́rrico 4 %, con lo cual la aproximación 4 lineal resulta bien razonable. Para ángulos θmáx & 1 las correcciones comienzan a ser significativas y todo este esfuerzo de integración empieza a tener sentido. La siguiente tabla da una idea más clara de este cambio en el perı́odo del pénulo y los errores relativos porcentuales respecto al perı́odo del péndulo fı́sico linealizado 2π T0 = ,cuando se considerán distintos valores del ángulo máximo, θmáx ω0 241 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR T0 = 2π = 2,83845 ω0 T = 100 5.5.10. |T − T0 | T π 12 2,85066 θmáx = 0,42821 Pr eli Figura 5.28: Integración numérica (θ t̃ vs t̃, con 0 ≤ t̃ ≤ 10) del Péndulo Fı́sico, para distintos valores de dθ(t) la velocidad angular inicial: = ϕ(t) = 3,5, 3,9, 4, 4,1, 4,5. dt π 6 2,88786 θmáx = 1,71109 π 4 2,95191 θmáx = 3,84368 π 3 3,04617 θmáx = 6,81916 π 2 3,35034 θmáx = 15,2786 2π 3 3,89685 θmáx = 37,1283 El péndulo fı́sico: integración numérica Bo rr ad or Tal y como indicamos en la primera sección de este proyecto, procedemos a convertir una ecuación de segundo orden en un sistema de ecuaciones diferenciales de dos ecuaciones diferenciales de primer orden. Ası́, del mismo modo que en la ecuación (??) podremos escribir: dθ(t) = ϕ(t) dt θ̈ (t) = −ω0 sen (θ) =⇒ dϕ(t) = −ω0 sen (θ(t)) dt con lo cual podemos adimensionalizar de dos varias formas, dependiendo de las condiciones iniciales del t 1 d (·) = movimiento. Si adicionalmente hemos adimensionalizado con t̃ = por lo que 0 ≤ t̃ ≤ 1 y tf inal tf inal dt̃ d (·) ϕ dθ(t) y, adcionalmente: ϕ̃ = , con ϕ0 = 6= 0. De este modo el sistema queda escrito dt ϕ0 dt t=0 dθ(t) = ϕ(t) =⇒ dt dϕ(t) = −ω0 sen (θ(t)) =⇒ dt d θ(t̃) = ϕ0 tf inal ϕ̃(t̃) dt̃ d ϕ̃(t̃) ω 2 tf inal =− 0 sen θ(t̃) ϕ0 dt̃ =⇒ =⇒ d θ(t̃) = Λ ϕ̃(t̃) dt̃ d ϕ̃(t̃) = −Γ sen θ(t̃) dt̃ 242 m in a r 5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR Pr eli Figura 5.29: Digrama de Fase para el Péndulo Fı́sico Bo rr ad or Nótese que las cantidades ϕ̃(t̃), θ(t̃), t̃, Γ y Λ son adminensionales. Acto seguido procedemos a integrar numéricamente el sistema de ecuaciones5 . La figura (5.28) ilustra la evoluciı́on del ángulo θ (t) vs t, con 0 ≤ t ≤ 10 del Péndulo Fı́sico, para distintos dθ(t) = θ̇(t) = ϕ(t) = 3,5, 3,9, 4, 4,1, 4,5. Mientras que la figura (5.29) valores de la velocidad angular inicial: dt dθ(t) (y también la figura (5.27)) representan la evolución del sistema en el espacio de fases. θ (t) vs = ϕ(t). dt Las curvas cerradas en esta gráfica corresponden a las curvas oscilantes de la figura (5.28). Dado que el sistema parte de θ0 = θ (t = 0) y seleccionamos el nivel de energı́á potencial igual a cero allı́, cada una de 1 estas curvas representan un valor de la energı́á cinética inicial. El caso Ec = mL2 θ̇02 = mg2L corresponde 2 a la separatrı́z, vale decir, la órbita que separa las curvas cerradas de las abierta. Es claro que en este caso le movil “subirá” y alcanzará un equilibrio inestable en la posición vertical. En la figura (5.28) este caso viene ilustrado por la curva que se convierte en horizontal 0, 25 ≤ t̃ ≤ 0, 5, luego a partir de t̃ ≈ 0, 5, la inexactitud del cálculo numérico genera pertubaciones que en teorı́á no debieran existir. Ec = 1 mL2 θ̇02 = mg2L 2 5 En MAPLEV podemos integra el sistema de dos maneras distintas. La primera haciendo uso del comando dsolve({sysED,CI}, numeric, vars, options) donde sysED es el sistema de ecuaciones diferenciales, CI sus condiciones iniciales. Si necesitáramos un análisis gráfico es mucho más útil el paquete DEtools. 243 r 6 in a Capı́tulo Bo rr ad or Pr eli m Sistemas de ecuaciones diferenciales 244 6.1. ALGUNOS COMENTARIOS INICIALES 6.1. Algunos comentarios iniciales d2 r1 (t) dt2 d2 r2 (t) = dt2 .. . drn (t) d2 rn (t) , ,t = dt dt2 = in a drn (t) ,t dt drn (t) , ,t dt , m dr1 (t) dr2 (t) F1 r1 (t) , r2 (t) , · · · , rn (t) , , ,··· dt dt dr1 (t) dr2 (t) F2 r1 (t) , r2 (t) , · · · , rn (t) , , ,··· dt dt .. . dr1 (t) dr2 (t) Fn r1 (t) , r2 (t) , · · · , rn (t) , , ,··· dt dt r Cuando consideramos la evolución de sistemas con varios grados de libertad o con varias partı́culas, naturalmente arribamos al tratamiento de sistemas de ecuaciones diferenciales. En estos sistemas encontramos varias variables dependientes de una sola variable independiente. El más natural de los ejemplos es el caso de un sistema de partı́culas que se mueve en el espacio bajo la acción de fuerzas externas: si hacemos el siguiente cambio variable un = y (n−1) (x) ; un−1 = y (n−2) (x) ; Pr eli Por otro lado, es importante acotar de que existe la posibilidad de convertir una ecuación diferencial ordinaria de orden superior es un sistema equivalente de ecuaciones diferenciales. Es decir, dada una ecuación diferencial de la forma y (n) (x) = F y (n−1) (x) , y (n−2) (x) , , · · · y 000 (x) , y 00 (x) , y 0 (x) , y (x) , x ··· u4 = y 000 (x) ; u3 = y 00 (x) ; u2 = y 0 (x) ; u1 = y (x) entonces construir el siguiente sistema de ecuaciones diferenciales u0n (x) = Fn (un , un−1 , · · · , u3 , u2 , u1 , x) or u0n−1 (x) = y (n−1) (x) .. . u03 (x) = y 000 (x) u02 (x) = y 00 (x) Bo rr ad u01 (x) = y 0 (x) que puede ser generalizado a: u0n (x) = Fn (un , un−1 , · · · , u4 , u3 , u2 , u1 , x) u0n−1 (x) = Fn−1 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x) .. .. . . u02 (x) = F2 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x) u01 (x) = F1 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x) Para garantizar que existe solución al problema de valores iniciales se debe imponer algunas restricciones sobre las funciones Fi (un , · · · , u3 , u2 , u1 , t) para ello existen un par de teoremas que garantice esa solución 245 6.1. ALGUNOS COMENTARIOS INICIALES Teorema 1: Sean las funciones F1 , F2 , · · · Fn y sus derivadas: ∂1 F1 , ∂1 F2 , · · · ∂1 Fn , · · · ∂i F1 , ∂i F2 , · · · ∂j Fn · · · ∂n F1 , ∂n F2 , · · · ∂n Fn in a Teorema 2: Sea el siguiente sistema lineal de ecuaciones diferenciales r continuas en una región R del espacio (x, u1 , u2 , · · · , un ), que contiene al punto x0 , u01 , u02 , · · · , u0n que caracteriza las condiciones iniciales. Entonces existe un intervalo |x − x0 | < h en el cual existe una única solución: u1 = φ1 (x) , u2 = φ2 (x) , · · · , un = φn (x). ∂Fi Hemos denotado ∂j Fi = y u0m = um (x0 ) las condiciones iniciales. ∂uj = p11 (x) u1 + p12 (x) u2 + · · · + p1n (x) un + g1 (x) u02 = .. . p21 (x) u1 + p22 (x) u2 + · · · + p2n (x) un + g2 (x) .. . u0n = pn1 (x) u1 + pn2 (x) u2 + · · · + pnn (x) un + gn (x) m u01 (6.1) Pr eli Si p11 (x) , p12 (x) , · · · p1n (x) · · · pij (x) · · · pnn (x) y g1 (x) · · · gn (x) son funciones continua en el intervalo α < x < β que contiene al punto x = x0 entonces existe una única solución que satisface las condiciones iniciales u0m = um (x0 ). Ejemplo Dada la siguiente ecuación diferencial de tercer orden, no lineal y 000 = 3xy 0 − y 2 y 00 , con: y(0) = 1, y 0 (0) = −1, y 00 (0) = 2 , Por el hecho de ser no lineal, los métodos anteriormente vistos no pueden ser aplicados aquı́. Pero podemos construir un sistema de ecuaciones diferenciales equivalente a la ecuación anterior. Consideramos que y(x) es una solución de la ecuación diferencial dada y definamos las siguientes cantidades: y(x) 0 y (x) = u01 (x) = u2 (x) y (x) = u001 (x) = u02 (x) = u3 (x) y 000 (x) 00 0 = u000 1 (x) = u2 (x) = u3 (x) or 00 = u1 (x) por lo tanto, la ecuación diferencial dada se puede escribir como: Bo rr ad y 000 = 3xy 0 − y 2 y 00 ⇒ u03 = 3xu2 − u21 u3 ahora, el sistema de ecuaciones de primer orden equivalente a la ecuación diferencial problema es: u01 (x) = u2 (x) u02 (x) = u3 (x) u03 (x) = 3xu2 − u21 u3 que debemos resolver para el conjunto de condiciones iniciales: u1 (0) = y(0) = 1, u2 (0) = y 0 (0) = −1, u3 (0) = y 00 (0) = 2 por lo tanto, la función u1 (x) que satisface este último sistema será la solución de la ecuación diferencial de nuestro problema. Es necesario entonces tener la capacidad de resolver sistemas de ecuaciones diferenciales de primer orden y a este cometido nos dedicaremos a continuación. 246 6.1. ALGUNOS COMENTARIOS INICIALES Notación Vectorial: El sistema lineal antes mencionado, es decir, las ecuaciones (6.6), puede condensarse en la siguiente ecuación matricial u0 (x) = P (x) u(x) + g (x) , (6.2) p1n (x) p2n (x) .. . pn1 (x) pn2 (x) · · · pnn (x) ; u = u1 (x) u2 (x) .. . ; g = g1 (x) g2 (x) .. . gn (x) un (x) in a u0n (x) ··· ··· .. . p12 (x) p22 (x) .. . r en la cual estamos representando 0 u1 (x) p11 (x) u02 (x) p21 (x) u0 = ; P = .. .. . . El sistema (6.2) será homogéneo si g (x) = 0, en caso contrario será un sistema no homogéneo. 6.1.1. Sistemas lineales homogéneos Dado un sistema de ecuaciones diferenciales con coeficientes constantes, es decir, de la forma (6.3) m y0 (x) = Ay(x) Pr eli procedemos de manera análoga al caso de una sola ecuación con coeficientes constantes. Se considera una solución de prueba de la forma: y = ξerx , donde r y el vector constante ξ son elementos a determinar. Al sustituir esta solución en (6.3), obtenemos: ξrerx = Aξerx , con lo cual, el problema se reduce a la búsqueda de los autovalores y autovectores del sistema Aξ = rξ. En forma de matrices, la ecuación (6.3) es: 0 a11 a12 · · · a1n y1 y1 y1 (x) ξ1 y20 a21 a22 · · · a2n y2 y2 (x) ξ2 = erx . ⇒ .. = .. .. . . . . . . . . . . . . . . . . . 0 an1 an2 · · · ann yn (x) yn yn ξn con aij , y ξi como constantes. Por lo tanto: Aξ = rξ or en forma de matrices, esto es: a11 − r a21 .. . ⇒ Bo rr ad a12 a22 − r .. . an1 an2 (A − rI) ξ = 0 , ··· ··· .. . a1n a2n .. . ··· ann − r ξ1 ξ2 .. . = 0 0 .. . (6.4) 0 ξn Es decir, para resolver el sistema de ecuaciones diferenciales lineales con coeficientes constantes, es necesario resolver el sistema de ecuaciones algebraico. Ejemplo Resolvamos el siguiente sistema de ecuaciones y10 (x) = y1 (x) + y2 (x) y20 (x) = 4y1 (x) + y2 (x) este sistema se puede representar de la siguiente forma 1 1 1−r y0 = y si y = ξerx ⇒ 4 1 4 1 1−r ξ1 ξ2 = 0 0 247 6.1. ALGUNOS COMENTARIOS INICIALES primero que todo se calculan los autovalores: 1−r 4 1 1−r 2 = (1 − r) − 4 = r2 − 2r − 3 = 0 r1 = 3 ⇒ r2 = −1 para el autovalor r1 = 3, (6.4) resulta en (1) =0 ⇒ ξ (1) = ξ1 (1) 2ξ1 ! = 1 2 similarmente, para el segundo autovalor r2 = −1, se tiene ! (2) ξ1 1 (2) ξ = = (2) −2 −2ξ1 por lo tanto, la solución general del sistema será ⇐⇒ e3x 2e3x = C1 e−x −2e−x 1 2 e3x + C2 1 −2 e−x = −4e−2x 6= 0 Pr eli Obviamente el wronskiano de esta solución h i W y(1) (x) , y(2) (x) = y1 y2 m y = C1 y(1) (x) + C2 y(2) (x) r + (1) ξ2 in a −2 (1) ξ1 garantiza que las dos soluciones son linealmente independientes. Para el caso de matrices hermı́ticas, A = A† ,vale decir, que la matriz A coincide con su conjugada y T ∗ traspuesta, A = A , todos los autovalores son reales y la solución general para un sistema de n ecuaciones diferenciales lineales con coeficientes constantes es y (x) = C1 ξ (1) er1 x + C2 ξ (2) er2 x + · · · + Cn ξ (n) ern x Bo rr ad or Para el caso particular de matrices simétricas (hermı́ticas reales) los autovalores r1 , r2 , · · · , rn y los autovectores ξ (1) , ξ (2) , · · · , ξ (n) resultan ser ambos son reales. Consideremos ahora el caso cuando la matrix A no es hermı́tica pero real. Entonces r1 = λ + iµ y0 = Ay ⇒ y = ξerx ⇒ (A − rI) ξ = 0 ⇒ r2 = λ − iµ ∗ esto significa que r1 = r2∗ y que ξ (1) = ξ (2) , por lo cual ξ (1) = a + ib con a y b vectores reales, entonces: y(1) (x) = (a + ib) e(λ+iµ)x = (a + ib) eλx [cos(µx) + i sen(µx)] = eλx [a cos(µx) − b sen(µx)] + ieλx [a sen(µx) + b cos(µx)] = u (x) + iv (x) . Es posible que se nos presente la siguiente situación: por un lado, algunos de los autovalores de la matriz real, A, son números complejos, r1 = λ + iµ y r2 = λ − iµ, pero el resto de las raı́ces resultan ser números reales: r3 , r4 , · · · , rn . Por el otro lado, algunos de los autovectores son complejos: ξ (1) = a + ib, ξ (2) = a − ib, pero el resto de autovectores no lo son: ξ (3) , ξ (4) , · · · , ξ (n) . En este caso, la solución general sera y (x) = C1 u (x) + iC2 v (x) + C3 ξ (3) er3 x + C4 ξ (4) er4 x + · · · + Cn ξ (n) ern x . 248 6.1. ALGUNOS COMENTARIOS INICIALES Ejemplo Queremos resolver el siguiente sistema de ecuaciones y10 (x) = y1 (x) − y2 (x) y20 (x) = 5y1 (x) − 3y2 (x) En forma de matrices lo que tenemos es y0 = −1 −3 1 5 y Si utilizamos la siguiente solución de prueba y = ξerx , entonces: 1−r −1 ξ1 0 = 5 −3 − r ξ2 0 −1 −3 − r = r2 + 2r + 2 = 0 ⇒ finalmente la solución general será −x y(x) = C1 e r2 = −1 − i 1 (1) ξ = 2−i ⇒ (2) ξ = Pr eli 1−r 5 r1 = −1 + i m Se calculan los autovalores r ⇒ in a y0 = Ay cos(x) 2 cos(x) + sen(x) −x + iC2 e sen(x) − cos(x) + 2sen(x) 1 2+i . Bo rr ad or Para el caso que los autovalores de la matriz real, A, estén repetidos k veces, es decir, r1 = r2 = · · · = rk = ρ, y para los restantes rk+1 , . . . , rn distintos, se deben considerar algunos puntos. Lo primero es notar que puede suceder que existan ξ (1) , ξ (2) , . . . , ξ (k) autovectores linealmente independientes asociados al autovalor ρ de multiplicidad k. Entonces, el conjunto de vectores linealmente independientes siguientes: y(1) (x) = ξ (1) eρx , y(2) (x) = ξ (2) eρx , . . . , y(k) (x) = ξ (k) eρx serán soluciones del sistema de ecuaciones diferenciales (6.3). Pero si la matrix A no es hermı́tica existirá un número menor de autovectores correspondientes al autovalor ρ de multiplicidad k y no será posible tener entonces las k soluciones necesarias del sistrema (6.3). Por lo tanto, se necesitará construir las soluciones que falten de alguna manera. Quizás sea conveniente detenerse en un ejemplo particular. Ejemplo Resolver el sistema y10 (x) = y1 (x) − y2 (x) y20 (x) = y1 (x) + 3y2 (x) por lo tanto y0 = Ay ⇒ y0 = 1 1 −1 3 y Si repetimos el procedimiento anterior, se tiene que 1 − r −1 ξ1 0 = 1 3−r ξ2 0 249 6.1. ALGUNOS COMENTARIOS INICIALES calculamos los autovalores: 1−r 1 −1 3−r 2 2 = r − 4r + 4 = (r − 2) = 0 r1 = 2 ⇒ ⇒ ξ (1) = r2 = 2 1 −1 , in a r y podemos ver que la multiplicidad es 2 y sólo podemos obtener un único autovector asociado al autovalor ρ = r1 = r2 = 2. Con este autovector podemos construir una solución linealmente independiente: 1 (1) 2x y (x) = e . −1 Resulta natural intentar buscar una segunda solución que contenga los términos xe2x y e2x . Propongamos entonces la siguiente solución de prueba y(2) (x) = ζ (1) xe2x + ζ (2) e2x , Pr eli m donde ζ (1) y ζ (2) son vectores constantes a determinar. Al sustituir esta solución de prueba en nuestra ecuación problema, resulta: 2ζ (1) xe2x + ζ (1) + 2ζ (2) e2x = A ζ (1) xe2x + ζ (2) e2x , (2I − A) ζ (1) xe2x + ζ (1) + 2ζ (2) − Aζ (2) e2x = 0 , Al igualar los coeficientes de los términos xe2x y e2x en esta última expresión tenemos el siguiente par de ecuaciones de autovalores: (A − 2I)ζ (1) = 0 (2) = ζ (1) (A − 2I)ζ or La primera ecuación es satisfecha si hacemos coincidir ζ (1) = ξ (1) , es decir, con el autovector correspondiente a ρ = 2 que calculamos anteriormente. Por otro lado, se tiene que −1 1 |A − 2I| = −1 1 =0 Bo rr ad pero sin embargo, la segunda ecuación tiene solución −1 1 −1 1 (2) ζ1 (2) ζ2 ! = 1 −1 . Como las filas son proporcionales, entonces resulta que: (2) −ζ1 − (2) ζ2 =1 ⇒ ζ (2) = 0 −1 +κ 1 −1 donde κ es un valor arbitrario. Hemos construido una segunda solución 1 0 1 (2) 2x 2x y (x) = xe + e +κ e2x , −1 −1 −1 250 6.1. ALGUNOS COMENTARIOS INICIALES 6.1.2. in a r notemos que el último término de la ecuación anterior es un multiplo del único término de y(1) (x), por lo tanto debe ser ignorado. En resumen: Las dos soluciones linealmente independientes son: 1 y(1) (x) = e2x , −1 1 0 y(2) (x) = xe2x + e2x , −1 −1 Se deja como ejercicio demostrar que W y(1) (x), y(2) (x) 6= 0. La solución general, será entonces 1 1 0 2x 2x 2x y(x) = C1 e + C2 xe + e . −1 −1 −1 Sistemas lineales inhomogéneos Pr eli m Todo operador lineal hermı́tico A (A : V → V ), con n autovectores distintos tiene una representación matricial diagonal Âij =λi δij . Mediante una transformación de similaridad: TAT−1 = Â, donde T es una matriz unitaria: T−1 = T† , se trasforma la base de A a la base donde  es diagonal. Este teorema es claro: a partir de que sı́ A tiene n autovalores distintos, tiene n autovectores linealmente independientes los cuales forman una base de V y en la cual la representación matricial de A es diagonal. Pero como siempre es posible pasar de A no diagonal a  diagonal con los mismos autovalores mediante una transformacion de similidaridad TAT−1 = Â, esto queda demostrado. Lo anterior puede formalizarse de la siguiente manera † † † † hvi | T i | T TAT T |vj i = hui |  |uj i = λj hui |uj i = λj δij | {zT} |vj i = hv | {zT}AT | {z }| {z }| {z } 1 1 hui |  |uj i Bo rr ad or Nos queda determinar la forma de la matriz unitaria de transformación T. Para ello seleccionamos la base canónica {|e1 i , |e2 i , . . . , |ei i , . . . , |en i} como base de partida de A: 0 0 0 1 0 0 1 0 .. .. .. .. . . . , |e2 i = , . . . , |ei i = , . . . , |en i = . |e1 i = 0 1 0 0 . . . . .. .. .. .. 1 0 0 0 y {|u1 i , |u2 i , . . . , |ui i , . . . , |un i} la base de autovectores en la cual  es diagonal. Por lo tanto T es la matriz de transformación de una base a la otra. Identificando columna a columna nos damos cuenta que las columnas de la matriz T son los autovectores de A |ui i = n X Tij |ej i ⇒ hej |ui i = hej j=1 hej |ui i = Tij = (1) (1) u1 (2) u1 .. . u2 (2) u2 (n) u1 (n) u2 n X Tij |ej i ⇒ j=1 ··· .. . (1) un (2) un (n) un ⇔ T† = (1) (2) u1 (1) u2 .. . u1 (2) u2 (1) un (1) un ··· .. . (n) u1 (n) u2 = T−1 (n) un 251 6.1. ALGUNOS COMENTARIOS INICIALES (m) con: A = a11 a21 .. . a12 a22 an1 an2 .. . ··· y (1) (x) y (2) (x) .. . a1n a2n , ann ··· y(x) = in a r donde hemos denotado ui la componente m del vector j-esimo en la base |ei i, con i = 1, . . . , n. Por lo tanto, si los n autovalores y autovectores de A son distintos y conocidos, A se dice diagonalizable. Si A es hermı́tica, T−1 = T† es muy fácil construir la inversa de la matriz de transformación T. Si los autovalores de A con degenerados, vale decir si el número de autovectores linealmente independientes es menor que n, entonces A no es diagonalizable y no existe una matriz de transformacion T (T no tiene inversa) tal que TAT−1 = Â. Ocupemonos ahora del problema de la solución de un sistema de ecuaciones diferenciales inhomogéneo de la forma: y0 (x) = Ay (x) + g (x) , g (x) = , g (1) (x) g (2) (x) .. . g (n) (x) y (n) (x) Tz0 = ATz + g −1 −1 z0 = T | {zAT} z + T g ⇒ Pr eli ⇒ y (x) = Tz (x) m donde A es una matriz constante y diagonalizable, g (x) contı́nua en el intervalo α ≤ x ≤ β. La solución de este problema pasa por encontrar los autovalores {λi } y autovectores {|ui i} de A, construir a partir de ellos la matriz T y su hermı́tica conjugada T−1 = T† , y a partir de ella hacer el siguiente cambio de variable:  por lo tanto z0 = Âz + h donde λ1 0 .. .  = 0 0 λ2 0 0 λn ··· .. 0 . ··· y h = T−1 g . or Entonces, lo que obtenemos es un sistema de ecuaciones diferenciales desacoplado: zi0 (x) = λi zi (x) + hi (x) Bo rr ad Ejemplo Encontremos la solución general del siguiente sistema: y10 (x) = −2y1 (x) + y2 (x) + 2e−x y20 (x) = y1 (x) − 2y2 (x) + 3x En notación matricial: 0 y = −2 1 1 −2 y+ 2e−x 3x Donde los autovalores y autovectores de A son 1 1 λ1 = −3 , ξ1 = y λ2 = −1 , ξ2 = −1 1 ⇒ y0 = Ay + g(x) ⇒ yh (x) = C1 1 −1 e−3x + C2 1 1 e−x 252 6.1. ALGUNOS COMENTARIOS INICIALES Ahora cambiando variables y = Tz tendremos el siguiente sistema de ecuaciones 0 −x 1 z1 −3 0 2e − 3x z1 0 z = Âz + h ⇒ = +√ z20 0 −1 2e−x + 3x z2 2 r donde yh (x) es la solución general de la homogénea. Como A es real y simétrica, construimos la matriz T facilmente con los autovectores normalizados. Esto es: 1 1 1 1 1 −1 T= √ ⇒ T−1 = √ −1 1 1 1 2 2 y z2 (x) = y devolviendo el cambio de variables tenemos que ⇒ 3 2xe−x + √ (x − 1) + C2 e−x 2 z1 + z2 −z1 + z2 Pr eli y = Tz 1 y= √ 2 √ m como ya sabemos, la solución es inmediata √ x 1 2 −x 3 z1 (x) = e −√ − + C1 e−3x 2 2 3 9 in a con lo cual podemos escribir el siguiente sistema desacoplado de ecuaciones lineales de primer orden √ √ 3 3 z10 + 3z1 = 2e−x − √ x y z20 + 3z2 = 2e−x + √ x 2 2 vemos que 4 1 C1 −3x C2 1 −x √ (z1 + z2 ) = √ e e + x − + xe−x + √ + 3 2 2 2 2 1 C2 C1 −3x 1 −x 5 √ (−z1 + z2 ) = − √ e + √ − e + 2x − + xe−x 2 3 2 2 2 or C1 C2 si utilizamos unas nuevas constantes: C1 = √ y C2 = √ , resulta que podemos escribir la solución de la 2 2 forma: 1 1 1 1 1 4 1 1 −x −x −3x −x e + xe + x− . y = C1 e + C2 e + −1 1 2 5 −1 1 2 3 De esta solución es fácil reconocer que los primeros dos términos se corresponden a la solución del sistema homogéneo y los restantes términos tienen que ver con una solución particular del sistema inhomogéneo. Bo rr ad Ejercicios 1. Encuentre un sistema de ecuaciones diferenciales de primer orden equivalente para las siguientes ecuaciones a) y 00 − 3x2 yy 0 = 0 b) y 000 − 2x(y 0 )2 + 3xy 00 − xy = 0 2. Encuentre la solución general de los siguientes sistemas de dos ecuaciones diferenciales a) y10 = 3y1 − 2y2 , y20 = 2y1 − 2y2 b) y10 = y1 − 2y2 , y20 = 3y1 − 4y2 c) y10 = 2y1 − y2 , y20 = 3y1 − 2y2 d) y10 = y1 + y2 , y20 = 4y1 − 2y2 253 6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES a) y10 = y1 + y2 + 2y3 , y20 = y1 + 2y2 + y3 , y30 = 2y1 + y2 + y3 b) y10 = 3y1 + 2y2 + 4y3 , y20 = 2y1 + 2y3 , y30 = 4y1 + 2y2 + 3y3 c) y10 = y1 + y2 + y3 , y20 = 2y1 + y2 − y3 , y30 = −8y1 − 5y2 − 3y3 d) y10 = y1 − y2 + 4y3 , y20 = 3y1 + 2y2 − y3 , y30 = 2y1 + y2 − y3 a) y10 = 2y1 − y2 + ex , y20 = 3y2 + ex , √ 3y1 − y2 + √ 3ex c) y10 = 2y1 − 5y2 − cos(x) , y20 = y1 − 2y2 + sen(x) d) y10 = y1 + y2 + e−2x , y20 = 4y1 − 2y2 − 2ex Sistemas de ecuaciones diferenciales y el uso de operadores Pr eli 6.2. √ y20 = 3y1 − 2y2 + x m b) y10 = y1 + in a 4. Encuentre la solución general de los siguientes sistemas de ecuaciones diferenciales r 3. Encuentre la solución general de los siguientes sistemas de tres ecuaciones diferenciales En la clase anterior resolvimos algunos sistemas de ecuaciones diferenciales sacándole provecho a la notación matricial. Sin embrago, algunos sistemas son tan simples que tienen un método casi directo para su resolución, como podemos ver a continuación: Ejemplo Resolver el siguiente sistema de ecuaciones diferenciales 2e2t x2 − y . t ẋ = ẏ = t 6= 0. or Rápidamente nos damos cuenta que la primera ecuación puede ser integrada de manera directa: dx = 2e2t dt ⇒ x(t) = e2t + C1 Bo rr ad al sustituir este resultado en la segunda ecuación: e2t + C1 dy = dt t 2 −y ⇒ dy y e4t + 2C1 e2t + C12 + = dt t t esta última ecuación es lineal en y, por lo tanto la sabemos resolver: y(t) = 1 4t 4e + C1 e2t + C12 t + C2 , t t 6= 0 . Anteriormente vimos algunas ventajas que aparecen por el hecho de utilizar la notación de operadores para encontrar una solución de una ecuación diferencial lineal de orden n. Recordemos que una ecuación diferencial lineal de orden n con coeficientes constantes se podı́a escribir de la siguiente manera: P (D)y = Q(x) . (6.5) 254 6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES donde P (D) = a0 + a1 D + a2 D2 + · · · + an Dn , an 6= 0 . = Q1 (x) P21 (D)y1 + P22 (D)y2 + P23 (D)y3 + · · · + P2n (D)yn .. . = .. . Q2 (x) Pn1 (D)y1 + Pn2 (D)y2 + Pn3 (D)y3 + · · · + Pnn (D)yn = Qn (x) . (6.6) in a P11 (D)y1 + P12 (D)y2 + P13 (D)y3 + · · · + P1n (D)yn r con: a2 , a1 , a2 , . . . , an constantes. En el caso de sistemas lineales de ecuaciones diferenciales podemos también hacer uso de esta notación: La solución del sistema (6.6) es el conjunto de funciones: {yn (x)}, cada una de ellas definidas en un intervalo común I. Por ejemplo, para el siguiente sistema se tiene 2y10 (x) + 3y1 (x) + 5y20 (x) − y2 (x) = ex (2D + 3)y1 + (5D − 1)y2 m ⇒ y10 (x) − y1 (x) + 3y20 (x) + y2 (x) (D − 3)y1 + (3D + 1)y2 = sen(x) = ex = sen(x) Pr eli Notemos también que el sistema (6.6) es un caso más general a los estudiados anteriormente, que eran de la forma: y0 (x) = P (x) y(x) + g (x) . Por cuestiones netamente didácticas nos detendremos en el caso n = 2, entendiendo que los resultados aquı́ obtenidos pueden extrapolarse para cualquier valor de n. Cuando n = 2, tenemos entonces: P11 (D)y1 + P12 (D)y2 = Q1 (x) P21 (D)y1 + P22 (D)y2 = Q2 (x) (6.7) Estos sistemas al resolverse para las funciones incógnitas deben contener un número apropiado de constantes y para tal fin existe un teorema que garantiza el número correcto de constantes que deben aparecer. or Teorema: El número de constantes arbitrarias que deben aparecer en la solución del sistema (6.7) debe ser igual al orden de la siguiente expresión: ∆ ≡ P11 (D)P22 (D) − P12 (D)P21 (D) (6.8) Bo rr ad con: ∆ 6= 0. Si se da el caso que ∆ = 0, se dice que el sistema es degenerado. Notemos además que (6.8) tiene la forma de un determinante. Caso no degenerado: ∆ 6= 0 El sistema (6.7) puede ser tratado como un sistema de ecuaciones algebraico. Esto significa que podemos manipular las filas a nuestra conveniencia para obtener su solución o utilizar cualquier técnica para la resolución de sistemas de ecuaciones algebraicas desarrollado en cursos anteriores. 255 6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES Ejemplo Resolver el sistema 2ẋ − x + ẏ + 4y = 1 ẋ − ẏ = t − 1. y10 (x) − y20 (x) = 1 = x − 1. in a 2y10 (x) − y1 (x) + y20 (x) + 4y1 (x) En la notación del operador diferencial serı́a: (2D − 1)y1 + (D + 4)y2 = Dy1 − Dy2 1 = x − 1. 2 2 luego las sumamos para obtener: = D[1] = (D + 4)[x − 1] . Pr eli (D + 4D)y1 − (D + 4D)y2 m Multipliquemos la primera ecuación por D y la segunda por D + 4: (2D2 − D)y1 + (D2 + 4D)y2 r Tal vez sea conveniente adaptar el problema a nuestra notación, es decir, hacemos los siguientes cambios: x(t) = y1 (x) y y(t) = y2 (x). Por lo tanto: (3D2 + 3D)y1 = 0 + D[x − 1] + 4(x − 1) = 1 + 4x − 4 = 4x − 3 esto significa que debemos resolver la siguiente ecuación 3y100 + 3y10 = 4x − 3 con la ayuda de algunos de los métodos anteriormente vistos se obtiene la respectiva solución: or 2 7 y1 (x) = C1 + C2 e−x + x2 − x . 3 3 Bo rr ad Al sustituir y1 (x) en la segunda ecuación del sistema resulta: 7 2 D C1 + C2 e−x + x2 − x − Dy2 3 3 4 7 −C2 e−x + x − − Dy2 3 3 1 4 −x −C2 e + x − − Dy2 3 3 = x−1 = x−1 = 0, por lo tanto: 1 4 y20 = −C2 e−x + x − 3 3 ⇒ 1 4 y2 (x) = C2 e−x + x2 − x + C3 . 6 3 Ahora podemos estudiar el tema del número de constantes que deben aparecer. Del teorema anterior vemos que el determinate ∆ = (2D − 1)(−D) − (D)(D + 4) = −3D2 − 3D 256 6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES Por lo tanto, la solución al sistema será: y2 (x) 7 2 = C1 + C2 e−x + x2 − x 3 3 1 2 4 C1 + 7 −x = C2 e + x − x + . 6 3 4 Ejercicio Resuelva m y1 (x) in a r es de orden 2. Por lo tanto, según el teorema antes mencionado deben existir únicamente dos constantes. Esto significa que tenemos una constante demás. Podemos hallar una relación entre las constantes sustituyendo las dos soluciones encontradas en la primera ecuación del sistema, recordemos la la segunda ecuación ya fue utilizada para encontrar y2 (x). Esto es 2 2 7 1 2 4 −x −x (2D − 1) C1 + C2 e + x − x + (D + 4) C2 e + x − x + C3 = 1 3 3 6 3 C1 + 7 −6 − C1 + 4C3 = 1 ⇒ C3 = 4 = ex (D + 1)y1 + (D − 1)y2 = x. Pr eli (D + 3)y1 + (D + 1)y2 En este caso ∆ es de orden cero y no deben aparecer constantes arbitrarias. Caso degenerado: ∆ = 0 Como puede suceder para los sistemas algebraicos el sistema de ecuaciones puede ser degenerado, es decir, podrá tener infinitas soluciones o no tener solución, por ejemplo, el sistema: 2x + 3y = 5 2x + 3y = 7, 2x + 3y = 0 4x + 6y = 0, or no tiene solución. Y el sistema Bo rr ad tiene infinitas soluciones. En ambos casos, el determinante conformado por los coeficientes de x y de y es cero. Notemos también que para el primer sistema, si despejamos y de la segunda ecuación y= 7 − 2x 3 y la sustituimos en la primera resulta: 7 − 2x 2x + 3 =5 3 ⇒ 7=5 No existe solución cuando el sistema no se reduce a una igualdad. Si hacemos lo mismo con el segundo sistema, despejamos y en una 2x y=− 3 257 6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES y la sustituimos en la otra 2x 2x + 3 − =0 3 ⇒ 0 = 0. Existen infinitas soluciones si el sistema se reduce a una igualdad del tipo 0 = 0. Con los sistemas de ecuaciones diferenciales pasa lo mismo. Veamos un par de ejemplos. = x Dy1 − Dy2 = x2 . in a Dy1 − Dy2 r El sistema es degenerado porque −D2 − (−D2 ) = 0. Si despejamos Dy1 de la segunda ecuación Dy1 = Dy2 + x2 y sustituimos en la primera: x2 = x . ⇒ m Dy2 + x2 − Dy2 = x Pr eli este sistema no tiene solución. Ejercicio Demuestre que el siguiente sistema es degenerado y tiene infinitas soluciones Dy1 − Dy2 = x 4Dy1 − 4Dy2 = 4x . Volvamos al caso no degenerado. Como hemos mencionado el hecho de usar los operadores hace que el sistema puede ser tratado de manera similar al de un sistema algebraico, y por lo tanto, podemos utilizar cualquiera de los métodos para la resolución de sistemas algebraicos. Consideremos el siguiente sistema de ecuaciones lineales: = Q1 (x) P21 (D)y1 + P22 (D)y2 + P23 (D)y3 = Q2 (x) P31 (D)y1 + P32 (D)y2 + P33 (D)y3 = Q3 (x) . or P11 (D)y1 + P12 (D)y2 + P13 (D)y3 (6.9) Bo rr ad El determinante que podemos asociar a este sistema es: ∆ = P11 (D)P22 (D)P33 (D) + P21 (D)P32 (D)P13 (D) + P12 (D)P23 (D)P13 (D) − P31 (D)P22 (D)P13 (D) − P32 (D)P23 (D)P11 (D) − P21 (D)P12 (D)P33 (D) La manera usual de resolver este sistema es eliminar algunas de las variables, digamos y3 , de manera que nos queda un sistema reducido a dos ecuaciones, digamos: P̃11 (D)y1 + P̃12 (D)y2 = Q̃1 (x) P̃21 (D)y1 + P̃22 (D)y2 = Q̃2 (x) (6.10) Si de este sistema eliminamos y2 , entonces lo que queda es una solo ecuación P̂11 (D)y1 = Q̂1 (x) (6.11) 258 6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES = Q̃1 (x) P̃21 (D)y1 + P̃22 (D)y2 = Q̃2 (x) P̃31 (D)y1 + P̃32 (D)y2 + P̃33 (D)y3 = Q̃3 (x) . (6.12) in a P̃11 (D)y1 r la cual podemos resolver para y1 . Al sustituir este valor en cualquiera de las ecuaciones (6.10) se obtiene y2 . Finalmente, la sustitución de y1 y y2 en cualquiera de las ecuaciones de (6.9) permite obtener y3 . El número de constantes quedará determinado por el oden de ∆. Otra manera de proceder es manipular el sistema (6.9) de manera tal que se obtenga un sistema equivalente triangular, es decir, de la forma: m Aquı́, las soluciones se van obteniendo desde la primera ecuación hasta la última. Es bueno resaltar el hecho de que las soluciones obtenidas utilizando un sistema equivalente triangular contienen el número correcto de constantes requerido por el sistema. Entonces, para obtener un sistema equivalente triangular procedemos de la siguiente manera: decidimos dejar una de las ecuaciones sin intervenir y manipulamos las otras dos, repetimos este procedimiento las veces que sean convenientes hasta obtener el sistema deseado. Ejemplo Resolver el sistema ẋ − 2x + y − z (D − 2)y1 + y2 − y3 = x = t = 1 2x + 6y + ż = 0 ⇒ −y1 + (2D + 1)y2 + 2y3 = 1 Pr eli −x + 2ẏ + y + 2z 2y1 + 6y2 + Dy3 = 0 Retenemos la primer ecuación del sistema Creamos un nuevo sistema multiplicando la primera ecuación por 2 y sumándola con la segunda, para de esta manera eliminar y3 . Con el mismo fin, multiplicamos la primera por D y la sumamos con la tercera. Con esto obtenemos: (D − 2)y1 + y2 − y3 = x (D − 5)y1 + (2D + 3)y2 = 2x + 1 (D − 2D + 2)y1 + (D + 6)y2 = 1 or 2 Podemos retener la primera y tercera ecuación y cambiamos la segunda. Entonces multiplicamos la tercera por −2 y la sumamos con la segunda: = x = 2x − 1 (D2 − 2D + 2)y1 + (D + 6)y2 = 1 Bo rr ad (D − 2)y1 + y2 − y3 (−2D2 + 6D − 9)y1 − 9y2 Retenemos la primera y segunda ecuación y cambiamos la tercera. Lo podemos hacer multiplicando la segunda por (D + 6)/9 y luego se suma con la tercera: (D − 2)y1 + y2 − y3 = x 2 = 2x − 1 = 12x + 5 (−2D + 6D − 9)y1 − 9y2 3 2 (−D + 3D + 9D − 36)y1 259 6.3. SISTEMAS DE ECUACIONES DIFERENCIALES Y LA TRANSFORMADA DE LAPLACE Por lo tanto, ya se puede integrar la última ecuación: y1 (x) = C1 3 x 2C2 − 3 x 2 2 37 e − e 2 + x + x + C3 , 3 3 3 9 3 = 2x − 1 in a −3C1 e3 x + 15C2 e− 2 x − 6 x2 − 29x + 22 − 9C3 − 9y2 r al sustituir y1 (x) en la segunda ecuación resulta que simplemente queda despejar y2 (x) C1 3 x 2C2 − 3 x 2 2 37 (−2D2 + 6D − 9) e − e 2 + x + x + C3 − 9y2 = 2x − 1 3 3 3 9 es decir: 23 C1 3x 5C2 − 3 x 2 2 31 e + e 2 − x − x+ − C3 , 3 3 3 9 9 queda por último sustituir y1 (x) y y2 (x) en la primera ecuación y despejar y3 (x): C1 3 x 2C2 − 3 x 2 2 37 C1 5C2 − 3 x 2 2 31 (D − 2) e − e 2 + x + x + C3 + − e3x + e 2 − x − x+ 3 3 3 9 3 3 3 9 3 31 4C2 e− 2 x − 2 x2 − x+ 3 m y2 (x) = − por lo tanto: 23 − C 3 − y3 9 20 − 3C3 − y3 3 Pr eli 34 20 x+ − 3C3 − y3 . 3 3 No es necesario investigar sobre el número de constantes, en todo caso, y solo por curiosidad se puede ver que el determinante del sistema, al igual que para el sistema triangular, es de orden 3: D−2 1 −1 3 2 2D + 1 2 ∆= = 2 D − 3 D − 9D + 36 . −1 2 6 D 3 y3 (x) = 4C2 e− 2 x − 2 x2 − Sistemas de ecuaciones diferenciales y la transformada de Laplace or 6.3. Bo rr ad A diferencia del método anterior, el método de transformadas de Laplace solo se puede aplicar si además del sistema se suministran el conjunto completo de condiciones iniciales. Esto significa que la solución particular obtenida ya satisface las condiciones iniciales y no necesitamos evaluar las constantes arbitrarias que puedan resultar. Como en capı́tulos anteriores resolvimos algunas ecuaciones diferenciales utilizando transformadas de Laplace, podemos pasar directamente a un ejemplo para ver como se aplica el método cuando se tienen sistemas de ecuaciones diferenciales ( ¡No necesariamente de primer orden!). Ejemplo Resolver el sistema ẍ − 4x + ẏ = 0 −4ẋ + ÿ + 2y = 0 con: x(0) = 0 , ẋ(0) = 1 , y(0) = −1 , ẏ(0) = 2 . En este caso el sistema consiste de dos ecuaciones con dos incógnitas, pero debe quedar claro que el método se puede extender para sistemas con un número mayor de ecuaciones. 260 = x = x 6.3. SISTEMAS DE ECUACIONES DIFERENCIALES Y LA TRANSFORMADA DE LAPLACE Como vimos anteriormente, utilizando la notación de las transformadas de Laplace el sistema se puede escribir de la siguiente manera. L [y100 ] − 4L [y1 ] + L [y20 ] −4L [y10 ] + L [y200 ] + 2L [y2 ] = 0 = 0 2 −4sL [y1 ] + 4y1 (0) + s L [y2 ] − y20 (0) − sy2 (0) + 2L [y2 ] = 0 = 0 in a s2 L [y1 ] − y10 (0) − sy1 (0) − 4L [y1 ] + sL [y2 ] − y2 (0) r Donde también, hemos rebautizado las funciones de la siguiente manera: y1 (x) = x(t) y y2 (x) = y(t). Revisando las notas de las clases correspondientes a las transformadas de Laplace, podemos ver que el sistema anterior queda de la siguiente forma: al sustituir los respectivos valores para las condiciones iniciales y factorizando, resulta: (s2 − 4)L [y1 ] + sL [y2 ] 0 −4sL [y1 ] + (s + 2)L [y2 ] − 2 + s = 0 m = 2 (6.13) (6.14) Pr eli Este último sistema puede ser tratado como un sistema algebraico para L [y1 ] y L [y2 ]. Si multiplicamos la primera por 4s, la segunda por s2 − 4 y luego las sumamos eliminamos L [y1 ], resulta: (s4 + 2s2 − 8)L [y2 ] = −s3 + 2s2 + 4s − 8 despejando L [y2 ]: " # √ √ −s3 + 2s2 + 4s − 8 1 1 + 2 1 − 2 8(s − 2) −s3 + 2s2 + 4s − 8 √ + √ − 2 = = L [y2 ] = s4 + 2s2 − 8 (s2 + 4)(s2 − 2) 6 s+ 2 s− 2 s +4 Bo rr ad or Ahora debemos buscar en nuestra tablita de transformadas de Laplace, para hallar las transformadas inversas: √ h √ −√2x i 1+ 2 √ L (1 + 2)e = s+ 2 √ h √ √ i 1− 2 √ L (1 − 2)e 2x = s− 2 s L [−8 cos(2x)] = −8 2 s + 22 2 L [8 sen(2x)] = 8 2 s + 22 por lo tanto: i √ √ √ √ 1h (1 + 2)e− 2x + (1 − 2)e 2x − 8 cos(2x) + 8 sen(2x) 6 Para calcular y1 (x), podemos sustituir L [y2 ] en cualquiera de las ecuaciones (6.13) - (6.14) y resolver para L [y1 ], esto es: 3 −s + 2s2 + 4s − 8 2 2 (s − 4)L [y1 ] + sL [y2 ] = 0 ⇒ (s − 4)L [y1 ] + s =0 (s2 + 4)(s2 − 2) y2 (x) = 261 6.3. SISTEMAS DE ECUACIONES DIFERENCIALES Y LA TRANSFORMADA DE LAPLACE esto es: " √ √ # s(s − 2) 1 2− 2 2+ 2 s+2 √ + √ −4 2 L [y1 ] = 2 =− (s + 4)(s2 − 2) 12 s − 2 s + 2 s +4 Bo rr ad or Pr eli m in a r Nuevamente, buscando en las tablas de transformadas de Laplace, término por término, se llega finalmente a: i √ √ √ √ 1 h y1 (x) = − (2 − 2)e 2x + (2 + 2)e− 2x − 4 cos(2x) − 4 sen(2x) . 12 262 6.3. SISTEMAS DE ECUACIONES DIFERENCIALES Y LA TRANSFORMADA DE LAPLACE Ejercicios 1. Resuelva cada uno de los siguientes sistemas de ecuaciones diferenciales a) ẋ = −x2 , ẏ = −y b) ẋ = 3e−t , ẏ = x + y c) ẋ = 2t , ẏ = 3x + 2t , d) ẋ = 3x + 2e3t , ẋ + ẏ − 3y = sen(2t) e) ẍ + 4x = 3 sen(t) , ẋ − ÿ + y = 2 cos(t) in a r ż = x + 4y + t f ) ẍ − 4x − 2ẏ + y = t , 2ẋ + x + ÿ + y = 0 a) Dx + 2Dy = et , Dx + 2Dy = t b) Dx − Dy = et , 3Dx − 3Dy = 3et d) (D − 2)x + (D − 2)y = t , Pr eli c) (D2 − 1)x + (D2 − 1)y = 0 , (D2 + 4)x + (D2 + 4)y = 0 m 2. Verifique que los siguientes sistemas son degenerados. Encuentre las soluciones si existen (D + 3)x + (D + 3)y = t 3. Resuelva los siguientes sistemas de ecuaciones diferenciales a) (D − 1)x = 0 , −x + (D − 3)y = 0 , −x + y + (D − 2)z = 0 b) (D − 1)x = 0 , 3x + 2(D + 1)y = 0 , 2y + (2D − 3)z = 0 c) (D − 2)x = 0 , −3x + (D + 2)y = 0 , −2y + (D − 3)z = 0 or d) Dx − y + z = 0 , −x + (D − 1)y = 0 , −x + (D − 1)z = 0 4. Resuelva los siguientes sistemas utilizando transformadas de Laplace x − ẏ = 1 , Bo rr ad a) ẋ − y = t , b) 3ẋ + 3x + 2y = et , 4x − 3ẏ + 3y = 3t , x(0) = 2 , y(0) = 2 x(0) = 1 , y(0) = −1 c) ẋ + ẏ − 4y = 1 , x + ẏ − 3y = t2 , x(0) = 2 , y(0) = −2 d) ẍ − ẏ = 1 − t , ẋ + 2ẏ = 4et + x x(0) = 0 , y(0) = 0 , x0 (0) = 1 263 r 7 Bo rr ad or Pr eli m Métodos de soluciones por series in a Capı́tulo 264 7.1. OTRA VEZ ALGEBRA DE SERIES 7.1. Otra vez Algebra de Series Las series se suman n=0 ∞ X n bn (x − x0 ) = n=0 Las series se multiplican "∞ X an (x − x0 ) n=0 n (an + bn ) (x − x0 ) n=0 #" n ∞ X ∞ X # n bn (x − x0 ) = n=0 ∞ X cn (x − x0 ) n=0 con r n an (x − x0 ) + n in a ∞ X cn = a0 bn + a1 bn−1 + a2 bn−2 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0 Las series se derivan m P∞ ∞ n d [ n=0 an (x − x0 ) ] X n−1 = an n (x − x0 ) dx n=1 Los ı́ndices en las series son mudos ∞ X n−1 an n (x − x0 ) n=1 = Pr eli Nótese como cambia el comienzo de la serie. ∞ X j−1 aj j (x − x0 ) = j=1 ∞ X k ak+1 (k + 1) (x − x0 ) k=0 en la última sumatoria hemos hecho k = j − 1, por lo cual j = k + 1. Las series se igualan n=0 ∞ X n bn (x − x0 ) = ∞ X n=1 ∞ X n−1 an n (x − x0 ) or ∞ X n bn (x − x0 ) = n=0 k ak+1 (k + 1) (x − x0 ) = Bo rr ad an+1 (n + 1) (x − x0 ) n n=0 k=0 por lo cual ∞ X bn = an+1 (n + 1) si la igualdad hubiera sido ∞ X n=0 7.2. n an n (x − x0 ) = ∞ X n−1 an n (x − x0 ) n=1 = ∞ X n an+1 (n + 1) (x − x0 ) n=0 =⇒ an+1 = an (n + 1) Un Ejemplo conocido. Consideremos la conocida ecuación diferencial y 00 + y = 0 265 7.2. UN EJEMPLO CONOCIDO. se propone encontrar una solución entorno a x = 0 por lo tanto 0 P∞ ∞ y = n=1 nan xn X n y= an x =⇒ 00 P∞ n=0 y = n=2 n (n − 1) an xn−2 n (n − 1) an xn−2 + n=2 y 00 + y = 0 ∞ X =⇒ (k + 2) (k + 1) ak+2 xk + [(k + 2) (k + 1) ak+2 + ak ] xk = 0 entonces ak+2 = −ak (k + 2) (k + 1) −a2 −1 (−a0 ) a0 a0 = · = = ; 4·3 4·3 2 4·3·2·1 4! a2 = −a0 ; 2·1 a6 = −a4 −a0 a0 = =− 6·5 6·5·4·3·2·1 6! a4 = con k = 0, 1, 2, · · · Pr eli =⇒ por lo que a n xn = 0 n=0 k=0 (k + 2) (k + 1) ak+2 + ak = 0 ∞ X m ∞ X =⇒ an xn = 0 n=0 k=0 y 00 + y = 0 ∞ X r ∞ X =⇒ in a y 00 + y = 0 en general or k a2k = (−1) a0 (2k)! Similarmente, para los impares se obtiene −a1 ; 3·2 a7 = −a5 −a1 −a1 = = 7·6 7·6·5·4·3·2·1 7! Bo rr ad a3 = a5 = −a3 −1 (−a1 ) a1 a1 = · = = ; 5·4 5·4 3·2 5·4·3·2·1 5! de donde k a2k+1 = (−1) a1 (2k + 1)! 266 7.3. OTRO EJEMPLO MENOS CONOCIDO PERO IMPORTANTE De este modo, la solución deseada queda como an xn = a0 + a1 x + n=0 (−a0 ) 2 (−a1 ) 3 a0 4 a1 4 (−a0 ) 6 (−a1 ) 7 x + x + x + x + x + x + ··· 2! 3! 4! 5! 6! 7! ∞ X 3 5 7 x2 x4 x6 + a1 x − x + x − x + · · · 1 − + − + · · · an xn = a0 2! 4! 3! 5! | | {z 6! } {z 7! } n=0 P∞ k=0 y= ∞ X an xn = a0 n=0 7.3. ∞ k X (−1) k=0 (2k)! (−1)k (2k)! (−1)k 2k+1 k=0 (2k+1)! x P∞ x2k x2k + a1 in a y= r ∞ X ∞ k X (−1) x2k+1 = a0 cos x + a1 sen x (2k + 1)! k=0 m y= Otro Ejemplo menos conocido pero importante Considere ecuación de Hermite1 la cual aparece en la solución del oscilador armónico cuántico Pr eli y 00 − 2xy 0 + λy = 0 Para resolver esta ecuación alrededor del punto x0 = 0, proponemos la siguiente expansión en series de potencias como solución: 0 P∞ ∞ y (x) = j=1 jaj xj−1 X aj xj ⇒ y(x) = P∞ 00 j=0 y (x) = j=2 j(j − 1)aj xj−2 or entonces la ecuación de Hermite queda como ∞ ∞ ∞ X X X j(j − 1)aj xj−2 − 2 jaj xj + λ aj xj = 0 j=2 j=1 j=0 Bo rr ad reacomodando ı́ndices queda como " ∞ X # (k + 2) (k + 1)ak+2 x k ∞ ∞ X X j j − 2 jaj x + λ aj x = 0 j=1 k=0 o equivalentemente (2a2 + λa0 ) + a0 = − 2a2 λ ∞ X j=0 [(j + 2) (j + 1)aj+2 − 2jaj + λaj ] xj = 0 j=1 y aj+2 = − (λ − 2j) aj (j + 2) (j + 1) n≥1 1 Charles Hermite, (1822-1901). Matemático francés, especializado en el estudio de teorı́a de funciones. Profesor en la Universidad de Parı́s, ofreció importantes aportaciones al álgebra, las funciones abelianas y la teorı́a de las formas cuadráticas. 267 7.3. OTRO EJEMPLO MENOS CONOCIDO PERO IMPORTANTE y tendrá como solución λ 2 (4 − λ) λ 4 (8 − λ) (4 − λ) λ 6 y (x) = a0 1 − x − x − x − · · · 4! 6! {z } | 2! y0 y1 in a (2 − λ) 3 (6 − λ) (2 − λ) 5 (10 − λ) (6 − λ) (2 − λ) 7 + a1 x + x + · · · x + 3! x + 5! 7! {z } | r nótese que para valores pares de λ una u otra serie se corta y genera polinomios de la forma Polinomio asociado y0 (x) = 1 y1 (x) = x y0 (x) = 1 − 2x2 y1 (x) = x − 32 x3 4 y0 (x) = 1 − 10x2 + 35 3 x m Ecuación de Hermite y 00 − 2xy 0 = 0 00 y − 2xy 0 + 2y = 0 y 00 − 2xy 0 + 4y = 0 y 00 − 2xy 0 + 6y = 0 y 00 − 2xy 0 + 8y = 0 Pr eli λ 0 2 4 6 8 También, puede ser definido a partir de una ecuación: Hλ (x) = (−1)λ ex o a través de una relación de recurrencia 2 dλ −x2 e , dxλ λ = 0, 1, 2, .... (7.1) Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) = 0 or Las ecuaciones antes mencionadas son ecuaciones homogéneas. En el caso que la ecuación diferencial a resolver por series sea una ecuación inhomogéna, se procederá del mismo modo como se propuso en el caso de que los coeficientes de la ecuación diferencial fueran constantes. Esto es se resuelve, por series la homogénea y luego se propone una solución particular, en forma de serie de potencias, la cual se iguala con la expansión, también en series de potencias, del término inhomogéneo. Como ejemplo, antes de proceder a casos más generales resolvamos la ecuación de Airy2 , pero inhomogéna planteada arriba. A pesar de su simplicidad, esta ecuación admite sólo soluciones en forma de serie. ahora el caso de la ecuación homogénea de Airy Bo rr ad y 00 − xy = 0 Luego, compruebe, siguiendo el procedimiento arriba expuesto que una posible ecuación inhomogénea de Airy y 00 − xy = exp (x) tiene como solución la siguiente serie de potencias 1 1 1 1 1 y (x) = y (0) 1 + x3 + · · · + y 0 (0) x + x4 + · · · + x2 + x3 + x4 + · · · 6 12 2 6 24 {z } | {z } | {z } | yih y1 y2 | {z } yh 2 George Biddell Airy (1801-1892) Matemático y Astrónomo Inglés con contribuciones importantes en la solución de ecuaciones diferenciales y su utilización en Astronomı́a. Mejoró significativamente las estimaciones teóricas de la orbita de Venus y la Luna. Igualmente realizó estudios matemáticos de la formación del arcoiris y la densidad de la tierra. 268 7.4. MÉTODO DE DIFERENCIACIONES SUCESIVA Nótese que los dos primeros términos corresponden a la solución de la ecuación homogénea y el último representa la serie que anula el término inhomogéneo. Hemos hecho patente la dependencia de las constantes de integracón de las condiciones iniciales. 7.4. Método de Diferenciaciones Sucesiva n X ai (x) y (i) (x) = F(x) (7.2) in a a0 (x) y(x) + a1 (x) y 0 (x) + · · · + an−1 (x) y n−1 (x) + an (x) y n (x) = r En general, dada la Ecuación diferencial i=o Si los coeficientes a0 (x) · · · an (x) son funciones analı́ticas en x = x0 (se pueden expresar como una serie de Taylor de (x − x0 ) que converge al valor de la función con un radio de convergencia de |x − x0 | < ρ), entonces, la ecuación diferencial 7.2 tendrá como solución única, y = y(x) de la ecuación homogéna una serie de potencias la cual satisface las n condiciones iniciales y 0 (x0 ) = c2 ; y 00 (x0 ) = c3 ; · · · y 00 (x0 ) = cn m y(x0 ) = c1 ; n X i (x − x0 ) y se i! i=o P∞ propondrá una solución particular de la inhomogénea, también en términos de una serie yih (x) = j=0 aj xj . Otra forma de hacerlo es proceder directamente y conservar el término inhomogéneo y a partir de la ecuación completa encontrar los coeficientes de la expansión por Taylor alrededor del punto en el cual se disponga de las condiciones iniciales. La solución en series de Taylor será F (i) (x0 ) Pr eli Adicionalmente, se expandirá en Taylor la función inhomogénea, esto es F(x) = yh (x) = y(0) + y 0 (0)x + y 00 (0) x2 x3 + y 000 (0) + · · · 2! 3! Ası́ para la siguiente ecuación diferencial y 00 − (x + 1) y 0 + x2 y = x; con y(0) = 1; y y 0 (0) = 1. or los coeficientes de la expansión se obtienen de los valores de las derivadas en x0 = 0, los cuales salen de las condiciones iniciales, de la ecuación diferencial esto es y(0) = 1; y 0 (0) = 1; y 00 (0) = (0) + (0 + 1) y 0 (0) − 02 y(0) = 1 Bo rr ad y de las derivadas de la ecuación diferencial y 000 (x) = y 0 (x) + (x + 1) y 00 (x) − 2x y(x) − x2 y 0 (x) + 1 y 000 (0) = y 0 (0) + (0 + 1) y 00 (0) − 2(0) y(0) − 02 y 0 (0) + 1 y 000 (0) = 1 + 1 + 1 = 3 finalmente, la solución x2 x3 + + ··· 2 2 Esta solución contiene las dos soluciones (la homogénea y la particular de la inhomogénea) sumadas Dado |x| < 1 y la ecuación diferencial y 00 + yh (x) = 1 + x + x 1 y0 − y = exp (2x) ; 1 − x2 1 − x2 con y(0) = 1; y y 0 (0) = 1. 269 7.5. MÉTODOS DE LOS COEFICIENTES INDETERMINADOS compruebe que tiene como solución general por series 1 1 1 1 2 1 3 1 4 y (x) = y (0) 1 + x2 + x4 + x6 + · · · + y 0 (0) x + x + x + x + ··· 2 24 80 2 3 8 1 1 1 1 6 4 7 79 y (x) = 1 + x + x2 + x3 + x4 + x5 + x − x − x8 + · · · 3 6 30 180 315 10 080 Métodos de los Coeficientes Indeterminados in a 7.5. En general, para encontrar la solución a la ecuación antes mencionada n X r y al incorporar los valores de las condiciones iniciales se obtiene ai (x) y (i) (x) = F(x) m i=o Pr eli Se expanden por series de potencias cada uno de los coeficientes a0 (x) · · · an (x), la función F(x) y se expande también la serie ∞ j X (x − x0 ) y(x) = cj j! j=0 luego de bastante transpiración se despejan los coeficiente c0 · · · cn · · · veamos el ejemplo con la misma ecuación del ejemplo anterior. y 00 − (x + 1) y 0 + x2 y = x; con y(0) = 1; y 0 (0) = 1. y or Como x0 = 0, proponemos la siguiente expansión en series de potencias como solución: P∞ y 0 (x) = j=1 jcj xj−1 ∞ X y(x) = cj xj =⇒ P∞ 00 j=0 y (x) = j=2 j(j − 1)cj xj−2 y al sustituir ∞ X j(j − 1)cj xj−2 − (x + 1) Bo rr ad j=2 expandiendo ∞ X j(j − 1)cj xj−2 − j=2 ∞ X ∞ X jcj xj−1 + x2 j=1 jcj xj − j=1 ∞ X cj xj = x j=0 ∞ X j=1 jcj xj−1 + ∞ X cj xj+2 = x j=0 si hacemos j − 2 = l en el primer término, j − 1 = k en el tercero y j + 2 = m en el cuarto, tenemos ∞ X (l + 2) (l + 1) cl+2 xl − l=0 acomodando ∞ X n=0 ∞ X j=1 jcj xj − ∞ X (k + 1) ck+1 xk + k=0 ((n + 2) (n + 1) cn+2 − ncn − (n + 1) cn+1 ) xn + ∞ X cm−2 xm = x m=2 ∞ X cm−2 xm = x m=2 270 7.5. MÉTODOS DE LOS COEFICIENTES INDETERMINADOS por lo tanto c2 − c1 = 0 3 · 2 c3 − c1 − 2 c2 = 1 y la relación de recurrencia para n ≥ 2 r (n + 2) (n + 1) cn+2 − ncn − (n + 1) cn+1 − cn−2 = 0 in a con la cual se obtienen todos los demás coeficientes. Si la ecuación es y 00 + (sin x) y 0 + (exp x) y = 0 m se expanden los coeficientes 1 3 1 5 1 2 1 3 1 4 1 5 00 0 y + x− x + x + ··· y + 1 + x + x + x + x + x + ··· y = 0 6 120 2 6 24 120 Pr eli se propone la solución en términos de series de potencias P∞ y 0 (x) = j=1 jcj xj−1 ∞ X y(x) = cj xj ⇒ P∞ 00 j=0 y (x) = j=2 j(j − 1)cj xj−2 por lo cual X X ∞ ∞ ∞ X 1 1 jcj xj−1 + 1 + x + x2 + · · · cj xj = 0 j(j − 1)cj xj−2 + x − x3 + · · · 6 2 j=1 j=0 j=2 acomodando Bo rr ad or (2c2 + c0 ) + (6c3 + 2c1 + c0 ) x + (12c4 + 3c2 + c1 + c0 ) x2 + (20c5 + 4c3 + c2 + c1 + c0 ) x3 + · · · = 0 2c2 + c0 = 0 6c3 + 2c1 + c0 = 0 12c4 + 3c2 + c1 + c0 = 0 20c5 + 4c3 + c2 + c1 + c0 = 0 .. . Ejercicio. Utilice el mismo método para la ecuación ejercicio anterior y 00 + x 1 y0 − y = e2x ; 1 − x2 1 − x2 con y(0) = 1; y y 0 (0) = 1. 271 7.6. LOS PUNTOS Y LAS ESTRATEGIAS 7.6. Los Puntos y las Estrategias Dada una ecuación diferencial del tipo y 00 + ⇒ Q (x) 0 R (x) y + y=0 P (x) P (x) Q (x) = l1 P (x) con l1 finito lı́m q (x) ≡ lı́m x→x0 R (x) = l2 P (x) con l2 finito Q(x) P (x) y q (x) = x→x0 x→x0 O también, lo que es lo mismo, que p(x) = de ese punto x = x0 . R(x) P (x) y q (x) = R(x) P (x) m lı́m p(x) ≡ lı́m x→x0 Q(x) P (x) in a Puntos ordinarios Un punto ordinario x = x0 será aquel alrededor del cual p(x) = sean analı́ticas en ese punto o r P (x) y 00 + Q (x) y 0 + R (x) y = 0 tengan una expansión en Taylor alrededor Pr eli Puntos singulares regulares Un punto x = x0 se llamará punto singular regular si lı́m (x − x0 ) p(x) ≡ lı́m (x − x0 ) x→x0 x→x0 2 2 lı́m (x − x0 ) q (x) ≡ lı́m (x − x0 ) x→x0 Q (x) = l3 P (x) x→x0 R (x) = l4 P (x) con l3 finito con l4 finito 2 2 R(x) P (x) tengan or O también, lo que es lo mismo, que p(x) (x − x0 ) = (x − x0 ) Q(x) P (x) y q (x) (x − x0 ) = (x − x0 ) una expansión en Taylor alrededor de ese punto. Puntos singulares irregulares Ninguna de las anteriores Ecuaciónes e intervalos en puntos regulares Bo rr ad 7.7. La ecuación de Legendre3 (1 − x2 ) y 00 − 2x y 0 + λ(λ + 1) y = 0 tiene puntos regulares en x 6= ±1 y puntos singulares regulares en x = ±1. Pero es analı́tica en x ∈ (−1, 1) lo tanto, todos los x son ordinarios si x ∈ (−1, 1). En ese intervalo se propone una solución y(x) = ∞ X an xn n=0 3 Adrien Marie Legendre (1752-1833). Matemático francés, encuadrado en la escuela de Parı́s, que surgió tras la revolución de 1789. Realizó una teorı́a general de las funciones elipticas y divulgó numerosos trabajos de investigadores jóvenes en el campo del análisis matemático. 272 7.7. ECUACIÓNES E INTERVALOS EN PUNTOS REGULARES por lo tanto 2 (1 − x ) ∞ X n(n − 1)an x n−2 − 2x n=2 ∞ X n an x n−1 + λ(λ + 1) n=1 ∞ X an xn = 0 n=0 multiplicando y acomodando ∞ ∞ ∞ ∞ X X X X (j + 2)(j + 1)aj+2 xj − n(n − 1)an xn − 2 n an xn + λ(λ + 1) an xn = 0 n=2 n=1 n=0 r j=0 in a expandiendo 0 =2a2 + λ(λ + 1)a0 {(λ + 2)(λ − 1)a1 + (3 · 2)a3 } x+ ∞ X + {(n + 2)(n + 1)an+2 + (λ + n + 1)(λ − n)an } xn n=2 m donde hemos utilizado −n(n − 1) − 2n + λ(λ + 1) = (λ + n + 1)(λ − n) por lo tanto y las potencias impares serán Pr eli (λ + 1)λ a0 2 (λ + 3)(λ + 1)λ(λ − 2) a4 = a0 4! (λ + 2n − 1)(λ + 2n − 3) · · · (λ + 1)λ(λ − 2) · · · (λ − 2n + 2) a2n = (−1)n a0 (2n)! a2 = − (λ + 2)(λ − 1) a1 3! (λ + 4)(λ + 2)(λ − 1)(λ − 3) a1 a5 = 5! (λ + 2n)(λ + 2n − 2) · · · (λ + 2)(λ − 1) · · · (λ − 2n + 1) a2n+1 = (−1)n a1 (2n + 1)! or a3 = − Bo rr ad y su solución general de la forma y(x) = a0 y0 (x) + a1 y1 (x) con (λ + 1)λ 2 (λ + 3)(λ + 1)λ(λ − 2) 4 x + x + ··· 2 4! (λ + 2)(λ − 1) 3 (λ + 4)(λ + 2)(λ − 1)(λ − 3) 5 y1 (x) = x − x + x + ··· 3! 5! y0 (x) = 1 − si λ = 2n una de las series se corta solución es un polinomio de potencias pares y si λ = 2n + 1 la otra se corta en uno de potencias impares 273 7.8. EL MÉTODO DE FROBENIUS λ 0 1 2 3 4 Ecuación de Legendre (1 − x2 ) y 00 − 2x y 0 = 0 (1 − x2 ) y 00 − 2x y 0 + 2 y = 0 (1 − x2 ) y 00 − 2x y 0 + 6 y = 0 (1 − x2 ) y 00 − 2x y 0 + 12 y = 0 (1 − x2 ) y 00 − 2x y 0 + 20 y = 0 Polinomio Asociado y0 (x) = 1 y1 (x) = x y0 (x) = 1 − 3x2 y1 (x) = x − 35 x3 4 y0 (x) = 1 − 10x2 + 35 3 x Pn (x) = 1 dn 2 (x − 1)n , n!2n dxn in a r Los polinomios de Legendre son funciones que surgen en problemas de electrostática como solución de la ecuación de Legendre y son efectivamente polinomios para λ entero. Los Polinomios de Legendre también pueden ser generados a partir de la Fórmula de Rodrı́gues n = 0, 1, 2, ..... con P0 (x) = 1. También se dispone de una relación de recurrencia 7.8. m (n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x) El Método de Frobenius Pr eli Para la solución de ecuaciones diferenciales lineales ordinarias alrededor de puntos singulares regulares se utiliza el método de Frobenius4 . Dada una ecuación diferencial y 00 + F1 (x) y 0 + F2 (x) y = 0 y 00 + ⇐⇒ f1 (x) 0 f2 (x) y + 2 y =0 (x − x0 ) (x − x0 ) (7.3) donde F1 (x) y F2 (x) tienen singularidades regulares enx = x0 y por lo tanto f1 (x) y f2 (x) son analı́ticas alrededor de ese punto entonces, la propuesta de solución será una serie de Frobenius m y(x) = (x − x0 ) ∞ X n an (x − x0 ) (7.4) or n=0 Bo rr ad donde n es entero positivo, pero m puede ser entero positivo (entonces la serie de Frobenius es una serie de Taylor) o entero negativo (entonces la serie de Frobenius es una serie de Laurent), o un racional. Por lo cual una serie de Frobenius incluye a las serie de Taylor y Laurent. Para hacer las cosas más simples supongamos, sin perder generalidad, x0 = 0. Además, como f1 (x) y f2 (x) son analı́ticas entonces f1 (x) = ∞ X bn x n y f2 (x) = n=0 ∞ X cn x n (7.5) n=0 por lo tanto 2 00 0 x y + x f1 (x) y + f2 (x) y = 0 " ⇐⇒ 2 00 x y +x ∞ X n=0 # n bn x " 0 y + ∞ X # cn x n y=0 n=0 4 Ferdinand Georg Frobenius (1849-1917) Matemático Alemán famoso por sus contribuciones en Teorı́a de Grupos y métodos para resolver ecuaciones diferneciales. 274 7.8. EL MÉTODO DE FROBENIUS y con la propuesta de serie de Frobenius y(x) = x m ∞ X ∞ X " an x 0 n =⇒ y (x) = mx m−1 n=0 # an x n " +x m n=0 ∞ X # nan x n−1 n=1 ⇓ " an xn + 2mxm−1 n=0 sustituyendo ( 0=x 2 " m (m − 1) x m−2 ∞ X +x ∞ X #( bn x n " mx m−1 n=0 # # an x " n + 2mx m−1 nan xn−1 + xm ∞ X ∞ X # an x n " +x m ∞ X # nan x n−1 " +x #) nan x m (m − 1) x 0= ∞ X n−1 " + n=1 # an x n + ∞ X #( bn x n " mxm n=0 ∞ X # 0 = xm m (m − 1) ∞ X # an xn + 2m or n=0 #( bn x n m " ∞ X n=0 Bo rr ad + ∞ X ∞ X " n=0 " ∞ X # # an x ∞ X n (n − 1) an xn−2 ∞ X #) n (n − 1) an x #( cn x n x n " + ∞ X n=1 m ∞ X n=0 n=0 ∞ X n " n nan x +x m n−2 + ) an x n #) n (n − 1) an x + n=2 #) " nan xn + n=1 o " " an xn + xm n=0 ( + 2mx m n=1 n=0 " " # Pr eli " m n=2 acomodando m ∞ X n=2 n=1 n=0 ( " n=1 n=0 " ∞ X r # in a y 00 (x) = m (m − 1) xm−2 ∞ X m " ∞ X #( cn x n xm n=0 # " nan xn + n=1 ∞ X ∞ X ) an xn n=0 #) n (n − 1) an xn + n=2 #) nan x ∞ X n " + ∞ X n=0 #( cn x n ∞ X )! an x n n=0 275 7.8. EL MÉTODO DE FROBENIUS (7.6) r (7.7) in a Expandiendo las series tendremos m 0=x a0 [m (m − 1) + b0 m + c0 ] + {z } | EI(m) + xm+1 a1 [m (m + 1) + b0 (m + 1) + c0 ] + a0 [b1 m + c1 ] + {z } | EI(m+1) m+2 +x a2 [(m + 2) (m + 1) + b0 (m + 2) + c0 ] + a1 [b1 (m + 1) + c1 ] + a0 [b2 m + c2 ] {z } | EI(m+2) + xm+3 a3 [(m + 3) (m + 2) + b0 (m + 3) + c0 ] + a2 [b1 (m + 2) + c1 ] + {z } | (7.9) m EI(m+3) (7.8) +a1 [b2 (m + 1) + c2 ] + a0 [b3 m + c3 ]} + · · · + xm+n Pr eli .. . an [(m + n) (m + n − 1) + b0 (m + n) + c0 ] + an−1 [b1 (m + n − 1) + c1 ] + | {z } (7.10) EI(m+n) + an−2 [b2 (m + n − 2) + c2 ] + an−3 [b3 (m + n − 3) + c3 ] + · · · (7.11) +a1 [bn−1 (m + 1) + cn−1 ] + a0 [bn m + cn ]} (7.12) la cual puede ser reacomodada aún más, y toma la forma elegante y compacta de ( ) ∞ i−1 X X 0 = xm {a0 EI (m)} + ai EI (m + i) + ak [(m + k) bi−k + ci−k ] xm+i (7.13) or + ··· i=1 k=0 Bo rr ad donde hemos identificadoEI (m) = m (m − 1) + b0 m + c0 . Como es de esperarse, este polinomio se anula si los coeficientes de xm · · · xm+i se anulan. La primera de las ecuaciones que surge es la ecuación indicadora o ı́ndice a0 6= 0 =⇒ EI (m) = m (m − 1) + b0 m + c0 = 0 (7.14) que no es otra cosa que un polinomio de segundo grado en m. Al anular el coeficiente de xm+i ( ) i−1 X ai EI (m + i) + ak [(m + k) bi−k + ci−k ] = 0 (7.15) k=0 obtendremos la relación de recurrencia para la serie de Frobenius, correspondientes a cada raı́z de la ecuación indicadora (7.14). Dato que la ecuación indicadora es un polinomio de segundo grado para m, entonces de allı́ se derivan dos raı́ces m1 y m2 . Dependiendo de como sean estas raı́ces distinguiremos tres casos: 276 7.8. EL MÉTODO DE FROBENIUS 1. m1 6= m2 ∧ m1 − m2 6= N con N entero. En este caso, la solución en términos de la serie de Frobenius para la ecuación diferencial será " " # # ∞ ∞ X X m2 m1 n n 1+ (7.16) y(x) = C1 kxk 1+ an (m2 ) x an (m1 ) x + C2 kxk n=1 n=1 {z | } y1 (x) | {z } y2 (x) in a r 2. m1 = m2 En este caso, la solución en términos de la serie de Frobenius para la ecuación diferencial será # " ∞ X m n 1+ an (m) x y(x) = C1 kxk n=1 | {z } y1 (x) + C2 ∞ X " kxk m 1+ | | m (7.17) # an (m) x " m n ln x + kxk n=1 ∞ X Bn (m) xn n=0 {z } Pr eli y1 (x) {z y2 (x) # } 3. m1 6= m2 ∧ m1 − m2 = N con N entero positivo. En este caso, la solución en términos de la serie de Frobenius para la ecuación diferencial será " # ∞ X m1 n y(x) = C1 kxk 1+ an (m1 ) x n=1 | {z } y1 (x) (7.18) or + C2 " m1 f kxk Bo rr ad | | 1+ ∞ X an (m1 ) x # " m2 n ln x + kxk n=1 {z y1 (x) ∞ X n=0 } {z y2 (x) an (m2 ) xn # } Donde las constantes an (m1 ) , an (m2 ) , Bn (m1 ) y f, surgen de sustituir estas soluciones en la ecuación diferencial y resolver por el método de los coeficientes indeterminados. Nótese que hemos indicado explı́citamente que los coeficientes an = an (m1 ) ; an = an (m2 ) ; Bn = Bn (m2 ) corresponden a las series de cada una de las raı́ces de la ecuacion indicadora. En resumen, si una ecuación diferencial y 00 +F1 (x) y 0 +F2 (x) y = 0 presenta puntos sigulares regulares para F1 (x) y F2 (x) en x = x0 . Lo que se traduce en que P∞ n f1 (x) = n=0 bn (x − x0 ) f (x) f (x) 2 1 y 00 + y0 + con 2 y =0 P∞ (x − x0 ) n (x − x0 ) f2 (x) = n=0 cn (x − x0 ) 277 7.8. EL MÉTODO DE FROBENIUS es decir, que f1 (x) y f2 (x) sean analı́ticas en torno a x = x0 . Entonces se aplica el método de Frobenius. Para ello, 1. se propone una solución en series de potencias de Frobenius: ∞ X y(x) = xm an xn n=0 r con m ∈ < ∧ n ∈ N , a0 6= 0 in a 2. se sustituye en la ecuación diferencial y se aisla el término independiente (de orden cero en n). El coeficiente de este término se anula e implica la ecuación la indicadora o ı́ndice EI (m) = m (m − 1) + b0 m + c0 = 0 =⇒ que no es otra cosa que un polinomio de segundo grado en m. De esta ecuación emergen dos raı́ces m2 ∧ m1 ,en función de estas raı́ces, procedemos de distinto modo m a) si m1 6= m2 ∧ m1 − m2 6= N con N entero entonces tendremos dos series de Frobenius "∞ # "∞ # X X an (m2 ) xn y(x) = C1 xm1 an (m1 ) xn + C2 xm2 n=0 Pr eli n=0 b) si m1 = m2 tenemos que insertar un logaritmo ( "∞ # "∞ #) X X m1 n n y(x) = x (C1 + C2 ln x) an (m) x + C2 Bn (m) x n=0 n=0 c) m1 6= m2 ∧ m1 − m2 = N con N entero positivo, entoces, como por arte de magia ( "∞ #) "∞ # X X m1 n m2 n y(x) = x (C1 + f ln x) an (m1 ) x + C2 x an (m2 ) x n=0 n=0 or 3. Seguidamente se determina, según el caso, se determinan las relaciones de recurrecias para los distintos coeficientes an = an (m1 ) ; an = an (m2 ) ; Bn = Bn (m2 ) ; Gn = Gn (m2 ) a partir de la ecuación (7.15) ) ( n−1 X ak [(m + k) bn−k + cn−k ] = 0 an EI (m + n) + Bo rr ad k=0 tomando en cuenta los coeficientes de los desarrollos en series de potencias de las funciones f1 (x) = si anulamos los coeficientes de x an EI (m + n) + n−1 X k=0 ∞ X bn xn y f2 (x) = n=0 ∞ X cn xn n=0 m+n ak [(m + k) bn−k + cn−k ] = 0 Pn−1 ⇐⇒ an = − k=0 ak [(m + k) bn−k + cn−k ] EI (m + n) entonces se obtiene la relación de recurrencia, al menos para los casos (7.16) y (7.17) en los cuales EI (m + n) 6= 0. El caso EI (m + n) = 0, vale decir m1 6= m2 ∧ m1 − m2 = N con N será analizado en detalle más adelante. 278 7.8. EL MÉTODO DE FROBENIUS 7.8.1. m1 6= m2 ∧ m1 − m2 6= N con N entero. En ese caso es claro que la resolver la ecuación indicadora y sustituir m1 en el resto de los coeficientes, se va despejando todos los coeficientes a0 · · · an en términos de a0 . Igualmente al sustituir m2 encontramos la otra solución y ambas son linealmente independientes y la solución será "∞ # "∞ # X X m1 n m2 n an x + C2 x an x y(x) = C1 x n=0 in a Ejemplo, encuentre la solución en términos de series de Frobenius de la siguiente ecuación 1 1 x2 y 00 + x x + y 0 − x2 + y=0 2 2 r n=0 Pr eli m al dividir por x2 identificamos P∞ que a x = 0 es un punto singular regular. Proponemos por lo tanto una serie de Frobenius y(x) = xm n=0 an xn como posible solución. La ecuación indicadora EI (m) = m (m − 1) + b0 m + c0 = 0 queda ahora, como b0 = 21 ⇐= f1 (x) = 21 + x b1 = 1 m=1 1 1 c0 = − 12 ⇐= m (m − 1) + m − = 0 ⇐= 2 2 m = −1 2 c = 0 ⇐= f2 (x) = − 21 − x2 1 c2 = −1 los demás coeficientes b2 = b3 = · · · = bn = · · · = 0 y c3 = c4 = · · · = cn = · · · = 0. or El primer término del coeficiente de xm+n , puede ser escrito en términos de genéricos, como 1 1 1 1 1 EI (m + n) = (m + n) (m + n − 1) + (m + n) + − = m2 + 2mn − m + n2 − n − (7.19) 2 2 2 2 2 |{z} | {z } b0 c0 Bo rr ad El segundo término de ese mismo coeficiente, es una sumatoria en la cual inervienen los coeficientes de las expansiones de f1 (x) y f2 (x) (ecuación (7.5)). Como de esta expansión sobrevive b1 = 1 significa que sólo aparecen el coeficiente para el cual n − k = 1 ⇒ k = n − 1 y como también sobrevive c2 = −1, tendremos que n − k = 2 ⇒ k = n − 2,también estará presente. Esto es an−1 (m + n − 1) · |{z} 1 + an−2 (−1) | {z } b1 (7.20) c2 En definitiva el coeficiente completo se escribe como 1 1 1 + an−1 [m + n − 1] − an−2 = 0 an m2 + 2mn − m + n2 − n − 2 2 2 (7.21) 279 7.8. EL MÉTODO DE FROBENIUS con lo cual la relación de recurrencia general será an−2 − an−1 [m + n − 1] m2 + 2mn − 12 m + n2 − 12 n − an = para n ≥ 2 1 2 (7.22) 2 2n2 + 3n para n ≥ 2 in a an = (an−2 − nan−1 ) y se encuentra a1 al utilizar el coeficiente de xm+1 (ecuación (7.7)) 1 1 + a0 [1 + 0] = 0 =⇒ a1 1 (1 + 1) + (1 + 1) − 2 2 =⇒ a2 = 1 7 n=3 =⇒ a3 = 2 27 (−3a2 + a1 ) = 2 27 −27 35 a0 n=4 .. . =⇒ a4 = 1 22 (−4a3 + a2 ) = 1 22 328 945 a0 1 7 4 5 a0 + a0 = 9 35 a0 =⇒ a2 = 82 − 52 a0 = − 945 a0 Ası́ la primera solución será − 9 35 a0 = 571 20790 a0 9 35 a0 82 =⇒ a3 = − 945 a0 Pr eli (−2a1 + a0 ) = 2 a1 = − a0 5 m con lo cual n=2 r Dependiendo del valor de m tendremos una relación de recurrencia para la primera de las series m = 1 1 o para la segunda, m = − . Analicemos cado por caso. Para el caso particular m = 1, se obtiene la 2 relación de recurrencia: =⇒ a4 = .. . 571 20790 a0 2 9 2 82 3 571 4 y1 (x) = a0 x 1 − x + x − x + x + ··· 5 35 945 20790 Bo rr ad or 1 Del mismo modo se construye la segunda solución linealmente independiente a partir de m = − . Ası́, la 2 1 relación de recurrencia para los coficientes de la serie de Frobenius m = − será: 2 3 2 an = an−2 − n − an−1 para n ≥ 2 2 2n2 − 3n y 1 1 1 1 1 1 − + − + a0 − =0 a1 2 2 2 2 2 2 =⇒ a1 = −a0 por lo cual n=2 =⇒ a2 = − 21 a1 + a0 = 12 a0 + a0 = 23 a0 n=3 =⇒ a3 = 2 9 n=4 .. . =⇒ a4 = 1 10 − 23 a2 + a1 = 2 9 − 25 a3 + a2 = 1 10 −9 4 a0 13 − a0 = − 18 a0 65 36 a0 + 23 a0 = 119 360 a0 =⇒ a2 = 32 a0 =⇒ 13 a3 = − 18 a0 =⇒ a4 = .. . 119 360 a0 280 7.8. EL MÉTODO DE FROBENIUS Por lo cual, la solución general será 2 9 82 3 571 4 y(x) = C1 x 1 − x + x2 − x + x + ··· 5 35 945 20790 1 3 13 119 4 1 − x + x2 − x3 + x + ··· 2 18 360 r + C2 x− 2 7.8.2. in a Nótese que esta solución vale para 0 < kxk < ∞ por cuanto para x < 0, la segunda solución se hace imaginaria pero se puede resolver haciendo C2 = i C3 Como ejercicio resuelva 2x2 y 00 − x y 0 − (x + 1) y = 0 m1 = m2 . f1 (x) m Del mismo modo, si tenemos una ecuación diferencial ⇐⇒ L {y} = x2 y 00 + x f1 (x) y 0 + f2 (x) y = 0 (7.23) x2 y 00 + x [x F1 (x)]y 0 + x2 F2 (x) y = 0 | {z } | {z } Pr eli f2 (x) donde en la cual F1 (x) y F2 (x) tienen singularidades regulares en x = 0 pero f1 (x) y f2 (x) son analı́ticas para ese punto, vale decir ∞ ∞ X X f1 (x) = bn x n y f2 (x) = cn x n n=0 n=0 or se aplica el Método de Frobenius. Pero antes de proceder a ilustrar este caso en al cual ambas raı́ces coinciden, veamos, un poco de dónde surge la forma general de la solución (7.17). Para ello reacomodemos la ecuación diferencial (7.23) de la forma d2 d x2 y 00 + x f1 (x) y 0 + f2 (x) y = x2 + x f (x) + f (x) y ≡ L {y} = 0 1 2 dx2 dx Bo rr ad donde L {•} está concebido como un operador lineal. Es ilustrador mostrar de dónde sale la forma curiosa de la solución de la ecuación diferencial (7.17). Para ello, recordamos que ( ) ∞ n−1 X X m L {y} ≡= x {a0 EI (m)} + an EI (m + n) + ak [(m + k) bn−k + cn−k ] xm+n n=1 k=0 si anulamos los coeficientes de xm+n entonces an EI (m + n) + n−1 X ak [(m + k) bn−k + cn−k ] = 0 Pn−1 ⇐⇒ an = − k=0 k=0 ak [(m + k) bn−k + cn−k ] EI (m + n) considerando EI (m + n) 6= 0 por lo tanto, para los an seleccionados (que anulen el coeficiente xm+n ) y considerando el caso m1 = m2 2 L {y} (m, x) = {a0 EI (m)} xm = a0 (m − m1 ) xm 281 7.8. EL MÉTODO DE FROBENIUS Nótese que estamos considerando L {y} (m, x) como una función de m, y x. Por lo cual evaluando en m = m1 2 L {y} (m, x)|m=m1 = a0 (m − m1 ) xm =0 m=m1 L ∂y ∂m (m, x) = h i ∂ 2 2 a0 (m − m1 ) xm = a0 (m − m1 ) xm ln x + 2 (m − m1 ) xm ∂m in a r pero además podemos intentar derivar respecto a la constante m 2 2 ∂ {L {y} (m, x)} d d ∂ ∂y 2 d 2 d + x f1 (x) + x f1 (x) = x + f2 (x) y = x + f2 (x) ∂m ∂m dx2 dx dx2 dx ∂m m=m1 L ∂y ∂m ∂ = ∂m (m, x) m=m1 ( " kxk m a0 + = (x #) an (m) x n n=1 " m1 ∞ X Pr eli m y comprobamos que también se anula al evaluarla en m = m1 i h ∂y 2 =0 = a0 (m − m1 ) xm ln x + 2 (m − m1 ) xm L (m, x) ∂m m=m1 m=m1 n o ∂y por lo tanto ∂m también es solución, con lo cual la segunda toma la forma (m, x) ln x) a0 + ∞ X m=m1 # an (m1 ) x n " +x m1 n=1 y la solución general tendrá la forma " m1 y(x) = C1 kxk 1+ ∞ X ∞ X ∂an (m) ∂m n=1 # x n m=m1 # an (m1 ) x n n=1 {z | or " m1 kxk | | 1+ Bo rr ad + C2 } y1 (x) ∞ X an (m1 ) x # " m1 n ln x + kxk n=1 {z y1 (x) ∞ X n=0 } {z y2 (x) bn (m1 ) xn # } Analicemos, como ejemplo un caso particular de la ecuación de Bessel5 x2 y 00 + x y 0 + x2 + ν 2 y = 0 5 Fredrich Wilhel Bessel (1784-1846). Astrónomo y matemático alemán. Aportó notables contribuciones a la astronomı́a posicional, la geodesia y la mecánica celeste. Particularmente, se dedicó a aumentar la exactitud de las mediciones de la posición y el movimiento de los astros. La precisión de sus mediciones hizo posible que determinara pequeñas irregularidades en los movimientos de Urano lo condujo a predecir la existencia de Neptuno. Análogos razonamientos lo llevaron a especular sobre la presencia de estrellas compañeras en Sirio y Procyon. A partir de datos registrados en el siglo XVII, calculó la órbita del cometa Halley 282 7.8. EL MÉTODO DE FROBENIUS Una vez más, la ecuación viene parametrizada por ν y dependiendo de su valor tendremos una familia de soluciones. Consideremos el caso ν = 0 x2 y 00 + x y 0 + x2 y = 0 nos queda como r b0 = 1 ⇐= f1 (x) = 1 c0 = 0 c1 = 0 ⇐= f2 (x) = x2 c2 = 1 in a la ecuación indicadora EI (m) = m (m − 1) + b0 m + c0 = 0 m = 0 ⇐= m (m − 1) + m = 0 ⇐= Pr eli m los demás coeficientes b1 = b2 = b3 = · · · = bn = 0 y c3 = c4 = · · · = cn = 0. Con lo cual EI (n) = n (n − 1) + n = n2 , Por lo tanto, la relación de recurrencia se obtiene del coeficiente de xm+n Pn−1 b1 6= 0 ⇒ n − k = 1 ⇒ k = n − 1 a [(m + k) b + c ] k n−k n−k dado que an = k=0 EI (m + n) c2 6= 0 ⇒ n − k = 2 ⇒ k = n − 2 Pn−1 an (m) = ak (m) [(m + k) bn−k + cn−k ] an−1 (m) (m + n − 1) + an−2 (m) = 2 (m + n) (m + n − 1) + (m + n) (m + n) k=0 tomando m = 0, se tiene Pn−1 an (0) = − k=0 ak (0) [kbn−k + cn−k ] n2 con b1 6= 0 ⇒ n − k = 1 ⇒ k = n − 1 c2 6= 0 ⇒ n − k = 2 ⇒ k = n − 2 an (0) = − or con lo cual an−2 (0) [c2 ] + an−1 (0) [(n − 1) b1 ] an−2 (0) + an−1 (0) (n − 1) =− 2 n n2 para n ≥ 2 Bo rr ad Otra vez, al anular el coeficiente para xm+1 (ecuación (7.7)) se obtiene a1 [0 (0 + 1) + 1 · (0 + 1) + 0] + a0 [0 · 0 + 0] = 0 ⇒ a1 = 0. Con lo cual es claro que se anulan todos los coeficientes impares, y ası́ a2n (0) = − a2n−2 (0) 2 (2n) para n = 1, 2, 3, · · · con lo cual 283 7.8. EL MÉTODO DE FROBENIUS n=1 =⇒ 1 a2 (0) = − a0 (0) 4 n=2 =⇒ a4 (0) = − n=3 =⇒ a6 (0) = − 1 (2 · 2) 1 (2 · 3) 2 a2 2 a4 (0) = 1 2 (2 · 2) (0) = − 22 " 1 (2 · 3) a0 (0) 2 a2 (0) = − 14 a0 (0) =⇒ a4 (0) = =⇒ a6 (0) = 1 2 (2 · 2) 22 # 1 (2 · 2) =⇒ 2 22 a0 (0) 2 (2 · 3) 23 .. . a2l (0) = − l a2l−2 (0) (2l) = 2 (−1) 2 a0 (0) 22l (l!) por lo tanto la primera de las soluciones será " y1 (x) = a0 1 + ∞ n X (−1) n=1 | =⇒ a2l (0) = # 2x 2n 22n (n!) {z J0 (x) (−1) l in a =⇒ 2 a0 22l (l!) (0) m n=l a0 (0) r .. . −1 a0 (0) } ∞ X y2 (x) = J0 (x) ln x + n=0 para ello se requieren sus derivadas y2 (x) = J0 (x) ln x + ∞ X Pr eli Donde J0 (x) se conoce como la función de Bessel de primera especie de orden cero. Para calcular la segunda solución de la ecuación de Bessel se sustituye en la ecuación x2 y 00 + x y 0 + x2 y = 0 Bn xn ∞ ⇒ y20 (x) = J00 (x) ln x + Bn xn n=0 ⇓ J0 (x) X + Bn (0) nxn−1 x n=1 y ∞ J00 (x) J0 (x) X − + Bn n (n − 1) xn−2 x x2 n=1 or y200 (x) = J000 (x) ln x + 2 Bo rr ad entonces " 0=x 2 J000 " +x con lo cual J00 # ∞ J00 (x) J0 (x) X n−2 Bn n (n − 1) x + (x) ln x + 2 − + x x2 n=2 # " # ∞ ∞ X J0 (x) X n−1 2 n (x) ln x + + Bn nx +x J0 (x) ln x + Bn x x n=0 n=1 ∞ ∞ ∞ X X X Bn n (n − 1) xn + Bn nxn + Bn xn+2 0 = x2 J000 (x) + x J00 (x) + Jx2 0 (x) ln x + 2 J00 (x) x + {z } | n=2 n=1 n=0 =0 284 7.8. EL MÉTODO DE FROBENIUS y finalmente 2 2 B1 x + 2 B2 x + ∞ X 2 n Bn n + Bn−2 x = −2 n=3 ∞ n X (−1) 2n n=1 22n 2 (n!) x2n es claro que para los coeficientes impares se obtiene b1 = b3 = b5 = · · · = b2n+1 · · · = 0 ya que r ∞ n X (−1) 2n 2n B1 x + 22 B2 x2 + 32 B3 + B1 x3 + 42 B4 + B2 x4 + 52 B5 + B3 x5 + · · · = −2 x 2n (n!)2 n=1 2 in a mientras que para las potencias pares tendremos la relación de recurrencia " # n+1 1 (−1) n B2n = 2 2 − b2n−2 (2n) 22(n−1) (n!) entonces 1 22 (1!) 2 ! m B2 = 2 1 1 + 2 2 2 2 (2 · 2) 22 (2!) 22 (1!) " # " # 3 1 1 1 1 1 1 1 3 = 2 2 2 1+ + 1+ B6 = 2 2 − b4 = 62 2 + 42 22 2 6 4 2 2 3 (6) 24 (3!) 24 (3!) − 4 −2 .. . B2k = 1 =− 1 42 22 Pr eli B4 = 1 k+1 k+1 1 + 1 + 1 + · · · + 1 + 1 + 1 = (−1) 2 22k (k!)2 Hk 3 2 22k (k!) |k k − 1 k − 2{z } (−1) Hk Ası́ la segunda solución puede tomar la forma de or y2 (x) = J0 (x) ln x + ∞ n+1 X (−1) y por lo tanto la solución general tendrá la forma " Bo rr ad y (x) = A1 J0 (x) + A2 2 Hn 2n (n!) n=1 2 J0 (x) ln x + x2n ∞ n+1 X (−1) 2 Hn n=1 22n (n!) # x 2n es costumbre en Fı́sica reacomodar la segunda solución de la forma # " ∞ n+1 x X 2 (−1) y2 (x) ≡ Y0 (x) = Hn x2n γ + ln J0 (x) + 2n (n!)2 π 2 n=1 2 donde γ se conoce como la constante de Euler-Mascheroni6 y tiene un valor 1 1 1 1 1 γ = lı́m + + + · · · + + + 1 − ln (n) ∼ = 0,5772 n→∞ n n−1 n−2 3 2 6 Lorenzo Mascheroni (1750-1800) Monje Italiano, nacido en Bergamo, Lombardo-Veneto. Profesor de Algebra y Geometrı́a en la Universidad de Pavia y luego Rector de la misma. Además de poeta, se destaco por sus contribuciones al Cálculo y a la Mecánica. 285 7.8. EL MÉTODO DE FROBENIUS y ası́, finalmente Pr eli m in a r y (x) = C1 J0 (x) + C2 Y0 (x) Comportamiento de las funciones de Bessel de orden cero. De primera especie J0 (x) y de segunda especieY0 (x) Nótese que tanto la función de Bessel de orden cero, de primera especie, J0 (x) , como la función de Bessel de orden cero, de segunda especie, Y0 (x) ,tienen un comportamiento oscilatorio cuando x → ∞, que J0 (0) = 1, mientras que Y0 (x) se comporta como π2 ln x cuando x → 0. 7.8.3. m1 6= m2 ∧ m1 − m2 = N con N entero. or En general, la ecuación indicadora para este caso, m1 − m2 = N ⇒ m1 = N + m2 , con m1 > m2 . Este caso nos lleva a la ecuación (7.13) ( ) N −1 n−1 X X m 0 = x {a0 EI (m)} + an EI (m + n) + ak [(m + k) bn−k + cn−k ] xm+n (7.24) Bo rr ad n=1 ( + aN EI (m + N ) + N −1 X k=0 ) ak [(m + k) bN −k + cN −k ] xm+N + (7.25) k=0 + ∞ X n=N +1 ( an EI (m + n) + n−1 X ) ak [(m + k) bn−k + cn−k ] xm+n (7.26) k=0 donde esta m es la menor de las raı́ces y m + N la mayor. Anulando el término {a0 EI (m)} coeficiente de xm nos lleva a la ecuación indicadora: EI (m + N ) = (m + N ) (m + N − 1) + b0 (m + N ) + c0 = EI (m) = (m) (m − 1) + b0 (m) + c0 = 0. 286 7.8. EL MÉTODO DE FROBENIUS n=0 n=1 {z | | } y1 (x) {z y2 (x) in a r por lo tanto EI (m + N ) = 0 anula al coeficiente del término an para n = N , esto es la ecuación (7.12), consecuentemente eso significa que se derivan dos casos PN −1 EI (m + N ) = 0 ∧ k=0 ak [(m + N + k) bn−k + cn−k ] = 0 En este caso la solución en serie de Frobenius, partiendo de la raı́z mayor de la ecuación indicadora, m + N , quedará en términos de a0 y no será linealmente independiente a la solución provista por la raı́z menor, por consiguiente la solución proveniente de esta raı́z menor, m, será la solución general. Esto quiere decir que en (7.18) la constante f = 0 y por consiguiente la solución será "∞ # " # ∞ X X m m n n an (m + N ) x (7.27) y(x) = a0 kxk 1+ an (m) x + aN kxk } m PN −1 EI (m + N ) = 0 ∧ k=0 ak [(m + N + k) bn−k + cn−k ] 6= 0 En este caso la raı́z mayor de la ecuación indicadora m + N determinará una de las soluciones, la constante f 6= 0 y la solución general tendrá la forma de " # ∞ X m1 n 1+ y(x) = C1 kxk an (m1 ) x n=1 | } " m1 f kxk | | Pr eli + C2 {z y1 (x) 1+ ∞ X # " m2 an (m1 ) xn ln x + kxk n=1 {z y1 (x) ∞ X n=0 } {z y2 (x) an (m2 ) xn # } or La ecuación de Bessel de orden fraccionario puede ilustrar el primero de estos casos, resolvámosla 1 2 00 0 2 x y +x y + x − y=0 4 Bo rr ad una vez más, le expansión en serie de Frobenius de y (x) nos lleva a una ecuación indicadora del tipo b0 = 1 ⇐= f1 (x) = 1 1 1 m= c = − 0 2 1 4 ⇐= m (m − 1) + m − = 0 ⇐= 1 4 2 −1 c1 = 0 ⇐= f2 (x) = x − 4 m= 2 c2 = 1 los demás coeficientes b1 = b2 = b3 = · · · = bn = 0 y c3 = c4 = · · · = cn = 0. Dado que N = 1 se tiene que la ecuación (7.12) a1 [(m + 1) (m + 1 − 1) + b0 (m + 1) + c0 ] + a0 [b1 (m + 1 − 1) + c1 ] + · · · = 0 (7.28) {z } | EI(m+N ) 287 7.8. EL MÉTODO DE FROBENIUS in a r 1 1 1 1 +1 − + − +1 − + a0 [0] = 0 ⇒ a1 [0] + a0 [0] = 0 a1 − (7.29) 2 2 2 4 | {z } ! ! 1 EI − +1 2 con lo cual cualquier valor de a1 y a0 estarán permitidos. La relación de recurrencia proviene de anular el 1 coeficiente de xm+n , para m = − . Vale decir 2 ∞ X an EI (m + n) + ak [(m + k) bn−k + cn−k ] = 0 ⇒ (7.30) k=0 m 1 1 1 1 +n − +n−1 + − +n − + an−1 [0] + an−2 [1] = 0 an − 2 2 2 4 los coeficientes serán 1 n = 2 =⇒ a2 = − a0 2 n = 4 =⇒ a4 = − (7.32) Pr eli an n2 − n = −an−2 (7.31) 1 1 a2 = a0 12 24 1 1 a0 n = 6 =⇒ a4 = − a4 = − 30 720 .. . n = 3 =⇒ 1 a3 = − a1 6 n = 5 =⇒ a5 = − n = 7 =⇒ 1 1 a3 = a1 20 120 1 1 a7 == − a5 = − a1 42 5040 .. . Por lo cual, la solución general será Bo rr ad or 1 1 − 1 2 1 4 1 6 1 1 5 1 7 x + · · · + a1 x 2 − x + x − x + ··· y(x) = a0 x 2 1 − x + x − 2 24 720 6 120 5040 PN −1 Para considerar el segundo caso, EI (m + N ) = 0 ∧ k=0 ak [(m + N + k) bn−k + cn−k ] 6= 0 analicemos la ecuación diferencial x2 y 00 + x (2 − x) y 0 + 2 − x2 y = 0 − una vez más, la expansión en serie de Frobenius de y (x) nos lleva a una ecuación indicadora del tipo b0 = −2 ⇐= f1 (x) = −2 + x b1 = 1 m=2 ⇐= m (m − 1) − 2m + 2 = 0 ⇐= c0 = 2 m=1 c1 = 0 ⇐= f2 (x) = x2 + 2 c2 = 1 288 7.9. REVISITANDO A BESSEL los demás coeficientes b2 = b3 = · · · = bn = 0 y c3 = c4 = · · · = cn = 0. Dado que N = 1 se tiene que la ecuación (7.12) para m = 1 a1 [(m + 1) m − 2 (m + 1) + 2] + a0 [m] = a1 [2 − 4 + 2] + a0 [2] = a1 [0] + a0 [1] = 0 (7.33) y no conduce a nada por cuanto a0 = 0, mientras que, para m = 2 se obtiene ∞ X in a por lo cual la relación de recurrencia para m = 2 nos queda an EI (m + n) + ak [(m + k) bn−k + cn−k ] = 0 ⇒ k=0 m an [(2 + n) (2 + n − 1) − 2 (2 + n) + 2] + an−1 [1 + n] + an−2 [1] = 0 an n2 + n + an−1 (n + 1) = −an−2 n = 3 =⇒ .. . (7.35) (7.36) (7.37) 1 a0 3 Pr eli los coeficientes serán n = 2 =⇒ (7.34) r a1 [(m + 1) m − 2 (m + 1) + 2] + a0 [m] = a1 [3 · 2 − 2 · 3 + 2] + a0 [1] = a1 [1] + a0 [1] = 0 6a2 = −3a1 − a0 = 3a0 − a0 =⇒ a2 = 4 12a3 = −4a2 − a1 = − a0 + a0 3 1 =⇒ a3 = − a0 36 .. . Por lo cual, la solución general será 1 3 1 2 y1 (x) = a0 x 1 − x + x − x + · · · 3 36 2 or y la segunda solución linealmente independiente será y2 (x) = u (x) − B1 y1 (x) ln x (7.38) Bo rr ad y queda como ejercicio demostrar la relación de recurrencia para los coeficientes Bn de la serie que describe ! ∞ X i u (x) = x Bi x (7.39) 7.9. i=0 Revisitando a Bessel La Ecuación de Bessel es x2 y 00 + xy 0 + x2 − k 2 y = 0; k∈< (7.40) obviamente x = 0 es una singularidad regular, por lo tanto el método de Frobenius nos permite afirmar que si x = x0 corresponde a un polo regular de la ecuación x2 y 00 + xP̃ (x) y 0 + Q̃ (x) y = 0; 289 7.9. REVISITANDO A BESSEL la solución vendrá expresada de la forma ∞ X r y(x) = (x − x0 ) n an (x − x0 ) n=0 P̃ (x0 ) = ∞ X bn (x − x0 ) n ∧ Q̃(x0 ) = n=0 ∞ X cn (x − x0 ) n=0 Para la Ecuación de Bessel ∧ Q̃(x) = x2 − k 2 ⇒ c0 = −k 2 ; n c2 = 1 m P̃ (x) = 1 ⇒ b0 = 1 in a y donde P̃ (x) y Q̃ (x) son funciones analı́ticas en el entorno de x = x0 y por lo tanto r con r real y determinado a través de las raı́ces de la ecuación indicadora r2 + P̃ (x0 ) − 1 r + Q̃(x0 ) = 0 los demás coeficientes b’s y c’s se anulan. La ecuación indicadora y sus raı́ces quedan como Donde, para r = k proponemos m2 = k 2 ⇒ ⇒ r1,2 = ±k Pr eli m (m − 1) + m − k 2 = 0 y1 (x) = xk ∞ X an xn n=0 Al hacer las cuentas 2 x −k 2 y1 (x) = x k xy10 (x) = xk n=2 ∞ X n=0 ∞ X or x2 y100 (x) = xk ∞ X n an−2 x − x k ∞ X k 2 an xn n=0 (k + p) an xn (k + p) (k + p − 1) an xn n=0 la ecuación de Bessel queda como Bo rr ad ∞ ∞ X X (k + n) (k + n − 1) + (k + n) − k 2 an xn + an−2 xn = 0 n=0 n=2 ∞ X (2n + 1) a1 x + [k (2n + k) ak + an−2 ] xn = 0 n=2 y por consiguiente obtenemos la relación de recurrencia an = − an−2 n (2k + n) donde es claro que a1 = 0. Adicionalmente, si suponemos a0 = 2k 1 Γ (k + 1) 290 Pr eli m in a r 7.9. REVISITANDO A BESSEL Figura 7.1: Funciones de Bessel, de orden k de primera especie tendremos Bo rr ad or a1 = a3 = a5 = · · · = 0 a0 a2 = − 2 (2k + 2) a0 a4 = 2 · 4 (2k + 2) (2k + 4) .. . a0 n a2n = (−1) 2n 2 n! (k + 1) (k + 2) · · · (k + n) Por lo tanto, la primera de las soluciones será Jk (x) = ∞ X n x 2n+k (−1) Γ (n + 1) Γ (n + k + 1) 2 n=0 la Función de Bessel, de orden k de primera especie. Si k = 0 entonces ∞ n X (−1) x 2n J0 (x) = 2 2 n=0 (n!) Para el caso particular de k = m entero positivo la función de Bessel de primera especie toma la forma de ∞ n x 2n+m X (−1) Jm (x) = n! (n + m)! 2 n=0 291 7.9. REVISITANDO A BESSEL Para encontrar la segunda solución linealmente independiente de la ecuación de Bessel el método de Frobenius propone tres casos dependiendo el valor de k r1 − r2 6= entero ⇒ k 6= entero r1 = r2 = r ⇒ k = 0 r1 − r2 = entero ⇒ k = entero r Caso 1: r1 − r2 6= entero ⇒ k 6= entero. La solución general será de la forma J−k (x) = ∞ X n x 2n−k (−1) Γ (n + 1) Γ (n − k + 1) 2 n=0 −k . Nótese que esta última expresión también es válida para k ∞ X Pr eli Para x < 0 se debe reemplazar x−k por kxk semientero, i.e. k = n + 12 . Caso 2: r1 = r2 = r ⇒ k = 0. La solución general será de la forma x>0 m donde in a y(x) = C1 Jk (x) + C2 J−k (x) K0 (x) = ãn xn + J0 (x) ln x n=0 y los coeficientes ãn se encuentran mediante el tradicional método de sustituirlos en la ecuación de Bessel para k = 0 xy 00 + y 0 + xy = 0; De donde se obtiene K00 (x) = n=0 ∞ X ãn xn+1 + xJ0 (x) ln x = n=0 ∞ X 0 ∞ X ãn−2 xn−1 + xJ0 (x) ln x n=3 ∞ X nãn xn−1 + (J0 (x) ln x) = nãn xn−1 + J00 (x) ln x + n=1 n (n − 1) ãn xn−1 + xJ000 (x) ln x + 2J00 (x) − Bo rr ad xK000 (x) = ∞ X or xK0 (x) = n=2 J0 (x) x J0 (x) x y por lo tanto ∞ X 2 n−1 n ãn + ãn−2 x + xJ000 + J00 + xJ0 ln x + 2J00 (x) = 0 ã1 + 4ã2 x + | {z } n=3 = 0 Acomodando y derivando la expresión para J0 tendremos ∞ ∞ X X 2 n−1 0 ã1 + 4ã2 x + n ãn + ãn−2 x = −2J0 (x) = 2 n=3 n=1 2n (−1) 22n−1 n+1 2 (n!) x2n−1 292 7.9. REVISITANDO A BESSEL Ahora multiplicando la expresión por x y separando las sumatorias en sus términos pares e impares, tendremos ∞ h i X 2 ã1 x + (2n + 1) ã2n+1 + ã2n−1 x2n+1 = 0 n=1 ∞ h X ∞ i X 2 n+1 (2n) ã2n + ã2n−2 x2n + 4ã2 x2 = x2 + (−1) n=2 2x (n!) 2 n+1 (2n) ã2n + ã2n−2 = (−1) 2n 22n 2 (n!) De esta forma los coeficientes quedan como: .. . (−1) ã2n = 1 1 1 1+ =− 1 + 2 2 2 24 · (2!) 1 2 2 · 42 Pr eli ã4 = − n>1 m 1 22 ã2 = in a Por lo cual ã1 = ã3 = ã5 = · · · = 0 mientras que 4ã2 = 1; 2n r n=1 2n 22n n+1 2 22n (n!) 1 1 1 1 1 + + + + ··· + 2 3 4 k La expresión para la solución general de la ecuación de Bessel para k = 0 será ∞ n+1 X (−1) 1 1 1 1 x 2n K0 (x) = 1 + + + + · · · + + J0 (x) ln x 2 2 3 4 k 2 n=0 (n!) or En Fı́sica, es costumbre expresar esta solución de una forma equivalente pero ligeramente diferente: ∞ n h x i 1 x 2n 2 2 X (−1) 1 1 + + + · · · + J (x) ln + γ Y0 (x) = − 1 + 0 π n=0 (n!)2 2 3 k 2 π 2 Bo rr ad donde, una vez más, γ = 0,577215664901 · · · es la constante de Euler-Mascheroni. Caso 3: r1 − r2 = entero ⇒ k = entero. La solución general será de la forma Kk (x) = ∞ X ãn xk+n + CJn (x) ln x n=0 Procediendo de forma equivalente a la situación anterior tenemos que la solución general podrá expresarse (luego de una laboriosa faena) como Kk (x) = − − k−1 1 X (k − n − 1)! x 2n−k Hk x k − − 2 n=0 n! 2 2k! 2 ∞ n 1 X (−1) [Hn + Hn+k ] x 2n+k + Jk (x) ln x 2 n=1 n! (k + n)! 2 293 7.9. REVISITANDO A BESSEL Y finalmente la Función de Bessel de orden k de segunda especie o Función de Neumann k−1 1 X (k − n − 1)! x 2n−k Hk x k − − 2 π n=0 2 πk! 2 (n!) ∞ n h x i 1 X (−1) [Hn + Hn+k ] x 2n+k 2 + Jk (x) ln + γ − π n=1 n! (k + n)! 2 π 2 Hn = 1 + 1 1 1 + + ··· + 2 3 n in a En ambos casos r Yk (x) = − Más aún k−1 2 x 1 X (k − n − 1)! x 2n−k Jk (x) ln − 2 π 2 π n=0 2 (n!) ∞ n x 2n+k 1 X (−1) − [ψ(n + 1) + ψ(n + k + 1)] π n=1 n! (k + n)! 2 Γ0 (n) es la función Digamma con Γ(n) Pr eli donde ψ(n) = m Yk (x) = ψ(n + 1) = −γ + 1 + 1 1 1 + + ··· + 2 3 n ψ(1) = −γ También es costumbre definir la función de Bessel de segunda especie en terminos de las de primera especie Nk (x) = Yk (x) = Jk (x) cos kπ − J−k (x) sen kπ Nótese que para k = m entero, aparentemente no esta definida. Pero, aplicando la regla de L’Hospital Bo rr ad or d [Jk (x) cos kπ − J−k (x)] dk Nm (x) = d [sen kπ] dk k=m d d −πJn (x) sen nπ + cos nπ Jk (x) − J−k (x) dk dk = π cos nπ 1 = π k=m d n d Jk (x) − (−1) J−k (x) dk dk k=m De este modo, la soluciónes generales para la ecuación de Bessel, se expresan según el caso en Zk (x) = C1 Jk (x) + C2 J−k (x); Z̃k (x) = C1 Jk (x) + C2 Yk (x); k 6= entero k=0 ∨ entero La funciones Zk (x) y Z̃k (x) se denominan Funciones Cilı́ndricas de orden k 294 Pr eli m in a r 7.9. REVISITANDO A BESSEL rJ 0 ν 2.404825558 5.520078110 8.653727913 11.79153444 14.93091771 18.07106397 21.21163663 24.35247153 27.49347913 30.63460647 rJ 1 ν 3.831705970 7.015586670 10.17346814 13.32369194 16.47063005 19.61585851 22.76008438 25.90367209 29.04682854 32.18967991 Bo rr ad ν 1 2 3 4 5 6 7 8 9 10 or Figura 7.2: Funciones de Bessel de orden k de segunda especie o Funciones de Neumann rJ 3 ν 5.135622302 8.417244140 11.61984117 14.79595178 17.95981949 21.11699705 24.27011231 27.42057355 30.56920450 33.71651951 rY 0 ν 0.8935769663 3.957678419 7.086051060 10.22234504 13.36109747 16.50092244 19.64130970 22.78202805 25.92295765 29.06403025 rY 1 ν 2.197141326 5.429681041 8.596005868 11.74915483 14.89744213 18.04340228 21.18806893 24.33194257 27.47529498 30.61828649 rY 2 ν 3.384241767 6.793807513 10.02347798 13.20998671 16.37896656 19.53903999 22.69395594 25.84561372 28.99508040 32.14300226 Cuadro 7.1: Los ceros de las funciones de Bessel Jn (x) y de la función de Newmann Yn (x). 295 7.9. REVISITANDO A BESSEL 7.9.1. Otras Formas de la Ecuación de Bessel Haciendo los cambios de variables correspondientes llegamos a 2 α 2 − k 2 ν 2 1 − 2α 0 u00 (x) + u(x) = 0 u (x) + βν xν−1 + x x2 donde r u(x) = xα Zk (βxν ) o también con u(x) = 1 xZ ν+2 √ 2 α 1+ ν 2 x ν+2 Relaciones de Recurrencia: m 7.9.2. √ in a u00 (x) + αxν u(x) = 0 Las funciones de Bessel tienen las siguientes relaciones de recurrencia xJk+1 (x) − 2k Jk (x) + xJk−1 (x) = 0 Pr eli Jk+1 (x) + 2Jk0 (x) − Jk−1 (x) = 0 Para demostrar estas relaciones partimos por demostrar la siguiente identidad k 0 x Jk (x) = xk Jk−1 (x) −k 0 x Jk (x) = −x−k Jk+1 (x) De la expresión para Jk (x) se obtiene ∞ X n x 2n+2k (−1) Γ (n + 1) Γ (n + k + 1) 2 n=0 Bo rr ad or " #0 = ∞ X n (−1) 2 (n + k) x2n+2k−1 22n+k Γ (n + 1) Γ (n + k + 1) n=0 = xk ∞ X n (−1) x2n+(k−1) 22n+(k−1) Γ (n + 1) Γ (n + k) n=0 = xk Jk−1 (x) Unos cambios apropiados nos llevan a demostrar las segunda de las relaciones y al desarrollar las derivadas 0 xk Jk (x) = kxk−1 Jk (x) + xk Jk0 (x) = xk Jk−1 (x) −k 0 x Jk (x) = −kx−k−1 Jk (x) + x−k Jk0 (x) = −x−k Jk+1 (x) Por lo cual kJk (x) + xJk0 (x) = xJk−1 (x) −kJk (x) + xJk0 (x) = −xJk+1 (x) Al sumar y restar miembro a miembro obtenemos las relaciones de recurrencia. Es obvia la importancia que adquieren J1 (x) y J0 (x) para generar el resto de las funciones de Bessel. 296 7.9. REVISITANDO A BESSEL 7.9.3. Funciones de Bessel y Funciones Elementales Las funciones de Bessel de órden semientero, k = 21 se expresa como r ∞ n x 2n (−1) xX J1/2 (x) = 2 n=0 Γ (n + 1) Γ n + 32 2 pero como ∞ xX 2 n=0 2n n!Γ x =√ 1− 2xΓ 32 1 =√ 1− 2xΓ 32 n r J1/2 (x) = 3 2 (−1) x2n 1 · 3 · 5 · · · (2n + 1) in a se encuentra que Pr eli m x2 x4 x6 + − + ··· 2·3 2·4·3·5 2·4·6·3·5·7 x3 x5 x7 1 sen x + − + ··· = √ 3! 5! 7! 2xΓ 23 √ Finalmente, y otra vez invocando a las propiedades de la función Gamma: Γ 23 = 2π r 2 sen x J1/2 (x) = πx Equivalentemente se puede demostrar que r 3 3 5 2n + 1 3 1 · 3 · 5 · · · (2n + 1) Γ n+ = · · ··· =Γ 2 2 2 2 2 2n r J−1/2 (x) = 2 cos x πx y ahora utilizando las relaciones de recurrencia tendremos que Ası́ mismo or 1 J3/2 (x) = −J−1/2 (x) + J1/2 (x) x r i 2 h sen x = − cos x πx x Bo rr ad 3 J5/2 (x) = −J1/2 (x) + J3/2 (x) x r 2 3 sen x 3 cos x − = − sen x πx x2 x En general r 2 n+ 1 dn sen x Jn+ 21 (x) = (−1) x 2 n = 1, 2, 3, · · · n π x (xdx) r 2 n+ 1 dn cos x Jn+ 21 (x) = x 2 n = −1, −2, −3, · · · n π x (xdx) n Las funciones de Bessel de órden semientero son las únicas funciones de Bessel que pueden ser expresadas en términos de funciones elementales. 297 7.9. REVISITANDO A BESSEL 7.9.4. Reflexión: Las funciones de Bessel cumplen con m J−m (x) = (−1) Jm (x) Para el caso k = m entero positivo la Función de Bessel de primera especie toma la forma de n r x 2n+m (−1) n! (n + m)! 2 n=0 in a Jm (x) = ∞ X Si k = −m es un entero negativo los primeros m términos de la serie anterior se anulan ya que Γ(n) → ∞ para n = −1, −2, −3, · · · y la serie se arma como J−m (x) = ∞ X ∞ n l+m x 2n+m X (−1) x 2l+m (−1) = n! (n − m)! 2 (l + m)! l! 2 n=m l=0 m 7.9.5. m J−m (x) = (−1) Jm (x) Función Generatriz Pr eli La función generatriz para las Funciones de Bessel es B(x, t) = e 2 (t− t ) x 1 desarrollando las dos series para las exponenciales xt x x xn e 2 = 1 + t + 2 t2 + · · · + n tn + · · · 2 2 2! 2 n! x n x (−1) xn −n x t + ··· e 2t = 1 − t−1 + 2 t−2 + · · · + 2 2 2! 2n n! Bo rr ad or Por lo tanto multiplicando ambas series (∞ )( ∞ ) ∞ X xn X (−1)n xn X x 1 n −n B(x, t) = e 2 (t− t ) = t t = Jn (x) tn n n! n n! 2 2 n=−∞ n=0 n=0 7.9.6. Representación Integral para las Funciones de Bessel En la expresión anterior para la función generatriz se realiza el siguiente cambio de varible t = eiθ de este modo 1 x e 2 (t− t ) = eix sen θ = cos (x sen θ) + i sen (x sen θ) y por lo tanto cos (x sen θ) + i sen (x sen θ) = ∞ X Jn (x) [cos (nθ) + i sen (nθ)] n=−∞ 298 7.9. REVISITANDO A BESSEL m igualando partes reales e imaginarias y recordando que J−m (x) = (−1) Jm (x), para anular los términos impares en la serie de la parte real y los pares en la de la parte imaginaria, podemos escribir cos (x sen θ) = J0 (x) + 2 ∞ X J2n (x) cos (2nθ) n=1 sen (x sen θ) = 2 ∞ X J2n+1 (x) sen ([2n + 1] θ) r n=0 Pr eli m in a Multiplicando miembro a miembro en la primera de ellas por cos (2kθ) (y por cos ([2k + 1] θ) ) y la segunda por sen ([2k + 1] θ) (y por sen (2kθ)). Integrando (en 0 ≤ θ ≤ π), también miembro a miembro y término por término en las series, se obtienen Z 1 π cos (x sen θ) cos (2nθ) dθ J2n (x) = π 0 Z π 1 0= cos (x sen θ) cos ([2n + 1] θ) dθ π 0 Z π 1 J2n+1 (x) = sen (x sen θ) sen ([2n + 1] θ) dθ π 0 Z 1 π 0= sen (x sen θ) sen (2nθ) dθ π 0 Sumando miembro a miembro primera con cuarta y segunda con tercera tendremos la expresión integral para las funciones de Bessel Z 1 π Jn (x) = cos (cos (nθ) − x sen θ) dθ π 0 ya que todos sabemos que cos (nθ − x sen θ) = cos (2nθ) cos (x sen θ) + sen (2nθ) sen (x sen θ) Ortogonalidad de las Funciones de Bessel Ortogonalidad: or 7.9.7. Bo rr ad Haciendo el caso particular de α = 0 y ν = 1 en la primera de las expresiones equivalentes para la ecuación de Bessel, tendremos k2 1 0 2 00 u (x) + u (x) + β − 2 u(x) = 0 x x donde u(x) = Jk (βx) multiplicando por x la ecuacion diferencial puede ser reescrita como k2 0 Jk (βx) = 0 [xJk0 (βx)] + β 2 x − x 299 7.9. REVISITANDO A BESSEL suponiendo k real y positivo, planteamos la ecuación para dos ı́ndices diferentes β1 y β2 por lo tanto quedan como k2 0 [xJk0 (β1 x)] + β12 x − Jk (β1 x) = 0 x k2 0 [xJk0 (β2 x)] + β22 x − Jk (β2 x) = 0 x in a r Multiplicando apropiadamente por Jk (β1 x) y Jk (β2 x), Integrando y restando miembro a miembro tendremos que Z 1n Z o 1 0 0 Jk (β2 x) [xJk0 (β1 x)] − Jk (β1 x) [xJk0 (β2 x)] dx xJk (β1 x)Jk (β2 x)dx = β22 − β12 0 0 Z = 1 0 [Jk (β2 x)xJk0 (β1 x) − Jk (β1 x)xJk0 (β2 x)] dx 0 x=1 m = Jk (β2 x)xJk0 (β1 x) − Jk (β1 x)xJk0 (β2 x)|x=0 Pr eli para βi las raı́ces de los polinomios de Bessel, i.e. Jk (βi ) = 0 podemos deducir que las funciones de Bessel son ortogonales Z 1 βi2 − βj2 xJk (βi x)Jk (βj x)dx ∝ δij 0 Más aún partiendo de la ecuación de Bessel original se puede llegar a 2 1 0 β 2 − k2 2 2 [Jk (β)] + [Jk (β)] 2 2β 2 Bo rr ad or kJk (βx)k = 300 r 8 in a Capı́tulo Bo rr ad or Pr eli m Funciones Especiales 301 8.1. ALGUNAS FUNCIONES ESPECIALES 8.1. 8.1.1. Algunas funciones Especiales Función Gamma e Integrales de Probabilidad r Es la generalización del factorial n! el cual sólo está definido para enteros, mientras que Γ (z) está definida para toda variable compleja z con parte real positiva. Γ (z) se define indistintamente como: Z ∞ Y Γ (z) = e−t tz−1 dt ≡ (z − 1)! ≡ (z − 1) Re z > 0 0 in a 1 · 2 · 3 · ··· · n nz z (z + 1) (z + 2) · · · (z + n) z ∞ Y 1 z − γz n e = ze 1+ Γ (z) n n=1 Γ (z) = lı́m n→∞ γ = 0,577215664901 · · · m donde n es un entero positivo y ∞ Z 2 Pr eli se conoce como la constante de Euler-Mascheroni: También es frecuente encontrar Γ (z) con algunas variantes cosméticas: e−t t2z−1 dt = Γ (z) = 2 0 Z 0 1 z−1 Z ∞ 1 dt = k z e−kt tz−1 dt ln t 0 Para probar la equivalencia de las dos primeras definiciones inventamos las siguiente función de dos variables n Z n t F (z, n) = tz−1 dt Re z > 0 1− n 0 y como es conocido que n t ≡ e−t 1− n→∞ n Entonces or lı́m Z lı́m F (z, n) = F (z, ∞) = n→∞ ∞ e−t tz−1 dt ≡ Γ (z) 0 Bo rr ad Con lo cual queda demostrada la primera de propuestas de Euler. Para construir la segunda partimos de la misma función F (z, n) y un cambio estratégico de variable u = nt . Z n F (z, n) = nz n (1 − u) uz−1 du Re z > 0 0 Un par de integraciones por partes nos llevan a comprobar ( ) Z 1 z 1 u n n n−1 (1 − u) F (z, n) = nz (1 − u) + uz du z 0 z 0 ( ) Z 1 n(n − 1) 1 n−2 z+1 n(n − 1) n−2 z+1 z =n (1 − u) u + (1 − u) u du z(z + 1) 0 z(z + 1) 0 302 8.1. ALGUNAS FUNCIONES ESPECIALES que el primer término se anula siempre. Repitiendo el proceso n veces Z 1 n(n − 1)(n − 2)(n − 3) · · · 3 · 2 · 1 z F (z, n) = n uz+n−1 du z(z + 1)(z + 2)(z + 3) · · · (z + n − 1) 0 n(n − 1)(n − 2)(n − 3) · · · 3 · 2 · 1 z =n z(z + 1)(z + 2)(z + 3) · · · (z + n) lı́m F (z, n) = F (z, ∞) = lı́m nz n→∞ n(n − 1)(n − 2)(n − 3) · · · 3 · 2 · 1 z(z + 1)(z + 2)(z + 3) · · · (z + n) ≡ Γ (z) in a n→∞ r Una vez más, haciendo m Se completa la equivalencia para la primera y segunda definiciones de Euler. En particular, de la primera de las definiciones se tiene por integración directa Z ∞ Γ (1) = e−t dt = 1 0 Z ∞ Z ∞ √ 2 1 = e−t t−1/2 dt = Γ e−u du = π 2 0 0 mientras que de la segunda, si z = n = 1, 2, 3, · · · , se obtiene Pr eli Γ (n + 1) = n! 1 1 · 3 · 5 · · · · (2n − 1) √ π Γ n+ = 2 2n Finalmente la tercera de las definiciones de la función Γ (z) viene expresada en término de un producto infinito (Weierstrass). Este puede demostrarse partiendo de la segunda definición de Euler 1 · 2 · 3 · ··· · n nz z (z + 1) (z + 2) · · · (z + n) n n 1 Y m 1 Y z −1 z n = lı́m nz = lı́m 1+ n→∞ z n→∞ z m+z m m=1 m=1 Γ (z) = lı́m n→∞ n Y 1 z −z ln n = z lı́m e 1+ n→∞ Γ (z) m m=1 or Por lo tanto Bo rr ad Ahora bien, multiplicando y dividiendo por n Y ez/m = ez( Pn 1 m=1 m ) m=1 nos queda n Pn 1 = z lı́m ez(( m=1 n→∞ Γ (z) 1 m )−ln n) o ( lı́m n→∞ n Y m=1 z −z/m e 1+ m ) Donde, la serie exponente del primero de los términos converge a un valor constante y cual ha quedado bautizado como la constante de Euler-Mascheroni ( n ! ) X 1 1 1 1 1 γ = lı́m 1 + + + + · · · − ln n = lı́m − ln n n→∞ n→∞ 2 3 4 n m m=1 γ = 0,5772156649015328606065112 · · · 303 8.1. ALGUNAS FUNCIONES ESPECIALES Con lo cual queda demostrada la tercera de las propuestas para expresar la Función Gamma z ∞ Y 1 z − e n = zeγz 1+ Γ (z) n n=1 in a Γ (z + 1) = z Γ (z) Z ∞ z−1 x dx π Γ (z) Γ (1 − z) = = (1 + x) sen πz 0 √ 1 22z−1 Γ (z) Γ z + = πΓ (2z) 2 r Es fácil comprobar las siguientes propiedades 0 0 m La primera de ellas (la relación de recurrencia) es trivial y se obtiene integrando por partes la definición integral de Euler. Z ∞ Z ∞ −t z −t z−1 ∞ Γ (z + 1) = e t dt = z e t +z e−t tz−1 dt = zΓ (z) 0 Pr eli El primer sumando de la integración por partes se anula siempre. Esta propiedad es válida ∀z con z 6= 0, −1, −2, · · · . La segunda de las propiedades (fórmula de reflexión) se comprueba también partiendo de definición integral de Euler con el siguiente cambio de variable t = u2 . Z ∞ Z ∞ 2 −u2 2z−1 Γ (z) Γ (1 − z) = 2 e u du 2 e−v v 1−2z dv 0 Z0Z ∞ 2z−1 −(u2 +v 2 ) u dudv =4 e v 0 or si ahora hacemos u = ρ cos ϕ y v = ρ sen ϕ, la integral anterior queda como Z ∞ Z π/2 2 Γ (z) Γ (1 − z) = 4 ρe−ρ dρ cot2z−1 ϕdϕ 0 =4· Bo rr ad Finalmente, si 1 2 0 π/2 Z cot2z−1 ϕdϕ 0 √ ϕ = arccot x; −dx dϕ = √ 2 x (1 + x) nos queda Z ∞ Γ (z) Γ (1 − z) = 0 π xz−1 dx = (1 + x) sen πz Es inmediato volver a comprobar Γ √ 1 = π 2 Del mismo modo, si utilizamos además la relación de recurrencia encontramos Γ (z) Γ (−z) = π −z sen πz 304 8.1. ALGUNAS FUNCIONES ESPECIALES La fórmula de duplicación y puede comprobarse partiendo de la definición del lı́mite de Euler, ası́ √ 22z−1 Γ (z) Γ z + 21 = π Γ (2z) 1 · 2 · 3 · ··· · n 1 · 2 · 3 · · · · · 2n 2z n2z = lı́m (2n) n→∞ 2z (2z + 1) · · · (2z + n) n→∞ 2z (2z + 1) · · · (2z + 2n) por lo cual se tiene la siguiente expresión dentro del argumento del lı́mite 1 · 2 · 3 · ··· · n 1 · 2 · 3 · ··· · n z n z (z + 1) (z + 2) · · · (z + n) z + 21 z + 32 · · · z + 1 · 2 · 3 · · · · · 2n 2z (2n) 2z (2z + 1) (2z + 2) · · · (2z + 2n) ! 1 2 +n n z+ 12 m 22z−1 in a Γ (2z) = lı́m la cual se reacomoda como 2 r Hay que hacer notar que en el numerador sustituimos directamente las expresiones para del lı́mite de Euler y en la del denominador, adicionalmente sustituimos n por 2n 1 Pr eli n2z+ 2 22z−1 (n!) 2z (2z + 1) (2z + 2) · · · (2z + 2n) · lı́m 2z 3 1 1 n→∞ (2n)! z z + 2 (z + 1) z + 2 (z + 2) · · · z + 2 + n (z + n) (2n) y 1 2 z z + 21 (z + 1) z + 32 (z + 2) · · · z + n2 2n−1 nz+ 2 22z−1 (n!) lı́m · · n→∞ z z + 1 (z + 1) z + 3 (z + 2) · · · z + 1 + n (z + n) (2n)! 22z n2z 2 2 2 Entonces 22z−1 Γ (z) Γ z + Γ (2z) 1 2 = lı́m n→∞ 2√ 2n−2 (n!) n (2n)! or por lo cual se deduce que el valor de lado izquierdo de la ecuación es independiente del valor de z por lo tanto es el mismo valor para cualquier z y lo evaluamos para z = 12 √ 22z−1 Γ (z) Γ z + 21 1 =Γ = π Γ (2z) 2 Bo rr ad con lo cual queda comprobada la fórmula de duplicación. Otras propiedades que van quedar como curiosidad y sin demostración son: Γ (nz) = (2π) (1−n)/2 1 nnz− 2 n−1 Y k=0 z+ k n z z! Γ (z + 1) = = w w!(z − w)! Γ (w + 1) Γ (z − w + 1) A partir de Γ (z) se definen otras funciones especiales, las cuales se expresan conjuntamente con sus propiedades como 305 8.1. ALGUNAS FUNCIONES ESPECIALES 8.1.2. La Funciones Digamma y Poligamma 1 · 2 · 3 · ··· · n nz Γ (z + 1) = z! = lı́m n→∞ (z + 1) (z + 2) · · · (z + n) 1 · 2 · 3 · ··· · n z ln (z!) = ln lı́m n n→∞ (z + 1) (z + 2) · · · (z + n) in a = lı́m (ln (n!) + z ln n − ln (z + 1) − ln (z + 2) − · · · − ln (z + n)) r , Para evitar tratar con derivadas de los factoriales es costumbre trabajar con sus derivadas logarı́tmicas. A partir de la segunda definición n→∞ ahora derivando, y finalmente acomodando, para llegar a la definición más conocida ∞ X n=1 También se le conoce como función Psi ψ(z) = 1 1 − (z + n) n Pr eli F(z) = −γ − m d 1 1 1 ln (z!) ≡ F(z) = lı́m ln n − − − ··· − n→∞ dz (z + 1) (z + 2) (z + n) Γ0 (z) d d = ln (Γ (z)) ≡ F(z − 1) = ln ((z − 1)!) Γ (z) dz dz con las siguientes propiedades 1 + ψ(z) z ψ(z − 1) − ψ(z) = π cot πz 1 + 2 ln 2 = 2ψ(2z) ψ(z) + ψ z + 2 or ψ(z + 1) = Bo rr ad De donde se pueden deducir ψ(1) = Γ0 (1) = γ La función ψ(z) puede ser expresada en términos de integrales definidas, para ello notamos que Z ∞ Γ0 (z) = e−t tz−1 ln t dt 0 y sustituyendo la identidad de Frullani Z ln t = 0 ∞ e−x − e−xt dx x 306 8.1. ALGUNAS FUNCIONES ESPECIALES tendremos Z ∞ −x e − e−xt e−t tz−1 dx dt x Z ∞ 0 Z0 ∞ dx e−x − e−xt e−t tz−1 dt = x 0 Z Z Z0 ∞ Z ∞ dx −x ∞ −t z−1 dx ∞ −t(x+1) z−1 e t dt e e t dt − = x x 0 0 0 0 Z ∞ i dx h −x −z = Γ (z) e − (x + 1) x 0 R∞ 0 e−kt tz−1 dt y por lo tanto ∞ Z ψ(z) = 0 i dx h −x −z e − (x + 1) x Pr eli También daremos (sin demostración) otras expresiones Z ∞ −t e e−tz ψ(z) = − dt t 1 − e−t 0 Z 1 1 − xz−1 dx ψ(z) = −γ + 1−x 0 r ∞ m ya que Γ (z) = k z Z in a Γ0 (z) = La Función Poligamma se obtiene derivando en forma repetida la Función Digamma ψ (m) (z + 1) = F(m) (z) = ∞ X dm 1 m+1 F(z) = (−1) m! m+1 m dz n=1 (z + n) m = 1, 2, 3 · · · y cuya serie puede ser expresada en términos de la función Zeta de Riemman como or ζ(m) ≡ ∞ X 1 nm n=1 F(m) (0) = −1)m+1 m!ζ(m + 1) Bo rr ad de esta forma es posible desarrollar en serie de Maclaurin ln(n!) = −γ + 8.1.3. n z3 z2 n z ζ(2) − ζ(3) + · · · + (−1) ζ(n) + · · · 2 3 n La Aproximación de Stirling El comportamiento asintótico de las funciones especiales será tratado en una clase aparte. Pero la importancia de la Aproximación de Stirling obliga a que se trate en este punto. Supongamos que consideramos el caso z ≡ x ∈ <. Por lo cual estamos interesados en el caso x 1. Partimos de Z Z 1 1 ∞ −t x 1 ∞ −t+x ln t Γ (x) = Γ (x + 1) = e t dt = e dt x x 0 x 0 307 8.1. ALGUNAS FUNCIONES ESPECIALES haciendo t = xu tenemos que ∞ Z Γ (x) = xx e−x(u−ln u) du 0 Ahora bien, el integrando tendrá su máximo en u = 1 donde la exponencial tiene su mı́nimo y es entorno a ese punto que desarrollará en series de Taylor Γ (x) = x x Z ∞ −x(u−ln u) e du ≈ x x ∞ Z du e−x(1+ 2 (u−1) 1 2 − 13 (u−1)3 +··· ) 0 0 √ r por lo cual 1 1 1 2 3 4 (u − 1) − (u − 1) + (u − 1) + · · · 2 3 4 in a u − ln u = 1 + du x (u − 1) nos lleva Z xx e−x ∞ 1 4 1 3 1 5 − 12 v 2 √ v − Γ (x) ≈ √ dve exp v + 3 v − ··· 4x x −√x 3 x 5x 2 m Otro cambio de variable v = Para valores x 1 se expande, en series de Taylor los exponenciales que contengan términos √1 x Pr eli Z xx e−x ∞ 1 3 1 4 1 5 − 12 v 2 √ v − Γ (x) ≈ √ dve 1+ v + + 3 v − ··· 4x x −∞ 3 x 5x 2 2 1 3 1 5 1 1 4 √ v + + v − + 3 v − ··· 2! 3 x 4x 5x 2 ) 3 1 1 3 1 4 1 5 √ v − + v + + ··· 3 v − ··· 3! 3 x 4x 5x 2 Finalmente, utilizando que √ √2π 1 2 dve− 2 v v n = 2π · 1 · 3 · 5 · · · · (n − 1) −∞ 0 ∞ or Z n=0 n = 2k n = 2k − 1 Bo rr ad e integrando término a término, tendremos que r 2π x −x 1 1 Γ (x) ≈ x e 1+ + + · · · x 12x 288 x2 8.1.4. La función Beta Z B(x, y) = 1 y−1 tx−1 (1 − t) dt Re x > 0 ∧ Re y > 0 0 B(x, y) = Γ (x) Γ (y) Γ (x + y) 308 8.1. ALGUNAS FUNCIONES ESPECIALES La Función Integral de Probabilidad La función Integral de Probabilidad para una variable compleja arbitraria z como Z z 2 2 Φ(z) = √ e−t dt π 0 z √ π Φ(z) 2 0 √ Z z 2 π erf c(z) = e−t dt = [1 − Φ(z)] 2 z erf(z) = −t2 e dt = Z α e−t tz−1 dt Pr eli γ (z, α) = m Función Gamma Incompleta γ (z, α) y Función Gamma Complementaria Γ (z, α) in a Z r Obviamente Φ(0) = 0 y Φ(∞) = 1. A partir de esta función se define la Función Error y su complemento Z0 ∞ Γ (z, α) = e−t tz−1 dt α las cuales claramente cumplen con γ (z, α) + Γ (z, α) = Γ (z) y resumen γ (z + 1, α) = zγ (z, α) − αz e−α Bo rr ad or Γ (z + 1, α) = zΓ (z, α) + αz e−α 309 r 9 Bo rr ad or Pr eli m El problema de Sturm-Liuoville in a Capı́tulo 310 9.1. EL PROBLEMA DE STURM-LIUOVILLE 9.1. 9.1.1. El problema de Sturm-Liuoville Cálculo Operacional Toda ecuación diferencial puede ser descrita de la siguiente forma d F (x) = f (x) ⇒ DF (x) = f (x) dx (9.1) (9.2) in a D (Axn + Bxm ) = AD (xn ) + BD (xm ) = nAxn−1 + mBxm−1 r donde D (•) es un operador diferencial lineal, tal y como los estudiamos en su momento. De esta forma y consecuentemente (D − r1 ) (D − r2 ) |yi = 0 con r1 y r1 r1 = r2 = r r1 6= r2 r1 = r2∗ raices de a r2 + b r + c = 0 , Pr eli con soluciones, como era de esperarse de la forma m y en muchos aspectos ese operador diferencial D (•) puede ser tratado como un número más. De esta forma una ecuación diferencial homogénea puede ser descrita en forma de operadores cómo a y 00 + b y 0 + c y = 0 ⇒ O |yi = 0 ⇔ a D2 + b D + c |yi = 0 (9.3) ⇒ ⇒ ⇒ reales reales complejas r1 = α + i β y(x) = (A + Bx) er x y(x) = A er1 x + B er2 x y(x) = eα x (A cos(β x) + B sen(β x)) (9.4) (9.5) Esta notación también se presta para algunas curiosidades. Para una ecuación diferencial genérica con coeficientes constantes se tiene y 00 − 3 y 0 + 2 y = x2 ⇒ D2 − 3D + 2 y = x2 ⇒ (D − 1) (D − 2) y = x2 . (9.6) más aún (9.7) 1 −1 = = −1 − D − D2 − D3 − D4 − · · · D−1 1−D (9.8) D3 1 D D2 − − ··· =− − − 2 4 8 16 (9.9) or x2 x2 x2 ⇒ y= − (D − 1) (D − 2) (D − 2) (D − 1) y= Bo rr ad por lo cual expandiendo −1 1 1 = D−2 2 1− de donde y= D 2 1 D D2 D3 − − − − − ··· 2 4 8 16 x2 − −1 − D − D2 − D3 − D4 − · · · x2 por lo tanto tendremos la solución particular de la ecuación y 00 − 3 y 0 + 2 y = x2 2 x2 x x 1 3 7 y= − − − − −x2 − 2x − 2 = + x+ 2 2 4 2 2 4 (9.10) (9.11) 311 9.1. EL PROBLEMA DE STURM-LIUOVILLE Las operaciones que se usaron arriba están relacionadas muy estrechamente con las propiedades de la integral Z ∞ e−st f (t)dt (9.12) 0 r En el mismo espı́ritu anterior podemos asociar una ecuación diferencial de segundo orden a un operador diferencial d2 d P (x) 2 + Q(x) (9.13) + R(x) u(x) = 0 ⇒ P (x)D2 + Q(x)D + R(x) |ui = 0 ⇔ L |ui = 0 . dx dx {z } | in a L Donde las funciones P (x), Q(x) y R(x) son funciones reales, definidas en el intervalo [a, b] y que cumplen con las siguientes exigencias P (x) no contiene ceros en (a, b). 9.1.2. Operadores diferenciales de segundo orden m P 00 (x), Q0 (x) y R(x) existen y son contı́nuas en [a, b], y Pr eli Consideremos el espacio de Hilbert de funciones continuas en [a, b], en el cual representaremos a esas funciones como |ui y los operadores lineales actúan en ese espacio de Hilbert de la forma acostumbrada L |ui = |ũi. Entonces, a través de la definición del producto interno podemos construir ∗ ∗ hv |ũi = hũ |vi ⇔ hv| L |ui = hu| L† |vi . (9.14) or Sabemos que, los operadores hermı́ticos (o autoadjuntos: L = L† ) tendrá autovalores {λ1 , λ2 , λ3 , · · · , λn } reales y los correspondientes autovectores {|w1 i , |w2 i , |w3 i , · · · , |wn i} serán ortogonales, wi |wj i ∝ δ ij . El hecho que construyamos una ecuación de autovalores con L de la forma expresada en (9.13) implica una ecuación de la forma L |vi i = λi |vi i ⇔ P (x)D2 + Q(x)D + R(x) |vi i = λi |vi i . (9.15) Con lo cual estarı́amos resolviendo una familia de ecuaciones diferenciales homogéneas del tipo dyi (x) d2 yi (x) + Q(x) + (R(x) − λi ) yi (x) = 0 , dx2 dx Bo rr ad P (x) (9.16) parametrizadas por el parámetro λi . Más aún, con esta estrategia podremos integrar ecuaciones diferenciales de la forma dyi (x) d2 yi (x) P (x) + Q(x) + (R(x) − λi w(x)) yi (x) = 0 , (9.17) dx2 dx si consideramos productos internos generalizados con funciones peso w(x) de la forma Z hg |f i = b dx w(x) g ∗ (x)f (x) . (9.18) a Varios son los ejemplos de esta forma general de abordar las ecuaciones diferenciales como un problema de autovalores. Entre ellos podemos mencionar: 312 9.1. EL PROBLEMA DE STURM-LIUOVILLE El oscilador armónico: d2 y(x) = −ω 2 y(x) . dx2 | {z } (9.19) d2 d (1 − x ) − 2x Pn (x) = −n(n + 1) Pn (x) . dx2 dx {z } | (9.20) La ecuación de Legendre: 2 in a L r L En general toda las familias de polinomios ortogonales, pn (x) con producto interno definido como m hp Z |pn i = b w(x)pm (x)pn (x)dx = hn δm n , con w(x) > 0 una función peso en a ≤ x ≤ b. Esto es: m a (9.21) Pr eli d2 d P (x) 2 + Q(x) pn (x) = −αn pn (x) = 0 dx dx {z } | L Donde las expresiones para P (x), Q(x) y αn se encuentran especificadas en la Tabla (9.1) P (x) 1 − x2 1 − x2 1 − x2 1 x x 1 − x2 Q(x) −2x −x −2x −2x 1−x 1−x+α β − α − x(2 + α + β) or Polinomio Pn Tn Un Hn Ln Lα n Pnαβ αn n(n + 1) n2 n(n + 1) 2n n n n(n + α + β + 1) Bo rr ad Cuadro 9.1: Funciones para determinar la ecuación diferencial para la cual son solución los polinomios ortogonales. Con Pn Legendre, Tn Tchebychev 1E; Un Tchebychev 2E; Hn Hermite; Ln Laguerre; Lα n (x) Laguerre G; Pnαβ (x) Jacobi La ecuación de Bessel | 9.1.3. x2 d2 d 2 Jk (x) = k 2 Jk (x); + x + x dx2 dx {z } k ∈ R. (9.22) L Operadores diferenciales autoadjuntos Es claro que las funciones P (x), Q(x) y R(x) tendrán algunas restricciones adicionales a las expresadas arriba, de tal forma que se garantice que el operador L sea autoadjunto (hermı́tico). 313 9.1. EL PROBLEMA DE STURM-LIUOVILLE Para encontrar esas restricciones a los coeficientes, partimos de la definición de producto interno en un espacio de funciones. En general, vimos que, para un espacio de funciones continuas y continuamente diferenciales en [a, b] una posible definición de producto interno es b Z hg |f i = b Z ∗ dx g ∗ (x) Lf (x) , dx g (x)f (x) ⇒ hg| L |f i = a (9.23) a d2 f (x) + dx2 Z b df (x) + dx Z df (x) d(P (x) g ∗ (x)) P (x) g (x) − f (x) dx dx dx g ∗ (x) P (x) a dx g ∗ (x) Q(x) a b dx g ∗ (x) R(x)f (x) . a Integrando por partes la primera y segunda integral tendremos a b d2 f (x) dx g (x) P (x) = dx2 ∗ ∗ y Z b dx g ∗ (x) Q(x) a df (x) b = f (x) Q(x) g ∗ (x)|a − dx Z b b Z a dx f (x) a b dx f (x) + a d2 (P (x) g ∗ (x)) dx2 (9.25) m Z (9.24) in a b Z hg| L |f i = r es decir d(Q(x) g ∗ (x)) dx (9.26) Pr eli Con lo cual podremos escribir: Z b d dP (x) dQ(x) d2 P (x) d2 − Q(x) + R(x) − + g ∗ (x) hg| L |f i = dx f (x) P (x) 2 + 2 dx dx dx dx dx2 a | {z } L† + f (x) Q(x) − dP (x) dx g ∗ (x) + P (x) df (x) ∗ dg ∗ (x) g (x) − f (x) dx dx b (9.27) a donde hemos identificado por L† al operador adjunto de L. Ahora bien, si queremos que L sea autoadjunto (o hermı́tico ) L = L† , entonces se debe cumplir que dP (x) − Q(x) = Q(x) dx or 2 y − dQ(x) d2 P (x) + =0 dx dx2 (9.28) y ambas se satisfacen idénticamente si Bo rr ad dP (x) . (9.29) dx Estas restricciones sobre P (x) y Q(x) son aparentes, porque siempre podremos construir un operador diferencial autoadjunto a partir de cualquier operador diferencial de segundo orden. En efecto, como P (x) únicamente puede tener raı́ces en los extremos del intervalo [a, b], siempre podremos definir ! Z b P̄ (x) = h(x)P (x) 1 Q(x) dx exp ⇒ (9.30) h(x) = P (x) P (x) a Q̄(x) = h(x)Q(x) Q(x) = con lo cual se cumple inmediatamente la condición (9.29), a saber ! ! Z b Z b dP̄ (x) d Q(x) Q(x) Q(x) = exp dx = exp dx = Q̄(x) dx dx P (x) P (x) P (x) a a (9.31) 314 9.1. EL PROBLEMA DE STURM-LIUOVILLE y entonces h(x)L siempre será auto adjunto. Entonces, al utilizar (9.29) en (9.13) es fácil convencerse que todo operador autoadjunto puede ser escrito como d(•) d P (x) + R(x) . (9.32) L↔ dx dx Adicionalmente, la ecuación general (9.27) quedarı́a escrita como: |a † ∗ dx f (x) L g (x) + P (x) {z } df (x) ∗ dg ∗ (x) g (x) − f (x) dx dx hf |L† |gi∗ b . a (9.33) r hg| L |f i = b in a Z Claramente, si L es autoadjunto y f (x) y g(x) son soluciones de una ecuación diferencial autoadjunta, el segundo término se debe anular, y allı́ habrán de incidir las condiciones de borde que se impongan al problema. El Sistema Sturm-Liouville m 9.1.4. Pr eli Evidentemente, si consideramos que f (x) y g(x) son soluciones de una ecuación diferencial autoadjunta (que puede ser representada por un operador lineal de segundo orden autoadjunto L), entonces la ecuación de autovalores d d L |ui i = −λi |ui i ⇔ P (x) + R(x) ui (x) = −λi w(x)ui (x) (9.34) dx dx donde, λi son los autovalores, ui (x) las autofunciones soluciones y w(x) > 0 es la función peso descrita en (9.18). Claramente esta ecuación (9.34) debe ser complementada con las condiciones de frontera P (x)u∗j (x) dui (x) dx b = 0 ∀ i, j (9.35) a or Las ecuaciones (9.34) y (9.35) constituyen Sistema Sturm-Liouville y también se le refiere como el problema de Sturm-Liouville. Se distinguen dos posibles situaciones con las condiciones de frontera: Bo rr ad 1. Condiciones Regulares: Para este caso se especifican los valores de una combinación de las funciones y las derivadas: dui (x) dui (x) β1 ui (x) + γ1 = C1 y β2 ui (x) + γ2 = C2 dx dx en los extremos x = a y x = b. Estos valores son finitos en todo el intervalo de validez de las funciones. Claramente de ésta pueden derivarse cuatro tipos de condiciones de frontera a) Condiciones Regulares Puras: Para este caso se especifican los valores para la combinación lineal completa, con β1 6= 0, β2 6= 0, γ1 6= 0 y γ2 6= 0 b) Condiciones de Dirichlet: Para este caso se especifican los valores de la función ui (x) en los extremos, x = a y x = b. Esto es para γ1 = γ2 = 0 c) Condiciones de Neumann: Para este caso se especifican los valores de las derivadas los extremos, x = a y x = b. Esto es para β1 = β2 = 0 dui (x) dx en d ) Condiciones Mixtas: Cuando se especifican los valores de un tipo de condiciones de frontera en un extremo y otro en el otro. Esto es para β1 = γ2 = 0 o γ1 = β2 = 0 315 9.1. EL PROBLEMA DE STURM-LIUOVILLE 2. Condiciones Periódicas: Para este caso el valor de la función y su derivada es el mismo en los i (x) i (x) = dudx . Otra vez, estos valores son finitos en todo el intervalo de extremos ui (a) = ui (b) y dudx a b validez de las funciones. 3. Condiciones Singulares: Para este caso encontramos valores singulares para las funciones y sus derivadas. Algunos ejemplos ilustrativos r 9.1.5. in a Vamos a analizar el caso muy simple de la ecuación diferencial tipo oscilador armónico libre. Esto es: d2 y(x) + λy(x) = 0 , dx2 (9.36) y veremos como cambia cuando se tienen en cuenta distintos tipos de condiciones de frontera. dy(x) dx y(0) = 0 ∧ m Condición Regular con = 0. x=π Pr eli Este caso corresponde una condición de frontera regular con γ1 = β2 = 0 y, en principio, tendrá soluciones distintas para λ > 0, λ = 0, y λ < 0 λ = 0 La solución será de la forma y(x) = C1 x+C2 como y(0) = 0 tendremos que C2 = 0 y como dy(x) dx = x=π 0 necesariamente C1 = 0. Con lo cual la única solución es y(x) = 0 y λ no será un autovalor de la ecuación (9.36). λ < 0 Podemos re-escribirla con λ = −µ2 . Entonces la solución general para (9.36) tendrá la forma y(x) = C1 eµ x + C2 e−µ x . Las condiciones de frontera imponen 0 = C1 + C2 ∧ 0 = µ C1 eµ π + −C2 e−µ π or y otra vez, tendremos como única solución 0 = C1 = C2 y λ no será un autovalor de la ecuación (9.36). λ > 0 Para éste caso usamos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) + C2 sen(µ x). Las condiciones de frontera imponen: y(0) = 0 ⇒ C1 = 0 y = C2 µ cos(µπ) = 0 ⇒ µn = ± Bo rr ad dy(x) dx x=π 2n + 1 (2n + 1)2 ⇒ λn = 2 4 para n = 0, 1, 2, 3, · · · Es decir, tendremos infinitos auto valores asociados con infinitas autofunciones yi (x) = sen para n = 0, 1, 2, 3, · · · . 2n+1 2 x En primer lugar, es importante señalar que, por ser L un operador hermı́tico sus autovalores son reales y cumplen λ0 < λ1 < λ2 < λ3 · · · , es decir, son crecientes para ı́ndices crecientes de las autofunciones. En segundo lugar que las infinitas autofunciones forman una base ortogonal y, por lo tanto la suma de todas esas soluciones, también será solución de (9.36), con las condiciones de frontera: y(0) = 0 ∧ dy(x) dx = 0 y λ > 0 puede ser escrita como x=π y(x) = ∞ X n=0 sen 2n + 1 x 2 (9.37) 316 9.1. EL PROBLEMA DE STURM-LIUOVILLE y1 = µ r y3 = tanh(µ) y2 = in a µ ⇡ 0.9962 µ m Figura 9.1: Las posibles soluciones µ = − tanh(µ π), tanto para µ > 0 como para µ > 0 para el intervalo [0, 2] se muestra claramente en la figura. Para µ > 0 no existe solución, pero para µ < 0, se encuentra numéricamente que µ ≈ −0,9962 Pr eli Esta hecho nos permitirá resolver el problema inhomogéneo, L |ui = |f i, y será analizado en detalle más adelante. Condición Regular con y(0) = 0 ∧ y(π) + dy(x) dx = 0. x=π Para este caso tendremos una condición de frontera regular con γ1 = 0 y, en principio, tendrá soluciones distintas para λ > 0, λ = 0, y λ < 0. or λ = 0 Se cumplen las mismas situaciones que el caso anterior y se demuestra que sólo es posible la solución trivial y(x) = 0. Bo rr ad λ < 0 Una vez más hacemos λ = −µ2 y la solución general tendrá la forma y(x) = C1 eµ x + C2 e−µ x . Las condiciones de frontera imponen: C1 = −C2 ∧ 0 = C1 eµ π + C2 e−µ π + µ C1 eµ π − C2 e−µ π con lo cual µ=− (eµ π − e−µ π ) ≡ − tanh(µ π) . (eµ π + e−µ π ) Esta ecuación trascendente se tiene que resolver numéricamente. Si µ > 0 no existirá solución para µ = − tanh(µ π). Esto se ilustra claramente en la figura 9.1. No hay punto de corte entre las dos funciones. Por lo tanto volvemos al caso de la solución trivial y(x) = 0. Si µ < 0 entonces, al resolver numéricamente, encontramos que µ ≈ −0,9962, con lo cual λ ≈ −0,9924 y consecuentemente y(x) ≈ C1 e−0,9962 x − e0,9962 x . λ > 0 En éste caso una vez más hacemos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) + C2 sen(µ x). Las condiciones de frontera imponen: y(0) = 0 ⇒ C1 = 0 y, para este caso y(π) = 0 = C2 (sen(µ π) + µ cos(µ π)) ⇒ µ = − tan(µ π) . 317 9.1. EL PROBLEMA DE STURM-LIUOVILLE y1 = µ tan(µ ⇡) y2 = in a r y3 = µ m Figura 9.2: Las posibles soluciones de µ = − tan(µ π), tanto para µ > 0 como para µ > 0 para el intervalo [0, 4] se muestra claramente en la figura. Tanto para µ > 0 como para µ < 0 existen infinitas soluciones. Pr eli Otra vez, la ecuación trascendente µ = − tan(µ π), se tiene que resolver numéricamente. No obstante, procedemos a analizar una posible representación gráfica que se muestra en la Figura 9.2. Claramente, tanto para µ > 0 como para µ < 0 existen infinitas soluciones. Si resolvemos numéricamente para el caso µ > 0 encontramos que: µ1 ≈ 0,7876, µ2 ≈ 1,6716, µ3 ≈ 2,6162 · · · ⇒ λ1 ≈ 0,6204, λ2 ≈ 2,7943, λ3 ≈ 6,8446 · · · Del mimo modo, para µ < 0 se obtiene: µ̃1 ≈ −1,2901, µ̃2 ≈ −2,3731, µ̃3 ≈ −3,4092 · · · ⇒ λ̃1 ≈ 1,6644, λ̃2 ≈ 5,6314, λ̃3 ≈ 11,6225 · · · Por lo tanto la solución, se podrá escribir, ∞ X sen (µn x) − sen (|µ̃n |x) or y(x) = (9.38) n=0 Bo rr ad Condiciones Periódicas Paras las condiciones de frontera periódicas tendremos: y(0) = y(L) y Una vez más se distinguen tres escenarios. dy(x) dx = x=0 dy(x) dx . x=L λ = 0. En este caso, la solución vuelve a ser y(x) = C1 x + C2 y las condiciones de frontera imponen y(0) = y(L) ⇒ C2 = C1 L + C2 ⇒ C1 = 0 dy(x) dx = x=0 dy(x) dx ⇒ C2 = C2 . x=L Por lo tanto, para λ = 0, la solución (9.36) con condiciones de borde periódicas, será y(x) = C2 λ < 0. Una vez más, λ = −µ2 y la solución general tendrá la forma y(x) = C1 eµ x + C2 e−µ x . Las condiciones de frontera imponen y(0) = y(L) ⇒ C1 1 − eµ L = C2 e−µ L − 1 318 9.1. EL PROBLEMA DE STURM-LIUOVILLE y dy(x) dx = x=0 dy(x) dx ⇒ C1 1 − eµ L = −C2 e−µ L − 1 . x=L Por lo tanto, C1 = C2 = 0, y obtenemos la solución trivial y(x) = 0 para valores de λ < 0. λ > 0. Al igual que en lo casos anteriores hacemos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) + C2 sen(µ x). Las condiciones de frontera imponen: r y(0) = y(L) ⇒ C1 (1 − cos(µ L)) = C2 sen(µ L) y m in a dy(x) dy(x) = ⇒ C2 (1 − cos(µ L)) = −C1 sen(µ L) dx x=0 dx x=L con lo cual, al resolver para C2 se obtiene 2 2nπ 2nπ 2C1 (1 − cos(µ L)) = 0 ⇒ cos(µ L) = 1 ⇒ µn = ± para n = 0, 1, 2, 3 · · · ⇒ λn = L L por lo cual, para cada autovalor λn tendremos asociadas dos autofunciones: y1 (x) = cos 2nπ L x y y2 (x) = sen( 2nπ L x) Pr eli Condiciones Singular Aquı́ se presentan uno o más infinitos en el intervalo de validez x ∈ [a, b]. En esta sección analizaremos únicamente el caso para el cual los puntos singulares estén en los extremos x = a y x = b. En este caso, la ecuación (9.34), vale decir dui (x) d P (x) + (R(x) + λi w(x)) ui (x) = 0 , (9.39) L |ui i = −λi w(x) |ui i ⇔ dx dx or tendremos P (a) = 0 o P (b) = 0 o ambos. La aparición de polos en el intervalo de validez de las ecuaciones diferenciales fue lo que motivó el uso del método de Frobenious que se discutió en la sección 7.8. Particularmente, la ecuación de Bessel (7.40) en la sección 7.9 representa este caso. Tal y como discutimos en esas secciones, si incluimos x = 0 en el intervalo de validez de la ecuación esta presenta un polo en uno de los extremos del intervalo. Es decir, en la ecuación de Bessel escrita en forma autoadjunta: d dy(x) n2 2 00 0 2 2 2 2 x y + xy + k x − n y = 0 ⇔ x + k x− y(x) = 0 , (9.40) dx dx x 2 Bo rr ad identificamos: P (x) = x, R(x) = − nx , λ = k 2 y finalmente w(x) = x. Tal y como mostramos en (7.9) la solución general de esta ecuación es: y(x) = C1 Jn (k x) + C2 Yn (k x) con y(a = 0) = 0 ⇒ C2 = 0 ⇒ y(x) = C1 Jn (k x) (9.41) La condición de borde y(a = 0) = 0 impone que C2 = 0 porque Yn (k x → 0) → ∞. Si adicionalmente, imponemos y(b) = 0, entonces se cumplirá que Jn (k a) = 0 por lo cual k a = rJ n ν , donde rJ n ν con ν = 1, 2, 3, · · · son las raı́ces de las función de Bessel Jn (x), tal y como se expresan en la Tabla 7.1. Entonces, al igual que en los casos anteriores tendremos r rJ n ν r2 J nν kn = ⇒ λn = J 2n ν ⇒ yν (x) = C1 Jn x (9.42) a a a De esta forma se tendrán las funciones asociadas con los autovalores y los ceros de la función de Bessel reescalarán el argumento de la función. 319 9.1. EL PROBLEMA DE STURM-LIUOVILLE 9.1.6. Función de Green Consideremos ahora la solución de caso inhomogéneo d dy(x) L |yi = |f i ⇔ P (x) + R(x)y(x) = f (x) . dx dx L |ui i = −λi |ui i ⇒ |yi = ∞ X C i |ui i . (9.44) i=0 i=0 i=0 i=0 in a donde {|ui i} son las autofunciones de L. Por lo tanto podemos expresar (9.43) de la forma ! ∞ ∞ ∞ X X X i |f i = L |yi ⇒ |f i = L C |ui i = C i L |ui i = − C i λi |ui i , r Claramente (9.43) (9.45) m para finalmente proyectar (9.43) a lo largo de las mismas autofunciones |ui i y dado que las funciones {|ui i} son ortogonales, obtenemos los coeficientes C i Rb ∞ X dx u∗j (x) w(x)f (x) 1 uj |f i a j j j i j ⇔ C = . (9.46) u |f i = − C λi u |ui i ⇒ C = R b λj huj |uj i | {z } dx u∗ (x) w(x)uj (x) i=0 a Por lo tanto, |yi = ∞ X 1 ui |f i λi hui |ui i i=0 ! j Pr eli δi j ∞ X 1 |ui i ⇔ y(x) = λ i=0 i Rb dξ u∗i (ξ) w(ξ)f (ξ) a Rb dζ a u∗i (ζ) w(ζ)ui (ζ) ! ui (x) . Siempre se puede normalizar las autofunciones y con ello se simplifica la expresión anterior ! Z b Z b ∞ X 1 ∗ i ∗ dξ ûi (ξ) w(ξ)f (ξ) ûi (x) , û |ûi i = 1 ⇔ dζ ûi (ζ) w(ζ)ûi (ζ) = 1 ⇒ y(x) = λ a a i=0 i donde or |ui i ui |ûi i = p ⇔ ûi (x) = qR . i b hu |ui i dζ u∗i (ζ) w(ζ)ui (ζ) a Bo rr ad De este modo, tendremos ∞ X 1 y(x) = λ i=0 i Z b dξ û∗i (ξ) w(ξ)f (ξ) a ! Z ûi (x) = a b (9.47) (9.48) (9.49) ! ∞ X 1 ∗ û (ξ)ûi (x) w(ξ)f (ξ) . dξ λ i i=0 i {z } | (9.50) G(x,ξ) Por lo tanto, la solución al problema de Sturm-Liouville se puede expresar en términos de la función de Green como Z b ∞ X 1 ∗ y(x) = dξ G(ξ, x)w(ξ)f (ξ) , con: G(ξ, x) = ûi (ξ)ûi (x) . (9.51) λ a i=0 i Para ejemplificar esta técnica, consideremos la ecuación diferencial del oscilador armónico forzado ẍ(t) + ω 2 x(t) = cos(ω̄ t) , con: x(0) = x(π) = 0 donde ẍ ≡ d2 x(t) dt2 (9.52) 320 9.1. EL PROBLEMA DE STURM-LIUOVILLE Resolvemos primero el problema de autovalores p p ẍ(t) + ω 2 x(t) = λ x(t) ⇒ x(t) = A cos t ω 2 − λ + B sen t ω 2 − λ (9.53) Las condiciones de frontera imponen p p ω2 − λ = n y x(π) = 0 ⇒ sen π ω 2 − λ = 0 ⇒ con n = 0, ±1, ±2, · · · (9.54) sen(n t). 2 1/2 π in a Las autofunciones tendrán la forma de xn (t) = An sen(n t). Al normalizarlas tendremos xn (t) = De este modo la función de Green y la solución quedan como: ! Z ∞ ∞ X 2 π sen(n τ ) sen(n t) 2 X sen(n τ ) sen(n t) ⇒ x(t) = dτ cos(ω̄ τ ) , G(τ, t) = π n=0 ω 2 − n2 π 0 ω 2 − n2 n=0 r x(0) = 0 ⇒ A = 0 con lo cual m ∞ Z ∞ 2 X sen(n t) π 2 ω̄ (1 ± cos(ω̄π)) X sen(n t) x(t) = dτ sen(n τ ) cos(ω̄ τ ) ⇒ x(t) = . π n=0 ω 2 − n2 0 π ω̄ 2 − ω 2 + λ ω 2 − n2 n=0 (9.55) (9.56) Pr eli la cual constituye la solución más general para la ecuación del oscilador armónico forzado (9.52). Inspirados en el nuestra motivación inicial, (9.43), podemos extenderla para considerar las siguientes ecuaciones diferenciales dy(x) d (L + λ) |yi = |f i ⇔ P (x) + (R(x) + λ w(x)) y(x) = f (x) (9.57) dx dx donde y(x) estará sometida a algunas de las condiciones de frontera expresadas en 9.1.4. Una vez más resolvemos el problema de autovalores para encontrar las autofunciones en las cuales expandiremos todas las funciones involucradas en el problema. Esto es, en general y siguiendo el esquema presentado en (9.44) L |ûi i = −λi |ûi i ⇒ |f i = ∞ X F i |ûi i ≡ ∞ X ûi |f i |ûi i (9.58) i=0 i=0 or donde hemos supuesto que las autofunciones fueron normalizadas, ûj |ûi i = δij . Con lo cual ! ∞ ∞ X X (L + λ) |yi = |f i ⇒ (L + λ) C i |ûi i = ûi |f i |ûi i ⇒ C i (λi + λ) − ûi |f i = 0 Bo rr ad i=0 (9.59) i=0 y se sigue que ∞ X ûi |f i C = ⇒ |yi = (λi + λ) i=0 i ûi |f i (λi + λ) ! |ûi i ⇔ y(x) = ∞ X i=0 Rb a dξ û∗i (ξ) w(ξ)f (ξ) λi + λ intercambiando sumatorias e integrales tendremos Z b ∞ ∞ X X û∗i (ξ)ûi (x) û∗i (ξ)ûi (x) y(x) = dξ w(ξ)f (ξ) ⇒ G(ξ, x) = , λi + λ λi + λ a i=0 i=0 ! ûi (x) , (9.60) (9.61) podemos identificar claramente la función de Green. Nótese que para el caso λi +λ = 0, es decir si λ en (9.57) coincide con alguno de los autovalores del operador L, la función de Green se hace infinita y este esquema presenta dificultades para su aplicación. 321 r 10 in a Capı́tulo Bo rr ad or Pr eli m Apéndice 322