Uploaded by gimomabessa

VolumenDOS

advertisement
in
a
r
Matemáticas Avanzadas:
Variable Compleja, Series y Ecuaciones
Diferenciales Ordinarias,
con aplicaciones en Maxima
m
H. Hernández
Departamento de Fı́sica, Facultad de Ciencias,
Universidad de Los Andes, Mérida-Venezuela
Pr
eli
L. A. Núñez
Escuela de Fı́sica, Facultad de Ciencias,
Universidad Industrial de Santander, Bucaramanga-Colombia
Bo
rr
ad
or
9 de septiembre de 2018
in
a
r
Índice general
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
8
8
8
8
9
11
12
12
14
18
19
21
21
23
23
24
26
2. Series
2.1. Sucesiones y Series . . . . . . . . . . . . . . . . . . .
2.1.1. Introducción a las sucesiones . . . . . . . . .
2.1.2. Acercándonos al concepto de series . . . . . .
2.1.3. Series elementales . . . . . . . . . . . . . . .
2.1.4. Derivación de series geométricas elementales .
2.1.5. El método de la diferencia . . . . . . . . . . .
2.1.6. Sumando por analogı́a . . . . . . . . . . . . .
2.1.7. Algebra elemental de series . . . . . . . . . .
2.1.8. Series telescópicas . . . . . . . . . . . . . . .
2.1.9. Ejemplos . . . . . . . . . . . . . . . . . . . .
2.1.10. Practicando con Maxima . . . . . . . . . . .
2.1.11. Ejercicios . . . . . . . . . . . . . . . . . . . .
2.2. Criterios de convergencia . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
30
31
35
36
39
42
44
44
45
47
48
52
53
Bo
rr
ad
or
Pr
eli
m
1. Variable Compleja
1.1. Funciones de Variable Compleja . . . . . . . . . . . . . . . . .
1.1.1. De la recta real al plano complejo . . . . . . . . . . . .
1.1.2. Continuidad en el plano complejo . . . . . . . . . . . . .
1.1.3. Diferenciabilidad de funciones complejas . . . . . . . . .
1.1.4. Funciones Analı́ticas y Condiciones de Cauchy-Riemann
1.1.5. Curiosidades de Cauchy-Riemann . . . . . . . . . . . . .
1.2. Puntos y lı́neas de corte, ceros de funciones complejas . . . . .
1.2.1. Puntos y lı́neas de corte . . . . . . . . . . . . . . . . . .
1.2.2. Singularidades, polos y ceros de funciones complejas . .
1.3. Transformaciones conformes . . . . . . . . . . . . . . . . . . . .
1.3.1. Algunas consecuencias y ejemplos . . . . . . . . . . . . .
1.4. Integrales complejas . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1. Algunas propiedades . . . . . . . . . . . . . . . . . . . .
1.5. Teorema Integral de Cauchy . . . . . . . . . . . . . . . . . . . .
1.5.1. El teorema y las regiones . . . . . . . . . . . . . . . . .
1.5.2. Algunas observaciones y el Teorema de Morera . . . . .
1.5.3. Fórmula integral de Cauchy . . . . . . . . . . . . . . . .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ÍNDICE GENERAL
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
or
Bo
rr
ad
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 53
. 54
. 55
. 55
. 56
. 58
. 60
. 60
. 60
. 60
. 61
. 61
. 62
. 64
. 65
. 66
. 69
. 69
. 69
. 69
. 71
. 72
. 73
. 74
. 74
. 74
. 75
. 75
. 76
. 78
. 78
. 80
. 82
. 84
. 85
. 86
. 86
. 87
. 87
. 90
. 91
. 94
. 95
. 95
. 97
. 98
. 99
. 101
r
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
in
a
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
m
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Pr
eli
2.2.1. Convergencia absoluta o condicional . . . . . . . .
2.2.2. Criterio de Comparación . . . . . . . . . . . . . . .
2.2.3. Criterio de la Raı́z . . . . . . . . . . . . . . . . . .
2.2.4. Criterio de d’Alembert . . . . . . . . . . . . . . . .
2.2.5. Criterio de la Integral de Maclaurin . . . . . . . .
2.2.6. Series alternantes y convergencia condicional . . .
2.2.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . .
2.2.8. Practicando con Maxima . . . . . . . . . . . . . .
2.2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . .
2.3. Series de funciones . . . . . . . . . . . . . . . . . . . . . .
2.3.1. Series de Potencias . . . . . . . . . . . . . . . . . .
2.3.2. Convergencia de una serie de potencias . . . . . .
2.3.3. Covergencia uniforme . . . . . . . . . . . . . . . .
2.3.4. Criterio Mayorante de Weierstrass . . . . . . . . .
2.3.5. Criterio de Abel . . . . . . . . . . . . . . . . . . .
2.3.6. Nota sobre el algebra de series de potencias . . . .
2.3.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . .
2.3.8. Practicando con Maxima . . . . . . . . . . . . . .
2.3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . .
2.4. Serie de Taylor . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1. Algunas series de Taylor . . . . . . . . . . . . . . .
2.4.2. La expansión binomial . . . . . . . . . . . . . . . .
2.4.3. Taylor en varias variables . . . . . . . . . . . . . .
2.4.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . .
2.4.5. Practicando con Maxima . . . . . . . . . . . . . .
2.4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . .
2.5. Series y espacios de Hilbert . . . . . . . . . . . . . . . . .
2.5.1. Completitud de E ∞ . . . . . . . . . . . . . . . . .
2.5.2. Conjunto completo de funciones . . . . . . . . . .
2.6. Series de Laurent . . . . . . . . . . . . . . . . . . . . . .
2.6.1. Series de Taylor para funciones analı́ticas . . . . .
2.6.2. Series de Laurent . . . . . . . . . . . . . . . . . . .
2.6.3. Algunos Ejemplos . . . . . . . . . . . . . . . . . .
2.6.4. Integración por el método de los residuos . . . . .
2.6.5. Los residuos de Laurent . . . . . . . . . . . . . . .
2.7. Teorema del Residuo . . . . . . . . .R . . . . . . . . . . . .
∞
2.7.1. Integrales impropias del tipo −∞ dx f (x) . . . . .
2.7.2. Evaluación de integrales, reales,
R ∞impropias . . . . .
2.7.3. Integrales impropias del tipo −∞ dx f (x) . . . . .
2.7.4. Integrales de funciones racionales de cos θ y sen θ .
2.8. Integrales de Fourier . . . . . . . . . . . . . . . . . . . . .
2.9. Series de Polinomios Ortogonales . . . . . . . . . . . . . .
2.10. Polinomios de Legendre . . . . . . . . . . . . . . . . . . .
2.10.1. Generalidades de los Polinomios de Legendre . . .
2.10.2. Relación de Recurrencia . . . . . . . . . . . . . . .
2.10.3. Norma de los Polinomios de Legendre . . . . . . .
2.10.4. Función Generatriz de los Polinomios de Legendre
2.10.5. Otras propiedades de los polinomios de Legendre .
3
ÍNDICE GENERAL
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
102
104
104
105
108
108
110
110
111
113
113
114
114
115
115
115
116
116
122
125
126
126
126
128
128
129
129
130
131
132
132
132
134
134
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
140
141
146
147
147
148
149
150
150
r
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
or
Pr
eli
m
in
a
2.10.6. Potencial Electrostático de un Dipolo Eléctrico . . . . . . . . . . . . . . .
2.10.7. Resumen de Propiedades Polinomios Legendre . . . . . . . . . . . . . . .
2.11. Polinomios de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11.1. Generalidades de los Polinomios de Hemite . . . . . . . . . . . . . . . . .
2.11.2. Función Generatriz de los Polinomios de Hermite . . . . . . . . . . . . . .
2.11.3. Relación de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11.4. Ortogonalidad y Norma de los Polinomios de Hermite . . . . . . . . . . .
2.11.5. Representación Integral de los Polinomios de Hermite . . . . . . . . . . .
2.11.6. El Oscilador armónico, independiente del tiempo, en Mecánica Cuántica.
2.11.7. Resumen de Propiedades Polinomios Hermite . . . . . . . . . . . . . . . .
2.12. Planteamiento General para Polinomios Ortogonales . . . . . . . . . . . . . . . .
2.12.1. Producto interno genérico, norma y ortogonalidad . . . . . . . . . . . . .
2.12.2. Fórmula de Rodrigues genelarizada . . . . . . . . . . . . . . . . . . . . . .
2.12.3. Ejemplos de Polinomios Ortogonales . . . . . . . . . . . . . . . . . . . . .
2.12.4. Relaciones de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.12.5. Función generatriz generalizada . . . . . . . . . . . . . . . . . . . . . . . .
2.12.6. Ecuación diferencial para los Polinomios Ortogonales . . . . . . . . . . . .
2.12.7. Aplicaciones para los polinomios ortogonales . . . . . . . . . . . . . . . .
2.13. Series y transformadas de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.14. Condiciones de Dirichlet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.15. Algunos ejemplos de expansiones en series de Fourier . . . . . . . . . . . . . . . .
2.15.1. Ondas Cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.15.2. Variedades de dientes de sierra . . . . . . . . . . . . . . . . . . . . . . . .
2.15.3. Función cuadrática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.16. Consideraciones de Simetrı́a en series de Fourier . . . . . . . . . . . . . . . . . .
2.16.1. Tratamiento de discontinuidades . . . . . . . . . . . . . . . . . . . . . . .
2.17. El Fenómeno de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.17.1. Corrección al fenómeno de Gibbs: Factor σ de Lanczos . . . . . . . . . . .
2.18. Tranformadas de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.18.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.18.2. Funciones pares e impares . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.18.3. Bases discreta y contı́nuas: La base de Ondas Planas . . . . . . . . . . . .
2.18.4. Un par de ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.18.5. Tranformadas Discretas de Fourier . . . . . . . . . . . . . . . . . . . . . .
Bo
rr
ad
3. Ecuaciones diferenciales ordinarias
3.1. Motivación y origen . . . . . . . . . . . . . . . . . . . . . . . . .
3.2. Ejemplos de algunas ecuaciones diferenciales . . . . . . . . . . . .
3.3. De ecuaciones y ecuaciones diferenciales . . . . . . . . . . . . . .
3.4. Orden y linealidad . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5. Soluciones explı́citas e implı́citas . . . . . . . . . . . . . . . . . .
3.6. Soluciones generales y particulares . . . . . . . . . . . . . . . . .
3.6.1. Familia de soluciones n−paramétricas . . . . . . . . . . .
3.6.2. Solución particular, valores iniciales y valores de contorno
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
ÍNDICE GENERAL
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5. Ecuaciones diferenciales ordinarias de orden mayor a 1
5.1. Definiciones para comenzar . . . . . . . . . . . . . . . . . .
5.2. Homogéneas, lineales, de segundo orden . . . . . . . . . . .
5.3. Ecuaciones diferenciales de orden n . . . . . . . . . . . . . .
5.4. Algunos métodos de solución para ecuaciones inhomogéneas
5.4.1. El Wronskiano . . . . . . . . . . . . . . . . . . . . .
5.4.2. Métodos de los coeficientes indeterminados . . . . .
5.4.3. Métodos de variación de parámetros . . . . . . . . .
5.4.4. Métodos de reducción de orden . . . . . . . . . . . .
5.5. Algunas aplicaciones de las ecuaciones de orden superior . .
5.5.1. Mecánica y Electricidad . . . . . . . . . . . . . . . .
5.5.2. Oscilaciones libres . . . . . . . . . . . . . . . . . . .
5.5.3. Oscilaciones libres amortiguadas . . . . . . . . . . .
5.5.4. Oscilaciones forzadas . . . . . . . . . . . . . . . . . .
5.5.5. Oscilaciones forzadas amortiguadas . . . . . . . . . .
5.5.6. Movimiento alrededor de un punto de equilibrio . . .
5.5.7. Péndulo simple con desplazamiento finito . . . . . .
5.5.8. Disgresión elı́ptica . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
152
153
153
155
156
157
159
160
162
165
165
168
169
172
173
175
176
177
185
185
187
193
195
195
196
197
199
200
205
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
209
210
210
213
215
215
216
218
220
221
221
221
222
225
227
230
231
238
r
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Bo
rr
ad
or
Pr
eli
m
in
a
4. Ecuaciones diferenciales de orden 1
4.1. Soluciones analı́ticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1. Métodos elementales de integración . . . . . . . . . . . . . . . . . . .
4.1.2. Ecuaciones diferenciales separables . . . . . . . . . . . . . . . . . . .
4.1.3. Ecuaciones diferenciales no separables . . . . . . . . . . . . . . . . .
4.1.4. Método de las Isoclinas . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.5. Ecuaciones diferenciales separables . . . . . . . . . . . . . . . . . . .
4.1.6. Variaciones sobre separabilidad . . . . . . . . . . . . . . . . . . . . .
4.1.7. Ecuaciones diferenciales homogéneas . . . . . . . . . . . . . . . . . .
4.1.8. Ecuaciones Isóbaras . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.9. Ecuaciones diferenciales exactas . . . . . . . . . . . . . . . . . . . . .
4.1.10. Ecuaciones diferenciales lineales de orden 1 . . . . . . . . . . . . . .
4.1.11. Ecuaciones diferenciales no lineales y el factor integrador . . . . . .
4.1.12. Ecuación de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.13. Ecuación de Riccati . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.14. Un tipo muy especial de ecuación diferencial no lineal . . . . . . . .
4.1.15. Otros métodos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.16. Solución paramétrica: Ecuaciones no resueltas respecto a la derivada
4.2. Soluciones numéricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1. Las ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2. La idea de la integración y los métodos . . . . . . . . . . . . . . . .
4.2.3. Control del Paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Algunas aplicaciones de ecuaciones diferenciales de primer orden . . . . . .
4.3.1. Ley de Malthus y el decaimiento radioactivo . . . . . . . . . . . . . .
4.3.2. La Ecuación logı́stica o Ley de Verhulst . . . . . . . . . . . . . . . .
4.3.3. La Ley de Enfriamiento de Newton . . . . . . . . . . . . . . . . . . .
4.3.4. Interés Compuesto. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.5. Mecánica Elemental. . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.6. Modelado de Concentración/Desliemiento de Soluciones . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
ÍNDICE GENERAL
5.5.9. ¿Cuán buena es la aproximación lineal? . . . . . . . . . . . . . . . . . . . . . . . . . . 241
5.5.10. El péndulo fı́sico: integración numérica . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
6. Sistemas de ecuaciones diferenciales
6.1. Algunos comentarios iniciales . . . . . . . . . . . . . . . . . . . .
6.1.1. Sistemas lineales homogéneos . . . . . . . . . . . . . . . .
6.1.2. Sistemas lineales inhomogéneos . . . . . . . . . . . . . . .
6.2. Sistemas de ecuaciones diferenciales y el uso de operadores . . . .
6.3. Sistemas de ecuaciones diferenciales y la transformada de Laplace
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7. Métodos de soluciones por series
7.1. Otra vez Algebra de Series . . . . . . . . . . . . . . .
7.2. Un Ejemplo conocido. . . . . . . . . . . . . . . . . .
7.3. Otro Ejemplo menos conocido pero importante . . .
7.4. Método de Diferenciaciones Sucesiva . . . . . .
7.5. Métodos de los Coeficientes Indeterminados .
7.6. Los Puntos y las Estrategias . . . . . . . . . . . . . .
7.7. Ecuaciónes e intervalos en puntos regulares . . . . .
7.8. El Método de Frobenius . . . . . . . . . . . . . . . .
7.8.1. m1 6= m2 ∧ m1 − m2 6= N con N entero. . . .
7.8.2. m1 = m2 . . . . . . . . . . . . . . . . . . . . .
7.8.3. m1 6= m2 ∧ m1 − m2 = N con N entero. . . .
7.9. Revisitando a Bessel . . . . . . . . . . . . . . . . . .
7.9.1. Otras Formas de la Ecuación de Bessel . . . .
7.9.2. Relaciones de Recurrencia: . . . . . . . . . .
7.9.3. Funciones de Bessel y Funciones Elementales
7.9.4. Reflexión: . . . . . . . . . . . . . . . . . . . .
7.9.5. Función Generatriz . . . . . . . . . . . . . . .
7.9.6. Representación Integral para las Funciones de
7.9.7. Ortogonalidad de las Funciones de Bessel . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
Bessel
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
264
265
265
267
269
270
272
272
274
279
281
286
289
296
296
297
298
298
298
299
8. Funciones Especiales
8.1. Algunas funciones Especiales . . . . . . . . . . . . .
8.1.1. Función Gamma e Integrales de Probabilidad
8.1.2. La Funciones Digamma y Poligamma . . . .
8.1.3. La Aproximación de Stirling . . . . . . . . . .
8.1.4. La función Beta . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
301
302
302
306
307
308
9. El problema de Sturm-Liuoville
9.1. El problema de Sturm-Liuoville . . . . . . . . . .
9.1.1. Cálculo Operacional . . . . . . . . . . . .
9.1.2. Operadores diferenciales de segundo orden
9.1.3. Operadores diferenciales autoadjuntos . .
9.1.4. El Sistema Sturm-Liouville . . . . . . . .
9.1.5. Algunos ejemplos ilustrativos . . . . . . .
9.1.6. Función de Green . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
310
311
311
312
313
315
316
320
m
Pr
eli
or
Bo
rr
ad
10.Apéndice
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
244
245
247
251
254
260
r
.
.
.
.
.
in
a
.
.
.
.
.
322
6
r
1
in
a
Capı́tulo
Bo
rr
ad
or
Pr
eli
m
Variable Compleja
7
1.1. FUNCIONES DE VARIABLE COMPLEJA
1.1.
Funciones de Variable Compleja
A continuación, generalizaremos algunos conceptos de funciones de variable compleja.
1.1.1.
De la recta real al plano complejo
f (z) = u(x, y) + iv(x, y)
in
a
r
La idea de función de variable (o variables) reales puede ser extendida (continuada, le dicen también)
al plano complejo. La idea es la de siempre: si en una determinada región del plano complejo a un número
complejo z le corresponde un número (o varios números) complejos w = f (z), diremos que f (z) es una
función de variable compleja z. Obvio que f (z) puede ser biyectiva, en cuyo caso tendremos que a z le estará
asociado uno y solo un número complejo w = f (z). Es claro también que siempre se podrá expresar
con u(x, y) la parte real y v(x, y) la parte imaginaria
(1.1)
Continuidad en el plano complejo
Pr
eli
1.1.2.
m
Esta representación tiene una interpretación adicional. Como representamos un número complejo en el plano
0xy como z = x + iy, pero w = f (z) también podrá ser representada como un punto en el plano 0uv.
Entonces, desde el punto de vista geométrico una función de variable compleja podrá ser entendida como
una ley de transformación entre pares de puntos (x, y) del plano 0xy del argumento z y los puntos (u, v) del
plano 0uv de valor w.
Podemos también extender el concepto de continuidad de una función de variable real a una función
de variable compleja. Esto es: diremos que una función compleja1 w = f (z) será contı́nua en z0 si para un
> 0 siempre existe un δ > 0 tal que |z − z0 | < δ tan pequeño como uno quiera y siempre puede encontrar
|f (z) − f (z0 )| < . La otra manera de verlo es la estándar: si existe el lı́mite cuando z → z0 , es decir,
lı́m f (z) = f (z0 )
z→z0
con u(x, y) y v(x, y) contı́nuas en (x0 , y0 ) ⇒ f (z) será contı́nua en z0 = x0 + iy0
Bo
rr
ad
f (z) = u(x, y) + iv(x, y)
or
En este punto se pueden resaltar que los lı́mites (y con ello la idea de continuidad) en el plano complejo
hereda las sutilezas y dificultades de los lı́mites y continuidades de las funciones en varias variables. En
segundo lugar cabe señalar que la diferencia con las funciones de variable real radica en que los y δ son
radios de un cı́rculo centrado en f (z0 ) y z0 , respectivamente. Adicionalmente, para el caso de las funciones
complejas no tiene sentido los lı́mites por la derecha y por la izquierda que planteábamos para funciones de
variable real. También es obvio que si
1.1.3.
Diferenciabilidad de funciones complejas
La dificultad que subyace en esta definición es equivalente a las dificultades que enfrentamos en las definiciones de derivadas para funciones de varias variables. Diremos entonces que, una función f (z) univaluada
en una región S será diferencialble en esa región si la derivada
f (z + ∆z) − f (z)
∆z→0
∆z
lı́m
1A
[u(x + ∆x, y + ∆y) − u(x, y)] + i [v(x + ∆x, y + ∆y) − v(x, y)]
∆x,∆y→0
∆x + i∆y
df
0
=
= f (z)
dz
=
lı́m
partir de ahora y por razones de simplicidad llamaremos a f (z) función compleja en vez de función de variable compleja.
8
1.1. FUNCIONES DE VARIABLE COMPLEJA
existe y es única.
Una vez más, al igual que en el caso de funciones de varias variables, el concepto de lı́mite (y con éste
el de derivada), debe existir sin importar la ruta o forma de aproximación al punto sobre el cual estamos
calculando la derivada. Esto es, si ∆z → 0 ⇔ ∆x + i∆y → 0, entonces
[u(x + ∆x, y) − u(x, y)] + i [v(x + ∆x, y) − v(x, y)]
∆x
[u(x, y + ∆y) − u(x, y)] + i [v(x, y + ∆y) − v(x, y)]
= −i lı́m
∆y→0
∆y
=
r
f 0 (z)∆x=0
lı́m
∆x→0
in
a
f 0 (z)∆y=0
Ejemplos
1. Sea f (z) = x2 − y 2 + 2ixy
f (z + ∆z) − f (z)
(x + ∆x)2 − (y + ∆y)2 + 2i(x + ∆x)(y + ∆y) − x2 + y 2 − 2ixy
= lı́m
∆x,∆y→0
∆z→0
∆z
∆x + i∆y
f 0 (z) = lı́m
Pr
eli
m
al desarrollar pruebe que, independientemente de la ruta en el plano complejo (∆y = 0; ∆x → 0 o
viceversa) resulta:
(∆x)2 − (∆y)2 + 2i∆x∆y
0
= 2x + i2y
f (z) = lı́m
2x + i2y +
∆x,∆y→0
∆x + i∆y
que es más o menos obvio si hubiéramos notado que f (z) = x2 − y 2 + 2ixy = (x + iy)2 ≡ z 2 con lo cual
(z + ∆z)2 − z 2
2z∆z + (∆z)2
= lı́m
= lı́m (2z + ∆z) = 2z
∆z→0
∆z→0
∆z→0
∆z
∆z
f 0 (z) = lı́m
2. Ahora bien, las cosas no siempre son ası́. Si consideramos f (z) = 2x + iy es rápido comprobar que no
es diferenciable en el plano complejo, ya que
2x + 2∆x + i(y + ∆y) − 2x − iy
2∆x + i∆y
= lı́m
∆x,∆y→0 ∆x + i∆y
∆x,∆y→0
∆x + i∆y
lı́m
or
f 0 (z) =
el cual, claramente no coincide si las direcciones de aproximación a z0 = x0 + iy0 son distintas, vale
decir, por ejemplo: ∆y = 0; ∆x → 0 o ∆x = 0; ∆y → 0.
Bo
rr
ad
Como heredamos todas las ideas y métodos del campo real se cumplen todas las reglas de la derivación
para funciones reales. Vale decir
df (z) dg(z)
d
(f (z) + g(z)) =
+
;
dz
dz
dz
1.1.4.
d
df (z)
dg(z)
(f (z)g(z)) =
g(z) + f (z)
;
dz
dz
dz
d
df (g) dg(z)
(f (g(z)) =
dz
dg
dz
Funciones Analı́ticas y Condiciones de Cauchy-Riemann
Diremos que una función es analı́tica (holomorfa o regular) en una región S, si es univaluada y derivable
en todos los puntos dentro de esa misma región S. Puede darse el caso de que sea analı́tica en la región
excepto en un número finito de puntos (donde es singular). Entonces diremos que es es analı́tica (holomorfa
o regular) en S, excepto en esos puntos.
Una función se denomina una función entera si ésta es analı́tica en todos los puntos del plano finito, como
por ejemplo, los polinomios.
9
1.1. FUNCIONES DE VARIABLE COMPLEJA
A partir de dos estrategias (muy particulares) de aproximación a ∆z → 0 tales como ∆y = 0; ∆x → 0
o ∆x = 0; ∆y → 0, podremos encontrar un criterio para identificar dónde, una función compleja, f (z), es
analı́tica. Esto es
[u(x + ∆x, y) − u(x, y)] + i [v(x + ∆x, y) − v(x, y)]
∆x
∆u(x, y)
∆v(x, y)
= lı́m
+i
,
∆x→0
∆x
∆x
f 0 (z)∆x=0
lı́m
∆x→0
r
=
in
a
f 0 (z)∆y=0
[u(x, y + ∆y) − u(x, y)] + i [v(x, y + ∆y) − v(x, y)]
= −i lı́m
∆y→0
∆y
∆u(x, y) ∆v(x, y)
= lı́m −i
+
,
∆y→0
∆y
∆y
⇔
lı́m
∆x→0
y equivalentemente
f 0 (z)∆y=0 = f 0 (z)∆x=0
⇔
∆u(x, y)
∆v(x, y)
∆u(x, y) ∆v(x, y)
+i
= lı́m −i
+
,
∆y→0
∆x
∆x
∆y
∆y
Pr
eli
f 0 (z)∆y=0 = f 0 (z)∆x=0
m
y ambas tienen que coincidir. Con lo cual
∂v(x, y)
∂u(x, y) ∂v(x, y)
∂u(x, y)
+i
= −i
+
∂x
∂x
∂y
∂y
Con ello hemos encontrado las condiciones necesarias para que una función compleja sea analı́tica, vale decir:
Las condiciones de Cauchy Riemann
∂v(x, y)
∂u(x, y)
=
∂x
∂y
∧
∂v(x, y)
∂u(x, y)
=−
∂x
∂y
(1.2)
or
Ahora tendremos un criterio más expedito para determinar que la función f (z) = 2x + iy no es analı́tica.
∂u(x, y)
∂v(x, y)
∂v(x, y)
∂u(x, y)
u(x, y) = 2x
⇒
= 2 6= 1 =
∧
=0=0=−
v(x, y) = y
∂x
∂y
∂x
∂y
Bo
rr
ad
Para el caso f (z) = x2 − y 2 + 2ixy se cumplen las condiciones de Cauchy-Riemann
∂u(x, y)
∂v(x, y)
∂v(x, y)
∂u(x, y)
u(x, y) = x2 − y 2
⇒
= 2x =
∧
= 2y = −
v(x, y) = 2xy
∂x
∂y
∂x
∂y
pero como esas condiciones son necesarias porque para encontrarlas hemos seleccionado un par de rutas
muy especı́ficas: ∆y = 0; ∆x → 0 y ∆x = 0; ∆y → 0, se requiere exigir algunas condiciones adicionales.
Sin demostración (puede consultar para detalles y demostraciones las referencias indicadas) exigiremos como
condición necesaria y suficiente para que una función sea analı́tica que las cuatro derivadas parciales para
u(x, y) y v(x, y), existan, sean contı́nuas en la región S y que se cumplan las condiciones de Cauchy-Riemann.
El punto crucial (adicional) es que las derivadas sean contı́nuas.
Ejercicios
Investigar los dominios del plano complejo para los cuales las funciones f (z) = |x|−i|y| y f (z) = |z|2 = zz ∗
son analı́ticas.
10
1.1. FUNCIONES DE VARIABLE COMPLEJA
1.1.5.
Curiosidades de Cauchy-Riemann
in
a
r
Las funciones analı́ticas satisfacen algunas propiedades adicionales consecuencias de las condiciones de
Cauchy-Riemann.
La primera es que dada una función compleja genérica f (z) = u(x, y) + iv(x, y), si f (z) es análitica,
u(x, y) y v(x, y) serán funciones armónicas conjugadas, ∇2 u(x, y) = ∇2 v(x, y) = 0, i.e. satisfacen la ecuación
de Laplace. Si derivamos apropiadamente las ecuaciones (1.2) respecto a una y otra variable encontramos
que
∂ ∂v(x, y)
∂ ∂v(x, y)
∂ ∂u(x, y)
∂ 2 u(x, y) ∂ 2 u(x, y)
∂ ∂u(x, y)
+
=0
=
=
=−
⇒
∂x
∂x
∂x
∂y
∂y
∂x
∂y
∂y
∂x2
∂y 2
y equivalentemente
∂ ∂v(x, y)
∂ ∂u(x, y)
∂ ∂u(x, y)
∂ ∂v(x, y)
∂ 2 v(x, y) ∂ 2 v(x, y)
+
= 0,
=−
=−
=−
⇒
∂x
∂x
∂x
∂y
∂y
∂x
∂y
∂y
∂x2
∂y 2
Ejemplo
Pr
eli
m
es decir, hemos demostrado que las partes reales e imaginarias de una función analı́tica son necesariamente
armónicas. La importancia de este resultado radica, en primer lugar, que no son arbitrarias las funciones
u(x, y) y v(x, y) con las cuales construimos f (z). Ambas deben satisfacer la ecuación de Laplace. En segundo
lugar que ambas están ligadas por las condiciones de Cauchy-Riemann, y esto implica que al conocer una
de las funciones armónicas conjugadas, siempre es posible encontrar (salvo una constante de integración) la
otra.
Para ilustrar lo anterior, supongamos la siguiente función armónica conjugada u(x, y) = 2x − x3 + 3xy 2
correspondiente a la parte real de f (z). Es fácil comprobar que es una función armónica, ahora construyamos
la parte imaginaria v(x, y). Esto es
entonces
∂u(x, y)
∂v(x, y)
=
= 2 − 3x2 + 3y 2 ⇒ v(x, y) = 2y − 3x2 y + y 3 + φ(x)
∂x
∂y
or
u(x, y) = 2x − x3 + 3xy 2 ⇒
∂φ(x)
∂u(x, y)
∂φ(x)
∂v(x, y)
= −6xy+
= −6xy = −
⇒
= 0 ⇒ φ(x) = C ⇒ v(x, y) = 2y−3x2 y+y 3 +C .
∂x
∂x
∂y
∂x
Bo
rr
ad
La segunda curiosidad, consecuencia de las ecuaciones (1.2), es que para una función compleja genérica
f (z) = u(x, y) + iv(x, y), en la cual además se cumple que u(x, y) = const y v(x, y) = const, entonces se
cumplirá que: ∇u(x, y) · ∇v(x, y) = 0.
∂u(x, y)
∂u(x, y)
∂v(x, y)
∂v(x, y)
∂u(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y)
∇u(x, y)·∇v(x, y) =
i+
j ·
i+
j =
+
∂x
∂y
∂x
∂y
∂x
∂x
∂y
∂y
y por obra de las condiciones de Cauchy-Riemann es inmediato comprobar que se anulan
∇u(x, y) · ∇v(x, y) = −
∂u(x, y) ∂u(x, y) ∂u(x, y) ∂u(x, y)
+
=0
∂x
∂y
∂y
∂x
Es decir, u(x, y) =const y v(x, y) =const, corresponden a trayectorias mutuamente ortogonales. Esta “curiosidad” nos permite construir sistemas de coordenadas alternativos en el plano complejo y, sobre todo
11
1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS
in
a
r
saber como establecer su transformación a otros planos complejos. Esto se representa en la Figura 1.2 y será
considerado en la sección 1.3 de la página 18.
La tercera curiosidad es un resultado el cual, siendo una formalidad, nos indica que las funciones analı́ticas
f (z) dependen de z y no de su conjugado z ∗ . O dicho de otra manera: z y z ∗ son variables independientes.
Para demostrar esto procedemos primero a convencernos que si f (z) = u(x, y) + iv(x, y) y f (z) analı́tica,
(z)
entonces ∂f
∂z ∗ = 0. Sin detenernos a pensar en el significado de la derivada respecto a la variable conjugada,
recordamos que operacionalmente

z + z∗ 

x=


2
∂f (z) ∂x ∂f (z) ∂y
1 ∂u(x, y)
∂v(x, y)
1 ∂u(x, y)
∂v(x, y)
∂f (z)
=
+
=
+i
−
+i
⇒
∂z ∗
∂x ∂z ∗
∂y ∂z ∗
2
∂x
∂x
2i
∂y
∂y

z − z∗ 


y=
2i
m
arreglando tendremos que es inmediato comprobar que se anula si se cumplen las condiciones (1.2)
1 ∂u(x, y) ∂v(x, y)
∂f (z)
i ∂u(x, y) ∂v(x, y)
z + z∗ z − z∗
=
−
+
+
=
0
⇒
f
(z)
⇔
6
f
(x,
y)
=
f
,
∂z ∗
2
∂x
∂y
2
∂y
∂x
2
2i
Pr
eli
en otras palabras, la funciones analı́ticas son verdaderas funciones de variable complejas y no, como pudiera
parecer, de dos variables reales interpuestas.
Ejercicios
1. Determine la función f (z) analı́tica cuya parte imaginaria es [y cos(y) + xsen(z)]ex
2. Muestre que si f (z) es analı́tica entonces f ∗ (z ∗ ) también lo es.
1.2.
Puntos y lı́neas de corte, ceros de funciones complejas
Bo
rr
ad
or
Hemos mencionamos anteriormente, que los números complejos se representan por su forma polar en
dos ejes coordenados. Ese diagrama bidimiensional lo llamamos Diagrama de Argand. Como en el caso
del Análisis de Funciones Reales, existen funciones multivaluadas, a las cuales les debemos imponer ciertas
condiciones para convertirlas en univaluadas, si una función es multivaluada, automáticamente deja de ser
analı́tica. El objetivo de esta sección es identificar ese conjunto de condiciones para detectar en cual región
del plano complejo una determinada función es univaluada.
1.2.1.
Puntos y lı́neas de corte
Consideremos entonces la función f (z) = z 1/2 y hagamos distintos circuitos cerrados 0 ≤ θ < 2π con el
“vector” z.
f (z) = z 1/2 ≡ r1/2 eiθ/2
→ f (z) = r1/2 eiθ/2
→ r1/2 ei(θ+2π)/2 = −r1/2 eiθ/2
Visto ası́ nos tendremos que preguntar ahora cual fue el circuito que recorrimos con z, y dependiendo de ese
circuito identificaremos algunos puntos con caracterı́sticas distintas. Si el circuito cerrado descrito por z no
contiene el punto z = 0, la función f (z) = z 1/2 retoma su valor original (ver Figura 1.1 cuadrante superior
izquierdo contorno C1 ). Pero si, como se aprecia en la misma Figura 1.1, el circuito cerrado C2 si contiene
el punto z = 0 entonces la función no retoma su valor original, f (z) → −f (z). También es claro que si el
circuito cerrado lo recorremos dos veces θ → 4π entonces f (z) = z 1/2 retoma su valor inicial.
12
m
in
a
r
1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS
Pr
eli
Figura 1.1: Los distintos contornos que identifican los puntos de corte
or
Los puntos alrededor de los cuales se construye un circuito cerrado en el diagrama de Argand y la función
no retoma su valor inicial se denominan puntos de corte y las lı́neas de corte (o simplemente cortes) serán
aquellas lı́neas que separan regiones en las cuales una determinada función es univaluada. Es claro que los
puntos de corte son puntos singulares, en los cuales la función deja de ser analı́tica y existirán si θ toma,
valores 0 ≤ θ ≤ 2nπ. Es decir, puede dar n vueltas.
En este caso, para nuestra función f (z) = z 1/2 , la lı́nea de corte será cualquiera que comience en z = 0 y
continúe para |z| → ∞. Por simplicidad es costumbre tomar las lı́neas de corte a lo largo de los ejes reales o
complejos. De este modo aparece ilustrado en la Figura 1.1 cuadrante superior derecho la lı́nea de corte que
sigue el eje positivo de las x.
La situación se torna más interesante cuando estas definiciones se analizan a la luz de funciones con más
de un punto de corte.
Consideremos la función
q
p
p
√
√
f (z) = z 2 + 1 ⇒ f (z) = (z − i)(z + i) ≡ (r1 eiθ1 ) (r2 eiθ2 ) = r1 r2 eiθ1 /2 eiθ2 /2 = r1 r2 ei(θ1 +θ2 )/2
Bo
rr
ad
analicemos entonces, varios contornos en el plano de Argand. Otra vez la Figura 1.1 ilustra en el cuadrante
inferior los distintos contornos C1 , C2 , C3 y C4 .
Tal y como se aprecia en esa figura, se dan cuatro casos:
1. Contorno C1 no incluye ningún punto de corte, entonces θ1min ≤ θ1 ≤ θ1max y θ2min ≤ θ2 ≤ θ2max ,
con lo cual f (z) retoma su valor inicial luego de recorrer el C1
2. Contorno C2 incluye z = i como punto de corte, entonces 0 ≤ θ1 ≤ 2nπ y θ2min ≤ θ2 ≤ θ2max , por lo
cual f (z) → −f (z)
3. Contorno C3 incluye z = −i como punto de corte, entonces θ1min ≤ θ1 ≤ θ1max y 0 ≤ θ2 ≤ 2nπ, por lo
cual f (z) → −f (z)
4. Contorno C4 incluye ambos como punto de corte,z = i y z = −i, entonces 0 ≤ θ1 ≤ 2nπ y 0 ≤ θ2 ≤ 2nπ,
por lo cual f (z) → f (z) retoma su valor.
13
1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS
De este modo para construir los cortes que impidan que nuestra función sea multivaluada podremos seleccionar:
zcorte > i y zcorte < −i , o − i < zcorte < i
1.2.2.
Singularidades, polos y ceros de funciones complejas
Un punto donde la función f (z) no es analı́tica se denomina un punto singular. Estos puntos pueden ser:
in
a
r
Singularidades aisladas: sı́ una función es analı́tica en todo el entorno de un punto z0 , excepto en
el propio punto z0 , entonces se dice que el punto z0 es una singularidad aislada o un punto singular de
la función f (z).
Por ejemplo, para la función f (z) = 1/z, sabemos que es analı́tica en todo punto excepto en z = 0.
La única singularidad de la función esta en el punto z = 0 y este punto es entonces una singularidad
aiaslada.
m
Singularidades no aisladas: Si una función contiene un conjunto de singularidades aisladas en
una vecindad de un punto z0 , entonces se dice que z0 es una singularidad no aislada. Es decir, una
singularidad no aislada de una función es un punto lı́mite del conjunto de sus singularidades.
Clasificación de las singularidades aisladas
Pr
eli
1. Un punto singular aislado z0 de una función f se denomina removible o evitable si:
lı́m f (z) ∃ .
z→z0
Observemos que:
a) la función f puede no estar definida en z0 y por esta razón la función no es analı́tica en z0 .
b) la función puede estar definida en z0 pero de valor diferente al lı́mz→z0 f (z). Con lo cual la función
no es contı́nua en z0 y por lo tanto no es analı́tica en z0 .
c) la función puede estar definida en z0 y su valor igual al del lı́mz→z0 f (z). En este caso la función
no es singular en z0 .
or
Por lo tanto, sı́ f tiene una singularidad removible en z0 entonces una de las posibilidades (a) o (b)
debe ser la causa de que la función no sea analı́tica o regular en z0 .
Si una función g es igual a f en todos los puntos, excepto en z0 , y
Bo
rr
ad
g(z0 ) = lı́m f (z) ,
z→z0
entonces g no es singular en z0 , esto significa que la singularidad de f puede ser removida mediante la
redefinición de la función f en z0 .
2. Un punto singular aislado z0 de una función f que no esta definida en z0 se llama un polo de orden n
de f si:
n
lı́m (z − z0 ) f (z) = M 6= 0 ,
z→z0
donde n es un número entero positivo. Un polo de orden 1 se denomina un polo simple.
3. Un punto singular aislado de una función f recibe el nombre de singularidad esencial de f si
n
lı́m (z − z0 ) f (z) @ ,
z→z0
para ningún entero positivo de n.
14
1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS
Ejemplos
1. Consideremos la función
3z 2 + 2z
,
(z − 4)(z − i)
la función es analı́tica en todos los puntos, excepto en z = 4 y z = i. Entonces, las únicas singularidades
están en los puntos z = 4 y z = i, y como son un conjunto finito de singularidades cada una de estas
son singularidades aisladas.
2. Sea f la función:
sen
−1
y
x
y
x
cosh
−
i
cos
senh
,
|z|2
|z|2
|z|2
|z|2
in
a
f (z) =
r
f (z) =
m
Si denotamos al denominador como g(z), entonces
y
x
y
x
cosh 2
− i cos 2
senh 2
g(z) = sen 2
x + y2
x + y2
x + y2
x + y2
= u(x, y) + iv(x, y) 6= 0 ,
Pr
eli
Es claro que z 6= 0. Por otra parte, de las condiciones de Cauchy-Riemann se tiene:
∂u
x
x
y 2 − x2
y
y
2xy
∂v
=
cosh
−
senh
=
cos
sen
2
2
∂x
x2 + y 2
x2 + y 2
x2 + y 2
x2 + y 2
∂y
(x2 + y 2 )
(x2 + y 2 )
2xy
x
x
∂u
y
x2 − y 2
y
∂v
=−
2 cos x2 + y 2 cosh x2 + y 2 +
2 sen x2 + y 2 senh x2 + y 2 = − ∂x
2
2
2
2
∂y
(x + y )
(x + y )
Las condiciones de Cauchy-Riemann se satisfacen en todas partes salvo en z = 0, donde ni g ni las
derivadas parciales están definidas. Como las derivadas parciales son contı́nuas, entonces g es analı́tica
en todos los puntos excepto z = 0. Por lo tanto, f es analı́tica salvo en z = 0.
or
Por otra parte, g = 0 si su parte real como su parte imaginaria son nulas, ası́ que las singularidades de
f , además de z = 0, vienen dadas por el siguiente sistema ecuaciones:
x
y
x
y
sen 2
cosh 2
= 0 y cos 2
senh 2
=0
x + y2
x + y2
x + y2
x + y2
Bo
rr
ad
Como cosh(α) > 0, la primera ecuación se satisface si
x
x
sen 2
= ± nπ ,
=0 ⇒ 2
x + y2
x + y2
puesto que cos(α) 6= 0 cuando senh(α) = 0, entonces la segunda ecuación se satisface si y = 0. Por lo
tanto, el sistema se satisface simultáneamente si

x

 x2 + y 2 = ± nπ

1
= ± nπ , n = 0, 1, 2, ...
⇒


x

y=0
Las singularidades ocurren en el eje real y en los puntos donde x = ± 1/nπ. El punto lı́mite de este
conjunto, cuando n → ∞, es el punto z = 0. Por lo tanto, f tiene una singularidad no aislada en z = 0
y singularidades aisladas en los puntos z = ± 1/nπ, con n = 1, 2, 3, ....
15
1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS
3. Dada la función
z 2 + 16
, z 6= 4i ,
z − 4i
esta función es el cociente de dos funciones enteras y por lo tanto es analı́tica, salvo donde el denominador se hace nulo, esto es en z = 4i. Por otra parte:
f (z) =
(z + 4i)(z − 4i)
= z + 4i ,
z − 4i
r
f (z) =
y
lı́m f (z) = lı́m z + 4i = 8i.
z→4i
in
a
z→4i
y queda claro que g es una función entera.
4. Para
1
2z
1
−
=
1−z
1+z
(1 − z)(1 + z)
Pr
eli
f (z) =
m
la función f tiene una singularidad removible en z = 4i pues el lı́mite existe. Podemos definir una
función g igual a f , para z 6= 4i

 z + 4i si z 6= 4i
g(z) =

8i
si z = 4i
y es inmediato darse cuenta que tendremos polos de orden 1 en z = 1 y z = −1
5. Para
senh(z)
ez − e−z
= z
⇒ ez = ei(2n+1)π e−z es un polo
cosh(z)
e + e−z
es decir donde ez = −e−z , con lo cual z0 = n + 21 iπ y al utilizar la definición:
z − n + 12 iπ senh(z)
z − n + 21 iπ cosh(z) + senh(z)
lı́m
=
lı́m
=1
cosh(z)
senh(z)
z→(n+ 21 )iπ
z→(n+ 12 )iπ
f (z) = tanh(z) =
or
donde hemos utilizado el Teorema de L’Hopital y consecuentemente z0 = n +
1
2
iπ es un polo simple.
Bo
rr
ad
Existe otro tipo de singularidades conocidas como removibles. Estas singularidades se caracterizan porque
el valor de f (z) → 0/0 cuando z → z0 . El caso más emblemático es la función
sen(z)
1
z3
z5
z2
z4
f (z) =
⇒ f (z) =
z−
+
··· = 1 −
+
···
⇒ lı́m f (z) = 1
z→0
z
z
3!
5!
3!
5!
con lo cual, luego de desarrollar por Taylor la función sen(z), se ha removido la singularidad aparente.
El comportamiento de una función compleja en infinito (o cuando tiende a infinito), vale decir, cuando
z → ∞ no está tan bien definida como en los casos de funciones de variable real. Es claro como una cantidad
real, digamos |f (z)| o |z| tiende a infinito, pero z es una cantidad “bidimensional” y, en principio, existirı́an
varias formas de tender a infinito. Para precisar el comportamiento de una función compleja de variable
compleja en infinito, hacemos un cambio de variable z = 1/ξ y estudiamos f (1/ξ) con 1/ξ → ∞.
De esta manera:
1.
lı́m z(1 + z 2 ) ≡ lı́m
z→∞
ξ→0
1
1
+ 3
ξ
ξ
con lo cual tendrá un polo de orden 3.
16
1.2. PUNTOS Y LÍNEAS DE CORTE, CEROS DE FUNCIONES COMPLEJAS
2.
z→∞
∞
X
1
ξ→0
n! ξ n
n=0
lı́m ez ≡ lı́m
y presenta una singularidad esencial para z → ∞ .
Los ceros de una función compleja (f (z0 ) = 0, entonces llamaremos z0 un cero de f (z)) se clasifican al
igual que los polos. Esto es
r
f (z) = (z − z0 )n g(z) con n entero positivo y g(z) 6= 0 ∀ z .
in
a
Ejercicios
1. Determine el tipo de singularidades (en caso de poseerlas) de las siguientes funciones en: z = 0 y z = ∞
f (z) =
1
z−2
f (z) =
1 + z3
z2
b)
c)
Pr
eli
1
z
m
a)
f (z) = senh
2. Identifique los ceros, polos y las singularidades esenciales de las siguientes funciones:
a)
f (z) =
b)
z−2
sen
z2
1
1−z
c)
or
f (z) = e1/z
f (z) = tan
1
z
Bo
rr
ad
3. Encuentre el comportamiento en el infinito de
a)
f (z) = a +
b
z2
b)
f (z) = z(1 + z 2 )
c)
f (z) = ez
17
m
in
a
r
1.3. TRANSFORMACIONES CONFORMES
1.3.
Pr
eli
Figura 1.2: Tranformaciones conformes. Tomado de Eric W. Weisstein. Conformal Mapping. MathWorld–
A Wolfram Web Resource. http://mathworld.wolfram.com/ConformalMapping.html
Transformaciones conformes
Nos interesará ahora considerar transformaciones entre planos complejos, esto es:
z = x + iy ↔ w = r + is ⇒ w = g(z) = r(x, y) + is(x, y) ↔ z = h(w) = x(r, s) + iy(r, s)
or
Es decir, transformaciones entre puntos (x, y) ↔ (r, s) correspondientes a dos diagramas de Argand, de
tal modo que existe la función inversa z = h(g(z)) con w = g(z) y z = h(w) funciones analı́ticas, salvo en un
número finito de polos aislados. Entonces denominaremos a este tipo de transformaciones transformaciones
conformes si además, en todo punto z y w (excepto en aquellos en los cuales g 0 (z) y por lo tanto h0 (w) son
cero o infinita) cumple con:
Curvas contı́nuas en el plano z transforman en curvas contı́nuas en el w.
Bo
rr
ad
Los ángulos entre dos curvas cualesquiera que se intersecten en el plano z serán los mismos que los que
formen las curvas transformadas en el plano w. Esto es, los ángulos entre las curvas serán invariantes
bajo la transformación.2
El cambio de escala en la vecindad de puntos transformados es independiente de la dirección en la cual
se mida.
Cualquier función analı́tica en z = x + iy transforma en otra función w = r + is también analı́tica.
La segunda de las afirmaciones es inmediata a partir de la primera. Es decir, si una transformación
conforme de coordenadas tienen inversa y ambas són analı́ticas, es obvio que curvas contı́unas C(z) serán
˜
transformadas a curvas contı́nuas C(w).
2 De
esta propiedad es donde la transformación hereda su nombre de conforme. Son transformaciones isogonales es decir, que
preservan los ángulos entre las curvas que se intersectan.
18
m
in
a
r
1.3. TRANSFORMACIONES CONFORMES
Pr
eli
Figura 1.3: Tranformaciones conformes. Cuadrante superior representa las conservación de ángulos y escala
bajo transformaciones y el inferior un ejemplo de transformaciones conforme
El hecho que la transformación conforme preserva el ángulo y las escalas se muestra en la figura 1.3
y puede comprobarse de la siguiente manera. Considere dos curvas, C1 (z) y C2 (z), en el plano complejo
z = x + iy. Supongamos además que estas curvas se intersectan en un punto z = z0 . Entonces, sobre las
tangentes a cada curva, en z0 , definimos otros dos puntos z1 y z2 de tal forma que


z1 − z0 = ρeiθ1 
 w1 − w0 = ρ1 eiφ1
⇒


w2 − w0 = ρ2 eiφ2
z2 − z0 = ρeiθ2
=
dw
dz
= lı́m
z1 →z0
w1 − w0
ρ2
w2 − w0
ρ1
= lı́m
⇒ g 0 (z0 ) = lı́m ei(φ1 −θ1 ) = lı́m ei(φ2 −θ2 )
z2 →z0 z2 − z0
ρ→0 ρ
ρ→0 ρ
z1 − z0
Bo
rr
ad
dg(z)
dz
or
Nótese que hemos construido los puntos z1 y z2 sobre las tangentes a z0 a la misma distancia ρ de z0
y, en principio, hemos supuesto que las distancias a los puntos transformados w1 y w2 (las cuales hemos
identificado como ρ1 y ρ2 , respectivamente), no son iguales. Ahora bien, dado que w = g(z) es analı́tica
entonces
z=z0
z=z0
Es claro que al comparar las magnitudes y las fases demostramos que las transformaciones conformes preservan las distancias, ρ1 = ρ2 , y los ángulos (φ2 − φ1 ) = (θ2 − θ1 ). Adicionalmente, es muy fácil convecerse que
si la transformación conforme conserva los ángulos entre curvas y las escalas en todas direcciones las figuras
son transformadas en figuras equivalentes quizá ampliadas y rotadas, pero no deformadas.
1.3.1.
Algunas consecuencias y ejemplos
Las consecuencias de la última afirmación reviste alguna importancia. Si f = f (z) es analı́tica en el plano
(x, y) y la transformación z = h(w) también lo es, entonces la función F (w) = f (h(w)) necesariamente es
analı́tica en el plano (r, s).
∆F
∆f ∆h
∆f ∆h
=
≡
∆w
∆h ∆w
∆z ∆w
19
1.3. TRANSFORMACIONES CONFORMES
in
a
r
Por hipótesis supusimos que f y h erán analı́ticas, por lo cual es inmediato concluir que debido a que los
dos factores de la derecha son analı́ticos, la función F (w) también lo será.
Tal y como mostramos en la sección 1.1.5 si f (z) = u(x, y) + iv(x, y), es análitica, entonces u(x, y) y
v(x, y) serán funciones armónicas conjugadas, vale decir que satisfacen la ecuación de Laplace, con lo cual
∇2 u(x, y) = ∇2 v(x, y) = 0. Eso significa que si F = Φ(w) + iΨ(w), entonces:


 2
 2
∂ φ ∂2φ
∂ Φ ∂2Φ












+
=
0
+
=
0






 ∂x2
 ∂x2
∂y 2
∂y 2
f = φ + iψ ⇒
⇔ F = Φ + iΨ ⇒










 ∂2ψ ∂2ψ
 ∂2Ψ ∂2Ψ




+
=
0
+
=
0




2
2
2
2
∂x
∂y
∂x
∂y
Las siguientes transformaciones representan:
rotaciones de ángulo θ: w = zeiθ ;
expansiones de escala a : w = az
Pr
eli
traslaciones: w = z + b;
m
Esto impone que si <[f (z)] = φ es constante en el plano (x, y), también lo será <[F (w)] = Φ en (r, s)
(¡Demuéstrelo!). Esta propiedad deriva una serie de aplicaciones en la solución de la ecuación de Laplace en
dos dimensiones. Si bien es una técnica elegante y útil cuando es posible, no deja de ser limitada porque se
restringe a 2D. Hoy los métodos numéricos para resolver ecuaciones diferenciales en derivadas parciales han
superado con creces este tipo de técnicas.
Los ejemplos son variados.
y pueden ser combinadas como: w = az+b con a y b números complejos. Para la traslación es inmediado.
Para la rotación también si recordamos que z = |z|eiφ con lo cual w = |z|eiφ eiθ = |z|ei(φ+θ)
También la transformación de inversión w = 1/z que transforma los puntos del interior de un cı́rculo
1
1
1 −iφ
unidad a su exterior y viceversa. Una vez más, w = =
=
e . Entonces es claro que
z
|z|eiφ
z
0 ≤ |z| ≤ 1
⇒ ∞ < |w| ≤ 1
∧
1 ≤ |z| ≤ ∞
⇒ 0 < |w| ≤ 1
z − z0
, la cual transforma los
z − z0∗
puntos z0 del semiplano superior complejo y > 0 al interior de un cı́rculo unidad en el w−plano (ver
figura 1.3 en la página 19). Para convencernos de ello notamos que
z − z0
z − z0
|w| = eiθ
=
z − z0∗
z − z0∗
Bo
rr
ad
or
Un caso más interesante lo constituye la transformación w = eiθ
En general si z0 y z los consideramos en el semiplano complejo superior y ≥ 0, entonces siempre se
cumple que |z − z0 | ≤ |z − z0∗ | con lo cual |w| ≤ 1, y como se cumple para todo z en ese semiplano,
entonces cada uno de esos puntos es transformado dentro de un cı́rculo de radio |w|. Es inmediato
convencerse que, la igualdad se cumple para puntos z sobre el eje real y que el punto z = z0 es llevado al
punto w = 0. Finalmente, notamos que si conocemos como transforman dos puntos z1 → w1 y z2 → w2
entonces podremos determinar la transformación, esto es, conocer los valores de los parámetros z0 y φ.
Este caso lo podemos apreciar si consideramos un par de puntos en el semiplano complejo y conocemos
como tranforman, digamos z = i sobre el eje imaginario, e imponemos que sea transformado a w = 0,
entonces es inmediato determinar que z0 = i. Por otro lado, si imponemos que z = ∞ ⇒ w = 1,
z−i
.
entonces: 1 = w = eiθ ⇒ θ = 0, con lo cual w =
z+i
20
m
in
a
r
1.4. INTEGRALES COMPLEJAS
1.4.
Integrales complejas
Pr
eli
Figura 1.4: Integrales complejas y circuitos
Como siempre, luego de definir la derivada, construimos el concepto de integral a partir de la suma de
Riemann. Esto es
Z z2
n
n
X
X
Sn =
f (ζj )(zj − zj−1 ) si n → ∞ ⇒ |zj − zj−1 | → 0 ⇒ lı́m
f (ζj )(zj − zj−1 ) =
dz f (z)
n→∞
j=1
z1
j=1
Es decir, que si el lı́mn→∞ Sn existe, entonces se corresponde con la definición de la integral.
Z
Algunas propiedades
or
1.4.1.
Es claro que esta integral es, necesariamente, una integral de lı́nea, ya que z tiene “dos dimensiones”
Z z2
Z x2 ,y2
Z x2 ,y2
z2
dz f (z) =
[dx + idy] [u(x, y) + iv(x, y)] =
[u(x, y)dx − v(x, y)dy]+i
[v(x, y)dx + u(x, y)dy]
z1
Bo
rr
ad
z1
x1 ,y1
x1 ,y1
(1.3)
con lo cual transformamos una integral compleja en una suma de integrales reales. Pero necesitamos
definir el contorno a través del cual vamos del punto z1 = x1 + iy1 al punto z2 = x2 + iy2 .
La integración compleja tendrá las propiedades acostumbradas
R
R
R
dz (f (z) + g(z)) = C dz f (z) + C dzg(z)
C
R
R
dz Kf (z) = K C dz f (z) con K una constante real o compleja
C
Rb
Ra
dz f (z) = − b dz f (z)
a
Rb
Rm
Rb
dz f (z) = a dz f (z) + m dz f (z)
a
R
dz |f (z)| ≤ M L , donde M = máx |f (z)| y L la longitud de C
C
21
1.4. INTEGRALES COMPLEJAS
Esta última propiedad es importante porque permite establecer cotas a las integrales complejas sin tener que
evaluarlas. De la definición de integral es casi inmediata la demotración
lı́m
n
X
n→∞
Z
z2
dz f (z)
f (ζj )∆zj =
z1
j=1
⇒
n
X
f (ζj )∆zj ≤
n
X
|f (ζj )| |∆zj | ≤ M
j=1
j=1
n
X
|∆zj | ≤ M L
j=1
r
Donde hemos utilizado que |f (ζj )| ≤ M y que la suma de los intervalos ∆zjR = zj − zj−1 es
R la longitud L del
recorrido C. Es claro que tomando lı́mites a ambos miembros obtendremos C dz f (z) ≤ C dz |f (z)| ≤ M L.
in
a
Ejemplos
1. Evaluemos la integral compleja f (z) = z −1 a lo largo de diferentes contornos, tal y como se ilustran en
la figura 1.4
m
a) un circuito cerrado a lo largo de una circunferencia de radio R
I
I
Z 2π
−1
iθ
−1 −iθ
dθ = 2πi
dz z ≡ d(Re ) R e
=i
0
π
Pr
eli
b) siguiendo una semicircunferencia desde (R, 0) → (−R, 0). Esto es
Z z2 =(−R,0)
Z (R,π)
Z
dz z −1 =
d(Reiθ ) R−1 e−iθ = i
z1 =(R,0)
(R,0)
dθ = πi
0
c) siguiendo dos lı́neas rectas entre los puntos (R, 0) → (0, R) → (−R, 0). En este caso, procedemos
utilizando la expresión cartesiana para los números complejos. Para ello, vamos a parametrizar
z = z(t) para (R, 0) → (0, R) y z = z(s) cuando (0, R) → (−R, 0). Veamos
Z z3 =(−R,0)
Z z2 =(0,R)
Z z3 =(0,−R)
dz z −1 =
dz z −1 +
dz z −1
z1 =(R,0)
z1 =(R,0)
z2 =(0,R)
para cada una de las integrales se cumple, respectivamente, que
con lo cual
con 0 ≤ t ≤ 1
∧
or
z = (1 − t)R + itR
Z
z2 =(−R,0)
Bo
rr
ad
z1 =(R,0)
dz
=
z
Z
1
dt
0
z = −sR + i(1 − s)R
−1 + i
+
1 + t(−1 + i)
1
Z
ds
0
con 0 ≤ s ≤ 1
−1 − i
i + s(−1 − i)
procedemos entonces con la primera de las integrales
Z 1
Z 1
Z 1
Z 1
(2t − 1)dt
(−1 + i)dt
(−1 + i)((1 − t) − it)dt
dt
=
=
+
i
2 − t2
2
(1
−
t)
+
it
(1
−
t)
1
−
2t
+
2t
1
−
2t
+ 2t2
0
0
0
0
es decir
Z 1
0
1
(−1 + i)dt
= ln(1 − 2t + 2t2 )
(1 − t) + it
2
1
0
+ i arctan
t−
1
2
1
2
1
=0+
0
i π π π
− −
=
2 2
2
2
y, la segunda integral también tendrá el mismo resultado, con lo cual
Z z2 =(−R,0)
dz
= πi ¡el mismo resultado que a través del arco de circunferencia!
z
z1 =(R,0)
22
1.5. TEOREMA INTEGRAL DE CAUCHY
Es interesante notar que si regresamos al punto (R, 0) a través del contorno (−R, 0) → (0, −R) →
(R, 0) la integral cerrada se anula, no ası́ cuando nos regresamos a través el arco complementario
de circunferencia. En pocas palabras, como se esperaba, el valor de las integrales de camino, para
algunas funciones, dependeran del camino seleccionado. En la próxima sección veremos a cuáles
funciones corresponderá un mismo valor de la integral cerrada, independientemente del circuito
que uno elija.
dz
⇒
(z − z0 )n+1
Z
0
2π
Rieiθ dθ
i
= n
n+1
i(n+1)θ
R
R
e
Z
2π
dθ e−inθ ⇒
0

 n=0:

n 6= 0 :
R 2π
0
dθ = 2iπ
in
a
I
r
2. Otro ejemplo ilustrativo lo constituye
i
Rn
R 2π
0
dθ[cos(nθ) − isen(nθ)] = 0
donde hemos utilizado la forma polar z − z0 ≡ Reiθ e integrado a lo largo de una circunferencia de
radio R centrada en z = z0 .
m
Ejercicios
Repetir los mismos pasos del primer ejemplo para el caso de
1.5.
1.5.1.
Pr
eli
f (z) = (z ∗ )−1 .
Teorema Integral de Cauchy
El teorema y las regiones
El teorema integral de Cauchy es uno de los dos teoremas básicos en la teorı́a de funciones de variable
compleja. Este teorema considera que si f (z) es analı́tica en una región simplemente conexa, R, en su
contorno C y su derivada f 0 (z) existe y es contı́nua en esta región3 , entonces la circulación a lo largo de
cualquier contorno cerrado C se anula. Esto es
I
dz f (z) = 0
or
C
Bo
rr
ad
Antes que nada, y como parte de ese adiestramiento en lenguaje, precisaremos qué queremos decir (qué
quieren decir los matemáticos) con regiones simplemente conexas y múltiplemente conexas.
Una región simplemente conexa es aquella que no tiene “huecos”, o dicho de una manera más precisa
y elegante, en la cual una curva Γ puede ser reducida (encogida) a un punto sin salir de la región R. En
la figura 1.5 cuadrante Ia se muestra una región simplemente conexa y en los cuadrantes Ib y Ic regiones
multiplemente conexas. Estas dos últimas figuras clarifican este concepto. Es decir, una región múltiplemente
conexa es aquella que no es simplemente conexa y con eso queremos decir que “tiene huecos”, o lo que es lo
mismo existen curvas que no se pueden reducir a puntos en la región.
Tal y como hemos comentado la demostración rigurosa del Teorema de Cauchy está fuera de los alcances
de estas notas, pero algo se puede hacer si invocamos el Teorema de Stokes (o uno de los Teoremas de Green
en el plano) que vimos cuando estudiamos análisis vectorial. Con ello recordamos la ecuación (1.3), entonces
Z z2
Z x2 ,y2
Z x2 ,y2
dz f (z) =
[u(x, y)dx − v(x, y)dy] + i
[v(x, y)dx + u(x, y)dy]
z1
x1 ,y1
x1 ,y1
3 Esta
última condición no es necesaria, pero la demostración del teorema se torna mucho más sofisticada, y referimos al
lector a los libros especializados, vale decir a las referencias [?, ?].
23
m
in
a
r
1.5. TEOREMA INTEGRAL DE CAUCHY
El Teorema de Stokes nos dice que
Z
Pr
eli
Figura 1.5: Regiones en el plano complejo
dxdy
R
∂p
∂q
+
∂x ∂y
I
(pdy − qdx)
=
C
con lo cual, si una vez más suponemos f (z) = u(x, y) + iv(x, y) y dz = dx + idy, entonces tendremos que
Z
I
I
Z
∂(u) ∂(−v)
∂(−v) ∂(−u)
+
+i
dxdy
+
=0
(udx − vdy) + i (vdx + udy) =
dxdy
∂x
∂y
∂x
∂y
R
C
C
R
1.5.2.
or
y acto seguido, como f (z) es analı́tica, invocamos las condiciones de Cauchy Riemann (ecuación (1.2)) y es
inmediato ver que se anula la integral de circulación.
Algunas observaciones y el Teorema de Morera
Bo
rr
ad
De la anterior “demostración” del Teorema de Cauchy Riemann emergen algunas observaciones
La primera es la insistencia de que la condición que la derivada f 0 (z) existe y es continua en esta región
no es necesaria.
La segunda es que el Teorema de Cauchy, es válido también para regiones múltiplementes conexas.
Consideremos una región como la descrita en la figura 1.5 cuadrante II, es claro que podemos circular
la integral en los siguientes contornos
I
Z
Z
Z
Z
Z
dz f (z) =
dz f (z) ≡
dz f (z)+
dz f (z)+
dz f (z)+
dz f (z) = 0
C
y como
ABDEAF GHF A
R
ABDEA
AF
F GHF
FA
R
AF
dz f (z) = − F A dz f (z) entonces
Z
Z
dz f (z) +
dz f (z) = 0
ABDEA
F GHF
I
⇔
I
dz f (z) +
C1
dz f (z) = 0
C2
24
1.5. TEOREMA INTEGRAL DE CAUCHY
con lo cual se nota que para regiones múltiplemente conexas, a pesar que las circulaciones son opuestas,
el “observador” que circula por C1 y C2 siempre tiene la región R a su izquierda.
Siguiendo con la reflexión anterior, podemos invertir el sentido de la circulación en el contorno C2 con
lo cual
I
I
I
I
dz f (z) −
dz f (z) = 0 ⇔
dz f (z) =
dz f (z)
C1
C2
C1
C2
r
Es decir, que si f (z) es analı́tica en una región R, da igual cualquier recorrido por las fronteras de una
región y el valor de la integral permanecerá inalterado.
I
dz f (z) =
C1
n I
X
j=1
in
a
Más aún, este resultado puede extenderse a regiones con n huecos de tal forma que, tal y como ilustra
en en la figura 1.5 cuadrante III
dz f (z)
Cj
m
Con lo cual estamos afirmando que, dada una región que contiene un número finito (¿numerable?) n
de singularidades, la integral a lo largo del contorno que encierra la región R es equivalente a la suma
de las integrales que encierran cada una de las n singularidades.
Pr
eli
Enunciaremos sin demostración el Teorema de Morera4 , también conocido como el teorema inverso de Cauchy.
Teorema
de Morera: Si una función f (z) es continua en una región R encerrada por un contorno C y
H
dz
f
(z)
=
0 entonces f (z) es analı́tica en R.
C
Ejemplo
Considere la función definida en una región R
f (z) =
1
z − z0
con
z0 fuera de la región R
z0 dentro de la región R
or
Si z0 está fuera de la región, entonces f (z) es analı́tica en R, con lo cual el Teorema de Cauchy implica
que
I
dz f (z) = 0
Bo
rr
ad
C
Si z0 está dentro de la región, entonces f (z) no es analı́tica en R por cuanto existe una singularidad
z = z0 . Si consideramos C el contorno que bordea a R, como una circunsferencia centrada en z = z0 y
Γ otra circunsferencia que aisla a z0 con un radio |z − z0 | = (esta situación se ilustra en la figura 1.6
cuadrante I). Entonces, si hacemos z − z0 = z̃ = eiθ el Teorema de Cauchy implica
I
C
4 Pueden
dz
=
z − z0
I
Γ
dz
=
z − z0
Z
0
2π
ieiθ dθ
=i
eiθ
Z
2π
dθ = 2πi
0
consultar la demostración en la referencia [Arfken, Weber y Weber 2000].
25
m
in
a
r
1.5. TEOREMA INTEGRAL DE CAUCHY
1.5.3.
Pr
eli
Figura 1.6: Circulaciones y Polos
Fórmula integral de Cauchy
El ejemplo de la sección anterior nos lleva a una de las expresiones más útiles e importantes del análisis
complejo: La Fórmula Integral de Cauchy, la cual dice que si f (z) es analı́tica en una región R encerrada
por un contorno C y consideramos un punto z = z0 contenido en esa región, entonces
I
1
f (z) dz
= f (z0 )
2iπ C z − z0
Para probar esta afirmación supongamos una vez más un circuito en encierra al polo z = z0 (ver figura 1.6
cuadrante II). Con lo cual, como f (z) es analı́tica en una región, el Teorema de Cauchy nos garantiza
I
C
f (z) dz
1
=
z − z0
2iπ
I
Γ
f (z) dz
z − z0
1
⇒
2iπ
or
1
2iπ
iθ
si z−z0 = re
Z
0
2π
f (z0 + reiθ )rieiθ dθ
1
=
iθ
re
2π
Z
2π
f (z0 +reiθ )dθ
0
Bo
rr
ad
si hacemos r → 0 tendremos que
I
I
Z 2π
Z 2π
f (z) dz
f (z) dz
1
1
1
1
iθ
f (z0 + re )dθ =
lı́m f (z0 + reiθ )dθ = f (z0 )
=
= lı́m
r→0 2π 0
2iπ C z − z0
2iπ Γ z − z0
2π 0 r→0
Observaciones
Surgen también observaciones al respecto
Obvio que es válido para regiones múltiplemente conexas y es fácil demostrarlo. Se lo dejamos al lector
como ejercicio.
Si reacomodamos la expresión para la forma integral podemos hacer que esa fórmula sea válida para
todo z
I
1
f (ζ) dζ
f (z) =
2iπ C ζ − z
26
1.5. TEOREMA INTEGRAL DE CAUCHY
Más aún, veremos que es fácil generalizar esta fórmula para derivdas de funciones, vale decir
I
n!
f (z) dz
f (n) (z0 ) =
2iπ C (z − z0 )n+1
in
a
tal y como se muestra en la figura 1.6, cuadrante III tenemos que
I
I
1
f (z) dz
1
f (z) dz
0
f (z0 ) = lı́m
=
h→0 2iπ C (z − z0 − h)(z − z0 )
2iπ C (z − z0 )2
r
Veamos el caso más sencillo y demostremos que para n = 1
I
I
f (z0 + h) − f (z0 )
1
f (z) dz
1
f (z)
1
1
0
0
⇒ f (z0 ) = lı́m
f (z0 ) =
= lı́m
−
dz
h→0
h→0 2iπ C h
2iπ C (z − z0 )2
h
z − z0 − h z − z0
m
Pero mucho más interesante hubiera sido “derivar respecto a una constante”. Este truco implica que
I
I
I
1
f (ζ) dζ
1
∂ n f (ζ)
n!
f (ζ) dζ
(n)
f (z) =
(1.4)
⇒ f (z) =
dζ =
2iπ C ζ − z
2iπ C ∂z n ζ − z
2iπ C (ζ − z)n+1
Pr
eli
Esta fórmula es muy util para calcular integrales. Considere, por ejemplo la siguiente integral
I
e2ζ dζ
2iπ (3)
8iπ −2
I=
≡
f (−1) con f (z) = e2z ⇒ I =
e
4
(ζ
+
1)
3!
3
C
donde hemos supuesto que el contorno C encerraba el punto z = −1, porque de otro modo la función
e2z
serı́a analı́tica y la integral se anuları́a por el Teorema de Cauchy.
(z + 1)4
Ejemplos
1. Evaluar
1
I=
2πi
Z
C
ez
dz , para los entornos: C: |z| = 3 y C: |z| = 1 .
z−2
or
El entorno |z| = 3 contiene en su interior al punto z0 = 2, esto implica que:
Z
ez
1
dz = e2 .
2πi C z − 2
Bo
rr
ad
Para el entorno |z| = 1, vemos que el punto z0 = 2 no está contenido en ese entorno, esto significa que
el integrando es una función analı́tica en toda la región. Por lo tanto:
Z
1
ez
dz = 0.
2πi C z − 2
2. Evaluar
Z
I=
C
1
dz , para los entornos: C1 : |z − i| = 2 , C2 : |z| = 3 y C3 : |z + i| = 2 .
z2 + 4
La integral puede ser escrita de la siguiente manera:
Z
1
I=
dz .
C (z + 2i)(z − 2i)
27
1.5. TEOREMA INTEGRAL DE CAUCHY
Para el contorno |z − i| = 2, tenemos que éste contiene en su interior al punto z0 = 2i. Si escribimos
la integral como
Z
1
z+2i
I=
dz ,
C z − 2i
la función 1/(z + 2i) es analı́tica dentro de C1 y entonces por el teorema de Cauchy
I=
C
z − 2i
dz = 2πi
1
4i
=
π
.
2
r
1
z+2i
Z
Pr
eli
m
in
a
Consideremos ahora el contorno |z| = 3. Este contorno contiene en su interior a los puntos 2i y −2i.
Podemos trazar dos contornos adicionales, de radio alrededor de cada punto, entonces:
Z
Z
Z
1
1
1
dz
=
dz
+
dz
2+4
2+4
2+4
z
z
z
C
C(2i)
C(−2i)
Z
Z
1
1
z+2i
z−2i
=
dz +
dz
C(2i) z − 2i
C(−2i) z + 2i
1
1
= 2πi
+ 2πi
z + 2i z=2i
z − 2i z=−2i
1
1
+ 2πi −
= 0.
= 2πi
4i
4i
Finalmente, para el contorno |z + i| = 2 se tiene que éste contiene al punto z0 = −2i. Repitiendo lo
que hicimos en el primer caso tenemos:
Z
I=
C
1
z−2i
z + 2i
dz
la función 1/(z − 2i) es analı́tica dentro de C3 y entonces por el teorema de Cauchy
Z
1
z−2i
1
π
dz = 2πi −
=− .
z + 2i
4i
2
or
I=
Bo
rr
ad
C
28
r
2
in
a
Capı́tulo
Bo
rr
ad
or
Pr
eli
m
Series
29
2.1. SUCESIONES Y SERIES
La ruta de este capı́tulo
2.1.
Sucesiones y Series
dy(x)
= 1 − 3x + y(x) + x2 + xy(x) .
dx
in
a
r
Básicamente el tema central de este curso tiene que ver con el estudio de las ecuaciones diferenciales
ordinarias y el desarrollo de métodos para resolverlas. Las ecuaciones diferenciales aparecen ya como tema
de estudio, o curiosidad matemática, desde los tiempos de Isaac Newton1 cuando se comenzó con el desarrollo
del Cálculo Diferencial. El propio Newton las estudia en su tratado de cálculo diferencial donde discute sus
soluciones a través de una expansión en series.
Newton estudia la siguiente ecuación diferencial, que por contener una primera derivada llamaremos una
ecuación diferencial de primer orden:
(2.1)
y = 0 + ···
Pr
eli
el cual corresponde al valor inicial x = 0 en la ecuación (2.1).
Al insertar este valor en (2.1) resulta
dy(x)
= 1 + ···
dx
que al integrarse se obtiene
y = x + ···
m
Para buscar su solución, Newton propone el siguiente método que consiste en suponer una solución que tiene
la forma de una serie infinita. El primer término de la serie es:
Sustituyendo esta última expresión en (2.1), resulta
dy(x)
= 1 − 3x + x + · · · = 1 − 2x + 2x2 + · · ·
dx
Integrando esta última ecuación, se obtiene
Repitiendo el proceso:
or
2
y = x − x2 + x2 + · · ·
3
Bo
rr
ad
dy(x)
1
2
= 1 − 2x + x2 − x3 + x4 · · ·
dx
3
3
⇒
y = x − x2 +
x3
1
2
− x4 + x5 + · · ·
3
12
15
Continuando con el método repetidamente se van calculando los diferentes términos de la serie
y = x − x2 +
x4
x5
x6
x7
x3
−
+
−
+
+ ···
3
6
30 45 630
En la figura 2.1 se puede apreciar parte del manuscrito original donde aparece el esquema de solución
por series propuesto por Newton.
1 Sir Isaac Newton (1643-1727), fue un cientı́fico, fı́sico, filósofo, inventor, alquimista y matemático inglés, autor de los
Philosophiae Naturalis Principia Mathematica, más conocidos como los Principia, donde describió la ley de gravitación universal
y estableció las bases de la Mecánica Clásica mediante las leyes que llevan su nombre. Entre sus otros descubrimientos cientı́ficos
destacan los trabajos sobre la naturaleza de la luz y la óptica y el desarrollo del cálculo matemático. Newton fue el primero
en demostrar que las leyes naturales que gobiernan el movimiento en la Tierra y las que gobiernan el movimiento de los
cuerpos celestes son las mismas. Es, a menudo, calificado como el cientı́fico más grande de todos los tiempos, y su obra como
la culminación de la revolución cientı́fica. (Tomado de Wikipedia).
30
m
in
a
r
2.1. SUCESIONES Y SERIES
Pr
eli
Figura 2.1: El esquema de Newton
Por otra parte, notemos que para cada valor de x y y, la ecuación (2.1) no es más que la derivada y 0 (x),
es decir la pendiente, de las soluciones de:
y 0 (x) = 1 − 3x + y(x) + x2 + xy(x) .
Bo
rr
ad
or
De esta manera, con un poco de paciencia, o con algún programa de computación algebraico apropiado, se
puede obtener el campo vectorial correspondiente a la ecuación diferencial, como se puede apreciar en la figura
2.2 (figura 2a). En realidad las soluciones se pueden ver como las curvas determinadas por las direcciones
indicadas en el campo vectorial, figura 2b. Las aproximaciones que se van obteniendo con el método mostrado
anteriormente se pueden observar, junto con la solución verdadera en la Figura 2c. Notemos que todas las
aproximaciones son más cercanas entre si cuando x toma valores cada vez más próximos a cero.
Comencemos entonces nuestro estudio sobre ecuaciones diferenciales precisamente con las series matemáticas.
2.1.1.
Introducción a las sucesiones
Para empezar, vayamos a la noción elemental de sucesiones. Básicamente, una sucesión es una colección
numerable de elementos, dados en cierto orden, como:
1, 2, 3, 4, . . . ,
1, x, x2 , x3 , . . . ,
a, b, c, d .
En matemáticas se puede entender las sucesiones como una aplicación desde los números naturales a
cualquier otro conjunto, no necesariamente de la misma naturaleza. Estos números se denominan los términos,
elementos o miembros de la sucesión. Siendo más rigurosos, una sucesión se puede definir como una función
sobre el conjunto de los números naturales, es decir, que estarı́amos hablando en este caso de una función
discreta.
31
2.1. SUCESIONES Y SERIES
b
(c)
2
2
K
2
K
0
1
1
2
x
K2
y
1
y
1
K1
0
1
2
K
1
K
2
0
1
1
K
1
K1
K
K2
2
x
x
K
r
y(x)
2
1
in
a
a
K
2
2
C1
C2
C3
C4
Sol.
Figura 2.2: (a) Representación de los campos vectoriales. (b) Diferentes soluciones para la ecuación diferencial (2.1).
m
(c) La solución correcta correspondiente al valor inicial y(0) = 0 con las diferentes soluciones aproximadas.
Pr
eli
Es bastante común que se confundan las sucesiones con series matemáticas, veremos que una serie entenderemos es en realidad una suma de términos.
Las sucesiones se diferencian de los conjuntos en el hecho de que es importante considerar el orden en que
aparecen distribuidos. Además, un mismo término de una sucesión puede aparecer varias veces en posiciones
diferentes. Esto significa que las siguientes sucesiones finitas son diferentes:
a, b, c, d
6=
b, c, d, a .
Una sucesión puede contener infinitos elementos y en este caso se denomina una sucesión infinita, por lo
tanto, si a cada número entero positivo se le asocia un elemento un , entonces el conjunto ordenado:
u1 , u2 , u3 , ...un , . . . .
Bo
rr
ad
or
define una sucesión infinita. Cada término un tendrá un siguiente término un+1 y por lo tanto no existe un
último término.
Las sucesiones se pueden expresar de una manera más sencilla definiendo el n-ésimo término, como por
ejemplo:
1
un = ,
n = 1, 2, 3, . . .
n
cuyos primeros cuatro términos son:
1 1 1
1, , , .
2 3 4
Otra manera de definir sucesiones es por medio de una relación de recurrencia, por ejemplo, para la bien
conocida sucesión de Fibonacci la relación de recurrencia es:
u1 = u2 = 1 ,
un+1 = un + un−1 ,
n ≥ 2,
y cuyos primeros términos son:
1, 1, 2, 3, 5, 8, 13, 21, 34, . . .
Como curiosidad matemática, podemos ver que existe una función que permite generar los números
de Fibonacci, esta función cuando se expande en potencias de x tiene como coeficientes, ¡los números de
Fibonacci!
x
= x + x2 + 2 x3 + 3 x4 + 5 x5 + 8 x6 + 13 x7 + 21 x8 + 34 x9 + · · ·
f (x) =
1 − x − x2
32
2.1. SUCESIONES Y SERIES
También es posible definir una sucesión a través del concepto de función. Se define una función para los
enteros positivos, de manera que f (n) es el término n-ésimo de la sucesión para cada n = 1, 2, 3, . . . . Por lo
tanto, los términos de las sucesión se escriben como:
f (1), f (2), f (3), ...f (n), . . .
Las siguientes fórmulas son ejemplos de sucesiones:
(−1)n ⇒ −1, 1, −1, 1, −1, . . .
π
nπ 3π
5π
⇒ sin
, sin (π) , sin
f (n) = sen
, sin (2 π) , sin
...
2
2
2
2
1
3 4 5 6
f (n) = (−1)n 1 +
⇒ −2, , − , , − . . .
n
2 3 4 5
r
=
in
a
f (n)
m
Las sucesiones pueden tener la caracterı́stica de ser crecientes o decrecientes. Una sucesión {f (n)} se dice
que es creciente si:
f (n) ≤ f (n + 1) ∀ n ≥ 1 ,
es decir, cada término es menor o igual al término siguiente. Y si de impone la condición f (n) < f (n + 1) se
denomina estrictamente creciente. Por otro lado, una sucesión se llama decreciente si:
∀ n ≥ 1.
Pr
eli
f (n) ≥ f (n + 1)
y estrictamente decreciente si f (n) > f (n + 1).
Bo
rr
ad
or
Las sucesiones pueden estar acotadas de diferente
manera. Diremos que la sucesión {f (n)} es acotada superiormente si existe un número positivo
M tal que f (n) ≤ M para todo n. También puede ser acotada inferiormente si existe un número
positivo N tal que f (n) ≥ N para todo n. En el
caso de cumplirse ambas condiciones hablaremos
de una sucesión acotada N ≤ f (n) ≤ M .
Podemos hablar de sucesiones monótonas cuando
la diferencia entre un término y el que le sigue
siempre es del mismo signo y además son del tipo
creciente o decreciente.
Nos vemos ahora en la necesidad de hablar del
significado de los términos convergencia o divergencia de una sucesión.
Figura 2.3: Sucesión convergente a cero.
La convergencia o divergencia se determina de manera sencilla, como lo indica el siguiente teorema:
Teorema: Una sucesión monótona converge si y sólo si es acotada.
Revisemos el concepto de convergencia (divergencia). Cuando una sucesión converge, lo que significa
es que tiende a un valor particular llamado su lı́mite, diremos en éste caso la sucesión será una sucesión
convergente. Las sucesiones que no son convergentes se denominan divergentes.
En otras palabras, una sucesión tiene lı́mite si los elementos de la sucesión se hacen cada vez más y más
cercanos a algún valor L (llamado lı́mite de la sucesión). Esto significa que dado un número real ε mayor que
33
2.1. SUCESIONES Y SERIES
cero, todos menos un número finito de elementos de la sucesión estarán siempre a una distancia a L menor
que ε.
Matemáticamente es lo siguiente:
lı́m f (n) = L .
(2.2)
n→∞
Si una sucesión f (n) converge, entonces el lı́mite 2.2 existe, es único y la sucesión es acotada.
En la figura 2.3 podemos ver una representación gráfica para la sucesión:
r
n+1
.
2n2
in
a
f (n) =
Esta serie converge, y es fácil ver que:
n+1
= 0.
2n2
|xm − xn | < ε .
Pr
eli
También existen las sucesiones oscilantes, las
cuales suelen ser divergentes por no tener lı́mite.
Estas sucesiones presentan términos que se alternan de manera indefinida. Cuando cambian
de signo se llaman sucesiones alternadas, como la que mencionamos anteriormente f (n) =
(−1)n ⇒ −1, 1, −1, 1, −1, . . . .
Un ejemplo particular de sucesiones oscilantes
convergentes es la sucesión de Cauchy. Una sucesión de números reales: x1 , x2 , x3 , . . . se denomina una sucesión de Cauchy fundamental si para
todo número positivo ε existe un entero positivo M tal que para todos los números naturales
n, m > M se cumple:
m
lı́m
n→∞
Figura 2.4: Sucesión de Cauchy.
or
En este tipo de sucesiones los elementos se la sucesión se vuelven arbitrariamente cercanos entre sı́ a
medida que la sucesión progresa, como se puede ver en la figura 2.4. Esta condición, necesaria para hablar
de convergencia, se llama la condición de Cauchy.
Existe una serie de resultados interesantes que podemos mencionar:
Bo
rr
ad
Toda sucesión convergente es de Cauchy.
Toda sucesión de Cauchy está acotada.
Para los números reales R, toda sucesión de Cauchy es convergente.
Toda sucesión convergente está acotada.
A medida que n se hace cada más grande, el valor de una sucesión {f (n)} o {un } se puede comportar
de una manera bastante particular. Por ejemplo, si un = 1/n, es claro que un converge a cero a medida que
n → ∞. Pero si un = eαn , el lı́mite dependerá del valor de α.
Por lo tanto, la pregunta a responder tiene que ver con el hecho de saber si los términos de un tienden,
o no, a un lı́mite finito cuando n crece indefinidamente.
34
2.1. SUCESIONES Y SERIES
2.1.2.
Acercándonos al concepto de series
Con el concepto de sucesiones es posible definir una expresión analı́tica que formalmente tiene aspecto
de suma, que contiene un número infinito de sumandos y que denominaremos serie infinita.
Si {un } (con n = 1, 2, 3, . . . ) es una sucesión infinita de números reales o complejos, es posible formar
una nueva sucesión {sn } a partir de tomar sumas parciales de {un }. Veamos el procedimiento:
s2 = u1 + u2 ,
s3 = u1 + u2 + u3 ,
...
sn = u1 + u2 + u3 + · · · un =
n
X
i=1
ui .
r
s1 = u1 ,
in
a
Es decir, partimos con s1 = u1 y decimos que para todo n ∈ N se tiene que sn+1 = sn + un+1 . La sucesión
{sn } la llamaremos la serie de término general an definida a través de la sucesión {un } y la representaremos
por:
∞
X
un .
(2.3)
Al número
sn =
n
X
m
n=1
ui
i=1
Pr
eli
le denominaremos la suma parcial de orden n de la serie (2.3).
Es importante aclarar que una serie es una sucesión cuyos términos se obtienen al sumar de manera
consecutiva lo términos de una sucesión diferente.
Si la sucesión sn tiende a un lı́mite S, la serie infinita
∞
X
ui ,
i=1
se dice que es convergente y converge al valor S, el cual es único. Entonces se puede escribir:
S = u1 + u2 + u3 + · · · + un + · · · =
∞
X
n→∞
n→∞
n
X
ui .
(2.4)
i=1
or
n=1
un = lı́m {sn } = lı́m
El número S se denomina la suma de la serie infinita y debe ser entendido como el lı́mite de la sucesión.
Lo anterior se puede formalizar diciendo que la condición para la existencia de un lı́mite S es que para
cada ε > 0 existe un número N = N (ε) ∈ N tal que:
Bo
rr
ad
|S − si | < ε para i > N ⇒ |sj − si | < ε para, todo i, j > N .
Esta afirmación se denomina criterio de Cauchy2 sobre la convergencia de las series parciales, y viene
a ser la condición necesaria y suficiente para que una suma parcial si converja a medida que avanzamos en
los términos de la serie.
Se dirá que la serie diverge si el valor de la sumatoria aumenta indeteniblemente.
La serie también puede oscilar:
si =
i
X
(−1)n = 1 − 1 + 1 − 1 + · · · + (−1)i + · · ·
n=1
2 Augustin Louis Cauchy Parı́s, 1789 - 1857, matemático francés pionero en los estudios de análisis (real y complejo) y
de la teorı́a de los grupos de permutación. Cauchy hizo aportes importantes en los criterios de convergencia y divergencia de
series infinitas, ası́ como también, en ecuaciones diferenciales, determinantes, probabilidades y fı́sica matemática
35
2.1. SUCESIONES Y SERIES
Aquı́ sn será 0 o 1 y por lo tanto el lı́mite no existe.
La serie cuyos términos son tomados a partir del (n + 1)-ésimo término, y en el mismo orden, de la serie
(2.4) se llama el resto n-ésimo de la serie (2.4) y se denota por:
∞
X
uk ⇒ un+1 + un+2 + un+3 + · · · .
(2.5)
k=n+1
rn =
uk ,
(2.6)
in
a
∞
X
r
Si el resto n-ésimo de la serie (2.4) converge, entonces su suma:
k=n+1
se denomina el resto de la serie.
De las series nos interesa conocer cuánto suman. Es decir, cuál es el valor de si para una serie finita
donde i = N . Pero también estamos interesados en conocer cuánto suma una serie infinita.
Series elementales
m
2.1.3.
Pr
eli
Probablemente, de cursos anteriores hemos conocido algunas series emblemáticas, estudiemos aquı́ algunas
de estas series:
Serie aritmética
Seguramente con anterioridad hemos oı́do hablar de progresiones aritméticas. Ellas son, sencillamente
series de la forma:
sN =
N
−1
X
(a + nd) = a + (a + d) + (a + 2d) + (a + 3d) + (a + 4d) + · · · + [a + (N − 1)d] ,
n=0
donde a y d son números reales o complejos.
Al desarrollar la serie anterior en orden inverso y sumarla con la serie original obtemos:
resultando:
+(a + d)
+ [a + (N − 2)d]
+(a + 2d)
+ [a + (N − 3)d]
or
sN =
a
sN = [a + (N − 1)d]
Bo
rr
ad
2sN = N [a + a + (N − 1)d] ⇒ sN =
+(a + 3d)
+···
+ [a + (N − 4)d] + · · ·
+ [a + (N − 1)d]
+a
i
Nh
Primer Término + Último Término
2
obviamente, si N → ∞ la serie diverge.
Serie Geométrica
De ésta serie también sabemos que:
sN =
N
X
xn = 1 + x + x2 + x3 + · · · + xN ,
n=0
y si realizamos la resta sN − xsN , tenemos
sN = 1 +x
xsN = x +x2
+x2
+x3
+x3
+x4
+···
+···
+xN
+xN +1
36
2.1. SUCESIONES Y SERIES
Es inmediato comprobar que:
(1 − x)sN = 1 − xN +1 ⇒ sN =
1 − xN +1
1
xN +1
=
−
,
1−x
1−x 1−x
Notemos que si x 6= 1 podemos reescribir la serie anterior como:
n=0
1
xn+1
−
1−x 1−x
Por lo tanto podemos ver que si |x| < 1 tendremos que la suma será:
n
∞
X
X
xn+1
1
= 0 ⇒ lı́m
xn =
.
xn =
n→∞ 1 − x
n→∞
1
−
x
n=0
n=0
Por otro lado, la serie divergirá (u oscilará) si |x| > 1.
Series Aritmético-geométricas
(2.8)
m
lı́m
(2.7)
r
xn = 1 + x + x2 + x3 + · · · + xn =
in
a
n
X
sN =
N
−1
X
Pr
eli
Estas series, un poco más exóticas y como su nombre lo sugiere son una combinación de las anteriores.
(a + nd)xn = a + (a + d)x + (a + 2d)x2 + (a + 3d)x3 + (a + 4d)x4 + · · · + [a + (N − 1)d] xN −1 .
n=0
Utilizando la misma estrategia que aplicamos a las series geométricas (se deja como ejercicio al lector)
se llega a encontrar el valor, nada intuitiva, de la suma S:
sN =
xd(1 − xN −1 )
a − [a + (N − 1)d] xN
+
.
1−x
(1 − x)2
or
Otra vez, si |x| < 1, entonces cuando N → ∞ la serie converge a:
S=
Bo
rr
ad
Serie Armónica
a
xd
+
.
1 − x (1 − x)2
Quizá no la conocı́amos con este nombre (y menos por sus propiedades) pero seguro nos la hemos
tropezado.
∞
X
1
1 1 1 1
1
= 1 + + + + + ··· + ···
n
2
3
4
5
n
n=1
Esta serie infinita resulta ser engañosa, en apariencia parece converger, pero no es ası́. Además notemos
lo siguiente:
220
20220
20
X
X 1
X
1
1
≈ 3, 5977 ,
≈ 5, 9731 ,
≈ 10, 492 ,
n
n
n
n=1
n=1
n=1
la suma de los primeros 20 términos es más grande que la suma de los siguientes ¡200 términos! y da
la impresión de que la serie crece muy lentamente hacia algún valor lı́mite.
37
2.1. SUCESIONES Y SERIES
Si analizamos con más cuidado, veremos que hay sutilezas. Acomodemos los términos de la siguiente
forma:
∞
X
1 1 1 1
1
1
1
1 1
1
1
+
+
+···
=1+
+
+
+ + +
+
+ ··· +
n
2
3 4
5 6 7 8
9 10
16
|{z}
n=1
{z
} |
{z
}
| {z } |
σ0
σ1
σ2
σ3
σ0
σ1
σ2
n
+
in
a
∞
X
1
1
1
1
1
1
1
1
+
+
=1+
+
+
+
+
n
1
+
1
2
+
1
2
+
2
4
+
1
4
+
2
4
+
3
4
+
4
n=1
| {z } |
{z
} |
{z
}
r
la expresión anterior puede ser reescrita como:
2
X
1
1
1
1
+··· +
+
+ ··· +
+ ···
n
8+1 8+2
8+8
2 +j
j=1
{z
}
|
σ3
1
7
1
; σ1 =
> ;
2
12
2
y claramente diverge ya que:
σ0 =
σ2 =
533
1
> ;
840
2
95549
1
> ;···
144144
2
1 1 1 1
+ + + + ···
2 2 2 2
Pr
eli
1 + σ0 + σ1 + σ2 + σ3 + · · · > 1 +
σ3 =
m
con lo cual:
Esta prueba aparentemente se le debe a Nicole D’Oresme3 .
Ahora bien, notemos que para todo n ∈ N resulta:
Z
n
1
dx
= ln(n) ⇒ ln(n)
x
Z 3
Z 4
Z k+1
n−1 Z k+1
dx
dx
dx
dx X
dx
+
+
+ ··· +
=
x
x
x
x
x
1
2
3
k
k
k=1
Z
n−1
k+1
X
dx
1 1
1
≤
< 1 + + + ··· + .
k
2
3
n
k
Z
=
2
Es decir
1
1 1
≥ lı́m ln(n) = +∞ .
lı́m 1 + + + · · · +
n→∞
n→∞
2 3
n
Bo
rr
ad
Por lo tanto:
or
k=1
∞
X
1
= +∞ .
n
n=1
Una de las generalizaciones de la serie armónica es la función Zeta de Riemann4
∞
X
1
1
1
1
ζ(z) =
= z + z + z + ··· ,
z
n
1
2
3
n=1
<(z) > 1 .
3 Nicole D’Oresme (1323-1382) Matemático francés que inventó la geometrı́a coordenada antes de Descartes. Sobre la serie
armónica consulte: http://mathworld.wolfram.com/HarmonicSeries.html
4 Georg Friedrich Bernhard Riemann (1826 Hanover, Alemania - 1866 Selasca, Italia) Matemático alemán cuyas ideas
sobre las geometrı́a del espacio han tenido un profundo impacto en el desarrollo de la fı́sica teórica. Igualmente clarificó
la noción de integral al introducir el concepto de lo que hoy se conoce como integral de Riemann. Más detalles en http:
//mathworld.wolfram.com/RiemannIntegral.html.
38
2.1. SUCESIONES Y SERIES
Esta última expresión es también un ejemplo donde a partir de una serie se define una función, en
este caso una función analı́tica. Aquı́ z puede ser un número complejo, z = a + ib, y la serie converge
cuando su parte real es mayor o igual a 1.
La función Zeta de Riemann viene también definida por:
Z ∞
Z ∞ z −x
xz
1
x e
ζ(z) =
dx
,
donde
Γ(z)
=
dx .
Γ(z) 0 x (ex − 1)
x
0
r
Γ(z) es la función gamma.
sn = sn−1 + an ≥ sn−1
2.1.4.
m
de manera que las sumas parciales sn son una sucesión monótona creciente.
in
a
Las mayorı́a de las series que hemos mencionado
P con anterioridad tienen la particularidad de que todos
sus términos son positivos, es decir, para la serie
an se tiene que an ≥ 0, y por lo tanto:
Derivación de series geométricas elementales
Pr
eli
Las series infinitas se encuentran entre las más poderosas herramientas que se introducen en un curso
de cálculo elemental. Son un ejercicio bastante inteligente para la manipulación de limites y son una buena
herramienta para el estudio de las ecuaciones diferenciales, en el desarrollo de métodos numéricos y para
estimar el comportamiento de funciones.
Consideremos la serie geométrica:
a + az + az 2 + az 3 + · · · + az n + · · ·
con |z| < 1. Este es uno de los pocos ejemplos donde se puede encontrar el término de las sumas parciales a
través de una expresión sencilla. Esta serie se puede tomar como punto de partida para encontrar la suma
de un gran número de series interesantes. Consideremos el caso a = 1 y z = x, como en la ecuación (2.8).
or
1 + x + x2 + x3 + · · · + xn + · · · =
1
, |x| < 1 .
1−x
(2.9)
Si cambiamos x por x2 en (2.9) resulta:
Bo
rr
ad
1 + x2 + x4 + x6 + · · · + x2n + · · · =
1
, |x| < 1 .
1 − x2
(2.10)
Si se multiplica (2.10) por x se obtiene:
x + x3 + x5 + x7 + · · · + x2n+1 + · · · =
x
, |x| < 1 .
1 − x2
(2.11)
1
, |x| < 1 .
1+x
(2.12)
1
, |x| < 1 .
1 + x2
(2.13)
Si cambiamos x por −x en (2.9) resulta:
1 − x + x2 − x3 + · · · + (−1)n xn + · · · =
Si cambiamos x por x2 en (2.12) resulta:
1 − x2 + x4 − x6 + · · · + (−1)n x2n + · · · =
39
2.1. SUCESIONES Y SERIES
Si se multiplica (2.13) por x se obtiene:
x − x3 + x5 − x7 + · · · + (−1)n x2n+1 + · · · =
x
, |x| < 1 .
1 + x2
(2.14)
Si cambiamos x por 2x en (2.10) resulta:
1
1
, |x| < .
2
1 − 4x
2
1 + 2x + 3x2 + · · · + nxn−1 + · · · =
in
a
Si se deriva (2.9) entonces:
1
, |x| < 1 .
(1 − x)2
Si se integra (2.12):
x2
x3
x4
(−1)n xn+1
+
−
+ ··· +
+ · · · = ln(1 + x) , |x| < 1 .
2
3
4
n+1
m
x−
Si se integra (2.13) ahora resulta:
x3
x5
x7
(−1)n x2n+1
+
−
+ ··· +
+ · · · = arctan(x) , |x| < 1 .
3
5
7
2n + 1
Pr
eli
x−
(2.15)
r
1 + 4x2 + 16x4 + · · · + 4n x2n + · · · =
(2.16)
(2.17)
(2.18)
Siguiendo a Laplace, quien dijo que habı́a que leer a Euler: “Read Euler, read Euler. He is the master of
us all ”, podemos hacer lo siguiente con la serie (2.17):
ln(1 + x) = x −
x2
x3
x4
+
−
+ ···
2
3
4
(2.19)
Es bueno acotar que Euler utilizó esta expresión para construir ¡tablas de logaritmos!
Ahora hagamos lo siguiente, cambiemos x por −x en la ecuación anterior:
or
ln(1 − x) = −x −
x2
x3
x4
−
−
− ···
2
3
4
(2.20)
restando (2.19) menos (2.20):
Bo
rr
ad
x2
x3
x4
x2
x3
x4
ln(1 + x) − ln(1 − x) =
x−
+
−
+ · · · − −x −
−
−
− ···
2
3
4
2
3
4
2x3
2x5
= 2x +
+
+ ···
3
5
Es decir:
ln
1+x
1−x
= 2x +
2x3
2x5
+
+ ···
3
5
Para valores pequeños de x, digamos x = 1/3 resulta:
ln
1+
1−
1
3
1
3
3
5
2 13
2 13
1
= ln (2) = 2
+
+
+ · · · ≈ 0,6930041152
3
3
5
40
2.1. SUCESIONES Y SERIES
Euler notó la siguiente conexión entre logaritmos y las series armónicas. Cambiando x por 1/n en (2.19)
se obtiene
1
1
1
1
1
ln 1 +
= − 2 + 3 − 4 + ···
n
n 2n
3n
4n
por lo tanto:
1
1
1
1
1
= ln 1 +
+ 2 − 3 + 4 − ···
n
n
2n
3n
4n
n+1
n
Ahora bien, para diferentes valores de n se obtienen las siguientes relaciones
in
a
1
= ln
n
r
y para valores de n muy grandes, se cumple que:
1 1 1
ln (2) + − + − · · ·
2 3 4
1
3
1
1
1
n=2 ⇒
= ln
+ −
+
− ···
2
2
8 24 64
1
4
1
1
1
n=3 ⇒
= ln
+
−
+
− ···
3
3
18 81 324
..
..
..
..
..
.
.
.
.
.
n+1
1
1
1
1
= ln
+ 2 − 3 + 4 − ···
n
n
2n
3n
4n
=
Pr
eli
m
n=1 ⇒ 1
or
Si sumamos columna por columna resulta:
n
X
3
4
n+1
1
= ln (2) + ln
+ ln
+ · · · + ln
k
2
3
n
k=1
1
1 1
1
1
1
1
1
+
1 + + + ··· + 2 −
1+ +
+ ··· + 3
2
4 9
n
3
8 27
n
1
1
1
1
+
+
+ ··· + 4 − ···
1+
4
16 81
n
Bo
rr
ad
Es fácil ver que la suma de los logaritmos de la primera lı́nea se puede escribir como el logaritmo de sus
productos, es decir,
3
4
n+1
3
4
n+1
ln (2) + ln
+ ln
+ · · · + ln
= ln 2
···
= ln (n + 1) .
2
3
n
2
3
n
De manera que, y siguiendo a Euler que llevó a cabo un estimado para los términos sobrantes, resulta lo
siguiente:
n
X
1
≈ ln (n + 1) + 0,577218 .
k
k=1
Para valores de n muy grandes la suma de las serie armónica es igual a un logaritmo más una constante.
Esta constante es actualmente llamada la Constante de Euler y denotada por la letra γ:
" n
#
X1
γ = lı́m
− ln (n + 1) .
(2.21)
n→∞
k
k=1
41
2.1. SUCESIONES Y SERIES
La constante de Euler juega un papel central en otras ramas de las matemáticas, por ejemplo, en el
análisis real aparece como:
Z ∞
γ=−
e−x ln (x) dx .
0
2.1.5.
El método de la diferencia
r
A veces para una serie finita, {sN }, uno encuentra que para el término n-ésimo se tiene que:
in
a
an = f (n) − f (n − 1) .
para alguna función f (n).
En ese caso es inmediato demostrar lo siguiente:
an =
n=1
N
X
f (n) −
n=1
N
X
f (n − 1) = f (N ) − f (0) .
n=1
Por ejemplo, si tenemos la serie:
N
X
Pr
eli
1
,
n(n
+ 1)
n=1
se puede ver que:
an =
(2.22)
m
sN =
N
X
1
1
1
1
=−
+
⇒ f (n) = −
,
n(n + 1)
n+1 n
n+1
por lo tanto, la suma se podrá expresar como:
sN = f (N ) − f (0) = −
1
N
+1=
.
N +1
N +1
Se puede ir más allá si identificamos que el término n-ésimo tiene la forma:
an = f (n) − f (n − m) ,
or
por lo tanto, la suma de la serie se puede escribir como:
sN =
N
X
an =
Bo
rr
ad
n=1
N
X
n=1
f (n) −
N
X
f (n − m) .
(2.23)
n=1
Hay que hacer notar que el argumento n − m puede ser positivo o negativo. Con lo cual el método de la
diferencia resulta versátil y muy útil cuando se requiere encontrar la suma de series de variada dificultad.
Podemos ver que:
Si m = 1
sN =
N
X
an = f (N ) − f (0) .
n=1
como la ecuación (2.22).
Si m = 2
sN =
N
X
an = f (N ) + f (N − 1) − f (0) − f (−1) .
n=1
42
2.1. SUCESIONES Y SERIES
Si m = 3
sN =
N
X
an = f (N ) + f (N − 1) + f (N − 2) − f (0) − f (−1) − f (−2) .
n=1
Consideremos la siguiente serie y su expansión en fracciones simples
N
X
se tiene que el término n-ésimo es:
an =
1
1
1
1
=−
+
⇒ f (n) = −
,
n(n + 2)
2(n + 2) 2n
2(n + 2)
de manera que:
1
1
− −
,
2(n + 2)
2n
m
an = f (n) − f (n − 2) = −
de forma y manera que, como m = 2, resulta:
3 1
= f (N ) + f (N − 1) − f (0) − f (−1) = −
4 2
1
1
+
N +2 N +1
=
N (3 N + 5)
.
4 (N + 1) (N + 2)
Pr
eli
sN
in
a
r
1
,
n(n + 2)
n=1
Ahora bien, con alguna frecuencia surgen las series de números naturales. La más simple es:
sN = 1 + 2 + 3 + · · · + N =
N
X
n=
n=1
N (N + 1)
,
2
es decir, una serie aritmética de razón d = 1.
Más interesante puede ser la serie de cuadrados de números enteros:
or
sN = 1 + 22 + 32 + · · · + N 2 =
N
X
n=1
n2 =
N (N + 1)(2N + 1)
.
6
Bo
rr
ad
Este resultado, nada intuitivo, surge de la aplicación ingeniosa del método de la diferencia. Tal y como
hemos dicho, se trata de encontrar que el elemento genérico de la serie sea: an = f (n) − f (n − 1) = n2 para
alguna función.
Suponga una función del tipo
f (n) = n(n + 1)(2n + 1) ⇒ f (n − 1) = (n − 1)n(2n − 1) ,
entonces:
f (n) − f (n − 1) = n(n + 1)(2n + 1) − (n − 1)n(2n − 1) = 6n2 ,
con lo cual:
an = 6n2 ⇒ sN =
N
X
n=1
an =
f (N ) − f (0)
N (N + 1)(2N + 1)
=
.
6
6
43
2.1. SUCESIONES Y SERIES
2.1.6.
Sumando por analogı́a
Como siempre, intentaremos proceder por analogı́a. La intención es expresar una serie complicada como
sumas de series conocidas. Considere el siguiente ejemplo:
N
X
(n + 1)(n + 3) =
n=1
con lo cual:
sN =
2.1.7.
N
N
N
X
X
X
n2 + 4n + 3 =
n2 +
4n +
3,
n=1
n=1
n=1
n=1
N (2N 2 + 15N + 31)
N (N + 1)(2N + 1) N (N + 1)
+
+ 3N =
.
6
2
6
r
N
X
in
a
sN =
Algebra elemental de series
∞
X
u=
an
∞
X
y v=
n=0
bn ,
n=0
con lo cual la suma de esas series será:
∞
X
an +
∞
X
bn =
∞
X
(an + bn ) .
Pr
eli
u+v =
m
Las series se suman, se igualan y se multiplican. Para ello es importante que tengamos cuidado con los
ı́ndices y sus valores. Consideremos un par de series infinitas:
n=0
n=0
n=0
Los ı́ndices son mudos y se acomodan para ser sumados.
Para sumar series es imperioso que los ı́ndices de cada serie comiencen con el mismo valor, esto es:
∞
X
an +
n=0
∞
X
bj =
j=1
∞
X
(an−1 + bn ) = a0 +
n=1
∞
X
(an + bn ) .
n=1
Nótese que hemos hecho los siguientes cambios: j → n y n → n − 1.
Algo parecido ocurre cuando las series se igualan:
n=0
bn =
∞
X
n=1
nan ⇒
∞
X
bn =
∞
X
(k + 1)ak+1 ⇐⇒
or
∞
X
n=0
∞
X
[(n + 1)an+1 − bn ] = 0 .
n=0
k=0
Bo
rr
ad
Para finalizar se puede comprobar que las series también se pueden multiplicar:
uv =
∞
X
n=0
an
∞
X
bn =
n=0
∞
X
cn ,
n=0
donde:
cn = a0 bn + a1 bn−1 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0 .
Cuando las sucesiones comprenden sumas y productos de otras sucesiones, es decir, sı́ uk y vk son dos
sucesiones con uk → U y vk → V cuando k → ∞, entonces se cumple que:
1. si a y b son números independientes de k, entonces auk + bvk → aU + bV cuando k → ∞.
2. uk vk → U V para k → ∞.
3. si V 6= 0 entonces uk /vk → U/V a medida que k → ∞.
4. si uk < vk ∀ k > N entonces U ≤ V cuando k → ∞.
44
2.1. SUCESIONES Y SERIES
P∞
Teorema: P
Si la serie n=1 un converge, entonces cualquiera de sus restos converge. Si cualquier resto
∞
de la serie n=1 un converge, entonces la propia serie también converge, y si además:
S=
∞
X
un ,
si =
n=1
∞
X
un ,
n=1
ri =
∞
X
un .
n=i+1
Entonces:
r
S = si + ri .
i→∞
i→∞
Series telescópicas
m
2.1.8.
in
a
Se tiene entonces que es posible agregar o quitar un número finito de términos a la serie dada y esta
operación no influirá sobre su convergencia. También se desprende del teorema anterior que si la serie converge
entonces su resto tiende a cero:
lı́m ri = lı́m (S − si ) = 0 .
Una propiedad importante de las series finitas es la propiedad denominada telescópica:
k=1
(ak − ak+1 ) = a1 − an+1 ,
(2.24)
Pr
eli
n
X
P
para el caso de series infinitas, se consideran aquellas series
un donde cada término se puede expresar
como una diferencia de la forma:
un = an − an+1 .
Las series telescópica son series cuyas sumas parciales se van cancelando de manera tal que al final resulta
un número fijo de términos:
(a1 − a2 ) + (a2 − a3 ) + (a3 − a4 ) + · · · + (an − an+1 ) = a1 − an+1 .
or
Teorema: Sean {un } y {an } dos sucesiones de números reales o complejos tales que:
un = an − an+1
P
un converge si y sólo si la sucesión {an } converge, en cuyo caso se tiene:
Bo
rr
ad
Entonces la serie
para n = 1, 2, 3, ... .
∞
X
un = a1 − L donde L = lı́m an .
n→∞
n=1
Consideremos la siguiente serie:
∞
X
1
.
2+n
n
n=1
Podemos demostrar que:
un =
n2
1
1
1
= −
,
+n
n n+1
45
2.1. SUCESIONES Y SERIES
Es fácil verificar que:
N X
1
n=1
n
−
1
1
1 1
1 1
1 1
1
1
1
= 1−
+
−
+
−
+
−
+ ··· +
−
=1−
.
n+1
2
2 3
3 4
4 5
N
N +1
N +1
in
a
r
Pero si aplicamos el teorema anterior, tenemos entonces que: an = 1/n , a1 = 1 y además ya vimos que
la sucesión an = 1/n converge:
1
= 0.
L = lı́m an = lı́m
n→∞
n→∞ n
Por lo tanto:
∞
X
1
= 1.
2+n
n
n=1
m
Las series pueden llegar a tener comportamientos extraños, como se ve con la siguiente serie armónica
alternada:
∞
X
1 1 1 1 1
(−1)(n−1)
= 1 − + − + − + ··· ,
n
2 3 4 5 6
n=1
Recordemos que anteriormente estudiamos la serie geométrica (2.7), la cual volveremos a escribir pero
está vez intercambiando x → −x, de manera que nos queda de la siguiente forma:
1
xn+1
=
.
1+x
1+x
Pr
eli
1 − x + x2 − x3 + · · · + (−1)n xn + (−1)n+1
(2.25)
Ecuación que es válida para todo n ∈ N y x 6= 1.
Integrando (2.25) entre 0 y 1 se obtiene:
Z 1
1 1 1
1
n
n+1
1 − + − + · · · + (−1)
+ (−1)
2 3 4
n+1
0
Z 1
n+1
X (−1)(k−1)
+ (−1)n+1
k
0
k=1
or
Por lo tanto:
ln(2) −
n+1
X
k=1
(−1)(k−1)
= (−1)n+1
k
Z
0
1
xn+1
dx
1+x
=
ln(2)
xn+1
dx
1+x
=
ln(2) .
xn+1
dx .
1+x
Bo
rr
ad
Se puede ver también que:
Z
0
1
xn+1
dx ≤
1+x
Entonces:
Z
x
n→∞
n+1
0
"
lı́m
n+1
1
ln(2) −
n+1
X
k=1
X (−1)(k−1)
1
1
⇒ ln(2) −
=
dx =
n+2
k
n+2
k=1
(−1)(k−1)
k
#
= 0 ⇒ ln(2) =
∞
X
(−1)(n−1)
.
n
n=1
La suma tienen el valor de S = ln(2).
Se puede mostrar lo que sucede si se arreglan los términos de la manera siguiente:
1 1 1
1
1
1
1 1 1
− +
+
− +
+
− +
+ ··· ,
S =1+
3 2 5
7 4 9
11 6 13
46
2.1. SUCESIONES Y SERIES
∞
X
x3
x4
xn
x2
+
+
+ ··· =
.
2!
3!
4!
n!
n=0
(2.26)
in
a
ex = 1 + x +
r
la cual contiene exactamente los mismos términos, aunque en orden diferente, pero ahora la serie converge
a S = 32 ln(2). Esta aparente contradicción surge cuando pasamos por alto el hecho de que al sumar los
términos de una serie no se hace la suma con los infinitos términos, lo que hacemos es calcular un lı́mite
de una sucesión de términos que se obtienen sumando de manera consecutiva los términos de otra sucesión
dada, es decir, lo que se hacemos es aplicar un proceso de lı́mite. Para que al sumar no importe el orden de
los sumandos tendrı́amos que sumar los infinitos términos de la sucesión.
A pesar de que las series pueden presentar estos comportamientos extraños, las series resultan muy buenas
representaciones aproximadas de funciones, por ejemplo:
La suma directa de una serie infinita no es un método práctico para estudiar su convergencia, por ejemplo,
la serie
∞
X
ln(k)
,
k2
k=2
2.1.9.
Pr
eli
m
converge al valor 0, 937548..., pero para obtener estos primeros cinco decimales se tendrı́a que sumar unos
107 términos!
Es necesario entonces desarrollar algunos criterios que nos permitan saber si una serie puede llegar a
converger o no.
Ejemplos
1. Dada la sucesión {un } de números reales, se llama sucesión de Cauchy o sucesión fundamental, en el
caso de que satisfaga el requisito siguiente: dado un número real r positivo se pueda conseguir dos
enteros positivos p y q tal que de p > n0 y q > n0 se deduzca que |cp − cq | < r?.
En los números reales toda sucesión de Cauchy converge a algún lı́mite. Esta particularidad implica
un resultado importante en el análisis real que es la caracterización de Cauchy para la convergencia de
sucesiones:
2. Demuestre que
∞
X
1
=1
n
2
n=1
Bo
rr
ad
Se tiene que
or
Una sucesión de números reales es convergente (en los reales) si y solo si es de Cauchy.
y que al multiplicar por
restando
1
2
sn =
1
1
1
1
+
+ 3 + ··· + n ,
2 22
2
2
se obtiene
1
1
1
1
1
sn = 2 + 3 + 4 + · · · + n+1 ,
2
2
2
2
2
1
1
1
1
1−
sn = − n+1 = 1 − n .
2
2 2
2
por lo tanto
lı́m
n→∞
1
1 − n = 1,
2
la serie converge.
47
2.1. SUCESIONES Y SERIES
2.1.10.
Practicando con Maxima
Maxima puede calcular fácilmente sumas numéricas finitas, pero cuando le pedimos calcular sumas
simbólicas infinitas podrá calcularlas solo en casos particulares. Es útil al trabajar con series utilizar la
librerı́a simplify sum
Veamos algunos ejemplos sencillos de sumas
(%i1) load(simplify_sum)$
in
a
( %o2)
N
X
r
(%i2) sum(n^2, n, 1, N);
n2
n=1
(%i3) sum(1/n^2, n, 1, inf);
∞
X
1
n2
n=1
m
( %o3)
(%i4) sum(n^2, n, 1, 20);
( %o4) 2870
Pr
eli
La función sum nos deja indicada la suma porque no hemos especificado el rango para los valores de la
suma.
También podemos utilizar float para pedirle al programa que nos escriba el valor numérico
(%i5) sum(1/n^2, n, 1, 1000),float;
( %o5) 1,643934566681561
Con las funciones simpsum o simplify sum es posible que el programa realice la suma simbólica.
2 N3 + 3 N2 + N
6
Bo
rr
ad
( %o6)
or
(%i6) sum(n^2, n, 1, N),simpsum;
(%i7) simplify_sum(sum(n^2, n, 1, N));
( %o7)
2 N3 + 3 N2 + N
6
Con este último comando podemos escribir la expresión de la sumatoria de manera más elegante.
(%i8) sum(n^2, n, 1, N)=simplify_sum(sum(n^2, n, 1, N));
( %o8)
N
X
n=1
n2 =
2 N3 + 3 N2 + N
6
Consideremos las siguientes series infinitas:
48
2.1. SUCESIONES Y SERIES
(%i9) sum(x^n/n!, n, 0, inf)=simplify_sum(sum(x^n/n!, n, 0, inf));
( %o9)
∞
X
xn
= ex
n!
n=0
(%i10)sum(1/n^2, n, 1, inf)=simplify_sum(sum(1/n^2, n, 1, inf));
r
∞
X
π2
1
=
2
n
6
n=1
in
a
( %o10)
Podemos ahorrarnos el estar escribiendo el término enésimo varias veces si definimos la función f = f (n)
en primer lugar.
(%i11)f:(-1)^(n-1)/n$ sum(f, n, 1,inf)=simplify_sum(sum(f, n, 1,inf));
∞
n−1
X
(−1)
= log(2)
n
n=1
m
( %o11)
(%i12)f:log(n)/n^2;
( %o12)
log(n)
n2
Pr
eli
En el siguiente ejemplo el programa no podrá encontrar la serie de manera simbólica, pero como comentamos anteriormente, podemos evaluar la serie para algunos valores de N . En este caso, para N >10.000 el
consumo en tiempo de cálculo para la computadora comienza a notarse.
(%i13)sum(f, n, 1,inf)=simplify_sum(sum(f, n, 1,inf));
∞
∞
X
log(n) X log(n)
=
n2
n2
n=1
n=1
or
( %o13)
(%i14)sum(f,n,2,10),numer;sum(f,n,2,100),numer;sum(f,n,2,1000),numer;sum(f,n,2,10000),numer;
Bo
rr
ad
( %o14) 0,6185026440390787
( %o15) 0,8817261267819703
( %o16) 0,9296439518465429
( %o17) 0,9365272663288963
Este último ejercicio puede ser resuelto de una manera más eficiente si expresamos la función de variable
discreta como una sucesión utilizando la opción de crear una lista, makelist, para evaluarla.
Primero escribimos la función discreta, note que usamos :=
(%i18)g[n]:=log([n])/[n]^2;
log([n])
[n]2
(%i19)makelist(sum(g[n],n,2,N),N,[10,100,1000,10000]),numer;
( %o18) gn :=
( %o19) [[0,6185026440390787], [0,8817261267819703], [0,9296439518465429], [0,9365272663288963]]
49
2.1. SUCESIONES Y SERIES
Por lo tanto, hacer cálculos con sucesiones es sencillo, veamos algunos ejemplo de sucesiones.
Definimos la siguiente sucesión, la de Fobonacci :
(%i20)kill(all)$
(%i1) F[1]:1$ F[2]:1$ F[n]:=F[n-1]+F[n-2];
r
( %o3) Fn := F [n − 1] + F [n − 2]
in
a
(%i4) makelist(F[n],n,1,15);
( %o4) [1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610]
Definamos otra sucesión
m
(%i5) G[n]:=(-1)^n*(1+1/n);
1
( %o5) Gn := (−1)n 1 +
n
Pr
eli
(%i6) makelist(G[n],n,1,15);
3 4 5 6 7 8 9 10 11 12 13 14 15 16
( %o6) −2, , − , , − , , − , , − , , − , , − , , −
2 3 4 5 6 7 8
9 10 11 12 13 14 15
Podemos hacer operaciones básicas con sucesiones, como sumarlas
(%i7) S[n]:=F[n]+G[n]; makelist(S[n],n,1,15);
( %o7) Sn := Fn + Gn
5 2 17 19 55 83 177 296 561 967 1741 3015 5293 9134
,
,
,
,
,
,
,
( %o8) −1, , , , , , ,
2 3 4 5 6 7 8
9 10 11 12
13
14
15
Operaciones combinadas
or
(%i9) C[n]:=3*F[n]-n*G[n]; makelist(C[n],n,1,15);
Bo
rr
ad
( %o9) Cn := 3Fn − n Gn
( %o10) [5, 0, 10, 4, 21, 17, 47, 54, 112, 154, 279, 419, 713, 1116, 1846]
Multiplicación
(%i11)M[n]:=F[n]*G[n]; makelist(M[n],n,1,15);
( %o11) M
n := Fn Gn
28 104 189 340 121 1068
3262 5655 1952
3 8 15
( %o12) −2, , − , , −6, , −
,
,−
,
,−
, 156, −
,
,−
2 3 4
3
7
8
9
2
11
13
14
3
División
(%i13)D[n]:=F[n]/G[n]; makelist(M[n],n,1,15);
( %o13) Dn :=
Fn
Gn
50
2.1. SUCESIONES Y SERIES
1 2 3 12 25 48 91 56 153
979 1728 3029 5278 4575
( %o14) − , , − , , − , , − , , −
, 50, −
,
,−
,
,−
2 3 2 5
6 7
8 3
5
12 13
14
15
8
Consideremos la siguiente sucesión:
(%i15)f[n]:=(n+1)/(2*n^2);
n+1
2n2
r
( %o15) fn :=
(%i16)f[2];
( %o16)
3
8
Para un conjunto de valores:
Pr
eli
Si queremos graficar la sucesión hacemos lo siguiente
m
(%i17)makelist(f[n],n,1,15);
3 2 5 3 7 4 9 5 11 6 13 7 15 8
( %o17) 1, , , , , , ,
, ,
,
,
,
,
,
8 9 32 25 72 49 128 81 200 121 288 169 392 225
in
a
Para algún valor de n en particular:
(%i18)N[n]:=n$ LisN:makelist(N[n],n,1,50)$ Listf:makelist(f[n],n,1,50)$
(%i21)wxplot2d([discrete,LisN,Listf],[style,[points,2,2,1]],[xlabel,"n"],[ylabel,"f(n)"]);
Bo
rr
ad
or
( %o21)
Otro ejemplo de una sucesión que converge es el siguiente
(%i22)g[n]:=1+(-1)^n/(n);
51
2.1. SUCESIONES Y SERIES
( %o22) gn := 1 +
(−1)n
;
n
(%i23)Listg:makelist(g[n],n,1,50)$
(%i24)wxplot2d([discrete,LisN,Listg],[style,[points,2,2,4]],[xlabel,"n"],[ylabel,"g(n)"]);
2.1.11.
Pr
eli
m
in
a
r
( %o24)
Ejercicios
1. Encuentre la suma de los 100 primeros enteros.
or
2. Encuentre la distancia total que recorre una pelota que rebota verticalmente y que en cada rebote
pierde 2/3 de su energı́a cinética.
3. Encuentre la suma de la serie S = 2 +
Bo
rr
ad
4. Demuestre que
5
2
+
8
4
+
11
8
+ ···.
a)
∞
X
1
=1
n(n + 1)
n=1
b)
∞
X
1
1
=
(2n − 1)(2n + 1)
2
n=1
5. Determine el limite de las siguientes sucesiones cuando n → ∞.
a) un =
b) un =
n
n+1
1
1+n2
52
2.2. CRITERIOS DE CONVERGENCIA
n2
1+n
d ) un =
(an+b)2
cn2 +d
6. Muestre que sN = 1 + 23 + 33 + · · · + N 3 =
PN
n=1
n3 =
P
N
n=1
lı́m
n→∞
N 2 (N +1)2
.
4
#
" n
#
n
X1
X
1
− ln (n + 1) = lı́m
− ln (n) .
n→∞
k
k
k=1
k=1
Criterios de convergencia
Pr
eli
2.2.
=
in
a
8. Demuestre que:
"
2
r
7. Demuestre que para |x| < 1
P∞
x
n
a)
n=1 nx = (1−x)2
P∞
x2 +x
2 n
b)
n=1 n x = (1−x)3
P∞
x3 +4x2 +x
3 n
c)
n=1 n x = (1−x)4
P∞
x4 +11x3 +11x2 +x
4 n
d)
n=1 n x =
(1−x)5
n
m
c) un =
PN
La pregunta que nos planteamos es la siguiente: Si hacemos que N → ∞ entonces ¿la suma k=1 ak , tiene
un lı́mite? Existen algunas formas de averiguarlo, a pesar de que sólo podremos calcular la suma de algunas
series. En la mayorı́a de los casos nos será imposible y nos tendremos que conformar con saber si convergen
o no, o peor aún, si una suma parcial converge sin poder calcular el valor de esa suma. Los términos de una
serie pueden ser positivos, negativos o números complejos y las series pueden converger (decrecer o crecer
hacia un valor finito) no converger (incrementar o decrecer indefinidamente) u oscilar. Existe una serie de
criterios y teoremas de aplicación general que expondremos a continuación.
2.2.1.
Convergencia absoluta o condicional
Bo
rr
ad
or
P
Para estudiar P
la convergencia de una serie infinita dada, i.e., ai veremos que siempre podremos asociarle
otra de la forma
|ai |, es decir la serie de valores absolutos, con lo cual garantizamos
P la positividad (y que
sean números reales) de los términos
de
la
serie.
Si
la
serie
de
los
valores
absolutos
|ai | converge, entonces
P
también covergerá la serie original
ai y diremos que esa seriePes absolutamente convergente. Sin embargo
si la serie de valores absolutos diverge, no podremos decir que
ai converja. De hecho si converge diremos
que es condicionalmente convergente y, con un rearreglo de sus términos podrá converger, diverger u oscilar.
Teorema: Si
P
|an | converge, entonces también converge
∞
X
n=1
an ≤
∞
X
P
an y se tiene que:
|an |
n=1
Para una serie de términos positivos el criterio de convergencia más intuitivo (necesario pero no suficiente)
es que en lı́mite cuando n → ∞ el término n-ésimo tienda a cero. Con lo cual tenemos que si esta condición
no se satisface, la serie diverge.
53
2.2. CRITERIOS DE CONVERGENCIA
Teorema: Si la serie
P
an converge, el término n-ésimo tiende a cero, esto significa que:
lı́m an = 0 .
n→∞
Notemos que para la serie
P∞
n=1
1/n se tiene que
lı́m
1
= 0,
n
r
n→∞
∞
X
(−1)n+1
n=1
in
a
sin embargo, como ya vimos anteriormente, esta serie diverge. Esto significa que el teorema suministra una
condición suficiente para que exista la divergencia de la serie, es decir,
Psi para el término n-ésimo de la serie
an no se cumple que tiende a cero cuando n → ∞, entonces la serie
an diverge.
Una serie que es convergente pero que no es absolutamente convergente es la siguiente
1 1 1
1
= 1 − + − + · · · = ln(2)
n
2 3 4
m
porque ya vimos que la serie de los valores absolutos asociada a la serie anterior es
Pr
eli
∞
X
1
n
n=1
la cual diverge.
2.2.2.
Criterio de Comparación
En segundo lugar de simplicidad está el criterio de comparación entre un par de series de términos
positivos. Si conocemos el comportamiento
P∞ de una de ellas comparamos el de la otra. Esto es, suponga
P∞ que
consideramos dos series: una de prueba n=0 an y una serie conocida y convergente (o divergente) n=0 ãn ,
entonces
Si
∞
X
ãn converge y ∀ n se tiene que ãn > an
Por otro lado
Si
∞
X
ãn diverge y ∀ n se tiene que 0 6 ãn 6 an
Bo
rr
ad
n=0
∞
X
ãn >
n=0
or
n=0
⇒
⇒
∞
X
∞
X
an
n=0
ãn 6
n=0
∞
X
n=0
⇒
∞
X
an converge
n=0
an
⇒
∞
X
an diverge
n=0
Ejemplo Para ilustrar esta estrategia consideremos las siguientes series
∞
X
1 1 1
1
1
+ + +
+ ··· =
2 3 7 25
n!
+1
n=1
En ese caso compararmos con una serie conocida
∞
X
1
1
1
1
1
1
1
=
+ + + + ··· = 1 + 1 + + + ··· = 1 + e
n!
0!
1!
2!
3!
2!
3!
|
{z
}
n=0
e
y es claro que la serie indicada no es otra cosa que e, con lo cual la serie claramente converge y su suma es
1 + e.
54
2.2. CRITERIOS DE CONVERGENCIA
2.2.3.
Criterio de la Raı́z
P∞
Dada una serie de términos positivos n=0 an , el criterio de la raı́z (o también de la raı́z de Cauchy)
puede resumirse en el siguiente par de afirmaciones. Sı́:
para un n suficientemente grande y ρ independiente de n =⇒ (?)
Otra forma, más compacta de expresarlo serı́a
1
Sı́ ρ = lı́m (an ) n
n→∞
entonces:

ρ < 1 =⇒ converge





ρ > 1 =⇒ diverge





ρ = 1 =⇒ (?)
Pr
eli
Es fácil ver que si utilizamos el criterio de comparación, entonces

 cuando ρ < 1
1
⇒ an 6 ρn
⇒
(an ) n 6 ρ

cuando ρ > 1
Ejemplo Dada la siguiente serie:
r
1
(an ) n = 1
para un n suficientemente grande y ρ independiente de n =⇒ diverge
in
a
1
(an ) n > 1
para un n suficientemente grande y ρ independiente de n =⇒ converge
m
1
(an ) n 6 ρ < 1
la serie converge
la serie diverge
2
n
∞ X
n
,
n+1
n=0
por lo tanto:
1
La serie converge.
2.2.4.
n
n+1
n
=
1
n
1 + n1
or
(an ) n =
⇒
ρ = lı́m
n→∞
1
1
n = < 1 .
e
1 + n1
Criterio de d’Alembert
Bo
rr
ad
P∞
Dada una serie de términos positivos n=0 an , el criterio de d’Alembert5 o también llamado criterio del
cociente, compara el valor relativo de un término de la serie con el que le precede. Este criterio se resume
también fácilmente

ρ < 1 =⇒ converge





an+1
ρ > 1 =⇒ diverge
Si ρ = lı́m
entonces:
n→∞

an




ρ = 1 =⇒ indeterminado
5 Jean Le Rond d’Alembert Parı́s, Francia 1717 - 1783. Matemático francés pionero en el estudio de las ecuaciones
diferenciales y su utilización en la Fı́sica, en particular en el estudio de los fluı́dos. Más detalles en http://es.wikipedia.org/
wiki/Jean_Le_Rond_d’Alembert
55
2.2. CRITERIOS DE CONVERGENCIA
Nótese que si
⇒ρ<x<1
ρ<1
⇒
an+1
<x
an
⇒ an+1 = an x
Entonces para un N < n, pero también suficientemente grande, tendremos que los términos de la serie a
partir de ese N serán
aN + aN +1 + aN +2 + aN +3 · · · = aN + xaN + x2 aN + x3 aN · · · = aN 1 + x + x2 + x3 + x4 · · ·
Ejemplo Un ejemplo inmediato lo constituye la serie
∞
X
1 1 3 1
5
n
+ + + +
+ ··· =
n
2 2 8 4 32
2
n=1
n+1
2n+1
n
2n
⇒
=
1n+1
1
=
2 n
2
Pr
eli
con lo cual tiene que converger.
2.2.5.
1
1+
,
n
m
1
1
1
ρ = lı́m
1+
= < 1,
n→∞ 2
n
2
in
a
r
y que no es otra cosa que una serie geométrica con razón x < 1 y por consiguiente converge. Es claro que un
argumento similar se puede utilizar para probar la divergencia.
Criterio de la Integral de Maclaurin
El criterio de la Integral de Maclaurin6 es otro criterio de comparación, pero esta vez se compara la serie
con una integral. Ası́ supondremos que existe una función f (x) contı́nua y monótonamente decreciente para
un valor de x > x0 y que, adicionalmente, se cumple que para algún valor entero x = n el valor de la función
RN
es igual a un término de la serie.
dx f (x)
P∞ Esto es f (n) = an . Entonces se tendrá que si el lı́mite lı́mN →∞
existe y es finito, entonces n=1 an converge. Por el contrario si el lı́mite no existe o es infinito, entonces
diverge.
La idea de este criterio es comparar la integral de f (x) (es decir, el área bajo la curva) con la suma de
rectángulos que representa la serie. Entonces, la suma parcial
i
X
or
si =
an ≡
n=1
R i+1
Bo
rr
ad
Pero:
si >
1
si − a1 <
dx f (x)
Ri
dx f (x)
1


Z
⇒
i
X
i+1
Z
dx f (x) ≤ si ≤
1

f (n) .
n=1
i
dx f (x) + a1
1
dondePa1 = f (1), con lo cual, al hacer i → ∞ tendremos que si el lı́mite de la integral existe, entonces la
∞
serie n=1 an converge.
Z ∞
Z ∞
∞
X
dx f (x) ≤
an ≤
dx f (x) + a1
1
n=1
1
6 Colin
Maclaurin 1698, Argyllshire, Escocia - 1746 Edinburgo, Escocia. Matemático escocés quien escribió el Tratado de
los Fluxiones el primer tratado que expuso de una manera sistemática y rigurosa el cálculo diferencial ideado por Newton. Este
tratado fue como respuesta a la crı́tica de Berkeley sobre la falta de rigurosidad de los métodos Newton.
56
in
a
r
2.2. CRITERIOS DE CONVERGENCIA
m
Figura 2.5: El criterio de la integral
Ejemplos
Pr
eli
1. Un ejemplo inmediato podrı́a ser determinar si la siguiente serie converge
Z N
∞
X
1
−1
1
1
⇒
f
(x)
=
⇒
lı́m
dx
⇒
lı́m
=0
2
2
3 2
N →∞
N →∞ N − 3
x − 32
x − 32
2
n=1 n − 2
con lo cual claramente converge.
Este criterio es muy útil para acotar (entre un ı́nfimo y un supremo) el residuo de una determinada
serie. Vale decir
Z ∞
Z ∞
∞
N
∞
∞
X
X
X
X
an ⇒
an +
an =
an ≤
dx f (x) ≤
dx f (x) + aN +1
n=1
n=1
N +1
n=N +1
{z
Residuo
2. Comprobar que la función Zeta de Riemann, ζ(p) =
f (x) = x−p , entonces
Bo
rr
ad
∞
X
ζ(p) =
n=1
n−p
n=N +1
N +1
}
or
|
Z
⇒
P∞
∞
dx x−p =
1
n=1
n−p , efectivamente converge. En este caso



x−p+1
−p+1


ln x|1
∞
∞
Para p 6= 1
1
Para p = 1
y es claro
P∞que para p > 1 el lı́mite existe y es finito, por lo tanto, la función Zeta de Riemann,
ζ(p) = n=1 n−p , converge para p > 1.
> restart:
> assume(p>1):
> Limit(Int((x)∧ (-p),x=1..infinity),x=infinity)=
limit(int((x)∧ (-p),x=1..infinity),x=infinity);
> assume(p<=1):
> Limit(Int((x)∧ (-p),x=1..infinity),x=infinity)=
limit(int((x)∧ (-p),x=1..infinity),x=infinity);
57
2.2. CRITERIOS DE CONVERGENCIA
2.2.6.
Series alternantes y convergencia condicional
Hasta ahora todos los criterios que analizamos eran para una serie de términos positivos,
P∞por lo cual todos
esos criterios
nos
llevaban
al
concepto
de
series
absolutamente
convergente.
Esto
es,
si
n=0 |an | converge,
P∞
entonces n=0 an también converge. Sin embargo, muchas veces nos tendremos que conformar con que una
serie sea simplemente convergente y no requerir que sea absolutamente convergente. Este es el caso de las
series alternantes. Series en las cuales se alternan términos positivos y negativos:
(−1)n+1 (an )
con an ≥ 0
in
a
n=1
r
a1 − a2 + a3 − a4 + a5 − a6 + · · · + a2n−1 − a2n + · · · =
∞
X
m
Entonces, si la serie es monótona decreciente para un n suficientemente grande tenemos lo que se denomina
el Criterio de Leibniz:

an > an−1
∀ n>N




∞

X
∧
(−1)n+1 (an ) converge, si:


n=1



an → 0
cuando n → ∞
Pr
eli
De otro modo la serie oscilará.
Estas condiciones son fáciles de ver si reorganizamos la serie de los primeros 2m términos, a partir de un
determinado N par y N > n, entonces
s2m = (aN − aN −1 ) + (aN −2 − aN −3 ) + · · · + (aN +2m−2 − aN +2m−1 )
donde todos los paréntesis son positivos, con lo cual s2m > 0 y se incrementa al incrementar m. Ahora bien,
si rearreglamos la serie tendremos que
s2m = aN − (aN −1 − aN −2 ) − (aN −3 − aN −4 ) + · · · − (aN +2m−1 − aN +2m−2 ) − aN +2m−1
or
donde, otra vez los paréntesis son positivos y es inmediato comprobar que entonces s2m < an para todo m.
Como an → 0 cuando n → ∞, la serie alternante necesariamente converge.
La series alternantes ya eran conocidas desde hace mucho tiempo, como por ejemplo la serie
∞
X
Bo
rr
ad
x3
x4
x2
+
−
+ · · · + (−1)n−1
an = x −
2
3
4
n=1
xn
n
+ ··· .
Esta serie converge y su suma es ln(1 + x) para −1 < x ≤ 1. Para x positivo es una serie alternante y en el
caso particular de x = 1 se tiene:
1 1 1
1
1 − + − + · · · + (−1)n−1
+ · · · = ln(2)
2 3 4
n
Otra relación interesante es:
1−
1 1 1
+ − + · · · + (−1)n−1
3 5 7
1
2n − 1
+ ··· =
π
4
58
2.2. CRITERIOS DE CONVERGENCIA
Teorema:
Si {an } es una sucesión monótona decreciente con lı́mite igual a cero, la serie alternante
∞
X
(−1)n−1 an ,
n=1
converge.
Si S es su suma y sn su suma parcial n-ésima, se tiene que:
0 < (−1)n (S − sn ) < an+1
∞
X
(−1)n−1
n=1
1 1 1
1
= 1 − + − + ··· ,
n
2 3 4
lı́m
n→∞
m
Sabemos que 1/n es una sucesión monótona decreciente y que:
in
a
Ejemplo Estudiemos la serie
r
para n ≥ 1 .
1
= 0,
n
Ejemplo Sea
n+1
Z
1
2
a2n−1 =
Pr
eli
por lo tanto, de acuerdo al teorema anterior la serie converge; como ya hemos visto.
y
a2n =
n
Por otro lado, se tiene también que:
dx
x
para n = 1, 2, 3, ... .
lı́m an = 0 ,
n→∞
y que an es monótona decreciente, por lo tanto la serie
∞
X
(−1)n−1 an ,
or
n=1
converge.
La suma parcial (2n − 1) se puede escribir de la siguiente manera:
2
dx 1
+ −
x
2
Bo
rr
ad
Z
s2n−1 = 1 −
1
s2n−1 = 1 +
Z
3
dx
1
+ ··· +
−
x
n−1
2
1
1
+ ··· + −
2
n
Z
n
1
Z
n
n−1
dx
1
+ =
x
n
1
1
dx
= 1 + + · · · + − ln(n) .
x
2
n
y obtenemos
lı́m
n→∞
1+
1
1
+ · · · + − ln(n) = γ ,
2
n
donde γ es la constante de Euler, γ ≈ 0, 5772156649.
59
2.3. SERIES DE FUNCIONES
Ejercicios
1. Encuentre el radio de convergencia de las siguientes series
a)
∞
X
n2 xn
n=0
r
b)
in
a
∞
X
2n n
x
n!
n=0
c)
d)
∞
X
n4 n
x
5n
n=0
Pr
eli
e)
m
∞
X
5n n
x
n3/2
n=0
∞
X
xn
[3 + (−1)n ]n
n=0
f)
∞
X
n=0
Ejemplos
2.2.8.
Practicando con Maxima
2.2.9.
Ejercicios
Series de funciones
Bo
rr
ad
2.3.
or
2.2.7.
xn
2n+(−1)n
La idea de series se puede ampliar al permitir que sus términos sean función de alguna variable (una o
varias), esto es an = an (x). Esta extensión del concepto se serie, trae como consecuencia que ahora las sumas
parciales dependen de x
n
X
sn (x) =
ak (x) = a0 (x) + a1 (x) + a2 (x) + · · · ,
k=0
con lo cual, si
lı́m sn (x) = S(x) =
n→∞
∞
X
ak (x) ,
k=1
entonces, el comportamiento de las serie también dependerá de la variable.
60
2.3. SERIES DE FUNCIONES
La convergencia de la serie podrá ser posible para algunos valores de x y no para otros. El punto central
con las series de funciones f (x) complicadas es la de tratar de construir funciones como una serie de términos,
ak (x), más simples. Ası́, esas sumas parciales fn (x) constituirán la función deseada
f (x) =
∞
X
ak (x) = lı́m
n→∞
k=1
n
X
ak (x) .
k=1
2.3.1.
in
a
r
Estaremos interesados en aquellas funciones a las cuales converjan las sumas parciales de una serie. Para
fijar conceptos, comenzaremos por las series de funciones más comunes: Las Series de Potencias.
Series de Potencias
Asociaremos una serie de potencias an = cn xn a un polinomio de grado infinito.
P (x) = c0 + c1 x + c2 x2 + c3 x3 + c4 x4 + · · · =
∞
X
cn xn , o también P (x − x0 ) =
n
cn (x − x0 ) .
n=0
m
n=0
∞
X
2.3.2.
Pr
eli
Esta asociación tiene la ventaja de permitirnos intuir algunos comportamientos de la serie para algunos
valores de x. Los coeficientes cn son números independientes
de x. Pero, más aún, estas series pueden ser
P∞
series de potencias de número complejos. Vale decir, n=0 cn z n con z = x + iy.
Convergencia de una serie de potencias
todos los criterios que hemos desarrollado anteriormente. Ası́ una serie de potencias
P∞Se pueden utilizar
n
n=0 an (x − x0 ) converge en un punto x0 si el lı́mite
lı́m
n→∞
∞
X
an (x − x0 )
n
n=0
or
existe, para x = x0 , para todo
x.
P∞x o para algunos
n
Una serie de potencias n=0 cn (x − x0 ) convergerá absolutamente sı́
lı́m
n→∞
n
X
j
cj (x − x0 )
= ρ,
existe.
j=0
Bo
rr
ad
P∞
n
También
P∞ se cumplirá nel criterio de convergencia absoluta. Esto es, si n=0 |cn (x − x0 ) | converge, entonces, n=0 cn (x − x0 ) converge, pero el inverso no es siempre verdad.
Los criterios más populares para evaluar la convergencia, se seguirán cumpliendo. Ası́ el criterio de
d’Alembert y el de la raı́z de Cauchy se podrán reescribir como:

n+1


 lı́mn→∞ cn+1 (x − x0 )n
ρ(x) < 1 ⇒ converge

cn (x − x0 )
⇒
ρ(x) =


ρ(x) > 1 ⇒ diverge

p

n
lı́mn→∞ n cn (x − x0 )
Sólo que ahora es bueno enfatizar que ρ = ρ(x) dependerá de la variable. Llamaremos, de ahora en
adelante a este lı́mite el radio o entorno de convergencia, el cual delimitará los valores de x para que la serie
de potencias converja.
61
2.3. SERIES DE FUNCIONES
Ejemplos
1. Considermos la siguiente serie
1+x+
∞
X
x2
x3
xn
xn
+
+ ··· +
+ ··· =
,
2
6
n!
n!
n=0
por lo tanto
r
in
a
an+1
= lı́m
n→∞ an
n→∞
lı́m
xn+1
x
(n + 1)!
= lı́m
= 0,
n
x
n→∞ n + 1
n!
es decir,
an+1
= 0,
n→∞ an
con lo cual la serie converge para todo valor de x.
m
ρ(x) = lı́m
2. Otro caso ocurre cuando consideramos la siguiente serie de potencias:
(−1)
n+1
n
2
3
4
n (x − 2) = x − 2 − 2 (x − 2) + 3 (x − 2) − 4 (x − 2) + · · · ,
n=1
por lo tanto:
ρ(x) = lı́m
n→∞
(−1)
n+2
(−1)
lo que implica que la serie:
Pr
eli
∞
X
n+1
(n + 1) (x − 2)
n+1
n (x − 2)
n
= |x − 2| lı́m
n→∞
n+1
= |x − 2|
n
Para puntualizar:
or
converge si: |x − 2| < 1 ⇒ 1 < x < 3 y diverge si: |x − 2| > 1 .
P∞
n+1
n
Es decir, la serie n=1 (−1)
n (x − 2) convergerá únicamente para 1 < x < 3. Para otros valores
de x, diverge.
Bo
rr
ad
Si una serie converge en x = x1 , convergerá absolutamente para |x − x0 | < |x1 − x0 | y divergerá para
|x − x0 | > |x1 − x0 |.
P∞
n
Se llama radio de convergencia, ρ = ρ(x) a aquella cantidad tal que la serie n=0 an (x − x0 ) converge
para |x − x0 | < ρ y diverge para |x − x0 | > ρ.
P∞
n
Una serie n=0 an (x − x0 ) que converge únicamente para x = x0 tendrá un radio de convergencia
ρ = 0, mientras que una que converja para todo x tendrá un radio de convergencia ρ = ∞.
2.3.3.
Covergencia uniforme
Se puede refrasear el criterio de convergencia de Cauchy que vimos anteriormente. Para cualquier valor
de > 0, tan pequeño como uno quiera, siempre existirá un número N independiente de x, con a ≤ x ≤ b,
tal que:
∞
X
si S(x) = lı́m sn (x) =
an (x) ⇒ |S(x) − sn (x)| < ∀ x ∈ [a, b] ∧ n ≥ N.
n→∞
n=1
62
2.3. SERIES DE FUNCIONES
Con ello es inmediato indentificar el error que se comete cuando se corta la serie en un N suficientemente
grande
N
∞
X
X
S(x) =
an (x) +
an (x)
n=1
|
n=N +1
{z
sn (x)
}
|
{z
}
≈
in
a
r
Hay que resaltar el hecho de que las suma de funciones contı́nuas an (x) no necesariamente habrá de
ser contı́nua, el concepto de convergencia uniforme busca garantizar que esa suma de funciones contı́nuas
también sea contı́nua.
Recordemos la idea de continuidad de una función. Una función será contı́nua si sus lı́mites por la derecha
y por izquierda coinciden
lı́m± f (t) = f (x)
t→x
Por otro lado, a partir del hecho de que
f (x) = lı́m fn (x)
n→∞
n→∞ t→x
Pr
eli
n→∞
t→x
m
es valido preguntarse si el lı́mite de la sucesión de sumas parciales es contı́nua, esto es:
h
i
?
lı́m± lı́m fn (x) = lı́m lı́m± fn (x) .
Es decir, al suponer que la suma de términos contı́nuos tiende a una función contı́nua estamos suponiendo
que podemos intercambiar los lı́mites, pero eso no es simpre cierto. Consideremos el caso (extremo)
n
fn = n 2 x 1 − x2
con: 0 ≤ x ≤ 1 y n = 1, 2, 3, . . .
entonces:
Z
lı́m fn = 0 ⇒
n→∞
1
Z
1
Z
⇒
1
dx fn → ∞
lı́m
n→∞
0
or
0
n
2(n + 1)
i
lı́m fn (x) = 0
n→∞
0
2
dx fn (x) =
h
dx
Claramente no se pueden intercambiar los lı́mites.
Bo
rr
ad
Ejemplo Sea la serie
f (x) =
∞
X
k=0
ak (x) = x2 +
x2
x2
x2
x2
+
+
+ ··· +
+ ··· ,
2
3
k
2
1+x
(1 + x2 )
(1 + x2 )
(1 + x2 )
de manera que
Como
ak (x) =
x2
k
(1 + x2 )
an+1 (x)
1
=
<1
an (x)
1 + x2
∀
.
x 6= 0 ,
la serie es absolutamente convergente ∀ x (x 6= 0).
63
2.3. SERIES DE FUNCIONES
Sin embargo, tenemos que f (0) = 0. El término n-ésimo para la suma parcial es
fn (x) = x
2
n−1
X
k=0
1
(1 +
= 1 + x2 −
k
x2 )
1
(1 +
n−1
x2 )
= 1 + x2 −
1 + x2
n ,
(1 + x2 )
como 1 + x2 > 1, entonces:
x 6= 0 .
r
lı́m fn (x) = 1 + x2 ,
n→∞
∞
X
an (x) =
n=1
∞
X
x
,
[(n − 1)x + 1] [nx + 1]
n=1
cuya suma n-ésima parcial es
sn (x) =
nx
.
nx + 1
m
Ejemplo Dada la serie
in
a
pero hemos establecido que f (0) = 0 de manera que f (x) no es contı́nua.
La función sn (x) es una función continua de x ∀ 0 ≤ x ≤ 1, y para todo n. Por otro lado,
=
S(x)
=
lı́m sn (x) = 0 , si x = 0
n→∞
Pr
eli
S(x)
lı́m sn (x) = 1 , si x 6= 0 .
n→∞
Existe una discontinuidad en x = 0 para S(x) y por lo tanto la condición (2.3.3) no se cumplirá.
Para el caso de series de funciones, existen un par de criterios que identifican la convergencia uniforme. El
criterio Mayorante de Weierstrass7 y el criterio de Abel8 . Estos criterios desarrollan la noción de convergencia
uniforme la cual es necesaria para asegurar el intercambio en los lı́mites.
2.3.4.
Criterio Mayorante de Weierstrass
or
La idea de convergencia uniforme se introduce para garantizar que la sumas infinitas de un conjunto de
funciones sea contı́nua.
Una condición suficiente, pero no necesaria, para que la serie
Bo
rr
ad
a1 (x) + a2 (x) + a3 (x) + · · · + an (x) + · · · =
∞
X
an (x)
n=1
sea uniformemente convergente es dada por la condición de Weierstrass:
Si encontramos una serie convergente de números positivos
M=
∞
X
Mj
con Mi ≥ |ai (x)|
j=1
∀ x ∈ [a, b]
entonces la serie
∞
X
an (x)
n=1
es uniformemente convergente.
7 Karl Theodor Wilhelm Weierstrass (1815 - 1897). Matemático Alemán con importantes contribuciones al análisis
complejo mediante la utilización de series.
8 Niels Henrik Abel (1802-1829). Matemático Noruego. Su primera mayor aportación fue la prueba de la imposibilidad de
resolución algebraica de la ecuación quı́ntica mediante radicales.
64
2.3. SERIES DE FUNCIONES
La demostración se obtiene a partir de la definición misma de convergencia. Si
para n + 1 ≥ N se tiene
∞
X
∞
X
Mj < y como |ai (x)| ≤ Mi ⇒
j=n+1
P∞
j=1
|ai (x)| < ⇒ |S(x) − sn (x)| ≡
j=n+1
Mj converge, entonces
∞
X
|ai (x)| < j=n+1
∞
X
(−1)n
n + x2
n=1
para − ∞ < x < ∞
∞
X
∧
(−1)n−1
n=1
xn
n
in
a
r
P∞
con la cual la serie n=1 an (x) será uniformemente convergente para todo x ∈ [a, b].
Ahora bien, como consideramos los Mi ≥ 0. La serie en cuestión también será absolutamente convergente.
Otra vez, los criterios de convergencia absoluta y, en este caso, de convergencia uniforme, no son consecuencia
uno del otro, ni están relacionados.
Las series
para 0 ≤ x ≤ 1
Pr
eli
j=0
m
P∞
convergen uniformemente pero NO absolutamente. Sin embargo, en el intervalo 0 ≤ x ≤ 1 la serie j=0 (1 − x)xj
converge absolutamente pero no uniformemente, por cuanto tiene una discontinuidad. Se puede demostrar
que
∞
X
1, 0 ≤ x < 1
(1 − x)xj =
0,
x=1
con lo cual se puede concluir que una serie arbitraria f (x) =
en intervalos en los cuales la función f (x) sea discontı́nua.
Ejemplo La serie
P∞
j=1
ai (x) no podrá converger uniformemente
1
1
cos2 (x) + 2 cos3 (x) + · · ·
2
2
3
es uniformemente convergente, porque al tomar Mk = 1/k 2 la serie
f (x) = cos(x) +
∞
X
1
,
k2
converge a π 2 /6.
Criterio de Abel
Bo
rr
ad
2.3.5.
or
k=1
El criterio de Abel se puede resumir de la siguiente manera. Sı́
f (x) =
donde
P∞
i=0 ci (x)
∞
X
ai (x) ∧ ai (x) = ci (x)fi (x) ,
i=0
converge, es decir:
lı́m
n→∞
n
X
ci (x) = S ,
i=0
entonces la serie converge uniformemente en [a, b]. Para que se cumpla el criterio de Abel, fn (x) tiene que
estar acotada (0 ≤ fn ≤ M ∀ n) y tiene que ser monótonamente decreciente en el intervalo en el cual esté
definida, fn+1 (x) ≤ fn (x) con x ∈ [a, b].
65
2.3. SERIES DE FUNCIONES
En resumen, si la serie
f (x) = a1 (x) + a2 (x) + a3 (x) + · · · + an (x) + · · · =
∞
X
an (x)
n=1
es uniformemente convergente para a ≤ x ≤ b, entonces es posible integrar y diferenciar término por témino.
dx
k=1
∞ Z β
X
β
Z
r
∞
X
dak
=
f (x) dx =
α
ak (x) dx ,
α
k=1
in
a
df
dx
m
donde a ≤ α < β ≤ b.
La convergencia uniforme no implica convergencia absoluta y convergencia absoluta no implica convergencia uniforme, como se vió anteriormente, la serie
∞
X
Pr
eli
x2
n ,
(1 + x2 )
n=0
es absolutamente convergente pero no uniformemente convergente cerca de x = 0.
Las series absolutamente convergentes tienen la propiedad de comportarse como las series finitas, los
términos pueden ser multiplicados e intercambiado el orden de la suma. Las series uniformemente convergentes se comportan como las series finitas donde la serie es contı́nua si cada término de la serie también lo
es.
La serie
∞
X
1
1
1
(−1)n−1
=
−
+
+ ···
2
2
2
n
+
x
1
+
x
2
+
x
3
+
x2
n=1
2.3.6.
or
es únicamente condicionalmente convergente, pero, es también uniformemente convergente.
Nota sobre el algebra de series de potencias
Bo
rr
ad
El álgebra elemental de series se puede reconsiderar a la luz de las series de potencias. De esta forma
recordamos que los ı́ndices en las series son mudos
∞
X
n−1
an n (x − x0 )
n=1
=
∞
X
j−1
aj j (x − x0 )
=
j=1
∞
X
k
ak+1 (k + 1) (x − x0 )
k=0
en la última sumatoria hemos hecho k = j − 1, por lo cual j = k + 1.
Las series se igualan
∞
X
n=0
∞
X
n=0
n
∞
X
n
n=1
∞
X
bn (x − x0 ) =
bn (x − x0 ) =
k=0
n−1
an n (x − x0 )
k
ak+1 (k + 1) (x − x0 ) =
∞
X
n
an+1 (n + 1) (x − x0 )
n=0
66
2.3. SERIES DE FUNCIONES
por lo cual
bn = an+1 (n + 1) .
Si la igualdad hubiera sido
∞
X
n
an (x − x0 ) =
n=0
∞
X
an n (x − x0 )
n−1
∞
X
=
n=1
n
an+1 (n + 1) (x − x0 )
=⇒
an+1 =
n=0
an
(n + 1)
n
an (x − x0 ) +
n=0
∞
X
k
bk (x − x0 ) = a0 + a1 (x − x0 ) +
∞
X
n
(an + bn ) (x − x0 )
in
a
∞
X
n=2
k=2
o también
n
an (x − x0 ) +
n=0
∞
X
bk+2 (x − x0 )
k+2
=
a0 + a1 (x − x0 ) +
∞
X
(an + bn ) (x − x0 )
n=2
k=0
=
∞
X
n
m
∞
X
r
Las series se suman
n
(an + cn−2 ) (x − x0 ) ,
n=0
Pr
eli
y en este último caso c−2 = c−1 = 0 y ci = bi+2 . Nótese como en los dos ejemplos anteriores hemos hecho
coincidir los dos ı́ndices de la sumatoria desde el comienzo.
La series también se multiplican, esto es
"∞
#" ∞
#
∞
X
X
X
n
n
n
an (x − x0 )
bn (x − x0 ) =
cn (x − x0 )
n=0
n=0
con
n=0
cn = a0 bn + a1 bn−1 + a2 bn−2 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0
or
Si alguna de las series de potencias es absolutamente convergente, entonces su multiplicación con otra, será
absolutamente convergente.
Pero también las series de potencias se ¡invierten! y para ello utilizamos todo lo visto anteriormente
veamos. Supongamos que se tiene una serie del tipo
2
n
Bo
rr
ad
y − y0 = a0 + a1 (x − x0 ) + a2 (x − x0 ) + · · · + an (x − x0 ) + · · · =
∞
X
an (x − x0 )
n
n=0
n
Es decir tenemos y−y0 expresado en términos de una serie de potencias de (x − x0 ) entonces, igual podremos
n
plantearnos invertir el proceso, vale decir, expresar (x − x0 ) en términos de potencias (y − y0 ) Esto es
x − x0 =
∞
X
n=0
n
bn (y − y0 )
⇒
x − x0 =
∞
X
k=0

k
∞
X
j
bk 
aj (x − x0 ) 
j=0
y al igualar términos con la misma potencia, despejamos los coeficientes bn en términos de los an , de forma
67
2.3. SERIES DE FUNCIONES
que
b1 =
1
a1
a2
(a1 )3
2(a2 )2 − a1 a3
b3 =
(a1 )5
5a1 a2 a3 − a21 a4 − 5a32
b4 =
(a1 )7
..
..
.=
.
P∞
P∞
n
Igualmente, si una serie f (x) = n=0 an (x−x0 ) = n=0 cn (x − x0 ) converge para un entorno −R ≤ x ≤ R
entonces por el criterio de Mayorante de Weierstrass, convergerá absoluta y uniformemente para −S ≤ x ≤ S
con 0 ≤ S ≤ R. Más aún, el criterio de Abel nos garantiza las siguientes propiedades:
P∞
n
n
Dado que todos los términos an (x) = cn (x − x0 ) son funciones contı́nuas de x y f (x) = n=0 cn (x − x0 )
converge uniformemente para un entorno −S ≤ x ≤ S, entonces la función f (x) es contı́nua en el intervalo de convergencia.
n
m
in
a
r
b2 = −
Pr
eli
Si los términos an (x) = cn (x − x0 ) son funciones contı́nuas de x, entonces la serie puede ser derivada
término a término
#
"∞
∞
X
d X
n−1
n
cn n (x − x0 )
cn (x − x0 ) =
dx n=0
n=1
(nótese como cambia el comienzo de la serie) y convergerá a
∞
X
n−1
cn n (x − x0 )
n=1
converge uniformemente en [a, b].
→
df (x)
dx
an (x) ∧
d
an (x)
dx
contı́nuas ∧
∞
X
an (x) ,
n=0
Bo
rr
ad
or
De igual manera las series pueden ser integradas término a término
Z b
Z b
∞ Z b
∞
∞
X
X
X
cn
n
n
n+1
dx f (x) =
cn (x − x0 ) =
dx cn (x − x0 ) =
(x − x0 )
.
dx
n
+
1
a
a
a
n=0
n=0
n=0
Ejercicios
1. Demuestre que la serie
∞
X
(−1)n
,
n + x2
n=0
es uniformemente y condicionalmente convergente.
2. Demuestre que la serie
∞
X
(−1)n
n=1
n + x2
,
n2
converge uniformemente, pero no absolutamente.
68
2.4. SERIE DE TAYLOR
3. Determine el radio de convergencia de la serie
x
x2
x3
xn
√ +
√ + ··· +
√ + ···
+
a+1 a+ 2 a+ 3
a+ n
donde a es un número real y positivo. Determine si la serie es o no uniformemente convergente.
4. Considere la siguiente sucesión
r
sen(nx)
√
, n = 1, 2, 3, . . .
n
in
a
fn (x) =
demuestre que:
i
d
d h
lı́m fn (x) 6= lı́m
fn (x) ,
n→∞ dx
dx n→∞
a)
1−
2 3 4
+ − + ···
3 5 7
b
a−
2
Pr
eli
b)
m
5. Discuta la convergencia de las siguientes series
+
a b
−
3 4
+ ··· +
a
b
−
2n − 1 2n
+ ···
donde a y b son constantes positivas.
6. Utilizando fracciones parciales, demuestre que
a)
∞
X
k=1
23
1
=
(k + 1)(k + 3)(k + 5)
480
b)
3k − 2
= 1.
k(k + 1)(k + 2)
or
∞
X
k=1
Ejemplos
2.3.8.
Practicando con Maxima
2.3.9.
Ejercicios
Bo
rr
ad
2.3.7.
2.4.
Serie de Taylor
Para los fı́sicos el uso apropiado (y frecuente) de la serie Taylor facilita muchos cálculos. La idea detrás
de este tipo de series es la de la aproximación de una determinada función por una serie de potencias en
donde existe una forma sistemática de construir los coeficientes y, dependiendo de el número de términos
que utilicemos en la serie, tendremos una idea de cuan aproximada es la serie y cuanto es el error que cometemos al desarrollar la serie hasta un determinado término. Ası́ supondremos que f = f (x) es una función
69
2.4. SERIE DE TAYLOR
(x)
contı́nua y contı́nuamente diferenciable. Con lo cual, si denotamos dfdx
= f 0 (x), entonces supondremos que
0
00
000
(n)
f (x), f (x), f (x), · · · , f (x) están definidas en el intervalo [a, b].
De cursos anteriores se sabe que:
Z
a+h
dx f 0 (x) = f (a + h) − f (a) ⇒ f (a + h) = f (a) +
a+h
Z
a
dx f 0 (x) ⇒ f (a + h) ≈ f (a) + hf 0 (a) ,
a
r
donde hemos supuesto que en intervalo [a, a + h] la función f 0 (x) es constante y tiene como valor f 0 (a).
Ahora bien, esto vale para todo x y para cualquier función, por lo tanto se cumple que:
in
a
f (x) ≈ f (a) + (x − a)f 0 (a) ,
f 0 (x) ≈ f 0 (a) + (x − a)f 00 (a) ,
f 00 (x) ≈
..
.
f 00 (a) + (x − a)f 000 (a) ,
..
.
m
f (n−1) (x) ≈ f (n−1) (a) + (x − a)f (n) (a) .
Con lo cual podemos construir
a+h
a+h
Z
0
Pr
eli
Z
dx [f 0 (a) + (x − a)f 00 (a)] ≈ f (a) + hf 0 (a) +
dx f (x) ≈ f (a) +
f (a + h) = f (a) +
a
a
h2 00
f (a) ,
2
que no es otra cosa que una aproximación de segundo orden a f (a + h). En general podemos construir
a+h
Z
f (a + h)
=
dx f 0 (x) = f (a) +
f (a) +
a
=
Z
0
f (a) + hf (a) +
"Z
a+h
dx f (x)
a
a+h
or
f (a) + hf 0 (a) +
h2
f (a) + hf (a) + f 00 (a) +
2
"
a+h
Z
du
0
Bo
rr
ad
#
00
dv
Z
dx f 00 (x)
a
a+h
f 00 (a) +
dv
a
=
f 0 (a) +
dx
#
a+h
Z
a
a
=
"
a+h
Z
a
dx f 000 (x)
a
a+h
Z
#!
a+h
Z
Z
"Z
a+h
du
dv
a
a
#!
a+h
000
dx f (x)
a
y si repetimos ese procedimiento n veces, suponiendo que las derivadas de f (x) existan, tendremos la aproximación n − 1 a la función. Esto es
f (a + h) = f (a) + hf 0 (a) +
h2 00
h3
hn−1 (n−1)
f (a) + f 000 (a) + · · · +
f
(a) + Rn
2!
3!
(n − 1)!
y también es fácil convencerse por inspección que el residuo o el error que cometemos en la aproximación
n − 1 viene dado por la integración enésima de la derivada enésima, vale decir
Z
Rn =
a
a+h
Z
du
a
a+h
Z
dv ·|· ·{z· ·}·
n veces
a+h
dx f 000 (x)
a
70
2.4. SERIE DE TAYLOR
y por el Teorema del Valor medio
Z a+h
dτ g(τ ) = hg(ξ)
⇒ Rn =
a
hn (n)
f (ξ)
n!
con a ≤ ξ ≤ a + h
Ahora bien, una elección astuta del parámetro h = x − a nos lleva a la conocida expresión de la serie de
Taylor para una función de una variable
r
(x − a)2 00
(x − a)3 000
(x − a)n−1 (n−1)
f (a) +
f (a) + · · · +
f
(a) + Rn
2!
3!
(n − 1)!
in
a
f (x) = f (a) + (x − a)f 0 (a) +
y el error vendrá dado por
(x − a)n (n)
f (ξ) con a ≤ ξ ≤ a + h
n!
ası́ la expansión de Taylor especifica el valor de una función en un punto x en términos de el valor de la
función y sus derivadas en un punto de referencia a. La expansión se hace en términos de potencias de la
diferencia, (x − a), entre el punto que se evalúa y el punto de referencia.
Algunas otras formas de expresar la serie de Taylor, serı́an
m
Rn =
donde, D ≡
d
dx
Pr
eli
∞
∞
∞
dn
X
X
X
hn dx
hn Dn
hn (n)
n
f (x) =
f (x) =
f (x) = ehD f (x)
f (x + h) =
n!
n!
n!
n=0
n=0
n=0
Si el punto de referencia es a = 0 tendremos la serie de Maclaurin
f (x) = f (0) + xf 0 (0) +
2.4.1.
x2 00
x3
xn−1 (n−1)
f (0) + f 000 (0) + · · · +
f
(0) + Rn
2!
3!
(n − 1)!
Algunas series de Taylor
Un listado incompleto de las series de Taylor más utilizadas es:
sen(x)
=
cos(x)
=
x3
x4
xn
x2
+
+
+ ··· +
+ · · · para − ∞ < x < ∞
2!
3!
4!
n!
x3
x5
x7
x2n−1
x−
+
−
+ · · · + (−1)n+1
+ · · · para − ∞ < x < ∞
3!
5!
7!
(2n − 1)!
x2
x4
x6
x2n−2
1−
+
−
+ · · · + (−1)n+1
+ · · · para − ∞ < x < ∞
2!
4!
6!
(2n − 2)!
x5
x7
x3
x2n−1
+
−
+ · · · + (−1)n+1
+ · · · para − 1 < x < 1
x−
3
5
7
(2n − 1)
x2
x3
x4
xn
x−
+
−
+ · · · + (−1)n+1
+ · · · para − 1 < x < 1
2
3
4
n
x2
x3
m!
1 + mx + m(m − 1) + m(m − 1)(m − 2) + · · · +
xn + · · ·
2
3!
n!(m − n)!
1+x+
or
=
Bo
rr
ad
ex
arctan(x)
=
ln(1 + x)
=
(1 + x)m
=
∀x
Si tenemos una función y queremos determinar su serie de potencias, es posible que los cálculos se
simplifiquen notablemente si utilizamos apropiadamente las series elementales anteriores, por ejemplo:
2
3
4
αx2 + βx
αx2 + βx
αx2 + βx
αx2 +βx
2
e
= 1 + αx + βx +
+
+
+ ···
2
3!
4!
71
in
a
r
2.4. SERIE DE TAYLOR
m
Figura 2.6: La función Gamma para n = 5
Pr
eli
desarrollando los términos binomiales
1 2
1 3
1 2 1
1 4
αx2 +βx
2
3
2
e
=1+βx+ α+ β x + βα+ β x +
α + αβ +
β x4 + · · ·
2
6
2
2
24
Si se quiere hacer el desarrollo alrededor de un punto diferente de x0 = 0, podemos completar cuadrados:
2
eαx
+βx
= eα(x
2
+βx/α)
2
= eα(x
2
2
+βx/α+β 2 /4α2 −β 2 /4α2 )
2
= eα(x
2
+βx/α+β 2 /4α2 )−β 2 /4α
2
= eα(x+β/2α) −β /4α = eα(x+β/2α) e−β /4α
2
= e−β /4α 1 + α(x + β/2α)2 + α2 (x + β/2α)4 /2 + · · ·
2.4.2.
or
y esta es la expanción en series de potencias alrededor del punto x0 = −β/2α.
La expansión binomial
Por su uso frecuente, consideremos el caso de la expansión binomial
∞
X
x2
x3
m!
= 1 + mx + m(m − 1) + m(m − 1)(m − 2) + · · · =
xn ,
2
3!
n!(m
− n)!
n=0
∞ X
m
=
xn ,
n
Bo
rr
ad
m
(1 + x)
n=0
m
se denomina el coeficiente binomial y la serie termina cuando m = n. Ahora bien,
n
escrito de la forma compacta se sugiere que el exponente m tendrı́a que ser entero y positivo. Pero no es ası́.
La serie explı́cita no se restringe a valores enteros y positivos de m. Por ello, la forma compacta pero exacta
donde el término
72
2.4. SERIE DE TAYLOR
de la expansión binomial es
1+
x m
a
m(m − 1) x 2 m(m − 1)(m − 2) x 3
+
+ ···
a
2
a
3!
a
∞
x n
X
Γ(1 + m)
.
Γ(1 + n)Γ(1 + m − n) a
n=0
=
1+m
=
x
+
0
in
a
r
Donde hemos utilizado la función Γ(x) como la generalización del factorial para
m valores que no se restringen
tiene una singularidad o un
a enteros positivos. Nótese también que si el exponente es negativo, 1 + xa
polo en x = −a.
Cuando n es un entero positivo tendremos
Z ∞
Z ∞
−t n
e−t+n ln(t) dt
e t dt =
n! = Γ(1 + n) =
0
f (t) = −t + n ln(t)
m
Esta integral, como se puede ver en la figura, nos recuerda la forma de una Gaussiana con un máximo
en t = n. Al hacer una expansión alrededor de este punto
= f (n) + (t − n)f 0 (n) + (t − n)2 f 00 (n)/2 + · · ·
Pr
eli
= −n + n ln(n) + 0 + (t − n)2 (−n/n2 )/2 + · · ·
Si conservamos los términos hasta segundo orden, la integral puede ser aproximadamente igual a:
Z ∞
Z ∞
2
2
n! ∼
e−n+n ln(n)−(t−n) /2n dt = nn e−n
e−(t−n) /2n dt
0
0
Para valores de n grandes, y esto es lo que se conoce como la aproximación de Stirling, se tiene:
Z ∞
√
2
n! ∼ nn e−n
e−(t−n) /2n dt = nn e−n 2πn
−∞
or
Aquı́, el sı́mbolo ∼ se refiere a un comportamiento asintótico de la función Gamma.
En la siguiente tabla se muestran, para algunos valores de n, el valor exacto del factorial, el valor por la
fórmula de Stirling y el cociente entre estos dos valores. Se puede apreciar entonces lo buena que resulta tal
aproximación.
n!
1
2
120
3628800
Bo
rr
ad
n
1
2
5
10
2.4.3.
√
nn e−n 2πn
0,922
1,919
118,019
3598695,619
√
n!/(nn e−n 2πn)
0,922
0,960
0,983
0,992
Taylor en varias variables
Sólo por razones de completitud, y para reforzar los conceptos de que es un desarrollo en series para una
función alrededor de un determinado punto, escribiremos el desarrollo en series de Taylor para una funcionón
73
2.4. SERIE DE TAYLOR
de dos variables f = f (x, y). Esta es
=
+
+
+
f (a, b) + (x − a) fx |ab + (y − b) fy |ab
1 (x − a)2 fxx ab + 2(x − a)(y − a) fxy |ab + (y − a)2 fyy |ab
2!
1 (x − a)3 fxxx |ab + 3(x − a)2 (y − a) fxxy |ab + 3(x − a)(y − a)2 fxyy |ab + (y − a)3 fyyy |ab
3!
···
r
f (x, y)
∞
X
n
1
xk ∂k f (xm )
f xj + xj0 =
n!
n=0
⇒ f (~r + ~a) =
xm =xm
0
∞
X
1 ~ n
~r · ∇ f (xm )
n!
n=0
Dónde hemos utilizado la siguiente convención
∂
= ∂x ;
∂x
fy =
∂
= ∂y ;
∂y
fxx =
Ejemplos
2.4.5.
Practicando con Maxima
∂2
= ∂xy ;
∂x∂y
fyy =
∂2
= ∂yy ;
∂y 2
···
La gráfica mostrada en la Figura 1 pueden obtenerse de la siguiente manera:
restart:
n := 5:
f := exp(-t)*t∧ n;
Int(f,t=0..infinity)=int(f,t=0..infinity);
GAMMA(5+1);
plot(f,t=0..20);
‘f(5)‘=evalf(subs(t=5,f));
2.4.6.
Ejercicios
or
>
>
>
>
>
>
>
fxy =
~
r =~
a
Pr
eli
2.4.4.
∂2
= ∂xx ;
∂x2
m
fx =
in
a
De una manera más compacta
Bo
rr
ad
1. Utilice la siguiente definición
tan−1 x =
Z
0
x
1
,
1 + t2
expanda el integrando y luego integre término por término para derivar la siguiente expansión conocida
como expansión de Gregory
tan−1 x = x −
Evalúe la serie para x =
∞
X
x3
x5
(−1)n 2n+1
+
− ··· =
x
.
3
5
2n + 1
n=0
π
4.
2. Utilizando la definición
sen
−1
Z
x=
0
x
√
1
,
1 + t2
74
2.5. SERIES Y ESPACIOS DE HILBERT
derive las expresiones siguientes
sen−1 x =
∞
X
π √
1.3.5. · · · .(2n − 1) n
(1 − x) = − 2x 1 +
x
2
4n (2n + 1)n!
n=1
!
.
r
sen
−1
∞
X
(2n)! x2n+1
,
4n (n!)2 2n + 1
n=0
2.5.
Series y espacios de Hilbert
m
Puedes usar el programa Maxima.
in
a
3. Encuentre los primeros cinco términos, diferentes de cero, de la serie de Taylor, de la función
1 + x 2 + 2x ln(1 + 2x)
f (x) =
−
.
x2
1 + 2x
x
Completitud de E ∞
Bo
rr
ad
2.5.1.
or
Pr
eli
Hemos dejado “sueltos” algunos conceptos para los espacios de Hilbert infito-dimensional. El primero de
estos conceptos es que un vector |ai ∈ E ∞ surge de la combinación lineal de elementos de una base infinita
{|ei i}, (de una serie) que converge al vector |ai para un espacio donde también la norma del vector converge
a un valor finito kak2 = ha |ai.
El segundo concepto fue la posibilidad de expresar un determinado vector (una función) como combinación
lineal de una base (de dimensión infinita) de un espacio vectorial E ∞ . Efectivamente, esa combinación lineal
(de dimensión infinita) habrá de converger a el valor de la función en ese punto. En su momento expresamos
estos conceptos intuitivos y fácilmente demostrables para E n (un espacio vectorial Euclidiano de dimensión
finita, n−dimensional) y sin mayores justificaciones hicimos el “salto ” a E ∞ (un espacio Euclidiano infinitodimensional). Ahora, equipados con los conceptos de convergencia uniforme estamos en capacidad de explorar
esas razones que antes eludimos.
Ambos conceptos tienen que ver con la palabra completitud, la cual, como veremos, no tiene el mismo
significado en cada una de las situaciones antes mencionadas, pero será complementario. En el primer caso
la completitud de E ∞ se logra al poder expresar un vector como una combinación lineal de una base infinita
que converja al valor del vector. En el segundo caso diremos que la base {|ei i} para E ∞ será completa si
expande la totalidad de los vectores de E ∞ .
La primera idea de completitud de un Espacio de Hilbert E ∞ tiene que ver con el hecho que, en ese
espacio, donde la norma de un vector es finita kak2 = ha |ai < ∞, la combinación lineal de los elementos de
n→∞
una base infinita, {|ei i}, converja al vector |ai. Esto es, ai |ei i −→ |ai.
n
Para el caso de E es inmediato que, dada una base (ortonormal, por ejemplo)
|ai = ai |ei i ⇒ kak2 = ha |ai = ai ai < ∞ ,
con i = 1, 2, 3, . . . n ,
la norma es finita, por cuanto es la suma de términos finitos (las componentes del vector (a1 , a2 , a3 , · · · an )).
Sin embargo, para el caso de E ∞ las componentes del vector será función de las sumas parciales, esto es
hasta dónde desarrollemos la serie y debemos demostrar que si
n→∞
|ain ⇔ (a1n , a2n , a3n , a4n , · · · ann ) −→ |a∞ i ⇔ (a1∞ , a2∞ , a3∞ , · · · aj∞ , · · · ) ⇒ k |a∞ i − |an i k < .
75
2.5. SERIES Y ESPACIOS DE HILBERT
Es decir que, efectivamente, componente a componente el vector |an i converja al vector |ai.
El criterio de convergencia de Cauchy en este caso significa que: dadas dos sumas parciales (desarrollos
parciales en una determinada base infinita {|ei i}) |an i = ai |ei i con i = 1, 2, . . . n y |am i = aj |ej i con
j = 1, 2, . . . m entonces:
k |am i − |an i k = k |am i − |ai − |an i + |ai k ≤ k |ai − |an i k + k |ai − |am i k < 0 + 00 ≡ ,
|ajn − ajm |2 ≤
∞
X
|ajn − ajm |2 ≡ k |am i − |an i k2 < ,
j=1
in
a
r
con lo cual las diferencias en las sumas parciales serán siempre menor que un 0 < < 1.
Nótese que hemos utilizado la desigualdad triangular kx + yk ≤ kxk + kyk, y es esa misma desigualdad
triangular lo que nos garantiza que:
j=1
j=1
con lo cual si m → ∞ tendremos que
M →∞ ⇒
∞
X
Pr
eli
m
vale decir, hemos demostrado que el término j−ésimo (y con ello todas las componentes del vector) de una
n→∞
m→∞
suma parcial, converge al término correspondiente de la serie lı́mite. Esto es, ajn −→ ajm −→ aj por lo
tanto que la combinación lineal converge al vector. Nos queda por demostrar si su norma es finita, o lo que
es lo mismo, ha |ai = ai ai < ∞ con i = 1, 2, 3, · · · ∞.
Es claro que:
M
∞
X
X
j
j 2
|an − am | ≤
|ajn − ajm |2 ≡ k |am i − |an i k2 < ,
PM
j=1
|ajn − aj |2 < , y si ahora hacemos:
|ajn − aj |2 < ⇒ ha |ai =
j=1
∞
X
|aj |2 ≡
j=1
∞
X
|aj + ajn − ajn |2 .
j=1
Ahora bien, para α y β complejos, se cumple:
2
para que resulte:
or
(|α| − |β|) ≡ |α|2 +|β|2 −2|α||β| ≥ 0 ⇒ 2|α||β| ≤ α|2 +|β|2 ⇒ |α+β|2 ≤ ||α|+|β||2 = |α|2 +|β|2 +2|α||β| ,
2
(|α| − |β|) ≤ 2 |α|2 + |β|2 .
Bo
rr
ad
Finalmente, podemos aplicarlo al caso que nos compete:


∞
∞
∞
X
X
X
ha |ai ≡
|aj + ajn − ajn |2 ≤ 2 
|aj − ajn |2 +
|ajn |2  < ∞ .
j=1
2.5.2.
j=1
j=1
Conjunto completo de funciones
El segundo sentido de completitud tiene que ver con que el conjunto (funciones) de vectores base expandan
la totalidad del espacio vectorial (de funciones). Esto es, si {|ui i} ⇔ {ui (x)} es una base ortonormal para
E ∞ entonces:
|ai = ai |ui i ⇒ k |ai k2 = ha |ai = ai ai =
∞
X
|ak |2
con i = 1, 2, 3, . . . ∞ .
k=1
76
2.5. SERIES Y ESPACIOS DE HILBERT
Otra vez es la misma afirmación que consideramos en el caso de un espacio finito dimensional E n , en el cual
demostramos que una base {|ui i} con i = 1, 2, 3, · · · , n expandı́a todo el espacio.
Si adicionalmente existe una función cuadrado integrable, L2[a,b] definidas en el intervalo [a, b], la cual
pueda ser aproximada por la base:
Z b
∞
N
N
X
X
X
2
i
i
2
k |f i k ≡ hf |f i < ∞ ⇒ |f i =
c |ui i ∼
dx|f (x)|2 ⇒ f (x) ∼
c |ui i ⇔ kf (x)k ≡
cj uj (x) .
i=0
a
i=0
j=0
in
a
r
Nótese que hemos supuesto la existencia de un producto interno y si las bases son ortonormales tendremos
que:
Z b
Z b
Z b
∞
X
2
∗k
k
2
∗
k
dx|f (x)| =
dx u (x)ul (x) = δl ⇒ kf (x)k ≡
|cj |2 .
dx g (x)f (x) ⇒ u |ul i ≡
hg |f i ≡
a
a
a
donde:
ck =
Z
b
dx u∗k (x)f (x) .
m
a
j=0
Pr
eli
Para demostrar que E ∞ es completo, comenzamos por demostrar la llamada desigualdad de Bessel.
Esta es: dada una base ortonormal infinita, {|ui i} ⇔ {ui (x)} para un espacio vectorial de Hilbert, E ∞ , de
Rb
funciones cuadrado integrable f (x) ∈ L2[a,b] , con un producto interno definido por hg |f i ≡ a dx g ∗ (x)f (x),
entonces se cumple que:
Z b
Z b
∞
X
kf (x)k2 ≥
|ck |2 con ck = uk |f i =
dx u∗k (x)f (x) ∧ hg |f i ≡
dx g ∗ (x)f (x) .
a
k=1
a
Para demostrar la desigualdad de Bessel, partimos de una afirmación obvia en espacios finito dimensionales:
0 ≤ k |f i − ci |ui i k2 ≡ hf | − c∗k uk |f i − ci |ui i = k |f i k2 − c∗k uk |f i −ci hf |ui i +c∗k ci uk |ui i ,
| {z }
| {z }
| {z }
ck
c∗
i
δik
donde k, i = 1, 2, 3, . . . , n Entonces, queda demostrada la desigualdad de Bessel al tomar el lı́mite n → ∞:
2
2
|ck |
or
0 ≤ k |f i k −
n
X
n→∞
2
=⇒ k |f i k ≥
k=1
∞
X
|ck |2 .
k=1
Bo
rr
ad
Si definimos el error, Mn , que se comete al aproximar una función con su expansión hasta un término
n−ésimo como Mn (b − a) ≡ k |f i − αi |ui i k2 demostraremos que Mn es mı́nima si αi = ci = ui |f i.
Para ello procedemos como es costumbre, partiendo de la definición que acabamos de hacer y nos concentramos en el caso finito dimensional:
0 ≤ Mn (b − a) ≡ k |f i − αi |ui i k2 = k |f i − (αi − ci ) |ui i − ck |uk i k2 .
Desarrollando
Mn (b − a) = hf | − (αk∗ − c∗k ) uk − c∗k uk |f i − (αi − ci ) |ui i − ci |ui i
n
X
=k |f i k2 − c∗i (αi − ci ) − 2c∗i ci − (αk∗ − c∗k )ck +
kαj − cj k2 + (αk∗ − c∗k )ck + c∗i (αi − ci ) + c∗i ci
"
= k |f i k2 −
n
X
i=1
#
kci k2 +
n
X
j=1
kαj − cj k2 .
j=1
77
2.6. SERIES DE LAURENT
Pero la desigualdad de Bessel garantiza que la cantidad entre corchetes es positiva, por lo tanto Mn es
mı́nima (y la denotaremos M̃n ) cuando seleccionamos αj = cj . Más aún, M̃n decrece cuando n → ∞, vale
decir:
n
∞
X
X
n→∞
M̃n (b − a) = k |f i k2 −
kci k2
=⇒
M̃∞ (b − a) = k |f i k2 −
kci k2 ,
i=1
i=1
y si, adicionalmente tenemos que M̃n → 0 cuando n → ∞ entonces es claro que:
∞
X
kci k2 ⇒ {|ui i} ⇔ {ui (x)}
es completa.
r
k |f i k2 =
in
a
i=1
Esta noción de convergencia se denomina convergencia al promedio.
Si adicionalmente exigimos que la serie ci |ui i converja uniformemente para x ∈ [a, b] entonces es claro
que:
Z b
∞
X
dx kf (x) − ci |ui i k2 = 0 ⇒ |f i = ci |ui i (con i = 1, 2, 3 · · · , ∞) ⇔ f (x) =
ci ui (x) .
a
m
i=1
Podemos enumerar las condiciones para la cual exigiremos que una función pueda ser expresada en
términos de una base completa de funciones.
Pr
eli
Que f (x) sea cuadrado integrable f (x) ∈ L2[a,b] .
P∞
Que la base sea completa, {|ui i} ⇔ {ui (x)} i.e. k |f i k2 = i=1 kci k2 .
P∞
Que la serie ci |ui i ⇔ i=1 ci ui (x) converja uniformemente, para x ∈ [a, b].
2.6.
Series de Laurent
Anteriormente consideramos series complejas de potencias. En esta sección revisaremos, desde la perspectiva de haber expresado la derivada n-ésima de una función analı́tica, el equivalente a las series de Taylor
para funciones complejas de variable complejas.
Series de Taylor para funciones analı́ticas
or
2.6.1.
Bo
rr
ad
Si f (z) es analı́tica en un cı́rculo de radio R, encerrado por un contorno C y centrado en un punto z = z0 ,
entonces f (z) puede ser expandida en series de potencias (enteras positivas) para todo |z − z0 | < R de la
forma:
∞
X
f (n) (z0 )
f 00 (z0 )
f (n) (z0 )
f (z) =
(z − z0 )n ≡ f (z0 ) + f 0 (z0 )(z − z0 ) +
(z − z0 )2 + · · · +
(z − z0 )n + Rn ,
n!
2
n!
n=0
con el resto Rn (z) definido como:
Rn (z) =
(z − z0 )n
2iπ
I
C
f (ζ) dζ
.
(ζ − z0 )n (ζ − z)
Para probar esta afirmación partimos de la fórmula integral de Cauchy escrita convenientemente:


I
I
1
f (ζ) dζ
1
f (ζ) 
1

f (z) =
=
dζ
(2.27)

,
2iπ C ζ − z
2iπ C
ζ − z0 1 − z − z0
ζ − z0
78
2.6. SERIES DE LAURENT
de donde:

1
f (z) =
2iπ
I
C
f (ζ) dζ
1
≡
ζ −z
2iπ
I
f (ζ)
dζ
ζ
− z0
C
2
n

z − z0
z − z0
z − z0

+ ··· +
+
+
1 +
ζ − z0
ζ − z0
ζ − z0

n+1 
z − z0

ζ − z0

,
ζ −z

ζ − z0
1 − rn+1
1
rn+1
1
rn+1
=
−
⇒
= 1 + r + r2 + r3 + · · · + rn +
.
1−r
1−r 1−r
1−r
1−r
Entonces:

1
2iπ
C
j
n f (ζ) dζ
1
f (ζ) 
X z − z0
+
≡
dζ

ζ −z
2iπ C
ζ − z0  j=0 ζ − z0
I
Pr
eli
con lo cual:
n+1 
z − z0

ζ − z0

,
ζ −z

ζ − z0
m
f (z) =
I
in
a
Para entenderlo, recordemos que para una serie geométrica, se cumple que:
1 + r + r2 + r3 + · · · + rn =
I
n
n
X
X
1
f (ζ)
f (j) (z0 )
j
(z − z0 )
f (z) =
dζ
+
R
(z)
=
(z − z0 )j + Rn (z) ,
n
j+1
2iπ
(ζ
−
z
)
j!
0
C
j=0
j=0
donde:
z − z0
.
ζ − z0
r
este último corchete proviene de una forma ingeniosa de utilizar una serie geométrica de razón r =
(z − z0 )n
Rn (z) =
2iπ
I
dζ
C
f (ζ)
.
(ζ − z0 )n (ζ − z)
(2.28)
(2.29)
Bo
rr
ad
or
Obvio que la serie (2.28) converge si Rn (z) → 0 cuando n → ∞ y de eso es fácil convencerse al acotar la
ecuación (2.29). Esto es, considerando ζ sobre el contorno C y z en el interior de R, entonces:
I
I
(z − z0 )n
f (ζ)
|z − z0 |n
f (ζ)
|Rn (z)| =
dζ
<
dζ
n
2iπ
(ζ − z0 )n (ζ − z)
2π
C
C (ζ − z0 ) (ζ − z)
1
|z − z0 |n
<
M n 2πR ,
2π
R
donde, una vez más, hemos utilizado la forma polar ζ̃ = ζ − z0 = Reiθ y hemos acotado
lo cual es inmediato constatar que lı́mn→∞
z − z0
R
n
f (ζ)
< M , con
ζ −z
= 0 ⇒ Rn (z) → 0, con lo cual la serie converge.
Ejemplos Expanda
f (z) =
f (z) =
1
, alrededor de z = z0
1−z
∞
X
1
1
1
1
(z − z0 )n
(z − z0 )n
2
3
+
(z−z
)+
(z−z
)
+
(z−z
)
+·
·
·+
+·
·
·
=
0
0
0
2
3
4
n+1
1 − z0 (1 − z0 )
(1 − z0 )
(1 − z0 )
(1 − z0 )
(1 − z0 )n+1
n=0
79
m
in
a
r
2.6. SERIES DE LAURENT
Pr
eli
Figura 2.7: Expansión de Laurent
f (z) = ln(1 + z), alrededor de z = 0 (Serie de Maclaurin)
∞
X
(−1)n+1 n!
(1 − z)n+1
n=1
f (z) = ln(1+z) = ln(1 + z)|z=0 +
z=0
f 00 (0) 2 f 000 (0) 3
z2 z3
z +
z +· · · = z− + +· · ·
2
3!
2 3
1+z
f (z) = ln
, alrededor de z = 0 (Serie de Maclaurin)
1−z
X
∞
1+z
2z 2n+1
z3
z2
z3
z3
z5
z2
ln
+
· · · − −z −
−
··· = 2 z +
+
··· =
.
≡ ln[1+z]−ln[1−z] = z −
1−z
2
3
2
3
3
5
2n + 1
n=0
2.6.2.
or
z n ≡ f (0)+f 0 (0)z+
Series de Laurent
Bo
rr
ad
Hemos dicho que si una función f (z) es analı́tica en una región (digamos que circular) R, entonces puede
ser expandida por series de Taylor. Sin embargo, si f (z) tiene un polo de orden p, digamos, en z = z0 , dentro
de la región R, no será analı́tica en ese punto, mientras que la función: g(z) = (z − z0 )p f (z) si lo será en
todos los puntos de esa región. Entonces f (z) podrá ser expandida como series de potencias (de Laurent) de
la forma
I
∞
∞
∞
X
X
X
u−n
1
f (ζ) dζ
f (z) =
uk (z − z0 )k =
un (z − z0 )n +
,
con
u
=
,
(2.30)
n
n
(z − z0 )
2iπ C (ζ − z0 )n+1
n=0
n=0
k=−∞
para: n = 0, ±1, ±2, · · · y R1 < |z − z0 | < R2 . Equivalentemente
g(z)
a−p
a−p+1
a−1
=
+
+ ··· +
+ a0 + a1 (z − z0 ) + a2 (z − z0 )2 + · · · (2.31)
p
p
p−1
(z − z0 )
(z − z0 )
(z − z0 )
(z − z0 )
P∞
u−n
La suma de todos los términos que tengan potencias negativas, vale decir n=0 (z−z
n , se denomina parte
0)
principal de f (z).
f (z) =
80
2.6. SERIES DE LAURENT
Para demostrar (2.30) o (2.31), recordamos que, tal y como muestra la figura 2.8 cuadrante I, si f (z) es
analı́tica en la regiún anular, entonces el Teorema de Cauchy, nos garantiza que
I
I
I
I
1
f (ζ) dζ
1
f (ζ) dζ
1
f (ζ) dζ
1
f (ζ) dζ
f (z) =
+
≡
−
2iπ C1 ζ − z0
2iπ C2 ζ − z0
2iπ C1 ζ − z0
2iπ C2 ζ − z0
in
a
r
donde en el segundo caso hemos supuesto que ambas circulaciones tienen el mismo sentido.
Del mismo modo como procedimos en la ecuación (2.27) reescribimos el segundo par de integrales como




I
I

1
1
f (ζ) 
1
f (ζ) 
1



dζ
dζ
f (z) =

+

z
−
z
ζ
−
z
0
2iπ C1
ζ − z0 1 −
2iπ C2
z − z0
0 
1−
ζ − z0
z − z0
Pr
eli
m
y ahora invocando, una vez más la progresión geométrica (??) podemos construir expresiones de integrales
equivalentes a la ecuación (??). Vale decir
n 
n 


z − z0
ζ − z0
I
I
n−1
n−1
X z − z0 j
X ζ − z0 j
 1

1
f (ζ) 
f (ζ) 
ζ − z0
z − z0

+


f (z) =
dζ
+
dζ
+
ζ − z  2iπ C2
ζ −z 
2iπ C1
ζ − z0  j=0 ζ − z0
z − z0  j=0 z − z0
ζ − z0
z − z0
y equivalentemente
I
I
n−1
n−1
1 X
f (ζ)
1 X
1
j
+Rn1 (z) +
(z − z0 )
dζ
f (z) =
dζ f (ζ)(ζ − z0 )j +Rn2 (z)
j+1
j+1
2iπ j=0
(ζ
−
z
)
2iπ
(z
−
z
)
0
0
C
C
j=0
{z
}
{z
}
| 1
| 2
uj
u−j
(2.32)
Con lo cual queda demostrado la forma funcional de los coeficientes de la expansión de Laurent. La demostración de la convergencia, esto es n → ∞ ⇒ Rn1 (z) → Rn2 (z) → 0 sigue el mismo esquema que utilizamos
para demostrar la convergencia de la ecuación (2.30) y se lo dejamos como ejercicio al lector.
Otra manera de representar las series de Laurent es por medio de las fórmulas:
∞
X
ak (z − z0 )k +
k=1
k=0
Bo
rr
ad
donde:
∞
X
bk
,
(z − z0 )k
or
f (z) =
ak
=
bk
=
R1 < |z − z0 | < R2 .
Z
1
f (z)
dz , k = 0, 1, 2, . . . ,
2πi C (z − z0 )k+1
Z
f (z)
1
dz , k = 1, 2, . . . .
2πi C (z − z0 )−k+1
(2.33)
(2.34)
(2.35)
En este caso, se supone que la función es analı́tica en el dominio anular: R1 < |z − z0 | < R2 y C es un
contorno cerrado simple en torno a z0 y contenido en la región anular.
En el caso de bk podemos ver que el integrando se puede escribir también como f (z)(z − z0 )k−1 . Si f
es analı́tica en |z − z0 | < R2 , entonces el integrando es una función analı́tica en dicho disco y por lo tanto
bk = 0. Es decir, la serie (2.33) se reduce a una serie de Taylor donde los coeficientes son:
Z
f (z)
1
f (k) (z0 )
, k = 0, 1, 2, . . . .
ak =
dz
=
2πi C (z − z0 )k+1
n!
81
2.6. SERIES DE LAURENT
2.6.3.
Algunos Ejemplos
En muchos casos las expansiones en series de Laurent no se generan a partir de las ecuaciones (2.30) o
(2.33) sino a partir de manipulaciones algebráicas y expansiones en Taylor moduladas por otros factores.
Ejemplo 1: El primero lo haremos directamente, vale decir, que como lo vamos a hacer no lo haremos otra
vez. Queremos hacer una representación en serie de Laurent de la función:
r
1
.
z(z − 1)
Utilizando las fórmulas de (2.32), construimos la relación
1
uj =
2πi
I
C1
1
f (ζ)dζ
=
(ζ − z0 )j+1
2πi
I
C1
dζ
1
=−
ζ j+2 (ζ − 1)
2πi
∞
dζ X
I
C1
ζ j+2
∞ I
1 X
dζ
ζ =−
j+2−n
2πi
ζ
n=0
n=0 C1
n
f (z) =

 un = −1

un = 0
para n ≥ −1
para n < −1
Pr
eli
es decir
⇒
m
conviertiendo a la forma polar tendremos que
∞ I
∞
X
riθeiθ dθ
1 X
−
=−
δj+2−n,1
2πi n=0 C1 rj+2−n ei(j+2−n)θ
n=0
in
a
f (z) =
1
1
= − − 1 − z − z2 − z3 − · · ·
z(z − 1)
z
Consideremos los siguientes ejemplos de desarrollos en Series de Laurent:
Ejemplo 2:
f (z) =
1
.
z(z − 2)
or
La función puede escribirse en la forma:
f (z) =
1
1 1
1
=−
−
,
z(z − 2)
2 z
z−2
0 < |z| < 2 .
Bo
rr
ad
Por otro lado, sabemos que:
∞
∞
1
1
1
1 X z n X z n
−
=
=
=
,
z−2
2 1 − z/2
2 n=0 2
2n+1
n=0
|z| < 2 ,
por lo tanto:
1
f (z) =
z(z − 2)
∞
1 1 1 X zn
= −
−
2z
2 n=0 2n+1
= −
11 1 1
1
1
1
1 5
− − z − z2 − z3 − z4 −
z − ··· ,
2z
4 8
16
32
64
128
0 < |z| < 2 .
82
2.6. SERIES DE LAURENT
Ejemplo 3:
f (z) =
1
(z − 1)(z − 3)
Para 1 < |z| < 3.
Tenemos los siguientes desarrollos:
=
∞ n
∞
X
1
1
1X 1
1
,
=
=
n+1
z 1 − 1/z
z n=0 z
z
n=0
1
z−3
=
∞
∞
1
1
1 X z n X z n
=
,
=
3 1 − z/3
3 n=0 3
3n+1
n=0
La serie es:
"∞
#
∞
X
1 X zn
1
= −
+
2 n=0 3n+1 n=0 z n+1
|z| < 3 ,
Pr
eli
1
f (z) =
(z − 1)(z − 3)
|z| > 1 ,
m
−
1
z−1
in
a
r
Esta función tienes polos de orden 1 en z = 1 y z = 3. Además, expresando f (z) como una suma de fracciones
parciales, tendremos:
1
1
1
1
f (z) =
=−
−
, 1 < |z| < 3 ,
(z − 1)(z − 3)
2 z−1 z−3
1
1 2
1 3 1 −1 1 −2 1 −3 1 −4
1
z−
z −
z − z − z − z − z − ··· .
= − −
6 18
54
162
2
2
2
2
or
Para |z| > 3.
En este caso no podemos utilizar el segundo desarrollo anterior, ya que éste es válido sólo para |z| < 3.
Por lo tanto:
∞ n
∞
X
1
1
1
1X 3
3n
−
= −
=−
, |z| > 3 ,
=−
z−3
z 1 − 3/z
z n=0 z
z n+1
n=0
podemos entonces escribir
Bo
rr
ad
1
f (z) =
(z − 1)(z − 3)
para |z| < 1.
Escribimos
f (z) =
=
"∞
#
∞
∞
X
1 X 1
3n
1 X 1 − 3n
−
=
−
−
2 n=0 z n+1 n=0 z n+1
2 n=0 z n+1
= z −2 + 4 z −3 + 13 z −4 + 40 z −5 + · · · .
1
1
1
1 1
1
1
1
=−
−
=
−
,
(z − 1)(z − 3)
2 z−1 z−3
21−z
6 1 − z/3
como |z| < 1 y |z/3| < 1 en este dominio, entonces:
f (z)
=
∞
∞
∞
1 X n 1 X zn
1X n
1
z −
=
z
1
−
2 n=0
6 n=0 3n
2 n=0
3n+1
=
13 2 40 3 121 4
1 4
+ z+
z +
z +
z + ··· .
3 9
27
81
243
83
2.6. SERIES DE LAURENT
Ejemplo 4:
f (z) =
Sabemos que:
ez =
e2z
.
(z − 1)3
∞
X
zn
,
n!
n=0
|z| < ∞ ,
e2z
(z − 1)3
∞
∞
X
X
2n (z − 1)n
2n
e2 e2(z−1)
2
2
=
e
=
e
(z − 1)n−3
3
(z − 1)3
n!(z
−
1)
n!
n=0
n=0
2
4
−3
−2
−1
2
2 2
= e
+ (z − 1) + 2 (z − 1) + 2 (z − 1) + z +
(z − 1) + · · · ,
3
3
15
=
in
a
f (z) =
r
por lo tanto:
Ejemplo 5:
Esta función se puede escribir como:
1
sen z
− 3 .
2
z
z
f (z) =
Sabemos que:
sen z =
∞
X
(−1)n
n=0
entonces
1
sen z
− 3
z2
z
z 2n+1
,
(2n + 1)!
|z| < ∞ ,
∞
=
∞
X
X
1
1
z 2n+1
z 2(n−1)
−
(−1)n 3
= 2−
(−1)n
2
z
z (2n + 1)!
z
(2n + 1)!
n=0
n=0
=
∞
∞
2(n−1)
2(n−1)
X
X
1
1
n z
n z
(−1)
(−1)
−
−
=
−
z2
z 2 n=1
(2n + 1)!
(2n + 1)!
n=1
=
1
1 2
1
1
1
−
z +
z4 −
z6 +
z8 − · · · ,
6 120
5040
362880
39916800
Bo
rr
ad
or
f (z) =
z − sen z
.
z3
Pr
eli
f (z) =
m
la cual es válida para: 0 < |z − 1| < ∞.
válida para: 0 < |z| < ∞.
2.6.4.
Integración por el método de los residuos
Las expansiones de funciones en series de potencias dejan “residuos” al detener la expansión a para una
determinada potencia. Esto se puede apreciar claramente en la expresión de Taylor para funciones analı́ticas.
Ahora, las expansiones de Laurent nos muestran otro “residuo”. Explotaremos las series de Laurent para
funciones con polos y construiremos un método para evaluar integrales de funciones en esos puntos. Primero
estudiaremos los residuos en general y luego los utilizaremos para evaluar integrales.
84
2.6. SERIES DE LAURENT
2.6.5.
Los residuos de Laurent
Hemos dicho que si f (z) tiene un polo de orden p en z = z0 ∈ R, entonces
∞
X
I
dz f (z) 6= 0 ⇒ f (z) =
C
ak (z−z0 )k =
n=−∞
a−p+1
a−1
a−p
+
+· · ·+
+a0 +a1 (z−z0 )+a2 (z−z0 )2 +· · ·
(z − z0 )p (z − z0 )p−1
(z − z0 )
r
más aún, tendremos que los coeficientes de la expansión pueden ser calculados a partir de
I
I
1
f (ζ) dζ
n
=
0,
±1,
±2,
·
·
·
si
n
=
−1
⇒
an =
f (ζ) dζ = 2iπa−1 ≡ 2iπRes f (z)
2iπ C (ζ − z)n+1
C
in
a
(2.36)
m
Es decir, la integración a lo largo de un contorno C que aisle al polo z = z0 es proporcional al residuo
correspondiente a la expansión de Laurent alrededor de ese polo. Nos queda entonces calcular el residuo para
ası́ no calcular la integral.
Esta situación se ilustra con el siguiente ejemplo. Supongamos
1
z3
1
z5
1
z
sen z
= 4 z−
+
+ ··· = 3 −
+ + ··· ,
f (z) =
4
z
z
3!
5!
z
3!z
5!
por lo tanto:
I
1
3!
⇒
f (ζ) dζ = 2iπa−1 = −
iπ
3
Pr
eli
a−1 = −
C
En general, si f (z) tiene un polo de orden p en z = z0 ∈ R, entonces
(z−z0 )p f (z) = a−p +a−p+1 (z−z0 )+· · ·+a0 (z−z0 )p +· · · ⇒
con lo cual concluimos que
a−1 ≡ Res f (z) = lı́m
z→z0
∞
X
dp−1
p
bn (z−z0 )n
[(z−z
)
f
(z)]
=
(p−1)!a
+
0
−1
dz p−1
n=1
1
dp−1
p
[(z − z0 ) f (z)]
(p − 1)! dz p−1
(2.37)
or
Si, por ejemplo consideramos
Bo
rr
ad
eiz
eiz
≡
f (z) = 2
2
(z + 1)
(z + i)2 (z − i)2
⇒
z0 = i ⇒
d
d
eiz
2
[(z − i) f (z)] =
dz
dz (z + i)2




 z0 = −i ⇒
d
eiz
d
2
[(z + i) f (z)] =
dz
dz (z − i)2






con lo cual
Res
eiz
2
(z + 1)2
1 d
eiz
(z + i)2 ieiz − eiz 2(z + i)
−4ie−1 − −4ie−1
i
= lı́m
=
=−
2
2
z→i 1! dz (z + i)
z→i
(z + i)
16
2e
= lı́m
i
del mismo modo se procede para el caso z = −i
Un caso particular y muy útil lo constituyen las funciones racionales del tipo f (z) =
p(z)
y f (z) tiene
q(z)
un polo simple en z = z0 . Esto es q(z0 ) = 0 entonces
Res f (z)|z0 = lı́m
z→z0
p(z0 )
(z − z0 )p(z)
(z − z0 )
= p(z0 ) lı́m
= 0
z→z0
q(z)
q(z)
q (z0 )
(2.38)
85
m
in
a
r
2.7. TEOREMA DEL RESIDUO
Pr
eli
Figura 2.8: Expansión de Laurent
porque hemos utilizado el Teorema de L’Hopital. Este caso lo podemos ejemplificar si consideramos una
función

4 − 3z


z = 0 ⇒ Res f (z)|z=0 =
= −4


2z
− 1 z=0

4 − 3z
4 − 3z
≡
con polos en
(2.39)
f (z) = 2

z −z
z(z − 1)

4
−
3z


=1
 z = 1 ⇒ Res f (z)|z=1 =
2z − 1 z=1
2.7.1.
Teorema del Residuo
Integrales impropias del tipo
R∞
or
2.7.
−∞
dx f (x)
Bo
rr
ad
Hemos visto como calcular las integrales de funciones, en regiones múltiplemente conexas, con polos
simples a partir de residuos. Ahora generalizaremos ese esquema para una región, también múltiplemente
conexa, pero con un número finito de polos. Tal y como se muestra en la figura 2.8 en el cuadrante II,
realizamos una circulación ingeniosa, de tal modo que aislamos los distintos polos. Ahora bien, como la
función es analı́tica en la región bordeada por todos esos contornos, entonces
I
I
I
I
dz f (z) +
dz f (z) +
dz f (z) + · · ·
dz f (z) = 0
C
C1
C2
Cm
y al cambiar el sentido de circulación comprobamos lo que ya sabı́amos
I
I
I
I
I
m
X
dz f (z) =
dz f (z) +
dz f (z) + · · ·
dz f (z) ⇔
dz f (z) = 2iπ
Res f (z)z=z0j
C
C1
C2
Cm
C
j=1
donde hemos utilizado lo que hicimos para la ecuación (2.36)
Con ello podemos enunciar el Teorema del Residuo que ya hemos demostrado
86
2.7. TEOREMA DEL RESIDUO
Si f (z) es analı́tica en una región R excepto en un número, m, finito de polos z01 , z02 , z03 , · · · z0m entonces
m
X
I
dz f (z) = 2iπ
C
Res f (z)z=z0j
j=1
4 − 3z
, una función con polos simples en z = 0 y
z2 − z
z = 1 correspondientes a residuos 4 y 1, respectivamente, tal y como se vió en la sección (2.6.5). Entonces,
utilizamos los resultado expuestos en el ejemplo (2.39)
I
4 − 3z
dz 2
= 2πi(−4 + 1) = −6πi
z −z
C
in
a
r
Una vez más ejemplificamos. Sea la función f (z) =
siempre y cuando el circuito C encierre los dos polos, z = 0 y z = 1, para los cuales hemos calculado los
residuos.
m
Ejercicios
2. Evaluar
a)
I
C
dz ez
cosh z
b)
I
C
Pr
eli
1. Determinar los polos y los residuos correspondientes para cada una de las funciones propuestas
2
z+1
sen z
2z + 1
; f (z) =
; f (z) = cot z
; f (z) =
f (z) = 2
z −z−2
z−1
z2
a lo largo de una circunsferencia |z| = 5
(2z 2 + 5)dz
(z + 2)3 (z 2 + 4)z 2
a lo largo de una circunsferencia |z − 2i| = 6 y
2.7.2.
or
un cuadrado de vértices z = 1 + i; z = 2 + i; z = 2 + 2i y z = 1 + 2i.
Evaluación de integrales, reales, impropias
Bo
rr
ad
El teorema del residuo (2.7) es una herramienta poderosa para evaluar algunos tipos de integrales definidas
en variable real. La intención es “extender” el dominio de las funciones de la recta real al Plano Complejo.
Una de las restricciones es que los contornos deben ser cerrados antes de que sean evaluados los residuos. El
punto es que muchas integrales reales tienen contornos abiertos y la posibilidad de evaluar estas integrales
a través del Teorema del Residuo descansa en la forma como se cierran los contornos. En estos casos se
debe estimar las contribuciones de esos contornos adicionales que pemiten cerrar los contornos abiertos. A
continuación expondremos algunas técnicas para cerrar algunos tipos de contornos abiertos.
2.7.3.
Integrales impropias del tipo
R∞
−∞
dx f (x)
Este tipo de integrales implica, si ambos lı́mites existen
Z ∞
Z 0
Z
dx f (x) = lı́m
dx f (x) + lı́m
−∞
r→−∞
r
r→∞
0
r
Z
r
dx f (x) ↔ lı́m
r→∞
dx f (x)
−r
87
m
in
a
r
2.7. TEOREMA DEL RESIDUO
Pr
eli
Figura 2.9: Circuitos y evaluación de integrales reales, impropias
Necesitaremos que el integrando sea una función racional f (x) = p(x)/q(x), donde q(x) 6= 0 ∀ x. Adicionalmente requeriremos que cuando menos q(x) ∼ x2 p(x). Supuesto todo esto, convertimos nuestra Hfunción racional en una función de variable compleja f (x) → f (z) y consideramos la integral de circulación, C dz f (z),
sobre un contorno C descrito por el eje real y una semicircunsfrencia Γ en el plano complejo con y ≥ 0, tal y
como
R ∞ se muestra en el cuadrante I la figura 2.10. La intención es hacer r → ∞ y con ello evaluar la integral
dx f (x). Es fácil convencerse que
0
I
Z
dz f (z) =
C
r
Γ
dx f (x) = 2iπ
−r
Z
r
dx f (x) = 2iπ
−r
m
X
m
X
Res f (z)z=z0j
j=1
or
es decir,
Z
dz f (z) +
Z
Res f (z)z=z0j −
dz f (z)
Γ
j=1
Bo
rr
ad
Esta estrategia es válida porque hemos supuesto que f (x) es racional y que q(x) 6= 0 ∀ x, entonces si
existen polos para f (z) estarán en el plano complejo (no sobre el eje real). Todos
esos polos serán encenrados
R
por el contorno C que hemos seleccionado. Más aún, comprobaremos que Γ dz f (z) → 0 cuandoz → ∞.
Esto es sencillo si notamos que
Z
k
kπ
k
2
dz f (z) < 2 πr =
para |z| = r ≥ 0
q(x) ∼ x p(x) ⇒ |f (z)| < 2 ⇒
|z|
r
r
Γ
con lo cual llegamos a que para este tipo de integrales
Z
∞
dx f (x) = 2iπ
−∞
m
X
j=1
Res f (z)z=z0j
para f (x) =
p(x)
,
q(x)
con q(x) 6= 0 ∀ x ∧ p(x) ∼ x2 q(x)
(2.40)
88
2.7. TEOREMA DEL RESIDUO
Ejemplo Considere evaluar la siguiente integral
Z ∞
Z ∞
m
X
dx
dx
⇒
= 2iπ
Res f (z)z=z0j
4
4
4
4
−∞ x + 1
−∞ x + 1
j=1
donde hemos utilizado la expresión (2.40). La extensión analı́tica
1
z4 + 1
iπ
tendró cuatro polos simples: z = e± 4 ; z = e±
3iπ
4
;
r
f (x) → f (z) =
m
in
a
correspondientes a las cuatro raı́ces de z 4 = −1. Acto seguido calculamos los residuos invocando la relación
(2.38) que hemos construido para funciones racionales. Esto es

−3iπ
iπ

1
e 4
e4
iπ


4
iπ =
=
=
z = e ⇒ Res f (z)|


z=e 4
4z 3 z=e iπ
4
4

4
p(z0 )
p(z)
= 0
Res
⇒

−9iπ
−iπ
q(z) z=z0
q (z0 )


1
e 4
e 4
3iπ


4
3iπ
⇒
Res
f
(z)|
z
=
e
=
=
=

z=e 4
4z 3 z=e 3iπ
4
4
4
Pr
eli
Hemos considerado únicamente los polos para el semiplano complejo y > 0 ya que seguimos considerando
el circuito descrito en el cuadrante I de la figura 2.10. Quedan dos polos ubicados en el semiplano complejo
y < 0, tal y como se muestra en el cuadrante II de la misma figura 2.10. Consecuentemente, tendremos que
√
Z ∞
Z ∞
Z
π √2
−iπ
dx
2πi iπ
dx
1 ∞
dx
2
4 + e 4
=
e
=
πsen
=
π
⇒
=
=
π
4+1
4 + 14
4 + 14
x
4
4
2
x
2
x
4
−∞
0
−∞
Ejemplo Para evaluar la siguiente integral
Z ∞
x2 dx
2
2 2
−∞ (x + 1) (x + 2x + 2)
⇒ f (z) =
z2
(z 2 + 1)2 (z 2 + 2z + 2)
Bo
rr
ad
or
donde hemos realizado la extensión analı́tica f (x) → f (z) y ubicado sus polos de z = i y z = i − 1 en
el semiplano complejo y > 0 y los encerrados por el circuito descrito en el cuadrante I de la figura 2.10.
El primero de estos polos es de segundo orden, mientras que el segundo corresponde a un polo simple.
Consecuentemente, los residuos se calculan invocando la relación general (2.37) arriba expuesta. Con lo cual
para
d
z2
−12 + 9i
2
=
z = i ⇒ lı́m
(z − i)
z→i dz
(z − i)2 (z + i)2 (z 2 + 2z + 2)
100
y para
z2
3 − 4i
z = i − 1 ⇒ lı́m (z − i + 1) 2
=
2
z→i−1
(z + 1) (z − i − 1)(z + i − 1)
25
Finalmente, podemos evaluar la integral
Z
∞
−∞
Ejercicios
2
X
−12 + 9i 3 − 4i
7π
x2 dx
= 2iπ
Res f (z)z=z0j = 2πi
+
=
(x2 + 1)2 (x2 + 2x + 2)
100
25
50
j=1
Evaluar las siguientes integrales
Z ∞
Z ∞
dx
dx
;
;
2
2
2
4
(x + 1)(x + 4)
x + x2 + 1
0
0
Z
∞
−∞
(x2
dx
+ 4x + 5)2
89
2.7. TEOREMA DEL RESIDUO
2.7.4.
Integrales de funciones racionales de cos θ y sen θ
r
Ahora mostraremos la estrategia para integrales de funciones racionales de funciones trigonométricas,
G(cos θ, sen θ). La idea es transformar estas integrales en otras de funciones de varible compleja a través
de los cambios de variables que conectan las funciones trigonométricas y los números complejos. Esto es
transformar integrales de la forma
Z 2π
I
dz
dθ G(cos θ, sen θ) →
f (z)
0
C zi
z = re
dz
;
⇒ dθ =
zi
1
cos θ =
2
1
z+
;
z
Ejemplo En las tablas de integrales encontrábamos9 que
Z 2π
dθ
2π
=√
2
a
+
bsen
θ
a − b2
0
y
1
sen θ =
2i
con |a| > |b|
1
z−
z
(2.41)
m
iθ
in
a
mediante cambios de variables estándares
Pr
eli
veamos como se llega a ese resultado.
Haciendo z = reiθ y asumiendo las consecuencias, tal y como se presenta en (2.41) arriba, tendremos que
I
I
Z 2π
dz
2dz
dθ
zi
=
=
con C una circunferencia |z| = 1
b
1
2
a + bsen θ
C a + 2i z − z
C bz + 2aiz − b
0
los polos de
√
2
−a ± a2 − b2
⇒
z
=
i
±0
bz 2 + 2aiz − b
b
son los valores de z que anulan el denominador de f (z). Seguidamente verificamos la ubicación de los polos
simples y comprobamos que como |a| > |b| entonces
√
√
−a − a2 − b2
−a + a2 − b2
y
|z−0 | =
|z+0 | =
i <1
i >1
b
b
or
f (z) =
Bo
rr
ad
y por lo tanto, sólo el primero de los polos está encerrado por el circuito C con |z| = 1 tal y como muestra
en el cuadrante III de la figura 2.10.
Una vez más calculamos el residuo para z+0 a partir de (2.37). Entonces tendremos que
Res f (z)|z=z+0 = lı́m (z − z+0 )
z→z+0
finalmente
Z
0
2π
dθ
=
a + bsen θ
I
C
2
2
1
−i
= lı́m
=
≡√
bz 2 + 2aiz − b z→z+0 2bz + 2ai
bz+0 + ai
a2 + b2
2dz
2π
= 2iπRes f (z)z=z+0 = √
.
2
bz 2 + 2aiz − b
a − b2
Ejercicios Compruebe las siguientes evaluaciones
Z 2π
dθ
2π
=√
con a2 > b2 + c2 ;
2
a + b cos θ + csen θ
a − b2 − c2
0
Z
0
2π
cos2 3θ dθ
3π
=
.
5 − 4 cos 2θ
8
9 Encontrábamos
porque hoy en dı́a estas integrales las calculamos con manipuladores simbólicos del tipo Maple, Reduce,
Matemathica o Mupad
90
2.8. INTEGRALES DE FOURIER
2.8.
Integrales de Fourier
Otro grupo de integrales que pueden ser evaluadas mediante el Teorema de Residuos son las integrales
de Fourier. Integrales que involucran funciones racionales, f (x), que satisfacen las condiciones expuestas
anteriormente y funciones senos y consenos. Integrales del tipo
I
Z ∞
Z ∞
m
X
cos mx
dx f (x)eimx →
dz f (z)eimz = 2iπ
dx f (x)
↔
Res f (z)eimz z=z0j (2.42)
sen mx
−∞
C
−∞
r
j=1
−∞
j=1
∞
dx f (x)sen mx
=
2π
−∞
m
X
m
Z
in
a
Con m > 0 y los polos correspondientes a los residuos que se muestran en el lado derecho, están ubicados
en el semiplano complejo con y > 0. Es claro que el circuito seleccionado es Γ que muestra el cuadrante II
de la figura 2.10.
Equivalentemente, igualando partes reales e imaginarias
Z ∞
m
X
dx f (x) cos mx = −2π
Im Res f (z)eimz z=z0j
Re Res f (z)eimz
j=1
z=z0j
.
Pr
eli
Otra vez, el circuito C se separa en una semicircunferencia Γ y el eje real.
Para demostrar que para evaluar las integrales de Fourier (2.42) se requiere la suma de los residuos nos
convencemos que la integral a lo largo de la semicircunferencia se anula. Esto es fácil si comprobamos que
y > 0 y m > 0, entonces si z = x + iy tendremos que
|eimz | = |eimx ||e−my | = e−my < 1
⇒ |f (z)eimz | = |f (z)| ≤ |f (z)| |eimz |
con lo cual redujimos al de una función racional.
Comprobemos que
Z ∞
dx cos mx
π
= e−km
2 + k2
x
k
−∞
Z
∞
y
or
Ejemplo:
−∞
dx sen mx
=0
x2 + k 2
es fácil ver que el polo simple de la continuación analı́tica de f (x) es z0 = ik y su residuo será
eimz
+ k2
⇒ z0 = ik
Bo
rr
ad
f (z) =
z2
y por lo tanto
Z
∞
dx
−∞
Ejemplo:
⇒ Res
eimz
+ k2
z2
=
z=ik
eimz
2z
=
z=ik
e−mk
2ik
e−mk
π
eimx
=
2iπ
= e−mk
x2 + k 2
2ik
k
Evalue
Z
∞
dx
−∞
xsen πx
x2 + 2x + 5
Partimos de la continuación analı́tica de
zeizπ
f (x) → f (z) = 2
z + 2z + 5
⇒ z±0 = −1 ± 2i
I
⇒
dz
C
zeizπ
zeizπ
=
Res
z 2 + 2z + 5
z 2 + 2z + 5
z=−1+2i
91
m
in
a
r
2.8. INTEGRALES DE FOURIER
Pr
eli
Figura 2.10: Circuitos y evaluación de integrales reales, impropias
ya que ese es el único polo encerrado por la circulación Γ. Calculando el residuo tendremos
zeizπ
zeizπ
e−π(2+i)
= lı́m
(z + 1 − 2i) 2
Res 2
= (−1 + 2i)
z + 2z + 5 z=−1+2i z→−1+2i
z + 2z + 5
4i
con lo cual
I
Z ∞
Z ∞
zeizπ
x cos πx
xsen πx
e−π(2+i)
π
dz 2
=
dx 2
+i
dx 2
= 2iπ(−1 + 2i)
= (1 − 2i)e−2π
z
+
2z
+
5
x
+
2x
+
5
x
+
2x
+
5
4i
2
C
−∞
−∞
Bo
rr
ad
or
igualando parte real e imaginaria tendremos que
Z ∞
x cos πx
π
dx 2
= e−2π
x
+
2x
+
5
2
−∞
Z
∞
y
xsen πx
= −πe−2π
x2 + 2x + 5
dx
−∞
Ejercicios:
Compruebe que
Z ∞
πe−m (1 + m)
cos mx
=
Para m > 0
dx 2
(x + 1)2
4
0
Z
y
∞
dx
0
π −π/√3
cos 2πx
√
=
e
x4 + x2 + 1
2 3
Otras Integrales Impropias
Existen integrales definidas para las cuales el integrando se hace infinito para un determinado punto en
el rango de integración. Esto es, en general
Z b
Z x0 −ζ
Z b
lı́m |f (x)| → ∞ ⇒
dx f (x) = lı́m
dx f (x) + lı́m
dx f (x)
x→x0
a
ζ→0
a
ξ→0
x0 +ξ
92
2.8. INTEGRALES DE FOURIER
donde ζ y ξ tienden a cero de forma independiene, es decir, ambos lı́mites se efectuan independientemente.
Ahora bien, puede darse el caso que uno o ambos lı́mites no existan pero si existe
!
Z x0 −
Z b
Z b
dx f (x) + lı́m
dx f (x)
lı́m
⇔ V.P.
dx f (x)
→0
ξ→0
a
x0 +
a
Ejemplo:
in
a
r
Diremos entonces que existe el Valor Principal de Cauchy para esa integral. La estrategia en estos casos será
diseñar un circuito tal que evite los polos de la extensiı́on analı́tica de la función. Normalmente se establece
este recorrido rodeando los polos con arcos de circunferencia cuyos radios luego tenderán a cero. Veamos con
un ejemplo esta estrategia de circunsnavegación.
Consideremos que queremos evaluar la siguiente integral
Z ∞
sen x
sen x
↔
lı́m
=1
dx
x→−0
x
x
0
Pr
eli
m
Si bien el lı́mite está definido, cuando hacemos la extensión analı́tica10 f (x) = sen x/x → f (z) = eiz /z la
función compleja presenta un polo simple en z = 0, con lo cual la integral compleja presenta un polo en la
región de integración. Esto es
I
Z −
Z
Z R
Z
Z ∞
eiz
eix
eiz
eix
eiz
sen x
→
dz
=
dx
+
dz
+
dx
+
dz
=0
dx
x
z
x
z
x
z
C
−R
C2
C1
0
donde hemos construido un circuito que rodea el polo z = 0 (cuadrante IV de la figura 2.10.). Es claro que
H
iz
dz ez = 0 porque la región no contiene ningún polo.
C
R
iz
Ahora mostraremos que C1 dz ez → 0, cuando R → ∞. Para ello, convertimos
z = Reiθ ⇒ dz/z = idθ ,
entonces
dz
C1
eiz
=
z
I1 =
dθ |eiz | =
Z
0
π
Z
π
dθ |eiz | =
0
dθ e−Rsen θ = 2
Bo
rr
ad
0
π
dθ ieiz ≤
0
con lo cual
Z
π
Z
Z
0
or
Z
Z
0
π
dθ |eiR cos θ | |e−Rsen θ | =
| {z }
π/2
dθ e−Rsen θ
Z
1

Z
= 2
0
ζ
θ
dθ e|−Rsen
{z } +
I1
π
dθ e−Rsen θ
0
Z
ζ

π/2
θ
dθ e|−Rsen
{z }
I2
para 0 ≤ ζ ≤ π/2.
Es claro que e−Rsen θ es una función decreciente en θ y como estamos tratando de demostrar que la
integral a lo largo del circuito se anula I1 → 0, podremos considerar los máximos valores para I1 y I2 en el
entorno de integración y fijarlos como constantes, al hacer esto tendremos lo máximos valores que podrán
tomar las integrales respectivas. Los máximos valores para I1 y I2 , son, 1 y e−Rζ .
Entonces,
"Z
Z π
Z π/2 #
ζ
h
π
i
iz
−Rsen ζ
I1 =
dθ |e | ≤ 2
dθ + e
dθ = 2 ζ + e−Rsen ζ
− ζ < 2ζ + πe−Rsen ζ
2
0
0
ζ
10 Nótese que la extensión analı́tica ha sido f (x) = sen x/x → f (z) = eiz /z y no f (x) = sen x/x → f (z) = sen z/z La razón
de esta selección se fundamenta en el comportamiento patológico (oscilante) de la función seno en infinito.
93
2.9. SERIES DE POLINOMIOS ORTOGONALES
Al considerar que ζ → 0 y R → ∞ comprobamos que I1 → 0.
R
iz
Seguidamente nos toca demostrar que I2 = C2 dz ez → 0 cuando → 0. Para este caso z = eiθ y como
siempre, dz/z = idθ, entonces la integral
Z
Z π
Z π
eiz
I2 =
dz
dθ iei exp(iθ) = iπ
=
dθ iei exp(iθ) ⇒ lı́m I2 = lı́m
→0
→0
z
0
C2
0
dz
C
Z
−
dx
−R
eix
+ iπ +
x
Z
R
eix
=0
x
dx
R
Z
| ⇒
{z }
dx
x→−x
eix − e−ix
+ iπ = 0
x
con lo cual es claro que
R
eix − e−ix
dx
= −iπ
x
R
Z
⇒ 2i
donde hemos hecho los lı́mites R → ∞ y → 0.
Z
∞
2
Z
dx sen x =
0
2.
Z
0
∞
dx
0
sen x
π
=
x
2
Z
∞
2
0
Z
x−p
=
2
x + 2x cos α + 1
∞
0
2π
4
√
(ln x)2
3π 3 2
dx 4
=
x +1
16
π
sen pπ
sen pα sen α
or
0
√
∞
dx cos x =
√
ln x
π2 2
dx 4
=−
;
x +1
16
dx
2.9.
∞
Comprobar las evaluaciones para las siguientes integrales
1.
3.
⇒
Pr
eli
Ejercicios:
Z
sen x
dx
= −iπ
x
m
Z
in
a
eiz
=
z
I
r
Esto implica que
Series de Polinomios Ortogonales
Bo
rr
ad
Enunciaremos un teorema debido a Weierstrass el cual garantiza que una función contı́nua en un intervalo
[a, b] puede ser aproximada uniformemente por una serie de polinomios. Por lo tanto, cualquier función
contı́nua podrá ser aproximada por combinaciones lineales de potencias.
El Teorema de aproximación polinómica de Weiernstrass queda enunciado como sigue. Cualquier función
contı́nua f (x) en un intervalo cerrado x ∈ [a, b] podrá ser aproximada uniformente por polinomios en ese
mismo intervalo si, para un n suficientemente grande y un suficientemente pequeño siempre se tiene que
|Pn (x) − f (x)| < ∀ x ∈ [a, b]
Aceptaremos este teorema sin demostración11 , sin embargo este teorema nos permitirá desarrollar las secciones siguientes.
11 Consultar: Byron, F.W. y Fuller W.F. (1970) Mathematics of Classical and Quantum Physics y Cushing, J. (1975)
Applied Analytical Mathematics for Physical Sciences.
94
2.10. POLINOMIOS DE LEGENDRE
2.10.
Polinomios de Legendre
El primero de los ejemplos de una base ortonormal de polinomios en la cual podremos expresar cualquier
función contı́nua en el intervalo cerrado x ∈ [−1, 1] serán los Polinomios de Legendre. Estos vienen construidos
a partir de la Fórmula de Rodrı́gues
1 dn 2
(x − 1)n ,
n!2n dxn
n = 0, 1, 2, .....
r
Pn (x) =
in
a
con P0 (x) = 1.
Es decir
Generalidades de los Polinomios de Legendre
Pr
eli
2.10.1.
P1 (x) = x
1
P3 (x) = (5x3 − 3x)
2
1
P5 (x) = (63x5 − 70x3 + 15x)
8
..
.
m
P0 (x) = 1
1
P2 (x) = (3x2 − 1)
2
1
P4 (x) = (35x4 − 30x2 + 3)
8
..
.
Es fácil comprobar que los polinomios de Legendre son mutuamente ortogonales para un producto interno
definido de la siguiente manera
Z 1
2
δnm .
Pn (x)Pm (x)dx =
2n
+1
−1
Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1. La norma es definida por
Z
1
Pn2 (x)dx =
−1
2
2n + 1
Ejemplos:
1.
Z
1
or
nótese que los polinomios de Legendre, calculados a partir de la Fórmula de Rodrigues no están normalizados.
Z
1
Bo
rr
ad
P1 (x) P2 (x) dx =
−1
2.
Z
1
Z
1
P2 (x) P2 (x) dx =
−1
−1
[x]
−1
1
3x2 − 1
2
Z 1
1
3 3 1
3x2 − 1 dx =
x − x dx = 0 .
2
2
2
−1
Z 1
1
9 4 3 2 1
2
3x2 − 1 dx =
x − x +
dx = .
2
4
2
4
5
−1
Al ser los Polinomios de Legendre un conjunto completo de funciones, ellos expanden el espacio de
funciones contı́nuas en el intervalo cerrado x ∈ [−1, 1]. Por ello cualquier función en el intervalo [−1, 1] puede
ser expresada en esa base.
Z 1
∞
X
2k + 1
f (x) =
f (t)Pk (t) dt Pk (x) ,
2
−1
k=0 |
{z
}
ak
95
2.10. POLINOMIOS DE LEGENDRE
los primeros términos son:
Z 1
Z 1
Z
1 1
3
5
2
f (x) =
f (t)dt +
tf (t)dt P1 (x) +
(3t − 1)f (t)dt P2 (x)
2 −1
2 −1
4 −1
Z 1
Z 1
9
7
(5t3 − 3t)f (t)dt P3 (x) +
(35t4 − 30t2 + 3)f (t)dt P4 (x) + · · ·
+
4 −1
16 −1
1. Si f (x) es un polinomio
f (x) =
m
X
bn x n =
n=0
∞
X
an Pn (x) ,
n=0
in
a
r
Ejemplos
entonces, no se requiere hacer ninguna integral por cuanto los coeficientes an se determinan a través
de un sistema de ecuaciones algebraicas. Para el caso de f (x) = x2 tendremos
m
= a0 P0 (x) + a1 P1 (x) + a2 P2 (x)
1
= a0 + a1 x + a2 (3x2 − 1)
2
3
1
2
1
=
a0 − a2 + a1 x + a2 x2 ⇒ a0 = , a1 = 0 , a2 =
2
2
3
3
1
2
=
P0 (x) + P2 (x) .
3
3
Pr
eli
f (x) = x2
2. En el caso de una función mas complicada
r
f (x) =
por un lado
Z
1
Z
1−x
,
2
1
or
f (x)Pk (x)dx =
−1
−1
r
1−x
Pk (x)dx
2
Bo
rr
ad
la expansión en series de Legendre quedarı́a como
"Z
#
"Z
#
r
r
r
Z r
1
1
1−x
1 1
1−t
3
1−t
5
1−t
2
=
dt +
t
dt P1 (x) +
(3t − 1)
dt P2 (x)
2
2 −1
2
2 −1
2
4 −1
2
"Z
#
"Z
#
r
r
1
1
7
1−t
9
1−t
3
4
2
+
(5t − 3t)
dt P3 (x) +
(35t − 30t + 3)
dt P4 (x) + · · ·
4 −1
2
16 −1
2
=
=
2
2
2
2
2
2
P0 (x) − P1 (x) − P2 (x) − P3 (x) − P4 (x) −
P5 (x) − · · ·
3
5
21
45
77
117
∞
X
2
Pn (x)
P0 (x) − 2
.
3
(2n
−
1) (2n + 3)
n=1
Antes de entrar en el detalle de las propiedades de estos polinomios, hay que enfatizar que los Polinomios
de Legendre constituyen la única base ortogonal para un espacio de Hilbert con un producto interno definido
como el producto simple de funciones en el intervalo cerrado. Al ortonormalizar mediante Gram Schmidt
96
2.10. POLINOMIOS DE LEGENDRE
la base 1, x, x2 , x3 , · · · , xn , · · · del espacio de polinomios, P n , de grado n en el intervalo [−1, 1], con el
R1
producto interno definido por −1 dx f (x) g (x) se obtienen los polinomios de Legendre.
Los polinomios de Legendre surgen, originalmente, como soluciones a la ecuación diferencial ordinaria del
tipo
d
2 dy
1−x
+ λ y = 0 , −1 ≤ x ≤ 1 .
dx
dx
dPn (x)
d2 Pn (x)
− 2x
+ n(n + 1) Pn (x) = 0 ,
dx2
dx
in
a
(1 − x2 )
r
o de manera equivalente a ecuaciones como
donde y = Pn (x) y λ = n(n + 1).
La siguiente tabla muestra algunas ecuaciones diferenciales con sus respectivas soluciones
Ecuación de Legendre
2
(1 − x )
0
Solución
dP0 (x)
dx
− 2x
=0
P0 (x) = 1
1
(1 − x2 )
d2 P1 (x)
dx2
− 2x
dP1 (x)
dx
+ 2 P1 (x) = 0
P1 (x) = x
2
(1 − x2 )
d2 P2 (x)
dx2
− 2x
dP2 (x)
dx
+ 6 P2 (x) = 0
P2 (x) = 1 − 3x2
Pr
eli
2.10.2.
d2 P0 (x)
dx2
m
n
3
(1 − x2 )
d2 P3 (x)
dx2
− 2x
dP3 (x)
dx
+ 12 P3 (x) = 0
P3 (x) = x − 35 x3
4
(1 − x2 )
d2 P4 (x)
dx2
− 2x
dP4 (x)
dx
+ 20 P4 (x) = 0
P4 (x) = 1 − 10x2 +
35 4
3 x
Relación de Recurrencia
or
Supongamos que conocemos todos los polinomios de Legendre hasta Pn (x) y queremos generar el próximo.
Obviamente ese polinomio será de grado n + 1. Nos plantemos generarlo a partir de xPn (x). Como estos
polinomios son base del espacio de funciones, entonces
xPn (x) =
n+1
X
Bo
rr
ad
k=0
2k + 1
2
Z
1
Pk (t)tPn (t) dt Pk (x) ,
−1
Observando con algo más de detalle
Z 1
Z 1
Z
3
5
1 1
tPn (t)dt +
t2 Pn (t)dt P1 (x) +
(3t3 − t)Pn (t)dt P2 (x)
xPn (x) =
2 −1
2 −1
4 −1
Z 1
Z 1
7
9
4
2
5
3
+
(5t − 3t )Pn (t)dt P3 (x) +
(35t − 30t + 3t)Pn (t)dt P4 (x) + · · · .
4 −1
16 −1
Notemos que
Z
1
−1
Z
1
Pn (t)tPn (t)dt =
tPn2 (t)dt ,
−1
por lo tanto, el integrando es una función impar. Consideremos algunos casos:
97
2.10. POLINOMIOS DE LEGENDRE
Para n = 0
xP0 (x)
=
3
2
1
Z
2
t dt P1 (x) = P1 (x)
−1
Para n = 1
=
Z 1
5
1 2
t2 dt +
(3t4 − t2 )dt P2 (x) = + P2 (x)
4
3
3
−1
−1
Z
1
2
1
Para n = 2
=
=
in
a
xP2 (x)
Z 1
Z 1
3
7
4
2
3
3
(3t − t )dt P1 (x) +
(5t − 3t)(3t − t)dt P3 (x)
4 −1
16 −1
2
3
P1 (x) + P3 (x) .
5
5
=
3
4
P2 (x) + P4 (x) .
7
7
Se puede apreciar que
Z
1
m
Para n = 3
xP3 (x)
r
xP1 (x)
Pr
eli
Pn (x)xPk (x)dx = 0 , para k < n − 1 .
−1
Esto implica que sobreviven únicamente tres términos
xPn (x) = APn+1 (x) + BPn−1 (x) .
Desarrollando con la fórmula de Rodrı́gues
=
=
A
dn+1 2
B
dn−1 2
n+1
(x
−
1)
+
(x − 1)n−1 ,
(n + 1)!2n+1 dxn+1
(n − 1)!2n−1 dxn−1
A
dn+1 2
dn−1 2
n+1
(x
−
1)
+
2nB
(x − 1)n−1 .
2(n + 1) dxn+1
dxn−1
or
x dn 2
(x − 1)n
n!2n dxn
dn
x n (x2 − 1)n
dx
Igualando coeficientes resulta
n+1
n
, B=
2n + 1
2n + 1
La relación de recurrencia se puede obtener entonces de:
Bo
rr
ad
A=
(n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x) .
2.10.3.
Norma de los Polinomios de Legendre
Conociendo que la ortogonalidad de los polinomios de Legendre y la relación de recurrencia, procedemos
encontrar el valor de su norma
Z 1
2
Pn2 (x)dx =
2n + 1
−1
De la relación de recurrencia cambiando n → n − 1 se tiene
nPn (x)
=
(2n − 1) xPn−1 (x) − (n − 1) Pn−2 (x) ,
(2n + 1) Pn (x)nPn (x)
=
(2n + 1) Pn (x) [(2n − 1) xPn−1 (x) − (n − 1) Pn−2 (x)] ,
(2.43)
98
2.10. POLINOMIOS DE LEGENDRE
ahora multiplicamos la relación de recurrencia por (2n − 1) Pn−1 (x) para obtener
(2n − 1) Pn−1 (x) (n + 1) Pn+1 (x) = (2n − 1) Pn−1 (x) [(2n + 1) xPn (x) − nPn−1 (x)] ,
(2.44)
restando miembro a miembro (6.13) - (6.14) obtenemos :
2
(2n + 1) nPn2 (x) + (n − 1) Pn (x)Pn−2 (x) − (2n − 1) (n + 1) Pn−1 (x)Pn+1 (x) + nPn−1
(x) = 0 ,
(n − 1)
Pn (x)Pn−2 (x)
n
2
(2n − 1) (n + 1) Pn−1 (x)Pn+1 (x) + nPn−1
(x) ,
2n − 1 (n + 1)
2
=
Pn−1 (x)Pn+1 (x) + Pn−1 (x) ,
2n + 1
n
in
a
Pn2 (x) +
r
lo que es igual a:
(2n + 1) nPn2 (x) + (n − 1) Pn (x)Pn−2 (x) =
continuando con este proceso
Z 1
Pn2 (x)dx =
−1
1
Z
Pr
eli
m
integrando y considerando la ortogonalidad
Z 1
Z 1
2n − 1
2
Pn−1
Pn2 (x)dx =
(x)dx
2n + 1 −1
−1
Z 1
Z 1
2n − 1
2n − 3
2
2
Pn (x)dx =
Pn−2 (x)dx
2n + 1
2n − 1
−1
−1
Z 1
Z 1
2n − 1
2n − 3
2n − 5
2
Pn2 (x)dx =
Pn−3
(x)dx
2n + 1
2n − 1
2n − 3
−1
−1
3
2n + 1
Z
1
P12 (x)dx =
−1
3
2
2n + 1 3
2
.
Pn2 (x)dx =
2n
+1
−1
Función Generatriz de los Polinomios de Legendre
or
2.10.4.
Se puede encontrar una función generatriz P(t, x) de los polinomios de Legendre, es decir una función
que tenga la forma:
∞
X
1
= P0 (x) + P1 (x) t + P2 (x) t2 + · · · =
Pn (x) tn , |t| < 1 , |x| ≤ 1 ,
1 − 2xt + t2
n=0
Bo
rr
ad
P(t, x) = √
para la cual los Pn (x) son los coeficientes de su desarrollo en series de potencias. Esta serie converge para
|2xt + t2 | < 1. Para demostrar que el desarrollo en serie de la función G(t, x) tiene como coeficientes a los
Pn (x) partimos de que:
P(t, x) = √
1
1 − 2xt + t2
⇒
∂P(t, x)
t−x
=
3/2
∂t
(1 − 2xt + t2 )
combinando estas dos expresiones, resulta
(t − x) P(t, x) + 1 − 2xt + t2
∂P(t, x)
=0
∂t
99
2.10. POLINOMIOS DE LEGENDRE
y, consecuentemente
(t − x)
∞
X
Pn (x) tn + 1 − 2xt + t2
∞
X
n=0
nPn (x) tn−1 = 0 .
n=1
Multiplicando y acomodando queda
(t − x)
∞
X
Pn (x) tn +
n=1
(t − x) P0 (x)
+
+
∞
X
n=1
∞
X
∞
X
nPn (x)tn−1 −
n=1
Pn (x) tn+1 −
∞
X
∞
X
2xnPn (x)tn +
n=1
xPn (x) tn +
n=1
∞
X
nPn (x)tn−1 −
n=1
n=1
nPn (x)tn+1 = 0 ,
(t − x) P0 (x)
+
∞
X
Pn−1 (x) tn −
n=2
∞
X
xPn (x) tn +
n=1
∞
X
(n + 1)Pn+1 (x)tn −
n=0
(n + 1)Pn+1 (x)tn −
∞
X
(2n + 1)xPn (x) tn +
tP0 (x) − xP0 (x) + P1 (x) + 2P2 (x)t +
∞
X
nPn−1 (x)tn = 0 ,
n=2
n=1
n=0
∞
X
(n + 1)Pn+1 (x)tn − 3xP1 (x)t −
n=2
+
∞
X
nPn−1 (x)tn = 0
n=2
por lo tanto

P1 (x) − x P0 (x)
{z
}
|
(2n + 1)xPn (x) tn
n=2

2P2 (x) − 3xP1 (x) + P0 (x) t
|
{z
}
=0


∞
X
(n + 1) Pn+1 (x) − (2n + 1) xPn (x) + nPn−1 (x) tn = 0
+
|
{z
}
n=2
+
Bo
rr
ad
=0

∞
X
or

2xnPn (x)tn
n=1
(n − 1)Pn−1 (x)tn = 0 ,
n=2
∞
X
∞
X
m
+
∞
X
2xnPn (x)tn
Pr
eli
+
nPn (x)tn+1 = 0 ,
n=1
∞
X
n=1
(t − x) P0 (x)
∞
X
r
+
in
a
(t − x) P0 (x)
=0
El primero de los términos se cumple siempre por cuanto P0 (x) = 1 y P1 (x) = x. El tercer término
conforma la relación de recurrencia para los polinomios de Legendre. Con esto queda demostrado que el
desarrollo en series de potencias de la función generatriz, tiene como coeficientes a los polinomios de Legendre.
La función generatriz muestra su utilidad en la expansión de
r
1−x
f (x) =
,
2
recordemos que por la definición del producto interno se tiene
Z 1
Z 1r
1−x
f (x)Pk (x)dx =
Pk (x)dx .
2
−1
−1
100
2.10. POLINOMIOS DE LEGENDRE
Al formar el producto
r
r
∞
1−x
1−x X n
1
√
=
t Pn (x) ,
2
2 n=0
1 − 2xt + t2
e integrando, se obtiene
Z 1r
∞
X
1−x
1
1−x
n
√
dx =
t
Pn (x)dx
2
2
2
1 − 2xt + t
−1
−1
n=0
"
√ #
Z 1r
∞
2
X
1+ t
1
(1 − t)
1−x
n
√ ln
√
1+t−
=
t
Pn (x)dx .
2t
2
2 t
1− t
−1
n=0
r
Expandiendo el lado izquierdo en series de potencias de t
lo cual nos conduce, al igualar coeficientes a
Z 1r
4
1−x
=
P0 (x)dx y
3
2
−1
r
1−x
Pn (x)dx
2
−4
=
2
(4n − 1) (2n + 3)
m
Z 1
∞
∞
X
X
tn
4
n
=
t
−4
3
(4n2 − 1) (2n + 3) n=0
−1
n=1
r
1
in
a
Z
Z
1
r
−1
1−x
Pn (x)dx
2
2.10.5.
Pr
eli
y finalmente a la forma de la expansión en series
r
∞
X
Pn (x)
1−x
2
= P0 (x) − 2
2
3
(2n
−
1) (2n + 3)
n=1
Otras propiedades de los polinomios de Legendre
Pn (1) = 1 y Pn (−1) = (−1)n . Entonces se tiene lo que se conoce como la relación de paridad: Pn (−x) =
(−1)n Pn (x) para todo n.
or
Pn (x) tiene n raı́ces en el intervalo (−1, 1) Esta propiedad puede apreciarse para los primeros 5 polinomios en la figura 2.11.
Bo
rr
ad
Tienen una representación integral de la forma
Z πh
in
p
1
Pn (x) =
x + x2 − 1 cos ϕ dϕ
2π 0
Cambios de variables inmediatos conllevan a ecuaciones diferenciales equivalentes
• Forma autoadjunta
0
(1 − x2 ) y 0 + λ(λ + 1) y = 0
• En coordenadas esféricas con u = Pn (cos(θ))
1
d
du
sen(θ)
+ λ(λ + 1)u = 0
sen(θ) dθ
dθ
√
• En coordenadas esféricas con u = sen θPn (cos θ)
"
#
2
d2 u
1
1
+
λ+
+
u=0
dθ2
2
4 sen2 (θ)
101
Pr
eli
m
in
a
r
2.10. POLINOMIOS DE LEGENDRE
Figura 2.11: Polinomios de Legendre
2.10.6.
Potencial Electrostático de un Dipolo Eléctrico
2
or
En Fı́sica el ejemplo claro es el cálculo del potencial electrostático producido por dos cargas q1 = +q y
q2 = −q separadas por una distancia 2d en un punto P cualquiera de un plano (x, y). El potencial en ese
punto genérico viene dado por
1
1
V =q
−
R0
R
Tal y como puede apreciarse de la figura 2.12
(R0 ) = r2 + d2 − 2r d cos(θ)
por lo cual
y
R2 = r2 + d2 − 2r d cos (π − θ) ,
Bo
rr
ad
"
2 #−1/2
1
1
d
d
=
1 − 2 cos(θ)
+
R0
r
r
r
"
2 #−1/2
1
1
d
d
=
1 − 2 cos (π − θ)
+
R
r
r
r
y consecuentemente
n
∞
1
1X
d
=
Pn (cos(θ))
R0
r n=0
r
n
n
∞
∞
1
1X
d
1X
d
=
Pn [cos (π − θ)]
=
Pn (− cos(θ))
R
r n=0
r
r n=0
r
102
m
in
a
r
2.10. POLINOMIOS DE LEGENDRE
El potencial será
V =
Pr
eli
Figura 2.12: Potencial electrostático de un dipolo eláctrico
n
∞
q X
d
[Pn (cos(θ)) − Pn (− cos(θ))]
r n=0
r
donde todos los términos pares de Pn (cos(θ)) se anulan y finalmente tendremos la expresión del potencial
para cualquier punto del plano
V =
2n+1
∞
2q X
d
P2n+1 (cos(θ))
r n=0
r
or
Nos quedamos con el primer término de la serie, si
⇒
V ≈
q
2d cos(θ) .
r2
Bo
rr
ad
d
1
r
103
2.11. POLINOMIOS DE HERMITE
2.10.7.
Resumen de Propiedades Polinomios Legendre
Definición:
Pn (x) =
Ejemplos:
P0 ≡ 1;
1 dn 2
(x − 1)n ,
n!2n dxn
P1 = x;
n = 0, 1, 2, . . .
P2 = 21 (3x2 − 1);
P3 = 21 (5x3 − 3x)
(n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x)
Ecuaciones Diferenciales:
(1 − x2 ) y 00 − 2x y 0 + λ(λ + 1) y = 0
Representación Integral:
Pn (x) =
Z
1
2π
∞
X
1
=
Pn (x) tn
1 − 2xt + t2
n=0
Z
π
√
n
x + x2 − 1 cos ϕ dϕ
0
1
Ortogonalidad:
in
a
P(t, x) = √
u = Pn (cos(θ))
2
2α + 1
Pr
eli
Función Generatriz:
du
sen(θ)
+ n(n + 1)u = 0;
dθ
m
d
1
sen(θ) dθ
r
Relación de Recurrencia:
Pα (x)Pβ (x)dx = δαβ
−1
Practicando con Maple:
> restart:
> plot([LegendreP(0,x),LegendreP(1,x),LegendreP(2,x),LegendreP(3,x),
LegendreP(4,x)],x=-1..1);
2.11.
Polinomios de Hermite
Bo
rr
ad
or
Los polinomios de Hermite a diferencia de los de Legendre (y Tchevychev), vienen definidos en toda
la recta real, vale decir, x ∈ (−∞, ∞), por lo cual la función peso w(x) en el producto interno deberá
decrecer más rápido que |x|n , para garantizar que la norma de los vectores en este espacio vectorial sea
2
finita. La función más simple que cumple estos requisitos es w(x) = e−x (también algunos autores utilizan
2
w(x) = e−x /2 ) Esto es, el producto interno entre los polinomios de Hermite vendrá definido como
Z ∞
Z ∞
2
dx w(x)f (x)g(x) =
dx e−x f (x)g(x) .
−∞
−∞
Otra vez, para este producto interno, si ortogonalizamos con Gram-Schmidt se obtienen los polinomios de
Hermite. Al igual que el resto de los polinomios ortogonales, existe una fórmula de Rodrigues para los
polinomios de Hermite
n
2
2 d
e−x ,
Hn (x) = (−1)n ex
n
dx
los cinco primeros polinomios de Hermite son los siguientes:
H0 (x) = 1,
2
H1 (x) = 2x
H2 (x) = 4x − 2,
H3 (x) = 8x3 − 12x,
H4 (x) = 16x4 − 48x2 + 12
H5 (x) = 32x5 − 160x3 + 120x
104
2.11. POLINOMIOS DE HERMITE
2.11.1.
Generalidades de los Polinomios de Hemite
Los polinomios de Hermite serán ortogonales, pero no normales
Z ∞
√
2
e−x Hβ (x)Hα (x)dx = 2α α! π δαβ ,
−∞
por lo tanto:
Z
∞
√
2
e−x Hα2 (x)dx = 2α α! π .
r
−∞
Sean f y g dos funciones arbitrarias, cuando menos continuas a trozos en (−∞, ∞) y que
Z
∞
Z
2
e−x f 2 (x)dx ∃
∞
−∞
2
e−x g 2 (x)d ∃
∧
−∞
m
Teorema 1:
cumplen con
in
a
Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1.
Antes de desarrollar funciones en términos de los polinomios de Hermite, expondremos un par de teoremas
sin demostración.
Pr
eli
Entonces el conjunto de estas funciones forman un espacio vectorial euclideano I2w con un producto interno
definido por
Z ∞
2
e−x f (x)g(x)dx
−∞
Las funciones f (x) y g(x) se denominan cuadrado-integrables respecto al peso w. Es por ello que denotamos
el espacio de funciones como I2w .
Teorema 2: Si f (x) es una función continua arbitraria en I2w entonces puede ser aproximada por un
polinomio en ese mismo espacio. Es decir
Z ∞
1/2
2
−x2
lı́m |f (x) − pn (x)| = lı́m
e
[f (x) − pn (x)] dx
=0
n→∞
n→∞
−∞
or
Ası́, la expresión de una función arbitraria en la base de los polinomio de Hermite se reduce a
Z ∞
∞
X
1
−t2
√
f (x) =
e
f
(t)H
(t)
dx
Hk (x) ,
k
2k k! π −∞
k=0
donde
Bo
rr
ad
1
ak = k √
2 k! π
Ejemplo:
Z
∞
2
e−t f (t)Hk (t) dx .
−∞
Si f (x) = x2
f (x) = x2 =
f (x) = x2
2
X
bk xk =
k=0
∞
X
ak Hk (x)
k=0
=
a0 H0 (x) + a1 H1 (x) + a2 H2 (x)
=
a0 + a1 (2x) + a2 (4x2 − 1)
=
(a0 − a2 ) + 2a1 x + 4a2 x2 ⇒ a0 =
=
1
1
H0 (x) + H2 (x)
4
4
1
1
, a1 = 0 , a2 = .
4
4
105
2.11. POLINOMIOS DE HERMITE
Si generalizamos para funciones del tipo f (x) = x2p con p = 1, 2, 3, · · · , entonces
f (x) = x
2p
2p
X
=
bk x k =
k=0
∞
X
a2k H2k (x) ,
k=0
1
√
22k (2k)! π
Z
∞
2
e−x x2p H2k (x)dx =
−∞
1
√
22k (2k)! π
Z
∞
x2p
−∞
d2k −x2
e
dx .
dx2k
in
a
a2k =
r
por lo tanto
Una integración por partes estratégica muestra que:
)
(
Z ∞
∞
2k−1
2k−1
1
−x2
−x2
2p d
2p−1 d
√
−
2px
e
e
dx .
a2k = 2k
x
dx2k−1
dx2k−1
2 (2k)! π
−∞
−∞
d2k−1 −x2
e
x
dx2k−1
∞
2
= x2p (−1)2k−1 e−x H2k−1 (x)
2p
−∞
si en la integral hacemos x =
√
∞
−∞
.
Pr
eli
Repitiendo el proceso 2k veces, tendremos
a2k
m
El primer término de la resta se anula debido a la definición de los polinomios de Hermite
1
(2p)!
√
= 2k
2 (2k)! π (2p − 2k)!
Z
∞
2
x2p−2k e−x dx
−∞
t obtenemos
Bo
rr
ad
or
Z ∞
1
(2p)!
dt
√
a2k = 2k
tp−k e−t √
(2p
−
2k)!
2 (2k)! π
2 t
−∞
Z ∞
1
(2p)!
1
√
= 2k+1
tp−k− 2 e−t dt
2
(2k)! π (2p − 2k)! −∞
R∞
y utilizando la definición Γ (z) ≡ 0 e−t tz−1 dt ≡ (z − 1)! , queda como
(2p)!
1
1
√
Γ p−k+
.
a2k = 2k+1
2
2
(2k)! π (2p − 2k)!
Ahora, recurrimos a la propiedad de “duplicación” de la Función Gamma, i.e.
√
1
22z−1 Γ (z) Γ z +
= πΓ (2z)
2
tenemos que
√
1
22p−2k Γ p − k +
(p − k)! = π (2p − 2k)!
2
quedan entonces los coeficientes determinados como
a2k =
(2p)!
22p+1 (2k)! (p − k)!
106
2.11. POLINOMIOS DE HERMITE
y, por lo tanto el desarrollo en la base de los polinomios de Hermite
f (x) = x
2p
p
(2p)! X
H2k (x)
= 2p+1
2
(2k)! (p − k)!
− ∞ < x < ∞.
k=0
Muestre que del mismo modo se puede encontrar
p
(2p − 1)! X
H2k+1 (x)
2p−1
2
(2k + 1)! (p − k)!
− ∞ < x < ∞.
r
f (x) = x2p+1 =
2
Si f (x) = e−a
x2
con Re a2 > −1. Otra vez
2
f (x) = e−a
x2
=
∞
X
a2k H2k (x)
k=0
a2k
1
√
= 2k
2 (2k)! π
Z
∞
2
e−(a
+1)x2
H2k (x)dx
−∞
m
entonces
in
a
k=0
Bo
rr
ad
or
Pr
eli
Sustituyendo H2k (x) por su expresión integral tendremos
"
#
Z ∞
2 Z ∞
2k+1
1
(−1)k ex
−(a2 +1)x2 2
−t2 2k
√
√
a2k = 2k
e
e t cos 2xt dt dx
2 (2k)! π −∞
π
0
Z ∞
Z
2(−1)k ∞ −a2 x2
−t2 2k
e
=
e t cos 2xt dt dx
π(2k)! −∞
0
Z ∞
Z
2 2
2(−1)k ∞ −t2 2k
e t
e−a x cos 2xt dx dt
≡
π(2k)! 0
−∞
r
k Z ∞
2
2(−1)
π −t2 /a2
=
e
e−t t2k
dt =
π(2k)! 0
a2
Z ∞
2
−2
2(−1)k
e−t (1+a ) t2k dt
=√
π(2k)!a 0
Z ∞
1
a2k
(−1)k
=√
e−s sk− 2 ds
← t2 (1 + a−2 ) = s
π(2k)! (1 + a2 )k+1/2 0
a2k
1
(−1)k
Γ
k
+
=√
2
π(2k)! (1 + a2 )k+1/2
y ahora usando, otra vez la propiedad de “duplicación” de la función gamma,
√
1
2k
2 Γ k+
k! = π (2k)!
2
obtenemos
a2k =
por lo tanto
f (x) = e−a
2
x2
=
(−1)k a2k
k+1/2
22k k! (1 + a2 )
∞
X
(−1)k a2k
k=0
22k k! (1 + a2 )
k+1/2
H2k (x)
107
2.11. POLINOMIOS DE HERMITE
Al igual que los polinomios de Legendre, los de Hermite, surgen tambián en sus orı́genes como soluciones
a la ecuación diferencial ordinaria del tipo
d2 Hn (x)
dHn (x)
− 2x
+ nHn (x) = 0
dx2
dx
Vale decir:
Solución
0
dH0 (x)
d2 H0 (x)
− 2x
=0
dx2
dx
H0 (x) = 1
1
dH1 (x)
d2 H1 (x)
− 2x
+ 2H1 (x) = 0
dx2
dx
H1 (x) = 2x
2
dH2 (x)
d2 H2 (x)
− 2x
+ 4H2 (x) = 0
2
dx
dx
H2 (x) = 4x2 − 2
3
dH3 (x)
d2 H3 (x)
− 2x
+ 6H3 (x) = 0
dx2
dx
H3 (x) = 8x3 − 12x
4
dH4 (x)
d2 H4 (x)
− 2x
+ 8H4 (x) = 0
2
dx
dx
m
in
a
r
Ecuación de Hermite
Pr
eli
2.11.2.
n
H4 (x) = 16x4 − 48x2 + 12
Función Generatriz de los Polinomios de Hermite
Se puede encontrar una función generatriz H(t, x) de los polinomios de Hermite:
2
H(t, x) = e2xt−t = H0 (x) + H1 (x) t +
∞
X
H2 (x) 2 H3 (x) 2
Hn (x) n
t +
t + ··· =
t
2
3!
n!
n=0
or
para la cual los Hn (x) son los coeficientes de su desarrollo en series de potencias. Es fácil darse cuenta que
esta expresión proviene del desarrollo en Serie de Taylor
2
Bo
rr
ad
H(t, x) = e2xt−t =
∞
X
1 ∂ n H(t, x)
tn
n
n!
∂t
t=0
n=0
ktk < ∞
para lo cual
2.11.3.
∂ n H(t, x)
∂tn
=e
t=0
x2
∂ n −(x−t)2
e
∂tn
n x2
= (−1) e
t=0
dn −(u)2
e
dun
= Hn (x)
u=x
Relación de Recurrencia
A partir de la función generatriz se puede construir la siguiente identidad
∂H(t, x)
= (2x − 2t) H
∂t
108
2.11. POLINOMIOS DE HERMITE
y utilizando el desarrollo en series de potencias en t tendremos,
∞
X
Hn (x) n−1
nt
n!
n=1
=
∞
X
Hn (x) n−1
nt
n!
n=1
− 2x
∞
∞
X
Hn (x) n X Hn (x) n+1
t +
t
= 0,
n!
n!
n=0
n=0
∞
X
Hn+1 (x)
(n + 1)tn
(n
+
1)!
n=0
− 2x
∞
∞
X
Hn (x) n X Hn−1 (x) n
t +
t = 0,
n!
(n − 1)!
n=0
n=1
∞
∞
X
Hn (x) n X Hn (x) n+1
t −
t
,
n!
n!
n=0
n=0
∞
∞
X
Hn (x) n X Hn−1 (x) n
− 2xH0 (x) − 2x
t +
t = 0,
n!
(n − 1)!
n=1
n=1
∞ X
Hn+1 (x)
Hn (x) Hn−1 (x) n
H1 (x) − 2xH0 (x) +
(n + 1) − 2x
+
t = 0,
|
{z
}
(n + 1)!
n!
(n − 1)!
n=1
in
a
∞
X
Hn+1 (x)
H1 (x) +
(n + 1)tn
(n + 1)!
n=1
r
2x
m
=0
es decir:


∞
X
 Hn+1 (x)
Hn (x) Hn−1 (x) 
 n

 (n + 1)! (n + 1) − 2x n! + (n − 1)!  t = 0 .
n=1 |
{z
}
Pr
eli
=0
Por lo tanto:
Hn+1 (x)
Hn (x) Hn−1 (x)
− 2x
+
=0
n!
n!
(n − 1)!
Ası́ la relación de recurrencia será
Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) = 0
De igual modo, podemos partir de otra identidad
∞
∞
X
X
Hn0 (x) n
Hn (x) n+1
∂H(t, x)
= 2t H ⇒
t =2
t
,
∂x
n!
n!
n=0
n=0
∞
∞
X
X
Hn−1 (x) n
Hn0 (x) n
H 0 (x)
Hn−1 (x)
t =2
t ⇒ n
=2
n!
(n
−
1)!
n!
(n − 1)!
n=1
n=1
or
es decir:
y encontrar una relación para generar las derivadas de los polinomios de Hermite en término de ellos mismos:
Bo
rr
ad
Hn0 (x) = 2n Hn−1 (x),
n = 1, 2, 3, · · · .
Finalmente, utilizando la ecuación anterior en la relación de recurrencia y derivando esa expresión una
vez más, queda como:
Hn+1 (x) − 2xHn (x) + Hn0 (x) = 0
Hn00 (x) − 2xHn0 (x) + 2n Hn (x) = 0
con lo cual queda demostrado que los polinomios de Hermite son una solución particular de esa ecuación
diferencial.
y 00 − 2xy 0 + 2ny = 0,
Donde hemos hecho y = Hn (x) Adicionalmente, podremos demostrar que y = e−x
ecuación diferencial autoadjunta
y 00 + 2n + 1 − x2 y = 0 .
2
/2
Hn (x) es solución de la
109
2.11. POLINOMIOS DE HERMITE
2.11.4.
Ortogonalidad y Norma de los Polinomios de Hermite
En general estos polinomios cumplen con
Z ∞
√
2
e−x Hβ (x)Hα (x)dx = 2α α! πδαβ .
−∞
ya que
2
e−x
/2
α 6= β;
Pr
eli
−∞
m
restando miembro a miembro e integrando se tiene que:
0
0
uα uβ − u0β uα + 2 (α − β) uα uβ = 0
Z ∞
2
(α − β)
e−x Hα (x)Hβ (x)dx = 0
−∞
Z ∞
2
e−x Hα (x)Hβ (x)dx = 0
in
a
r
Donde la función delta de Kronecker es δαβ = 0 si α 6= β; y δββ = 1. Para demostrar el caso α 6= β partimos
de
uβ u00α + 2α + 1 − x2 uα = 0
uα u00β + 2β + 1 − x2 uβ = 0
∞
{2α Hα−1 (x)Hβ (x) − 2β Hβ−1 (x)Hα (x)}
−∞
=0
Para encontrar el valor de la norma, procedemos a partir de la relación de recurrencia
Hn (x) [Hn (x) − 2xHn−1 (x) + 2(n − 1)Hn−2 (x)] = 0
Hn−1 (x) [Hn+1 (x) − 2xHn (x) + 2nHn−1 (x)] = 0
2
or
restando miembro a miembro, multiplicando por e−x e integrando entre (−∞, ∞) se obtiene
Z ∞
Z ∞
2
−x2 2
2
e
Hα (x)dx = 2α
e−x Hα−1
(x)dx
−∞
−∞
Bo
rr
ad
repitiendo la operación y recordando que al final queda
Z ∞
√
2
e−x x2 dx = 2 π
Obtenemos
2.11.5.
−∞
Z
∞
√
2
e−x Hα2 (x)dx = 2α α! π
−∞
Representación Integral de los Polinomios de Hermite
Los polinomios de Hermite pueden ser representados como
Hn (x) =
2n (−i)n ex
√
π
2
Z
∞
2
e−t
+2itx n
t dt
−∞
110
m
in
a
r
2.11. POLINOMIOS DE HERMITE
Figura 2.13: Polinomios de Hermite
H2n (x) =
Pr
eli
que puede ser separada como
22n+1 (−1)n ex
√
π
y para los términos impares
H2n+1 (x) =
2
22n+2 (−1)n ex
√
π
∞
Z
2
e−t t2n cos(2xt)dt ,
n = 1, 2, 3, · · ·
0
2
Z
∞
2
e−t t2n+1 sen(2xt)dt ,
n = 1, 2, 3, · · ·
0
or
La forma de llegar a cualquiera de estas últimas fórmulas se parte de las conocidas integrales desarrolladas
en el plano complejo
Z ∞
2
2
−x2
e−t cos(2xt)dt
e
=√
π −∞
Bo
rr
ad
se deriva 2n veces a ambos miembros se utiliza la definición de los polinomios de Hermite.
2.11.6.
El Oscilador armónico, independiente del tiempo, en Mecánica Cuántica.
La Ecuación de Schrödinger independiente del tiempo y en una dimensión es
d2
2µ
ψ(x) + 2 [E − U(x)] ψ(x) = 0 ,
2
dx
~
con µ la “masa” de la partı́cula; E los niveles de energı́a y U(x) el potencial al cual está sometida la partı́cula.
En el caso que estudiemos un potencial del tipo U(x) = 21 µω 2 x2 en el cual la frecuencia angular del oscilador
viene representada por ω. La ecuación de Schrödinger se convierte en
2µ
d2
1 2 2
ψ(x)
+
µω
x
ψ(x) = 0 ,
E
−
dx2
~2
2
111
2.11. POLINOMIOS DE HERMITE
haciendo un cambio de variable ξ = x
p
µω/~ para adimensionalizar la ecuación de Schrödinger, se obtiene
2E
00
2
ψ (ξ) +
− ξ ψ(ξ) = 0 ,
~ω
r
la cual corresponde a la forma autoadjunta de la Ecuación de Hermite:
ψ 00 (ξ) + 2n + 1 − ξ 2 ψ(ξ) = 0 ,
y por lo tanto identificamos
⇒
E=
1
n+
2
~ω ,
in
a
2E
= 2n + 1
~ω
con lo cual comprobamos la forma como viene cuantizada la energı́a en este sistema y la energı́a del estado
fundamental. Por su parte, la función de onda se podrá expresar en la base de soluciones de esa ecuación
∞
X
cn ψn (ξ) =
n=0
2
/2
Hn (ξ) .
n=0
ψn2 (ξ)dξ = 1
con cn =
µω 1/4
√
1
.
2n n!
π~
Bo
rr
ad
or
−∞
cn e−ξ
Pr
eli
Si mantenemos la normalización
Z ∞
∞
X
m
ψ(ξ) =
112
2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
2.11.7.
Resumen de Propiedades Polinomios Hermite
Definición:
Hn (x) = (−1)n ex
Hn (x) =
2
dn −x2
e
,
dxn
n = 0, 1, 2, . . .
n/2
X
(−1)k n!
n−2k
(2x)
k! (n − 2k)!
H0 (x) = 1;
Hn0 (x) = 2n Hn−1 (x),
Ecuaciones Diferenciales:
n = 1, 2, 3, . . .
y 00 − 2xy 0 + 2ny = 0
u00 + 2n + 1 − x2 u = 0;
Función Generatriz:
2
H(t, x) = e2xt−t =
n!
tn
2
/2
Hn (x)
Pr
eli
H2n (x) =
22n+1 (−1)n ex
√
π
H2n+1 (x) =
Ortogonalidad:
u(x) = e−x
∞
X
Hn (x)
n=0
Representación Integral:
H2 (x) = 4x2 − 2
H1 (x) = 2x;
in
a
Relaciones de Recurrencia:
H0 (x) = 1; H1 (x) = 2x; H2 (x) = 4x2 − 2; H3 (x) = 8x3 − 12x
m
Ejemplos:
r
k=0
√
2α α! π δαβ
2
Z
∞
2
e−t t2n cos(2xt) dt
0
2 Z ∞
22n+2 (−1)n ex
2
√
e−t t2n+1 sen(2xt) dt
π
0
Z ∞
2
=
e−x Hβ (x)Hα (x)dx
−∞
Planteamiento General para Polinomios Ortogonales
Bo
rr
ad
2.12.
or
Practicando con Maple:
> restart: with(orthopoly):
> plot([H(0,x), H(1,x), H(2,x), H(3,x), H(4,x)], x=-3..3,y=-25..25);
Hemos considerado un par de ejemplos de Polinomios Ortogonales. En ambos podemos idenficar algunas
caracterı́sticas comunes. En base a estas caracterı́sticas comunes definiremos otras familias de polinomios
ortogonales.
† En el caso de los polinomios de Jacobi, la norma es
hn =
2α+β+1
Γ(n + α + 1)Γ(n + β + 1)
2n + α + β + 1
n!Γ(n + α + β + 1)
con
α > −1
y
β > −1 .
113
2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
Nombre
a
b
w(x)
Pn (x)
Legendre
−1
1
Tn (x)
Tchebychev 1E
−1
1
Un (x)
Tchebychev 2E
−1
1
1
1
√
2
1
√ −x
1 − x2
Hn (x)
Ln (x)
Lα
n (x)
αβ
Pn (x)
Hermite
Laguerre
Laguerre G
Jacobi
−∞
0
0
−1
∞
∞
∞
1
e−x
e−x
xα e−x con α > −1
(1 − x)α (1 + x)β
hn
2
2n + 1
π
2
π
2√
2n n! π
1
2
Γ(n+α+1)
n!
π
in
a
†
h0
r
Nomenclatura
Cuadro 2.1: Propiedades genéricas de los Polinomios Ortogonales, Nn indica la norma del polinomio de grado
n.
Producto interno genérico, norma y ortogonalidad
m
2.12.1.
Los polinomios ortogonales se definen como un conjunto de polinomios {pn (x)} de orden n definidos en
un determinado intervalo a ≤ x ≤ b, los cuales son ortogonales respecto a una definición de producto interno
b
Pr
eli
Z
w(x)pm (x)pn (x)dx = hn δnm
a
con w(x) > 0 una función peso en a ≤ x ≤ b
que garantiza que la norma sea finita en ese intervalo. Dado que el Teorema de Weierstrass garantiza que el
conjunto de polinomios {1, x, x2 , · · · , xn , · · · } es una base completa para un espacio vectorial E∞ , se procede
a ortogonalizar esa base con la definición de producto interno y el intervalo que corresponda. Para cada caso
tendremos una base ortogonal de polinomios.
Polinomio
Pn
(−1)n n+1
√ 2
Γ n + 12
π
(−1)n
√ 2n+1 Γ n + 32
(n + 1) π
(−1)n
n!
n!
or
Tn
µn
2n n!
Un
Bo
rr
ad
Hn
Ln
Lα
n
w(x)
1
1
√
1 − x2
√
1 − x2
2
e−x
e−x
xα e−x
q(x)
1 − x2
1 − x2
1 − x2
1
x
x
Cuadro 2.2: Funciones para determinar la Fórmula de Rodrigues generalizada
En el cuadro 2.1 resumimos las propiedades más resaltantes, com lo son: la función peso en el producto
interno, el intervalo en el cual están definidas estas fuciones y su norma.
2.12.2.
Fórmula de Rodrigues genelarizada
En general todos los polinomios ortogonales {pn (x)} vienen definidos por la fórmula de Rodrigues generalizada
1
dn
pn (x) =
(w(x)q(x)n )
w(x)µn dxn
114
2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
donde w(x), q(x) y µn vienen especficados en el cuadro 2.2 para cada conjunto de polinomios ortogonales
2.12.3.
Ejemplos de Polinomios Ortogonales
Utilizando la fórmula de Rodrigues generalizada, podemos construir algunos polinomios generalizados.
El cuadro 2.3 muestra algunos de ejemplos de estos polinomios ortogonales
n=1
Pn
1
x
Tn
Un
Hn
1
1
1
x
2x
2x
Ln
1
1−x
n=2
1
(3x2 − 1)
2
2x2 − 1
4x2 − 1
4x2 − 2
n=3
1
(5x3 − 3x)
2
4x3 − 3x
8x3 − 4x
8x3 − 12x
n=4
1
(35x4 − 30x2 + 3)
8
8x4 − 8x2 + 1
16x4 − 12x2 + 1
16x4 − 48x2 + 12
1 2
x − 2x + 1
2
1
− (x3 − 9x2 + 18x − 6)
6
r
n=0
1 4
(x − 16x3 + 72x2 − 96x + 24)
24
m
Cuadro 2.3: Ejemplos de Polinomios Ortogonales
Relaciones de Recurrencia
Pr
eli
2.12.4.
in
a
Polinomio
También se pueden formular, de manera genérica las relaciones de recurrencia. Obviamente, las relaciones
de recurrencia también constituyen una forma alternativa de ir construyendo los polinomios ortogonales. Ası́,
un polinomio ortogonal genérico, pn (x), cumplirá
pn+1 (x) = (an + xbn )pn (x) − cn pn−1 (x)
El cuadro 2.4 contiene las expresiones de los coeficientes para construir las relaciones de recurrencia generalizadas para cada uno de los polinomios
Polinomio
an
0
Tn
Un
Hn
0
0
0
2n + 1
n+1
2n + 1 + α
n+1
Bo
rr
ad
or
Pn
Ln
Lα
n
bn
2n + 1
n+1
2
2
2
1
−
n+1
1
−
n+1
cn
n
n+1
1
1
2n
n
n+1
n+α
n+1
Cuadro 2.4: Funciones para determinar la Relación de Recurrencia Generalizada
2.12.5.
Función generatriz generalizada
Para todos los polinomimos ortogonales podemos definir una función generatriz G(x, t), de tal manera
que cada uno de los polinomios ortogonales {pn (x)} será proporcional al coeficiente de tn del desarrollo en
115
2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
series de Taylor, en potencias de t alrededor del punto x = 0. Esta función generatriz que constituye una
forma alternativa de definir los polinomios ortogonales viene expresada por la serie
G(x, t) =
∞
X
Cn pn (x) tn
con an constante
n=0
1
Tn
2
Un
1
Hn
H2n
H2n+1
1/n!
1n /(2n)!
1n /(2n + 1)!
Ln
Lα
n
in
a
Pn
G(x, t)
1
√
1 − 2xt + t2
1 − t2
+1
1 − 2xt + t2
1
1 − 2xt +2 t2
e2xt−x
2
cos(2xt)et
2
sen(2xt)et
xt
1 −1 − t
e
1−t
xt
−
1
1−t
e
(1 − t)α
m
Cn
Pr
eli
Polinomio
r
Las funciones generatrices no son exclusivas de los polinomios ortogonales. Como veremos más adelante,
existen funciones generatrices para las funciones de Bessel.
1
1
Cuadro 2.5: Funciones para determinar la función generatriz generalizada
2.12.6.
Ecuación diferencial para los Polinomios Ortogonales
Bo
rr
ad
or
Cada uno de los polinomios ortogonales habrá de ser solución de una ecuación diferencial ordinaria de la
forma
d2 pn (x)
dpn (x)
g2 (x)
+ g1 (x)
+ αn pn (x) = 0
2
dx
dx
En el cuadro 2.6 mostramos las expresiones para los coeficientes de las ecuaciones correspondientes a las
ecuaciones diferenciales para las cuales cada uno de los polinomio ortogonales es solución
2.12.7.
Aplicaciones para los polinomios ortogonales
Interpolación polinomial de puntos experimentales
Muchas veces nos encontramos con la situación en la cual tenemos un conjunto de n medidas o puntos
experimentales {(x1 , y1 ) = f (x1 ), (x2 , y2 ) = f (x2 ), · · · , (xn , yn ) = f (xn )} y para modelar ese experimento
quisiéramos una función que ajuste estos puntos. El tener una función nos provee la gran ventaja de poder
intuir o aproximar los puntos que no hemos medido. La función candidata más inmediata es un polinomio
y debemos definir el grado del polinomio y la estrategia que aproxime esos puntos. Si queremos aproximar
esos puntos por una recta el Método de Mı́nimos Cuadrados es el más utilizado.
Puede ser que el polinomio no sea lineal y sea necesarios ajustar esos puntos a un polinomio tal que
éste pase por los puntos experimentales. Queda entonces por decidir la estrategia. Esto es, ajustamos la
116
Polinomio
Pn
Tn
Un
Hn
Ln
Lα
n
Pnαβ
g2 (x)
1 − x2
1 − x2
1 − x2
1
x
x
1 − x2
g1 (x)
−2x
−x
−2x
−2x
1−x
1−x+α
β − α − x(2 + α + β)
αn
n(n + 1)
n2
n(n + 1)
2n
n
n
n(n + α + β + 1)
r
2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
in
a
Cuadro 2.6: Funciones para determinar la ecuación diferencial para la cual son solución los polinomios
ortogonales
Pr
eli
m
función como “trozos” de polinomios que a su vez se ajusten a subconjuntos: {(x1 , y1 ) = f (x1 ), (x2 , y2 ) =
f (x2 ), · · · , (xm , ym ) = f (xm )}, con m < n, de los puntos experimentales En este caso tendremos una función
de ajuste, para cada conjunto de puntos.
También podemos ajustar la función a todo el conjunto de puntos experimentales y, en ese caso, el
máximo grado del polinomio que los ajuste será n − 1. Para encontrar este polinomio lo expresaremos como
una combinación lineal de Polinomios de Legendre. Esto es:

y1 = f (x1 ) = C0 P0 (x1 ) + C1 P1 (x1 ) + · · · + Cn−1 Pn−1 (x1 )



n−1
 y2 = f (x2 ) = C0 P0 (x2 ) + C1 P1 (x2 ) + · · · + Cn−1 Pn−1 (x2 )
X
Ck Pk (x) ⇒
P(x) = f (x) =
.

 ..
k=0


yn = f (xn ) = C0 P0 (xn ) + C1 P1 (xn ) + · · · + Cn−1 Pn−1 (xn )
or
que no es otra cosa que un sistema de n ecuaciones con n incógnitas: los coeficientes {C0 , C1 , · · · Cn−1 } Al
resolver el sistema de ecuaciones y obtener los coeficientes, podremos obtener la función polinómica que
interpola esos puntos.
Una expansión equivalente se pudo haber logrado con cualquier otro conjunto de polinomios ortogonales,
ya que ellos son base del espacio de funciones. Es importante hacer notar que debido a que los polinomios de
Legendre están definidos en el intervalo [−1, 1] los puntos experimentales deberán re-escalarse a ese intervalo
para poder encontrar el polinomio de interpolación como combinación lineal de los Polinomios de Legendre.
Esto se puede hacer con la ayuda del siguiente cambio de variable:
b−a
(b − a)t + b + a
, dx =
dt
2
2
Consideremos los puntos experimentales representado en la figura 2.14. Al construir el sistema de ecuaciones obtendremos: (a = 2 y b = 12)
Bo
rr
ad
x=
(−1, 8) ⇒ 8 = C0 − C1 + C2 − C3 + C4 − C5
− 53 , 10 ⇒ 10 = C0 −
3
5
C1 +
1
25
C2 +
9
25
C3 −
51
125
C4 +
477
3125
C5
− 15 , 11 ⇒ 11 = C0 −
1
5
C1 −
11
25
C2 +
7
25
C3 +
29
125
C4 −
961
3125
C5
1
5 , 18
⇒ 18 = C0 +
1
5
C1 −
11
25
C2 −
7
25
C3 +
29
125
C4 +
961
3125
C5
3
5 , 20
⇒ 20 = C0 +
3
5
C1 +
1
25
C2 −
9
25
C3 −
51
125
C4 −
477
3125
C5
(1, 34) ⇒ 34 = C0 + C1 + C2 + C3 + C4 + C5
117
2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
f(x)
f(x)
30
30
25
20
15
15
10
in
a
20
r
25
10
x
2
4
6
8
10
12
K
1.0
K
0.5
x
0.0
0.5
1.0
C0 =
2249
,
144
C1 =
3043
,
336
con lo cual
P(x) = f (x) =
Pr
eli
y al resolver el sistema obtendremos que
m
Figura 2.14: En el lado izquierdo se muestran el conjunto de puntos experimentales:
{(2, 8), (4, 10), (6, 11), (8, 18), (10, 20), (12, 34)} y a la derecha la función polinómica que los interpola.
C2 =
1775
,
504
C3 = −
175
,
216
C4 =
625
,
336
C5 =
14375
3024
2249 3043
1775
175
625
14375
+
x+
P (2, x) −
P (3, x) +
P (4, x) +
P (5, x)
144
336
504
216
336
3024
Bo
rr
ad
or
la interpolación queda representada en al figura 2.14.
Es importante se nalar que mientras más puntos experimentales se incluyan para la interpolación, el
polinomio resultante será de mayor grado y, por lo tanto incluirá oscilaciones que distorcionarán una aproximación más razonable. Por ello, la estrategia de hacer la interpolación a trozos, digamos de tres puntos en
tres puntos, generará un mejor ajuste, pero será una función (polinomio) contı́nua a trozos.
Practicando con Maple:
> restart: with(plots):
> pointplot([2,8],[4,10],[6,11],[8,18],[10,20],[12,34]);
>
> P:=pointplot([-1,8],[-3/5,10],[-1/5,11],[1/5,18],[3/5,20],[1,34]):
> eq1:=C0-C1+C2-C3+C4-C5=8:
> eq2:=C0-3/5*C1+1/25*C2+9/25*C3-51/125*C4+477/3125*C5=10:
> eq3:=C0-1/5*C1-11/25*C2+7/25*C3+29/125*C4-961/3125*C5=11:
> eq4:=C0+1/5*C1-11/25*C2-7/25*C3+29/125*C4+961/3125*C5=18:
> eq5:=C0+3/5*C1+1/25*C2-9/25*C3-51/125*C4-477/3125*C5=20:
> eq6:=C0+C1+C2+C3+C4+C5=34:
> s:=solve(eq1,eq2,eq3,eq4,eq5,eq6,[C0,C1,C2,C3,C4,C5]);assign(s);
> f:=C0 + C1*x + C2*LegendreP(2,x) + C3*LegendreP(3,x) + C4*LegendreP(4,x)+
C5*LegendreP(5,x);
> F:=plot(f,x=-1..1):
> display(F, P);
118
2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
Cuadratura de Gauss-Legendre
Una de los usos más comunes de los polinomios ortogonales es la de aproximar funciones, en particular
integrales que requieren ser resueltas numéricamente. La idea es aproximar una integral, para una funcion
f (x), definida en el intervalo [a, b] y suficientemente bien comportada, por una suma finita de términos
ck f (xk ) y estimar el error que cometemos en esta aproximación. Esto es:
N
X
b
f (x)dx =
a
ck f (xk ) + EN
(2.45)
r
Z
k=1
f (x) =
∞
X
m
in
a
Nótese que la intención es utilizar la función a integrar evaluada en un conjunto de puntos estratégicos para
los cuales están definidos unos coeficientes, también inteligentemente seleccionados. Es decir se requieren 2N
números (ck y los xk con k = 1, 2, · · · N ). Más aún, esas 2N cantidades pueden ser seleccionadas de forma
tal que la aproximación es exacta EN = 0 cuando f (x) es un polinomio de grado ≤ 2N − 1.
Supongamos, para empezar que la función f (x) está definida para x ∈ [−1, 1]12 y por lo tanto los
polinomios ortogonales que seleccionaremos para aproximar la integral (y la función) serán los del Legendre
(igual pudimos haber utilizado los polinomios de Tchebychev), con lo cual
ak Pk (x) ,
donde:
ak =
Con lo cual
Z
1
f (x)dx ≈
−1
k+
N
X
1
2
Z
1
Pr
eli
k=0
dx f (x)Pk (x) y a0 =
−1
ck f (xk ) =
N
X
ck
an Pn (xk ) =
Z
1
dx f (x) .
−1
∞
X
an
n=0
n=0
k=1
k=1
∞
X
1
2
N
X
ck Pn (xk ) .
k=1
N
X
or
Quedan todavı́a por determinar los pesos ck y los puntos xk . Para ello procedemos de la siguiente forma.
Notamos que PN (x) tiene N raı́ces, x = xj , en el intervalo −1 ≤ x ≤ 1. Entonces, si seleccionamos esos
puntos x = xj para evaluar la función f (xk ) se anulan el coeficiente para el término aN y, además podremos
encontrar los pesos ck resolviendo el sistema de N ecuaciones de la forma
cj P0 (xj ) =
cj = 2
N
X
∧
j=1
para k = 1, 2, · · · N − 1
cj Pk (xj ) = 0
j=1
Bo
rr
ad
j=1
N
X
donde los Pk (xj ) son los distintos polinomios evaluados en las raı́ces del polinomio de grado N , i.e. PN (xj ) = 0
Se puede demostrar que la solución de este sistema provee los pesos escritos de la forma
cj =
2
(1 −
2
x2j ) (PN0 (xj ))
,
donde: PN0 (xj ) =
dPN (x)
dx
x=xj
Más aún, podremos escribir
Z
1
f (x)dx ≈
−1
12 Esta
x=
b−a
2
N
X
k=1
ck f (xk ) = 2a0 + EN
con
EN =
∞
X
n=N +1
an
N
X
ck Pn (xk ) ,
k=1
no
limitación muy severa porque siempre podemos hacer, como ya vimos, un cambio de variable del tipo
es una t + b+a
y convertir cualquier intervalo cerrado [a, b] en un intervalo cerrado [−1, 1].
2
119
2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
2
(1 −
√
± 3/3
√0
± 15/5
±0,3399810436
±0,8611363116
0
±0,5384693101
±0,9061798459
±0,2386191861
±0,6612093865
±0,9324695142
..
.
2
3
4
5
6
..
.
2
x2j ) (PN0 (xj ))
1
8/9
5/9
0,65214515
0,34785485
0,56888889
0,47862867
0,23692689
0,46791393
0,36076157
0,17132449
..
.
2N − 1
3
5
7
9
11
..
.
r
cj =
in
a
PN (xj ) = 0
m
N
pero como
a0 =
1
2
Z
1
Pr
eli
Cuadro 2.7: Puntos y pesos para una cuadratura de Gauss-Legendre
Z
dx f (x)
−1
1
⇒
dx f (x) =
−1
N
X
ck f (xk ) − EN
k=1
Bo
rr
ad
or
Es decir, demostramos que es posible aproximar la integral del la función con un promedio pesado de la
función evaluada en unos puntos estratégicos. Los puntos estratégicos son los ceros del polinomio de Legendre
de grado igual al número de puntos con los cuales se quiere aproximar la función y los pesos vienen de resolver
las ecuaciones para los coeficientes de la expansión. En el cuadro 2.7 se ilustran los valores de los puntos de
interpolación y sus pesos correspondientes.
Es inmediato comprobar que si f (x) es un polinomio de grado ≤ N − 1 la aproximación es exacta y el
error es nulo. Pero lo que realmente hace útil a este tipo de aproximaciones es que también será exacta para
polinomios de grado ≤ 2N − 1. Esto se puede ver si expresamos un polinomio de grado 2N − 1 como la suma
de dos polinomios
f (x) = PN (x)Y1 (x) + Y2 (x)
donde Y1 y Y2 son polinomios de grado N − 1. Entonces, al integrar miembro a miembro
Z 1
Z 1
Z 1
dx f (x) =
dx PN (x)Y1 (x) +
dx Y2 (x)
−1
−1
−1
|
{z
}
=0
el primer término se anula por ser PN (x) ortogonal a cualquier polinomio de grado inferior, y el segundo
término no es más que el caso que analizamos anteriormente de un polinomio de grado ≤ N − 1.
Puede resultar conveniente escribir la ecuación
Z b
Z
(b − a)t + b + a
b−a 1
f
dt
f (x)dx =
2
2
−1
a
120
2.12. PLANTEAMIENTO GENERAL PARA POLINOMIOS ORTOGONALES
Entonces, para la cuadratura de Gauss-Legendre
N
b
Z
f (x)dx =
a
b−a X
ck f
2
k=1
(b − a)tk + b + a
2
in
a
Ejemplo Utilizar la fórmula de cuadratura de dos puntos de Gauss-Legendre para calcular
Z 4
(x2 − 2x + 1)dx
2
=
=
m
2
4−2
(4 − 2)t1 + 4 + 2
(4 − 2)t2 + 4 + 2
c1 f
+ c2 f
2
2
2
!
!
√
√
2t1 + 6
−2 3/3 + 6
2t2 + 6
2 3/3 + 6
(1)f
+f
+ (1)f
=f
2
2
2
2
√
√
26
4 3 13 4 3 13
+
−
+
=
.
3
3
3
3
3
Pr
eli
Entonces, N = 2:
Z 4
(x2 − 2x + 1)dx =
r
donde los tk son las raı́ces de PN (t) = 0.
Estrategia General para cuadraturas de Gauss
Para el caso general, la aproximación de una integral
Z
b
dx w(x)f (x) ≈
a
N
X
ck f (xk ) ,
k=1
donde las {x1 , · · · xk , · · · xN } son los ceros del polinomio ortogonal, de grado N , pN (x), elegido para hacer
esta aproximación. Los N pesos {c1 , · · · ck , · · · cN } surgen de resolver el sistema de ecuaciones
h0
cj = 2
p0
j=1
Z
N
X
b
w(x)p20 (x)dx
or
N
X
con h0 =
∧
a
cj pk (xj ) = 0
para k = 1, 2, · · · N − 1 .
j=1
Bo
rr
ad
Ası́ para aproximar integrales con funciones pesos, w(x), utilizaremos cuadraturas adaptadas a los polinomios
ortogonales. Esto es
Z ∞
Z ∞
Z 1
2
f (x)
⇒ Tchebychev .
dx e−x f (x) ⇒ Laguerre,
dx e−x f (x) ⇒ Hermite,
dx √
1 − x2
−1
0
−∞
Ejercicio
Para integrales con funciones peso del tipo
w(x) = √
1
1 − x2
los pesos son: wi = π/N , rsultando
N
f (x)
π X
dx √
'
f (xk ) ,
N
1 − x2
−1
k=1
Z
1
con
xk = cos
k−
N
1
2
π
121
2.13. SERIES Y TRANSFORMADAS DE FOURIER
Muestre que para un intervalo arbitrario a ≤ x ≤ b, esta última integral es:
Z b
N
f (x)
π X
dx p
'
f (xk )
N
(x − a)(b − x)
a
k=1
donde:
k−
N
1
2
π.
Series y transformadas de Fourier
in
a
2.13.
r
1
1
xk = (b + a) + (b − a) cos
2
2
Otro de los casos de expansión en una base completa de funciones lo constituyen la base de Fourier. En
este caso la serie de Fourier la constituyen funciones continuas, reales de variable real y definidas en [0, 2π],
∞
C[0,2π]
, en término de funciones trigonométricas.
Esto es el conjunto de funciones {|u1 i , |u2 i , |u3 i , · · · , |un i · · · } representadas por
|u2n i = cos(nx)
y
|u2n−1 i = sen(nx),
de funciones ortogonales por cuanto
 R 2π

dx sen(nx) sen(mx) = 0

0



 R
2π
dx cos(nx) sen(mx) = 0
0





 R 2π dx cos(nx) cos(mx) = 0
0
Pr
eli
Es claro que {|u1 i , |u2 i , |u3 i · · · , |un i , · · · } es un conjunto










0 si n 6= m










2
hun |um i = δnm | |un i | ⇒











||un i|2 si n = m








con n = 1, 2, 3, · · ·
m
|u0 i = 1,
 R 2π

dx = 2π

0



 R
2π
dx cos2 (nx) = π
0





 R 2π dx sen2 (nx) = π
0
or
Por lo tanto, podremos construir una base ortonormal de funciones
{|e1 i , |e2 i , |e3 i , · · · , |en i , · · · } de la forma
1
|e2n i = √ cos(nx)
π
Bo
rr
ad
1
|e0 i = √ ,
2π
y
1
|e2n−1 i = √ sen(nx)
π
Tal y como se muestra en la figura 2.15 distintas funciones pueden ser expandidas con sumas parciales de
Fourier. A diferencia de las series de potencias, que imponen que las funciones a ser expandidas deben ser
contı́nuas y contı́nuamente diferenciables en el intervalo, la series de Fourier pueden representar funciones
contı́nuas a trozos, siempre y cuando cumplan con algunas condiciones.
Por lo tanto cualquier función definida en el intervalo [0, 2π] puede expresarse en términos de esta base
como
 1 R 2π
√
dx f (x) = c0 ≡ a0
si i = 0


2π 0



∞

X
R 2π
√1
dx f (x) cos(nx) = c2n ≡ am
si i = 2n
|f i =
ci |ei i ⇒ ci = hei |f i =
0
π


i=0



 √1 R 2π
dx f (x) sen(nx) = c2n−1 ≡ bm si i = 2n − 1
π 0
122
Pr
eli
m
in
a
r
2.13. SERIES Y TRANSFORMADAS DE FOURIER
Figura 2.15: Expansiones de Varias funciones en sumas parciales de Series de Fourier. Tomado de Eric W.
Weisstein. Fourier Series. http://mathworld.wolfram.com/FourierSeries.html
donde los ci son los coeficientes de Fourier, con lo cual podemos escribir
∞
a0 X
+
[an cos(nx) + bn sen(nx)]
2
n=1
or
F (x) =
Bo
rr
ad
el término a0 es colocado fuera de la sumatoria, y multiplicado por 1/2, solo por conveniencia.
De manera equivalente, si el perı́odo es T y para un un t0 genérico

R t +T
a0 = T2 t00 dt f (t)





∞ 
R t +T
a0 X
2πnt
2πnt
F (t) =
+
+ bn sen
con
an cos
an = T2 t00 dx f (t) cos

2
T
T

n=1



R t +T

bn = T2 t00 dt f (t) sen
2πnt
T
2πnt
T
La figura 2.15 muestra la aproximación de las distintas sumas parciales para distintas funciones, a medida
que aumentamos el número de términos la aproximación mejora.
Podemos expresar la expansión de una serie de Fourier de manera más compacta atendendiendo a las
expresiones anteriores. Esta expresión se conoce en algunos ámbitos como la expresión integral para la series
123
2.13. SERIES Y TRANSFORMADAS DE FOURIER
de Fourier
+
Z 2π
1
√
dt f (t)
2π 0
Z
∞ Z 2π
X
dt f (t) cos(nt) cos(nx) +
F (x)
=
1
√
2π
Z
dt f (t) sen(nt) sen(nx)
0
0
n=1
2π
2π
dt f (t) +
0
∞ Z
X
2π
dt f (t) cos(n[t − x]) .
r
=
0
n=1
in
a
F (x)
expresar una serie de Fourier en término de una base compleja. Vale decir
También es muy común
· · · |φ̃k i · · · ↔ {· · · e−ikx · · · } con k = 0, ±1, ±2, · · · . Con lo cual
|f i =
∞
X
∞
X
C̃k e−ikx
con
k=−∞
C̃k =
1
hφ̃k |f i
=
2π
hφ̃k |φ̃k i
Z
π
dx e−ikx f (x) .
−π
m
k=−∞
C̃k |φ̃k i ≡
Pr
eli
Podremos reescribir (una vez más) la expresión de una suma parcial de la Serie de Fourier, dado que
Z
1 π
an cos(nx) + bn sen(nx) =
dt f (t) cos(n[t − x])
π −π
tendremos que
n
n Z
a0 X
a0 X 1 π
Fn (x) =
+
[ak cos(kx) + bk sen(kx)] =
+
dt f (t) cos(n(t − x))
2
2
π −π
k=1
k=1
"Z
#
n π
n1 X
o
−i(t−x)k
= <
dt f (t)
+
e
2
−π
k=1
or
y al sumar la progresión geometrica que representa una serie de exponenciales llegamos a
"
#
Z π
Z π
sen n + 21 (t − x)
1
1
Fn (x) =
≡
dt f (t)
dt f (t) K(x, n, t)
2π −π
2π −π
sen 12 (t − x)
Bo
rr
ad
la cual siempre es convergente y el término
K(x, n, t) =
"
sen
#
n + 12 (t − x)
sen 12 (t − x)
se conoce como el núcleo de la transformación de F , el Kernel de Dirichlet.
La pregunta básica que sigue es, en todos estos casos: ¿ cómo se relaciona la expansión de Fourier
|f i ⇔ F (x) con la función f (t) que genera los coeficientes de la expansión? Nótese que es una forma de mirar
una relación entre F (x) ↔ f (t). Pasamos de f (t) a F (x) mediante una “transformación”
Z π
1
Fn (x) =
dt f (t) K(x, n, t)
2π −π
Este tipo de relaciones se denomina transformación integral y en particular ésta es una de las expresiones
de las llamadas Transformaciones de Fourier.
124
2.14. CONDICIONES DE DIRICHLET
2.14.
Condiciones de Dirichlet
Las condiciones que una determinada función f (x) debe cumplir para poder ser representada como una
serie de Fourier, se conocen con el nombre de condiciones de Dirichlet13 las cuales pueden ser esquematizadas
en los siguientes puntos:
la función f (x) debe ser periódica
in
a
r
la función f (x) debe se univaluada y contı́nua a trozos (contı́nua menos, en un número finito de puntos)
con un número finito de máximos y mı́nimos
R T /2
la integral −T /2 dx|f (x)| debe ser convergente. Donde [−T /2, T /2] quiere indicar el intervalo de definición de una función con perı́odo T .
Podemos formalizar un poco más las condiciones de Dirichlet en el llamado Teorema de Fourier.
Pr
eli
m
Teorema de Fourier Sea f (x) una función en el intervalo −π ≤ x ≤ π y definida para el resto de la recta
real tal que cumpla con f (x + 2π) = f (x). Es decir f (x) es 2π−periódica. Supongamos además que existe la
integral
Z π
Z π
1
dx f (x) , y que Ck =
dx e−ikx f (x) con k = 0, ±1, ±2, · · · .
2π
−π
−π
y si |f (x)| está acotada para un intervalo [a, b] con −π < a ≤ x ≤ b < π, entonces
F (x) =
∞
X
Ck e−ikx
es convergente al valor F (x) =
k=−∞
1
2
lı́m f (x + ) + lı́m f (x − )
→0+
→0−
y si f (x) es contı́nua en x = x0 entonces F (x0 ) → f (x0 ).
En este punto se pueden puntualizar varias cosas:
Bo
rr
ad
or
1. El valor F (x) = 21 lı́m→0+ f (x + ) + lı́m→0+ f (x − ) al cual converge la expansión de Fourier,
cobra particular importancia cuando el punto x = x0 es una discontinuidad. Tal y como veremos más
adelante (sección 2.16.1) y expresa este teorema, las series de Fourier son particularmente apropiadas
para expandir funciones discontı́nuas (en un número finito de puntos en el intervalo), sin embargo,
por ser una base de funciones contı́nuas no puede reproducir la discontinuidad como tal. La expansión
de Fourier alrededor de un punto de discontinuidad x → x±0 tenderá al valor F (x) → F (x±0 ) ≡ Fm
(x−0 )
. Es decir, tenderá al valor medio de los valores de la discontinuidad por la
donde Fm = F (x+0 )+F
2
izquierda F (x−0 ) y por la derecha F (x+0 ).
2. Si los coeficientes de Fourier tienen variaciones acotadas en el intervalo y |Ck | → 0 con k → ∞.
Entonces
Z π
Z
∞
∞
X
1
1 2 X 2
1 π
|Ck |2 =
dx |f (x)|2
⇔
a0 +
|an + b2n | =
dx |f (x)|2
2π −π
2
π
−π
n=1
k=−∞
que no es otra cosa que la expresión de la completitud de esta base de funciones.
13 Johann Peter Gustav Lejeune Dirichlet 1805 - 1859. Matemático Alemán con importantes contribuciones en Teorı́as
de números Algebráica, Series y aproximaciones de funciones y ecuaciones diferenciales parciales.
125
2.15. ALGUNOS EJEMPLOS DE EXPANSIONES EN SERIES DE FOURIER
2.15.
Algunos ejemplos de expansiones en series de Fourier
Para ilustrar esta relación entre la función f (x) y su expansión en serie de Fourier F (x) analicemos
algunos ejemplos tı́picos
2.15.1.
Ondas Cuadradas
En este caso se puede integrar entre [0, T /2] y luego multiplicar todo por 2.
bn
=
=
2
T
Z
2
T
Z
T
2
dt = 1 ,
an =
0
T
2
sen
0
2πnt
T
2
T
dt =
Z
T
2
cos
0
2πnt
T
dt =
sen (nπ)
= 0,
nπ
m
a0
in
a
r
Para empezar, el caso de una función muy conocida en el ámbito de los circuitos eléctrico. Una onda
cuadrada

 −1 si − 21 T ≤ t < 0
f (t) =

+1 si 0 ≤ t ≤ 12 T ,
1 − cos (nπ)
1 − (−1)n
=
,
nπ
nπ
f (t) = a0 + 2
∞
X
bn sen
n=1
2πnt
T
Pr
eli
Entonces solo sobreviven los b2n+1 ya que coeficientes pares se anulan: b2n = 0.
=1+
4
π
sen(ωt) +
sen(3ωt) sen(5ωt) sen(7ωt)
+
+
+ ···
3
5
7
or
donde hemos denotado ω = 2π/T .
Al definir la función ω podemos interpretar los coeficientes de Fourier an , bn como las contribuciones de
cada uno de los armónicos an , bn → ωn = 2nπ
T . A partir de estas contribuciones se construye el espectro de
potencia, el cual está
relacionado
con
la
energı́a
que aporta cada uno de estos armónicos. Por ello construimos
p
un cantidad En = a2n + b2n y graficamos En vs n tal y como se puede comprobar en la figura 2.16, cuadrantes
IV y VII. Se encuentra que se puede asociar un espectro de potencia a cada se nal y con lo cual realizar una
especie de identificación.
En este punto podemos hacernos algunas preguntas:
¿qué hubiera pasado si en vez de considerar el intervalo − T2 , T2 hubieramos considerado (0, T )?
Bo
rr
ad
¿tendrı́amos el mismo desarrollo en serie de Fourier?
¿el mismo espectro?
Justifique sus respuestas.
2.15.2.
Variedades de dientes de sierra
Otra función muy común es la denominada dientes de sierra
f (t) = at
si 0 ≤ t ≤ T ,
con a constante
126
2.15. ALGUNOS EJEMPLOS DE EXPANSIONES EN SERIES DE FOURIER
r
los coeficientes son los siguientes:
Z
2 T
atdt = aT ,
a0 =
T 0
Z
2 T
2πnt
aT an =
at cos
dt = 2 2 nπsen (2n π) − sen2 (nπ) = 0 ,
T 0
T
π n
Z T
2
2πnt
aT
bn =
at sen
dt = −
.
T 0
T
nπ
∞
f (t) = at =
a0 X
+
bn sen
2
n=1
2πnt
T
=
∞
aT
aT X sen (ωnt)
−
,
2
π n=1
n
En el caso particular de hacer a = 3 y T = 2 → ωn = nπ, entonces:
para 0 ≤ t ≤ T
∞
6 X sen (nπt)
6sen (π t) 3sen (2 π t) 2sen (3 π t) 3sen (4 π t) 6sen (5 π t)
= 3−
−
−
−
−
+···
π n=1
n
π
π
π
2π
5π
m
f (t) = 3t = 3 −
in
a
Tenemos entonces que
Pr
eli
La figura 2.16 (cuadrantes V y VI) muestra la construcción de esta función y su representación en Series de
Fourier.
A partir de esta función podemos hacer unas variaciones. Por ejemplo considérese la función

R
2 T /2

=0
 a0 = T −T /2 atdt





R T /2
T
−T
≤ t ≤ , con a constante
⇒
f (t) = at si
an = T2 −T /2 at cos 2πnt
dt = 0
T

2
2





 b = 2 R T /2 at sen 2πnt dt = − aT (−1)n .
n
T
−T /2
T
nπ
Claramente es una función impar f (−x) = −f (x) y ası́ lo refleja su expansión en series de Fourier. Si
hacemos a = 3 y T = 2 → ωn = nπ tendremos que la expresión para de la serie es
6sen (π t) 3sen (2 π t) 2sen (3 π t) 3sen (4 π t) 6sen (5 π t)
−
+
−
+
+ ···
π
π
π
2π
5π
or
f (t) = 3t =
con
−T
T
≤t≤
2
2
Bo
rr
ad
la cual, si bien es parecida no es igual a la anterior, debido que estamos expandiendo otra función.
Otra variación posible de la función “diente de sierra” puede ser la versión completamente par del “diente”,
f (−x) = f (x). Esta es

 −at si −T
2 ≤t≤0
f (t) =

at si 0 ≤ t ≤ T2
El cálculo de los coeficientes resulta en:
Z
Z
2 0
2 T /2
aT
a0 =
(−at)dt +
atdt =
,
T −T /2
T 0
2
Z
Z
2 0
2πnt
2 T /2
2πnt
aT
n
an =
(−at) cos
dt +
at cos
dt = 2 2 [(−1) − 1] ,
T −T /2
T
T 0
T
π n
Z
Z
2πnt
2 T /2
2πnt
2 0
(−at) sen
dt +
at sen
dt = 0 .
bn =
T −T /2
T
T 0
T
127
2.16. CONSIDERACIONES DE SIMETRÍA EN SERIES DE FOURIER
En este caso son los coeficiente bn los que se anulan. Adicionalmente, nótese que para n par, los coeficientes
an también se anulan, Otra vez, si hacemos a = 3 y T = 2 → ωn = nπ tendremos la serie:
f (t) =
2.15.3.
3 12 cos (π t) 4 cos (3 π t) 12 cos (5 π t)
−
+ ···
−
−
2
π2
25
π2
3π 2
con
−T
T
≤t≤
2
2
Función cuadrática
in
a
r
Otro caso, complementario al anterior por sus propiedades de simetrı́a, es la expansión en series de Fourier
de la función f (x) = x2 para −π < x < π. Entonces los coeficientes se la expansión serán

Rπ
2

= 2π3
 a0 = π1 −π x2 dx
f (x) = x2 ⇒

 a = 2 R π x2 cos(nx)dx = 4(−1)n
n
π 0
n2
x2 =
∞
X
π2
(−1)n cos(nx)
+4
3
n2
n=1
m
ya que los coeficientes correspondientes a los términos impares bn se anulan. Con lo cual
Pr
eli
Nótese que como un resultado particular, al evaluar en x = π, se tiene la función zeta de Riemann ζ(2)
∞
X
π2
1
π =
+4
2
3
n
n=1
2
∞
X
1
π2
⇒ ζ(2) ≡
=
n2
6
n=1
∞
πnx X
4
(−1)n
+ 16
cos
3
π 2 n2
2
n=1
Bo
rr
ad
Con lo cual tendremos que
or
Pero este caso se presta también para considerar funciones no periódicas. Supongamos que queremos
desarrollar la expansión de Fourier para f (t) = t2 pero en este caso con 0 < t < 2. Si este fuera el caso,
empezamos por suponer que la función tienen un perı́odo, digamos T = 4. Esto es −2 ≤ t ≤ 2. Con lo cual
Z
Z
2 2 2
4 2 2
8
a0 =
t dt =
t dt =
4 −2
4 0
3
Z 2
Z
2
2πnt
4 2 2
πnt
16
16
2
an =
t cos
dt =
t cos
dt = 2 2 cos(nπ) = 2 2 (−1)n
4 −2
4
4 0
2
π n
π n
t2 =
2.16.
para 0 < t ≤ 2
Consideraciones de Simetrı́a en series de Fourier
Es de hacer notar que estas propiedades de simetrı́a respecto al perı́odo de la función (f (x) = f (−x)
simetrı́a y f (x) = −f (−x) antisimetrı́a) para un perı́odo − T2 ≤ x ≤ T2 pueden y deben ser explotadas para
simplificar los cálculos. Esto se puede resumir en
an 6= 0
an = 0
f (x) = f (−x) ⇒
y alternativamente f (x) = −f (−x) ⇒
bn = 0
bn 6= 0
128
2.17. EL FENÓMENO DE GIBBS
Pero más interesante aún es cuando estas propiedades de simetrı́a
se presentan en un cuarto del perı́odo.
Vale decir, que f (x) será par o impar respecto a T /4 i.e. f T4 + x = ±f T4 − x ⇒ f (−s) = ±f (s) donde
s = T4 − x. Entonces
Z
2πns πn
2 x0 +T
ds f (s) sen
bn =
+
T x0
T
2
in
a
r
Donde los lı́mites de integración no se han visto alterados porque la función es periódica. Es inmediato
comprobar que
πn πn 2πns
2πns πn
2πns
+ cos
sen
+
= sen
cos
sen
T
2
T
2
T
2
es decir
"
#
πn Z x0 +T
πn Z x0 +T
2πns
2πns
2
ds f (s)sen
ds f (s) cos
cos
+ sen
bn =
T
2
T
2
T
x0
x0
Pr
eli
Si f (x) par en T /4 entonces a2n−1 = b2n = 0
m
por lo que si n = 2k ⇒ sen πn
= sen(πk) = 0 y si n = 2k − 1 ⇒ cos 2k−1
2
2 π = 0. La misma consideración
se puede hacer para los coeficientes an (queda como ejercicio para el lector) y se puede concluir que
Si f (x) impar en T /4 entonces a2n = b2n−1 = 0
2.16.1.
Tratamiento de discontinuidades
2.17.
or
Tal y como hemos mencionado, a diferencia de las series de potencias, las series de Fourier manejan razonablemente bien las discontinuidades, pero por ser una base de funciones contı́nuas, no puede reproducirlas.
Tal y como comentamos en el Teorema de Fourier y muestra la figura 2.17 el valor de las sumas parciales
de Fourier en un punto de discontinuidad x = x±0 será el promedio de los valores F (x−0 ) (por la izquierda)
y F (x+0 ) (por la derecha) en la discontinuidad. Esto es la expansión de Fourier alrededor de un punto de
(x−0 )
discontinuidad x → x±0 tenderá al valor F (x) → F (x±0 ) ≡ Fm donde Fm = F (x+0 )+F
.
2
El Fenómeno de Gibbs
Bo
rr
ad
También se muestra en la figura 2.17 que, tanto por la izquierda como por la derecha de la discontinuidad
de la función escalón, las sumas parciales de Fourier oscilan y no convergen a los valores x±0 . El comportamiento oscilante de las sumas parciales de Fourier alrdedor de las discontinuidades, que no desaparecen ni
en el lı́mite se denominan fenómeno de Gibbs en honor a su descubridor Josiah Willard Gibbs.14
Para entender qué pasa en la discontinuidad consideremos una variación de la onda cuadrada considerada
anteriormente (2.15). Entonces sus sumas parciales serán

n
 1 si 0 ≤ t < π
1
2X 1
c
f (t) =
⇒ F2n
(x) = +
sen((2k − 1)x)

2 π
2k − 1
0 si π ≤ t < 2π
k=1
14 Josiah Willard Gibbs 1839 - 1903. Algunos lo consideran el primer Fı́sico Norteamericano, de hecho fue el primero en
recibir un tı́tulo de doctorado por una universidad norteamericana (Yale University). Hizo importantes aportes en electromagnetismo y sobre todo en termodinámica y fı́sica estadı́stica, sentando las bases matemáticas para estas disciplinas. En matemáticas
es conocido su estudio de las oscilaciones de las expansiones de las series de Fourier en los puntos de discontinuidad.
129
2.17. EL FENÓMENO DE GIBBS
porque los coeficientes pares (an ) se anulan. Para estudiar el fenómeno de Gibbs reescribimos la suma parcial
anterior de una manera ingeniosa
!
Z
Z
n
n Z t
X
1
1
sen(2ns)
1
2X
2 t
1 t
c
ds cos(2k − 1)s = +
ds
cos(2k − 1)s = +
ds
F2n (t) = +
2 π
2 π 0
2 π 0
sen(s)
0
k=1
k=1
cos(2k − 1)s =
k=1
sen(2ns)
sen(s)
in
a
n
X
r
donde, utilizando la fórmula de Moivre y convirtiendo esa serie de cosenos en una de exponenciales la cual,
a su vez es una progresión geométrica (y le queda la comprobación al lector), hemos sustituido
c
Es inmediato convencerse que las sumas parciales F2n
(x) siempre tendrán máximos y mı́nimos
⇒ para x =
mπ
2n
con m = 1, 2, 3, · · ·
m
c
sen(2nx)
dF2n
(x)
=
=0
dx
sen(x)
Pr
eli
Las Series de Fourier tienden a sobre-estimar el valor de los puntos de discontinuidad en ±18 % esto es
un valor de ≈ 1,1789797. La inclusión de más términos en las sumas parciales no mejoran la situación. El
fenómeno de Gibbs no se restringe a Series de Fourier sino que también se presenta en las demás series de
funciones (ver detalles en la referencia: Arfken-Weber-2000) .
El fenómeno de Gibbs fue observado ¡experimentalmente! por primera vez por Albert Michelson.15 Para
finales de 1800 Michelson habı́a creado un dispositivo mecánico para medir las componentes de Fourier de
señales eléctricas. Al incorporarle una onda cuadrada observó que una oscilación inesperada en los puntos
de discontinuidad. Creyó que esa oscilación se debı́a a defectos del dispositivo. Luego de probar múltiples
tipos de señales periódicas y observar un comportamiento similar, decidió comentárselo a su amigo Willard
Gibbs, de la Universidad Yale. Al poco tiempo Gibbs volvió con una explicación que dejó intacta la fama de
Michelson como instrumentista. El fenómeno es una consecuencia de la teorı́a de series de Fourier y no del
equipo diseñado por Michelson16 .
Corrección al fenómeno de Gibbs: Factor σ de Lanczos
or
2.17.1.
Bo
rr
ad
Una de las estrategia para corregir las oscilaciones del fenómeno de Gibbs se le debe a Lanczos17 Considerando el mismo caso de la función onda cuadrada, se puede intentar sustituir la función oscilante Fnc (x)
por su promedio F̄nc (x) alrededor del punto x. Vale decir
#
"
π
π
Z
Z
n
2X 1
n x+ 2n
n x+ 2n
1
c
c
c
F2n (x) → F̄2n (x) =
+
sen((2k − 1)s)
ds F2n (s) =
ds
π
π
π x− 2n
π x− 2n
2 π
2k − 1
k=1
15 Albert Abraham Michelson Strelno, Prussia, 1852 - Pasadena EEUU. 1931. Premio Nobel en Fı́sica (1907) uno de los
fı́sicos experimentales más habilidosos de todos los tiempos. La precisión y lo ingenioso de los instrumentos creados por él son
famosos. Con importantes contribuciones en medidas de fenómenos en óptica. Una de sus contribuciones más conocidas son los
experimentos para mostrar la inexistencia del Ether como medio de trasmisión para el fenómeno electromagnético. Más detalles
http://nobelprize.org/physics/laureates/1907/michelson-bio.html
16 Más detalles http://en.wikipedia.org/wiki/Gibbs_phenomenon
17 Cornelius Lanczos 1893 - 1974 Hungrı́a. Matemático húngaro con contribuciones importante en Relatividad y Fı́sica
Teórica. En matemáticas es conocido inventar la transformada rápida de Fourier. Más detalles en http://www-history.mcs.
st-and.ac.uk/Biographies/Lanczos.html
130
2.18. TRANFORMADAS DE FOURIER
desarmando tendremos que
=
c
F̄2n
(x)
=
"
π
x+ 2n
r
=
Z
in
a
c
F̄2n
(x)
#
n
1
2X 1
ds
+
sen((2k − 1)s)
π
2 π
2k − 1
x− 2n
k=1
"
π #
n
x+ 2n
n π
2X
1
cos((2k − 1)s)
+
π 2n π
(2k − 1)2
π
x− 2n
k=1
"
#
n
π
sen 2n
(2k − 1)
2X 1
1
sen((2k − 1)x)
+
π
2 π
2k − 1
2n (2k − 1)
k=1
{z
}
|
n
π
σ
m
Con lo cual hemos identificado el factor σ de Lanczos. Siguiendo este mismo proceso se puede generalizar
para cualquier función de tal modo que una serie de Fourier genérica podrá ser corregida con un factor σ
para lograr
"
#
n−1
n−1
a0 X
a0 X sen kπ
n
(a
cos(kx)
+
b
sen(kx))
≡
F̄n (x) =
+
+
σk (ak cos(kx) + bk sen(kx))
k
k
kπ
2
2
n
k=1
Tranformadas de Fourier
Pr
eli
2.18.
k=1
La transformada de Fourier representa (como combinación lineal de funciones sinusoidadesl) a funciones
definidas en toda la recta real y/o sin una periodicidad definida. Puede ser considerada como la generalización
de la representación en serie de Fourier, y es mayormente utilizada
R ∞ para expresar funciones que varı́an en el
tiempo con el único requisito que tengan norma acotada, i.e. −∞ dt |f (t)| finita
Anteriormente hemos visto, que podemos expresar una función en término de series de Fourier complejas
f (t) =
∞
X
C n ei
2nπ
T t
∞
X
=
Cn eiωn t
n=−∞
n=−∞
Bo
rr
ad
or
donde hemos definido ω = 2nπ
T .
Ahora bien, podemos hacer T → ∞ con lo cual [−T /2, T /2] → [−∞, ∞] pero también se tiene:
R T /2
Z ∞
dt f (t)
2π
ω
−T /2
T →∞ ⇒
= = ∆ω → dω y además
→ 0 ya que
dt f (t) , existe y es acotada.
T
n
T
−∞
Si recordamos la expresión que toman los coeficientes de la expansión
!
Z
Z
∞
X
−i2nπx
1 T /2
∆ω T /2
−inx
Cn =
dx e T f (x) ⇒ f (t) =
dx e
f (x) eiωn t
T −T /2
2π
−T
/2
n=−∞
con lo cual hacer T → ∞
f (t) =
1
2π
Z
∞
dω eiωt
Z
−∞
∞
−∞
|
dx e−iωx f (x)
{z
}
F (ω)
De este modo, la transformada de Fourier de una función y su inversa, pueden escribirse como
Z ∞
Z ∞
1
1
F (ω) ≡ F[f (t)] = √
dt e−iωt f (t) ⇔ f (t) ≡ F −1 [F (ω)] = √
dω eiωt F (ω)
2π −∞
2π −∞
131
2.18. TRANFORMADAS DE FOURIER
2.18.1.
Propiedades
Las transformada de Fourier cumplen con las siguiente propiedades, las cuales de derivan de la definición
arriba expuesta
2. La transformada de la integral
Z
F
t
1
ds f (s) =
F (ω) + 2πcδ(ω)
iω
in
a
r
1. Las transformada de la derivada F[f 0 (t)] = iωF (ω) y en general F[f n (t)] = in ω n F (ω). Esta propiedad
es más o menos inmediata a partir de la definición integrando por partes
Z ∞
Z ∞
1
iω
1
∞
dt eiωt f 0 (t) = √
dt eiωt f 0 (t)iωF (ω)
eiωt f (t) −∞ + √
F[f 0 (t)] = √
2π −∞
2π
2π −∞
m
donde la función (distribución) δ(ω) se denomina delta de Dirac y el término 2πcδ(ω) representa la
transformada de la constante de integración
3. Escalamiento F[f (at)] = a1 F ( ωa )
4. Traslación F[f (t + a)] = eiaω F (ω)
2.18.2.
Pr
eli
5. Multiplicación por un exponencial F [eαt f (t)] = f (ω + iα)
Funciones pares e impares
Al igual que en las expansiones de Fourier, la paridad de las función f (t) es importante. Esto se nota
rápidamente a partir de la definición. Supongamos f (t) = −f (−t), entonces
Z ∞
Z ∞
Z
1
1
−2i ∞
F (ω) = √
dt e−iωt f (t) = √
dt (cos(ωt) − isen(ωt)) f (t) = √
dt sen(ωt) f (t)
2π −∞
2π −∞
2π 0
or
con lo cual podremos definir las transformadas de Fourier seno y coseno para funciones impares y pares
respectivamente. Esto es para funciones impares f (t) = −f (−t)
r Z ∞
r Z ∞
2
2
F (ω) =
dt cos(ωt) f (t) ⇔ f (t) =
dω cos(ωt) F (ω)
π 0
π 0
Bo
rr
ad
y para funciones pares f (t) = f (−t)
r Z ∞
2
F (ω) =
dt sen(ωt) f (t)
π 0
2.18.3.
r
⇔
f (t) =
2
π
Z
∞
dω sen(ωt) F (ω)
0
Bases discreta y contı́nuas: La base de Ondas Planas
Haremos una disgresión para fijar conceptos y extender algunos de los razonamientos que hemos desarrollado hasta aquı́. Tal y como hemos visto repetidas veces, la representación de un vector |F i en un
espacio vectorial abstracto V puede darse en término de una base ortonormal de vectores (discreta y finita
BDF = {|u1 i , |u2 i , |u3 i , · · · |un i} o discreta e infinita BDI = {|v1 i , |v2 i , |v3 i · · · |vn i · · · }) de la forma:
 Pn
Pn
⇐ BDF = {|u1 i , |u2 i , |u3 i · · · |un i}

i=0 ci |ui i =
i=0 hui | F i |ui i
|F i =
P∞
 P∞
⇐ BDI = {|v1 i , |v2 i , |v3 i · · · |vn i · · · }
i=0 ci |vi i =
i=0 hvi | F i |vi i
132
2.18. TRANFORMADAS DE FOURIER
donde en ambos casos:
ci = hui | F i =
∞
X
cj hui |uj i =
j=0
∞
X
cj δij
j=0
donde
Z
c (β) = hwβ |Ψi =
in
a
r
la intención ahora será utilizar la transformada de Fourier para construir la generalización de bases discretas
a continua |wα i de tal forma que transformamos el ı́ndice de la sumatoria en la variable de una integral
Z
|Ψi = dα c (α) |wα i
Z
dα c (α) hwβ |wα i =
dα c (α) δ (α − β)
con en la cual δ (α − β) es una Delta de Dirac.
Ası́, los dos conceptos expresados hasta ahora tienen una expresión:
Continua
hwβ |w
R α i = δ (α − β)
1 = dα |wα i hwα |
R
|Ψi = dα c (α) |wα i
c (β)R = hwβ |Ψi
hG| F i = dα g ∗ (α) f (α)
R
2
hF | F i = dα |f (α)|
m
Discreta
hvP
i |vj i = δij
∞
1 = j=0 |vj i hvj |
P∞
|F i = i=0 ci |ui i
ci = hu
| Fi
Pi∞
hG| F i = i=0 gi∗ fi
P∞
2
hF | F i = i=0 |fi |
Pr
eli
Propiedad\Base
Ortogonalidad
Cierre
Expansión
Componentes
Producto Interno
Norma
Ilustraremos esta generalización con la construcción de la base de ondas planas. Hemos visto que la
transformada compleja de Fourier compleja para una función, se puede escribir como
Z ∞
Z ∞
F (s) =
dt eist f (t)
f (t) =
ds e−ist F (s)
−∞
−∞
or
las cuales reescribiremos en términos más familiares a la comunidad de fı́sicos como
Z ∞
Z ∞
1
1
ψ (x) = √
dp eipx/~ ψ̄ (p) ψ̄ (p) = √
dx e−ipx/~ ψ (x)
2π~ −∞
2π~ −∞
Bo
rr
ad
Hemos tenido cuidado de incluir los factores de normalización adecuados para el caso de las descripciones
en mecánica cuántica. Estas fórmulas pueden ser reinterpretadas en función de los conceptos anteriormente
expuestos y podemos definir una base continua de la forma
Z ∞
Z ∞
1
1
1
1
i px/~
−i px/~
e
e
ψ (x) = √
dp √
ψ̄ (p)
ψ̄ (p) = √
dx √
ψ (x)
2π~ −∞
2π~
2π~ −∞
2π~
|
{z
}
|
{z
}
vpx (x)
vp (x)
por lo cual
Z
∞
ψ (x) =
dp vp (x) ψ̄ (p)
Z
∞
ψ̄ (p) =
−∞
dx vp∗ (x) ψ (x)
−∞
Diremos que la función ψ (x) está expresada en la base de ondas planas vp (x) =
Nótese
√ 1 ei px/~
2π~
El ı́ndice p de vp (x) varı́a de forma continua entre −∞ e ∞.
133
2.18. TRANFORMADAS DE FOURIER
1
Que vp (x) = √2π~
ei px/~ ∈
/ L2 es decir no pertenece al espacio vectorial de funciones de cuadrado
integrable ya que su norma diverge
Z ∞
Z ∞
1
2
hvp | vp i =
dx |vp (x)| =
dx
→∞
2π~
−∞
−∞
∞
dp
−∞
−∞
1 i p(x0 −x)/~
e
= δ (x0 − x)
2π~
in
a
La relación de cierre para esta base se expresa como
Z
Z
Z ∞
∗
0
dp vp (x ) vp (x) =
1 = dα |vα i hvα |
r
Que las proyecciones de ψ (x) sobre la base de ondas planas es ψ̄ (p) = hvp | ψi
2.18.4.
m
mientras que de la definición de producto interno, uno obtiene
Z ∞
Z ∞
1 i x(p0 −p)/~
hvp0 | vp i =
dx vp∗0 (x) vp (x) =
dp
e
= δ (p0 − p)
2π~
−∞
−∞
Un par de ejemplos
f (t) =
1
0
si |t| < 1
el resto
Pr
eli
Un ejemplo inmediato lo tenemos al considerar la función
1
⇒ F (ω) = √
2π
1
1 e−iω − eiω
dt 1 e−iωt = √
−iω
2π
−1
Z
1
−1
2sen ω
= √
2πω
el otro ejemplo de uso lo podremos construir a si consideramos la ecuación diferencial inhomogénea y buscamos su solución
Z 1
dφ(x)
1
dφ(x)
2
2
− K φ(x) = f (x) ⇒ √
− K φ(x) e−iωt = F (ω)
dt
dx2
dx2
2π −1
or
donde F (ω) es la transformada de Fourier de la función f (x). Utilizando las propiedades de la transformada
de Fourier obtenemos que
Z 1
1
dφ(x) −iωt
F (ω)
√
dt
e
− K 2 φ̃(ω) = F (ω) ⇒ −k 2 φ̃(ω) − K 2 φ̃(ω) = F (ω) ⇒ φ̃(ω) = − 2
2
dx
k + K2
2π −1
Bo
rr
ad
donde hemos representado φ̃(ω) como la transformada de Fourier de la solución φ(x). Con lo cual
1
φ(x) = √
2π
Z
1
−1
dt φ̃(ω) e
−iωt
1
= −√
2π
Z
1
dt
−1
F (ω)
e−iωt
k2 + K 2
Como solución formal de la ecuación diferencial resulta sencilla y el método también es inmediato. El punto
crucial es la solución del la integral que resulta de la transformación inversa. Normalmente este tipo de
integrales no son tratables de manera analı́tica. Pero siempre queda el recurso numérico.
2.18.5.
Tranformadas Discretas de Fourier
Aquı́ haremos algo más contemporaneo que será estudiar la versión discreta de esta transformación. En
general las integrales, en su mayorı́a, no se pueden resolver analı́ticamente por lo que tenemos que proceder
134
2.18. TRANFORMADAS DE FOURIER
in
a
r
a resolverlas de forma numérica. La mayor parte de los métodos numéricos involucra convertir integrales en
sumatorias. Es decir en series de funciones.
Hemos visto como las funciones trigonométricas (y las exponenciales de argumento imaginario) son ortogonales bajo integrales evaluadas en un determinado intervalo. En otras palabras con la definición de
producto interno en un espacio de funciones. Ahora bien, esas mismas funciones (Fourier Generalidades,
cosenos y funciones exponenciales de argumento imaginario) serán también ortogonales al ser evaluadas en
puntos muy particulares.
kT
y probaremos que las funciones e2πiptk /T y e2πiqtk /T
Consideremos los siguientes 2N puntos tk = 2N
serán ortogonales ∝ δqp en un conjunto esos puntos tk . Esto es

1 − r2N


2N
−1
2N
−1
2N
−1

= 0 r 6= 1
X h 2πiptk i∗ 2πiqtk
X 2πistk
X 2πisk
1−r
e T
e T =
e T =
e 2N =


k=0
k=0
k=0
 2N
r=1
kT
con k = 1, 2, 3, · · · , 2N − 1. Nótese
2N
que la última de las series es una serie finita y geométrica con razón r = e(πis)/N , que comienza con 1 y por
lo tanto suma (dependiendo del valor de r) lo que aparece en la llave. Es inmediato convencerse que, para
todo N se cumple que r2N = e2πis = 1 (con s entero) con lo cual se cumple la relación de ortogonaliadad
que buscamos
2N
−1 h
i 2πiqtk
X
2πiptk ?
e T = 2N δqp con k = 1, 2, 3, · · · , 2N − 1
(2.46)
e T
Pr
eli
m
donde hemos sustituido s = q − p, y evaluado en los puntos tk =
k=0
Si hacemos un ligero cambio de notación y llamamos ωm =
cosméticos
e±
2πimtk
T
→ e±ωm tk
2πm
tendremos algunos cambios, en apariencia,
T
2N −1
1 X
f (tk )e±ωm tk
2N
⇒ F (ωm ) =
⇔
k=0
f (tk ) =
2N −1
1 X
F (ωm )e±ωm tk (2.47)
2N m=0
or
La función F (ωm ) representa la tranformada discreta de Fourier de la f (tk ). Para despejar la función f (tk )
hemos utilizado la relación de ortogonalidad 2.46.
Consideremos el siguiente f (tk ) = cos(tk ) evaluado en un perı́odo T = 2π y dividido, digamos en N = 2
intervalos. Los puntos en los cuales evaluaremos nuestra serie serán 2N = 4, vale decir
kT
kπ
2πm
eiωm tk
eimkπ/2
≡
con k = 0, 1, 2, 3 ⇔ ωm =
≡m
⇒
≡
2N
2
T
2N
2N
nótese que la función f (tk ) puede ser escrita como un vector f (tk ) = (1, 0, −1, 0), con lo cual para encotrar
la expresión de su tranformada discreta de Fourier, F (ωm ), podemos expresar la suma como una matriz de
transformación con ı́ndices m, k. Esto es


1 1
1
1

eimkπ/2
1
 1 i −1 −i 
⇔

1 −1 1 −1 
2N
4
1 −i −1 0
Bo
rr
ad
tk =
con lo cual
F (ωm ) =
1
2N
2N
−1
X
k=0
f (tk )e±ωm tk



F (ω0 )
 F (ω1 )  1 


⇒
 F (ω2 )  = 4 
F (ω3 )
1
1
1
1

1
1
1
1

i −1 −i 
 0
−1
1 −1   −1
−i −1
0
0



0
 1 1 
=  
 2 0 
1
135
2.18. TRANFORMADAS DE FOURIER
Respecto a la ecuación 2.47 se deben puntualizar varios elementos
2πm
corresponde a lo que en Fı́sica se denomina el espacio recı́proco (al
T
temporal), espacio de frecuencias u ω-espacio. Por ello la función F (ωm ) está expresada en este espacio
de frecuencias, mientras que la función f (tk ) en el de tiempos.
la frecuencia angular ωm =
La elección de uno de los signos + y − en la expresión e±ωm tk es arbitraria.
f (tk ) =
1 −itk 1 −3itk
e
+ e
2
2
⇒ < [f (tk )] =
in
a
r
Con lo cual si “reconstruimos” la función original a partir de la transformada discreta nos sorprende el
resultado, por cuanto no coincide
1
1
cos tk + cos 3tk
2
2
Bo
rr
ad
or
Pr
eli
m
Ahora bien, para los puntos tk = 0, π2 , π, y π2 si se cumple que los valores cos tk = 12 cos tk + 12 cos 3tk . En los
pocos puntos seleccionados cos tk y cos 3tk se asemejan. En la medida que seleccionemos más puntos en esa
medida se dejan de parecer y la recontrucción de la función será más fidedigna.
136
2.18. TRANFORMADAS DE FOURIER
Programa para generar cuadraturas de Gauss K Legendre para n puntos
r
(1)
in
a
O restart: Digits:=20:
O n := 3:
O L := LegendreP(n,z): p:=expand(%);
5 3
3
p :=
z K
z
2
2
Lar raíces de los polinomios de Legendre representan las abscisas del problema
O x := [fsolve(p)];
x := K0.77459666924148337704, 0., 0.77459666924148337704
(2)
Pr
eli
m
Se puede construir una procedimiento que tome como entrada una función f x y genere los valores
aproximados
O proced := f -> sum(c['i']*f(x['i']),'i'=1..n):
Se calculan los pesos a partir de resolver el siguiente sistema lineal de ecuaciones:
O ecs := []:
O for i from 1 to n do
O
ecs := [op(ecs),proced(z->z^(i-1)) = int(z^(i-1),z=-1..1)]:
O end do:
O ecs;
c1 C c2 C c3 = 2, K0.77459666924148337704 c1 C 0.77459666924148337704 c3 = 0,
0.60000000000000000001 c1 C 0.60000000000000000001 c3 =
2
3
O sys := {op(ecs)}:var := {seq(c[k],k=1..n)}:
O pesos := solve(sys,var); assign(pesos):
pesos := c1 = 0.55555555555555555555, c2 = 0.88888888888888888891, c3
= 0.55555555555555555555
Bo
rr
ad
or
Para probar el método, generemos aleatoriamente un polinomio de grado 2 n K 1
O q := randpoly(z,degree=2*n-1);
q := K56 K 7 z 5 C 22 z 4 K 55 z 3 K 94 z 2 C 87 z
con el polinomio anterior construyamos una función g x
O g := unapply(q,z);
g := z/K56 K 7 z 5 C 22 z 4 K 55 z 3 K 94 z 2 C 87 z
apliquemos la regla definida anteriormente
O calculado := proced(g);
calculado := K165.86666666666666667
Calculemos el resultado exacto
O exacto := int(q,z=-1..1);
2488
15
exacto := K
Ahora podemos comparar el resultado exacto con el aproximado
O evalf(exacto - calculado);
0.
FIN
(3)
(4)
(5)
(6)
(7)
137
m
in
a
r
2.18. TRANFORMADAS DE FOURIER
Bo
rr
ad
or
Pr
eli
Figura 2.16: Un par de funciones, definidas con un perı́do T , a ser expresadas en como expansiones en Series
de Fourier. En los cuadrantes
I y II, encontramos una onda cuadrada. La primera (cuadrante I) definida en
un intervalo − T2 , T2 y en el cuadrante II la misma función definida en un intervalo (0, T ). El cuadrante III
ilustra las aproximaciones de la serie de Fourier para n = 3, 7, 20, mientras que el espectro de potencia se
presenta en el cuadrante IV. La onda “diente de sierra”, definida en un intervalo (0, T ), se presenta en el
cuadrante V. Sus aproximaciones en series de Fourier para n = 3, 7, 10 se pueden observar en el cuadrante
VI, mientras que el espectro de potencia en el cuadrante VII.
Figura 2.17: Aproximaciones por series de Fourier para la función escalón, linea roja. Las curvas corresponden
a sumas parciales de Fourier: F40 (x), F100 (x), F200 (x),
138
in
a
r
Bibliografı́a
m
[Aleksandrov Kolmogorov y Lavrentiev 1999] A. D. Aleksandrov, A. N. Kolmogorov y M. A. Lavrentiev
(1999) Mathematics: Its Content, Methods and Meaning. (Dover Publications, New York ) Existe
traducción por Editorial Alianza Universidad.
Pr
eli
[Arfken, Weber y Weber 2000] Arfken, G. B., Weber, H., y Weber, H.J. (2000) Mathematical Methods
for Physicists 5ta Edición (Academic Press, Nueva York )
[1] Byron, F.W. y Fuller W.F. (1970) Mathematics of Classical and Quantum Physics (Dover Publications, New York )
[Cushing 1975] Cushing, J. (1975) Applied Analytical Mathematics for Physical Sciences (John
Wiley & Sons, New York )
[Hamming 1973] Hamming R.W. (1973) Numerical Methods For Scientist and Engineers, 2nd ed.
(Dover, New York.)
or
[Hassani 1991] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International
Edition, London:)
[Lebedev 1972] Lebedev, N.N. (1972) Special Functions & Their Applications (Dover Publications,
New York )
Bo
rr
ad
[math-atlas.org URL] The Mathematical Atlas http://www.math-atlas.org/welcome.html
[Richards 2002] Richards, D. (2002) Advanced Mathematical Methods with MAPLE (Cambridge
University Press Cambridge)
[Riley Hobson y Bence 2002] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for
Physics and Engineering (Cambridge University Press Cambridge)
[Weisstein URL] Weisstein, E. W., MathWorld http://mathworld.wolfram.com/
139
r
3
Bo
rr
ad
or
Pr
eli
m
Ecuaciones diferenciales ordinarias
in
a
Capı́tulo
140
3.1. MOTIVACIÓN Y ORIGEN
3.1.
Motivación y origen
in
a
r
En Ciencias, una de las formas de modelar fenómenos fı́sicos es mediante su caracterización a través de
una función matemática, digamos G = G (x, y, z; t). Una las formas (la ideal) para modelar los cambios de
esta función, G (x, y, z; t), que depende de la posición y del tiempo, es a través de una ecuación en la cual
están involucradas la función, G (x, y, z; t) y sus derivadas. A esa ecuación, que involucra las derivadas, la
llamaremos Ecuación Diferencial.
Existe toda una “fauna” de ecuaciones diferenciales y hoy disponemos de un importante arsenal de
técnicas, métodos y herramientas para encontrar la función G (x, y, z; t), la cual será nuestra función incógnita.
Este curso trata, parcialmente, de mostrar parte de esta “fauna” y de indicarles métodos para resolver
un tipo particular de ecuaciones diferenciales: las Ecuaciones Diferenciales Ordinarias.
Las ecuaciones diferenciales ordinarias son básicamente funciones del tipo
h
i
F x, y(x), y 0 (x), y 00 (x), y 000 (x), · · · , y (n) (x) = 0 ,
(3.1)
d2 y(x)
d3 y(x)
dy(x)
, y 000 (x) =
,
, y 00 (x) =
2
dx
dx
dx3
Son ejemplos de ecuaciones diferenciales ordinarias:
y 0 (x) =
x2 y 000 − (y 0 )2 = ex ,
···
, y (n) (x) =
y 00 cos(x) + cos(y) = 2 .
Pr
eli
ax + yy 0 = 0 ,
d(n) y
.
dx(n)
m
donde:
Cuando la función incógnita f viene definida por una relación entre sus derivadas parciales con respecto
a las variables independientes nos estamos enfrentando a un problema de Ecuaciones Diferenciales en Derivadas Parciales Si la función es f = f (x, y, z) una ecuación diferencial en derivadas parciales es una de la
forma:
F x, y, z, f, ∂x f, ∂y f, ∂z f, ∂x2 f, ∂y2 f, ∂z2 f, ∂xy f, ∂xz f, . . . = 0 ,
(3.2)
donde:
∂f
∂f
∂f
∂2f
∂2f
∂2f
∂2f
∂2f
, ∂y f =
, ∂z f =
, ∂x2 f =
, ∂xz f =
, ∂y2 f =
, ∂z2 f =
, ∂xy f =
2
2
2
∂x
∂y
∂y
∂x
∂y
∂y
∂x∂y
∂x∂z
or
∂x f =
Ejemplos de ecuaciones diferenciales en derivadas parciales:
∂f
∂f
+
f = 0,
∂x
∂y
Bo
rr
ad
∂2f
∂2f
+
= f (x, y) ,
∂x2
∂y 2
∂ 2 f (x, y) ∂f (x, y)
+
− f (x, y) = p(y) .
∂x∂y
∂x
Como ya mencionamos, en estas notas de métodos matemáticos trataremos las ecuaciones diferenciales
ordinarias y sus métodos de resolución. Un estudio de la ecuaciones en derivadas parciales será tratado en
un curso posterior.
Empecemos por recordar que desde los primeros cursos hemos tratado, la mayor de las veces sin saberlo
o sin explicitarlo, con este tipo de ecuaciones en donde la incógnita no es un número sino un conjunto de
números: una función.
El caso más emblemático lo constituye el conjunto de “fórmulas” que aprendimos cuando estudiábamos bachillerato o, más recientemente, en los primeros cursos de fı́sica general en la universidad. Entonces
describı́amos el movimiento de partı́culas en una dimensión, a través de dos ecuaciones:
vf (t) = v0 + at
y
d(t) = v0 t + a
t2
.
2
(3.3)
141
3.1. MOTIVACIÓN Y ORIGEN
Pr
eli
m
in
a
r
De memoria repetı́amos que vf representaba la velocidad final, v0 la velocidad inicial, a la aceleración,
t el tiempo transcurrido y d la distancia recorrida en ese tiempo. El problema consistı́a en encontrar, para
un sinfı́n de situaciones fı́sicas, primeramente el valor de la aceleración del móvil y a partir de las leyes
de Newton, conociendo la velocidad y la posición inicial, encontrábamos la posición d y la velocidad vf en
todo instante de tiempo. Ası́, mediante diagramas de cuerpo libre y la utilización de las leyes de Newton,
encontrábamos el valor de la aceleración y con las “formulitas” (3.3) resolvı́amos el problema.

v = v0 + at

P
 f
X
Fext
(3.4)
⇒
Fext = ma ⇒ a =
2

m
 d = v t + at
0
2
Lo más
Pprobable es que nuestros profesores nos repitieran hasta el cansancio que la sumatoria de fuerzas
externas
Fext era constante, y lo más seguro que nosotros en aquellos momentos no comprendiéramos la
trascendencia de esa suposición.
El caso más representativo era el del movimiento de un cuerpo bajo la acción de un campo gravitatorio:
el problema llamado de caı́da libre.

v = v0 − gt

 f
(3.5)
− mg = ma ⇒ a = −g ⇒
2

 d = v t − gt
0
2
Lo que está detrás de esta historia que nos inició en el estudio de la fı́sica y a muchos de nosotros
nos sedujo para seguir estudiando y aprendiendo a tratar de describir la naturaleza, es, efectivamente, la
utilización de las leyes de Newton para modelar el fenómeno del movimiento. De este modo:
X
Fext = ma = m
dv(t)
d2 x(t)
=m
.
dt
dt2
or
Sı́ la sumatoria de fuerzas externas es una contante tendremos que:
R

P
 v(t) = dt a = at + C2
dv(t)
Fext
=a=
= constante ⇒
R
2

dt
m
x(t) = dt (at + C2 ) = a t2 + C2 t + C1
(3.6)
(3.7)
Claramente al identificar:
Bo
rr
ad
C2 = v(t = 0) = v0
y
C1 = x(t = 0) = x0 = 0 ,
(3.8)
reobtenemos nuestras “formulitas” ancestrales. Es importante señalar que:
dv(t)
=a
dt
y
dx(t)
= at + C2 ,
dt
(3.9)
constituyen ecuaciones diferenciales donde las funciones incógnitas son la velocidad v(t) y la posición, x(t),
respectivamente. Ambas funciones se encontraban dentro de un signo de derivada y fueron “despejadas”
mediante un proceso de integración.
La descripción del movimiento de un sistema de partı́culas es más rica y compleja. El movimiento de una
gran cantidad de partı́culas puede ser simulado a través de una ecuación diferencial del tipo:
X
dr(t)
dv(t)
d2 r(t)
Fext r (t) ,
, t = ma = m
=m
.
(3.10)
dt
dt
dt2
142
3.1. MOTIVACIÓN Y ORIGEN
in
a
r
El carácter vectorial implica tres ecuaciones diferenciales, una por cada dimensión del movimiento:

P x
dvx (t)
d2 x(t)
dx(t)


=m
,
t
=
ma
=
m
F
x
(t)
,

x
ext

2

dt
dt
dt





 P
X
dr(t)
dy(t)
dvy (t)
d2 y(t)
y
Fext r (t) ,
, t = ma ⇒
Fext
y (t) ,
=m
, t = may = m
2

dt
dt
dt
dt






 P
dz(t)
dvz (t)
d2 z(t)

z


Fext
z (t) ,
=m
, t = maz = m
2
dt
dt
dt
Pr
eli
m
Además del carácter vectorial de la ecuación, las componentes de la fuerza pueden dejar de ser constantes
y depender no sólo del tiempo, sino del vector posición, del vector velocidad o de ambas simultáneamente.
En este caso nuestras “formulitas” dejan de ser válidas y debemos integrar las ecuaciones diferenciales
para obtener la trayectoria de la partı́cula, es decir, r (t), conocidas: la masa, la expresión de la sumatoria de
fuerzas externas, la posición y la velocidad inicial. Este problema se conoce como el problema de condiciones
iniciales y es, como hemos dicho antes, la razón de este curso.
Pero antes vamos a mostrar como el conocimiento del movimiento bajo la acción de una fuerza constante,
es decir, el movimiento de una partı́cula con aceleración constante puede resultar muy útil para resolver, de
forma aproximada, el caso más general que hemos mencionado.
Veamos con detenimiento que significan estas afirmaciones.
Es claro que el tiempo de evolución esta comprendido entre el tiempo inicial, t0 , y el tiempo final, tf , es
decir: t0 ≤ t ≤ tf . Supongamos que dividimos ese intervalo de tiempo en N subintervalos
[t0 , tf ] = [t0 , t1 ] ∪ [t1 , t2 ] ∪ [t2 , t3 ] ∪ · · · ∪ [ti , ti+1 ] ∪ · · · ∪ [tN −2 , tN −1 ] ∪ [tN −1 , tN = tf ]
[t1 , t2 ] :
or
de tal modo que en cada uno de esos N subintervalos la aceleración es constante. En estas situación, nuestras
“formulitas” son válidas. Esto es:

v(t1 ) = v1 = v0 + a (x0 , v0 , t0 ) [t1 − t0 ]
v(t0 ) = v0 
(3.11)
[t0 , t1 ] :
⇒
2

[t1 − t0 ]
x (t0 ) = x0
x (t1 ) = x1 = v0 [t1 − t0 ] + a (x0 , v0 , t0 )
2

v(t1 ) = v1 
⇒

Bo
rr
ad
x (t1 ) = x1
v2 = v1 + a (x1 , v1 , t1 ) [t2 − t1 ]
x2 = x1 + v1 [t2 − t1 ] + a (x1 , v1 , t1 )
2
[t2 − t1 ]
2
Si continuamos con este procedimiento, para un tiempo n-ésimo se tiene:
[ti , ti+1 ] :

v(ti ) = vi 
x (ti ) = xi

vi+1 = vi + a (xi , vi , ti ) [ti+1 − ti ]
⇒
xi+1 = xi + vi [ti+1 − ti ] + a (xi , vi , ti )
[ti+1 − ti ]
2
2
hasta i = N − 1:
[tN −1 , tN ] :

v(tN −1 ) = vN −1 
x (tN −1 ) = xN −1

vN = vN −1 + a (xN −1 , vN −1 , tN −1 ) [tN − tN −1 ]
⇒
xN = xN −1 + vN −1 [tN − tN −1 ] + a (xN −1 , vN −1 , tN −1 )
[tN − tN −1 ]
2
2
143
in
a
cho que emerge desde el fondo de un tanque de agua.
dv(t)
dr(t)
, t ⇒ −mg − ηv (t) + ml g = m
.
Fext r (t) ,
dt
dt
En la cual podemos identificar:
Peso: − mg ,
(3.12)
Pr
eli
X
Figura 3.1: Diagrama de Cuerpo Libre de una esfera de cor-
m
Nótese que las posiciones y velocidades finales
para cada intervalo, son las posiciones y velocidades iniciales para el intervalo siguiente y que
el valor de la aceleración, que es variable, se toma como constante e igual al valor que tiene en
el comienzo del intervalo.
Para analizar este caso consideremos la situación
de una esfera de corcho, con radio a y masa m
que se suelta desde el fondo de un tanque de agua
de profundidad h.
Queremos conocer con que velocidad llega la esfera a la superficie.
El diagrama de cuerpo libre se puede observar en
la Figura 3.1 y la ecuación de Newton para este
caso se expresa como:
r
3.1. MOTIVACIÓN Y ORIGEN
Fricción: − ηv (t) ,
Empuje: ml g .
Como sabemos de cursos anteriores, el empuje o fuerza de Arquı́mides es igual al peso del fluido desalojado
por el cuerpo. Por ello aparece ml que representa la masa del fluido.
Para el caso en el cual el fluido no es viscoso (η = 0), es decir, no hay fricción con el fluido, la ecuación
se reduce a:
X
dr(t)
Fext r (t) ,
, t ⇒ −mg + ml g = ma ,
(3.13)
dt
or
en la cual claramente la aceleración es constante e igual a:
m
ρl
l
a=g
−1 ≡g
− 1 = cte .
m
ρ
(3.14)
Bo
rr
ad
donde hemos identificado ρl la densidad del fluido y ρ la densidad del cuerpo.
Para buscar la velocidad con la cual llega a la superficie, encontramos primero el tiempo que tarda en
subir y luego evaluamos la velocidad en ese tiempo. Esto es:
s
2
tf
ρl
2hρ
y(tf ) = h = g
−1
⇒ tf = ±
,
(3.15)
ρ
2
g (ρl − ρ)
por lo tanto, la velocidad final es:
vf = ±g
s
2hρ
ρl
−1
.
ρ
g (ρl − ρ)
(3.16)
En el caso general, descrito por la ecuación (3.12), procedemos del mismo modo: encontramos el tiempo
en el cual llega la superficie y luego evaluamos la expresión de la velocidad para ese tiempo. Fı́jense que
144
3.1. MOTIVACIÓN Y ORIGEN
la estrategia para resolver el problema fı́sico es la misma, sólo que tendremos que disponer de un arsenal
adicional de herramientas y técnicas para “despejar” la función velocidad.
Aprenderemos a resolver ecuaciones diferenciales de la misma manera que antes resolvı́amos ecuaciones
algebraicas. En este caso, y como veremos más adelante, la solución exacta para la expresión de la velocidad
es:
i
dv(t)
g (m − ml ) h − η t
e m −1 .
(3.17)
m
= −mg − ηv (t) + ml g ⇒ v (t) =
dt
η
Con lo cual:
y (t) = −
i
g(m − ml ) h − η t
me m + ηt − m ,
2
η
(3.18)
in
a
y la función posición surge de integrar la ecuación diferencial anterior
r
i
dy(t)
g (m − ml ) h − η t
e m −1 ,
= v (t) =
dt
η
(3.19)
y(tf ) = h = −
m
desafortunadamente, no se puede despejar el tiempo de manera exacta por cuanto la ecuación:
gm (m − ml ) h − η tf
η i
m
e
tf ,
−
1
+
η2
m
(3.20)
ml =
4π
ξ ρ a3 ,
3
Pr
eli
para el tiempo final tf , ésta es una ecuación trascendente y debe ser resuelta numéricamente.
Hagamos ahora algunas sustituciones simplificadoras:
m=
4π
φ ρ a3 ,
3
ρl = ξρ ,
ρ = φρa ,
(3.21)
donde ξ y φ representan las densidades relativas del fluido y del cuerpo respecto al agua (que es de densidad
ρa ), respectivamente. Sustituyendo por valores numéricos:
g = 9,8 ; a = 0,02 ; ρa = 103 ; ξ = 1 ; φ = 0,8 ; v0 = 0 ; η = (6πa) 1,002 × 10−3 ,
(3.22)
(3.23)
y se obtiene, de manera numérica, que tf = 2,876443096 s.
Con este resultado se evalúa la ecuación para la velocidad:
h
i
v (tf ) = 173,8744730 1 − e(−0,01409062500 tf ) ⇒ vf = 6,9063798 m/s .
(3.24)
Bo
rr
ad
or
entonces, de la ecuación (3.20) nos queda que para h = 10(mts)
h
i
10 = 12339,72755 1 − e(−0,01409062500tf ) − 173,8744736tf ,
En la siguiente tabla se implementan las ecuaciones (3.11) habida cuenta de las simplificaciones (3.21) y
los valores numéricos (3.22) para h = 1/10 ∼ [ti+1 − ti ]
145
vi (m/s)
0.2449999997
0.4896547791
0.7339648246
0.9779306220
1.221552656
1.464831412
1.707767373
1.950361022
2.192612841
2.434523312
2.676092916
2.917322134
3.158211444
3.398761326
yi (m)
0.01224999998
0.04898273892
0.11016371910
0.19575849150
0.30573265540
0.44005185880
0.59868179800
0.7815882177
0.9887369109
1.220093719
1.475624530
1.755295283
2.059071962
2.386920600
v(t)(m/s)
0.2448275
0.4893102
0.7334487
0.9772434
1.2206949
1.4638035
1.7065698
1.9489943
2.1910775
2.4328198
2.6742217
2.9152836
3.1560062
3.3963898
y(t)(m)
0.01225
0.04895
0.11009
0.19563
0.30553
0.43976
0.59828
0.78106
0.98807
1.21926
1.47462
1.75410
2.05767
2.38529
in
a
ti (s)
0.100
0.200
0.300
0.400
0.500
0.600
0.700
0.800
0.900
1.000
1.100
1.200
1.300
1.400
r
3.2. EJEMPLOS DE ALGUNAS ECUACIONES DIFERENCIALES
Ejemplos de algunas ecuaciones diferenciales
Pr
eli
3.2.
m
aquı́, vi y yi representan la velocidad y la posición aproximada, tal y como se expresan en las ecuaciones
(3.11). Mientras que v (t) y y (t) ilustran los valores de la velocidad y la posición exactas, calculadas a partir
de las ecuaciones (3.18) y (3.19). Es claro que la aproximación es buena hasta la segunda cifra decimal.
Thomas Robert Malthus1 fue uno de los primeros en darse cuenta que la población crece como una
razón geométrica mientras que los medios de subsistencias crecen de manera aritmética. Esta afirmación
plasmada en su Ensayo sobre el Principio de Poblaciones, el cual inspiró a Darwin en la formulación
de principio de selección natural. Malthus, muy religioso y creyente pensaba que esa diferencia en el
crecimiento de la población y las necesidades que ellas generaban, erán de procedencia divina y que
forzarı́a a la humanidad a ser más laboriosa e ingeniosa para lograr los medios de subsistencia. Darwin,
no tan religioso, lo formuló como una situación natural presente en todas las especies. La Ley de
Malthus o Decaimiento Radioactivo es:
or
dy(t)
= k y(t) ⇒ y(t) = y0 ek t , con y0 = y(0) .
(3.25)
dt
Para k > 0 la población crece y para k < 0 tenemos una situación de decaimiento: la población decrece
con el tiempo. Este concepto se utiliza los procesos de decaimiento radiactivo.
Bo
rr
ad
La ecuación logı́stica o Ley de Verhulst2 se utiliza para describir el crecimiento de la población de
una manera más precisa que la Ley de Malthus. Esta ecuación toma en cuenta el decrecimiento de la
población con el término −y 2
dy(t)
k y0
= [k − ay(t)] y(t) = ky(t) − ay 2 (t) ⇒ y(t) =
dt
a y0 + (k − a y0 ) e−k t
La Ley de Enfriamiento de Newton expresa que la tasa de cambio de la temperatura respecto al tiempo
es proporcional a la diferencia de temperatura entre el cuerpo y el medio ambiente.
dT (t)
= k(T − Tm ) ⇒ T (t) = (T0 − Tm ) ek t + T m ,
dt
con T0 = T (0)
1 En
honor al economista polı́tico inglés Thomas Robert Malthus (1766-1834).
François Verhulst 1804 - 1849. Matemático belga con sus más importantes comtribuciones en estadı́stica demográfica.
2 Pierre
146
3.3. DE ECUACIONES Y ECUACIONES DIFERENCIALES
La Ley de Torricelli, la cual establece (para un tanque cilı́ndrico) la tasa de cambio respecto al tiempo
de la profundidad del agua en un tanque:
dy(t)
kp
1
=
y(t) ⇒ y(t) = t + y(0)2 .
dt
A
2
3.3.
De ecuaciones y ecuaciones diferenciales
in
a
r
En cursos anteriores consideramos una ecuación algebráica como aquella que se cumplı́a para ciertos
valores de x:
x2 − 4x + 4 = 0 ⇒ x = 2 ,
llamaremos ahora una ecuación diferencial aquella que se cumple para ciertas funciones i.e.
df (x)
− f (x) = 0 ⇒ f (x) = ex
dx
d2 f (x)
cos(x)
=
,
dx2
1 − x2
x
df (x)
= 2[f (x)]2 .
dx
Pr
eli
d3 f (x)
= −e−x ,
dx3
df (x)
+ f (x) = 0 ,
dx
m
Definición: Sea f (x) una función definida sobre un intrervalo a < x < b. Por una Ecuación Diferencial
Ordinaria entenderemos toda ecuación que involucre a x, f (x) y una o más derivadas de f (x).
Ejemplos:
Utilizaremos para tal efecto varias notaciones equivalentes:
d2 f (x)
df (x)
+ g(x)
− af 2 (x) = k(x)
dx2
dx
f 00 (x) + g(x)f 0 (x) − af 2 (x) = k(x)
fxx (x) + g(x)fx (x) − af 2 (x)
= k(x) .
Se llaman ordinarias porque involucran funciones de una sola variable y derivadas respecto a ella.
Orden y linealidad
or
3.4.
Una ecuación diferencial ordinaria, de orden n, generica suele denotarse de la siguiente manera:
Bo
rr
ad
F[x, y(x), y 0 (x), y 00 (x), y 00 (x), · · · , y (n) (x)] = 0 ,
(3.26)
y será lineal si sólo parecen funciones lineales de y(x) y sus derivadas. Por ejemplo:
y 0 y 00 + yy 0 − ay 2
α(x)y 00 + β(x)y 0 + γ(x)y
= k(x)
es no lineal
=
es lineal
k(x)
Muchas veces se acostumbra a omitir la dependencia de la función de la variable porque ésta queda sobreentendida: y(x) = y.
El orden de la derivada mayor define el orden de la ecuación diferencial, para la EDO (3.26) se tiene
entonces que ésta será de orden n. Ejemplos:
3
y 00
+
(3y 0 ) + 2x = 7 ,
EDO no lineal de orden 2
0
+
y = x,
EDO lineal de orden 1 .
y
147
m
in
a
r
3.5. SOLUCIONES EXPLÍCITAS E IMPLÍCITAS
Pr
eli
Figura 3.2: Gráfica de la función implı́cita f (x, y) = x3 + y 3 (x) − 3xy(x) = 0
La ecuación diferencial (3.26) será homogénea si NO contiene términos independientes de y(x), en caso
contrario será inhomogénea:
=
k(x)
y 00 (x) + g(x)y 0 (x) − ay(x)
=
0
lineal inhomogénea
lineal homogénea.
Soluciones explı́citas e implı́citas
or
3.5.
d2 y(x)
dy(x)
+ g(x)
− ay(x)
2
dx
dx
Las soluciones heredan su nombre del tipo de función que las representa, ası́ tendremos soluciónes explı́citas cuando las funciones sean soluciones y sean explı́citas. Esto es
Bo
rr
ad
d2 y(t)
= y(t) + 4 et ⇒ y(t) = et C2 + e−t C1 + 2 tet
dt2
y también
y 0 = (x + y)2 ⇒ y(t) = tan(t − C1 ) − t ,
con t − C1 6=
Las soluciones serán implı́citas si son representadas por funciones como
√
y=
25 − x2
0
2
2
√
y y + x = 0 ⇒ f (x, y) = x + y(x) − 25 = 0 ⇒
y = − 25 − x2
π
2
con − 5 < x < 5
En este caso, se tiene que seleccionar una rama de la función raı́z.
Igualmente, será solución implı́cita de la ecuación:
[y 2 (x) − x] y 0 (x) − y(x) + x2 = 0
148
3.6. SOLUCIONES GENERALES Y PARTICULARES
la siguiente función
f (x, y) = x3 + y 3 (x) − 3xy(x) = 0,
ahora no es tan fácil verificar si efectivamente es una solución. Para comprobarla derivamos la función
d x3 + y 3 (x) − 3xy(x)
d[f (x, y)]
dy(x)
dy(x)
=
= 0 ⇒ 3x2 + 3y 2 (x)
− 3y(x) − 3x
= 0,
dx
dx
dx
dx
3.6.
in
a
r
simplificando y agrupando obtenemos la ecuación diferencial. Otra vez, la función solución no es univaluada.
Al graficarla (ver Figura 3.2) nos damos cuenta que tenemos varias soluciones de funciones univaluadas unas
2
contı́nuas y otras no. La función es univaluada fuera del lóbulo. Esto es para x ≤ 0 ∧ x > 2 3 . Con lo cual
tendremos que seleccionar, dentro del lóbulo, cuál de las partes univaluadas corresponde a la solución.
Soluciones generales y particulares
← y(x) = ex + C1
← y(x) = ex + C2 x + C1
← y(x) = ex + C3 x2 + C2 x + C1
Pr
eli
y 0 = ex
y 00 = ex
y 000 = ex
m
Veamos las siguientes ecuaciones y soluciones
Cada una de las soluciones representan familias de soluciones, una para cada constante. Este tipo de soluciones las denominaremos soluciones generales. Es decir, llamaremos solución general de una ecuación diferencial
aquella que queda indeterminada por un conjunto de constantes {C1 , C2 , C3 , . . . , Cn }. En contraste, cuando
particularizamos los valores de las constantes tendremos una solución particular par cada una de las ecuaciones. Adicionalmente, cuando nos referimos a las ecuaciones no lineales el concepto de solución particular
varı́a. Soluciones particulares en este tipo de ecuaciones serán aquellas que se cumplen para rangos (o puntos)
muy particulares. Vale decir
(y 0 )2 + y 2 = 0
⇒ y = 0 única solución
(y 00 )2 + y 2 = 0
Bo
rr
ad
or
Tamibién en este caso llamaremos a este tipo de soluciones, particulares. De igual modo puede darse casos
para los cuales no exista solución en un determinado intervalo.
|y 0 |2 + 1 = 0
⇒ no tienen solución
|y 00 |2 + 1 = 0
Ecuaciones de la forma
xy 0 = 1 ⇒ y(x) = ln |x| + C ⇒

 y(x) = ln(x) + C1 para x > 0

y(x) = ln(−x) + C1 para x < 0
con: −1 < x < 0 ∧ 0 < x < 1, tienen soluciones particulares para intervalos de la variables x.
Del mismo modo
(y 0 − y)(y 0 − 2y) = 0 ⇒ [y(x) − C1 ex ] y(x) − C2 e2x = 0
tendrá dos soluciones particulares.
149
3.6. SOLUCIONES GENERALES Y PARTICULARES
3.6.1.
Familia de soluciones n−paramétricas
Si y(x) = f (x, C1 , C2 , . . . , Cn ) es solución de una ecuación diferencial
F[x, y(x), y 0 (x), y 00 (x), · · · , y (n) (x)] = 0 ,
para n constantes {C1 , C2 , C3 , . . . , Cn } arbitrarias, entonces diremos que
es una familia n-paramétrica de soluciones.
r
y(x) = f (x, C1 , C2 , . . . , Cn )
m
in
a
Existe una diferencia entre una solución general de una ecuación y una solución n−paramétrica. La solución
general tiene que contener todas las soluciones de una ecuación diferencial determinada. Una solución
n−paramétrica no necesariamente. Veamos

y(x) = Cx + C 2


y = xy 0 + (y 0 )2 ⇒
2

 y(x) = − x
4
Se estarı́a tentado en llamar solución general a la solución 1−paramétrica y = Cx + C 2 . Sin embargo, se deja
por fuera a la otra solución que no tiene que ver con un valor particular de la constante C.
Otro ejemplo, lo constituye
pero también
C2
Pr
eli
3
y 0 = −2y 2
⇒
y(x) =
(Cx + 1)
2
, ∀x,
−2
y(x) = x + C̃
, es solución con y(x) 6= 0 .
Una solución n−paramétrica se denominará solución general si contiene todas las soluciones de una determinada ecuación diferencial. En el caso de ecuaciones diferenciales lineales, las soluciones n−paramétricas
constituyen las soluciones generales a las ecuaciones diferenciales.
Solución particular, valores iniciales y valores de contorno
or
3.6.2.
Dependiendo de la situación fı́sica que estemos modelando quizá podamos determinar las constantes
arbitrarias de una familia n−paramétrica con información para un único punto x = x0 . Esto es:
Bo
rr
ad
F[x, y(x), y 0 (x), y 00 (x), · · · , y (n) (x)] = 0
⇒
y(x) = f (x, C1 , C2 , . . . Cn )
donde
y(x0 ) = C1
y 0 (x0 ) = C2
...
y (n−1) (x0 ) = Cn .
En este caso diremos que tendremos un problema de valores iniciales, ya que determinamos las constantes
arbitrarias a partir de la información de la función y sus derivadas en un solo punto, por ejemplo:
1
y(0) = 0
y 00 + ω 2 y = 0 con
⇒ y(x) = sen(ωx) .
y 0 (0) = 1
ω
Si por el contrario, para determinar el valor de las constantes arbitrarias disponemos de información de la
función y sus derivadas en dos o más puntos, diremos que tendremos un problema de contorno. Esto es:
y(0) = 0
y 00 + ω 2 y = 0 con
⇒ y(x) = sen(nπωx) .
y(1) = 0
150
3.6. SOLUCIONES GENERALES Y PARTICULARES
Nótese que también pudimos haber tenido información del tipo
y(0) = y0 , y 0 (1) = y1 ; y 0 (0) = y0 , y 0 (1) = y1 ; y 0 (0) = y0 , y(1) = y1 ,
Bo
rr
ad
or
Pr
eli
m
in
a
r
y para cada uno de estos caso tendremos una solución distinta.
Demostraremos que los problemas de valores iniciales para ecuaciones diferenciales lineales siempre tienen
solución particular (siempre se pueden determinar las constantes a partir de la información de la función y
las derivadas en UN punto). No ası́ los problemas de valores de contorno.
151
r
4
Bo
rr
ad
or
Pr
eli
m
Ecuaciones diferenciales de orden 1
in
a
Capı́tulo
152
4.1. SOLUCIONES ANALÍTICAS
4.1.
Soluciones analı́ticas
=
0,
EDO no lineal, homogénea de orden 2
d2 θ g
+ θ
dt2
l
=
0,
EDO lineal, homogénea de orden 2
d2 θ g
+ θ
dt2
l
=
E(t) ,
EDO lineal, no homogénea de orden 2
y 0 + xy
=
x
,
y3
EDO no lineal, homogénea de orden 1
y 0 − x3 + 2 xy − x1 y 2
=
0,
EDO no lineal, no homogénea de orden 1
tan(x)y 0 − y
=
tan2 (x) ,
EDO lineal, homogénea de orden 1
xy 0 + y
=
x3 ,
EDO lineal, no homogénea de orden 1
Pr
eli
m
in
a
d2 θ g
+ sen(θ)
dt2
l
r
Es fundamental, primero que todo, identificar con que tipo de ecuación diferencial ordinaria que estamos
tratando antes de cualquier intento de conseguir una solución. Veamos varios ejemplos:
Ahora de manera un poco más sistemática diremos que una ecuación diferencial de primer orden será un
funcional tal que si es explı́cita respecto a la derivada ésta se podrá despejar

dy(x)

 y0 ≡
= H(x, y)
0
dx
F[x, y(x), y (x)] = 0 ⇒


P (x, y)dx + Q(x, y)dy = 0
or
Ejemplos:
⇒
(2xy − ex ) dx − dy = 0 ,
y 0 = ln(x) + y
⇒
(ln(x) + y) dx − dy = 0
Bo
rr
ad
y 0 = 2xy + ex
4.1.1.
Métodos elementales de integración
Para comenzar expondremos unos métodos de integración, los cuales si bien son elementales y casi triviales
serán utilizados en lo que sigue con bastante frecuencia.
Integración directa
La integración directa tiene varias variantes las cuales nos hemos tropezado en varias situaciones de
modelaje y que nos han permitido integrar (intuitivamente) ecuaciones diferenciales. La más directa de
todas tiene que ver con la siguiente ecuación diferencial
dy(x)
= f (x)
dx
153
4.1. SOLUCIONES ANALÍTICAS
por lo cual, al integrar (analı́tica o numéricamente) tendremos la expresión para la función y(x),
Z
Z
Z
dy(x) = dx f (x) ⇒ y(x) = dx f (x) + C
v(0) = v0 ≡ C1
⇒ v(t) = v0 + at
in
a
r
La integración directa fue la estrategia que utilizamos anteriormente para encontrar las formulitas que
nos aprendimos en bachillerato. Esto es
R

v(t) = dt a = at + C1

P

Fext
dv(t)
=
= a = constante ⇒
2

m
dt
 x(t) = R dt (at + C ) = a t + C t + C
1
1
2
2
en la cual al recordar las condiciones iniciales se tiene:
t2
.
2
Una primera variante de la estrategia de integración directa anterior se aplica a la siguiente ecuación
⇒ x(t) = x0 + v0 t + a
m
x(0) = x0 ≡ C2
dy(x)
= f (y)
dx
Pr
eli
acomodando los términos e integrando resulta:
Z
Z
dy
= dx
f (y)
⇒
F[y(x)] = x + C
donde F[y(x)] será un funcional, desde el cual quizá se pueda despejar y(x).
Esta estrategia se ilustra en el siguiente ejemplo:
dy(x)
= −ay (x) , con y(0) = 2 ,
dx
entonces:
Z
dy
= −a dx ⇒ y(x) = Ce−ax ⇒ yp (x) = 2e−ax .
y
la Figura 4.1 muestra varias soluciones particulares pertenecientes a esta familia, para a = 31 .
Otro ejemplo de integración directa se puede ver en la búsqueda de la solución de la siguiente ecuación
diferencial no lineal:
yy 0 = (y + 1)2
Bo
rr
ad
or
Z
esto es:
yy 0
=1
(y + 1)2
Z
⇒
ydy
=
(y + 1)2
Z
dx , para y 6= −1 ,
integrando
1
+ ln |y + 1| = x + C ,
y+1
que no es otra cosa que una familia de soluciones implı́citas, 1−paramétrica. Para una condición inicial como
y(2) = 0 entonces
y(2) = 0 ⇒ C = −1
⇒
1
+ ln |y + 1| = x − 1 para y 6= −1 ,
y+1
una vez más esta familia de soluciones 1−paramétrica no constituye la solución general de la ecuación
diferencial ya que no contiene todas las soluciones. En este caso, y(x) = −1 también es solución.
154
4.1.2.
1
3.
En particular han sido tomados los valores
Pr
eli
Figura 4.1: Familia de soluciones 1−paramétrica para a =
C = −3, −2, −1, 0, 1, 2, 3
m
in
a
r
4.1. SOLUCIONES ANALÍTICAS
Ecuaciones diferenciales separables
Los casos anteriores de integración directa son generalizados por una ecuación que llamaremos separable.
Esto es, la función (funcional) de dos variables del lado derecho se supone que es el resultado del producto
de dos funciones de una variable, con lo cual las variables dependientes e independientes se agrupan a lados
distintos de la igualdad. La siguiente ecuación es separable
or
dy(x)
= F [y(x)]G(x)
dx
y por lo tanto
dy(x)
= G(x) dx
F (y)
Z
⇔
dy
=
F (y)
Z
G(x) dx .
Bo
rr
ad
Por ejemplo, al querer resolver la siguiente ecuación
se tiene
Z
dy
=
1+y
dy(x)
= x + xy
dx
Z
x dx
⇒
ln(1 + y) =
x2
+C
2
⇒
y(x) = Ae
x2
2
− 1,
donde C o A son constantes arbitrarias a ser determinadas por las condiciones iniciales y además con y 6= −1.
De todos modos y = −1 es una solución particular.
155
4.1. SOLUCIONES ANALÍTICAS
4.1.3.
Ecuaciones diferenciales no separables
Veamos ahora un caso bastante sencillo de resolver donde la EDO no es una ecuación diferencial separable.
Consideremos, a manera de prueba, la ecuación diferencial siguiente
dy(x)
+ ay(x) = e−x , con y(0) = 2 ,
dx
in
a
r
entonces, podemos preguntarnos sobre la posibilidad de que exista una función µ(x) de manera que si
multiplicamos ambos lados de la ecuación diferencial por µ(x) entonces, el lado izquierdo de la ecuación
diferencial se pueda escribir como:
dy(x)
? d
+ ay(x) ≡
[µ(x)y(x)] .
µ(x)
dx
dx
m
De esta manera, la función µ(x) es una función a determinar (en este caso a adivinar). Efectivamente tenemos
que si
µ(x) = eax ,
entonces al multiplicar ambos lados de la ecuación diferencial por µ(x), resulta:
dy(x)
+ eax ay(x) = eax e−x
dx
d ax
[e y(x)] = e(a−1)x
dx
Z
Z
d [eax y(x)] =
dx e(a−1)x
Pr
eli
eax
de forma y manera que:
eax y(x) =
Para y(0) = 2:
1
2a − 3
+C ⇒ C =
a−1
a−1
or
y(0) = 2 =
1 (a−1)x
e
+C.
a−1
Una solución particular será entonces:
1 −x
e + (2a − 3)e−ax .
a−1
Bo
rr
ad
yp (x) =
Un par comentarios son pertinentes:
Llamaremos al término µ(x) factor integrador de la ecuación diferencial. Este factor está relacionado
con propiedades de simetrı́a de la ecuación, pero en este nivel lo buscaremos tanteando.
La solución general de esa ecuación diferencial toma la forma de y(x) = e−x + Ce−ax , donde el segundo
de los términos yH (x) = Ce−ax corresponde a la solución general para la ecuación homogénea asociada
−x
a esa ecuación diferencial: dy(x)
corresponde a la solución
dx + ay(x) = 0. El otro término yI (x) = e
dy(x)
−x
particular de la inhomogénea: dx + ay(x) = e .
Esto último será una propiedad general para ecuaciones diferenciales lineales de cualquier orden. Resolveremos la ecuación homogénea y luego encontraremos una solución de la inhomogénea. La solución general será
una suma de ambas soluciones.
156
Pr
eli
m
in
a
r
4.1. SOLUCIONES ANALÍTICAS
Figura 4.2: Mapa de las ecuaciones diferenciales explı́citas
En general, para la ecuación
y 0 + ay = g(x) ,
y se tiene la siguiente solución general
e
|
Z
x
dt g(t)eat
{z
}
or
y(x) =
−ax
el factor integrador es: µ(x) = eax
x0
+
−ax
Ce
| {z }
solución de la homogénea
solución de la inhomogénea
Bo
rr
ad
la demostración la dejamos como ejercicio para el lector.
La figura 4.2 muestra el mapa de ruta para la resolución de las EDO lineales.
4.1.4.
Método de las Isoclinas
Este método se basa en la idea de campo y curvas integrales que vimos cuando estudiamos campos
vectoriales. La idea es bien simple, en general, una ecuación diferencial de primer orden (explı́cita respecto
a la derivada) se podrá representar como:
y 0 = f (y, x) .
(4.1)
Ahora bien, el lado derecho de esa igualdad lo representa una función de dos variables, la cual tendrá un
valor en cada punto (x, y). Ese valor (por la igualdad que representa la ecuación diferencial) será el valor de
la derivada en ese punto y el valor de la derivada en un punto, no es otra cosa que la pendiente de la recta
tangente a una curva en ese punto. Con eso, al construir una gráfica recordamos las curvas integrales de los
campos vectoriales y reconstruimos las curvas solución a partir de sus tangentes.
157
(a)
in
a
r
4.1. SOLUCIONES ANALÍTICAS
(b)
m
Figura 4.3: Isoclinas para los ejemplos (a) y (b)
Ejemplos:
La EDO
y0 =
y
⇒ y = Cx ← curva integral.
x
Para la ecuación
y0 = −
Pr
eli
Tenemos entonces que si y = f (x) o f (x, y) = 0 define y como una función de x que satisface y 0 = f (y, x)
sobre un intervalo a < x < b, entonces el gráfico de esta función se denomina una curva integral y a la
totalidad de esas curvas se le llama un campo de direcciones. A las curvas con la propiedad: y 0 = f (x, y) =
constante se le denominan isoclinas (igual pendiente).
(x 6= 0 , y 6= 0) .
x
⇒ x2 + y 2 = C 2 ← curva integral.
y
(x 6= 0 , y 6= 0) .
Bo
rr
ad
or
Cuando por un punto pasa más de una curva integral lo llamaremos un punto singular y para los puntos
por donde pase una y solo una curva integral le llamaremos puntos ordinarios.
La Figura 4.3 contiene la representación gráfica para las tangentes de las siguientes ecuaciones diferenciales:
1
y
(a) y 0 = e−x − y
(b) y 0 =
3
x
y la Figura 4.4 las de
x
(c) y 0 = −
(d) y 0 = 1 + xy
y
En el Cuadrante (a) de la Figura 4.3 se muestran las soluciones particulares para las condiciones iniciales:
y(0) = 0,75, 0,50, 0, −0,50, −0,75. El Cuadrante (b) de la misma figura corresponde a las tangentes
generadas a partir de la ecuación diferencial. Nótese que son curvas integrales radiales y que para el punto
x = 0 no está definida la curva integral. En el Cuadrante (c), de la Figura 4.4, se representan las tangentes
de la ecuación. Finalmente el Cuadrante (d) contiene las tangentes a la ecuación diferencial, en ella se han
indicado las curvas integrales para las soluciones particulares correspondientes a las condiciones iniciales:
y(0) = 0,75, 0,50, 0, −0,50, −0,75.
Es importante señalar que este método permite obtener las posibles soluciones de una ecuación diferencial
no importa lo complicada que sea.
158
in
a
r
4.1. SOLUCIONES ANALÍTICAS
(d)
m
(c)
Pr
eli
Figura 4.4: Isoclinas para los ejemplos (c) y (d)
Ejercicio
Utilice el método anterior para estudiar las soluciones de las siguientes ecuaciones:
p
(a) y 0 = x + y , |x| < 5 . (b) y 0 = x2 + y 2 , |x| < 1 . (c) y 0 = 1 + xy , |x| < 5 .
4.1.5.
Ecuaciones diferenciales separables
o equivalentemente
or
La primera estrategia será la que consideramos anteriormente en el sentido que la ecuación diferencial
sea separable. Es decir que las variables dependientes e independientes puedan ser agrupadas y, a partir de
allı́ intentar una integración de cada grupo por separado. Esto lo esbozamos, más o menos ası́
Z
Z
dy(x)
dy
dy
= F (y(x))G(x) ⇒
= G(x) dx ⇔
= G(x) dx
dx
F (y)
F (y)
⇔
P1 (x)P2 (y)dy + Q1 (x)Q2 (y)dx = 0
Bo
rr
ad
P (x, y)dx + Q(x, y)dy = 0
⇔
Q1 (x)
P2 (y)
dy +
dx = 0
Q2 (y)
P1 (x)
Ejemplo Consideremos la siguiente ecuación diferencial no lineal
√
Z
Z
p
p
p
p
1 − x2
0
2
2
y =− √
⇔
1 − x dx + 5 − y dy = 0 ⇒ dx 1 − x + dy 5 − y = 0
5−y
con lo cual, al integrar resulta que
1 p
1
2
x 1 − x2 + arcsen(x) + (5 − y)3/2 = C
2
2
3
para − 1 ≤ x ≤ 1
∧
y > −5
Nótese que el arcsen(x) es multivaluada por lo tanto debemos restringir el intervalo a su valor principal
− π2 < x < π2 .
159
4.1. SOLUCIONES ANALÍTICAS
Ejercicio
Pruebe que
y0
p
p
1 − x2 = x 1 − y ,
tiene como solución:
p
p
1 − x2 − 2 1 − y = C
para − 1 < x < 1
∧
y < 1.
Variaciones sobre separabilidad
in
a
4.1.6.
r
Es y = 1 una solución particular?
Existen otras situaciones en las cuales encontremos ecuaciones diferenciales que podremos convertir en
separables a través de un cambio de variable:
dy
= f (ax + by + c)
{z
}
|
dx
⇒
dz = a dx + b dy ,
m
z
por lo tanto:
Pr
eli
dy
1 dz
a
1 dz
a
dz
=
−
⇒
− = f (z) ⇒
= bf (z) + a
dx
b dx
b
b dx
b
dx
es decir, el cambio de variable nos conduce a una ecuación diferencial separable:
dz
= dx .
bf (z) + a
Ejemplo:
y 0 = sen2 (x − y)
esto es
dz
y =1−
dx
0
⇒
0
⇒ dz = dx − dy ,
2
z = 1 − sen (z)
Z
⇒
dz
=
1 − sen2 (z)
Z
dx
es decir
dz
= x + C ⇒ tan(z) = x + C ⇒ tan(x − y) = x + C ⇒ y = x − arctan(x + C) .
cos2 (z)
or
Z
Bo
rr
ad
Se puede tratar de generalizar el caso anterior y considerar ecuaciones diferenciales del tipo
dy
a1 x + b1 y + c1
=f
dx
a2 x + b2 y + c2
Entonces, se distinguen dos casos dependiendo de si las rectas a1 x + b1 y + c1 = 0 y a2 x + b2 y + c2 = 0 son
paralelas o no.
1. Son paralelas:
a2
b2
=
=λ
a1
b1
dy
⇒
=f
dx
a1 x + b1 y + c1
λ(a1 x + b1 y) + c2
≡ f˜(a1 x + b1 y)
la cual analizamos anteriormente.
160
4.1. SOLUCIONES ANALÍTICAS
Ejemplo
y0 = −
2x + 3y − 1
4x + 6y + 2
z = 2x + 3y − 1 ⇒ dz = 2dx + 3dy ⇒ y 0 =
⇒ λ = 2,
1 0
(z − 2)
3
con lo cual
⇒
Z
dz
z+8
=
dx
2z + 4
⇒
2z + 4
dz =
z+8
Z
⇒ 2z − 12 ln |z + 8| = x + C ,
dx
por lo tanto, la solución será:
in
a
4x + 6y − 2 − 12 ln |2x + 3y + 7| = x + C ⇒ x + 2y − 4 ln |2x + 3y + 7| = C̃ ,
r
1 0
z
(z − 2) = −
3
2z + 4
con 2x + 3y + 7 6= 0. Podemos comprobar que 2x + 3y + 7 = 0 es una solución particular de la ecuación
diferencial.
2. No son paralelas, entonces se intuye el siguiente cambio de variables
⇒
du = a1 dx + b1 dy
dx =
b2 du − b1 dv
a1 b2 − a2 b1
dy =
a1 dv − a2 du
a1 b2 − a2 b1
m
u = a1 x + b1 y + c1
⇒
⇒
con lo cual, la ecuación diferencial
dy
=f
dx
queda de la forma
dv = a2 dx + b2 dy
Pr
eli
v = a2 x + b2 y + c2
a1 x + b1 y + c1
a2 x + b2 y + c2
=f
u
v
,
u i
h
u i
du − a1 + b1 f
dv = 0 ,
v
v
donde la función f uv se conoce como una función homogénea al igual que la ecuación diferencial
que hereda de ésta su nombre. Este tipo de ecuaciones diferenciales serán consideradas en la próxima
sección.
h
a2 + b2 f
Bo
rr
ad
or
Otro enfoque (equivalente) de este mismo problema puede ser consultado en el problemario de Kiseliov,
Kransnov, Makarenko1 . En este enfoque el cambio de variables se relaciona con el punto de corte (x0 , y0 )
Para ejemplificar este caso analizaremos un ejemplo sencillo de una función con argumento inhomogéneo
del tipo.

 Q(x, y) ∝ a2 x + b2 y + c2
dy(x)
a1 x + b1 y + c1
=
⇔ Q(x, y)dy + P (x, y)dx = 0 ⇒

dx
a2 x + b2 y + c2
P (x, y) ∝ a1 x + b1 y + c1
Decimos, entonces que los coeficientes Q(x, y) y P (x, y) son inhomogéneos (ci 6= 0). Su pondremos que las
rectas no son paralelas, por lo cual utilizamos el cambio de variable propuesto anteriormente. Entonces
du dv
1
−
u = a2 x + b2 y + c2 ⇒ du = a2 dx + b2 dy ⇒ dy =
b2 − b1 a2
a1
v = a1 x + b1 y + c1
1 A.
⇒ dv = a1 dx + b1 dy
⇒ dx =
1
a2 − a1
du dv
−
b2
b1
Kiseliov, M. Krasnov y G. Makarenko (1969) Problemas de Ecuaciones Diferenciales Ordinarias. (Mir, Moscú)
161
4.1. SOLUCIONES ANALÍTICAS
con lo cual convertimos los los coeficientes Q(x, y) y P (x, y) en homogéneos. Esto es
(a2 x + b2 y + c2 )dy + (a1 x + b1 y + c1 )dx = 0
|
{z
}
⇓
}|
{
z
u
v
u
v
+
du −
+
dv = 0
a2 (b2 − b1 ) b2 (a2 − a1 )
a1 (b2 − b1 ) b1 (a2 − a1 )
v
1
u
+
a2 (b2 − b1 ) b2 (a2 − a1 )
= ug1
v
u
; Q(u, v) = u
v
1
u
+
a1 (b2 − b1 ) b1 (a2 − a1 )
Este tipo de funciones homogéneas serń consideradas en la siguiente sección.
4.1.7.
Ecuaciones diferenciales homogéneas
v
u
.
Diremos que una función f (x, y) es homogénea de grado n si

y
n

 si w = ⇒ f (x, y) = x g(w)

x
f (tx, ty) = tn f (x, y) ⇔

x

 si w = ⇒ f (x, y) = y n h(w)
y
Pr
eli
Definición:
= ug2
m
Funciones homogéneas de grado n
in
a
P (u, v) = u
r
es decir
donde n es una constante y t > 0.
Las funciones homogéneas indican un comportamiento particular cuando cambiamos la escala de sus
variables. Se utilizan con bastante frecuencia en hidrodinámica y termodinámica.
Ejemplo:
La siguiente función:
f (x, y) = x2 + y 2 ln
y
Bo
rr
ad
or
x
es una función homogénea de grado 2, ya que:
h
y i
ty
f (tx, ty) = (tx)2 + (ty)2 ln
⇒ f (tx, ty) = t2 x2 + y 2 ln
= t2 f (x, y) .
tx
x
Ejercicios:
Muestre que:
√
1. f (x, y) = y sen xy es homogénea de grado 21 .
2. f (x, y) = ey/x + tan
Definición
x
y
es homogénea de grado 0.
Una ecuación diferencial ordinaria de primer orden
P (x, y)dx + Q(x, y)dy = 0 ,
(4.2)
será una ecuación diferencial con coeficientes homogéneos si:
Q(x, y) y P (x, y) son homogéneas de grado n .
162
4.1. SOLUCIONES ANALÍTICAS
Teorema Si los coeficientes P (x, y) y Q(x, y) de una ecuación diferencial son homogéneos de orden n,
entonces la siguiente sustitución: y = ux, convertirá la ecuación diferencial en una ecuación diferencial donde
las variables son separables.
Demostración
Como P (x, y) y Q(x, y) son funciones homogéneas de orden n (hipótesis) entonces:
P (x, y) = xn f (u)
y
Q(x, y) = xn g(u) ,
=
0
[f (u) + ug(u)] dx + xg(u)du =
dx
[f (u) + ug(u)]
+ g(u)du =
x
g(u)du
dx
+
=
x
f (u) + ug(u)
0
0,
m
donde x 6= 0 y f (u) + ug(u) 6= 0. §
0
in
a
xn f (u)dx + xn g(u)(udx + xdu)
r
sustituyendo en la ecuación diferencial (4.2):
Pr
eli
Ejercicio: Demuestre que la sustitución x = uy también convierte la ecuación diferencial en una de variables separables.
Nótese que exigir que Q(x, y) y P (x, y) sean funciones homogéneas de grado n, equivale a imponer que
y
y
P (x, y)
dy(x)
=
≡F
donde F
es homogéna de grado 0 ,
dx
Q(x, y)
x
x
con lo cual estamos diciendo que si los coeficientes Q(x, y) y P (x, y) son funciones homogéneas de grado n,
la ecuación diferencial es invariante de escala.
Ejemplos:
Esto es
or
1. Como un primer ejemplo consideremos la siguiente ecuación diferencial no lineal
p
xy 0 = x2 − y 2 + y
= t
p
x2 − y 2 + y
Bo
rr
ad

p

 P (tx, ty) = (tx)2 − (ty)2 + ty
p
x2 − y 2 + y dx − xdy = 0 ⇒


Q(tx, ty) = −tx
los coeficientes son funciones homgéneas de grado 1 y por lo tanto al hacer y = ux tendremos
Z
Z
p
p
dx
du
2
2
x
1 − u + u dx − x(udx + xdu) = 0 ⇒ ± 1 − u dx − xdu = 0 ⇒
=± √
.
x
1 − u2
Notemos que: u 6= ±1 y x 6= 0. Integramos y, finalmente, llegamos a
y
y
ln |x| = arcsen(u) + C ⇒
ln |x| = arcsen
+ C , para
< 1 con x > 0
x
x
y
y
− ln | − x| = arcsen(u) + C ⇒ − ln | − x| = arcsen
+ C , para
< 1 con x < 0 .
x
x
y
= 1 ⇒ y = ±x también es solución.
En este caso tenemos que u =
x
163
4.1. SOLUCIONES ANALÍTICAS
2. Consideremos la siguiente ecuación diferencial
(x + y)y 0 − 2x + y − 1 = 0
r
la cual corresponde al caso en los cuales los coeficientes de la ecuación Q(x, y) y P (x, y) son funciones
inhomogéneas. Tal y como hemos visto un cambio de variable lo convierte en homogéneo. De nuevo,
hay que tener cuidado con el signo + de: P dx + Qdy = 0.

du = 2dx − dy
dx = 31 (du − dv)
 u = 2x − y + 1
⇒
⇒
(2x − y + 1) dx−(x + y) dy = 0 ⇒

v = −(x + y)
dv = −dx − dy
dy = − 31 (du + 2dv)
(u + v)du − (u − 2v)dv = 0 ,
y ahora haciendo el cambio de variables u = tv con lo cual du = tdv + vdt
Z
2
2x − y + 1
u
t= =
v
−(x + y)
√ !
√
2
t = C ⇒ ln |v 2 (t2 + 2)| + 2 arctan
2
Z
t+1
dt = 0
t2 + 2
√ !
2
t = C̃ ,
2
Pr
eli
para v 6= 0, y ahora
dv
+
v
m
(tv + v)(tdv + vdt) − (tv − 2v)dv = 0 ⇒ (t + 2)dv + v(t + 1)dt = 0 ⇒
e integrando tendremos que
√
1
2
ln |v| + ln |t2 + 2| +
arctan
2
2
in
a
ası́ nuestra ecuación diferencial tendrá la forma de una ecuación homogénea
2
⇒ ln (x + y) + 2(2x − y + 1)
2
+
√
√
2 arctan
2 2x − y + 1
=C,
2 −(x + y)
para x + y 6= 0. La Figura 4.5 ilustra esta familia de soluciones.
Bo
rr
ad
or
Ejemplo Tratemos con un ejemplo para ilustrar las ecuaciones isóbaras. Consideremos la ecuación
2
2xyy 0 + y 2 + = 0 , entonces,
x
2
x→x
↔ dx = dx
y2 +
dx + 2xydy = 0 ⇒
m
y
→
z
↔ dy = mz m−1 dz
x
En la contabilidad de los exponentes de x aporta un peso de 1 mientras que y aporta un peso de m. La
intención es balancear los términos para que la ecuación sea homogénea de grado n. Esto es
2
2m
dx + 2xz m mz m−1 dz = 0
z +
x
1
v
2
2m
dx + 2mxz −1 z 2m dz = 0 ⇒ m = − ⇒ y = vxm ⇒ y = √
z +
x
2
x
El exponente del primer término es 2m, del segundo −1 del tercero 2m. Al balancear todos los exponentes
tendremos 2m = −1, con lo cual m = − 12 .
2
v
2
v
dv
1 v
dx
√
√
√
+
dx + 2x
−
dx = 0 ⇒ vdv +
=0
x
x
x
x
x 2x x
√
entonces al integrar y devolver el cambio v = y x tendremos
Z
Z
dx
v2
1
dv v +
=0 ⇒
+ ln |x| = c ⇒ y 2 x + ln |x| = c .
x
2
2
164
4.1. SOLUCIONES ANALÍTICAS
4.1.8.
Ecuaciones Isóbaras
+
in
a
P (x, y)dx
r
Las ecuaciones isóbaras generalizan a las ecuaciones homogéneas por cuanto los coeficientes
de la ecuación Q(x, y) y P (x, y) no son funciones homogéneas del mismo grado y se busca una
transformación que convierta la ecuación en homogénea. Es decir, si la dimensionalidad en potencias de y es la misma que la dimensionalidad
en potencias de x. Diremos que una ecuación diferencial es isóbara si cumple con
Q(x, y)dy = 0
⇓
P (tx, tm y) → tn−m+1 Q(x, y)
4.1.9.
Figura 4.5: Solución gráfica para la ecuación diferencial (x +
y)y 0 − 2x + y − 1 = 0. Las curvas de diferentes colores indican
soluciones particulares: y(0) = 7; y(0) = 5; y(0) = 2; y(0) =
−7; y(0) = −5; y(0) = −2.
Pr
eli
y el cambio de variable que se impone es y =
vxm . Con lo cual habrá que estudiar si es posible
“balancear” el orden de las dimensionalidades de
variables y funciones.
m
Q(tx, tm y) → tn P (x, y)
Ecuaciones diferenciales exactas
El segundo grupo de estrategias apunta a escribir una ecuación diferencial como una derivada total de un
conjunto de funciones. Uno se ayuda en una posible función que pueda acomodar los términos de la ecuación.
Esa función se denomina factor integrador, para una ecuación diferencial lineal de primer orden
or
dy(x)
+ f (x)y(x) = g(x) ,
dx
al multiplicar a ambos lados por µ(x) resulta
dy(x)
+ µ(x)f (x)y(x) = µ(x)g(x) ,
dx
por otro lado, tenemos y queremos que
µ(x)
Bo
rr
ad
d
dy(x) dµ(x)
[µ(x)y(x)] ≡ µ(x)
+
y(x) = µ(x)g(x) ,
dx
dx
dx
para que esas dos últimas ecuaciones sean equivalentes los coeficientes de y(x) tienen que ser iguales, es decir,
Z
Z
R
dµ(x)
dµ(x)
= µ(x)f (x) ⇒
= dx f (x) ⇒ µ(x) = e dx f (x)
dx
µ(x)
Con lo cual hemos demostrado que para una ecuación lineal de primer orden, siempre es posible encontrar
un factor integrador µ(x) tal que la ecuación diferencial pueda ser expresada como una derivada total del
factor integrador y la función incognita.
Z
d
1
dy(x)
+ f (x)y(x) = g(x) ⇒
[µ(x)y(x)] = µ(x)g(x) ⇒ y(x) =
dx µ(x)g(x) + C
dx
dx
µ(x)
R
donde µ(x) = e
dx f (x)
.
165
4.1. SOLUCIONES ANALÍTICAS
Definición
Una ecuación diferencial de la forma
P (x, y)dx + Q(x, y)dy = 0 ,
se llama una ecuación diferencial exacta si esta es el diferencial total de alguna función f (x, y), es decir, si:
y
Q(x, y) =
∂
f (x, y) .
∂y
Una condición necesaria y suficiente para que la ecuación diferencial
in
a
Teorema
∂
f (x, y)
∂x
r
P (x, y) =
P (x, y)dx + Q(x, y)dy = 0 ,
sea exacta es que:
∂
∂
P (x, y) =
Q(x, y) ,
∂y
∂x
m
donde las funciones: P (x, y), Q(x, y), ∂y P (x, y), ∂x Q(x, y) deben existir y ser contı́nuas.
Demostración Vamos a probar que si: P (x, y)dx + Q(x, y)dy = 0, entonces: ∂y P (x, y) = ∂x Q(x, y).
Como la ecuación es exacta, por la definición anterior se tiene que:
∂
f (x, y)
∂x
∂
f (x, y) ,
∂y
Pr
eli
P (x, y) =
∧
Q(x, y) =
y como suponemos que P (x, y), Q(x, y), ∂y P (x, y), ∂x Q(x, y) existen y son contı́nuas:
∂ ∂
f (x, y)
∂y ∂x
y como:
∧
∂ ∂
f (x, y) ∃ ,
∂x ∂y
∂ ∂
∂ ∂
f (x, y) =
f (x, y) ,
∂y ∂x
∂x ∂y
or
por lo tanto tenemos que una condición necesaria es:
∂
∂
P (x, y) =
Q(x, y) .
∂y
∂x
Bo
rr
ad
Por otro lado, probemos que si: ∂y P (x, y) = ∂x Q(x, y) entonces: P (x, y)dx + Q(x, y)dy = 0 es exacta.
Ası́, para una ecuación diferencial que pueda ser escrita como
?
d [f (x, y)] = 0 ⇔ P (x, y)dx + Q(x, y)dy = 0 ⇒ d [f (x, y)] =
∂f (x, y)
∂f (x, y)
dx +
dy = 0
∂x
∂y
donde f (x, y) será la función a determinar.
Entonces tendremos que la condición necesaria y suficiente para que una ecuación diferencial sea exacta
es

∂f (x, y) 

P (x, y) ⇔


∂x
∂ 2 f (x, y)
∂ 2 f (x, y)
∂P (x, y)
∂Q(x, y)
⇒
≡
⇔
≡
⇒ d [f (x, y)] = 0

∂y∂x
∂x∂y
∂y
∂x
∂f (x, y) 


Q(x, y) ⇔
∂y
166
4.1. SOLUCIONES ANALÍTICAS
Si esto se cumple entonces, podremos encontrar la función f (x, y) integrando respecto a cualquiera de
las variables (ahora consideradas independientes ambas)
Z x
Z x
∂f (x, y)
dS(y)
∂f (x, y)
∂
P (x, y) ≡
P (u, y)du +
⇔ f (x, y) =
P (u, y)du + S(y) ⇒ Q(x, y) =
=
∂x
∂y
∂y
dy
x0
x0
Z
x
Q(x, y) =
Z
x
x0
∂Q(v, y)
dS(y)
dS(y)
v=x
dv +
= Q(v, y)|v=x0 +
∂v
dy
dy
in
a
x0
dS(y)
∂P (u, y)
du +
≡
∂y
dy
r
entonces
con lo cual nos queda finalmente otra ecuación diferencial para encontrar S(y) y con ella f (x, y). Esto es
Z y
Z x
Z y
dS(y)
Q(x0 , w)dw = C . §
P (u, y)du +
Q(x0 , w)dw ⇒ f (x, y) =
= Q(x0 , y) ⇒ S(y) =
dy
y0
x0
y0
f (x, y) =
P (u, y)du +
x0
Ejemplos:
Pr
eli
m
Hay que hacer notar que los segmentos de lı́nea que unen el punto (x0 , y0 ) con los puntos genéricos
(x, y0 ) ∧ (x0 , y) pertenecen al entorno de (x0 , y0 ). Este tipo de entornos también se denomina multiplemente
conexo.
Notemos que además de demostrar el teorema también encontramos una familia 1-parámetrica de soluciones:
Z x
Z y
Q(x0 , w)dw = C .
y0
1.- Consideremos la siguiente ecuación diferencial no lineal
[xsen(y) − y 2 ]y 0 = cos(y) .
Entonces:
0
y xsen(y) − y 2 = cos(y) ⇔ cos(y) dx − xsen(y) − y 2 dy = 0 ⇒

 P (x, y)
=
cos(y)
Q(x, y)
=
− xsen(y) − y 2
or

Bo
rr
ad
y verificamos que esta ecuación diferencial es exacta, ya que
Z x
Z y
∂P (x, y)
∂Q(x, y)
=
= − sen(y) ⇒ f (x, y) =
P (u, y)du +
Q(x, w)dw = C
∂x
∂y
x0
y0
con lo cual, si particularizamos el punto (x0 , y0 ) ≡ (0, 0) tendremos que
Z x
Z y
y3
f (x, y) =
cos(y)du +
w2 dw = C ⇒ x cos(y) +
=C
3
x0
y0
2.- Sea la siguiente ecuación
x2 y + y 3 y 0 + x3 + y 2 x = 0 .
Por lo tanto:
x3 + y 2 x dx + x2 y + y
3
dy ⇒

 P (x, y)

Q(x, y)

= x3 + y 2 x 
=
2
x y+y
3

⇒
∂Q(x, y)
∂P (x, y)
=
= 2yx
∂x
∂y
167
4.1. SOLUCIONES ANALÍTICAS
la ecuación diferencial es exacta, y otra vez:
Z x
Z
f (x, y) =
u3 + y 2 u du +
Ejercicio:
4.1.10.
y0
2 2
4
x + 2x y + y = C ,
2
x2 + y 2 = C .
Resuelva la ecuación diferencial siguiente:
2xysen2 (x) y 0 + x3 + xy 2 sen(2x) + y 2 sen2 (x) = 0 .
Ecuaciones diferenciales lineales de orden 1
dy(x)
+ f (x)y(x) = g(x) ,
dx
no es exacta, ya que:
⇒
= f (x)y(x) − g(x)
⇒
Pr
eli
[f (x)y(x) − g(x)] dx + dy = 0

 P (x, y)

Q(x, y)
=
1
pero como ya vimos, si µ(x) es un factor integrador, entonces:

 P (x, y)
µ(x) [f (x)y(x) − g(x)] dx + µ(x)dy = 0 ⇒

Q(x, y)
y por lo tanto
m
Una ecuación diferencial lineal de orden 1
r
=
x2 w + w3 dw = C ,
in
a
=
x0
4
y
∂P
∂Q
6=
.
∂x
∂y
= µ(x) [f (x)y(x) − g(x)]
=
µ(x)
Bo
rr
ad
es decir,
or
∂x µ(x) = ∂y {µ(x) [f (x)y(x) − g(x)]}
dµ(x)
= µ(x)f (x)
dx
Z
Z
Z
dµ(x)
dµ(x)
= f (x)dx ⇒
= f (x)dx ⇒ ln |µ(x)| = f (x)dx ,
µ(x)
µ(x)
µ(x) = e
R
f (x)dx
.
Esto significa que para las ecuaciones lineales de orden 1 se tiene

 P (x, y)
R
R
e f (x)dx [f (x)y(x) − g(x)] dx + e f (x)dx dy = 0 ⇒

Q(x, y)
R
f (x)dx
R
f (x)dx
= e
=
e
[f (x)y(x) − g(x)]
por lo tanto ahora es una ecuación exacta, ya que:
h R
i
R
R
∂P
⇒ ∂y e f (x)dx f (x)y(x) − e f (x)dx g(x) = f (x)e f (x)dx
∂y
h R
i
R
∂Q
⇒ ∂x e f (x)dx = f (x)e f (x)dx
∂x
168
4.1. SOLUCIONES ANALÍTICAS
Volviendo a la ecuación original multiplicada por el factor integrador que la convierte en exacta, podemos
escribir:
R
f (x)dx
f (x)y(x)dx − e
e
R
R
f (x)dx
f (x)dx
g(x)dx + e
R
dy + e
R
f (x)dx
dy
f (x)dx
f (x)y(x)dx
h
i
R
d y(x)e f (x)dx
R
f (x)dx
0
= e
R
f (x)dx
g(x)dx
R
= e f (x)dx g(x)dx
Z R
=
e f (x)dx g(x)dx + C .
in
a
y(x)e
=
r
e
m
Llegamos entonces a la fórmula que nos dará la solución general para cualquier ecuación diferencial lineal
de orden 1.
Z R
C
1
e f (x)dx g(x)dx + R f (x)dx .
(4.3)
y(x) = R f (x)dx
e
e
En realidad, lo anterior se puede formalizar con el siguiente teorema para el problema de valores iniciales.
Consultar la bibliografı́a recomendada para estudiar su demostración
Pr
eli
Teorema Sean las funciones F y ∂y F funciones contı́nuas en algún intervalo a < x < b y c < y < d que
contienen al punto (x0 , y0 ). Entonces, en algún intervalo x0 − < x < x0 + contenido en a < x < b, existe
una única solución y = y(x) del problema de valores iniciales:
dy(x)
= F (x, y) ,
dx
Ejemplo
con y(x0 ) = y0 .
2
y 0 − 2xy = ex ,
2
aquı́: f (x) = −2x y g(x) = ex . Por lo tanto, el factor integrador es:
µ(x) = e
R
f (x)dx
R
=e
−2xdx
2
= e−x .
or
La solución viene a ser:
y(x) =
e−x2
xy 0 + 3y =
4.1.11.
Z
2
2
e−x ex dx +
2
C
= ex (x + C) .
e−x2
Resuelva la ecuación
Bo
rr
ad
Ejercicio
1
sen(x)
,
x2
con x 6= 0 , y y
π
2
= 1.
Ecuaciones diferenciales no lineales y el factor integrador
Del mismo modo, y con la misma idea, podemos incorporar el factor integrador µ(x, y) para extender
la idea a ecuaciones que no sean, necesariamente lineales. Ası́ para una ecuación diferencial que pueda ser
escrita como
?
d [f (x, y)] = 0 ⇔ µ(x, y)Q(x, y)dy + µ(x, y)P (x, y)dx = 0
es decir
d [f (x, y)] =
∂f (x, y)
∂f (x, y)
dx +
dy = µ(x, y)Q(x, y)dy + µ(x, y)P (x, y)dx = 0
∂x
∂y
169
4.1. SOLUCIONES ANALÍTICAS
Entonces tendremos que la condición necesaria y suficiente para que una ecuación diferencial sea exacta es:

∂f (x, y) 

µ(x, y)P (x, y) ⇔


∂x
∂ 2 f (x, y)
∂
∂
∂ 2 f (x, y)
≡
⇔
[µ(x, y)P (x, y)] ≡
[µ(x, y)Q(x, y)]
⇒
∂y ∂x
∂x ∂y
∂y
∂x

∂f (x, y) 


µ(x, y)Q(x, y) ⇔
∂y
r
y, obviamente, esta condición de integrabilidad dependerá del µ(x, y) que propongamos. Veamos algunos
casos:
µ(x)
in
a
1. Si µ(x, y) = µ(x) entonces la condición es
∂P (x, y)
dµ(x)
∂Q(x, y)
1 dµ(x)
1
∂P (x, y) ∂Q(x, y)
=
Q(x, y) + µ(x)
⇒
=
−
∂y
dx
∂x
µ(x) dx
Q(x, y)
∂y
∂x
m
con lo cual, si se cumple que
R
∂P (x, y) ∂Q(x, y)
1 dµ(x)
1
−
= f (x) =
⇒ µ(x) = e dx f (x)
Q(x, y)
∂y
∂x
µ(x) dx
podremos deteriminar el factor integrador.
Pr
eli
Una vez identificado procedemos a integrar, formalmente f (x, y)
Z y
Z y
∂
∂f (x, y)
= µ(x)P (x, y) ≡
f (x, y) = µ(x)
Q(x, u)du + S(x) ⇒
µ(x)
Q(x, u)du + S(x)
∂x
∂x
y0
y0
y finalmente, una vez más
Z y
Z y
dS(x)
∂µ(x, u)P (x, u)
dS(x)
∂µ(x)Q(x, u)
du +
⇒ µ(x)P (x, y) =
du +
µ(x)P (x, y) =
∂x
dx
∂u
dx
y0
y0
con lo cual
Z
x
or
x0
Ejemplo
Z
y
µ(u, y0 )P (u, y0 )du ⇒ f (x, y) = µ(x)
S(x) =
Z
x
Q(x, u)du +
y0
µ(u, y0 )P (u, y0 )du + C .
x0
Bo
rr
ad
cos(y)y 0 = −ex + sen(y) .
Esta ecuación no es exacta, ya que:
x
[e − sen(y)] dx + cos(y)dy = 0 ⇒

 P (x, y)

Q(x, y)
= ex − sen(y)
⇒
=
cos(y)
∂Q
∂P
= 0 6=
= − cos(y) .
∂x
∂y
Podemos ver que el arreglo:
1
∂P (x, y) ∂Q(x, y)
− cos(y) − 0
f (x) =
−
=
= −1 ,
Q(x, y)
∂y
∂x
cos(y)
entonces, el factor integrante es exacta:
µ(x) = e
R
dx f (x)
= e−
R
dx
= e−x .
170
4.1. SOLUCIONES ANALÍTICAS
Por lo tanto, la ecuación
−x
e
x
−x
[e − sen(y)] dx+e
cos(y)dy = 0 ⇒

 P (x, y)

Q(x, y)
1 − e−x sen(y)
=
⇒
= e−x cos(y)
∂Q
∂P
=
= −e−x cos(y) .
∂x
∂y
Queda como ejercicio resolver esta ecuación diferencial.
2. Si µ(x, y) = µ(y) entonces la condición queda como
in
a
r
∂P (x, y)
∂Q(x, y)
1 dµ(x)
1
∂Q(x, y) ∂P (x, y)
du(y)
P (x, y) + µ(y)
= µ(y)
⇒
=
−
,
dy
∂y
∂x
µ(y) dx
P (x, y)
∂x
∂y
con lo cual si se cumple que
R
1
∂Q(x, y) ∂P (x, y)
1 dµ(y)
−
= f (y) =
⇒ µ(y) = e dy f (y)
P (x, y)
∂x
∂y
µ(y) dy
Ejemplo
1 + x2 y 0 + xy = 0 .
(xy)dx + 1 + x
2
Pr
eli
Esta ecuación no es exacta, ya que:
dy = 0 ⇒

 P (x, y)

Podemos ver que el arreglo:
m
y podremos deteriminar el factor integrador.
= xy
∂Q
∂P
= 2x 6=
= x.
∂x
∂y
⇒
Q(x, y)
1 + x2
=
∂Q(x, y) ∂P (x, y)
2x − x
1
1
−
=
= = f (y) ,
P (x, y)
∂x
∂y
xy
y
entonces, el factor integrante es
µ(y) = e
R
dy
y
= eln(y) = y .
or
Por lo tanto, la ecuación es exacta:

 P (x, y)
(xy 2 )dx + y + yx2 dy = 0 ⇒

Q(x, y)
= xy 2
⇒
2
=
y + yx
∂Q
∂P
=
= 2xy .
∂x
∂y
Bo
rr
ad
Queda como ejercicio resolver esta ecuación diferencial.
Ejercicios
1. Demuestre que si µ = µ(z) donde z = xy, entonces el factor integrante viene dado por
µ(z) = e
R
dz f (z)
,
donde:
∂P (x, y) ∂Q(x, y)
−
∂y
∂x
f (z) =
yQ(x, y) − xP (x, y)
Con este resultado resuelva la ecuación:
x3 + x2 y + x y 0 + y 3 + xy 2 + y = 0 .
171
4.1. SOLUCIONES ANALÍTICAS
2. Demuestre que si µ = µ(z) donde z = x/y, entonces el factor integrante viene dado por
µ(z) = e
donde:
R
dz f (z)
,
r
∂P (x, y) ∂Q(x, y)
−
y
∂y
∂x
f (z) =
yQ(x, y) + xP (x, y)
2
xy 0 = 3y .
in
a
Resuelva la ecuación:
3. Demuestre que si µ = µ(z) donde z = y/x, entonces el factor integrante viene dado por
µ(z) = e
donde:
R
dz f (z)
,
Resuelva la ecuación:
4.1.12.
Ecuación de Bernoulli
Pr
eli
3xy 0 = y .
m
∂Q(x, y) ∂P (x, y)
−
x
∂x
∂y
f (z) =
yQ(x, y) + xP (x, y)
2
La ecuación de Bernoulli, formulada por James Bernoulli2 y resuelta por su hermano Johann Bernoulli,
se caracteriza por tener la forma:
dy(x)
+ y(x)f (x) = y(x)n g(x) .
(4.4)
dx
Es fácil darse cuenta de que la ecuación de Bernoulli se reduce a una ecuación con variables separadas
cuando n = 0 y cuando n = 1 se trata de una ecuación de la forma:
or
dy(x)
= y(x) [g(x) − f (x)] .
dx
Bo
rr
ad
la cual también es de variables separables. Entonces, es la presencia del término y n lo que hace que la
ecuación no sea lineal.
Leibniz, en 1696, indicó que el cambio de variable z = y 1−n convierte la ecuación (4.4) en una ecuación
lineal.
Consideremos entonces n 6= 1, si multiplicamos ambos lados de (4.4) por (1 − n)y −n resulta:
−n dy
(1 − n)y
+ yf (x)
= (1 − n)y −n y n g(x)
dx
dy
(1 − n)y −n
+ (1 − n)f (x)y 1−n = (1 − n)g(x)
dx
d 1−n y
+ (1 − n)f (x)y 1−n = (1 − n)g(x) ,
dx
2 James Bernoulli (1654-1705), fue un matemático y cientı́fico suizo, formaba parte de la gran familia Bernoulli. En 1690 se
convirtió en la primera persona en desarrollar la técnica para resolver ecuaciones diferenciales separables.
172
4.1. SOLUCIONES ANALÍTICAS
si se hace el cambio de variable z = y 1−n se tiene
dz
+ (1 − n)f (x) z = (1 − n)g(x) .
dx
(4.5)
Ejemplo Sea la ecuación:
y 0 + xy =
x
,
y3
con y 6= 0 .
4y 3
=
=
4x
=
4x
x
y3
m
4y 3 y 0 + 4y 3 xy
4y 3 y 0 + 4xy 4
d 4
y + 4xy 4
dx
in
a
esta ecuación es de la forma (4.4) con n = −3. Si multiplicamos por 4y 3 se tiene:
r
La ecuación (4.5) es una ecuación diferencial lineal, la cual ya sabemos resolver.
con el cambio de variable z = y 4 , resulta
Pr
eli
dz
+ 4xz = 4x ,
dx
la cual es una ecuación diferencial lineal con factor integrador
µ(x) = e
R
dx f (x)
=e
R
4xdx
2
= e2x ,
Por lo tanto, la solución vendrá dada por
Z
2
2
C
C
1 h 2i
1
y(x) = 2x2
e2x (4x)dx + 2x2 = 2x2 e2x + 2x2 = 1 + Ce−2x .
e
e
e
e
Ejercicio
Resuelva la ecuación
4.1.13.
or
xy 0 + y − y 2 ln x = 0 .
Ecuación de Riccati
La ecuación de Riccati3 es conocida como una ecuación diferencial no lineal que tiene la siguiente forma:
Bo
rr
ad
dy(x)
= A(x) + B(x)y(x) + C(x)y(x)2 ,
dx
C(x) 6= 0 .
(4.6)
Esta ecuación fue estudiada por muchos matemáticos, entre ellos los propios integrantes de la familia Bernoulli. Daniel Bernoulli, hijo de John y sobrino de James Bernoulli, publicó su solución en 1724, luego de
mantenerla oculta por mucho tiempo en modo de anagrama.
Podemos seguir las recomendaciones de Euler4 quien propuso que una sustitución del tipo:
y(x) = y1 (x) +
1
,
z(x)
(4.7)
3 El conde Jacopo Francesco Riccati (1676-1754) fue un matemático veneciano, que estudió detalladamente la hidrodinámica
sobre la base de la mecánica newtoniana.
4 Leonhard Paul Euler nació el 15 de abril de 1707 en Basilea, Suiza y murió el 18 de septiembre de 1783 en San Petersburgo,
Rusia. Fue un reputado matemático y fı́sico, y es considerado uno de los más grandes matemáticos de la historia.
173
4.1. SOLUCIONES ANALÍTICAS
=0
por lo tanto:
y(x) = y1 (x) + u(x)
m
dz
= − [2 C(x)y1 + B(x)] z − C(x) .
dx
También podemos hacer la siguiente sustitución
in
a
r
donde y1 (x) es una solución particular de (4.6), convierte la ecuación de Riccati en una ecuación lineal para
z(x). Al sustituir (4.7) en (4.6) resulta lo siguiente:
2
dy1
1 dz
1
1
− 2
= A(x) + B(x) y1 +
+ C(x) y1 +
dx
z dx
z
z
dz
dy
1
−
= A(x) + B(x)y1 + C(x)y12 z 2 + [2 C(x)y1 + B(x)] z + C(x)
z2
dx
dx
dz
dy1 2
2
z + [2 C(x)y1 + B(x)] z + C(x)
−
=
A(x) + B(x)y1 + C(x)y1 −
dx
dx
{z
}
|
(4.8)
(4.9)
donde y1 (x) es una solución particular de (4.6). Esto es, al sustituir (4.9) en (4.6) resulta:
= A(x) + B(x) [y1 + u] + C(x) y12 + 2y1 u + u2
Pr
eli
du
dy1
+
dx
dx
dy1
du
+
dx
dx
du
dx
= A(x) + B(x)y1 + C(x)y12 + [B(x) + 2C(x)y1 ] u + C(x)u2
=
[B(x) + 2C(x)y1 ] u + C(x)u2 ,
es decir:
du
− [B(x) + 2C(x)y1 ] u = C(x)u2 ,
(4.10)
dx
que no es más que la ecuación de Bernoulli (4.4) con f (x) = − [B(x) + 2C(x)y1 ], g(x) = C(x) y n = 2.
or
Ejemplo Resolver la siguiente ecuación de Riccati
y0 = y2 −
2
,
x2
Bo
rr
ad
conociendo la solución particular y1 = 1/x.
En lugar de hacer todo el desarrollo anterior, podemos reconocer de manera fácil que:
A(x) = −
2
,
x2
B(x) = 0 ,
C(x) = 1 .
Tenemos entonces dos posibilidades: la primera es utilizar la ecuación lineal (4.8)
dz(x)
2
1
c
=−
z(x) − 1 ⇒ z(x) = − x + 2 .
dx
x
3
x
por lo tanto, al volver a la variable y(x):
y(x) =
1
1
+
x − 31 x +
c
x2
=−
2 x3 + 3 c
.
x (x3 − 3 c)
174
4.1. SOLUCIONES ANALÍTICAS
La segunda, es resolver la ecuación de Bernoulli (4.10) con n = 2
du(x)
2
3x2
−
u(x) = u(x)2 ⇒ u(x) = − 3
,
dx
x
x − 3c
y en función de y(x)
Resuelva la siguiente ecuación de Riccati
y 0 = x3 +
4.1.14.
2
1
y − y2 ,
x
x
y1 (x) = −x2 .
in
a
Ejercicios
1
3x2
2 x3 + 3 c
− 3
=−
.
x
x − 3c
x (x3 − 3 c)
r
y(x) =
Un tipo muy especial de ecuación diferencial no lineal
y0 = −
y (Axp y q + Bxr y s )
,
x (Cxp y q + Dxr y s )
Pr
eli
donde A, B, C, D son constantes.
La ecuación diferencial puede ser escrita como:
m
Vamos a estudiar la siguiente ecuación diferencial:
y (Axp y q + Bxr y s ) dx + x (Cxp y q + Dxr y s ) dy = 0 .
Y se puede demostrar que el factor integrante será de la forma
µ(x, y) = xa y b ,
donde a y b son constantes a determinar. Veamos un ejemplo.
Ejemplo
entonces:
or
y 2x2 y 3 + 3 dx + x x2 y 3 − 1 dy = 0 ,

 P (x, y)
= y 2x2 y 3 + 3
Q(x, y)
= x x2 y 3 − 1
⇒
∂P
∂Q
= 3x2 y 3 − 1 6=
= 8x2 y 3 + 3
∂x
∂y
Bo
rr
ad

La ecuación no es exacta.
Si µ(x, y) = xa y b es un factor integrante, resulta que:
xa y b 2x2 y 4 + 3y dx + xa y b x3 y 3 − x dy = 0
2x2+a y 4+b + 3xa y 1+b dx + x3+a y 3+b − x1+a y b dy = 0
y será exacta si ∂y P = ∂x Q, esto es
∂y P = 2x2+a (4 + b)y 3+b + 3xa (1 + b)y b = (3 + a)x2+a y 3+b − (1 + a)xa y b = ∂x Q ,
si multiplicamos por 1/(xa y b ) la ecuación anterior queda como:
2(4 + b)x2 y 3 + 3(1 + b) = (3 + a)x2 y 3 − (1 + a) ,
175
4.1. SOLUCIONES ANALÍTICAS
igualando coeficientes resulta

 8 + 2b =

3+a
⇒ a=
3 + 3b = −1 − a
7
,
5
9
b=− .
5
Otros métodos
in
a
4.1.15.
r
Por lo tanto el factor integrador es µ(x, y) = x7/5 y −9/5 . Queda como ejercicio verificar que con este factor
integrador la ecuación original es exacta.
Muchas veces, la solución de una ecuación diferencial se puede obtener utilizando más de un método. Si
fallan los métodos vistos anteriormente entonces podemos utilizar un poco de ingenio matemático. Veamos
los siguientes ejemplos
1. Resolvamos la ecuación
m
xy 0 = y − y 2 − x2 ,
la ecuación no es del tipo con coeficientes homogéneos

 P (x, y) = y − y 2 − x2
2
2
y − y − x dx − xdy = 0 ⇒

Q(x, y) = −x
ydx − xdy − y 2 + x2 dx
or
ydx − xdy
x2
hyi
−d
x
y
d
− y 2 x
+1
x
Z
−
=
0
y2
=
+ 1 dx , x 6= 0
x2
y 2
+ 1 dx
=
x
=
dx
Z
y
d xy
= x + C ⇒ y(x) = −x tan(x + c) ,
=
dx
⇒
−
arc
tg
y 2
x
+1
x
Bo
rr
ad
integrando:
∂P
∂Q
= −1 6= 1 − 2y =
.
∂x
∂y
Pr
eli
pero podemos hacer lo siguiente:
⇒
2. Resolver
y 0 = −2x + 2 x2 + y − 1
32
x 6= 0 .
.
Podemos hacer la siguiente sustitución:
z = x2 + y − 1
Por lo tanto
⇒
2
dz
− 2x = −2x + 2z 3
dx
dy
dz
=
− 2x
dx
dx
⇒
2
dz
= 2z 3
dx
176
4.1. SOLUCIONES ANALÍTICAS
Nos queda entonces una ecuación separable
Z
Z
dz
− 32
z dz = 2dx
2 = 2dx ⇒
z3
⇒
1
z 6= 0
3z 3 = 2x + C ,
regresando a la variable original
1
3 x2 + y − 1 3 = 2x + C
⇒
3
27 x2 + y − 1 = (2x + C) ,
x2 + y − 1 6= 0
1
3
(2x + C) .
27
in
a
y(x) = 1 − x2 +
r
para finalizar, despejamos lo que será nuestra solución
Es bueno acotar y queda como ejercicio, demostrar que y(x) = 1 − x2 también es una solución.
3. Resolver
2 cos(y)y 0 + sen(y) = x2 csc(y) ,
y 6= 0 .
m
Podemos verificar que los métodos anteriores no funcionan, pero si multiplicamos por sen(y):
Pr
eli
2 cos(y)sen(y)y 0 + sen2 (y) = x2 csc(y)sen(y)
d 2 sen (y) + sen2 (y) = x2
dx
Esta es una ecuación lineal para sen2 (y), si hacemos z = sen2 (y) tenemos:
dz
+ z = x2
dx
donde el fácil ver que el factor integrador es µ(x) = ex . Por lo tanto:
Z
C
1
C
1
x2 ex dx + x = x 2 − 2 x + x2 ex + x = 2 − 2 x + x2 + Ce−x ,
z= x
e
e
e
e
or
la solución es entonces:
h p
i
y(x) = arcsen ± 2 − 2 x + x2 + Ce−x ,
Solución paramétrica: Ecuaciones no resueltas respecto a la derivada
Bo
rr
ad
4.1.16.
y 6= 0 .
Podemos preguntarnos sobre los casos donde no es posible despejar y 0 de la ecuación diferencial ordinaria
de primer orden: F[x, y(x), y 0 (x)] = 0.
Varias situaciones pueden aparecer:

F[y 0 (x)] = 0








F[x, y 0 (x)] = 0

0
F[x, y(x), y (x)] = 0 ⇒


F[y(x), y 0 (x)] = 0







F[x, y(x), y 0 (x)] = 0
Veamos todos estos casos:
177
4.1. SOLUCIONES ANALÍTICAS
1. F[y 0 (x)] = 0
Como F[y 0 (x)] = 0 no contiene ni a x ni a y(x), entonces sı́ existe al menos una raı́z κi de la ecuación
F[y 0 (x)] = 0 entonces
y 0 = κi
⇒
⇒
y(x) = κi x + C
Por lo tanto
κi =
y(x) − C
.
x
y(x) − C
F
=0
x
r
in
a
es la integral de la ecuación diferencial.
Ejemplo La solución de la ecuación
(y 0 )7 − (y 0 )5 + y 0 + 3 = 0 ,
y(x) − C
x
7
−
y(x) − C
x
5
+
y(x) − C
+3=0
x
m
es
2. F[x, y 0 (x)] = 0
Pr
eli
Si se puede despejar x, entones podemos hacer los siguientes cambios de variable


R
dx = f 0 (t) dt
g(t)f 0 (t) dt + C
 x = f (t)
 y(x) =
0
⇒
⇒ dy = g(t)f (t) dt ⇒
 0

y = g(t)
dy = g(t) dx
x = f (t)
Este tipo de soluciones se conocen como soluciones parametrizadas.
Ejemplo La ecuación
(y 0 )3 − y 0 = 1 + x .
or
Hacemos entonces los siguientes cambios de variables

dx = (3t2 − 1) dt
 x = t3 − t − 1
⇒
 0
y = t
dy = t dx
integrando:
=
R
Bo
rr
ad
 R
 dy

x =
t(3t2 − 1) dt
⇒
t3 − t − 1

 y(x)

=
x =
⇒ dy = t(3t2 − 1) dt
t2
2
4 (3t
− 2) + C
t3 − t − 1
3. Caso: F[y(x), y 0 (x)] = 0
a) Se puede despejar y(x), es decir: y = f (y 0 ). Entonces hacemos los siguientes cambios de variables:
 0
dy = z dx
 y = z
df dz
df dz
⇒
⇒ z(x) =
⇒ dx =

dz dx
dz z
y = f (z)
dy = f 0 (z) z 0 dx
Por lo tanto, la solución paramétrica será

 x =

y
=
R
df dz
dz z
+C
f (z)
178
4.1. SOLUCIONES ANALÍTICAS
La ecuación
Tenemos entonces:
 0
 y
= z
⇒ dx = (2az + 3bz 2 )
= az 2 + bz 3
y

la solución paramétrica es :

R
(2a + 3bz) dz + C
 x =

y
=
a y b = constantes
⇒
az 2 + bz 3

 x

dz
z
r
y = a(y 0 )2 + b(y 0 )3 ,
2az + 23 bz 2 + C
=
in
a
Ejemplo
.
= az 2 + bz 3
y
z(x) = −
m
En el caso de que queramos obtener y(x) podemos intentar despejar z de la primera ecuación, en
este caso esto es posible
i
p
1 h
2 a ± 4 a2 + 6 b(x − C) ,
3b
y(x) =
Pr
eli
y sustituir en la segunda:
2 p
p
1 2 a ± 4 a2 + 6 b(x − C)
a ∓ 4 a2 + 6 b(x − C) .
2
27b
b) No se puede despejar y 0 ni y de F[y(x), y 0 (x)] = 0, pero puede existir un parámetro tal que

dy = f 0 (t) dt
 y = f (t)
f 0 (t)
dt = dx
⇒
⇒ f 0 (t) dt = g(t) dx ⇒
 0
g(t)
y = g(t)
dy = g(t) dx
or
La solución paramétrica es entonces la siguiente:
 R f 0 (t)

g(t) dt = x + C

.
= f (t)
La ecuación
Bo
rr
ad
Ejemplo
y
y 2/3 + (y 0 )2/3 = 1 ,
Tenemos entonces:

 y
=
y0
=

cos3 (t)
⇒
−
sen3 (t)
3 cos2 (t)sen(t)
dt = dx
sen3 (t)
Por lo tanto

R
 −3 cot2 (t)dt =

y
=
x+C
⇒
cos3 (t)

 x
=
3 [cot(t) + t] + C
y
=
cos3 (t)

179
4.1. SOLUCIONES ANALÍTICAS
4. Caso: F[x, y(x), y 0 (x)] = 0
a) Si se puede despejar la función y, entonces y = G(x, y 0 ). En este caso consideramos la siguiente
sustitución: y 0 = z(x)
y = G(x, y 0 ) = G(x, z)
⇒
dy = ∂x G dx + ∂z G dz = z dx ,
⇒

 φ(x, z, C)
=
0
y
=
G(x, z)

in
a
dz
z = ∂x G + ∂z G
dx
r
por lo tanto:
b) Si se puede despejar a la variable x, entonces x = H(y, y 0 ). Como en el caso anterior tenemos la
siguiente sustitución: y 0 = z(x)
x = H(y, y 0 ) = H(y, z)
⇒
dx = ∂y H dy + ∂z H dz .
m
Si multiplicamos por z, se tiene
zdx = z [∂y H dy + ∂z H dz]
Pr
eli
por lo tanto:
dy = z [∂y H dy + ∂z H dz]
⇒

 φ(y, z, C)
x

=
0
= H(x, z)
Aquı́ podemos considerar dos tipos de ecuaciones bien conocidas:
y = xf (y 0 ) + g(y 0 )
→
Ecuac. de Lagrange
y un caso particular de la ecuación de Lagrange:
→
Ecuac. de Clairaut
or
y = xy 0 + g(y 0 )
En cuanto a la ecuación de Clairaut podemos notar que al reemplazar y 0 por el parámetro m, lo que
se obtiene es la ecuación de la lı́nea recta
Bo
rr
ad
y = mx + f (m) .
Por ejemplo, la solución de la ecuación de Clairaut: y = xy 0 + (y 0 )2 es la familia de rectas con pendiente
m, es decir: y(x) = mx + m2 .
Ejemplos
a) Sea la ecuación
Tenemos entonces:
 0
 y = z

y
=
xz 2 − z −1
y = x(y 0 )2 − (y 0 )−1
dy
=
y = G(x, y 0 )
⇒
z dx
⇒
dy
=
z 2 dx + 2xz +
1
z2
dz
1
⇒ z dx = z dx + 2xz + 2
z
2
dz
180
4.1. SOLUCIONES ANALÍTICAS
es decir:
1
=
dx
dz
=
dx
+ 2x
dz
2x
dx
+
dz
z−1
(z − 1)
=
=
r
=
in
a
z
1
dz
z + 2xz + 2
z
dx
dz
1
z + 2x + 3
z
dx
dx
1
z
+ 2x + 3
dz
z
1
− 3
z
1
− 3
.
z (z − 1)
2
Pr
eli
m
Esta última ecuación es una ecuación diferencial lineal, por lo tanto, la sabemos resolver
Z R
1
C
R
x(z) =
e f (z)dz g(z)dz + R f (z)dz
e f (z)dz
e
Z R
2x
1
1
C
z−1 dz
R 2
=
e
−
dz + R 2x dz
3
dz
z (z − 1)
e z−1
e z−1
Z
z−1
C
1
dz +
= −
(z − 1)2
z3
(z − 1)2
2
2 Cz + 2 z − 1
=
2
2 (z − 1) z 2
or
La solución, en forma paramétrica, a la ecuación diferencial es entonces

2 z(Cz + 1) − 1


 x(z) =
2
2 (z − 1) z 2
.



y(x) = xz 2 − z −1
b) Consideremos la ecuación
Bo
rr
ad
y = xy 0 +
a1
,
2 y0
donde a es una constante.
Como en el caso anterior y = G(x, y 0 ). Entonces:
 0
dy = z dx
 y = z
⇒

a
y = xz + 2z
dy = z dx + x −
a
2z 2
dz
a ⇒ z dx = z dx + x − 2 dz
2z
con un poco de álgebra se tiene
z
0
=
=
a dz
z + x− 2
2z
dx
a dz
⇒
x− 2
2z
dx
a
x= 2
2z
r
⇒
z=±
a
2x
181
4.1. SOLUCIONES ANALÍTICAS
por lo tanto, un conjunto de la soluciones particulares son
r
r
a 2x
a
y(x) = ±x
±
.
2x 2
a
Y la familia 1-paramétrica de soluciones será: y(x) = xC +
a
.
2C
r
El método de las envolventes
m
in
a
Hemos descrito varios métodos para obtener una familia 1-paramétrica de soluciones a la ecuación
F[x, y(x), y 0 (x)] = 0. Si ésta familia de soluciones f (x, y, C) = 0 no es una solución general, entonces el
problema de encontrar una solución particular puede llegar a ser complejo. Sin embargo, en algunos casos,
existe un método para encontrar soluciones particulares de una ecuación diferencial de primer orden, este
método tiene que ver con el concepto de envolvente de una familia de curvas. Primero veamos que significa
una envolvente de manera conceptual
Una curva Γ se denomina una envolvente de una familia de curvas f (x, y, C) = 0 si se cumplen las
siguientes dos propiedades
1. En cada punto de la envolvente existe un único miembro de la familia tangente al punto.
Pr
eli
2. Todo miembro de la familia de curvas es tangente a la envolvente en un punto distinto de la envolvente.
El siguiente teorema nos suministra una condición suficiente para que exista una envolvente de la familia
de curvas f (x, y, C) = 0.
Teorema Si la función f (x, y, C) = 0 es una función dos veces diferenciable para un conjunto de valores
x, y, C, y si para este conjunto de valores se cumple que:
f (x, y, C) = 0 ,
∂x f
∂c f (x, y, C) = 0
∂y f
∂cc f 6= 0 ,
or
6= 0 ,
∂cx f
∂cy f
Bo
rr
ad
entonces, la familia de curvas f (x, y, C) = 0 tiene una envolvente cuya ecuación paramétrica estará dada
por:

 f (x, y, C) = 0

∂c f (x, y, C)
=
0
Ejemplos
1. Veamos si la familia de curvas:
y = cos(x + C) ,
posee una envolvente.
Tenemos entonces:
f (x, y, C) = y − cos(x + C) ⇒ ∂c [y − cos(x + C)] = sen(x + C) = 0 ⇒ x + C = π/2
182
4.1. SOLUCIONES ANALÍTICAS
por otro lado
sen(x + C)
1
cos(x + C)
0
= − cos(x + C) ,
∂cc f = cos(x + C) ,
sen(x + C)
=
0
conforman una envolvente a la familia y = cos(x + C).
in
a

r
La función cos(x + C) es diferente de cero si x + C 6= π/2, por lo tanto, todos los valores que excluyan
a x + C = π/2 y que satisfacen la ecuación paramétrica

 y − cos(x + C) = 0
Podemos notar lo siguiente, si tomamos la primera de estas curvas: y = cos(x + C), la elevamos al
cuadrado y sumamos con la segunda también elevada al cuadrado, resulta:
⇒
y = ±1 .
m
y 2 = cos2 (x + C) + sen2 (x + C) = 1
Las rectas y = 1 y y = −1 son las envolventes de y = cos(x + C).
2. Encontrar las envolventes de
Como en el ejemplo anterior,
Pr
eli
y 2 = 2xC − C 2 .
f (x, y, C) = y 2 − 2xC + C 2 ⇒ ∂c [y 2 − 2xC + C 2 ] = −2x + 2C = 0 ⇒ x = C
−2C
2y
−2
0
= 4y 6= 0 ,
∂cc f = 2 6= 0 ,
or
Aquı́, y 6= 0. La envolvente tiene entonces su forma paramétrica dada por
 2

 y − 2xC + C 2 = 0
 y
⇒ y 2 − x2 = 0 ⇒


x = C
y
= x
= −x
Bo
rr
ad
Envolventes y soluciones
Sea f (x, y, C) = 0 una familia 1-paramétrica de soluciones a la ecuación diferencial y 0 = f (x, y). Para
esta familia puede existir o no una envolvente, si la envolvente existe, entonces se tiene que en cada punto
de la envolvente hay un miembro de la familia de soluciones tangente a la envolvente. Esto significa que la
curva envolvente en cada uno de sus puntos tiene la misma pendiente y 0 que las curvas integrales, y por lo
tanto, cada envolvente satisface la ecuación diferencial y 0 = f (x, y).
Podemos decir entonces, que una envolvente de una familia de soluciones de y 0 = f (x, y) es también
una solución de la ecuación diferencial. La inversa de esta afirmación no tiene porque ser verdadera, es
decir, una solución particular, que no sea obtenida a partir de la familia 1-paramétrica de soluciones, no es
necesariamente una envolvente.
183
4.1. SOLUCIONES ANALÍTICAS
Ejemplos
1. Utilizando el método de las envolventes encontrar una solución particular de
1
y 0 = (1 − y 2 ) 2 ,
que no sea obtenible de la familia de soluciones y = cos(x + C).
r
Como vimos en el ejemplo anterior, y = 1 y y = −1 son envolventes de y = cos(x + C). Por lo tanto,
tenemos dos soluciones particulares a la ecuación diferencial: y = 1 y y = −1.
in
a
2. Encontrar una solución particular de
9(y 0 )2 (2 − y 2 ) = 4(3 − y) ,
no obtenible de su solución (x − C)2 = 3y 2 − y 3 .
Veamos si esta familia de soluciones tiene envolventes
m
f (x, y, C) = (x − C)2 − 3y 2 + y 3 ⇒ ∂c [(x − C)2 − 3y 2 + y 3 ] = −2(x − C) = 0 ⇒ x = C
Por otro lado,
Pr
eli
2(x − C) −6y + 3y 2
= −6y(2 − y) 6= 0
2
0
∂cc f = 2 6= 0 ,
Se tiene que y 6= 0 y y 6= 2. La envolvente tiene entonces su forma paramétrica dada por


 (x − C)2 − 3y 2 + y 3 = 0
 y = 0
⇒ −y 2 (3 − y) = 0 ⇒


x = C
y = 3
or
La solución y = 0, no se puede considerar ya que el determinante anterior tiene que ser diferente de
cero. Por lo tanto, una solución particular es la recta y = 3.
3. Resuelva la ecuación de Clairaut
y = xy 0 + (y 0 )2
Bo
rr
ad
y estudie sus posibles envolventes.
Esta es una ecuación del tipo y = G(x, y 0 ). Por lo tanto
 0
dy = z dx
 y = z
⇒

y = xz + z 2
dy = z dx + (x + 2z) dz
es decir:
z dx = z dx + (x + 2z) dz
dz
⇒ x = −2z
z
dx
Esto nos permite encontrar una solución particular de la ecuación diferencial, ya que
z=−
0=
x
2
x
⇒
⇒
+2
y = xz + z 2
⇒
y(x) = −
x2
.
4
184
4.2. SOLUCIONES NUMÉRICAS
Si consideramos y(x) = xC + C 2 , que es la familia de soluciones de la ecuación diferencial, entonces al
hacer un estudio sobre las envolventes encontramos lo siguiente
f (x, y, C) = y − xC − C 2 ⇒ ∂c [y − xC − C 2 ] = −x − 2C = 0 ⇒ x = −2C
Por otro lado,
−1
0
= 1 6= 0
∂cc f = −2 6= 0 ,
r
1
La envolvente tiene entonces su forma paramétrica dada por

 y − xC − C 2 = 0
x2
⇒ y+
=0

4
x = −2C
y(x) = −
x2
.
4
m
Ejercicios
⇒
in
a
−C
1.
y0 =
√
y − x,
2.
Pr
eli
Encuentre, utilizando el método de las envolventes, soluciones particulares no obtenibles de la familia de
soluciones.
1
y = x + (x + c)2 ,
4
y 0 = 3y 2/3 ,
3.
y = xy 0 + 3
p
1 + (y 0 )2 ,
4.
p
1 + C2 ,
y > 0 , x2 < 9 .
y = Cx + ln C .
or
5.
y = (x − c)3 .
y = Cx + 3
y = xy 0 + ln y 0 ,
x ≤ y ≤ x + 1.
y = xy 0 − (y 0 )2/3 .
Soluciones numéricas
Bo
rr
ad
4.2.
4.2.1.
Las ideas generales
Dada una ecuación diferencial de segundo orden de la forma
d2 x(t)
d x(t)
=
F
,
x(t),
t
dt2
dt
siempre se puede convertir en un sistema de dos ecuaciones lineales de primer orden, al extender el espacio
de variables de la forma
)
(
d x(t) def
d q(t)
2
d
x(t)
d
x(t)
=
p(t)
= p(t)
dt
dt
⇒
=F
, x(t), t ⇔
d p(t)
def
2
dt
dt
=
F
(p(t),
q(t), t)
x(t) = q(t)
dt
185
4.2. SOLUCIONES NUMÉRICAS
⇔
d Q(t)
= F (Q(t),t)
dt
in
a
Ası́ dado un conjunto de potenciales elśticos y las fuerzas que de ellos derivan,


x
−k kxk
kx
←p=1












 1 kx2 ← p = 2



−kx


 2

d V (x)
⇒ Fk (x) = −
V (x) =
⇒ Fk (x) =
1
3


dx
←p=3
−kx2


3 kx






.
..


..


.






p
1
p−1
k
kxk
−k kxk
p
r
este sistema puede ser re-arreglado en forma vectorial
q(t)
d
p(t)
p(t)
=
F (p(t), q(t), t)
dt
Pr
eli
m
el sistema dinámico correspondiente a la ecuación de Newton será


x(t)
 
d 
p(t)
p(t)
d Q(t)
= F (Q(t),t) ⇒
=
dt
dt
p−1
1
m [Fext (x(t), t)] − k kx(t)k
x
kxk
Métodos y su clasificación
x(t)
kx(t)k


or
0
Dada una ecuación diferencial de primer orden, dy(x)
dx = y (x) = f (y(x), x), con yk el valor de la función
obtenida con el método, con yk = y(xk ), donde xk = x0 + kh y h el paso. Diremos que un método es
de paso único si la determinación de yk+1 sólo involucra un único valor de yk y múltiple paso si para
calcularlo se utilizan varios valores yk , yk−1 , · · · , yk−p . Por otra parte se denomina un método explı́cito si
para determinar yk+1 se utilizan valores anteriores yk , yk−1 , · · · , yk−p y implı́cito si se utilizan una función
del mismo valor yk+1 . Ası́
yk+1 = yk−1 + 2h f (xk , yk )
representa un método explı́cito de paso único mientras que
Bo
rr
ad
yk+1 = yk +
h
[f (xk , yk ) + f (xk+1 , yk+1 )]
2
será implı́cito de múltiples pasos.
El rebusque de Taylor
Tal y como hemos dicho arriba, dada una ecuación diferencial, su solución a través de un método de paso
único puede ser escrita como
y 0 (x) = f (y(x), x) ⇒ yk+1 = yk + ϕ (xk , yk , h)
con h = xi+1 − xi ;
Lo primero que se puede hacer es expandir por Taylor alrededor del punto x = xk
y(x) = y(xk ) + (x − xk ) y 0 (xk ) +
1
1
2
n
(x − xk ) y 00 (xk ) + · · · +
(x − xk ) y (n) (xk ) + · · ·
2!
n!
186
4.2. SOLUCIONES NUMÉRICAS
e identificamos
y(xk ) → yk y 0 (x) = f (y(x), x)
y 0 (xk ) → f (yk , xk )
y 00 (xk ) → f 0 (yk , xk ) =
∂f
∂x
x=xx
y=yk
+
∂f
∂y
x=xx
y=yk
yk0
in
a
r
y 000 (xk ) → f 00 (yk , xk ) = ∂x f 0 + ∂y f 0 yk0 = ∂xx f + (∂xy f ) yk0 + [∂yx f + (∂yy f ) yk0 ] yk0 + ∂y f yk00
..
.
por lo que reconstruimos la serie de Taylor hasta el orden que podamos o requiramos
yn+1 = yn + h f (yk , xk ) +
1 2 0
1
1 n (n−1)
h f (yk , xk ) + h3 f 00 (yk , xk ) + · · · +
h f
(yk , xk ) + · · ·
2!
3!
n!
quedando acotado el error por
4.2.2.
1
hn+1 f (n) (y(ξ), x(ξ))
(n + 1)!
La idea de la integración y los métodos
m
εred =
Pr
eli
La idea de integrar una ecuación diferencial ordinaria puede ilustrarse, formalmente de la siguiente forma
Z xk+1
y 0 (x) = f (y(x), x) ⇒ yk+1 = yk +
dξ f (ξ, y(ξ))
xk
entonces el método se centra en como se aproxima la función dentro de la integral
Euler
f (xk , yk )
Euler Mejorado o Heuns
1
2 [f (xk , yk ) + f (xk+1 , yk+1 )]
Se aproxima la función con en el punto anterior
⇒ yk+1 = yk + h f (xk , yk )
Se aproxima la función mediante un promedio en los extremos
⇒ yk+1 = yk + h2 [f (xk , yk ) + f (xk+1 , yk+1 )]
h
2
[f (xk , yk ) + f (xk+1 , yk + h f (xk , yk ))]
or
⇒ yk+1 = yk +
Bo
rr
ad
con h = xi+1 − xi el paso de integración. Nótese además que hemos utilizado Euler otra vez para expresar
yk+1 = yk+1 (yk , xk )
El Método de Euler constituye una expansión por Taylor hasta primer orden por lo que el error es
claramente de segundo orden por cuanto si comparamos con la expansión en series de Taylor correspondiente
tendremos
yk+1 = yk + h
kεtot k ∝
dy
dx
h2 d2 y
2! dx2
+
x=xk
h2 d2 y
2! dx2
+ ···
x=xk
x=xk
El método de Euler y el problema de valores iniciales
Este método si bien no se utiliza en la práctica en su forma estándar para ecuaciones diferenciales
ordinarias, si ilustra el proceso de discretización de una ecuación diferencial y su solución mediante métodos
numéricos.
187
4.2. SOLUCIONES NUMÉRICAS
Para resolver la ecuación de un oscilador armónico libre que parte del reposo, i.e.
d2 φ(t)
+ ω02 φ(t) = 0
dt2
con: ω02 =
k
;
m
φ (t0 ) = 1;
y
dφ(t)
dt
=0
t=t0
d2 φ(t)
1
1
≈ 2 [φ(ti+1 ) − 2φ(ti ) + φ(ti−1 )] ≡ 2 [φi+1 − 2φi + φi−1 ]
dt2
h
h
in
a
h = ti+1 − ti ;
con lo cual la ecuación del oscilador libre queda como
d2 φ(t)
+ ω02 φ(t) = 0
dt2
r
en la cual φ(t) representa la posición de un cuerpo de masa m unido a un resorte de constante elástica k.
Discretizando mediante diferencia centrada
⇒ φi+1 − 2 − h2 ω02 φi + φi−1 = 0
φ0 ≡ φ (t = t0 ) = 1
Los Métodos de Runge-Kutta
⇒ φ1 ≈ φ0
Pr
eli
dφ(t)
dt
m
esta última ecuación es la versión en diferencias finitas de la ecuación diferencial y es claro que se convierte
en una ecuación algebraica. Finalmente, los dos valores iniciales para la iteración φ0 y φ1 surgen de las
condiciones iniciales
=0
t=t0
Es el conjunto de métodos más populares y de mayor uso. La idea del método de Runge-Kutta es producir
resultados equivalentes a desarrollos en Taylor de orden superior a Euler en métodos de un único paso por
lo tanto
Z x
k+1
y 0 (x) = f (y(x), x) ⇒ yk+1 = yk +
dξ f (ξ, y(ξ))
xk
or
y se aproxima la función con un promedio ponderado.
f (ξ, y(ξ)) ≈ [α f (yk , xk ) + β f (yk + δ f (yk , xk ) hk , xk + γ hk )]
con
hk = xk+1 − xk
donde α, β, γ y δ son los pesos estadı́sticos a ser determinados. Por lo tanto
Bo
rr
ad
yk+1 = yk + [α f (yk , xk ) + β f (yk + δ f (yk , xk ) hk , xk + γ hk )] hk
Expandiendo por Taylor de dos variables
g (x + λ, y + µ) = g (x, y) + [λ ∂x g + µ ∂y g] +
1 2 2
λ ∂x g + 2λµ ∂xy g + µ2 ∂y2 g + · · ·
2!
tendremos
yk+1 = yk + [α + β] fk hk + β [γ ∂x fk + δ fk ∂y fk ] h2k +
2
γ 2
δ2 2 2
+β
∂ fk + 2γδ fk ∂xy fk +
f ∂ fk h3k + · · ·
2 x
2 k y
188
4.2. SOLUCIONES NUMÉRICAS
con fk = f (yk , xk ) y como se ve claramente, queda libertad para escoger
γ=δ=1
yk+1 = yk + fk hk +
Euler Modificado
α = 0;
β = 1;
1
2
[∂x fk + fk ∂y fk ] h2k
γ=δ=
yk+1 = yk + fk hk +
1
1
2
2 ∂x fk
+
1
2
fk ∂y fk h2k
r
α = β = 12 ;
in
a
Euler Mejorado o Heuns
Runge-Kutta de cuarto orden aproxima la función f (ξ, y(ξ)) en cuatro puntos intermedios en el intervalo
xk < x < xk+1 por lo cual
yk+1 = yk + [α κ1 + β κ2 + γ κ3 + δ κ4 ] hk
podemos plantearnos varias formas de hacerlo
hk
[κ1 + 2κ2 + 2κ3 + κ4 ]
6
donde
Pr
eli
κ1 = f (xk , yk )
1
1
κ2 = f xk + hk , yk + κ1
2
2
1
1
κ3 = f xk + hk , yk + κ2
2
2
m
yk+1 = yk +
κ4 = f (xk + hk , yk + κ3 )
o también
yk+1 = yk +
hk
[κ1 + 3κ2 + 3κ3 + κ4 ]
8
Bo
rr
ad
or
donde
κ1 = f (xk , yk )
1
1
κ2 = f xk + hk , yk + κ1
3
3
1
1
κ3 = f xk + hk , yk + κ2
3
3
κ4 = f (xk + hk , yk + κ3 )
Más aún el método de Fehlberg de 4/5 orden se puede escribir como
yk+1 = yk + hk [C1 κ1 + C2 κ2 + C3 κ3 + C4 κ4 + C5 κ5 + C6 κ6 ] + O(h6 )
189
4.2. SOLUCIONES NUMÉRICAS
κ1 = f (xk , yk )
κ2 = f (xk + a2 hk , yk + b21 κ1 )
κ3 = f (xk + a3 hk , yk + b31 κ1 + b32 κ2 )
κ4 = f (xk + a4 hk , yk + b41 κ1 + b42 κ2 + b43 κ3 )
..
.
in
a
la cual puede ser redefinida y truncada para obtener
h
i
ỹk+1 = yk + hk C̃1 κ1 + C̃2 κ2 + C̃3 κ3 + C̃4 κ4 + C̃5 κ5 + O(h5 )
r
κ6 = f (xk + a6 hk , yk + b61 κ1 + b62 κ2 + b63 κ3 + b64 κ4 + b65 κ5 )
Métodos multipaso
Pr
eli
m
Los métodos multipaso se basan encontrar el valor yn+k como una función de k valores precedentes:
yn+k−1, yn+k−2, yn+k−3, · · · yn . Para k = 1, retomamos los métodos de paso único del tipo Euler o RungeKutta. Será explı́cito (abierto) si el valor yn+k puede ser calculado directamente o implı́cito (abierto) si la
fórmula contiene el valor yn+k deseado.
Otra vez la idea está en aproximar el argumento de la integración formal
Z xi+1
y 0 (x) = f (y(x), x) ⇒ yi+1 = yi +
dξ f (ξ, y(ξ))
xi−k
nótese en este caso que el punto i + 1 recibe la contribución de k puntos anteriores. El integrando f (ξ, y(ξ))
lo aproximaremos con un polinomio de interpolación de Newton de orden n. Tal que
f (ξ, y(ξ)) → f (ξ) = pn (ξ) + Rn (ξ)
con pn (ξ) el polinomio de interpolación y Rn (ξ) el residuo. Donde
i
pn (x) = f [xn ] + (x − xn ) f [xn , xn−1 ] + (x − xn ) (x − xn−1 ) f [xn , xn−1 , xn−2 ] + · · ·
or
+ (x − xn ) (x − xn−1 ) (x − xn−2 ) · · · (x − x1 ) f [xn , xn−1 , xn−2 , xn−3 , · · · x0 ]
Rn (x) = (x − xn ) (x − xn−1 ) (x − xn−2 ) · · · (x − x0 )
f (n+1) (ζ)
(n + 1)!
con x0 < ζ < xn
Bo
rr
ad
haciendo pn (x) ≡ f (xn + αh) con α cero o negativo de tal modo que en términos del operador diferencias
atrasada ∇f (x) = f (x) − f (x − h) siendo h el incremento
α (α + 1) 2
α (α + 1) (α + 2) 3
∇ fn +
∇ fn +
2!
3!
α (α + 1) (α + 2) · · · (α + r − 1) r
+
∇ fn
r!
f (xn + αh) = fn + α∇fn +
190
4.2. SOLUCIONES NUMÉRICAS
donde hemos denotado fn ≡ f (xn , y(xn )), ∇m fn ≡ ∇m f |x=xn , y α = (x − xi ) /h Por lo tanto
Z xi+1
yi+1 = yi +
dξ f (ξ, y(ξ))
xi−k
Z 1
in
a
yi+1
dα f (xn + αh)
−k
2
3
α2
α 1 ∇2 fi
α
∇ fi
2
2
= yi + h αfi +
∇fi + α
+
+α
+α+1
+
2
3
2
2!
4
3!
4
1
3
3α2
11α
∇ fi
α
+
+
+3
+ ···
+α2
5
2
3
4!
−k
r
= yi + h
Pr
eli
m
por razones de conveniencia que son evidentes al hacer el desarrollo, se toman las fórmulas para k = r y k
impar y obtendremos

5
∇2 fi + 38 ∇3 fi
 yi+1 = yi + h fi + 21 ∇fi + 12
k=0
⇒
r=3

251 5 (4)
 R = 720 h f (ζ)
 yi+1 = yi + h [2fi + 0∇fi ]
k=1
⇒
r=1

1 3 (2)
 R = 3 h f (ζ)
 yi+1 = yi + h 4fi − 4∇fi + 83 ∇2 fi + 0∇3 fi
k=3
⇒
r=3

14 5 (4)
 R = 45 h f (ζ)
∇4 fi
 yi+1 = yi + h 6fi − 12∇fi + 15∇2 fi − 9∇3 fi + 33
10
k=5
⇒
r=5

41 7 (6)
R = 140
h f (ζ)
Bo
rr
ad
or
y al expresar las diferencias atrasadas las fórmulas explı́citas (abierta) quedan expresadas como
k=0
h
y
= yi + 24
[55fi − 59fi−1 + 37fi−2 − 9fi−3 ]
R ∼ O h5
r = 3 i+1
k=1
y
= yi + 2hfi
R ∼ O h3
r = 1 i+1
k=3
y
= yi + 4h
R ∼ O h5
3 [2fi − fi−1 + 2fi−2 ]
r = 3 i+1
k=5
7
yi+1 = yi + 3h
10 [11fi − 14fi−1 + 26fi−2 − 14fi−3 + 11fi−4 ] R ∼ O h
r=5
Siguiendo el mis procedimiento se pueden escribir las fórmulas implı́citas (cerradas) para las mismas
“curiosas” situaciones. Para este caso la conveniencia se obtienes para k impar y r = k + 2

1
1
∇2 fi+1 − 24
∇3 fi+1
 yi+1 = yi + h fi+1 − 12 ∇fi+1 − 12
k=0
⇒
r=3

−19 5 (4)
 R = 720 h f (ζ)
 yi+1 = yi−1 + h 2fi+1 − 2∇fi − 13 ∇2 fi+1 − 0∇3 fi+1
k=1
⇒
r=3

−1 5 (4)
 R = 90 h f (ζ)
∇2 fi+1 − 38 ∇3 fi+1 + 14
∇4 fi+1
 yi+1 = yi−3 + h 4fi+1 − 8∇fi − 20
3
45
k=3
⇒
r=5

−8 5 (4)
R = 945
h f (ζ)
191
4.2. SOLUCIONES NUMÉRICAS
r
desarrollando las diferencias atrasadas, tendremos
k=0
h
yi+1 = yi + 24
[9fi+1 + 19fi−1 − 5fi−1 + 9fi−2 ]
R ∼ O h5
r=3 k=1
R ∼ O h5
yi+1 = yi−1 + h3 [fi+1 + fi + fi−1 ]
r=3 k=3
yi+1 = yi−3 + 2h
[7fi+1 + 32fi + 12fi−1 + 32fi−2 + 7fi−3 ] R ∼ O h7
45
r=5
in
a
Se debe puntualizar lo siguiente respecto a las fórmulas explı́citas e implı́citas de los métodos multipaso
antes mencionados
Los métodos multipasos, normalmente, requieren menos evaluaciones de las funciones que los métodos
monopaso para un mismo nivel de precisión.
m
Los métodos multipaso requieren de un método monopaso que le permita determinar los yn+k−1, yn+k−2, yn+k−3, · · · , yn
puntos iniciales.
Pr
eli
Las fórmulas explı́citas son, normalmente, menos precisas que las implı́citas. La razón se fundamenta
en que, mientras las explı́citas extrapolan la solución al punto yi+1 , las implı́citas la interpolan, por
cuanto la toman en cuenta en el momento de calcularla.
Las fórmulas explı́citas e implı́citas deben ser consideradas como complementarias, por cuanto las
∗
explı́citas pueden predecir el valor de yi+1 necesario para la fi+1 = f (xi+1 , yi+1 ) del cálculo de yi+1
en
la fórmula implı́cita.
Existen varias combinaciones predictor-corrector, entre ellas mencionamos:
Milne de cuarto orden
• Predictor
yi+1 = yi−3 +
• Corrector
4h
[2fi − fi−1 + 2fi−2 ]
3
or
yi+1 = yi−1 +
h
[fi+1 − 4fi + fi−1 ]
3
Milne de sexto orden
Bo
rr
ad
• Predictor
yi+1 = yi−5 +
3h
[11fi − 14fi−1 + 26fi−2 − 14fi−3 + 11fi−4 ]
10
• Corrector
yi+1 = yi−3 +
2h
[7fi+1 + 32fi + 12fi−1 + 32fi−2 + 7fi−3 ]
45
Adams Modificado o Adams Moulton
• Predictor
yi+1 = yi +
h
[55fi − 59fi−1 + 37fi−2 − 9fi−3 ]
24
• Corrector
yi+1 = yi +
h
[9fi+1 + 19fi − 5fi−1 + fi−2 ]
24
192
4.2. SOLUCIONES NUMÉRICAS
y(xn ) − y(n−1 )
2h
in
a
y 0 (x) = f (y(x), x) ⇒ y 0 (xn ) = f (y(xn ), xn ) =
por lo tanto
zn+1 = zn−1 − 2hf (x + nh, zn )
Pr
eli
para finalmente calcular
m
z0 ≡ y(x)
z1 = z0 + hf (x, z0 )
..
.
r
El método de extrapolación multipaso más exitoso (conjuntamente con los métodos de paso único del
tipo Runge-Kutta) es el de extrapolación racional de Bulirsch-Stoer en el cual se define un paso superior
de H y una serie de subpaso hη = H/η con el aumento del número de subpasos, en algún momento siguiendo
algún criterio de convergencia se hace una extrapolación (racional) que representa el lı́mite η → ∞.
El método de Bulirsch-Stoer tiene una estrategia diferente al los anteriores y posee, como motor de
aproximación el método del punto medio modificado o salto de rana (leap frog). Este esquema se utiliza con
frecuencia en discretizaciones de ecuaciones diferenciales en derivadas parciales y se basa en aproximar la
derivada por el valor el promedio en los dos extremos:
y(x + H) ≈ yn ≡
Nótese que si reacomodamos
1
[zn + zn−1 + hf (x + H, zn )]
2
4yn − yn/2
3
obtendremos un método de cuarto orden que requiere menos evaluaciones de f (y(xn ), xn ) por paso h
y(x + H) ≈
4.2.3.
Control del Paso
or
En General para métodos de 4to orden. Tal y como se mencionó en el caso de la integración
numérica, el primer criterio que surge es dividir el paso h en la mitad, calcular todo de nuevo y comparar
los resultados a ver si está dentro del los lı́mites de tolerancia que nos hemos impuesto
Bo
rr
ad
yh − yh/2
yh
≡ ∆ yh , yh/2 < εmáx ⇒
εmáx
≈
∆ yh , yh/2
h0
ht
5
⇒ h0 = ht
εmáx
∆ yh , yh/2
!1/5
donde hemos denotado h0 como el paso ideal. Esta relación es general para cualquier método de 4 orden de
paso único, multipaso, implı́cito o explı́cito.
Más aún, la práctica ha indicado que

0,20
0,20
∆0

εmáx

Mh
≡
Mh
∆0 ≥ ∆1

t
t
∗

∆(yh ,yh
)
∆h

h0 =
0,25
0,25



∆0

εmáx
 Mht
≡ Mht
∆0 < ∆1
∗
∆(yh ,yh
)
∆h
193
4.2. SOLUCIONES NUMÉRICAS
in
a
yk+1 = yk + hk [C1 κ1 + C2 κ2 + C3 κ3 + C4 κ4 + C5 κ5 + C6 κ6 ] + O(h6 )
κ1 = f (xk , yk )
κ2 = f (xk + a2 hk , yk + b21 κ1 )
m
κ3 = f (xk + a3 hk , yk + b31 κ1 + b32 κ2 )
κ4 = f (xk + a4 hk , yk + b41 κ1 + b42 κ2 + b43 κ3 )
..
.
r
donde 0 < M < 1 un factor de seguridad
Para métodos Runge-Kutta. es importante mencionar que se utilizan mayoritariamente métodos
hasta cuarto orden porque de mayor orden (M , por ejemplo) involucran más de M evaluaciones (y menos
M − 2) de la derivada. Por ello para este tipo de métodos se descubrió que considerando el mismo número de
puntos para la evaluación intermedia se pueden generar métodos de distinto orden, y para colmo de suerte
el menor orden de esta situación se expresa para métodos de 4 y 5 orden. En particular Runge-Kutta de 5
orden se puede escribir como:
κ6 = f (xk + a6 hk , yk + b61 κ1 + b62 κ2 + b63 κ3 + b64 κ4 + b65 κ5 )
por lo tanto el error se puede estimar
Pr
eli
y con los mismos puntos (¡ las mismas evaluaciones !) se puede reescribir para 4 orden como:
h
i
ỹk+1 = yk + hk C̃1 κ1 + C̃2 κ2 + C̃3 κ3 + C̃4 κ4 + C̃5 κ5 + O(h5 )
∆ (yk+1 , ỹk+1 ) =
6 X
Ci − C̃i ki
i=1
y el control del paso se utiliza exactamente igual
εmáx
∆ (yh , ỹh )
0,20
or
h0 = ht
Bo
rr
ad
Para métodos multipasos y predictor corrector la situación puede tener un refinamiento adicional
antes de proceder a modificar el paso h. El esquema serı́a para un método predictor corrector del tipo
Adams Modificado o Adams Moulton, donde el
Predictor
yi+1 = yi +
h
[55fi − 59fi−1 + 37fi−2 − 9fi−3 ]
24
Corrector
yi+1 = yi +
h
[9fi+1 + 19fi − 5fi−1 + fi−2 ]
24
se realiza una serie de iteraciones dentro de la fórmula de corrector, i.e.
h
yi+1 = yi +
9f xi+1 , yi+1 + 19f (xi , yi ) − 5f (xi−1 , yi−1 ) + f (xi−2 , yi−2 )
24
1
0
194
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
4.3.
Algunas aplicaciones de ecuaciones diferenciales de primer
orden
Ley de Malthus y el decaimiento radioactivo
Malthus5
d
y(x) = k y(x)
dx
k>0
k<0
y(0) = y0 .
(4.11)
m
y(t) = y0 ek t
in
a
4.3.1.
r
Modelar o describir matemáticamente un fenómeno es el fin último de la ciencias. Las matemáticas son
el lenguaje de la fı́sica. ¿ Cómo describir el chisporroteo de una llama ? ¿ la textura de un pintura al oleo ?
¿ el tráfico en carreteras durante horas picos ? ¿ el titilar de las estrellas ? Describir matemáticamente estas
situaciones no sólo no es fácil, pero tampoco es única. Son fenómenos complejos y su descripción puede tener
muchos grados de profundidad.
Pr
eli
Para k < 0 tenemos una situación de decaimiento: la población decrece con el tiempo. Este concepto se
utiliza los procesos de decaimiento radiactivo. El tiempo de vida media se define como el tiempo necesario
para que la mitad de los núcleos decaigan, lo cual es independiente de la cantidad de la muestra y permite
medir la edad de todo aquello que contenga isótopos radioactivos. En particular el C14 del cual se sabe que:
tiene una vida media de 5730 años y que todos los organismos están (o estuvieron) formados por carbono.
Por lo tanto, si sabemos el porcentaje de C14 en una muestra, digamos el 63 % podremos inferir su edad
y(0) = 1
y(5730) = ek 5730 =
Por lo tanto, despejando k
tendremos finalmente
or
k=
1
2
− ln 2
5730
y(t) = 2−t/5730
Bo
rr
ad
de aquı́ obtendremos la edad en años de la muestra
y(t) = 0,63 ⇒ t = −
ln 0,63
5730 ≈ 3819,48
ln 2
Para k > 0 la ecuación 4.11 describe el incremento poblacional. El valor de k se calcula experimentalmente
(promediando sus valores para cada uno de los parámetros). Para la población venezolana k = 0,018
5 En honor al economista polı́tico inglés Thomas Robert Malthus (1766-1834). Quien fue uno de los primeros en darse cuenta
queÑ la población crece como una razón geométrica mientras que los medios de subsistencias crecen de manera aritmética. Esta
afirmación plasmada en su Ensayo sobre el Principio de Poblaciones, el cual inspiró a Darwin en la formulación de principio
de selección natural. Malthus, muy religioso y creyente pensaba que esa diferencia en el crecimiento de la población y las
necesidades que ellas generaban, eran de procedencia divina y que forzarı́a a la humanidad a ser más laboriosa e ingeniosa para
lograr los medios de subsistencia. Darwin, no tan religioso, lo formuló como una situación natural presente en todas las especies.
195
m
in
a
r
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Pr
eli
Figura 4.6: Decaimiento Radioactivo
Bo
rr
ad
or
Población Venezolana (Millones Hab.)
Año
Población y(t) = 0,350 e0,018t
1800 (0)
0.350
0.350
1847 (47)
0.750
0.816
1873 (73)
1.000
1.302
1881 (81)
1.750
1.504
1891 (91)
2.100
1.801
1926 (126)
2.850
3.381
1936 (136)
3.200
4.048
1941 (141)
3.850
4.429
1950 (150)
4.350
5.208
1961 (161)
6.800
6.348
1971 (171)
10.800
7.600
1981 (181)
14.100
9.099
4.3.2.
La Ecuación logı́stica o Ley de Verhulst
Esta ecuacióon se utiliza para describir el crecimiento de la población de una manera más precisa que la
Ley de Malthus. Esta ecuación toma en cuenta le decrecimiento de la población con el término −y 2
y 0 = (k − ay) y = ky − ay 2
donde k y a son constantes arbitrarias. Esta ecuación es separable y la solución tiene la forma de
ln
y
=k t+C
k − ay
196
m
in
a
r
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Pr
eli
Figura 4.7: Población de Venezuela desde 1800
y por lo tanto
y(t) =
k y0
a y0 + (k − a y0 ) e−k t
el crecimiento de la población venezolana desde 1800 puede modelarse con k = 0,018, a = 0,001
4.3.3.
La Ley de Enfriamiento de Newton
la solución será
T (0) = T0
or
dT
= k(T − Tm )
dt
T = (T0 − Tm ) ek t + T m
Bo
rr
ad
y para el caso de una torta recien sacada del horno a una temperatura de T0 = 176◦ , y una temperatura
ambiente de Tm = 23◦ , con T (80) = 63◦ ,la gráfica será
también se puede modelar el enfriamiento con una temperatura del ambiente variable esto es
dT
= k(T − Tm (t))
dt
T (0) = T0
tómese, por ejemplo,
Tm (t) = 23 − 10 cos
πt
12
con 0 ≤ t ≤ 24 horas
si T (0) = 15◦
dT
1
=
dt
4
πt
T − 23 − 7 cos
12
197
m
in
a
r
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Bo
rr
ad
or
Pr
eli
Figura 4.8: Población de Venezuela desde 1800
Figura 4.9: Enfriamiento de una torta recien horneada
198
m
in
a
r
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
con la solución
t
Pr
eli
Figura 4.10: Variación de la Temperatura Construcciones
t
−23 π 2 + 11 e− 4 π 2 + 21 π sen( π12t ) + 63 cos( π12t ) − 207 + 36 e− 4
T (t) = −
9 + π2
y la siguiente evolución
4.3.4.
Interés Compuesto.
Bo
rr
ad
or
Otra de las aplicaciones de las ecuaciones diferenciales es en el cálculo del crecimiento del capital inicial,
depositado en un banco C0 durante un cierto lapso de tiempo y sujeto a un determinada tasa de interés.
Luego del lapso de tiempo, el nuevo capital será
int
C1 = C0 1 +
100
Pasados dos lapsos (años) de tiempo el capital será
int
int
int
C2 = C1 1 +
= C0 1 +
1+
100
100
100
en t lapsos de tiempo,
t
int
C(t) = C0 1 +
100
Ahora bien, si el pago de los intereses se hace varias veces durante ese lapso, entonces tendremos
int
int
int
C2 = C1 1 +
= C0 1 +
1+
.
100 · 2
100 · 2
100 · 2
199
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Finalmente, si el interés se paga k veces en cada lapso, entonces
C(t) = C0
int
1+
100 · k
kt
.
(4.12)
k→∞⇒
int
1+
100 · k
kt
int
→ e 100
t
;
in
a
r
Si k = 12 entonces se tienen intereses pagaderos sobre saldos mensuales. En el caso de que k = 365, los
intereses son pagaderos sobre saldos diarios. Nótese que si
entonces, podemos aproximar este modelo discreto de pagos sobre saldos por uno continuo, i.e.
int
C(t) = C0 e 100
t
⇔
C 0 (t) =
int
C(t).
100
Pr
eli
m
Existen situaciones en las cuales los bancos, movidos por la competencia, ofrecen cancelar los intereses sobre
un año hipotético de 360 dı́as. En este caso, el capital crece como:
365t
int
.
(4.13)
C(t) = C0 1 +
100 · 360
La siguiente tabla muestra una comparación del crecimiento del capital inicial C0 = 1, en un lapso de 10
años, sujeto a intereses del 40 % sobre saldos diarios y siguiendo los tres modelos antes mencionados.
int
t
4.3.5.
int
C(t) = C0 1 + 100·k
1.0
1.491824698
2.225540928
3.320116923
4.953032424
7.389056099
11.02317638
16.44464677
24.53253020
36.59823444
54.59815003
kt
or
C(t) = C0 e 100
1.0
1.491497997
2.224566275
3.317936142
4.948695110
7.380968843
11.00870024
16.41945436
24.48958329
36.52616442
54.47870107
Bo
rr
ad
Años
0
1
2
3
4
5
6
7
8
9
10
.
int
C(t) = C0 1 + 100·360
1.0
1.499797972
2.249393957
3.373636494
5.059773172
7.588637542
11.38142320
17.06983543
25.60130455
38.39678465
57.58741975
365t
Mecánica Elemental.
El estudio del movimiento de los cuerpos sometidos a la acción de un conjunto de fuerzas externas, fue
una de las principales motivaciones para el planteamiento y solución de las ecuaciones diferenciales.
−−−−→
−−−−
−
−−−
−
−−→
−→
−−
→
−−→
d mv(t)
F (r(t), v(t), t) =
= m a(t) ,
dt
externas
X
(4.14)
−−→
−−→
para sistemas con m = cte (partı́culas) y con v(t) la velocidad y r(t) la posición.
−−→
−−→ dr(t)
v(t) =
.
dt
200
m
in
a
r
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Pr
eli
Figura 4.11: Velocidad del paracaidista en función del tiempo
Movimientos con Acelaración Constante
Ası́ en carreras de velocidad, en las cuales los autos tienen que generar el máximo posible de velocidad
para una distancia dada tendremos, que la ecuación Newton 5.7 se expresa
F
dv(t)
v(t) = v0 + m
t
cte = F = m
⇒
F 2
x(t) = x0 + v0 t + 21 m
t
dt
Fricción en Fluidos
or
F
Los valores tı́picos para este caso son v0 = r0 = 0 , a = m
= 9,8 m/s2 , y por lo tanto la velocidad final a
los 400 m. es
√
vf = 2ax ≈ 89 m/s = 320, 4 Km/h
Bo
rr
ad
Por su parte, la descripción del movimiento de un paracaidista la ecuación 5.7 se convierte en
X
F (v(t)) = −mg + cv 2 =
externas
d v(t)
d p(t)
= m
= m a(t) ,
dt
dt
(4.15)
con c una constante arbitraria que depende de la forma del cuerpo. Integrando esta ecuación separable se
obtiene
1 − exp − 2gt
vt
(4.16)
v(t) = −vt
1 + exp − 2gt
vt
Donde hemos definido la velocidad terminal
r
vt =
mg
c
201
m
in
a
r
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Pr
eli
Figura 4.12: Posición del paracaidista respecto al tiempo
or
como la velocidad que anula la sumatoria de fuerzas y a partir de la cual el cuerpo cae sin aceleración.
El tiempo que tarda en alcanzar esa velocidad es estrictamente para t −→ ∞ , sin embargo, una buena
aproximación que surge de la ecuación 4.16, la constituye: t vt /2g . La velocidad terminal tı́pica en un dı́a
soleado para un paracaidista de 70 Kg., en posición de “águila extendida”, es 54 m/s. (194,4 Km/h.) y por
lo tanto alcanza la velocidad terminal luego de aproximadamente 15 s. esta situación se aprecia claramente
en la figura 4.11.
Por su parte, la posición surge al integrar la ecuación 4.16
2gt
1
−
exp
−
vt
dy(t)
v(t) =
= −vt
2gt
dt
1 + exp −
vt
integrando esta ecuación obtendremos


v
2
t

y0 − y(t) = vt t + ln 
g
exp − 2gt + 1
Bo
rr
ad

(4.17)
vt
Con el comportamiento gráfico que muestra la figura 4.12.
Fuerzas Elásticas
Otra situación muy conocida se presenta bajo la acción de fuerzas elásticas. Ası́, la ecuación 5.7, ahora
se expresa como
X
dv(t)
F (x(t)) = −kx(t) = m
= m a(t) ,
dt
externas
202
m
in
a
r
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Utilizando la “regla de la cadena”
Pr
eli
Figura 4.13: Trayectoria de la Flecha al abandonar el arco.
dv(t) dx(t)
dv(t)
dv(t)
=
= v(t)
dt
dx(t) dt
dx(t)
Se convierte en separable y se integra para obtener la velocidad
dx(t)
m v(t) = −k x(t) + C1 ⇒ v(t) =
=
dt
2
La posición será
2
r
or
x(t) = C1 sen
k
t + C2
m
r
−k x(t)2 + C0
m
(4.18)
!
Bo
rr
ad
Para analizar el caso del lanzamiento de una flecha (23 g.) por una arco de 30 lb (134 N) el cual un arquero
puede separarlo 0,72 m. se obtiene la velocidad de salida de la flecha como
s
r
134
k
0,72
vf = d
= 0, 72
= 65 m/s
m
23 × 10−3
Es interesante mencionar que en 100 m la flecha baja una distancia de ≈ 11 m. ¡!
Sistemas de Masa Variable
Otro de los ejemplos interesantes es la evolución de sistemas de masa variable. El primero de los caso
tiene que ver con una barca de masa m0 que tiene una velocidad inicial v0 en su navegar, comienza a llover y
se va llenando de agua. El agua se acumula con una tasa σ (masa por unidad de tiempo). Se pide encontrar
la velocidad de la barca como función del tiempo.
P = mv = const = m0 v0
203
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
si
dm
dt
= σ = cont ⇒ m (t) = m0 + σt y consecuentemente
v (t) = v0
m0
m0 + σt
d (mv)
dt
⇔
−M g − ρxg =
o equivalentemente
−gρξp = p
Z
dp
dt
ξ
gρ2 ξ 2 dξ =
−
M
ρ
⇒
Z
donde

ξ=
⇒
3
pdp
m0 v0
Z
t − t0 =
ξ
gρ2  −
3
⇒
M
ρ
−gρξρξdξ = pdp
3 
(m0 v0 )
 p2
−
=
2
2
2
3
ρξdξ
s
2gρ2
Un Cohete en Movimiento
+x
y
p = mv = ρξ dξ
dt
−gρξmdξ = pdp

p
M
ρ
Pr
eli
con lo cual


m
dp
−gρξ =
dt
dm
dv
v+
m
dt
dt
in
a
−P esoM asa − P esocadena =
r
Un segundo caso tiene que ver con una masa M atada a una cadena de densidad lineal de masa ρ. Esta
masa se impulsa hacia arriba con una velocidad inicial v0 . Se pide encontrar el tiempo en que alcanza la
altura máxima. La ecuación de Newton para este caso se puede expresar como
ξ3
3
−
( Mρ )
3
3
+
(m0 v0 )2
2
or
Finalmente el caso más emblemático es el movimiemto de un cohete que consume una fracción importante
de su combustible. Llamemos v la velocidad de cohete para un instante de tiempo t y v 0 la velocidad de salida
de los gases respecto a tierra. Para ese instante t la cantidad de movimiento del cohete es mv un instante dt
más tarde la cantidad de movimiento será
p0 = (m + dm)(v + dv) + (−dm)v 0 = mv + m dv − dm (v 0 − v)
|
{z
} | {z }
| {z }
Bo
rr
ad
cohete
gases
vel. rel.
Entonces el cambio en la cantidad de movimiento será
dp = p0 − p = mdv − vgases dm
y por lo tanto la ecuación de Newton
m(t)
X
dm
dv(t)
− vgases
=
F
dt
dt
externas
Despreciando la resistencia del aire y suponiendo la gravedad constante, tendremos
dv(t) vgases dm
−
= −g
dt
m
dt
204
m
in
a
r
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Pr
eli
Figura 4.14: Velocidad del Cohete
integrando
v = v0 + vgases ln
mi
m(t)
− gt
si suponemos que el combustible se quema de la forma
m(t) = mi (1 + αt) ↔
La cantidad
dm
dt
or
E = vgases
dm
= α = cte
dt
se denomina el empuje del cohete.
Modelado de Concentración/Desliemiento de Soluciones
Bo
rr
ad
4.3.6.
Otro de los problemas tı́picos donde se aplican exitosamente las ecuaciones diferenciales son los problemas
de manejo de concentración de sustancias en soluciones lı́quidas. El principal objetivo, consiste en plantear
el problema en término del problema de valores iniciales que gobierna el fenomeno (ecuación diferencial +
condiciones iniciales). Para ello, en este tipo de problemas, siempre utilizaremos la regla intuitiva de
Tasa de Cambio de la Concentración = Tasa de Ingreso − Tasa de Egreso
Ası́, tendremos que para un problema tı́pico en el cual inicialmente se encuentran diluidos en un recipiente
(un tanque) y0 gr de una sustancia en V0 litros de un lı́quido. A este tanque le cae otro lı́quido con una
concentración distinta de la misma sustancia a ventrada lit/min, mientras que vsalida lit/min salen del tanque.
Si suponemos que dentro del tanque sucede algún proceso de homogenización de la solución, la pregunta
tı́pica esque queremos saber la cantidad de sustancia que se encuentra en el tanque en un tiempo t. A la
205
Pr
eli
Figura 4.15: Posición del Cohete
m
in
a
r
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
concentración de la sustancia en el lı́quido de entrada (gr/lit), en un tiempo t, la denotaremos como C (t)
gr/lit. La figura (4.16) ilustra este proceso.
Para empezar notemos que, en esta situación el volumen no es constante. Por lo tanto, con el mismo
espı́ritu de la “ley de balanceo” que hemos propuesto, si las velocidades de ingreso y egreso son constantes,
nos queda que la variación del volumen inicial viene dada por la diferencia de estas velocidades, esto es
V 0 (t) = ventrada − vsalida ⇒ V (t) = V0 + (ventrada − vsalida ) t
Bo
rr
ad
or
con lo cual también hemos integrado una ecuación diferencial para encontrar como variará el volumen con
el tiempo.
Para la construcción de la ecuación diferencial, procedemos de manera similar y si describimos la cantidad
de sustancia en el tanque como y (t) , nos queda que la tasa de cambio de la cantidad de sustancia en el
tanque será
gr lit
y (t)
gr
lit
0
C (t)
− vsalida
y (t) = ventrada
mı́n
lit
mı́n
V0 + (ventrada − vsalida ) t lit
|
{z
} |
{z
}
Tasa de Ingreso
Tasa de Egreso
Por lo tanto la ecuación diferencial tomará la forma tı́pica de una ecuación diferencial lineal de primer
orden inhomogénea
vsal
y 0 (t) + y (t)
= vent C (t)
V0 + (vent − vsal ) t
206
Pr
eli
m
in
a
r
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Figura 4.16: Soluciones y tanques
que tendrá por solución
y0
−
(−V0 )
|
!
{z
Respuesta a las Condiciones iniciales
vsal
Z t
−v
+
v
ent
sal
V0 )
vent C (u) (u (vent − vsal )
0
or
y (t) =
vsal
vent − vsal
−vsal
((−vent + vsal ) t − V0 ) vent − vsal
− ((−vent + vsal ) t −
|
{z
Respuesta a la Exitación externa
!
}
vsal
+ V 0) vent − vsal
!
du
}
Bo
rr
ad
Nótese lo genérico de esta solución. Por un lado, la concentración de la sustancia, C (t) , en la solución
que entra al sistema es distinta a la concentración de la sustancia presente en el tanque, más aún, puede
ser variable con el tiempo. Por otro lado esta solución presenta una singularidad (un infinito) cuando la
velocidad de ingreso es igual a la velocidad de egreso. Para este caso en el cual el volumen del tanque
permanece constante tendremos que resolver la ecuación diferencial
v
! vsalida t
Z t
salida u
−
vsal
0
V
V
y (t) + y (t)
= vent C (t) ⇒ y (t) =
C (u) ventrada e
du + y0 e
V0
0
Tal y como hemos mencionado varias veces (y seguiremos mencionando) la solución general para una ecuación
diferencial inhomogénea se compone de dos soluciones, la solución de la ecuación diferencial homgénea más
la solución de la inhomogéna.
ygeneral (x) = yhomogénea (x) + yinhomogénea (x)
207
4.3. ALGUNAS APLICACIONES DE ECUACIONES DIFERENCIALES DE PRIMER ORDEN
Este ejemplo nos permite constatar el sentido cada una de estas soluciones, vale decir
y (t) =
vsalida t
V
y0e
|
{z
}
−
v
vsalida t Z t
salida u
V
V
C (u) ventrada e
du
+e
0
|
{z
}
−
Respuesta a las Condiciones Iniciales
Respuesta a la Exitación externa
in
a
r
En esta es una visión que debemos conservar, en general para todas las ecuaciones lineales inhomogéneas
independientes del orden de la ecuación diferencial, ası́ recordando, dada una ecuación diferencial y su
solución tal que se cumple la condición inicial y (0) = y0 entonces siempre es posible
Z x
Rx
R
Rx
d
y (x) + p (x) y (x) = g (x) ⇔ y (x) = y0 e 0 −p(u)du + e 0 −p(u)du
g (u) e p(u)du du
|
{z
}
dx
0
|
{z
}
solución homgénea
Solución inhomogénea
or
Pr
eli
m
donde ahora vemos claramente que la solución de la homogénea da cuenta a las condiciones iniciales del
proceso y la solución de la inhomogénea provee la respuesta a la exitación externa al sistema.
Este comportamiento de las soluciones es útil si nos planteamos que al tratar de “limpiar” una piscina,
a la cual le hemos añadido el doble de la cantidad de sulfatos permitida, y queremos saber cuanto tiempo
tenemos que mantener abierta una entrada de 120 lits/min de agua sin sulfatos y la salida de la piscina que
responde a 60 lits/min. La piscina en cuestión tiene 20 m de longitud, 10 m de ancho y 2 m de profundidad.
Siguiendo los pasos anteriormente planteados, tendremos que


lit
60


vsal
mı́n

= 0 ⇒ y 0 (t) + y (t) 
=0
y 0 (t) + y (t)

lit 
V0 + (vent − vsal ) t
4 × 105 lit + (120 − 60) t
mı́n


lit
60


y0
mı́n

y 0 (t) + y (t) 
 = 0 ⇒ y (t) = 20000 3t + 20000

lit
t
4 × 105 lit + 60
mı́n
3
donde el volumen es V = 400m3 = 400 (100cm) = 4 × 108 cm3 = 4 × 108 10−3 lit = 4 × 105 lit.
Con lo cual el tiempo para que la cantidad final decaiga a la mitad de la inicial surge de
Bo
rr
ad
y0 = 20000
2y0
⇒ t ≈ 6,666, 66 minutos !!!!!
3t + 20000
208
r
5
in
a
Capı́tulo
Bo
rr
ad
or
Pr
eli
m
Ecuaciones diferenciales ordinarias de orden
mayor a 1
209
5.1. DEFINICIONES PARA COMENZAR
5.1.
Definiciones para comenzar
Definición
La ecuación diferencial
a0 (x) y(x) + a1 (x) y 0 (x) + · · · + an−1 (x) y (n−1) (x) + an (x) y (n) (x) = F(x)
⇔
n
X
ai (x) y (i) (x) = F(x)
i=0
r
es lineal de orden n . Obviamente,
in
a
F(x) = 0
=⇒ Homogénea
F(x) 6= 0
=⇒ InHomogénea
ai (x) = ai = ctes
m
Definición
Si los coeficientes ai = ctes entonces la ecuación diferencial lineal y homogénea, de orden n , tiene asociada
un polinomio caracterı́stico de la forma
an rn + an−1 rn−1 + · · · + a2 r2 + a1 r + a0 = 0
Pr
eli
Las raı́ces de este polinomio indicarán la forma de la solución.
Definición
Si el polinomio caracterı́stico puede factorizarse
(r − m1 )k1 (r − m2 )k2 (r − m3 )k3 · · · (r − ml )kl = 0
entonces diremos que las raı́ces mk1 , mk2 , mk3 , · · · , mkl tienen multiplicidades k1 , k2 , k3 , · · · , kl , respectivamente.
5.2.
Homogéneas, lineales, de segundo orden
La ecuación
or
a y 00 + b y 0 + c y = 0
⇔
a r2 + b r + c = 0
tiene asociada ese polinomio caracterı́stico y sus raı́ces m1 y m2 condicionan la solución de la manera siguiente
Bo
rr
ad
1. Si m1 6= m2 y m1 y m2 son reales, entonces la solución es
y = C 1 em 1 x + C 2 em 2 x
2. Si m1 = m2 y m1 y m2 son reales, entonces la solución es
y = C1 em1 x + C2 xem1 x
3. Si m1 = α + iβ con β 6= 0 y m2 = m1 = α − iβ, entonces la solución es
y = eα
x
(C1 cos βx + C2 sen betax)
210
in
a
r
5.2. HOMOGÉNEAS, LINEALES, DE SEGUNDO ORDEN
Pr
eli
m
Figura 5.1: y(x) = 25 e−4x + 35 ex
Ejemplos
La ecuación
y 0 (0) = −1
∧
y(0) = 1
Bo
rr
ad
y 00 + 3y 0 − 4y = 0;
or
Figura 5.2: y(x) = C1 e−4x + C2 ex para C1 = {−1, 0, 1} y C2 = {−1, 0, 1}
r2 + 3r − 4 = (r + 4)(r − 1) = 0
⇔
tiene asociado ese polinomio caracterı́stico y por lo tanto tiene como solución general
2 −4x 3 x
e
+ e
5
5
En la figura 5.1 se encuentra graficada esa soluci’on particular. De igual modo, para distintos valores de
C1 = {−1, 0, 1} y C2 = {−1, 0, 1} tendremos las gráficas representadas en la figura 5.2 ¿ Cuáles son las
condiciones iniciales a las cuales corresponden esos valores de las constantes?
Otra ecuación podr’ia ser
y(x) = C1 e−4x + C2 ex
y 00 + 2y 0 + y = 0;
y como solución particular y(x) =
y(0) = 1
∧
y 0 (0) = −1
⇔
r2 + 2r + 1 = (r + 1)2 = 0
y por lo tanto tiene como solución general
y(x) = C1 e−x + C2 xe−x
y como solución particular y(x) = e−x
211
Pr
eli
m
Figura 5.3: y(x) = e−x
in
a
r
5.2. HOMOGÉNEAS, LINEALES, DE SEGUNDO ORDEN
or
Figura 5.4: y(x) = C1 e−x + C2 xe−x para C1 = {−1, 0, 1} y C2 = {−1, 0, 1}
Bo
rr
ad
La gráfica para esta soluci’on est’a representada en la figura 5.3
Para distintos valores de C1 = {−1, 0, 1} y C2 = {−1, 0, 1} tendremos las gráficas representadas en la
figura 5.4. Cabe seguir preguntando ¿ Cuáles son las condiciones iniciales a las cuales corresponden esos
valores de las constantes?
Finalmente, la ecuación
y 00 + 4y 0 + 20y = 0;
y(0) = 3
∧
y 0 (0) = −1
⇔
r2 + 4r + 20 = (r + 2)2 + 16 = 0
con las siguientes soluciones r = −2 ± 4i y por lo tanto tiene como solución general
5
−2x
−2x
y(x) = e
(C1 cos 4x + C2 sen4x) y como solución particular y(x) = e
3 cos 4x + sen4x
4
y su representaci’on gr’afica se encuentra en la figura 5.5 y para distintos valores de las constantes
Al igual que en los casos anteriores, para distintos valores de las constantes de integraci’on, tendremos
las gráficas de la figura 5.6
212
3 cos 4x + 45 sen4x
Pr
eli
m
Figura 5.5: y(x) = e−2x
in
a
r
5.3. ECUACIONES DIFERENCIALES DE ORDEN N
5.3.
or
Figura 5.6: y(x) = e−2x (C1 cos 4x + C2 sen4x) para C1 = {−1, 0, 1} y C2 = {−1, 0, 1}
Ecuaciones diferenciales de orden n
La ecuación
Bo
rr
ad
a0 y(x) + a1 y 0 (x) + · · · + an−1 y (n−1) (x) + an y (n) (x) = 0
con ai = ctes tiene asociada un polinomio caracterı́stico de la forma
an rn + an−1 rn−1 + · · · + a2 r2 + a1 r + a0 = 0
el cual condicionará la solución de la siguiente forma
1. Si m es una raı́z real con multiplicidad k = 2 entonces las k soluciones asociadas con m serán de la
forma
emx , xemx , x2 emx , x3 emx , · · · xk−1 emx
2. Si m y m son parejas de soluciones complejas, α±iβ , del polinomio caracterı́stico y tienen multiplicidad
k , entonces las soluciones correspondientes serán
eαx cos βx; eαx senβx; · · · xk−1 eαx cos βx; xk−1 eαx senβx
213
5.3. ECUACIONES DIFERENCIALES DE ORDEN N
Ejemplos
La ecuación
24y 000 + 2y 00 − 5y 0 − y = 0
24r3 + 2r2 − 5r − 1 = (3r + 1)(2r − 1)(4r + 1) = 0
⇔
consecuentemente con las raı́ces
m2 =
1
,
2
1
m3 = − ,
4
r
1
m1 = − ,
3
y(x) = C1 e−x/3 + C2 ex/2 + C3 e−x/4
La ecuación
y 000 + 3y 00 + 3y 0 + y = 0
in
a
y con la solución de la forma
r3 + 3r2 + 3r + 1 = (r + 1)3 = 0
⇔
con las raı́ces m = −1 con multiplicidad k = 3 y con una solución de la forma
m
y(x) = C1 e−x + C2 xe−x + C3 x2 e−x
La ecuación
4y (4) + 12y 000 + 49y 00 + 42y 0 + 10y = 0
m1 = −1 + 3i,
4r4 + 12r3 + 49r2 + 42r + 10 = (r2 + 2r + 10)(2r + 1)2 = 0
Pr
eli
consecuentemente con las raı́ces
⇔
m2 = −1 − 3i,
Entonces la solución es de la forma
1
m3 = − , con multiplicidad 2
2
y(x) = e−x (C1 cos 3x + C2 sen3x) + C3 e−x/2 + C4 xe−x/2
La ecuación
y (4) + 4y 000 + 24y 00 + 40y 0 + 100y = 0
r4 + 4r3 + 24r2 + 40r + 100 = (r2 + 2r + 10)2 = 0
⇔
con las raı́ces
m2 = −1 − 3i,
or
m1 = −1 + 3i,
con multiplicidad 2.
Entonces la solución es de la forma
Bo
rr
ad
y(x) = e−x (C1 cos 3x + C2 sen3x + C3 x cos 3x + C4 xsen3x)
La ecuación
4y 000 + 33y 0 − 37y = 0;
con
y(0) = 0;
y 0 (0) = −1;
y 00 (0) = 3
⇔
4r3 + 33r − 37 = (r − 1)(4r2 + 4r + 37) = 0
consecuentemente con una solución general de la forma
y(x) = C1 ex + e−x/2 (C2 cos 3x + C3 sen3x)
y con la solución particular
y(x) =
8 x
8
19
e − e−x/2 ( cos 3x + sen3x)
45
45
45
214
5.4.1.
8
− e−x/2 ( 45
cos 3x +
19
45 sen3x)
Algunos métodos de solución para ecuaciones inhomogéneas
El Wronskiano
Pr
eli
5.4.
8 x
45 e
m
Figura 5.7: y(x) =
in
a
r
5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS
Definición: Independencia y Dependencia Lineal.
Sean n funciones f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x), cuando menos n − 1 veces diferenciables. Entonces,
el conjunto S = {f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)}, se dice linealmente dependiente en el intervalo I, si
existen algunas constantes, c1 , c2 , c3 , c4 , · · · cn distintas de cero tal que
n
X
ci fi (x) = c1 f1 (x) + c2 f2 (x) + · · · + cn fn (x) = 0
i=1
or
Por el contrario, si no existe ninguna constante ci 6= 0, se dirá que S es linealmente independiente.
Definición:Wronskiano
El conjunto S = {f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)} de funciones, cuando menos n−1 veces diferenciables,
conforman el Wronskiano,
W (S) = W (f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x))
Bo
rr
ad
a través del siguiente determinante
f1 (x)
f10 (x)
..
.
W (S) =
(n−1)
f1
f2 (x)
f20 (x)
..
.
(n−1)
(x) f2
···
···
..
.
(x) · · ·
fn (x)
fn0 (x)
..
.
(n−1)
fn
(x)
Si W (S) 6= 0 al menos en un punto dentro del intervalo I, entonces S es linealmente independiente
Definición: Conjunto Fundamental de Soluciones.
El conjunto S = {f1 (x), f2 (x), f3 (x), f4 (x), · · · fn (x)} de n soluciones no triviales a la ecuación diferencial:
a0 (x) y(x) + a1 (x) y 0 (x) + · · · + an (x) y (n) (x) = 0,
(5.1)
215
5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS
Se le denomina conjunto fundamental de soluciones. La combinación lineal
f (x) =
n
X
ci fi (x) = c1 f1 (x) + c2 f2 (x) + · · · + cn fn (x)
i=1
a0 (x) y(x) + a1 (x) y 0 (x) + · · · + an (x) y (n) (x) = F(x)
in
a
r
también es solución de la ecuación diferencial (5.1) y se denomina como solución general de (5.1). Adicionalmente, si los coeficientes ai (x) son continuos en el intervalo abierto I para todo i = 1, 2, · · · , n , entonces
la ecuación diferencial (5.1) tiene un conjunto fundamental de n soluciones linealmente independientes.
Definición: Soluciones Particulares y Generales.
Dada una ecuación diferencial lineal Inhomogénea
(5.2)
y(x) = yh (x) + yp (x)
Métodos de los coeficientes indeterminados
Pr
eli
5.4.2.
m
Si yp (x) es solución de (5.2) sin constantes arbitrarias, entonces yp (x) se denomina solución particular de
(5.2). De igual modo, se denominará solución general de (5.2) a la suma de la solución, yh (x), de la ecuación
homogénea (5.1) más la solución particular:
Dada la ecuación diferencial
a0 y(x) + a1 y 0 (x) + · · · + an y (n) (x) = F(x)
(5.3)
con a0 , a1 , a2 , · · · an coeficientes constantes, el método de los coeficientes indeterminados se puede esquematizar de la siguiente manera
1. Resuelva la ecuación diferencial homogénea
y obtenga yh (x).
(5.4)
or
a0 y(x) + a1 y 0 (x) + · · · + an y (n) (x) = 0
Bo
rr
ad
2. Proponga la forma de la solución particular para la ecuación inhomogénea (5.3) siguiendo el siguiente
procedimiento. Dada F (x) = b0 g0 (x) + b1 g1 (x) + · · · + bn gn (x), con los bi coeficientes constantes,
entonces
a) Si F (x) = P (x), un polinomio, es decir gi (x) = xm entonces proponga como solución particular a
yp (x) = A0 + A1 x + A2 x2 + A3 x3 + · · · + Am xm
b) Si gi (x) = xm ekx entonces proponga como conjunto fundamental de soluciones particulares a
yp (x) = ekx (A0 + A1 x + A2 x2 + A3 x3 + · · · + Am xm )
c) Si gi (x) = xm ekx cos βx o gi (x) = xm ekx senβx, entonces proponga como conjunto fundamental
de soluciones particulares a
yp (x) =
ekx (A0 + A1 x + A2 x2 + A3 x3 + · · · + Am xm ) cos βx+
ekx (Ã0 + Ã1 x + Ã2 x2 + Ã3 x3 + · · · + Ãm xm )senβx
216
5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS
3. Determine el valor de los coeficientes Ai al sustituir la solución propuesta yp (x) en (5.3)
4. Construya las solución general y(x) = yh (x) + yp (x)
Ejemplos
y 00 + 4y 0 + 4y = 4x2 + 6ex
Tiene como solución de la homogénea
r
yh = (C1 + C2 x) e−2x
in
a
y proponemos como solución particular de la ecuación a
yp = (Ax2 + Bx + C) + Dex
2A + Dex +
4 (2Ax + B + Dex ) + 4 (Ax2 + Bx + C) + Dex +
= 4x2 + 6ex
Pr
eli
de donde surge el siguiente sistema de ecuaciones
m
sustituimos su expresión en la ecuación y obtenemos
4A = 4
8A + 4B = 0
2A + 4B + 4C = 0
9D = 6
y de allı́ el valor de los coeficientes
A = 1;
C=
or
y con ellos la solución general
B = −2;
3
;
2
y = (C1 + C2 x) e−2x + x2 − 2x +
Bo
rr
ad
Ejercicios
D=
2
3
3 2 x
+ e
2 3
1. La ecuación
y 00 − 3y 0 + 2y = 2x e3x + 3senx
tiene como solución
y = C1 ex + C2 e2x + x e3x −
3 3x
3
9
e +
senx +
cos x
2
10
10
2. La ecuación
y 00 − 3y 0 + 2y = 2x2 + 3 e2x
tiene como solución
y = C1 ex + C2 e2x +
7
+ 3x + x2 + 3x e2x
2
217
5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS
5.4.3.
Métodos de variación de parámetros
Dada la ecuación diferencial
a0 y(x) + a1 y 0 (x) + · · · + an y (n) (x) = F(x)
(5.5)
El método de variación de los parámetros se puede esquematizar de la siguiente manera
1. Resuelva la ecuación diferencial homogénea
a0 y(x) + a1 y 0 (x) + · · · + an y (n) (x) = 0
r
in
a
y obtenga yh (x).
(5.6)
2. Proponga como solución particular
yp = u1 (x) yh1 + u2 (x) yh2
m
donde las funciones u1 (x) y u2 (x) son funciones a determinar en el método y las y1 y y2 son las
soluciones a la ecuación homogénea (5.6).
Pr
eli
3. Sustituya esta solución propuesta en la ecuación (5.5) para obtener, luego de algún nivel de álgebra
elemental
=0
}|
{
z
u1 (x) (a0 y1 + a1 y10 + a2 y100 ) +
=0
}|
{
z
u2 (x) (a0 y2 + a1 y20 + a2 y200 ) +
0
a2 (u01 y1 + u02 y2 ) + a1 (u01 y1 + u02 y2 )
0 0
a2 (u1 y1 + u02 y20 ) = F(x)
de donde surge el siguiente sistema de ecuaciones algebraico
a2 (u01 y10
con sus soluciones de la forma
0
y2
y20
or
F (x)
a2
Bo
rr
ad
u01 =
u02 =
y1
y10
y1
y10
y1
y10
y2
y20
u01 y1 + u02 y2 = 0
+ u02 y20 ) = F(x)
0
=
0
F (x)
a2
y2
y20
=
F (x)
a2
y2
y20
W (y1 , y2 )
y1
y10
= G1 (x)
0
F (x)
a2 (x)
W (y1 , y2 )
= G2 (x)
e integrando se obtienen los coeficientes respectivos,
Z
Z
u1 (x) = G1 (x) dx;
u2 (x) = G2 (x) dx
para finalmente obtener la solución general
y = C1 y1 + C2 y2 + u1 (x) y1 + u2 (x) y2
nótese que no incorporamos las constantes de integración en la funciones u1 (x) y u2 (x).
218
5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS
Ejemplo:
La ecuación inhomogénea de Cauchy1 -Euler2
a0 y(x) + a1 x y 0 (x) + · · · + an xn y (n) (x) = F(x)
con los ai = ctes, puede ser resuelta por este método. Consideremos una ecuación de orden 2
c y(x) + b x y 0 (x) + a x2 y 00 (x) = F(x)
por lo tanto
am2 + (b − a)m + c = 0
m=
−(b − a) ±
p
m
con
in
a
c y(x) + b x y 0 (x) + a x2 y 00 (x) = 0
c x + b x mxm−1 + a x2 m(m − 1)xm−2 = 0
xm (c + bm + am(m − 1)) = 0
m
r
La solución de la homogénea se propone como yh = xm por lo tanto
(b − a)2 − 4ac
2a
Pr
eli
por lo tanto
1. Si m1 6= m2 y ambas reales, entonces la solución de la homogénea será
yh = C1 xm1 + C2 xm2
2. Si m1 = m2 y ambas reales, entonces la solución de la homogénea será
yh = xm1 (C1 + C2 ln x)
3. Si m1 = m2 = α + iβ , entonces la solución de la homogénea será
yh = xα (C1 cos(β ln x) + C2 sen(β ln x))
or
Ahora para lograr la solución de la inhomogénea suponemos el caso m1 6= m2 por lo tanto
y1h = xm1
u01 =
xm 2
m2 xm2 −1
x
xm2
m1 −1
m1 x
m2 xm2 −1
u02 =
xm 1
0
m1 xm1 −1 aF (x)
x2
xm1
xm2
m1 xm1 −1 m2 xm2 −1
y2h = xm2
xm2
m2 xm2 −1
W (y1 , y2 )
0
F (x)
a x2
Bo
rr
ad
0
F (x)
a x2
m1
=
=
xm1
0
m1 xm1 −1 aF (x)
x2
W (y1 , y2 )
= G1 (x)
= G2 (x)
1 Louis Augustin Baron de Cauchy (1789-1857). Matemático francés, uno de los creadores del análisis matemático
moderno. Estudió, entre otras cuestiones, los criterios de convergencia de series, las funciones de variable compleja y los sistemas
de ecuaciones diferenciales
2 Leonhard Euler (1707-1783). Matemático suizo. Destacó en el estudio de diversas cuestiones del cálculo logarı́tmico y
diferencial, ası́ como de las series algebraicas y la trigonometrı́a.
219
5.4. ALGUNOS MÉTODOS DE SOLUCIÓN PARA ECUACIONES INHOMOGÉNEAS
La siguiente ecuación diferencial
x2 y 00 − xy 0 + 5y =
1
x
tiene como solución de la homogénea
yh = x (C1 cos(2 ln x) + C2 sen(2 ln x))
r
la solución particular por el método de variación de los parámetros queda como
calculando los coeficientes respectivos en donde el Wronskiano
W (x cos(2 ln x); x sen(2 ln x)) = 2x
Pr
eli
m
por lo cual los coeficientes quedan
Z
Z
xsen(2 ln x) x1
1
u1 = G1 (x) dx =
dx = cos(2 ln x)
2x
4
Z
Z
x cos(2 ln x) x1
1
u2 = G2 (x) dx =
dx = sen(2 ln x)
2x
4
finalmente las solución particular será
1
1
1
2
2
cos (2 ln x) + sen (2 ln x) = x
yp = x
4
4
4
in
a
yp = u1 (x) yh1 + u2 (x) yh2
y la general
1
y = x (C1 cos(2 ln x) + C2 sen(2 ln x)) + x
4
5.4.4.
Métodos de reducción de orden
or
Este método supone, por lo tanto
a0 (x) y(x) + a1 (x) y 0 (x) + a2 (x) y 00 (x) = F(x)
Bo
rr
ad
tendrá como primer solución no trivial para la ecuación homogénea, yh1 (x), entonces la segunda solución
vendrá dada por
Z
yh2 (x) = yh1 (x) u(x) dx
donde u(x) es la función incógnita a determinar. Sustituyendo esta expresión en la ecuación homogénea se
obtiene
=0
z
}|
{Z
(a0 (x) y1 (x) + a1 (x) y10 (x) + a2 (x) y100 (x)) u(x) dx+
+a2 (x) y1 (x) u0 (x) + (2a2 (x) y10 (x) + a1 (x) y1 (x)) u(x) = 0
resolviendo la ecuación diferencial para u(x) tendremos que:
Z
−
u(x) =
e
a1
a2
dx
y12
220
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
La ecuación
(x − 1)y 000 + 2y 00 =
x+1
2x2
tiene como solución y1 = C1 x + C2 y como solución general
y = C1 x + C2 + C3 ln |x − 1| +
r
5.5.1.
Algunas aplicaciones de las ecuaciones de orden superior
Mecánica y Electricidad
in
a
5.5.
1
x ln |x|
2
Una de las más famosas ecuaciones diferenciales, lineales, ordinaria con coeficientes constantes es
du
d2 u
+β
+ γ u = Λ (t)
2
dt
dt
y circuitos eléctricos
d2 Q
1
dQ
+
Q = E (t)
+R
2
dt
dt
C
donde
or
L
forma
⇒
⇒
⇒
⇒
⇒
⇒
Desplazamiento
Velocidad
masa
Constante de Amortiguamiento
Constante Elástica
Fuerza Aplicada
Pr
eli
La cual utiliza para describir sistemas mecánicos y toma la

x


 dx



 dt
d2 x
dx
m
m 2 +η
+ k x = F (t)
donde
η

dt
dt



k



F (t)
m
α ü + β u̇ + γ u ≡ α















Q
=I
L
R
C
E (t)
dQ
dt
⇒
⇒
⇒
⇒
⇒
⇒
Carga Eléctrica
Intensidad de Corriente
Inductancia
Resistencia
Capacitancia
Fuerza Electromotriz
Bo
rr
ad
Analicemos la ecuación que describe sistemas mecánicos y dejamos la cual describe sistemas eléctricos para
un análisis posterior. El primero de los casos a analizar será el de las oscilaciones libres, vale decir F (t) = 0,
lo cual en el lenguaje de las ecuaciones diferenciales se traduce a ecuaciones diferenciales homogéneas. En
contraste, si F (t) 6= 0, es decir, el caso inhomogéneo, estaremos describiendo oscilaciones forzadas.
5.5.2.
Oscilaciones libres
Analicemos pues del caso del oscilador armónico libre, i.e.
d2 x
m 2 +k x=0
dt
⇒
r
x (t) = C1 cos (ω0 t) + C2 sen (ω0 t)
con ω0 =
k
m
ω0 se denomina la frecuencia natural de oscilación y C1 y C2 las constantes de integración que se determinan
de las condiciones iniciales. Es claro que
C1 = A cos δ
si
⇒ x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) ⇔ x (t) = A cos (ω0 t + δ)
C2 = A sen δ
221
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.8: Oscilador armónico libre. Cambios en la posición inicial no afectan la frecuencia natural.
con R la amplitud y δ en ángulo de fase. Obviamente, el perı́odo del movimiento será
r
2π
m
T =
= 2π
ω0
k
Bo
rr
ad
or
Ejemplo Como un ejemplo analicemos
q el caso de un sistema en el cual m = 0,1 Kg. y k = 0,4 N/m En
k
este caso la frecuencia angular ω0 = m
= 2 rad/sg. La ecuación diferencial que describe este movimiento
será

dx
⇒ x (t) = cos(2t)

 x (0) = 1; dt t=0 = 0;



2
d x
x (0) = 4; dx
⇒ x (t) = 4 cos (2t)
+4 x=0 ∧
dt t=0 = 0

dt2




⇒ x (t) = −2 cos (2t)
x (0) = −2; dx
dt t=0 = 0

x (0) = 0; dx
⇒ x (t) = 12 sen(2t)

dt t=0 = 1;




d2 x
⇒ x (t) = 2 sen (2t)
x (0) = 0; dx
+
4
x
=
0
∧
dt t=0 = 4;
2

dt




x (0) = 0; dx
dt t=0 = −2 ⇒ x (t) = − sen (2t)
5.5.3.
Oscilaciones libres amortiguadas
Consideremos que en el movimiento actúa una fuerza de amortiguación proporcional a la velocidad, por
lo cual el movimiento viene descrito por
m
d2 x
d2 x
dx
dx
+k x=
+ ω02 x = 0
+η
+ 2µ
2
dt
dt
dt2
dt
222
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.9: Oscilador Armónico Libre. Cambios de velocidad incial no afectan la frecuencia natural
la cual constituye una ecuación diferencial lineal homogénea de segundo orden. Las raı́ces del polinomio
caracterı́stico asociado serán
r
p
q
k
η
−η ± η 2 − 4km
η 2
−
=−
±
= −µ ± µ2 − ω02
r=
2m
2m
2m
m
por lo tanto la solución será
x (t) = C1 e
√
− µ+ µ2 −ω02 t
de donde se deducen los siguientes casos
⇐
µ2 − ω02 > 0
Sobreamortiguado
⇐
µ2 − ω02 = 0
Crı́tico
i
hp
io
n
hp
ω02 − µ2 t + C2 sen
ω02 − µ2 t
⇐
C1 cos
µ2 − ω02 < 0
Subamortiguado
t
Bo
rr
ad
x (t) = (C1 + C2 t) eµ
or
x (t) = C1 er1 t + C2 er2 t
x (t) = e−µ
t
+ C2 e
√
− µ− µ2 −ω02 t
Ejemplo Como un ejemplo analicemos el mismo caso del sistema anterior en el cual m = 0,1 Kg. y
k = 0,4 N/m, sólo que ahora
q la constante de amortiguamiento será η = 0,60,0,40 y 0,15 En todos los caso la
k
= 2 rad/sg. y la cantidad subradical µ2 − ω02 corresponderá a los tres casos
frecuencia angular ω0 = m
223
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.10: Oscilaciones libres amortiguadas y no amortiguadas. Nótese que el perı́odo es mayor para el
caso subamortiguado
anteriormente mencionados. Las ecuaciones diferenciales que describen este movimiento serán


x (0) = 0 

√
√
dx
7
7
d2 x
⇒ x (t) = 21 + 2√
e( 5−3)t + 12 − 2√
e−(3+ 5)t
dt2 + 6 dt + 4 x = 0 ∧ 
5
5

dx
dt t=0 = 4
d2 x
dt2
+4
dx
dt
+4 x=0 ∧

 x (0) = 0

+
dx
dt
+4 x=0
∧
=4

 x (0) = 0
⇒ x (t) = (1 + 6t) e−2t



or
d2 x
dt2
dx
dt t=0



dx
dt t=0
=4
1
⇒ x (t) = e− 2 t
h
√9
15
sen
√
15
2 t
+ cos
√
15
2 t
i

Bo
rr
ad
Si en los casos anteriores cambiamos el signo de la velocidad inicial, i.e. dx
dt t=0 = −4 m/s, tendremos la
siguiente representación gráfica.
√
√
−(3+ 5)t
1
1
1
( 5−3)t + 1 + √
√
x (0) = 1; dx
e
dt t=0 = −4; ⇒ x (t) = 2 − 2 5 e
2
2 5
x (0) = 1;
dx
dt t=0
= −4; ⇒ x (t) = (1 + 2t) e−2t
x (0) = 1;
dx
dt t=0
= −4
1
⇒ x (t) = e− 2 t
h
−7
√
15
sen
√
15
2 t
+ cos
√
15
2 t
i
En todos los casos dado que r1 , r2 < 0 se tiene que x (t → 0) → 0. El movimiento subamortiguado es
224
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
periódico y el perı́odo viene descrito por
Tam
2π
ω0
T
=r
2 = r
2
1 − ωµ0
1 − ωµ0
Pr
eli
Figura 5.11: Oscilaciones Libres amortiguadas con cambio de signo en la velocidad inicial
si
µ
ω0
2
<< 1
⇒
Tam ≈ T
1
1+
2
µ
ω0
2 !
el cual siempre sera mayor que el periodo de oscilación natural del sistema.
5.5.4.
Oscilaciones forzadas
or
Supongamos ahora que existe una fuerza aplicada al sistema tal que
dx
F0
d2 x
+ ω02 x =
cos ($t)
+ 2µ
dt2
dt
m
Bo
rr
ad
Oscilaciones forzadas no amortiguadas
En este caso µ = 0 y por lo tanto
d2 x
F0
+ ω02 x =
cos ($t)
2
dt
m
Amplitud modulada $ 6= ω0
y tendrá como solución
F0
F0
cos ($t) = A cos (ω0 t + δ) +
cos ($t)
x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) +
|
{z
} m (ω02 − $2 )
m (ω02 − $2 )
|
{z
}
homogénea
inhomogénea
225
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.12: Oscilador armónico forzado con $ = ω02 Nótese el fenómeno de resonancia
con lo cual es la suma de dos movimientos armónicos con distintas frecuencias y amplitudes. Si el cuerpo
parte del reposo, esto es: x (0) = ẋ (0) = 0 entonces

0

C1 = m ω−F
2 −$ 2
( 0
) 
F0
⇒ x (t) =
2 − $ 2 ) [cos ($t) − cos (ω0 t)]

m
(ω

0
C2 = 0
dado que
ω0 − $
ω0 + $
+
t
2
2
ω0 + $
ω0 − $
ω0 + $
ω0 − $
cos
− sen
sen
cos (ω0 t) = cos
2
2
2
2
ω0 − $
ω0 + $
cos ($t) = cos
−
t
2
2
ω0 − $
ω0 + $
ω0 − $
ω0 + $
cos ($t) = cos
cos
+ sen
sen
2
2
2
2
2F0
ω0 − $
ω0 + $
x (t) =
sen
t
sen
t
m (ω02 − $2 )
2
2
|
{z
}
Bo
rr
ad
or
cos (ω0 t) = cos
Envolvente
Ejemplo El mismo sistema anterior en el cual m = 0,1 Kg. y k = 0,4 N/m, cuando parte del reposo
desde el origen de coordenadas y existe una fuerza de excitación F = 0,5 cos (3t) . Por lo tanto la ecuación
226
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Figura 5.13: Oscilador armónico forzado. Nótese la envolvente de la función
Pr
eli
diferencial que describe el movimiento sera


x (0) = 0 

2
d x
1
5
=⇒ x (t) = cos(2t) − cos(3t) ≡ 2 sen
+ 4 x = 5 cos (3t)
t sen
t

 dx
| {z }
| {z }
dt2
2
2
|
{z
}
dt t=0 = 0
homogénea
inhomogénea
Resonancia $ = ω0
envolvente
En el caso que la frecuencia de la fuerza de excitación coincida con la frecuencia natural del sistema, se
tiene
d2 x
+ ω02 x = F0 cos (ω0 t)
dt2
x (t) = C1 cos (ω0 t) + C2 sen (ω0 t) +
or
=⇒
F0
t sen (ω0 t)
2mω0
| {z }
envolvente
Bo
rr
ad
Ejemplo El sistema anterior (m = 0,1 Kg. y k = 0,4 N/m), cuando parte del reposo desde el origen
de coordenadas y existe una fuerza de excitación F = 0,5 cos (2t) . Por lo tanto la ecuación diferencial que
describe el movimiento sera


 x (0) = 0 
d2 x
5t
+ 4 x = 5 cos (2t) ∧
=⇒ x(t) =
sen (2t)
 dx

dt2
4
dt t=0 = 0
5.5.5.
Oscilaciones forzadas amortiguadas
En este caso µ 6= 0 y por lo tanto
d2 x
F0
dx
+ 2µ
+ ω02 x =
cos ($t)
dt2
dt
m
227
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.14: Carga en función del tiempo en un circuito RLC sometido a un voltaje constante. Nótese que
el sistema alcanza el régimen estacionario cercano a los 0,3 sg
la cual tendrá como solución
√
√
F0
− µ+ µ2 −ω02 t
− µ− µ2 −ω02 t
x (t) = C1 e
+ C2 e
+
m
una vez más se puede convertir en
√
√
− µ− µ2 −ω02 t
− µ+ µ2 −ω02 t
+ C2 e
x (t) = C1 e
+
{z
}
|
solución homogéne ≡régimen transitorio
!
ω02 − $2 cos ($t) + 2µ$ sen ($t)
2
(ω02 − $2 ) + (2µ$)
2
F0
cos ($t − ζ)
q
m
2
2
(ω02 − $2 ) + (2µ$)
|
{z
}
donde
cos (ζ) = q
or
solución inhomogénea ≡ régimen estacionario
ω02 − $2
(ω02 −
2
$2 )
+ (2µ$)
2
y
sen (ζ) = q
2µ$
2
2
(ω02 − $2 ) + (2µ$)
Bo
rr
ad
Es claro que el término homogéneo en todos sus casos (sobreamortiguado, crı́tico y subamortiguado) tiende a
cero, por ello se considera un término transitorio, no ası́ el término inhomogéneo que permanece oscilando. En
términos Fı́sico se pude decir que el término transitorio representa la disipación de la energı́a inicial que se le
provee al sistema a través de la posición y la velocidad inicial de lanzamiento. Esta energı́a inicial se expresa
a través de las condiciones iniciales se disipa. Si no existiera disipación esta energı́a inicial permanecerı́a por
siempre en el sistema. Finalmente el término inhomogéneo, a través de la fuerza de excitación, impone el
movimiento al sistema. Nótese además que el termino inhomogéneo nunca se hace infinito, ni siquiera para el
caso para el cual tiene un máximo y es aquel en el cual la frecuencia de excitación coincide con la frecuencia
natural del sistema.
1
faradios, se
Ejemplo En un circuito RLC, cuyos componentes son L = 1 henry, R = 40 ohmios y C = 40000
le aplica un tensión de V = 24 voltios. Determine el comportamiento de la carga y la intensidad de corriente
en el circuito.
228
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.15: Intensidad en un circuito RLC sometido a un voltaje constante.
La ecuación diferencial que describe el comportamiento del sistema
dQ (t)
1
d2 Q (t)
+R
+
Q = E (t)
dt2
dt
C
d2 I (t)
dI (t)
1
dE (t)
L
+R
+
I (t) =
2
dt
dt
C
dt
L
⇒
⇒
d2 Q (t)
dQ (t)
1
+ 40
+ 40000 Q (t) =
dt2
dt
2
d2 I (t)
dI (t)
+ 40
+ 40000 I (t) = 0
2
dt
dt
Si en vez de un tensión constante de 0,5 V. la fuente de tensión es sinusoidal de la forma E (t) =
cos (180t) voltios las ecuaciones se transforman en
Bo
rr
ad
1
2
or
tomando en cuenta las condiciones iniciales tendremos como solución

h √

√
√
i
47 11
1
7
−20t

Q (0) = 10−4
Q(t)
=
+
e
sen
1160t
+
cos
1160t


8000
2640000
8000


⇒
h
√


√
√
i

I (0) = dQ
= 10−2 
 I (t) = dQ = e−20t 1 cos 1160t − 37 11 sen
1160t
dt
dt
100
6600
t=0
d2 Q
dQ
1
+ 40
+ 40000 Q = cos (180t)
dt2
dt
2
con Q (0) = 10−4
∧
I (0) =
dQ
dt
= 10−2
t=0
dI
d2 I
+ 40
+ 40000 I = −90sen (180t)
2
dt
dt
con sus correspondientes soluciones a las condiciones iniciales del sistema
(
"
#
)
√
√ √ 1
293
9
19
11
91
Q(t) =
e−20t
sen 60 11t +
cos 60 11t −
cos (180t) +
sen (180t)
1000
30140
685
274
548
(
"
#
)
√ 2461√11
√ 1
81
171
−20t 103
I(t) =
e
cos 60 11t −
sen 60 11t +
sen (180t) +
cos (180t)
100
274
3014
137
274
229
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.16: Carga en función del tiempo en un circuito RLC sometido a un voltaje sinusoidal V (t) =
1
2 cos (180t) . Nótese el régimen transitorio (0 ≤ t . 0,17) y estacionario (t & 0,17) .
Por analogı́a con el caso mecánico procedemos a identificar cantidades

2µ = R
L 
V0
1
⇒A= q
= √
4
2
2

2 $ − 78400$2 + 1600000000
1
1
2
ω02 = LC
L
+ R
LC − $
L$
con ello se puede ver la funcionalidad de la amplitud con la frecuencia excitatriz
5.5.6.
Movimiento alrededor de un punto de equilibrio
Bo
rr
ad
or
La fuerza elástica F = −k x más allá de ser el caso más simple, representa la primera aproximación al
movimiento alrededor de un punto de equilibrio estable. Si recordamos que para una fuerza que derive de un
potencial
d 21 k x2
dV
F =−
⇒ F = −k x = −
dx
dx
mas aun, un punto de equilibrio estable se define aquel en el cual no existen fuerzas externas, vale decir
F |x=x0 = 0
⇒−
dV
dx
=0
x=x0
por lo cual, dado un potencial de una fuerza arbitraria siempre podemos expandirlo en series de Taylor
alrededor de un punto de equilibrio x = x0
V (x) = v (x0 ) + (x − x0 )
2
dV
1
2 d V
+ (x − x0 )
dx x=x
2!
dx2
| {z }0
+
x=x0
3
1
3 d V
(x − x0 )
3!
dx3
···
x=x0
=0
230
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
1
2
cos (180t)
Pr
eli
Figura 5.17: Intensidad de corriente en un circuito RLC sometido a un voltaje sinusoidal V (t) =
Ası́, en general, alrededor de un punto de equilibrio x = x0 la primera aproximación de una función potencial
2
2
2
1
≈ 12 k (x − x0 ) . Ası́, un potencial de la forma
(x − x0 ) ddxV2
seraV (x) ≈ 2!
x=x0
V (x) =
1 6
35
50
x − 2x5 + x4 − x3 + 12x2
6
4
3
Solución: x5 − 10x4 + 35x3 − 50x2 + 24x Solución: que genera una fuerza
F =−
dV (x)
= − x5 − 10x4 + 35x3 − 50x2 + 24x
dx
or
tendrá dos puntos de equilibrio x = 0 y x = 4. En torno a x = 0 se podrá aproximar con un potencial
parabólico
2
1
2 d V (x)
Ṽ (x) = (x − x0 )
= 12x2
2!
dx2 x=x0
Bo
rr
ad
tal y como se observa gráficamente
5.5.7.
Péndulo simple con desplazamiento finito
El caso tı́pico de esta aproximación lo constituye el péndulo simple: una masa m, empotrada a una
varilla, de masa despreciable y de longitud L. La varilla se desplaza un ángulo θ de la vertical y se suelta.
La Figura (5.20) muestra el diagrama de cuerpo libre del Péndulo Fı́sico. Desde la ancestral fı́sica general,
aún en secundaria, era proverbial resolver este problema suponiendo ángulos pequeños. En esas tempranas
épocas de nuestro conocimiento de Fı́sica era limitado y más limitado aún era nuestra capacidad para resolver
ecuaciones diferenciales. A este “problema” se le conoce con el péndulo fı́sico. Como siempre, aproximar es un
arte y exploremos este arte. Como norma general tendremos que se debe aproximar al final. Pero no siempre.
Si suponemos un cuerpo de masa constante, m, las ecuaciones diferenciales que describen el movimiento no
231
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.18: Amplitud como función de la frecuencia excitatriz. Nótese el máximo de la amplitud cuando el
sistema entra en resonancia, i.e. $ = ω0
pueden ser otras que aquellas que provengan de las ecuaciones de Newton
−−−−→
−−−−
−
−−−
−
−−→
−−→
−→
−−
→
d mv(t)
= m a(t) = m (ar ûr + aθ ûθ ) ,
F (r(t), v(t), t) =
dt
externas
X
(5.7)
Es bueno recordar que hay que expresar la aceleración en un sistema de coordenadas móviles (ûr , ûθ ).
Esto es
dûr
dθ (t)
dθ (t)
= (− sen (θ)ı̂+ cos (θ) ̂)
=
ûθ = θ̇ (t) ûθ
dt
dt
dt
=⇒
or
ûr = cos (θ)ı̂+ sen (θ) ̂
dθ (t)
dθ (t)
dûθ
= − (cos (θ)ı̂+ sen (θ) ̂)
=−
ûr = −θ̇ (t) ûr
dt
dt
dt
ûθ = − sen (θ)ı̂+ cos (θ) ̂ =⇒
Bo
rr
ad
con lo cual
~r (t) = r (t) ûr
d ṙ (t) ûr + r (t) θ̇ (t) ûθ
~a (t) =
=⇒
y
r̈ (t) − r (t) θ̇2 (t) ûr + 2ṙ (t) θ̇ (t) + r (t) θ̈ (t) ûθ
=
=⇒ṙ (t) = ~v (t) = r̈ (t) = ~a (t) = 0
~r (t) = Lûr
=⇒
y
d Lθ̇ (t) ûθ
~a (t) =
d (r (t) ûr )
= ṙ (t) ûr + r (t) θ̇ (t) ûθ
dt
dt
es claro que si r (t) = L = cte
~v (t) =
dt
=
~v (t) =
d (Lûr )
= Lθ̇ (t) ûθ
dt
2 −L θ̇ (t)
ûr + Lθ̈ (t) ûθ
232
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Figura 5.19: Aproximación por una parábola en torno a x = 0
Pr
eli
Ası́, y para este caso particular, las ecuaciones de Newton quedan como

 m ar ≡ −mLθ̇2 (t) = −T + mg cos (θ)
~
m ~a = T + m ~g =⇒

m aθ = mLθ̈ (t) = −mg sen (θ) .
(5.8)
El caso que todos nos aprendimos de memoria, proviene de la suposición θ ≈ sen (θ) 1 que implica:

 mLθ̇2 (t) = −T + mg
m ~a = T~ + m ~g =⇒
(5.9)

mLθ̈ (t) = −mgθ.
or
con lo cual, ahora, en este curso, sabemos que lo podemos integrar inmediatamente. Si suponemos que parte
del reposo: θ̇ (0) = 0 y θ (0) = θ0
r r r g
g
g
t + C2 cos
t
=⇒θ (t) = θ0 cos
t
Lθ̈ (t) = −gθ (t) =⇒θ (t) = C1 sen
L
L
L
Bo
rr
ad
y el perı́odo puede ser integrado
g
θ̇ (t) θ̈ (t) = − θ (t) θ̇ (t)
L
=⇒Etotal
g
2
∝ cte = θ̇ (t) + 2 θ (t)
L
2
r
=⇒θ̇ (t) =
g 2
(θ − θ2 )
L 0
(5.10)
que no es otra cosa que la energı́a total del sistema. Por lo tanto sabemos que en el instante inicial, si soltamos
la masa desde un ángulo θ0 , la energı́a total es puramente potencial. Es decir
1
2
Etotal = Epotencial = mgL (1 − cos (θ0 )) = 2mgL sen
θ0
(5.11)
2
por otro lado, de la ecuación (5.10) podemos obtener el perı́odo de oscilación para el Péndulo Fı́sico linealizado:
!
r
g 2
1
θ
ω = θ̇ (t) =
(θ − θ2 ) =⇒T = p g arctan p 2
L 0
θ0 − θ2
L
233
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.20: Diagrama de Cuerpo Libre, del Péndulo Fı́sico
Este caso también se conoce con el nombre de oscilador armónico simple o péndulo fı́sico linealizado.
Igualmente podemos analizar el caso de general del péndulo amortiguado forzado linealizado. Vale decir,
una masa, m,atada a una varilla sin masa de longitud L,y que oscila, inmersa en un fluido que la frena el
movimiento de la masa con una fuerza, −η ~v (t) y que adicionalmente está excitada por una fuerza exterior
F (t) = F0 cos ($t) . Recordamos que en este caso la ecuación en la dirección tangente (ûθ ), es
d2 θ (t)
dθ (t)
+η
+ mg θ (t) = F0 cos ($t)
dt2
dt
d2 θ (t)
dθ (t)
F0
+ 2µ
+ ω02 θ (t) =
cos ($t)
dt2
dt
mL
r
g
η
y ω0 =
.
donde, por costumbre, hemos rebautizado las constantes tales que µ =
2mL
L
Por lo tanto, su solución tendrá la forma
√
√
cos ($t − ζ)
F0
− µ+ µ2 −ω02 t
− µ− µ2 −ω02 t
q
θ (t) = C1 e
+C e
+
|
{z 2
}
mL
2
2
(ω02 − $2 ) + (2µ$)
solución homogéne ≡régimen transitorio
|
{z
}
=⇒
Bo
rr
ad
or
mL
donde
cos (ζ) = q
solución inhomogénea ≡ régimen estacionario
ω02 − $2
(ω02 −
2
$2 )
+ (2µ$)
y
2
sen (ζ) = q
2µ$
2
2
(ω02 − $2 ) + (2µ$)
Hemos aprendido que dependiendo del valor de los coeficientes de la ecuación caracterı́stica del Péndulo
Fı́sico amortiguado libre (F0 = 0) se derivan tres casos posibles:
Subamortiguado: µ2 − ω02 < 0
Sobreamortiguado: µ2 − ω02 > 0
234
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.21:
√ Evolución θ (t) vs t del Péndulo Fı́sico libre, para distintos valores de la velocidad inicial
V0 = 3, 5, 40, 7, 8.
Crı́tico µ2 − ω02 = 0
Bo
rr
ad
or
En el caso del Péndulo Fı́sico amortiguado forzado (F0 6= 0) la fı́sica se hace mucho más rica y pueden
2
2
ocurrir fenómenos de resonancia cuando ω02 − $2 + (2µ$) → 0.
Es interesante considerar los gráficos tanto de la evolución del sistema en el espacio directo: θ (t) vs t;
como la evolución del sistema en el espacio de fases ω = θ̇ (t) vs θ (t) . Las figuras (5.23) y (5.25) muestran
la primera de estas evoluciones, es decir, la evolución del ángulo en el espacio directo. Las figuras (5.24) y
(5.26) muestran la evolución del sistema en el espacio de fases. Es claro de la ecuación (5.10), en la cual
aparece ω = θ̇ (t) = θ̇ (θ (t)) ,que las curvas en el diagrama de fase tanto para el caso libre (figura (5.22))
como para los de los casos amortiguados (figuras (5.24) y (5.26)) corresponden a curvas de misma energı́a.
En el caso del Péndulo Fı́sico linealizado libre, corresponden a curvas de energı́a constante. en los otros casos
el sistema va disipando energı́a debido al coeficiente de amortiguación.
Nótese que la disipación obliga al sistema a evolucionar al punto de equilibrio siguiendo trayectorias
espirales en el espacio de fases. Claramente más rápidamente en el caso sobreamortiguado que en el subamortiguado. También sabemos que para el caso crı́tico (µ2 − ω02 = 0) el tiempo de evolución del sistema
hasta llegar al punto de equilibrio será menor que en cualquiera de los casos sobreamortiguados. Dejamos al
lector la comprobación de esta última afirmación.
Hemos aprendido que dependiendo del valor de los coeficientes de la ecuación caracterı́stica del Péndulo
Fı́sico amortiguado libre (F0 = 0) se derivan tres casos posibles:
Ahora bien, la situación que nos interesa simular es la del péndulo fı́sico para los casos en los cuales los
ángulos de oscilación no necesariamente sean pequeños.
Denominaremos péndulo libre al caso en el cual no recurriremos a ninguna aproximación respecto al
ángulo de oscilación. Recordemos que para este caso partimos de la ecuación (5.8) en la dirección tangente.
Es decir
!
2
g
θ̇ (t)
g
− cos θ (t)
Lθ̈ (t) = −g sen (θ) =⇒ θ̇ (t) θ̈ (t) = − sen θ (t) θ̇ (t) =⇒ Etotal ∝ cte =
L
2
L
235
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.22: Digrama de Fase para el Oscilador Armónico Simple. Nótese que el punto de equilibrio es el
origen de coordenadas.
Bo
rr
ad
or
Al igual que en la ecuación en la dirección tangente linealizada (5.10), nos encontramos con la Energı́a total
del sistema. Con lo cual Es fácil despejar θ̇ (t) = θ̇ (θ (t)) y construir los diagramas de fases del sistema. Otra
vez, las lı́neas del diagrama de fase serán lı́neas de la misma energı́a. Ası́ podemos graficar
r
2g
cos (θ (t))
(5.12)
θ̇ (t) = ± C +
L
g
para distintos valores de la constante C = 4, 01; 4, 1; 6; 8; 10; 20 y para el caso
= 4. La Figura (5.27)
L
representa el diagrama de fase para estos casos. Las curvas cerradas (aquellas que tienen los valores de ángulos
y velocidades acotadas) representan oscilaciones del sistema, mientras que las curvas abiertas (aquellas en
las cuales las velocidades están acotadas pero no ası́ el valor del ángulo) representan que el sistema rota.
Nótese que el sistema presenta puntos de equilibrio inestable para θ (t) ≈ ±nπ con n = 0, 1, 2. Lo cual era de
esperarse por cuanto corresponde al ángulo en el cual el sistema varilla-masa se encuentran verticalmente
dispuestos y el peso y la tensión son colineales y se anulan momentáneamente.
Otro enfoque, quizá más intuitivo para resolver este problema, pudo haber sido el análisis energético.
Para ello sabemos que, por ser un sistema conservativo, la energı́a total viene definida por
1
θ (t)
1
2
2
Etotal = mL2 θ̇ (t) + mgL (1 − cos (θ (t))) ≡ mL2 θ̇ (t) + 2mgL sen2
|
{z
}
2
2
|2 {z
}
Energı́a Potencial
Energı́a Cinética
por consiguiente
s
θ̇ (t) = ±
2Etotal
4g
−
sen2
2
mL
L
θ (t)
2
θmáx
s
≡ ±2
g
θmáx
θ (t)
sen2
− sen2
L
2
2
(5.13)
donde hemos sustituido Etotal = 2mL sen2 2
con θmáx el ángulo máximo que alcanza el Péndulo Fı́sico,
por cuanto en ese punto la energı́á total es puramente potencial. Nótese que ese ángulo no necesariamente
es el ángulo inicial, debido a que la velocidad incial puede ser distinta de cero.
236
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
m
g
Figura 5.23: Evolución θ (t) vs t del Péndulo Simple, Subamortiguado ( = 4; µ = 0, 5) libre,para distintos
L
√
valores de la velocidad inicial V0 = 3, 5, 40, 7, 8.
La ecuación (5.13) es claramente integrable por separación de variables y conduce a encontrar la expresión
para el perı́odo:
s Z
dθ
1 L θ(t)
r
t=
con − π ≤ θ (t) ≤ π
y θ0 = θ (0)
2 g θ0
g
2 θ
sen2 θmáx
−
sen
2
2
L
sen
2
or
La integral anterior, puede ser transformada en otra que aparece en las tablas integrales, si hacemos sen β =
sen( θ2 )
, con lo cual
θmáx
Bo
rr
ad
s Z
L ζ(t)
dβ
q
t=
g ζ(0)
1 − sen2 θmáx sen2 β
2
donde









sen β =
sen
sen
θ
2
θmáx
2




sen θ(t)

2



ζ (t) = arcsin 



sen θmáx
2
(5.14)
π
Es claro que el recorrido entre ζ (0) = 0 =⇒ θ = 0 a θ = θmáx =⇒ ζ (t) =
representa un cuarto del
2
perı́do, por consiguiente el perı́odo total del Péndulo Fı́sico será:
s Z π
L 2
dβ
q
T =4
g 0
1 − sen2 θmáx
sen2 β
2
237
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
5.5.8.
Pr
eli
m
g
Figura 5.24: Evolución θ̇ (t) vs θ (t) del Péndulo Fı́sico Subamortiguado libre ( = 4; µ = 0, 5) en el Espacio
L
√
de Fases para distintos valores de la velocidad inicial V0 = 3, 5, 40, 7, 8. Nótese que la disipación lleva
irremediablemente al sistema al punto de equilibrio, vale decir al origen de coordenadas del espacio de fases.
Disgresión elı́ptica
En este punto haremos una disgresión respecto a las integrales elı́pticas, su clasificación y algunas de sus
propiedades. En general encontrarán en la bibliografı́á que las integrales elı́pticas se dividen en
Integrales Elı́pticas de Primera Especie
Z x
Z ϕ
dt
dβ
p
p
⇐⇒ F (x|m) =
F (ϕ\α) =
2
(1 − t ) (1 − mt2 )
1 − sen2 α sen2 β
0
0
con 0 ≤ m ≤ 1
or
π
las cuales, para el caso particular ϕ = o x = 1, se puede reacomodar como una Integral Elı́ptica de
2
Primera Especie Completa
Bo
rr
ad
Z π
K (m) = 2 p
0
Z
dβ
1 − m sen2 β
≡
0
1
dt
p
(1 − t2 ) (1 − mt2 )
con 0 ≤ m ≤ 1
(5.15)
Integrales Elı́pticas de Segunda Especie
Z
E (ϕ\α) =
0
y si ϕ =
ϕ
p
1−
sen2
α sen2
Z
βdβ ⇐⇒ E (x|m) =
0
x
s
1 − mt2
dt
(1 − t2 )
con 0 ≤ m ≤ 1
π
o x = 1, entonces se obtiene una Integral Elı́ptica de Segunda Especie Completa
2
s
Z πp
Z 1
1 − mt2
2
2
E (m) =
1 − m sen βdβ ≡
dt
con 0 ≤ m ≤ 1
(1 − t2 )
0
0
238
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
m
g
Figura 5.25: Evolución θ (t) vs t del Péndulo Fı́sico Sobreamortiguado ( = 4; µ = 3, 5) libre,para distintos
L
√
valores de la velocidad inicial V0 = 3, 5, 40, 7, 8.
Adicionalmente, y también sin perder generalidad, dado que 0 ≤ m ≤ 1, el denominador de la integral
elı́ptica K (m) de la ecuación (5.15) y equivalentemente de la ecuación (5.14) puede ser expandido en series
de potencias. Con lo cual
1
1
3
5
35
2
4 2
2
6 3
3
8 4
p
= 1 + sen βm +
sen β m +
sen β m +
sen β m4 + · · ·
2
8
16
128
1 − m sen2 β
1
1 − m sen2 β
=
1
1
1·3
π 1+
sen2 β m +
sen4 β m2 +
2
2
2·4
1·3·5
6
3
4
sen β m + O m
+
2·4·6
or
p
∞
X
(2n − 1)!! n
m sen2n β
(2n)!!
n=0
Bo
rr
ad
1
p
1 − m sen2 β
=
y siendo una serie uniformemente convergente puede ser integrada término a término como
Z π
K (m) = 2 p
0
Z π
Z π
∞
∞
X
X
(2n
−
1)!!
(2n − 1)!! n
2
=
m sen2n β =
mn 2 sen2n β dβ
dβ
2
(2n)!!
(2n)!!
1 − m sen β
0
0
n=0
n=0
dβ
2
∞
∞ X
π X (2n − 1)!!
(2n − 1)!! n (2n − 1)!! π
K (m) =
m
·
=
mn
(2n)!!
(2n)!!
2
2
(2n)!!
n=0
n=0
239
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
m
g
Figura 5.26: Fı́sico Sobreamortiguado libre ( = 4; µ = 3, 5) en el Espacio de Fases para distintos valores de
L
√
la velocidad inicial V0 = 3, 5, 40, 7, 8. Nótese que la disipación lleva irremediablemente al sistema al punto
de equilibrio, vale decir al origen de coordenadas del espacio de fases.
Del mismo modo se obtiene para las integrales elı́pticas completas de segunda especie que
"
#
2
Z πp
∞ X
π
mn
(2n − 1)!!
2
2
E (m) =
1 − m sen βdβ =
1−
2
(2n)!!
2n − 1
0
n=1
Bo
rr
ad
3 Abramowitz,
or
Finalmente podemos mencionar la relación de “recurrencia” de Legendre para las Integrales Elı́pticas completas. Ella es
π
E (m) K (1 − m) + E (1 − m) K (m) − K (m) K (1 − m) =
2
Las integrales elı́pticas de primera y segunda especie, incompletas y completa deben resolverse numéricamente
y tradicionalmente están tabuladas en algunas tablas integrales 3 . En nuestros dı́ás también pueden ser
resueltas numéricamente utilizando comandos de manipuladores simbólicos4 .
M. y Stegun I.A (1964) Handbook of Mathematical Functions Dover, New York
el caso de MAPLEV se puede proceder directamente evaluando numéricamente la integral (5.14) a través del comando
evalf(int(...)) o mediante la función de biblioteca EllipticF(z,k) donde z= β es al argumento del seno y k= sen θ20 el
4 En
parámetro (consulte la ayuda de MAPLE para más detalles).
240
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Figura 5.27: Diagrama de Fase para el Péndulo Fı́sico.
¿Cuán buena es la aproximación lineal?
Pr
eli
5.5.9.
Utilizando la expansión en serie de la Integral Elı́ptica completa de primera especie (5.14) del péndulo
fı́sico, tendremos que se cumple
s
s Z π
dβ
π
θmáx
L 2
L
2
q
=4
F
\ sen
T =4
=⇒
g 0
g
2
2
1 − sen2 θmáx sen2 β
2
T = 2π
2 2n
∞ L X (2n − 1)!!
θmáx
sen
g n=0
(2n)!!
2
or
s
q
2π
7
+ O θmáx
y que T0 =
= 2π Lg tendremos
ω0
s
∞
2
2n
L X (2n − 1)!!
1
1 3
1 5
7
T = 2π
θmáx − θmáx
+
θmáx + O θmáx
=⇒
g n=0
(2n)!!
2
48
3840
θmáx
2
= 21 θmáx −
1 3
48 θmáx
+
1
5
3840 θmáx
Bo
rr
ad
más aún, dado que sen
1 2
11 4
T ≈ T0 1 + θmáx
+
θmáx
16
3072
y si realizamos un estimado de las correcciones al problema lineal que conlleva esta expansión veremos que
π
aún para ángulos θmáx =
las correcciones son del orden de un pı́rrico 4 %, con lo cual la aproximación
4
lineal resulta bien razonable. Para ángulos θmáx & 1 las correcciones comienzan a ser significativas y todo
este esfuerzo de integración empieza a tener sentido. La siguiente tabla da una idea más clara de este cambio
en el perı́odo del pénulo y los errores relativos porcentuales respecto al perı́odo del péndulo fı́sico linealizado
2π
T0 =
,cuando se considerán distintos valores del ángulo máximo, θmáx
ω0
241
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
T0 =
2π
= 2,83845
ω0
T
= 100
5.5.10.
|T − T0 |
T
π
12
2,85066
θmáx =
0,42821
Pr
eli
Figura 5.28: Integración numérica (θ t̃ vs t̃, con 0 ≤ t̃ ≤ 10) del Péndulo Fı́sico, para distintos valores de
dθ(t)
la velocidad angular inicial:
= ϕ(t) = 3,5, 3,9, 4, 4,1, 4,5.
dt
π
6
2,88786
θmáx =
1,71109
π
4
2,95191
θmáx =
3,84368
π
3
3,04617
θmáx =
6,81916
π
2
3,35034
θmáx =
15,2786
2π
3
3,89685
θmáx =
37,1283
El péndulo fı́sico: integración numérica
Bo
rr
ad
or
Tal y como indicamos en la primera sección de este proyecto, procedemos a convertir una ecuación de
segundo orden en un sistema de ecuaciones diferenciales de dos ecuaciones diferenciales de primer orden. Ası́,
del mismo modo que en la ecuación (??) podremos escribir:


 dθ(t) = ϕ(t)
dt
θ̈ (t) = −ω0 sen (θ) =⇒

 dϕ(t) = −ω0 sen (θ(t))
dt
con lo cual podemos adimensionalizar de dos varias formas, dependiendo de las condiciones iniciales del
t
1 d (·)
=
movimiento. Si adicionalmente hemos adimensionalizado con t̃ =
por lo que 0 ≤ t̃ ≤ 1 y
tf inal
tf inal dt̃
d (·)
ϕ
dθ(t)
y, adcionalmente: ϕ̃ =
, con ϕ0 =
6= 0. De este modo el sistema queda escrito
dt
ϕ0
dt t=0
dθ(t)
= ϕ(t)
=⇒
dt
dϕ(t)
= −ω0 sen (θ(t)) =⇒
dt
d θ(t̃)
= ϕ0 tf inal ϕ̃(t̃)
dt̃
d ϕ̃(t̃)
ω 2 tf inal
=− 0
sen θ(t̃)
ϕ0
dt̃
=⇒
=⇒
d θ(t̃)
= Λ ϕ̃(t̃)
dt̃
d ϕ̃(t̃)
= −Γ sen θ(t̃)
dt̃
242
m
in
a
r
5.5. ALGUNAS APLICACIONES DE LAS ECUACIONES DE ORDEN SUPERIOR
Pr
eli
Figura 5.29: Digrama de Fase para el Péndulo Fı́sico
Bo
rr
ad
or
Nótese que las cantidades ϕ̃(t̃), θ(t̃), t̃, Γ y Λ son adminensionales. Acto seguido procedemos a integrar
numéricamente el sistema de ecuaciones5 .
La figura (5.28) ilustra la evoluciı́on del ángulo θ (t) vs t, con 0 ≤ t ≤ 10 del Péndulo Fı́sico, para distintos
dθ(t)
= θ̇(t) = ϕ(t) = 3,5, 3,9, 4, 4,1, 4,5. Mientras que la figura (5.29)
valores de la velocidad angular inicial:
dt
dθ(t)
(y también la figura (5.27)) representan la evolución del sistema en el espacio de fases. θ (t) vs
= ϕ(t).
dt
Las curvas cerradas en esta gráfica corresponden a las curvas oscilantes de la figura (5.28). Dado que el
sistema parte de θ0 = θ (t = 0) y seleccionamos el nivel de energı́á potencial igual a cero allı́, cada una de
1
estas curvas representan un valor de la energı́á cinética inicial. El caso Ec = mL2 θ̇02 = mg2L corresponde
2
a la separatrı́z, vale decir, la órbita que separa las curvas cerradas de las abierta. Es claro que en este caso le
movil “subirá” y alcanzará un equilibrio inestable en la posición vertical. En la figura (5.28) este caso viene
ilustrado por la curva que se convierte en horizontal 0, 25 ≤ t̃ ≤ 0, 5, luego a partir de t̃ ≈ 0, 5, la inexactitud
del cálculo numérico genera pertubaciones que en teorı́á no debieran existir.
Ec =
1
mL2 θ̇02 = mg2L
2
5 En MAPLEV podemos integra el sistema de dos maneras distintas. La primera haciendo uso del comando dsolve({sysED,CI}, numeric, vars, options) donde sysED es el sistema de ecuaciones diferenciales, CI sus
condiciones iniciales. Si necesitáramos un análisis gráfico es mucho más útil el paquete DEtools.
243
r
6
in
a
Capı́tulo
Bo
rr
ad
or
Pr
eli
m
Sistemas de ecuaciones diferenciales
244
6.1. ALGUNOS COMENTARIOS INICIALES
6.1.
Algunos comentarios iniciales
d2 r1 (t)
dt2
d2 r2 (t)
=
dt2
..
.
drn (t)
d2 rn (t)
,
,t
=
dt
dt2
=
in
a
drn (t)
,t
dt
drn (t)
,
,t
dt
,
m
dr1 (t) dr2 (t)
F1 r1 (t) , r2 (t) , · · · , rn (t) ,
,
,···
dt
dt
dr1 (t) dr2 (t)
F2 r1 (t) , r2 (t) , · · · , rn (t) ,
,
,···
dt
dt
..
.
dr1 (t) dr2 (t)
Fn r1 (t) , r2 (t) , · · · , rn (t) ,
,
,···
dt
dt
r
Cuando consideramos la evolución de sistemas con varios grados de libertad o con varias partı́culas, naturalmente arribamos al tratamiento de sistemas de ecuaciones diferenciales. En estos sistemas encontramos
varias variables dependientes de una sola variable independiente. El más natural de los ejemplos es el caso
de un sistema de partı́culas que se mueve en el espacio bajo la acción de fuerzas externas:
si hacemos el siguiente cambio variable
un = y (n−1) (x) ;
un−1 = y (n−2) (x) ;
Pr
eli
Por otro lado, es importante acotar de que existe la posibilidad de convertir una ecuación diferencial
ordinaria de orden superior es un sistema equivalente de ecuaciones diferenciales. Es decir, dada una ecuación
diferencial de la forma
y (n) (x) = F y (n−1) (x) , y (n−2) (x) , , · · · y 000 (x) , y 00 (x) , y 0 (x) , y (x) , x
···
u4 = y 000 (x) ;
u3 = y 00 (x) ;
u2 = y 0 (x) ;
u1 = y (x)
entonces construir el siguiente sistema de ecuaciones diferenciales
u0n (x) = Fn (un , un−1 , · · · , u3 , u2 , u1 , x)
or
u0n−1 (x) = y (n−1) (x)
..
.
u03 (x) = y 000 (x)
u02 (x) = y 00 (x)
Bo
rr
ad
u01 (x) = y 0 (x)
que puede ser generalizado a:
u0n (x) = Fn (un , un−1 , · · · , u4 , u3 , u2 , u1 , x)
u0n−1 (x) = Fn−1 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x)
..
..
.
.
u02 (x) = F2 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x)
u01 (x) = F1 (un , un−1 , · · · , u4 , u3 , u2 , u1 , x)
Para garantizar que existe solución al problema de valores iniciales se debe imponer algunas restricciones
sobre las funciones Fi (un , · · · , u3 , u2 , u1 , t) para ello existen un par de teoremas que garantice esa solución
245
6.1. ALGUNOS COMENTARIOS INICIALES
Teorema 1: Sean las funciones F1 , F2 , · · · Fn y sus derivadas:
∂1 F1 , ∂1 F2 , · · · ∂1 Fn , · · · ∂i F1 , ∂i F2 , · · · ∂j Fn · · · ∂n F1 , ∂n F2 , · · · ∂n Fn
in
a
Teorema 2: Sea el siguiente sistema lineal de ecuaciones diferenciales
r
continuas en una región R del espacio (x, u1 , u2 , · · · , un ), que contiene al punto x0 , u01 , u02 , · · · , u0n que
caracteriza las condiciones iniciales. Entonces existe un intervalo |x − x0 | < h en el cual existe una única
solución: u1 = φ1 (x) , u2 = φ2 (x) , · · · , un = φn (x).
∂Fi
Hemos denotado ∂j Fi =
y u0m = um (x0 ) las condiciones iniciales.
∂uj
=
p11 (x) u1 + p12 (x) u2 + · · · + p1n (x) un + g1 (x)
u02
=
..
.
p21 (x) u1 + p22 (x) u2 + · · · + p2n (x) un + g2 (x)
..
.
u0n
= pn1 (x) u1 + pn2 (x) u2 + · · · + pnn (x) un + gn (x)
m
u01
(6.1)
Pr
eli
Si p11 (x) , p12 (x) , · · · p1n (x) · · · pij (x) · · · pnn (x) y g1 (x) · · · gn (x) son funciones continua en el intervalo
α < x < β que contiene al punto x = x0 entonces existe una única solución que satisface las condiciones
iniciales u0m = um (x0 ).
Ejemplo Dada la siguiente ecuación diferencial de tercer orden, no lineal
y 000 = 3xy 0 − y 2 y 00 ,
con: y(0) = 1, y 0 (0) = −1, y 00 (0) = 2 ,
Por el hecho de ser no lineal, los métodos anteriormente vistos no pueden ser aplicados aquı́. Pero podemos
construir un sistema de ecuaciones diferenciales equivalente a la ecuación anterior. Consideramos que y(x)
es una solución de la ecuación diferencial dada y definamos las siguientes cantidades:
y(x)
0
y (x)
= u01 (x) = u2 (x)
y (x)
= u001 (x) = u02 (x) = u3 (x)
y 000 (x)
00
0
= u000
1 (x) = u2 (x) = u3 (x)
or
00
= u1 (x)
por lo tanto, la ecuación diferencial dada se puede escribir como:
Bo
rr
ad
y 000 = 3xy 0 − y 2 y 00
⇒
u03 = 3xu2 − u21 u3
ahora, el sistema de ecuaciones de primer orden equivalente a la ecuación diferencial problema es:
u01 (x) = u2 (x)
u02 (x) = u3 (x)
u03 (x) = 3xu2 − u21 u3
que debemos resolver para el conjunto de condiciones iniciales:
u1 (0) = y(0) = 1, u2 (0) = y 0 (0) = −1, u3 (0) = y 00 (0) = 2
por lo tanto, la función u1 (x) que satisface este último sistema será la solución de la ecuación diferencial de
nuestro problema. Es necesario entonces tener la capacidad de resolver sistemas de ecuaciones diferenciales
de primer orden y a este cometido nos dedicaremos a continuación.
246
6.1. ALGUNOS COMENTARIOS INICIALES
Notación Vectorial: El sistema lineal antes mencionado, es decir, las ecuaciones (6.6), puede condensarse
en la siguiente ecuación matricial
u0 (x) = P (x) u(x) + g (x) ,
(6.2)
p1n (x)
p2n (x)
..
.
pn1 (x) pn2 (x) · · ·
pnn (x)






; u = 




u1 (x)
u2 (x)
..
.




; g = 


g1 (x)
g2 (x)
..
.





gn (x)
un (x)
in
a
u0n (x)
···
···
..
.
p12 (x)
p22 (x)
..
.
r
en la cual estamos representando
 0


u1 (x)
p11 (x)
 u02 (x) 
 p21 (x)



u0 = 
; P = 
..
..



.
.
El sistema (6.2) será homogéneo si g (x) = 0, en caso contrario será un sistema no homogéneo.
6.1.1.
Sistemas lineales homogéneos
Dado un sistema de ecuaciones diferenciales con coeficientes constantes, es decir, de la forma
(6.3)
m
y0 (x) = Ay(x)
Pr
eli
procedemos de manera análoga al caso de una sola ecuación con coeficientes constantes. Se considera una
solución de prueba de la forma: y = ξerx , donde r y el vector constante ξ son elementos a determinar. Al
sustituir esta solución en (6.3), obtenemos: ξrerx = Aξerx , con lo cual, el problema se reduce a la búsqueda
de los autovalores y autovectores del sistema Aξ = rξ. En forma de matrices, la ecuación (6.3) es:
 0  
 





a11 a12 · · · a1n
y1
y1
y1 (x)
ξ1
 y20   a21 a22 · · · a2n   y2 
 y2 (x) 
 ξ2 

 
 





= erx  . 
⇒ 
 ..  =  ..




..
.
.
.
.
.
.
.
.
.
 .   .






.
.
.
.
.
. 
0
an1 an2 · · · ann
yn (x)
yn
yn
ξn
con aij , y ξi como constantes.
Por lo tanto:
Aξ = rξ
or
en forma de matrices, esto es:

a11 − r
 a21


..

.
⇒
Bo
rr
ad
a12
a22 − r
..
.
an1
an2
(A − rI) ξ = 0 ,
···
···
..
.
a1n
a2n
..
.
···
ann − r





ξ1
ξ2
..
.


 
 
=
 
0
0
..
.





(6.4)
0
ξn
Es decir, para resolver el sistema de ecuaciones diferenciales lineales con coeficientes constantes, es necesario
resolver el sistema de ecuaciones algebraico.
Ejemplo Resolvamos el siguiente sistema de ecuaciones
y10 (x) = y1 (x) + y2 (x)
y20 (x) = 4y1 (x) + y2 (x)
este sistema se puede representar de la siguiente forma
1 1
1−r
y0 =
y
si y = ξerx ⇒
4 1
4
1
1−r
ξ1
ξ2
=
0
0
247
6.1. ALGUNOS COMENTARIOS INICIALES
primero que todo se calculan los autovalores:
1−r
4
1
1−r
2
= (1 − r) − 4 = r2 − 2r − 3 = 0

 r1 = 3
⇒

r2 = −1
para el autovalor r1 = 3, (6.4) resulta en
(1)
=0
⇒
ξ
(1)
=
ξ1
(1)
2ξ1
!
=
1
2
similarmente, para el segundo autovalor r2 = −1, se tiene
! (2)
ξ1
1
(2)
ξ =
=
(2)
−2
−2ξ1
por lo tanto, la solución general del sistema será
⇐⇒
e3x
2e3x
= C1
e−x
−2e−x
1
2
e3x + C2
1
−2
e−x
= −4e−2x 6= 0
Pr
eli
Obviamente el wronskiano de esta solución
h
i
W y(1) (x) , y(2) (x) =
y1
y2
m
y = C1 y(1) (x) + C2 y(2) (x)
r
+
(1)
ξ2
in
a
−2
(1)
ξ1
garantiza que las dos soluciones son linealmente independientes.
Para el caso de matrices
hermı́ticas, A = A† ,vale decir, que la matriz A coincide con su conjugada y
T ∗
traspuesta, A = A
, todos los autovalores son reales y la solución general para un sistema de n ecuaciones
diferenciales lineales con coeficientes constantes es
y (x) = C1 ξ (1) er1 x + C2 ξ (2) er2 x + · · · + Cn ξ (n) ern x
Bo
rr
ad
or
Para el caso particular de matrices simétricas (hermı́ticas reales) los autovalores r1 , r2 , · · · , rn y los
autovectores ξ (1) , ξ (2) , · · · , ξ (n) resultan ser ambos son reales.
Consideremos ahora el caso cuando la matrix A no es hermı́tica pero real. Entonces

 r1 = λ + iµ
y0 = Ay ⇒ y = ξerx ⇒ (A − rI) ξ = 0 ⇒

r2 = λ − iµ
∗
esto significa que r1 = r2∗ y que ξ (1) = ξ (2) , por lo cual ξ (1) = a + ib con a y b vectores reales, entonces:
y(1) (x)
=
(a + ib) e(λ+iµ)x = (a + ib) eλx [cos(µx) + i sen(µx)]
= eλx [a cos(µx) − b sen(µx)] + ieλx [a sen(µx) + b cos(µx)]
= u (x) + iv (x) .
Es posible que se nos presente la siguiente situación: por un lado, algunos de los autovalores de la matriz
real, A, son números complejos, r1 = λ + iµ y r2 = λ − iµ, pero el resto de las raı́ces resultan ser números
reales: r3 , r4 , · · · , rn . Por el otro lado, algunos de los autovectores son complejos: ξ (1) = a + ib, ξ (2) = a − ib,
pero el resto de autovectores no lo son: ξ (3) , ξ (4) , · · · , ξ (n) .
En este caso, la solución general sera
y (x) = C1 u (x) + iC2 v (x) + C3 ξ (3) er3 x + C4 ξ (4) er4 x + · · · + Cn ξ (n) ern x .
248
6.1. ALGUNOS COMENTARIOS INICIALES
Ejemplo Queremos resolver el siguiente sistema de ecuaciones
y10 (x) = y1 (x) − y2 (x)
y20 (x) = 5y1 (x) − 3y2 (x)
En forma de matrices lo que tenemos es
y0 =
−1
−3
1
5
y
Si utilizamos la siguiente solución de prueba y = ξerx , entonces:
1−r
−1
ξ1
0
=
5
−3 − r
ξ2
0
−1
−3 − r
= r2 + 2r + 2 = 0
⇒

finalmente la solución general será
−x
y(x) = C1 e
r2 = −1 − i

1

(1)

ξ =


2−i

⇒



(2)

 ξ =
Pr
eli
1−r
5

 r1 = −1 + i
m
Se calculan los autovalores
r
⇒
in
a
y0 = Ay
cos(x)
2 cos(x) + sen(x)
−x
+ iC2 e
sen(x)
− cos(x) + 2sen(x)
1
2+i
.
Bo
rr
ad
or
Para el caso que los autovalores de la matriz real, A, estén repetidos k veces, es decir, r1 = r2 = · · · = rk =
ρ, y para los restantes rk+1 , . . . , rn distintos, se deben considerar algunos puntos. Lo primero es notar que
puede suceder que existan ξ (1) , ξ (2) , . . . , ξ (k) autovectores linealmente independientes asociados al autovalor
ρ de multiplicidad k. Entonces, el conjunto de vectores linealmente independientes siguientes: y(1) (x) =
ξ (1) eρx , y(2) (x) = ξ (2) eρx , . . . , y(k) (x) = ξ (k) eρx serán soluciones del sistema de ecuaciones diferenciales
(6.3). Pero si la matrix A no es hermı́tica existirá un número menor de autovectores correspondientes al
autovalor ρ de multiplicidad k y no será posible tener entonces las k soluciones necesarias del sistrema (6.3).
Por lo tanto, se necesitará construir las soluciones que falten de alguna manera. Quizás sea conveniente
detenerse en un ejemplo particular.
Ejemplo Resolver el sistema
y10 (x) = y1 (x) − y2 (x)
y20 (x) = y1 (x) + 3y2 (x)
por lo tanto
y0 = Ay
⇒
y0 =
1
1
−1
3
y
Si repetimos el procedimiento anterior, se tiene que
1 − r −1
ξ1
0
=
1
3−r
ξ2
0
249
6.1. ALGUNOS COMENTARIOS INICIALES
calculamos los autovalores:
1−r
1
−1
3−r
2
2
= r − 4r + 4 = (r − 2) = 0

 r1 = 2
⇒

⇒
ξ
(1)
=
r2 = 2
1
−1
,
in
a
r
y podemos ver que la multiplicidad es 2 y sólo podemos obtener un único autovector asociado al autovalor
ρ = r1 = r2 = 2. Con este autovector podemos construir una solución linealmente independiente:
1
(1)
2x
y (x) = e
.
−1
Resulta natural intentar buscar una segunda solución que contenga los términos xe2x y e2x . Propongamos
entonces la siguiente solución de prueba
y(2) (x) = ζ (1) xe2x + ζ (2) e2x ,
Pr
eli
m
donde ζ (1) y ζ (2) son vectores constantes a determinar. Al sustituir esta solución de prueba en nuestra
ecuación problema, resulta:
2ζ (1) xe2x + ζ (1) + 2ζ (2) e2x = A ζ (1) xe2x + ζ (2) e2x ,
(2I − A) ζ (1) xe2x + ζ (1) + 2ζ (2) − Aζ (2) e2x = 0 ,
Al igualar los coeficientes de los términos xe2x y e2x en esta última expresión tenemos el siguiente par
de ecuaciones de autovalores:
(A − 2I)ζ (1)
=
0
(2)
=
ζ (1)
(A − 2I)ζ
or
La primera ecuación es satisfecha si hacemos coincidir ζ (1) = ξ (1) , es decir, con el autovector correspondiente
a ρ = 2 que calculamos anteriormente. Por otro lado, se tiene que
−1
1
|A − 2I| =
−1
1
=0
Bo
rr
ad
pero sin embargo, la segunda ecuación tiene solución
−1
1
−1
1
(2)
ζ1
(2)
ζ2
!
=
1
−1
.
Como las filas son proporcionales, entonces resulta que:
(2)
−ζ1
−
(2)
ζ2
=1
⇒
ζ
(2)
=
0
−1
+κ
1
−1
donde κ es un valor arbitrario. Hemos construido una segunda solución
1
0
1
(2)
2x
2x
y (x) =
xe +
e +κ
e2x ,
−1
−1
−1
250
6.1. ALGUNOS COMENTARIOS INICIALES
6.1.2.
in
a
r
notemos que el último término de la ecuación anterior es un multiplo del único término de y(1) (x), por lo
tanto debe ser ignorado. En resumen: Las dos soluciones linealmente independientes son:
1
y(1) (x) = e2x
,
−1
1
0
y(2) (x) =
xe2x +
e2x ,
−1
−1
Se deja como ejercicio demostrar que W y(1) (x), y(2) (x) 6= 0. La solución general, será entonces
1
1
0
2x
2x
2x
y(x) = C1
e + C2
xe +
e
.
−1
−1
−1
Sistemas lineales inhomogéneos
Pr
eli
m
Todo operador lineal hermı́tico A (A : V → V ), con n autovectores distintos tiene una representación
matricial diagonal Âij =λi δij . Mediante una transformación de similaridad: TAT−1 = Â, donde T es una
matriz unitaria: T−1 = T† , se trasforma la base de A a la base donde  es diagonal. Este teorema es claro:
a partir de que sı́ A tiene n autovalores distintos, tiene n autovectores linealmente independientes los cuales
forman una base de V y en la cual la representación matricial de A es diagonal. Pero como siempre es
posible pasar de A no diagonal a  diagonal con los mismos autovalores mediante una transformacion de
similidaridad TAT−1 = Â, esto queda demostrado. Lo anterior puede formalizarse de la siguiente manera
†
†
†
†
hvi | T
i | T TAT T |vj i = hui | Â |uj i = λj hui |uj i = λj δij
| {zT} |vj i = hv
| {zT}AT
| {z }| {z }| {z }
1
1
hui |
Â
|uj i
Bo
rr
ad
or
Nos queda determinar la forma de la matriz unitaria de transformación T. Para ello seleccionamos la
base canónica {|e1 i , |e2 i , . . . , |ei i , . . . , |en i} como base de partida de A:
 
 
 
 
0
0
0
1
 0 
 0 
 1 
 0 
 
 
 
 
 .. 
 .. 
 .. 
 .. 
 
 . 
 . 
 . 
 , |e2 i =   , . . . , |ei i =   , . . . , |en i =  . 
|e1 i = 
 0 
 1 
 0 
 0 
 
 
 
 
 . 
 . 
 . 
 . 
 .. 
 .. 
 .. 
 .. 
1
0
0
0
y {|u1 i , |u2 i , . . . , |ui i , . . . , |un i} la base de autovectores en la cual  es diagonal. Por lo tanto T es la matriz
de transformación de una base a la otra. Identificando columna a columna nos damos cuenta que las columnas
de la matriz T son los autovectores de A
|ui i =
n
X
Tij |ej i
⇒
hej |ui i = hej
j=1



hej |ui i = Tij = 


(1)
(1)
u1
(2)
u1
..
.
u2
(2)
u2
(n)
u1
(n)
u2
n
X
Tij |ej i
⇒
j=1
···
..
.

(1)
un
(2) 
un 



(n)
un

⇔


T† = 


(1)
(2)
u1
(1)
u2
..
.
u1
(2)
u2
(1)
un
(1)
un
···
..
.

(n)
u1
(n) 
u2 
 = T−1


(n)
un
251
6.1. ALGUNOS COMENTARIOS INICIALES
(m)
con:



A =

a11
a21
..
.
a12
a22
an1
an2
..
.
···
y (1) (x)
y (2) (x)
..
.


a1n
a2n 

,

ann
···


y(x) = 

in
a
r
donde hemos denotado ui
la componente m del vector j-esimo en la base |ei i, con i = 1, . . . , n. Por lo
tanto, si los n autovalores y autovectores de A son distintos y conocidos, A se dice diagonalizable. Si A es
hermı́tica, T−1 = T† es muy fácil construir la inversa de la matriz de transformación T. Si los autovalores
de A con degenerados, vale decir si el número de autovectores linealmente independientes es menor que n,
entonces A no es diagonalizable y no existe una matriz de transformacion T (T no tiene inversa) tal que
TAT−1 = Â.
Ocupemonos ahora del problema de la solución de un sistema de ecuaciones diferenciales inhomogéneo
de la forma:
y0 (x) = Ay (x) + g (x) ,




g (x) = 



,

g (1) (x)
g (2) (x)
..
.





g (n) (x)
y (n) (x)
Tz0 = ATz + g
−1
−1
z0 = T
| {zAT} z + T g
⇒
Pr
eli
⇒
y (x) = Tz (x)
m
donde A es una matriz constante y diagonalizable, g (x) contı́nua en el intervalo α ≤ x ≤ β. La solución de
este problema pasa por encontrar los autovalores {λi } y autovectores {|ui i} de A, construir a partir de ellos
la matriz T y su hermı́tica conjugada T−1 = T† , y a partir de ella hacer el siguiente cambio de variable:
Â
por lo tanto
z0 = Âz + h
donde

λ1
0
..
.


 = 

0
0
λ2

0
0 



λn
···
..
0
.
···
y h = T−1 g .
or
Entonces, lo que obtenemos es un sistema de ecuaciones diferenciales desacoplado:
zi0 (x) = λi zi (x) + hi (x)
Bo
rr
ad
Ejemplo Encontremos la solución general del siguiente sistema:
y10 (x) = −2y1 (x) + y2 (x) + 2e−x
y20 (x) = y1 (x) − 2y2 (x) + 3x
En notación matricial:
0
y =
−2
1
1
−2
y+
2e−x
3x
Donde los autovalores y autovectores de A son
1
1
λ1 = −3 , ξ1 =
y λ2 = −1 , ξ2 =
−1
1
⇒
y0 = Ay + g(x)
⇒
yh (x) = C1
1
−1
e−3x + C2
1
1
e−x
252
6.1. ALGUNOS COMENTARIOS INICIALES
Ahora cambiando variables y = Tz tendremos el siguiente sistema de ecuaciones
0 −x
1
z1
−3 0
2e − 3x
z1
0
z = Âz + h ⇒
=
+√
z20
0 −1
2e−x + 3x
z2
2
r
donde yh (x) es la solución general de la homogénea. Como A es real y simétrica, construimos la matriz T
facilmente con los autovectores normalizados. Esto es:
1
1
1 1
1 −1
T= √
⇒ T−1 = √
−1 1
1
1
2
2
y z2 (x) =
y devolviendo el cambio de variables tenemos que
⇒
3
2xe−x + √ (x − 1) + C2 e−x
2
z1 + z2
−z1 + z2
Pr
eli
y = Tz
1
y= √
2
√
m
como ya sabemos, la solución es inmediata
√
x 1
2 −x
3
z1 (x) =
e −√
−
+ C1 e−3x
2
2 3 9
in
a
con lo cual podemos escribir el siguiente sistema desacoplado de ecuaciones lineales de primer orden
√
√
3
3
z10 + 3z1 = 2e−x − √ x y z20 + 3z2 = 2e−x + √ x
2
2
vemos que
4
1
C1 −3x
C2
1 −x
√ (z1 + z2 ) = √ e
e + x − + xe−x
+ √ +
3
2
2
2 2
1
C2
C1 −3x
1 −x
5
√ (−z1 + z2 ) = − √ e
+ √ −
e + 2x − + xe−x
2
3
2
2
2
or
C1
C2
si utilizamos unas nuevas constantes: C1 = √
y C2 = √
, resulta que podemos escribir la solución de la
2
2
forma:
1
1
1
1
1
4
1
1
−x
−x
−3x
−x
e +
xe +
x−
.
y = C1
e
+ C2
e +
−1
1
2
5
−1
1
2
3
De esta solución es fácil reconocer que los primeros dos términos se corresponden a la solución del sistema
homogéneo y los restantes términos tienen que ver con una solución particular del sistema inhomogéneo.
Bo
rr
ad
Ejercicios
1. Encuentre un sistema de ecuaciones diferenciales de primer orden equivalente para las siguientes ecuaciones
a) y 00 − 3x2 yy 0 = 0
b) y 000 − 2x(y 0 )2 + 3xy 00 − xy = 0
2. Encuentre la solución general de los siguientes sistemas de dos ecuaciones diferenciales
a) y10 = 3y1 − 2y2 , y20 = 2y1 − 2y2
b) y10 = y1 − 2y2 ,
y20 = 3y1 − 4y2
c) y10 = 2y1 − y2 ,
y20 = 3y1 − 2y2
d) y10 = y1 + y2 ,
y20 = 4y1 − 2y2
253
6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
a) y10 = y1 + y2 + 2y3 ,
y20 = y1 + 2y2 + y3 ,
y30 = 2y1 + y2 + y3
b) y10 = 3y1 + 2y2 + 4y3 ,
y20 = 2y1 + 2y3 ,
y30 = 4y1 + 2y2 + 3y3
c) y10 = y1 + y2 + y3 ,
y20 = 2y1 + y2 − y3 ,
y30 = −8y1 − 5y2 − 3y3
d) y10 = y1 − y2 + 4y3 ,
y20 = 3y1 + 2y2 − y3 ,
y30 = 2y1 + y2 − y3
a) y10 = 2y1 − y2 + ex ,
y20 =
3y2 + ex ,
√
3y1 − y2 +
√
3ex
c) y10 = 2y1 − 5y2 − cos(x) ,
y20 = y1 − 2y2 + sen(x)
d) y10 = y1 + y2 + e−2x ,
y20 = 4y1 − 2y2 − 2ex
Sistemas de ecuaciones diferenciales y el uso de operadores
Pr
eli
6.2.
√
y20 = 3y1 − 2y2 + x
m
b) y10 = y1 +
in
a
4. Encuentre la solución general de los siguientes sistemas de ecuaciones diferenciales
r
3. Encuentre la solución general de los siguientes sistemas de tres ecuaciones diferenciales
En la clase anterior resolvimos algunos sistemas de ecuaciones diferenciales sacándole provecho a la
notación matricial. Sin embrago, algunos sistemas son tan simples que tienen un método casi directo para
su resolución, como podemos ver a continuación:
Ejemplo Resolver el siguiente sistema de ecuaciones diferenciales
2e2t
x2 − y
.
t
ẋ =
ẏ
=
t 6= 0.
or
Rápidamente nos damos cuenta que la primera ecuación puede ser integrada de manera directa:
dx
= 2e2t
dt
⇒
x(t) = e2t + C1
Bo
rr
ad
al sustituir este resultado en la segunda ecuación:
e2t + C1
dy
=
dt
t
2
−y
⇒
dy y
e4t + 2C1 e2t + C12
+ =
dt
t
t
esta última ecuación es lineal en y, por lo tanto la sabemos resolver:
y(t) =
1 4t
4e
+ C1 e2t + C12 t + C2
,
t
t 6= 0 .
Anteriormente vimos algunas ventajas que aparecen por el hecho de utilizar la notación de operadores
para encontrar una solución de una ecuación diferencial lineal de orden n. Recordemos que una ecuación
diferencial lineal de orden n con coeficientes constantes se podı́a escribir de la siguiente manera:
P (D)y = Q(x) .
(6.5)
254
6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
donde
P (D) = a0 + a1 D + a2 D2 + · · · + an Dn ,
an 6= 0 .
=
Q1 (x)
P21 (D)y1 + P22 (D)y2 + P23 (D)y3 + · · · + P2n (D)yn
..
.
=
..
.
Q2 (x)
Pn1 (D)y1 + Pn2 (D)y2 + Pn3 (D)y3 + · · · + Pnn (D)yn
=
Qn (x) .
(6.6)
in
a
P11 (D)y1 + P12 (D)y2 + P13 (D)y3 + · · · + P1n (D)yn
r
con: a2 , a1 , a2 , . . . , an constantes.
En el caso de sistemas lineales de ecuaciones diferenciales podemos también hacer uso de esta notación:
La solución del sistema (6.6) es el conjunto de funciones: {yn (x)}, cada una de ellas definidas en un
intervalo común I. Por ejemplo, para el siguiente sistema se tiene
2y10 (x) + 3y1 (x) + 5y20 (x) − y2 (x)
= ex
(2D + 3)y1 + (5D − 1)y2
m
⇒
y10 (x) − y1 (x) + 3y20 (x) + y2 (x)
(D − 3)y1 + (3D + 1)y2
= sen(x)
= ex
= sen(x)
Pr
eli
Notemos también que el sistema (6.6) es un caso más general a los estudiados anteriormente, que eran de la
forma:
y0 (x) = P (x) y(x) + g (x) .
Por cuestiones netamente didácticas nos detendremos en el caso n = 2, entendiendo que los resultados
aquı́ obtenidos pueden extrapolarse para cualquier valor de n. Cuando n = 2, tenemos entonces:
P11 (D)y1 + P12 (D)y2
=
Q1 (x)
P21 (D)y1 + P22 (D)y2
=
Q2 (x)
(6.7)
Estos sistemas al resolverse para las funciones incógnitas deben contener un número apropiado de constantes
y para tal fin existe un teorema que garantiza el número correcto de constantes que deben aparecer.
or
Teorema: El número de constantes arbitrarias que deben aparecer en la solución del sistema (6.7) debe
ser igual al orden de la siguiente expresión:
∆ ≡ P11 (D)P22 (D) − P12 (D)P21 (D)
(6.8)
Bo
rr
ad
con: ∆ 6= 0.
Si se da el caso que ∆ = 0, se dice que el sistema es degenerado. Notemos además que (6.8) tiene la forma
de un determinante.
Caso no degenerado: ∆ 6= 0
El sistema (6.7) puede ser tratado como un sistema de ecuaciones algebraico. Esto significa que podemos
manipular las filas a nuestra conveniencia para obtener su solución o utilizar cualquier técnica para la
resolución de sistemas de ecuaciones algebraicas desarrollado en cursos anteriores.
255
6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
Ejemplo Resolver el sistema
2ẋ − x + ẏ + 4y
=
1
ẋ − ẏ
=
t − 1.
y10 (x)
−
y20 (x)
=
1
=
x − 1.
in
a
2y10 (x) − y1 (x) + y20 (x) + 4y1 (x)
En la notación del operador diferencial serı́a:
(2D − 1)y1 + (D + 4)y2
=
Dy1 − Dy2
1
= x − 1.
2
2
luego las sumamos para obtener:
=
D[1]
=
(D + 4)[x − 1] .
Pr
eli
(D + 4D)y1 − (D + 4D)y2
m
Multipliquemos la primera ecuación por D y la segunda por D + 4:
(2D2 − D)y1 + (D2 + 4D)y2
r
Tal vez sea conveniente adaptar el problema a nuestra notación, es decir, hacemos los siguientes cambios:
x(t) = y1 (x) y y(t) = y2 (x). Por lo tanto:
(3D2 + 3D)y1 = 0 + D[x − 1] + 4(x − 1) = 1 + 4x − 4 = 4x − 3
esto significa que debemos resolver la siguiente ecuación
3y100 + 3y10 = 4x − 3
con la ayuda de algunos de los métodos anteriormente vistos se obtiene la respectiva solución:
or
2
7
y1 (x) = C1 + C2 e−x + x2 − x .
3
3
Bo
rr
ad
Al sustituir y1 (x) en la segunda ecuación del sistema resulta:
7
2
D C1 + C2 e−x + x2 − x − Dy2
3
3
4
7
−C2 e−x + x − − Dy2
3
3
1
4
−x
−C2 e + x − − Dy2
3
3
=
x−1
=
x−1
=
0,
por lo tanto:
1
4
y20 = −C2 e−x + x −
3
3
⇒
1
4
y2 (x) = C2 e−x + x2 − x + C3 .
6
3
Ahora podemos estudiar el tema del número de constantes que deben aparecer. Del teorema anterior
vemos que el determinate
∆ = (2D − 1)(−D) − (D)(D + 4) = −3D2 − 3D
256
6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
Por lo tanto, la solución al sistema será:
y2 (x)
7
2
= C1 + C2 e−x + x2 − x
3
3
1 2 4
C1 + 7
−x
= C2 e + x − x +
.
6
3
4
Ejercicio Resuelva
m
y1 (x)
in
a
r
es de orden 2. Por lo tanto, según el teorema antes mencionado deben existir únicamente dos constantes.
Esto significa que tenemos una constante demás. Podemos hallar una relación entre las constantes
sustituyendo las dos soluciones encontradas en la primera ecuación del sistema, recordemos la la segunda
ecuación ya fue utilizada para encontrar y2 (x). Esto es
2 2 7
1 2 4
−x
−x
(2D − 1) C1 + C2 e + x − x + (D + 4) C2 e + x − x + C3
= 1
3
3
6
3
C1 + 7
−6 − C1 + 4C3 = 1 ⇒ C3 =
4
=
ex
(D + 1)y1 + (D − 1)y2
=
x.
Pr
eli
(D + 3)y1 + (D + 1)y2
En este caso ∆ es de orden cero y no deben aparecer constantes arbitrarias.
Caso degenerado: ∆ = 0
Como puede suceder para los sistemas algebraicos el sistema de ecuaciones puede ser degenerado, es
decir, podrá tener infinitas soluciones o no tener solución, por ejemplo, el sistema:
2x + 3y
=
5
2x + 3y
=
7,
2x + 3y
=
0
4x + 6y
=
0,
or
no tiene solución. Y el sistema
Bo
rr
ad
tiene infinitas soluciones. En ambos casos, el determinante conformado por los coeficientes de x y de y
es cero. Notemos también que para el primer sistema, si despejamos y de la segunda ecuación
y=
7 − 2x
3
y la sustituimos en la primera resulta:
7 − 2x
2x + 3
=5
3
⇒
7=5
No existe solución cuando el sistema no se reduce a una igualdad. Si hacemos lo mismo con el segundo
sistema, despejamos y en una
2x
y=−
3
257
6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
y la sustituimos en la otra
2x
2x + 3 −
=0
3
⇒
0 = 0.
Existen infinitas soluciones si el sistema se reduce a una igualdad del tipo 0 = 0. Con los sistemas de
ecuaciones diferenciales pasa lo mismo. Veamos un par de ejemplos.
= x
Dy1 − Dy2
= x2 .
in
a
Dy1 − Dy2
r
El sistema
es degenerado porque −D2 − (−D2 ) = 0. Si despejamos Dy1 de la segunda ecuación
Dy1 = Dy2 + x2
y sustituimos en la primera:
x2 = x .
⇒
m
Dy2 + x2 − Dy2 = x
Pr
eli
este sistema no tiene solución.
Ejercicio Demuestre que el siguiente sistema es degenerado y tiene infinitas soluciones
Dy1 − Dy2
=
x
4Dy1 − 4Dy2
=
4x .
Volvamos al caso no degenerado. Como hemos mencionado el hecho de usar los operadores hace que el
sistema puede ser tratado de manera similar al de un sistema algebraico, y por lo tanto, podemos utilizar
cualquiera de los métodos para la resolución de sistemas algebraicos. Consideremos el siguiente sistema de
ecuaciones lineales:
=
Q1 (x)
P21 (D)y1 + P22 (D)y2 + P23 (D)y3
=
Q2 (x)
P31 (D)y1 + P32 (D)y2 + P33 (D)y3
=
Q3 (x) .
or
P11 (D)y1 + P12 (D)y2 + P13 (D)y3
(6.9)
Bo
rr
ad
El determinante que podemos asociar a este sistema es:
∆
=
P11 (D)P22 (D)P33 (D) + P21 (D)P32 (D)P13 (D) + P12 (D)P23 (D)P13 (D)
−
P31 (D)P22 (D)P13 (D) − P32 (D)P23 (D)P11 (D) − P21 (D)P12 (D)P33 (D)
La manera usual de resolver este sistema es eliminar algunas de las variables, digamos y3 , de manera que
nos queda un sistema reducido a dos ecuaciones, digamos:
P̃11 (D)y1 + P̃12 (D)y2
=
Q̃1 (x)
P̃21 (D)y1 + P̃22 (D)y2
=
Q̃2 (x)
(6.10)
Si de este sistema eliminamos y2 , entonces lo que queda es una solo ecuación
P̂11 (D)y1 = Q̂1 (x)
(6.11)
258
6.2. SISTEMAS DE ECUACIONES DIFERENCIALES Y EL USO DE OPERADORES
=
Q̃1 (x)
P̃21 (D)y1 + P̃22 (D)y2
=
Q̃2 (x)
P̃31 (D)y1 + P̃32 (D)y2 + P̃33 (D)y3
=
Q̃3 (x) .
(6.12)
in
a
P̃11 (D)y1
r
la cual podemos resolver para y1 . Al sustituir este valor en cualquiera de las ecuaciones (6.10) se obtiene y2 .
Finalmente, la sustitución de y1 y y2 en cualquiera de las ecuaciones de (6.9) permite obtener y3 . El número
de constantes quedará determinado por el oden de ∆.
Otra manera de proceder es manipular el sistema (6.9) de manera tal que se obtenga un sistema equivalente triangular, es decir, de la forma:
m
Aquı́, las soluciones se van obteniendo desde la primera ecuación hasta la última. Es bueno resaltar el hecho
de que las soluciones obtenidas utilizando un sistema equivalente triangular contienen el número correcto de
constantes requerido por el sistema. Entonces, para obtener un sistema equivalente triangular procedemos
de la siguiente manera: decidimos dejar una de las ecuaciones sin intervenir y manipulamos las otras dos,
repetimos este procedimiento las veces que sean convenientes hasta obtener el sistema deseado.
Ejemplo Resolver el sistema
ẋ − 2x + y − z
(D − 2)y1 + y2 − y3 = x
= t
=
1
2x + 6y + ż
=
0
⇒
−y1 + (2D + 1)y2 + 2y3 = 1
Pr
eli
−x + 2ẏ + y + 2z
2y1 + 6y2 + Dy3 = 0
Retenemos la primer ecuación del sistema
Creamos un nuevo sistema multiplicando la primera ecuación por 2 y sumándola con la segunda, para
de esta manera eliminar y3 . Con el mismo fin, multiplicamos la primera por D y la sumamos con la
tercera. Con esto obtenemos:
(D − 2)y1 + y2 − y3
=
x
(D − 5)y1 + (2D + 3)y2
=
2x + 1
(D − 2D + 2)y1 + (D + 6)y2
=
1
or
2
Podemos retener la primera y tercera ecuación y cambiamos la segunda. Entonces multiplicamos la
tercera por −2 y la sumamos con la segunda:
=
x
=
2x − 1
(D2 − 2D + 2)y1 + (D + 6)y2
=
1
Bo
rr
ad
(D − 2)y1 + y2 − y3
(−2D2 + 6D − 9)y1 − 9y2
Retenemos la primera y segunda ecuación y cambiamos la tercera. Lo podemos hacer multiplicando la
segunda por (D + 6)/9 y luego se suma con la tercera:
(D − 2)y1 + y2 − y3
= x
2
=
2x − 1
=
12x + 5
(−2D + 6D − 9)y1 − 9y2
3
2
(−D + 3D + 9D − 36)y1
259
6.3. SISTEMAS DE ECUACIONES DIFERENCIALES Y LA TRANSFORMADA DE LAPLACE
Por lo tanto, ya se puede integrar la última ecuación:
y1 (x) =
C1 3 x 2C2 − 3 x 2 2 37
e −
e 2 + x +
x + C3 ,
3
3
3
9
3
=
2x − 1
in
a
−3C1 e3 x + 15C2 e− 2 x − 6 x2 − 29x + 22 − 9C3 − 9y2
r
al sustituir y1 (x) en la segunda ecuación resulta que simplemente queda despejar y2 (x)
C1 3 x 2C2 − 3 x 2 2 37
(−2D2 + 6D − 9)
e −
e 2 + x +
x + C3 − 9y2 = 2x − 1
3
3
3
9
es decir:
23
C1 3x 5C2 − 3 x 2 2 31
e +
e 2 − x −
x+
− C3 ,
3
3
3
9
9
queda por último sustituir y1 (x) y y2 (x) en la primera ecuación y despejar y3 (x):
C1 3 x 2C2 − 3 x 2 2 37
C1
5C2 − 3 x 2 2 31
(D − 2)
e −
e 2 + x +
x + C3 + − e3x +
e 2 − x −
x+
3
3
3
9
3
3
3
9
3
31
4C2 e− 2 x − 2 x2 −
x+
3
m
y2 (x) = −
por lo tanto:
23
− C 3 − y3
9
20
− 3C3 − y3
3
Pr
eli
34
20
x+
− 3C3 − y3 .
3
3
No es necesario investigar sobre el número de constantes, en todo caso, y solo por curiosidad se puede ver
que el determinante del sistema, al igual que para el sistema triangular, es de orden 3:


D−2
1
−1


3
2
2D + 1 2 
∆=
 = 2 D − 3 D − 9D + 36 .
 −1
2
6
D
3
y3 (x) = 4C2 e− 2 x − 2 x2 −
Sistemas de ecuaciones diferenciales y la transformada de Laplace
or
6.3.
Bo
rr
ad
A diferencia del método anterior, el método de transformadas de Laplace solo se puede aplicar si además
del sistema se suministran el conjunto completo de condiciones iniciales. Esto significa que la solución particular obtenida ya satisface las condiciones iniciales y no necesitamos evaluar las constantes arbitrarias que
puedan resultar.
Como en capı́tulos anteriores resolvimos algunas ecuaciones diferenciales utilizando transformadas de
Laplace, podemos pasar directamente a un ejemplo para ver como se aplica el método cuando se tienen
sistemas de ecuaciones diferenciales ( ¡No necesariamente de primer orden!).
Ejemplo Resolver el sistema
ẍ − 4x + ẏ
=
0
−4ẋ + ÿ + 2y
=
0
con: x(0) = 0 , ẋ(0) = 1 , y(0) = −1 , ẏ(0) = 2 .
En este caso el sistema consiste de dos ecuaciones con dos incógnitas, pero debe quedar claro que el método
se puede extender para sistemas con un número mayor de ecuaciones.
260
= x
= x
6.3. SISTEMAS DE ECUACIONES DIFERENCIALES Y LA TRANSFORMADA DE LAPLACE
Como vimos anteriormente, utilizando la notación de las transformadas de Laplace el sistema se puede
escribir de la siguiente manera.
L [y100 ] − 4L [y1 ] + L [y20 ]
−4L [y10 ]
+
L [y200 ]
+ 2L [y2 ]
=
0
=
0
2
−4sL [y1 ] + 4y1 (0) + s L [y2 ] −
y20 (0)
− sy2 (0) + 2L [y2 ]
=
0
=
0
in
a
s2 L [y1 ] − y10 (0) − sy1 (0) − 4L [y1 ] + sL [y2 ] − y2 (0)
r
Donde también, hemos rebautizado las funciones de la siguiente manera: y1 (x) = x(t) y y2 (x) = y(t).
Revisando las notas de las clases correspondientes a las transformadas de Laplace, podemos ver que el
sistema anterior queda de la siguiente forma:
al sustituir los respectivos valores para las condiciones iniciales y factorizando, resulta:
(s2 − 4)L [y1 ] + sL [y2 ]
0
−4sL [y1 ] + (s + 2)L [y2 ] − 2 + s =
0
m
=
2
(6.13)
(6.14)
Pr
eli
Este último sistema puede ser tratado como un sistema algebraico para L [y1 ] y L [y2 ]. Si multiplicamos la
primera por 4s, la segunda por s2 − 4 y luego las sumamos eliminamos L [y1 ], resulta:
(s4 + 2s2 − 8)L [y2 ] = −s3 + 2s2 + 4s − 8
despejando L [y2 ]:
"
#
√
√
−s3 + 2s2 + 4s − 8
1 1 + 2 1 − 2 8(s − 2)
−s3 + 2s2 + 4s − 8
√ +
√ − 2
=
=
L [y2 ] =
s4 + 2s2 − 8
(s2 + 4)(s2 − 2)
6 s+ 2 s− 2
s +4
Bo
rr
ad
or
Ahora debemos buscar en nuestra tablita de transformadas de Laplace, para hallar las transformadas inversas:
√
h
√ −√2x i
1+ 2
√
L (1 + 2)e
=
s+ 2
√
h
√ √ i
1− 2
√
L (1 − 2)e 2x
=
s− 2
s
L [−8 cos(2x)] = −8 2
s + 22
2
L [8 sen(2x)] = 8 2
s + 22
por lo tanto:
i
√
√
√ √
1h
(1 + 2)e− 2x + (1 − 2)e 2x − 8 cos(2x) + 8 sen(2x)
6
Para calcular y1 (x), podemos sustituir L [y2 ] en cualquiera de las ecuaciones (6.13) - (6.14) y resolver
para L [y1 ], esto es:
3
−s + 2s2 + 4s − 8
2
2
(s − 4)L [y1 ] + sL [y2 ] = 0 ⇒ (s − 4)L [y1 ] + s
=0
(s2 + 4)(s2 − 2)
y2 (x) =
261
6.3. SISTEMAS DE ECUACIONES DIFERENCIALES Y LA TRANSFORMADA DE LAPLACE
esto es:
"
√
√
#
s(s − 2)
1 2− 2 2+ 2
s+2
√ +
√ −4 2
L [y1 ] = 2
=−
(s + 4)(s2 − 2)
12 s − 2 s + 2
s +4
Bo
rr
ad
or
Pr
eli
m
in
a
r
Nuevamente, buscando en las tablas de transformadas de Laplace, término por término, se llega finalmente
a:
i
√
√
√ √
1 h
y1 (x) = −
(2 − 2)e 2x + (2 + 2)e− 2x − 4 cos(2x) − 4 sen(2x) .
12
262
6.3. SISTEMAS DE ECUACIONES DIFERENCIALES Y LA TRANSFORMADA DE LAPLACE
Ejercicios
1. Resuelva cada uno de los siguientes sistemas de ecuaciones diferenciales
a) ẋ = −x2 ,
ẏ = −y
b) ẋ = 3e−t ,
ẏ = x + y
c) ẋ = 2t ,
ẏ = 3x + 2t ,
d) ẋ = 3x + 2e3t ,
ẋ + ẏ − 3y = sen(2t)
e) ẍ + 4x = 3 sen(t) ,
ẋ − ÿ + y = 2 cos(t)
in
a
r
ż = x + 4y + t
f ) ẍ − 4x − 2ẏ + y = t , 2ẋ + x + ÿ + y = 0
a) Dx + 2Dy = et ,
Dx + 2Dy = t
b) Dx − Dy = et ,
3Dx − 3Dy = 3et
d) (D − 2)x + (D − 2)y = t ,
Pr
eli
c) (D2 − 1)x + (D2 − 1)y = 0 , (D2 + 4)x + (D2 + 4)y = 0
m
2. Verifique que los siguientes sistemas son degenerados. Encuentre las soluciones si existen
(D + 3)x + (D + 3)y = t
3. Resuelva los siguientes sistemas de ecuaciones diferenciales
a) (D − 1)x = 0 ,
−x + (D − 3)y = 0 ,
−x + y + (D − 2)z = 0
b) (D − 1)x = 0 ,
3x + 2(D + 1)y = 0 ,
2y + (2D − 3)z = 0
c) (D − 2)x = 0 ,
−3x + (D + 2)y = 0 , −2y + (D − 3)z = 0
or
d) Dx − y + z = 0 , −x + (D − 1)y = 0 ,
−x + (D − 1)z = 0
4. Resuelva los siguientes sistemas utilizando transformadas de Laplace
x − ẏ = 1 ,
Bo
rr
ad
a) ẋ − y = t ,
b) 3ẋ + 3x + 2y = et , 4x − 3ẏ + 3y = 3t ,
x(0) = 2 , y(0) = 2
x(0) = 1 , y(0) = −1
c) ẋ + ẏ − 4y = 1 ,
x + ẏ − 3y = t2 ,
x(0) = 2 , y(0) = −2
d) ẍ − ẏ = 1 − t ,
ẋ + 2ẏ = 4et + x
x(0) = 0 , y(0) = 0 , x0 (0) = 1
263
r
7
Bo
rr
ad
or
Pr
eli
m
Métodos de soluciones por series
in
a
Capı́tulo
264
7.1. OTRA VEZ ALGEBRA DE SERIES
7.1.
Otra vez Algebra de Series
Las series se suman
n=0
∞
X
n
bn (x − x0 ) =
n=0
Las series se multiplican
"∞
X
an (x − x0 )
n=0
n
(an + bn ) (x − x0 )
n=0
#"
n
∞
X
∞
X
#
n
bn (x − x0 )
=
n=0
∞
X
cn (x − x0 )
n=0
con
r
n
an (x − x0 ) +
n
in
a
∞
X
cn = a0 bn + a1 bn−1 + a2 bn−2 + · · · + aj bn−j + · · · + an−2 b2 + an−1 b1 + an b0
Las series se derivan
m
P∞
∞
n
d [ n=0 an (x − x0 ) ] X
n−1
=
an n (x − x0 )
dx
n=1
Los ı́ndices en las series son mudos
∞
X
n−1
an n (x − x0 )
n=1
=
Pr
eli
Nótese como cambia el comienzo de la serie.
∞
X
j−1
aj j (x − x0 )
=
j=1
∞
X
k
ak+1 (k + 1) (x − x0 )
k=0
en la última sumatoria hemos hecho k = j − 1, por lo cual j = k + 1.
Las series se igualan
n=0
∞
X
n
bn (x − x0 ) =
∞
X
n=1
∞
X
n−1
an n (x − x0 )
or
∞
X
n
bn (x − x0 ) =
n=0
k
ak+1 (k + 1) (x − x0 ) =
Bo
rr
ad
an+1 (n + 1) (x − x0 )
n
n=0
k=0
por lo cual
∞
X
bn = an+1 (n + 1)
si la igualdad hubiera sido
∞
X
n=0
7.2.
n an
n
(x − x0 ) =
∞
X
n−1
an n (x − x0 )
n=1
=
∞
X
n
an+1 (n + 1) (x − x0 )
n=0
=⇒
an+1 =
an
(n + 1)
Un Ejemplo conocido.
Consideremos la conocida ecuación diferencial
y 00 + y = 0
265
7.2. UN EJEMPLO CONOCIDO.
se propone encontrar una solución entorno a x = 0 por lo tanto
 0 P∞
∞
 y = n=1 nan xn
X
n
y=
an x
=⇒
 00 P∞
n=0
y = n=2 n (n − 1) an xn−2
n (n − 1) an xn−2 +
n=2
y 00 + y = 0
∞
X
=⇒
(k + 2) (k + 1) ak+2 xk +
[(k + 2) (k + 1) ak+2 + ak ] xk = 0
entonces
ak+2 =
−ak
(k + 2) (k + 1)
−a2
−1 (−a0 )
a0
a0
=
·
=
= ;
4·3
4·3
2
4·3·2·1
4!
a2 =
−a0
;
2·1
a6 =
−a4
−a0
a0
=
=−
6·5
6·5·4·3·2·1
6!
a4 =
con k = 0, 1, 2, · · ·
Pr
eli
=⇒
por lo que
a n xn = 0
n=0
k=0
(k + 2) (k + 1) ak+2 + ak = 0
∞
X
m
∞
X
=⇒
an xn = 0
n=0
k=0
y 00 + y = 0
∞
X
r
∞
X
=⇒
in
a
y 00 + y = 0
en general
or
k
a2k =
(−1)
a0
(2k)!
Similarmente, para los impares se obtiene
−a1
;
3·2
a7 =
−a5
−a1
−a1
=
=
7·6
7·6·5·4·3·2·1
7!
Bo
rr
ad
a3 =
a5 =
−a3
−1 (−a1 )
a1
a1
=
·
=
= ;
5·4
5·4 3·2
5·4·3·2·1
5!
de donde
k
a2k+1 =
(−1)
a1
(2k + 1)!
266
7.3. OTRO EJEMPLO MENOS CONOCIDO PERO IMPORTANTE
De este modo, la solución deseada queda como
an xn = a0 + a1 x +
n=0
(−a0 ) 2 (−a1 ) 3 a0 4 a1 4 (−a0 ) 6 (−a1 ) 7
x +
x + x + x +
x +
x + ···
2!
3!
4!
5!
6!
7!
∞
X




3
5
7




x2
x4
x6
 + a1 x − x + x − x + · · ·
1
−
+
−
+
·
·
·
an xn = a0 




2!
4!
3!
5!
|
|
{z 6!
}
{z 7!
}
n=0
P∞
k=0
y=
∞
X
an xn = a0
n=0
7.3.

∞
k
X
(−1)
k=0
(2k)!
(−1)k
(2k)!
(−1)k
2k+1
k=0 (2k+1)! x
P∞
x2k
x2k + a1
in
a
y=



r
∞
X
∞
k
X
(−1)
x2k+1 = a0 cos x + a1 sen x
(2k + 1)!
k=0
m
y=
Otro Ejemplo menos conocido pero importante
Considere ecuación de Hermite1 la cual aparece en la solución del oscilador armónico cuántico
Pr
eli
y 00 − 2xy 0 + λy = 0
Para resolver esta ecuación alrededor del punto x0 = 0, proponemos la siguiente expansión en series de
potencias como solución:
 0
P∞
∞
 y (x) = j=1 jaj xj−1
X
aj xj ⇒
y(x) =
P∞
 00
j=0
y (x) = j=2 j(j − 1)aj xj−2
or
entonces la ecuación de Hermite queda como






∞
∞
∞
X
X
X

j(j − 1)aj xj−2  − 2 
jaj xj  + λ 
aj xj  = 0
j=2
j=1
j=0
Bo
rr
ad
reacomodando ı́ndices queda como
"
∞
X
#
(k + 2) (k + 1)ak+2 x
k




∞
∞
X
X
j
j
− 2
jaj x  + λ 
aj x  = 0
j=1
k=0
o equivalentemente
(2a2 + λa0 ) +
a0 = −
2a2
λ
∞
X
j=0
[(j + 2) (j + 1)aj+2 − 2jaj + λaj ] xj = 0
j=1
y
aj+2 =
− (λ − 2j)
aj
(j + 2) (j + 1)
n≥1
1 Charles Hermite, (1822-1901). Matemático francés, especializado en el estudio de teorı́a de funciones. Profesor en la
Universidad de Parı́s, ofreció importantes aportaciones al álgebra, las funciones abelianas y la teorı́a de las formas cuadráticas.
267
7.3. OTRO EJEMPLO MENOS CONOCIDO PERO IMPORTANTE
y tendrá como solución




λ 2 (4 − λ) λ 4 (8 − λ) (4 − λ) λ 6

y (x) = a0 
1
−
x
−
x
−
x
−
·
·
·


4!
6!
{z
}
| 2!
y0

y1
in
a


(2 − λ) 3 (6 − λ) (2 − λ) 5 (10 − λ) (6 − λ) (2 − λ) 7
+ a1 
x +
x + · · ·
x + 3! x +

5!
7!
{z
}
|
r

nótese que para valores pares de λ una u otra serie se corta y genera polinomios de la forma
Polinomio asociado
y0 (x) = 1
y1 (x) = x
y0 (x) = 1 − 2x2
y1 (x) = x − 32 x3
4
y0 (x) = 1 − 10x2 + 35
3 x
m
Ecuación de Hermite
y 00 − 2xy 0 = 0
00
y − 2xy 0 + 2y = 0
y 00 − 2xy 0 + 4y = 0
y 00 − 2xy 0 + 6y = 0
y 00 − 2xy 0 + 8y = 0
Pr
eli
λ
0
2
4
6
8
También, puede ser definido a partir de una ecuación:
Hλ (x) = (−1)λ ex
o a través de una relación de recurrencia
2
dλ −x2
e
,
dxλ
λ = 0, 1, 2, ....
(7.1)
Hn+1 (x) − 2xHn (x) + 2nHn−1 (x) = 0
or
Las ecuaciones antes mencionadas son ecuaciones homogéneas. En el caso que la ecuación diferencial a
resolver por series sea una ecuación inhomogéna, se procederá del mismo modo como se propuso en el caso de
que los coeficientes de la ecuación diferencial fueran constantes. Esto es se resuelve, por series la homogénea
y luego se propone una solución particular, en forma de serie de potencias, la cual se iguala con la expansión,
también en series de potencias, del término inhomogéneo. Como ejemplo, antes de proceder a casos más
generales resolvamos la ecuación de Airy2 , pero inhomogéna planteada arriba. A pesar de su simplicidad,
esta ecuación admite sólo soluciones en forma de serie. ahora el caso de la ecuación homogénea de Airy
Bo
rr
ad
y 00 − xy = 0
Luego, compruebe, siguiendo el procedimiento arriba expuesto que una posible ecuación inhomogénea de
Airy
y 00 − xy = exp (x)
tiene como solución la siguiente serie de potencias
1
1
1
1
1
y (x) = y (0) 1 + x3 + · · · + y 0 (0) x + x4 + · · · + x2 + x3 + x4 + · · ·
6
12
2
6
24
{z
}
|
{z
}
|
{z
} |
yih
y1
y2
|
{z
}
yh
2 George Biddell Airy (1801-1892) Matemático y Astrónomo Inglés con contribuciones importantes en la solución de
ecuaciones diferenciales y su utilización en Astronomı́a. Mejoró significativamente las estimaciones teóricas de la orbita de
Venus y la Luna. Igualmente realizó estudios matemáticos de la formación del arcoiris y la densidad de la tierra.
268
7.4. MÉTODO DE DIFERENCIACIONES SUCESIVA
Nótese que los dos primeros términos corresponden a la solución de la ecuación homogénea y el último
representa la serie que anula el término inhomogéneo. Hemos hecho patente la dependencia de las constantes
de integracón de las condiciones iniciales.
7.4.
Método de Diferenciaciones Sucesiva
n
X
ai (x) y (i) (x) = F(x)
(7.2)
in
a
a0 (x) y(x) + a1 (x) y 0 (x) + · · · + an−1 (x) y n−1 (x) + an (x) y n (x) =
r
En general, dada la Ecuación diferencial
i=o
Si los coeficientes a0 (x) · · · an (x) son funciones analı́ticas en x = x0 (se pueden expresar como una serie
de Taylor de (x − x0 ) que converge al valor de la función con un radio de convergencia de |x − x0 | < ρ),
entonces, la ecuación diferencial 7.2 tendrá como solución única, y = y(x) de la ecuación homogéna una serie
de potencias la cual satisface las n condiciones iniciales
y 0 (x0 ) = c2 ;
y 00 (x0 ) = c3 ; · · ·
y 00 (x0 ) = cn
m
y(x0 ) = c1 ;
n
X
i
(x − x0 )
y se
i!
i=o
P∞
propondrá una solución particular de la inhomogénea, también en términos de una serie yih (x) = j=0 aj xj .
Otra forma de hacerlo es proceder directamente y conservar el término inhomogéneo y a partir de la
ecuación completa encontrar los coeficientes de la expansión por Taylor alrededor del punto en el cual se
disponga de las condiciones iniciales. La solución en series de Taylor será
F (i) (x0 )
Pr
eli
Adicionalmente, se expandirá en Taylor la función inhomogénea, esto es F(x) =
yh (x) = y(0) + y 0 (0)x + y 00 (0)
x2
x3
+ y 000 (0) + · · ·
2!
3!
Ası́ para la siguiente ecuación diferencial
y 00 − (x + 1) y 0 + x2 y = x;
con
y(0) = 1;
y
y 0 (0) = 1.
or
los coeficientes de la expansión se obtienen de los valores de las derivadas en x0 = 0, los cuales salen de las
condiciones iniciales, de la ecuación diferencial esto es
y(0) = 1;
y 0 (0) = 1;
y 00 (0) = (0) + (0 + 1) y 0 (0) − 02 y(0) = 1
Bo
rr
ad
y de las derivadas de la ecuación diferencial
y 000 (x) = y 0 (x) + (x + 1) y 00 (x) − 2x y(x) − x2 y 0 (x) + 1
y 000 (0) = y 0 (0) + (0 + 1) y 00 (0) − 2(0) y(0) − 02 y 0 (0) + 1
y 000 (0) = 1 + 1 + 1 = 3
finalmente, la solución
x2
x3
+
+ ···
2
2
Esta solución contiene las dos soluciones (la homogénea y la particular de la inhomogénea) sumadas
Dado |x| < 1 y la ecuación diferencial
y 00 +
yh (x) = 1 + x +
x
1
y0 −
y = exp (2x) ;
1 − x2
1 − x2
con
y(0) = 1;
y
y 0 (0) = 1.
269
7.5. MÉTODOS DE LOS COEFICIENTES INDETERMINADOS
compruebe que tiene como solución general por series
1
1
1
1 2 1 3 1 4
y (x) = y (0) 1 + x2 + x4 + x6 + · · · + y 0 (0) x +
x + x + x + ···
2
24
80
2
3
8
1
1
1
1 6
4 7
79
y (x) = 1 + x + x2 + x3 + x4 + x5 +
x −
x −
x8 + · · ·
3
6
30
180
315
10 080
Métodos de los Coeficientes Indeterminados
in
a
7.5.
En general, para encontrar la solución a la ecuación antes mencionada
n
X
r
y al incorporar los valores de las condiciones iniciales se obtiene
ai (x) y (i) (x) = F(x)
m
i=o
Pr
eli
Se expanden por series de potencias cada uno de los coeficientes a0 (x) · · · an (x), la función F(x) y se expande
también la serie
∞
j
X
(x − x0 )
y(x) =
cj
j!
j=0
luego de bastante transpiración se despejan los coeficiente c0 · · · cn · · · veamos el ejemplo con la misma
ecuación del ejemplo anterior.
y 00 − (x + 1) y 0 + x2 y = x;
con
y(0) = 1;
y 0 (0) = 1.
y
or
Como x0 = 0, proponemos la siguiente expansión en series de potencias como solución:

P∞
y 0 (x) = j=1 jcj xj−1
∞

X
y(x) =
cj xj
=⇒
P∞
 00
j=0
y (x) = j=2 j(j − 1)cj xj−2
y al sustituir
∞
X
j(j − 1)cj xj−2 − (x + 1)
Bo
rr
ad
j=2
expandiendo
∞
X
j(j − 1)cj xj−2 −
j=2
∞
X
∞
X
jcj xj−1 + x2
j=1
jcj xj −
j=1
∞
X
cj xj = x
j=0
∞
X
j=1
jcj xj−1 +
∞
X
cj xj+2 = x
j=0
si hacemos j − 2 = l en el primer término, j − 1 = k en el tercero y j + 2 = m en el cuarto, tenemos
∞
X
(l + 2) (l + 1) cl+2 xl −
l=0
acomodando
∞
X
n=0
∞
X
j=1
jcj xj −
∞
X
(k + 1) ck+1 xk +
k=0
((n + 2) (n + 1) cn+2 − ncn − (n + 1) cn+1 ) xn +
∞
X
cm−2 xm = x
m=2
∞
X
cm−2 xm = x
m=2
270
7.5. MÉTODOS DE LOS COEFICIENTES INDETERMINADOS
por lo tanto
c2 − c1 = 0
3 · 2 c3 − c1 − 2 c2 = 1
y la relación de recurrencia para n ≥ 2
r
(n + 2) (n + 1) cn+2 − ncn − (n + 1) cn+1 − cn−2 = 0
in
a
con la cual se obtienen todos los demás coeficientes.
Si la ecuación es
y 00 + (sin x) y 0 + (exp x) y = 0
m
se expanden los coeficientes
1 3
1 5
1 2 1 3
1 4
1 5
00
0
y + x− x +
x + ··· y + 1 + x + x + x + x +
x + ··· y = 0
6
120
2
6
24
120
Pr
eli
se propone la solución en términos de series de potencias

P∞
y 0 (x) = j=1 jcj xj−1
∞

X
y(x) =
cj xj ⇒
P∞
 00
j=0
y (x) = j=2 j(j − 1)cj xj−2
por lo cual






X
X
∞
∞
∞
X
1
1

jcj xj−1  + 1 + x + x2 + · · · 
cj xj  = 0
j(j − 1)cj xj−2  + x − x3 + · · · 
6
2
j=1
j=0
j=2
acomodando
Bo
rr
ad
or
(2c2 + c0 ) + (6c3 + 2c1 + c0 ) x + (12c4 + 3c2 + c1 + c0 ) x2 + (20c5 + 4c3 + c2 + c1 + c0 ) x3 + · · · = 0
2c2 + c0 = 0
6c3 + 2c1 + c0 = 0
12c4 + 3c2 + c1 + c0 = 0
20c5 + 4c3 + c2 + c1 + c0 = 0
..
.
Ejercicio. Utilice el mismo método para la ecuación ejercicio anterior
y 00 +
x
1
y0 −
y = e2x ;
1 − x2
1 − x2
con
y(0) = 1;
y
y 0 (0) = 1.
271
7.6. LOS PUNTOS Y LAS ESTRATEGIAS
7.6.
Los Puntos y las Estrategias
Dada una ecuación diferencial del tipo
y 00 +
⇒
Q (x) 0 R (x)
y +
y=0
P (x)
P (x)
Q (x)
= l1
P (x)
con l1 finito
lı́m q (x) ≡ lı́m
x→x0
R (x)
= l2
P (x)
con l2 finito
Q(x)
P (x)
y q (x) =
x→x0
x→x0
O también, lo que es lo mismo, que p(x) =
de ese punto x = x0 .
R(x)
P (x)
y q (x) =
R(x)
P (x)
m
lı́m p(x) ≡ lı́m
x→x0
Q(x)
P (x)
in
a
Puntos ordinarios Un punto ordinario x = x0 será aquel alrededor del cual p(x) =
sean analı́ticas en ese punto o
r
P (x) y 00 + Q (x) y 0 + R (x) y = 0
tengan una expansión en Taylor alrededor
Pr
eli
Puntos singulares regulares Un punto x = x0 se llamará punto singular regular si
lı́m (x − x0 ) p(x) ≡ lı́m (x − x0 )
x→x0
x→x0
2
2
lı́m (x − x0 ) q (x) ≡ lı́m (x − x0 )
x→x0
Q (x)
= l3
P (x)
x→x0
R (x)
= l4
P (x)
con l3 finito
con l4 finito
2
2 R(x)
P (x)
tengan
or
O también, lo que es lo mismo, que p(x) (x − x0 ) = (x − x0 ) Q(x)
P (x) y q (x) (x − x0 ) = (x − x0 )
una expansión en Taylor alrededor de ese punto.
Puntos singulares irregulares Ninguna de las anteriores
Ecuaciónes e intervalos en puntos regulares
Bo
rr
ad
7.7.
La ecuación de Legendre3
(1 − x2 ) y 00 − 2x y 0 + λ(λ + 1) y = 0
tiene puntos regulares en x 6= ±1 y puntos singulares regulares en x = ±1. Pero es analı́tica en x ∈ (−1, 1)
lo tanto, todos los x son ordinarios si x ∈ (−1, 1). En ese intervalo se propone una solución
y(x) =
∞
X
an xn
n=0
3 Adrien Marie Legendre (1752-1833). Matemático francés, encuadrado en la escuela de Parı́s, que surgió tras la revolución
de 1789. Realizó una teorı́a general de las funciones elipticas y divulgó numerosos trabajos de investigadores jóvenes en el campo
del análisis matemático.
272
7.7. ECUACIÓNES E INTERVALOS EN PUNTOS REGULARES
por lo tanto
2
(1 − x )
∞
X
n(n − 1)an x
n−2
− 2x
n=2
∞
X
n an x
n−1
+ λ(λ + 1)
n=1
∞
X
an xn = 0
n=0
multiplicando y acomodando
∞
∞
∞
∞
X
X
X
X
(j + 2)(j + 1)aj+2 xj −
n(n − 1)an xn − 2
n an xn + λ(λ + 1)
an xn = 0
n=2
n=1
n=0
r
j=0
in
a
expandiendo
0 =2a2 + λ(λ + 1)a0 {(λ + 2)(λ − 1)a1 + (3 · 2)a3 } x+
∞
X
+
{(n + 2)(n + 1)an+2 + (λ + n + 1)(λ − n)an } xn
n=2
m
donde hemos utilizado
−n(n − 1) − 2n + λ(λ + 1) = (λ + n + 1)(λ − n)
por lo tanto
y las potencias impares serán
Pr
eli
(λ + 1)λ
a0
2
(λ + 3)(λ + 1)λ(λ − 2)
a4 =
a0
4!
(λ + 2n − 1)(λ + 2n − 3) · · · (λ + 1)λ(λ − 2) · · · (λ − 2n + 2)
a2n = (−1)n
a0
(2n)!
a2 = −
(λ + 2)(λ − 1)
a1
3!
(λ + 4)(λ + 2)(λ − 1)(λ − 3)
a1
a5 =
5!
(λ + 2n)(λ + 2n − 2) · · · (λ + 2)(λ − 1) · · · (λ − 2n + 1)
a2n+1 = (−1)n
a1
(2n + 1)!
or
a3 = −
Bo
rr
ad
y su solución general de la forma
y(x) = a0 y0 (x) + a1 y1 (x)
con
(λ + 1)λ 2 (λ + 3)(λ + 1)λ(λ − 2) 4
x +
x + ···
2
4!
(λ + 2)(λ − 1) 3 (λ + 4)(λ + 2)(λ − 1)(λ − 3) 5
y1 (x) = x −
x +
x + ···
3!
5!
y0 (x) = 1 −
si λ = 2n una de las series se corta solución es un polinomio de potencias pares y si λ = 2n + 1 la otra se
corta en uno de potencias impares
273
7.8. EL MÉTODO DE FROBENIUS
λ
0
1
2
3
4
Ecuación de Legendre
(1 − x2 ) y 00 − 2x y 0 = 0
(1 − x2 ) y 00 − 2x y 0 + 2 y = 0
(1 − x2 ) y 00 − 2x y 0 + 6 y = 0
(1 − x2 ) y 00 − 2x y 0 + 12 y = 0
(1 − x2 ) y 00 − 2x y 0 + 20 y = 0
Polinomio Asociado
y0 (x) = 1
y1 (x) = x
y0 (x) = 1 − 3x2
y1 (x) = x − 35 x3
4
y0 (x) = 1 − 10x2 + 35
3 x
Pn (x) =
1 dn 2
(x − 1)n ,
n!2n dxn
in
a
r
Los polinomios de Legendre son funciones que surgen en problemas de electrostática como solución de la
ecuación de Legendre y son efectivamente polinomios para λ entero. Los Polinomios de Legendre también
pueden ser generados a partir de la Fórmula de Rodrı́gues
n = 0, 1, 2, .....
con P0 (x) = 1. También se dispone de una relación de recurrencia
7.8.
m
(n + 1) Pn+1 (x) = (2n + 1) xPn (x) − nPn−1 (x)
El Método de Frobenius
Pr
eli
Para la solución de ecuaciones diferenciales lineales ordinarias alrededor de puntos singulares regulares
se utiliza el método de Frobenius4 . Dada una ecuación diferencial
y 00 + F1 (x) y 0 + F2 (x) y = 0
y 00 +
⇐⇒
f1 (x) 0
f2 (x)
y +
2 y =0
(x − x0 )
(x − x0 )
(7.3)
donde F1 (x) y F2 (x) tienen singularidades regulares enx = x0 y por lo tanto f1 (x) y f2 (x) son analı́ticas
alrededor de ese punto entonces, la propuesta de solución será una serie de Frobenius
m
y(x) = (x − x0 )
∞
X
n
an (x − x0 )
(7.4)
or
n=0
Bo
rr
ad
donde n es entero positivo, pero m puede ser entero positivo (entonces la serie de Frobenius es una serie de
Taylor) o entero negativo (entonces la serie de Frobenius es una serie de Laurent), o un racional. Por lo cual
una serie de Frobenius incluye a las serie de Taylor y Laurent. Para hacer las cosas más simples supongamos,
sin perder generalidad, x0 = 0. Además, como f1 (x) y f2 (x) son analı́ticas entonces
f1 (x) =
∞
X
bn x n
y
f2 (x) =
n=0
∞
X
cn x n
(7.5)
n=0
por lo tanto
2 00
0
x y + x f1 (x) y + f2 (x) y = 0
"
⇐⇒
2 00
x y +x
∞
X
n=0
#
n
bn x
"
0
y +
∞
X
#
cn x
n
y=0
n=0
4 Ferdinand Georg Frobenius (1849-1917) Matemático Alemán famoso por sus contribuciones en Teorı́a de Grupos y
métodos para resolver ecuaciones diferneciales.
274
7.8. EL MÉTODO DE FROBENIUS
y con la propuesta de serie de Frobenius
y(x) = x
m
∞
X
∞
X
"
an x
0
n
=⇒ y (x) = mx
m−1
n=0
#
an x
n
"
+x
m
n=0
∞
X
#
nan x
n−1
n=1
⇓
"
an xn + 2mxm−1
n=0
sustituyendo
(
0=x
2
"
m (m − 1) x
m−2
∞
X
+x
∞
X
#(
bn x
n
"
mx
m−1
n=0
#
#
an x
"
n
+ 2mx
m−1
nan xn−1 + xm
∞
X
∞
X
#
an x
n
"
+x
m
∞
X
#
nan x
n−1
"
+x
#)
nan x
m (m − 1) x
0=
∞
X
n−1
"
+
n=1
#
an x
n
+
∞
X
#(
bn x n
"
mxm
n=0
∞
X
#
0 = xm
m (m − 1)
∞
X
#
an xn + 2m
or
n=0
#(
bn x
n
m
"
∞
X
n=0
Bo
rr
ad
+
∞
X
∞
X
"
n=0
"
∞
X
#
#
an x
∞
X
n (n − 1) an xn−2
∞
X
#)
n (n − 1) an x
#(
cn x
n
x
n
"
+
∞
X
n=1
m
∞
X
n=0
n=0
∞
X
n
"
n
nan x
+x
m
n−2
+
)
an x
n
#)
n (n − 1) an x
+
n=2
#)
"
nan xn
+
n=1
o
"
"
an xn + xm
n=0
(
+ 2mx
m
n=1
n=0
"
"
#
Pr
eli
"
m
n=2
acomodando
m
∞
X
n=2
n=1
n=0
(
"
n=1
n=0
"
∞
X
r
#
in
a
y 00 (x) = m (m − 1) xm−2
∞
X
m
"
∞
X
#(
cn x n
xm
n=0
#
"
nan xn +
n=1
∞
X
∞
X
)
an xn
n=0
#)
n (n − 1) an xn
+
n=2
#)
nan x
∞
X
n
"
+
∞
X
n=0
#(
cn x
n
∞
X
)!
an x
n
n=0
275
7.8. EL MÉTODO DE FROBENIUS
(7.6)
r
(7.7)
in
a
Expandiendo las series tendremos






m
0=x
a0 [m (m − 1) + b0 m + c0 ] +

{z
}
 |

EI(m)






+ xm+1 a1 [m (m + 1) + b0 (m + 1) + c0 ] + a0 [b1 m + c1 ] +


{z
}

 |
EI(m+1)






m+2
+x
a2 [(m + 2) (m + 1) + b0 (m + 2) + c0 ] + a1 [b1 (m + 1) + c1 ] + a0 [b2 m + c2 ]


{z
}
 |

EI(m+2)



+ xm+3 a3 [(m + 3) (m + 2) + b0 (m + 3) + c0 ] + a2 [b1 (m + 2) + c1 ] +

{z
}
 |
(7.9)
m
EI(m+3)
(7.8)
+a1 [b2 (m + 1) + c2 ] + a0 [b3 m + c3 ]} + · · ·
+ xm+n





Pr
eli
..
.
an [(m + n) (m + n − 1) + b0 (m + n) + c0 ] + an−1 [b1 (m + n − 1) + c1 ] +
|
{z
}
(7.10)
EI(m+n)
+ an−2 [b2 (m + n − 2) + c2 ] + an−3 [b3 (m + n − 3) + c3 ] + · · ·
(7.11)
+a1 [bn−1 (m + 1) + cn−1 ] + a0 [bn m + cn ]}
(7.12)
la cual puede ser reacomodada aún más, y toma la forma elegante y compacta de
(
)
∞
i−1
X
X
0 = xm {a0 EI (m)} +
ai EI (m + i) +
ak [(m + k) bi−k + ci−k ] xm+i
(7.13)
or
+ ···
i=1
k=0
Bo
rr
ad
donde hemos identificadoEI (m) = m (m − 1) + b0 m + c0 . Como es de esperarse, este polinomio se anula si
los coeficientes de xm · · · xm+i se anulan. La primera de las ecuaciones que surge es la ecuación indicadora o
ı́ndice
a0 6= 0
=⇒
EI (m) = m (m − 1) + b0 m + c0 = 0
(7.14)
que no es otra cosa que un polinomio de segundo grado en m. Al anular el coeficiente de xm+i
(
)
i−1
X
ai EI (m + i) +
ak [(m + k) bi−k + ci−k ] = 0
(7.15)
k=0
obtendremos la relación de recurrencia para la serie de Frobenius, correspondientes a cada raı́z de la ecuación
indicadora (7.14). Dato que la ecuación indicadora es un polinomio de segundo grado para m, entonces de
allı́ se derivan dos raı́ces m1 y m2 . Dependiendo de como sean estas raı́ces distinguiremos tres casos:
276
7.8. EL MÉTODO DE FROBENIUS
1. m1 6= m2 ∧ m1 − m2 6= N con N entero.
En este caso, la solución en términos de la serie de Frobenius para la ecuación diferencial será
"
"
#
#
∞
∞
X
X
m2
m1
n
n
1+
(7.16)
y(x) = C1 kxk
1+
an (m2 ) x
an (m1 ) x + C2 kxk
n=1
n=1
{z
|
}
y1 (x)
|
{z
}
y2 (x)
in
a
r
2. m1 = m2
En este caso, la solución en términos de la serie de Frobenius para la ecuación diferencial será
#
"
∞
X
m
n
1+
an (m) x
y(x) = C1 kxk
n=1
|
{z
}
y1 (x)
+ C2
∞
X
"
kxk
m
1+




|
|
m
(7.17)






#
an (m) x
"
m
n
ln x + kxk
n=1
∞
X
Bn (m) xn
n=0
{z
}
Pr
eli
y1 (x)
{z
y2 (x)



#







}
3. m1 6= m2 ∧ m1 − m2 = N con N entero positivo.
En este caso, la solución en términos de la serie de Frobenius para la ecuación diferencial será
"
#
∞
X
m1
n
y(x) = C1 kxk
1+
an (m1 ) x
n=1
|
{z
}
y1 (x)
(7.18)
or






+ C2
"
m1
f kxk
Bo
rr
ad




|
|
1+
∞
X
an (m1 ) x
#
"
m2
n
ln x + kxk
n=1
{z
y1 (x)
∞
X
n=0
}
{z
y2 (x)
an (m2 ) xn



#







}
Donde las constantes an (m1 ) , an (m2 ) , Bn (m1 ) y f, surgen de sustituir estas soluciones en la ecuación
diferencial y resolver por el método de los coeficientes indeterminados. Nótese que hemos indicado explı́citamente que los coeficientes an = an (m1 ) ; an = an (m2 ) ; Bn = Bn (m2 ) corresponden a las series de cada una
de las raı́ces de la ecuacion indicadora.
En resumen, si una ecuación diferencial y 00 +F1 (x) y 0 +F2 (x) y = 0 presenta puntos sigulares regulares
para F1 (x) y F2 (x) en x = x0 . Lo que se traduce en que

P∞
n
 f1 (x) = n=0 bn (x − x0 )
f
(x)
f
(x)
2
1
y 00 +
y0 +
con
2 y =0
P∞

(x − x0 )
n
(x − x0 )
f2 (x) = n=0 cn (x − x0 )
277
7.8. EL MÉTODO DE FROBENIUS
es decir, que f1 (x) y f2 (x) sean analı́ticas en torno a x = x0 . Entonces se aplica el método de Frobenius.
Para ello,
1. se propone una solución en series de potencias de Frobenius:
∞
X
y(x) = xm
an xn
n=0
r
con m ∈ < ∧ n ∈ N ,
a0 6= 0
in
a
2. se sustituye en la ecuación diferencial y se aisla el término independiente (de orden cero en n). El
coeficiente de este término se anula e implica la ecuación la indicadora o ı́ndice
EI (m) = m (m − 1) + b0 m + c0 = 0
=⇒
que no es otra cosa que un polinomio de segundo grado en m. De esta ecuación emergen dos raı́ces m2
∧ m1 ,en función de estas raı́ces, procedemos de distinto modo
m
a) si m1 6= m2 ∧ m1 − m2 6= N con N entero entonces tendremos dos series de Frobenius
"∞
#
"∞
#
X
X
an (m2 ) xn
y(x) = C1 xm1
an (m1 ) xn + C2 xm2
n=0
Pr
eli
n=0
b) si m1 = m2 tenemos que insertar un logaritmo
(
"∞
#
"∞
#)
X
X
m1
n
n
y(x) = x
(C1 + C2 ln x)
an (m) x + C2
Bn (m) x
n=0
n=0
c) m1 6= m2 ∧ m1 − m2 = N con N entero positivo, entoces, como por arte de magia
(
"∞
#)
"∞
#
X
X
m1
n
m2
n
y(x) = x
(C1 + f ln x)
an (m1 ) x
+ C2 x
an (m2 ) x
n=0
n=0
or
3. Seguidamente se determina, según el caso, se determinan las relaciones de recurrecias para los distintos
coeficientes an = an (m1 ) ; an = an (m2 ) ; Bn = Bn (m2 ) ; Gn = Gn (m2 ) a partir de la ecuación (7.15)
)
(
n−1
X
ak [(m + k) bn−k + cn−k ] = 0
an EI (m + n) +
Bo
rr
ad
k=0
tomando en cuenta los coeficientes de los desarrollos en series de potencias de las funciones
f1 (x) =
si anulamos los coeficientes de x
an EI (m + n) +
n−1
X
k=0
∞
X
bn xn
y
f2 (x) =
n=0
∞
X
cn xn
n=0
m+n
ak [(m + k) bn−k + cn−k ] = 0
Pn−1
⇐⇒
an = −
k=0
ak [(m + k) bn−k + cn−k ]
EI (m + n)
entonces se obtiene la relación de recurrencia, al menos para los casos (7.16) y (7.17) en los cuales
EI (m + n) 6= 0. El caso EI (m + n) = 0, vale decir m1 6= m2 ∧ m1 − m2 = N con N será analizado
en detalle más adelante.
278
7.8. EL MÉTODO DE FROBENIUS
7.8.1.
m1 6= m2 ∧ m1 − m2 6= N con N entero.
En ese caso es claro que la resolver la ecuación indicadora y sustituir m1 en el resto de los coeficientes,
se va despejando todos los coeficientes a0 · · · an en términos de a0 . Igualmente al sustituir m2 encontramos
la otra solución y ambas son linealmente independientes y la solución será
"∞
#
"∞
#
X
X
m1
n
m2
n
an x + C2 x
an x
y(x) = C1 x
n=0
in
a
Ejemplo, encuentre la solución en términos de series de Frobenius de la siguiente ecuación
1
1
x2 y 00 + x x +
y 0 − x2 +
y=0
2
2
r
n=0
Pr
eli
m
al dividir por x2 identificamos
P∞ que a x = 0 es un punto singular regular. Proponemos por lo tanto una serie
de Frobenius y(x) = xm n=0 an xn como posible solución. La ecuación indicadora EI (m) = m (m − 1) +
b0 m + c0 = 0 queda ahora, como



 b0 = 21 




⇐= f1 (x) = 21 + x






b1 = 1





m=1 



1
1
c0 = − 12 
⇐= m (m − 1) + m − = 0
⇐=







2
2



m = −1



2



c
=
0
⇐= f2 (x) = − 21 − x2

1












 


c2 = −1
los demás coeficientes b2 = b3 = · · · = bn = · · · = 0 y c3 = c4 = · · · = cn = · · · = 0.
or
El primer término del coeficiente de xm+n , puede ser escrito en términos de genéricos, como
1
1
1
1
1
EI (m + n) = (m + n) (m + n − 1) +
(m + n) + −
= m2 + 2mn − m + n2 − n − (7.19)
2
2
2
2
2
|{z}
| {z }
b0
c0
Bo
rr
ad
El segundo término de ese mismo coeficiente, es una sumatoria en la cual inervienen los coeficientes de
las expansiones de f1 (x) y f2 (x) (ecuación (7.5)). Como de esta expansión sobrevive b1 = 1 significa
que sólo aparecen el coeficiente para el cual n − k = 1 ⇒ k = n − 1 y como también sobrevive c2 = −1,
tendremos que n − k = 2 ⇒ k = n − 2,también estará presente. Esto es




an−1 (m + n − 1) · |{z}
1  + an−2 (−1)
| {z }
b1
(7.20)
c2
En definitiva el coeficiente completo se escribe como
1
1
1
+ an−1 [m + n − 1] − an−2 = 0
an m2 + 2mn − m + n2 − n −
2
2
2
(7.21)
279
7.8. EL MÉTODO DE FROBENIUS
con lo cual la relación de recurrencia general será
an−2 − an−1 [m + n − 1]
m2 + 2mn − 12 m + n2 − 12 n −
an =
para n ≥ 2
1
2
(7.22)
2
2n2 + 3n
para n ≥ 2
in
a
an = (an−2 − nan−1 )
y se encuentra a1 al utilizar el coeficiente de xm+1 (ecuación (7.7))
1
1
+ a0 [1 + 0] = 0
=⇒
a1 1 (1 + 1) + (1 + 1) −
2
2
=⇒ a2 =
1
7
n=3
=⇒ a3 =
2
27
(−3a2 + a1 ) =
2
27
−27
35 a0
n=4
..
.
=⇒ a4 =
1
22
(−4a3 + a2 ) =
1
22
328
945 a0
1
7
4
5 a0
+ a0 =
9
35 a0
=⇒ a2 =
82
− 52 a0 = − 945
a0
Ası́ la primera solución será
−
9
35 a0
=
571
20790 a0
9
35 a0
82
=⇒ a3 = − 945
a0
Pr
eli
(−2a1 + a0 ) =
2
a1 = − a0
5
m
con lo cual
n=2
r
Dependiendo del valor de m tendremos una relación de recurrencia para la primera de las series m = 1
1
o para la segunda, m = − . Analicemos cado por caso. Para el caso particular m = 1, se obtiene la
2
relación de recurrencia:
=⇒ a4 =
..
.
571
20790 a0
2
9 2
82 3
571 4
y1 (x) = a0 x 1 − x + x −
x +
x + ···
5
35
945
20790
Bo
rr
ad
or
1
Del mismo modo se construye la segunda solución linealmente independiente a partir de m = − . Ası́, la
2
1
relación de recurrencia para los coficientes de la serie de Frobenius m = − será:
2
3
2
an = an−2 − n −
an−1
para n ≥ 2
2
2n2 − 3n
y
1
1
1
1
1
1
−
+
−
+ a0 −
=0
a1
2
2
2
2
2
2
=⇒
a1 = −a0
por lo cual
n=2
=⇒ a2 = − 21 a1 + a0 = 12 a0 + a0 = 23 a0
n=3
=⇒
a3 =
2
9
n=4
..
.
=⇒
a4 =
1
10
− 23 a2 + a1 =
2
9
− 25 a3 + a2 =
1
10
−9
4 a0
13
− a0 = − 18
a0
65
36 a0
+ 23 a0 =
119
360 a0
=⇒
a2 = 32 a0
=⇒
13
a3 = − 18
a0
=⇒
a4 =
..
.
119
360 a0
280
7.8. EL MÉTODO DE FROBENIUS
Por lo cual, la solución general será
2
9
82 3
571 4
y(x) = C1 x 1 − x + x2 −
x +
x + ···
5
35
945
20790
1
3
13
119 4
1 − x + x2 − x3 +
x + ···
2
18
360
r
+ C2 x− 2
7.8.2.
in
a
Nótese que esta solución vale para 0 < kxk < ∞ por cuanto para x < 0, la segunda solución se hace
imaginaria pero se puede resolver haciendo C2 = i C3
Como ejercicio resuelva
2x2 y 00 − x y 0 − (x + 1) y = 0
m1 = m2 .
f1 (x)
m
Del mismo modo, si tenemos una ecuación diferencial
⇐⇒
L {y} = x2 y 00 + x f1 (x) y 0 + f2 (x) y = 0 (7.23)
x2 y 00 + x [x F1 (x)]y 0 + x2 F2 (x) y = 0
| {z }
| {z }
Pr
eli
f2 (x)
donde en la cual F1 (x) y F2 (x) tienen singularidades regulares en x = 0 pero f1 (x) y f2 (x) son analı́ticas
para ese punto, vale decir
∞
∞
X
X
f1 (x) =
bn x n
y
f2 (x) =
cn x n
n=0
n=0
or
se aplica el Método de Frobenius. Pero antes de proceder a ilustrar este caso en al cual ambas raı́ces coinciden,
veamos, un poco de dónde surge la forma general de la solución (7.17). Para ello reacomodemos la ecuación
diferencial (7.23) de la forma
d2
d
x2 y 00 + x f1 (x) y 0 + f2 (x) y = x2
+
x
f
(x)
+
f
(x)
y ≡ L {y} = 0
1
2
dx2
dx
Bo
rr
ad
donde L {•} está concebido como un operador lineal. Es ilustrador mostrar de dónde sale la forma curiosa
de la solución de la ecuación diferencial (7.17). Para ello, recordamos que
(
)
∞
n−1
X
X
m
L {y} ≡= x {a0 EI (m)} +
an EI (m + n) +
ak [(m + k) bn−k + cn−k ] xm+n
n=1
k=0
si anulamos los coeficientes de xm+n entonces
an EI (m + n) +
n−1
X
ak [(m + k) bn−k + cn−k ] = 0
Pn−1
⇐⇒
an = −
k=0
k=0
ak [(m + k) bn−k + cn−k ]
EI (m + n)
considerando EI (m + n) 6= 0 por lo tanto, para los an seleccionados (que anulen el coeficiente xm+n ) y
considerando el caso m1 = m2
2
L {y} (m, x) = {a0 EI (m)} xm = a0 (m − m1 ) xm
281
7.8. EL MÉTODO DE FROBENIUS
Nótese que estamos considerando L {y} (m, x) como una función de m, y x. Por lo cual evaluando en m = m1
2
L {y} (m, x)|m=m1 = a0 (m − m1 ) xm
=0
m=m1
L
∂y
∂m
(m, x) =
h
i
∂ 2
2
a0 (m − m1 ) xm = a0 (m − m1 ) xm ln x + 2 (m − m1 ) xm
∂m
in
a
r
pero además podemos intentar derivar respecto a la constante m
2
2
∂ {L {y} (m, x)}
d
d
∂
∂y
2 d
2 d
+ x f1 (x)
+ x f1 (x)
=
x
+ f2 (x) y = x
+ f2 (x)
∂m
∂m
dx2
dx
dx2
dx
∂m
m=m1
L
∂y
∂m
∂
=
∂m
(m, x)
m=m1
(
"
kxk
m
a0 +
= (x
#)
an (m) x
n
n=1
"
m1
∞
X
Pr
eli
m
y comprobamos que también se anula al evaluarla en m = m1
i
h
∂y
2
=0
= a0 (m − m1 ) xm ln x + 2 (m − m1 ) xm
L
(m, x)
∂m
m=m1
m=m1
n o
∂y
por lo tanto ∂m
también es solución, con lo cual la segunda toma la forma
(m, x)
ln x) a0 +
∞
X
m=m1
#
an (m1 ) x
n
"
+x
m1
n=1
y la solución general tendrá la forma
"
m1
y(x) = C1 kxk
1+
∞
X
∞
X
∂an (m)
∂m
n=1
#
x
n
m=m1
#
an (m1 ) x
n
n=1
{z
|
or






"
m1
kxk




|
|
1+
Bo
rr
ad
+ C2
}
y1 (x)
∞
X
an (m1 ) x
#
"
m1
n
ln x + kxk
n=1
{z
y1 (x)
∞
X
n=0
}
{z
y2 (x)
bn (m1 ) xn



#







}
Analicemos, como ejemplo un caso particular de la ecuación de Bessel5
x2 y 00 + x y 0 + x2 + ν 2 y = 0
5 Fredrich Wilhel Bessel (1784-1846). Astrónomo y matemático alemán. Aportó notables contribuciones a la astronomı́a
posicional, la geodesia y la mecánica celeste. Particularmente, se dedicó a aumentar la exactitud de las mediciones de la
posición y el movimiento de los astros. La precisión de sus mediciones hizo posible que determinara pequeñas irregularidades
en los movimientos de Urano lo condujo a predecir la existencia de Neptuno. Análogos razonamientos lo llevaron a especular
sobre la presencia de estrellas compañeras en Sirio y Procyon. A partir de datos registrados en el siglo XVII, calculó la órbita
del cometa Halley
282
7.8. EL MÉTODO DE FROBENIUS
Una vez más, la ecuación viene parametrizada por ν y dependiendo de su valor tendremos una familia de
soluciones. Consideremos el caso ν = 0
x2 y 00 + x y 0 + x2 y = 0
nos queda como
r
b0 = 1 ⇐= f1 (x) = 1


c0 = 0 









c1 = 0
⇐= f2 (x) = x2










c2 = 1
in
a
la ecuación indicadora EI (m) = m (m − 1) + b0 m + c0 = 0










m = 0 ⇐= m (m − 1) + m = 0
⇐=









Pr
eli
m
los demás coeficientes b1 = b2 = b3 = · · · = bn = 0 y c3 = c4 = · · · = cn = 0. Con lo cual EI (n) =
n (n − 1) + n = n2 , Por lo tanto, la relación de recurrencia se obtiene del coeficiente de xm+n

Pn−1
 b1 6= 0 ⇒ n − k = 1 ⇒ k = n − 1
a
[(m
+
k)
b
+
c
]
k
n−k
n−k
dado que
an = k=0

EI (m + n)
c2 6= 0 ⇒ n − k = 2 ⇒ k = n − 2
Pn−1
an (m) =
ak (m) [(m + k) bn−k + cn−k ]
an−1 (m) (m + n − 1) + an−2 (m)
=
2
(m + n) (m + n − 1) + (m + n)
(m + n)
k=0
tomando m = 0, se tiene
Pn−1
an (0) = −
k=0
ak (0) [kbn−k + cn−k ]
n2
con

 b1 6= 0 ⇒ n − k = 1 ⇒ k = n − 1

c2 6= 0 ⇒ n − k = 2 ⇒ k = n − 2
an (0) = −
or
con lo cual
an−2 (0) [c2 ] + an−1 (0) [(n − 1) b1 ]
an−2 (0) + an−1 (0) (n − 1)
=−
2
n
n2
para n ≥ 2
Bo
rr
ad
Otra vez, al anular el coeficiente para xm+1 (ecuación (7.7)) se obtiene a1 [0 (0 + 1) + 1 · (0 + 1) + 0] +
a0 [0 · 0 + 0] = 0 ⇒ a1 = 0. Con lo cual es claro que se anulan todos los coeficientes impares, y ası́
a2n (0) = −
a2n−2 (0)
2
(2n)
para n = 1, 2, 3, · · ·
con lo cual
283
7.8. EL MÉTODO DE FROBENIUS
n=1
=⇒
1
a2 (0) = − a0 (0)
4
n=2
=⇒
a4 (0) = −
n=3
=⇒
a6 (0) = −
1
(2 · 2)
1
(2 · 3)
2 a2
2 a4
(0) =
1
2
(2 · 2)
(0) = −
22
"
1
(2 · 3)
a0 (0)
2
a2 (0) = − 14 a0 (0)
=⇒
a4 (0) =
=⇒
a6 (0) =
1
2
(2 · 2) 22
#
1
(2 · 2)
=⇒
2
22
a0 (0)
2
(2 · 3) 23
..
.
a2l (0) = −
l
a2l−2 (0)
(2l)
=
2
(−1)
2 a0 (0)
22l (l!)
por lo tanto la primera de las soluciones será
"
y1 (x) = a0 1 +
∞
n
X
(−1)
n=1
|
=⇒
a2l (0) =
#
2x
2n
22n (n!)
{z
J0 (x)
(−1)
l
in
a
=⇒
2 a0
22l (l!)
(0)
m
n=l
a0 (0)
r
..
.
−1
a0 (0)
}
∞
X
y2 (x) = J0 (x) ln x +
n=0
para ello se requieren sus derivadas
y2 (x) = J0 (x) ln x +
∞
X
Pr
eli
Donde J0 (x) se conoce como la función de Bessel de primera especie de orden cero.
Para calcular la segunda solución de la ecuación de Bessel se sustituye
en la ecuación x2 y 00 + x y 0 + x2 y = 0
Bn xn
∞
⇒ y20 (x) = J00 (x) ln x +
Bn xn
n=0
⇓
J0 (x) X
+
Bn (0) nxn−1
x
n=1
y
∞
J00 (x) J0 (x) X
−
+
Bn n (n − 1) xn−2
x
x2
n=1
or
y200 (x) = J000 (x) ln x + 2
Bo
rr
ad
entonces
"
0=x
2
J000
"
+x
con lo cual

J00
#
∞
J00 (x) J0 (x) X
n−2
Bn n (n − 1) x
+
(x) ln x + 2
−
+
x
x2
n=2
#
"
#
∞
∞
X
J0 (x) X
n−1
2
n
(x) ln x +
+
Bn nx
+x
J0 (x) ln x +
Bn x
x
n=0
n=1

∞
∞
∞
X
X
X
Bn n (n − 1) xn +
Bn nxn +
Bn xn+2
0 = x2 J000 (x) + x J00 (x) + Jx2 0 (x) ln x + 2 J00 (x) x +
{z
}
|
n=2
n=1
n=0
=0
284
7.8. EL MÉTODO DE FROBENIUS
y finalmente
2
2
B1 x + 2 B2 x +
∞
X
2
n
Bn n + Bn−2 x = −2
n=3
∞
n
X
(−1) 2n
n=1
22n
2
(n!)
x2n
es claro que para los coeficientes impares se obtiene b1 = b3 = b5 = · · · = b2n+1 · · · = 0 ya que
r
∞
n
X
(−1) 2n 2n
B1 x + 22 B2 x2 + 32 B3 + B1 x3 + 42 B4 + B2 x4 + 52 B5 + B3 x5 + · · · = −2
x
2n (n!)2
n=1 2
in
a
mientras que para las potencias pares tendremos la relación de recurrencia
"
#
n+1
1
(−1)
n
B2n =
2
2 − b2n−2
(2n) 22(n−1) (n!)
entonces
1
22 (1!)
2
!
m
B2 = 2
1
1
+
2
2
2
2
(2 · 2)
22 (2!)
22 (1!)
"
#
"
#
3
1
1
1
1
1 1
1
3
= 2 2 2 1+ +
1+
B6 =
2
2 − b4 = 62
2 + 42 22
2
6 4 2
2 3
(6) 24 (3!)
24 (3!)
−
4
−2
..
.

B2k =
1
=−
1
42 22
Pr
eli
B4 =
1

k+1
k+1
1

 + 1 + 1 + · · · + 1 + 1 + 1 = (−1)
2
 22k (k!)2 Hk
3 2
22k (k!) |k k − 1 k − 2{z
}
(−1)
Hk
Ası́ la segunda solución puede tomar la forma de
or
y2 (x) = J0 (x) ln x +
∞
n+1
X
(−1)
y por lo tanto la solución general tendrá la forma
"
Bo
rr
ad
y (x) = A1 J0 (x) + A2
2 Hn
2n (n!)
n=1 2
J0 (x) ln x +
x2n
∞
n+1
X
(−1)
2 Hn
n=1
22n (n!)
#
x
2n
es costumbre en Fı́sica reacomodar la segunda solución de la forma
#
"
∞
n+1
x X
2 (−1)
y2 (x) ≡ Y0 (x) =
Hn x2n
γ + ln
J0 (x) +
2n (n!)2
π
2
n=1 2
donde γ se conoce como la constante de Euler-Mascheroni6 y tiene un valor
1
1
1
1 1
γ = lı́m
+
+
+ · · · + + + 1 − ln (n) ∼
= 0,5772
n→∞ n
n−1 n−2
3 2
6 Lorenzo Mascheroni (1750-1800) Monje Italiano, nacido en Bergamo, Lombardo-Veneto. Profesor de Algebra y Geometrı́a
en la Universidad de Pavia y luego Rector de la misma. Además de poeta, se destaco por sus contribuciones al Cálculo y a la
Mecánica.
285
7.8. EL MÉTODO DE FROBENIUS
y ası́, finalmente
Pr
eli
m
in
a
r
y (x) = C1 J0 (x) + C2 Y0 (x)
Comportamiento de las funciones de Bessel de orden cero. De primera especie J0 (x) y de segunda
especieY0 (x)
Nótese que tanto la función de Bessel de orden cero, de primera especie, J0 (x) , como la función de Bessel de
orden cero, de segunda especie, Y0 (x) ,tienen un comportamiento oscilatorio cuando x → ∞, que J0 (0) = 1,
mientras que Y0 (x) se comporta como π2 ln x cuando x → 0.
7.8.3.
m1 6= m2 ∧ m1 − m2 = N con N entero.
or
En general, la ecuación indicadora para este caso, m1 − m2 = N ⇒ m1 = N + m2 , con m1 > m2 . Este
caso nos lleva a la ecuación (7.13)
(
)
N
−1
n−1
X
X
m
0 = x {a0 EI (m)} +
an EI (m + n) +
ak [(m + k) bn−k + cn−k ] xm+n
(7.24)
Bo
rr
ad
n=1
(
+
aN EI (m + N ) +
N
−1
X
k=0
)
ak [(m + k) bN −k + cN −k ] xm+N +
(7.25)
k=0
+
∞
X
n=N +1
(
an EI (m + n) +
n−1
X
)
ak [(m + k) bn−k + cn−k ] xm+n
(7.26)
k=0
donde esta m es la menor de las raı́ces y m + N la mayor. Anulando el término {a0 EI (m)} coeficiente de
xm nos lleva a la ecuación indicadora:
EI (m + N ) = (m + N ) (m + N − 1) + b0 (m + N ) + c0 = EI (m) = (m) (m − 1) + b0 (m) + c0 = 0.
286
7.8. EL MÉTODO DE FROBENIUS
n=0
n=1
{z
|
|
}
y1 (x)
{z
y2 (x)
in
a
r
por lo tanto EI (m + N ) = 0 anula al coeficiente del término an para n = N , esto es la ecuación (7.12),
consecuentemente eso significa que se derivan dos casos
PN −1
EI (m + N ) = 0 ∧ k=0 ak [(m + N + k) bn−k + cn−k ] = 0
En este caso la solución en serie de Frobenius, partiendo de la raı́z mayor de la ecuación indicadora,
m + N , quedará en términos de a0 y no será linealmente independiente a la solución provista por la
raı́z menor, por consiguiente la solución proveniente de esta raı́z menor, m, será la solución general.
Esto quiere decir que en (7.18) la constante f = 0 y por consiguiente la solución será
"∞
#
"
#
∞
X
X
m
m
n
n
an (m + N ) x
(7.27)
y(x) = a0 kxk
1+
an (m) x + aN kxk
}
m
PN −1
EI (m + N ) = 0 ∧ k=0 ak [(m + N + k) bn−k + cn−k ] 6= 0
En este caso la raı́z mayor de la ecuación indicadora m + N determinará una de las soluciones, la
constante f 6= 0 y la solución general tendrá la forma de
"
#
∞
X
m1
n
1+
y(x) = C1 kxk
an (m1 ) x
n=1
|
}
"
m1
f kxk




|
|
Pr
eli
+ C2






{z
y1 (x)
1+
∞
X
#
"
m2
an (m1 ) xn ln x + kxk
n=1
{z
y1 (x)
∞
X
n=0
}
{z
y2 (x)
an (m2 ) xn



#







}
or
La ecuación de Bessel de orden fraccionario puede ilustrar el primero de estos casos, resolvámosla
1
2 00
0
2
x y +x y + x −
y=0
4
Bo
rr
ad
una vez más, le expansión en serie de Frobenius de y (x) nos lleva a una ecuación indicadora del tipo

b0 = 1 ⇐= f1 (x) = 1








1 

1 


m=







c
=
−
0

2
1


4 


⇐= m (m − 1) + m − = 0
⇐=


1


4
2

−1 



c1 = 0  ⇐= f2 (x) = x − 4
m=





2









 

c2 = 1
los demás coeficientes b1 = b2 = b3 = · · · = bn = 0 y c3 = c4 = · · · = cn = 0. Dado que N = 1 se tiene que la
ecuación (7.12)






a1 [(m + 1) (m + 1 − 1) + b0 (m + 1) + c0 ] + a0 [b1 (m + 1 − 1) + c1 ] + · · · = 0
(7.28)


{z
}
 |

EI(m+N )
287
7.8. EL MÉTODO DE FROBENIUS
in
a
r


















 1 
1
1
1
+1
−
+
−
+1 −
+ a0 [0] = 0 ⇒ a1 [0] + a0 [0] = 0
a1
−
(7.29)


2
2
2
4




|
{z
}




! !


1






EI
−
+1
2
con lo cual cualquier valor de a1 y a0 estarán permitidos. La relación de recurrencia proviene de anular el
1
coeficiente de xm+n , para m = − . Vale decir
2
∞
X
an EI (m + n) +
ak [(m + k) bn−k + cn−k ] = 0 ⇒
(7.30)
k=0
m
1
1
1
1
+n
−
+n−1 +
−
+n −
+ an−1 [0] + an−2 [1] = 0
an
−
2
2
2
4
los coeficientes serán
1
n = 2 =⇒ a2 = − a0
2
n = 4 =⇒ a4 = −
(7.32)
Pr
eli
an n2 − n = −an−2
(7.31)
1
1
a2 =
a0
12
24
1
1
a0
n = 6 =⇒ a4 = − a4 = −
30
720
..
.
n = 3 =⇒
1
a3 = − a1
6
n = 5 =⇒
a5 = −
n = 7 =⇒
1
1
a3 =
a1
20
120
1
1
a7 == − a5 = −
a1
42
5040
..
.
Por lo cual, la solución general será
Bo
rr
ad
or
1
1
−
1 2
1 4
1 6
1
1 5
1 7
x + · · · + a1 x 2 − x +
x −
x + ···
y(x) = a0 x 2 1 − x + x −
2
24
720
6
120
5040
PN −1
Para considerar el segundo caso, EI (m + N ) = 0 ∧ k=0 ak [(m + N + k) bn−k + cn−k ] 6= 0 analicemos
la ecuación diferencial
x2 y 00 + x (2 − x) y 0 + 2 − x2 y = 0
−
una vez más, la expansión en serie de Frobenius de y (x) nos lleva a una ecuación indicadora del tipo
 


  b0 = −2 


⇐= f1 (x) = −2 + x






b1 = 1





m=2 
 

⇐= m (m − 1) − 2m + 2 = 0
⇐=
 c0 = 2 








m=1
 





c1 = 0
⇐= f2 (x) = x2 + 2








 




 

c2 = 1
288
7.9. REVISITANDO A BESSEL
los demás coeficientes b2 = b3 = · · · = bn = 0 y c3 = c4 = · · · = cn = 0. Dado que N = 1 se tiene que la
ecuación (7.12) para m = 1
a1 [(m + 1) m − 2 (m + 1) + 2] + a0 [m] = a1 [2 − 4 + 2] + a0 [2] = a1 [0] + a0 [1] = 0
(7.33)
y no conduce a nada por cuanto a0 = 0, mientras que, para m = 2 se obtiene
∞
X
in
a
por lo cual la relación de recurrencia para m = 2 nos queda
an EI (m + n) +
ak [(m + k) bn−k + cn−k ] = 0 ⇒
k=0
m
an [(2 + n) (2 + n − 1) − 2 (2 + n) + 2] + an−1 [1 + n] + an−2 [1] = 0
an n2 + n + an−1 (n + 1) = −an−2
n = 3 =⇒
..
.
(7.35)
(7.36)
(7.37)
1
a0
3
Pr
eli
los coeficientes serán
n = 2 =⇒
(7.34)
r
a1 [(m + 1) m − 2 (m + 1) + 2] + a0 [m] = a1 [3 · 2 − 2 · 3 + 2] + a0 [1] = a1 [1] + a0 [1] = 0
6a2 = −3a1 − a0 = 3a0 − a0
=⇒ a2 =
4
12a3 = −4a2 − a1 = − a0 + a0
3
1
=⇒ a3 = − a0
36
..
.
Por lo cual, la solución general será
1 3
1 2
y1 (x) = a0 x 1 − x + x − x + · · ·
3
36
2
or
y la segunda solución linealmente independiente será
y2 (x) = u (x) − B1 y1 (x) ln x
(7.38)
Bo
rr
ad
y queda como ejercicio demostrar la relación de recurrencia para los coeficientes Bn de la serie que describe
!
∞
X
i
u (x) = x
Bi x
(7.39)
7.9.
i=0
Revisitando a Bessel
La Ecuación de Bessel es
x2 y 00 + xy 0 + x2 − k 2 y = 0;
k∈<
(7.40)
obviamente x = 0 es una singularidad regular, por lo tanto el método de Frobenius nos permite afirmar que
si x = x0 corresponde a un polo regular de la ecuación
x2 y 00 + xP̃ (x) y 0 + Q̃ (x) y = 0;
289
7.9. REVISITANDO A BESSEL
la solución vendrá expresada de la forma
∞
X
r
y(x) = (x − x0 )
n
an (x − x0 )
n=0
P̃ (x0 ) =
∞
X
bn (x − x0 )
n
∧
Q̃(x0 ) =
n=0
∞
X
cn (x − x0 )
n=0
Para la Ecuación de Bessel
∧
Q̃(x) = x2 − k 2 ⇒ c0 = −k 2 ;
n
c2 = 1
m
P̃ (x) = 1 ⇒ b0 = 1
in
a
y donde P̃ (x) y Q̃ (x) son funciones analı́ticas en el entorno de x = x0 y por lo tanto
r
con r real y determinado a través de las raı́ces de la ecuación indicadora
r2 + P̃ (x0 ) − 1 r + Q̃(x0 ) = 0
los demás coeficientes b’s y c’s se anulan. La ecuación indicadora y sus raı́ces quedan como
Donde, para r = k proponemos
m2 = k 2
⇒
⇒
r1,2 = ±k
Pr
eli
m (m − 1) + m − k 2 = 0
y1 (x) = xk
∞
X
an xn
n=0
Al hacer las cuentas
2
x −k
2
y1 (x) = x
k
xy10 (x) = xk
n=2
∞
X
n=0
∞
X
or
x2 y100 (x) = xk
∞
X
n
an−2 x − x
k
∞
X
k 2 an xn
n=0
(k + p) an xn
(k + p) (k + p − 1) an xn
n=0
la ecuación de Bessel queda como
Bo
rr
ad
∞
∞
X
X
(k + n) (k + n − 1) + (k + n) − k 2 an xn +
an−2 xn = 0
n=0
n=2
∞
X
(2n + 1) a1 x +
[k (2n + k) ak + an−2 ] xn = 0
n=2
y por consiguiente obtenemos la relación de recurrencia
an = −
an−2
n (2k + n)
donde es claro que a1 = 0. Adicionalmente, si suponemos
a0 =
2k
1
Γ (k + 1)
290
Pr
eli
m
in
a
r
7.9. REVISITANDO A BESSEL
Figura 7.1: Funciones de Bessel, de orden k de primera especie
tendremos
Bo
rr
ad
or
a1 = a3 = a5 = · · · = 0
a0
a2 = −
2 (2k + 2)
a0
a4 =
2 · 4 (2k + 2) (2k + 4)
..
.
a0
n
a2n = (−1) 2n
2 n! (k + 1) (k + 2) · · · (k + n)
Por lo tanto, la primera de las soluciones será
Jk (x) =
∞
X
n
x 2n+k
(−1)
Γ (n + 1) Γ (n + k + 1) 2
n=0
la Función de Bessel, de orden k de primera especie.
Si k = 0 entonces
∞
n
X
(−1) x 2n
J0 (x) =
2
2
n=0 (n!)
Para el caso particular de k = m entero positivo la función de Bessel de primera especie toma la forma de
∞
n
x 2n+m
X
(−1)
Jm (x) =
n! (n + m)! 2
n=0
291
7.9. REVISITANDO A BESSEL
Para encontrar la segunda solución linealmente independiente de la ecuación de Bessel el método de
Frobenius propone tres casos dependiendo el valor de k

 r1 − r2 6= entero ⇒ k 6= entero
r1 = r2 = r ⇒ k = 0

r1 − r2 = entero ⇒ k = entero
r
Caso 1: r1 − r2 6= entero ⇒ k 6= entero.
La solución general será de la forma
J−k (x) =
∞
X
n
x 2n−k
(−1)
Γ (n + 1) Γ (n − k + 1) 2
n=0
−k
. Nótese que esta última expresión también es válida para k
∞
X
Pr
eli
Para x < 0 se debe reemplazar x−k por kxk
semientero, i.e. k = n + 12 .
Caso 2: r1 = r2 = r ⇒ k = 0.
La solución general será de la forma
x>0
m
donde
in
a
y(x) = C1 Jk (x) + C2 J−k (x)
K0 (x) =
ãn xn + J0 (x) ln x
n=0
y los coeficientes ãn se encuentran mediante el tradicional método de sustituirlos en la ecuación de Bessel
para k = 0
xy 00 + y 0 + xy = 0;
De donde se obtiene
K00 (x) =
n=0
∞
X
ãn xn+1 + xJ0 (x) ln x =
n=0
∞
X
0
∞
X
ãn−2 xn−1 + xJ0 (x) ln x
n=3
∞
X
nãn xn−1 + (J0 (x) ln x) =
nãn xn−1 + J00 (x) ln x +
n=1
n (n − 1) ãn xn−1 + xJ000 (x) ln x + 2J00 (x) −
Bo
rr
ad
xK000 (x) =
∞
X
or
xK0 (x) =
n=2
J0 (x)
x
J0 (x)
x
y por lo tanto


∞
X
2
n−1
n ãn + ãn−2 x
+ xJ000 + J00 + xJ0  ln x + 2J00 (x) = 0
ã1 + 4ã2 x +
|
{z
}
n=3
= 0
Acomodando y derivando la expresión para J0 tendremos
∞
∞
X
X
2
n−1
0
ã1 + 4ã2 x +
n ãn + ãn−2 x
= −2J0 (x) = 2
n=3
n=1
2n (−1)
22n−1
n+1
2
(n!)
x2n−1
292
7.9. REVISITANDO A BESSEL
Ahora multiplicando la expresión por x y separando las sumatorias en sus términos pares e impares, tendremos
∞ h
i
X
2
ã1 x +
(2n + 1) ã2n+1 + ã2n−1 x2n+1 = 0
n=1
∞ h
X
∞
i
X
2
n+1
(2n) ã2n + ã2n−2 x2n + 4ã2 x2 = x2 +
(−1)
n=2
2x
(n!)
2
n+1
(2n) ã2n + ã2n−2 = (−1)
2n
22n
2
(n!)
De esta forma los coeficientes quedan como:
..
.
(−1)
ã2n =
1
1
1
1+
=−
1
+
2
2
2
24 · (2!)
1
2
2 · 42
Pr
eli
ã4 = −
n>1
m
1
22
ã2 =
in
a
Por lo cual ã1 = ã3 = ã5 = · · · = 0 mientras que
4ã2 = 1;
2n
r
n=1
2n
22n
n+1
2
22n (n!)
1 1 1
1
1 + + + + ··· +
2 3 4
k
La expresión para la solución general de la ecuación de Bessel para k = 0 será
∞
n+1 X
(−1)
1 1 1
1 x 2n
K0 (x) =
1
+
+
+
+
·
·
·
+
+ J0 (x) ln x
2
2 3 4
k
2
n=0 (n!)
or
En Fı́sica, es costumbre expresar esta solución de una forma equivalente pero ligeramente diferente:
∞
n h x
i
1 x 2n 2
2 X (−1)
1 1
+
+
+
·
·
·
+
J
(x)
ln
+
γ
Y0 (x) = −
1
+
0
π n=0 (n!)2
2 3
k
2
π
2
Bo
rr
ad
donde, una vez más, γ = 0,577215664901 · · · es la constante de Euler-Mascheroni.
Caso 3: r1 − r2 = entero ⇒ k = entero.
La solución general será de la forma
Kk (x) =
∞
X
ãn xk+n + CJn (x) ln x
n=0
Procediendo de forma equivalente a la situación anterior tenemos que la solución general podrá expresarse
(luego de una laboriosa faena) como
Kk (x) = −
−
k−1
1 X (k − n − 1)! x 2n−k Hk x k
−
−
2 n=0
n!
2
2k! 2
∞
n
1 X (−1) [Hn + Hn+k ] x 2n+k
+ Jk (x) ln x
2 n=1
n! (k + n)!
2
293
7.9. REVISITANDO A BESSEL
Y finalmente la Función de Bessel de orden k de segunda especie o Función de Neumann
k−1
1 X (k − n − 1)! x 2n−k Hk x k
−
−
2
π n=0
2
πk! 2
(n!)
∞
n
h x
i
1 X (−1) [Hn + Hn+k ] x 2n+k 2
+ Jk (x) ln + γ
−
π n=1
n! (k + n)!
2
π
2
Hn = 1 +
1 1
1
+ + ··· +
2 3
n
in
a
En ambos casos
r
Yk (x) = −
Más aún
k−1
2
x
1 X (k − n − 1)! x 2n−k
Jk (x) ln −
2
π
2 π n=0
2
(n!)
∞
n
x 2n+k
1 X (−1)
−
[ψ(n + 1) + ψ(n + k + 1)]
π n=1 n! (k + n)! 2
Γ0 (n)
es la función Digamma con
Γ(n)
Pr
eli
donde ψ(n) =
m
Yk (x) =
ψ(n + 1) = −γ + 1 +
1 1
1
+ + ··· +
2 3
n
ψ(1) = −γ
También es costumbre definir la función de Bessel de segunda especie en terminos de las de primera especie
Nk (x) = Yk (x) =
Jk (x) cos kπ − J−k (x)
sen kπ
Nótese que para k = m entero, aparentemente no esta definida. Pero, aplicando la regla de L’Hospital
Bo
rr
ad
or
d
[Jk (x) cos kπ − J−k (x)]
dk
Nm (x) =
d
[sen kπ]
dk
k=m
d
d
−πJn (x) sen nπ + cos nπ Jk (x) −
J−k (x)
dk
dk
=
π cos nπ
1
=
π
k=m
d
n d
Jk (x) − (−1)
J−k (x)
dk
dk
k=m
De este modo, la soluciónes generales para la ecuación de Bessel, se expresan según el caso en
Zk (x) = C1 Jk (x) + C2 J−k (x);
Z̃k (x) = C1 Jk (x) + C2 Yk (x);
k 6= entero
k=0
∨
entero
La funciones Zk (x) y Z̃k (x) se denominan Funciones Cilı́ndricas de orden k
294
Pr
eli
m
in
a
r
7.9. REVISITANDO A BESSEL
rJ 0 ν
2.404825558
5.520078110
8.653727913
11.79153444
14.93091771
18.07106397
21.21163663
24.35247153
27.49347913
30.63460647
rJ 1 ν
3.831705970
7.015586670
10.17346814
13.32369194
16.47063005
19.61585851
22.76008438
25.90367209
29.04682854
32.18967991
Bo
rr
ad
ν
1
2
3
4
5
6
7
8
9
10
or
Figura 7.2: Funciones de Bessel de orden k de segunda especie o Funciones de Neumann
rJ 3 ν
5.135622302
8.417244140
11.61984117
14.79595178
17.95981949
21.11699705
24.27011231
27.42057355
30.56920450
33.71651951
rY 0 ν
0.8935769663
3.957678419
7.086051060
10.22234504
13.36109747
16.50092244
19.64130970
22.78202805
25.92295765
29.06403025
rY 1 ν
2.197141326
5.429681041
8.596005868
11.74915483
14.89744213
18.04340228
21.18806893
24.33194257
27.47529498
30.61828649
rY 2 ν
3.384241767
6.793807513
10.02347798
13.20998671
16.37896656
19.53903999
22.69395594
25.84561372
28.99508040
32.14300226
Cuadro 7.1: Los ceros de las funciones de Bessel Jn (x) y de la función de Newmann Yn (x).
295
7.9. REVISITANDO A BESSEL
7.9.1.
Otras Formas de la Ecuación de Bessel
Haciendo los cambios de variables correspondientes llegamos a
2 α 2 − k 2 ν 2
1 − 2α 0
u00 (x) +
u(x) = 0
u (x) + βν xν−1 +
x
x2
donde
r
u(x) = xα Zk (βxν )
o también
con
u(x) =
1
xZ ν+2
√
2 α 1+ ν
2
x
ν+2
Relaciones de Recurrencia:
m
7.9.2.
√
in
a
u00 (x) + αxν u(x) = 0
Las funciones de Bessel tienen las siguientes relaciones de recurrencia
xJk+1 (x) − 2k Jk (x) + xJk−1 (x) = 0
Pr
eli
Jk+1 (x) + 2Jk0 (x) − Jk−1 (x) = 0
Para demostrar estas relaciones partimos por demostrar la siguiente identidad
k
0
x Jk (x) = xk Jk−1 (x)
−k
0
x Jk (x) = −x−k Jk+1 (x)
De la expresión para Jk (x) se obtiene
∞
X
n
x 2n+2k
(−1)
Γ (n + 1) Γ (n + k + 1) 2
n=0
Bo
rr
ad
or
"
#0
=
∞
X
n
(−1) 2 (n + k) x2n+2k−1
22n+k Γ (n + 1) Γ (n + k + 1)
n=0
= xk
∞
X
n
(−1) x2n+(k−1)
22n+(k−1) Γ (n + 1) Γ (n + k)
n=0
= xk Jk−1 (x)
Unos cambios apropiados nos llevan a demostrar las segunda de las relaciones y al desarrollar las derivadas
0
xk Jk (x) = kxk−1 Jk (x) + xk Jk0 (x) = xk Jk−1 (x)
−k
0
x Jk (x) = −kx−k−1 Jk (x) + x−k Jk0 (x) = −x−k Jk+1 (x)
Por lo cual
kJk (x) + xJk0 (x) = xJk−1 (x)
−kJk (x) + xJk0 (x) = −xJk+1 (x)
Al sumar y restar miembro a miembro obtenemos las relaciones de recurrencia. Es obvia la importancia que
adquieren J1 (x) y J0 (x) para generar el resto de las funciones de Bessel.
296
7.9. REVISITANDO A BESSEL
7.9.3.
Funciones de Bessel y Funciones Elementales
Las funciones de Bessel de órden semientero, k = 21 se expresa como
r ∞
n
x 2n
(−1)
xX
J1/2 (x) =
2 n=0 Γ (n + 1) Γ n + 32
2
pero como
∞
xX
2 n=0 2n n!Γ
x
=√
1−
2xΓ 32
1
=√
1−
2xΓ 32
n
r
J1/2 (x) =
3
2
(−1)
x2n
1 · 3 · 5 · · · (2n + 1)
in
a
se encuentra que
Pr
eli
m
x2
x4
x6
+
−
+ ···
2·3 2·4·3·5 2·4·6·3·5·7
x3
x5
x7
1
sen x
+
−
+ ··· = √
3!
5!
7!
2xΓ 23
√
Finalmente, y otra vez invocando a las propiedades de la función Gamma: Γ 23 = 2π
r
2
sen x
J1/2 (x) =
πx
Equivalentemente se puede demostrar que
r
3
3 5
2n + 1
3 1 · 3 · 5 · · · (2n + 1)
Γ n+
=
· · ···
=Γ
2
2 2
2
2
2n
r
J−1/2 (x) =
2
cos x
πx
y ahora utilizando las relaciones de recurrencia tendremos que
Ası́ mismo
or
1
J3/2 (x) = −J−1/2 (x) + J1/2 (x)
x
r
i
2 h sen x
=
− cos x
πx
x
Bo
rr
ad
3
J5/2 (x) = −J1/2 (x) + J3/2 (x)
x
r
2 3 sen x 3 cos x
−
=
− sen x
πx
x2
x
En general
r
2 n+ 1 dn sen x Jn+ 21 (x) = (−1)
x 2
n = 1, 2, 3, · · ·
n
π
x
(xdx)
r
2 n+ 1 dn cos x Jn+ 21 (x) =
x 2
n = −1, −2, −3, · · ·
n
π
x
(xdx)
n
Las funciones de Bessel de órden semientero son las únicas funciones de Bessel que pueden ser expresadas
en términos de funciones elementales.
297
7.9. REVISITANDO A BESSEL
7.9.4.
Reflexión:
Las funciones de Bessel cumplen con
m
J−m (x) = (−1) Jm (x)
Para el caso k = m entero positivo la Función de Bessel de primera especie toma la forma de
n
r
x 2n+m
(−1)
n! (n + m)! 2
n=0
in
a
Jm (x) =
∞
X
Si k = −m es un entero negativo los primeros m términos de la serie anterior se anulan ya que Γ(n) → ∞
para n = −1, −2, −3, · · · y la serie se arma como
J−m (x) =
∞
X
∞
n
l+m
x 2n+m X (−1)
x 2l+m
(−1)
=
n! (n − m)! 2
(l + m)! l! 2
n=m
l=0
m
7.9.5.
m
J−m (x) = (−1) Jm (x)
Función Generatriz
Pr
eli
La función generatriz para las Funciones de Bessel es
B(x, t) = e 2 (t− t )
x
1
desarrollando las dos series para las exponenciales
xt
x
x
xn
e 2 = 1 + t + 2 t2 + · · · + n tn + · · ·
2
2 2!
2 n!
x
n
x
(−1) xn −n
x
t + ···
e 2t = 1 − t−1 + 2 t−2 + · · · +
2
2 2!
2n n!
Bo
rr
ad
or
Por lo tanto multiplicando ambas series
(∞
)( ∞
)
∞
X xn
X (−1)n xn
X
x
1
n
−n
B(x, t) = e 2 (t− t ) =
t
t
=
Jn (x) tn
n n!
n n!
2
2
n=−∞
n=0
n=0
7.9.6.
Representación Integral para las Funciones de Bessel
En la expresión anterior para la función generatriz se realiza el siguiente cambio de varible t = eiθ de este
modo
1
x
e 2 (t− t ) = eix sen θ = cos (x sen θ) + i sen (x sen θ)
y por lo tanto
cos (x sen θ) + i sen (x sen θ) =
∞
X
Jn (x) [cos (nθ) + i sen (nθ)]
n=−∞
298
7.9. REVISITANDO A BESSEL
m
igualando partes reales e imaginarias y recordando que J−m (x) = (−1) Jm (x), para anular los términos
impares en la serie de la parte real y los pares en la de la parte imaginaria, podemos escribir
cos (x sen θ) = J0 (x) + 2
∞
X
J2n (x) cos (2nθ)
n=1
sen (x sen θ) = 2
∞
X
J2n+1 (x) sen ([2n + 1] θ)
r
n=0
Pr
eli
m
in
a
Multiplicando miembro a miembro en la primera de ellas por cos (2kθ) (y por cos ([2k + 1] θ) ) y la segunda
por sen ([2k + 1] θ) (y por sen (2kθ)). Integrando (en 0 ≤ θ ≤ π), también miembro a miembro y término por
término en las series, se obtienen
Z
1 π
cos (x sen θ) cos (2nθ) dθ
J2n (x) =
π 0
Z π
1
0=
cos (x sen θ) cos ([2n + 1] θ) dθ
π 0
Z π
1
J2n+1 (x) =
sen (x sen θ) sen ([2n + 1] θ) dθ
π 0
Z
1 π
0=
sen (x sen θ) sen (2nθ) dθ
π 0
Sumando miembro a miembro primera con cuarta y segunda con tercera tendremos la expresión integral
para las funciones de Bessel
Z
1 π
Jn (x) =
cos (cos (nθ) − x sen θ) dθ
π 0
ya que todos sabemos que
cos (nθ − x sen θ) = cos (2nθ) cos (x sen θ) + sen (2nθ) sen (x sen θ)
Ortogonalidad de las Funciones de Bessel
Ortogonalidad:
or
7.9.7.
Bo
rr
ad
Haciendo el caso particular de α = 0 y ν = 1 en la primera de las expresiones equivalentes para la
ecuación de Bessel, tendremos
k2
1 0
2
00
u (x) + u (x) + β − 2 u(x) = 0
x
x
donde
u(x) = Jk (βx)
multiplicando por x la ecuacion diferencial puede ser reescrita como
k2
0
Jk (βx) = 0
[xJk0 (βx)] + β 2 x −
x
299
7.9. REVISITANDO A BESSEL
suponiendo k real y positivo, planteamos la ecuación para dos ı́ndices diferentes β1 y β2 por lo tanto quedan
como
k2
0
[xJk0 (β1 x)] + β12 x −
Jk (β1 x) = 0
x
k2
0
[xJk0 (β2 x)] + β22 x −
Jk (β2 x) = 0
x
in
a
r
Multiplicando apropiadamente por Jk (β1 x) y Jk (β2 x), Integrando y restando miembro a miembro tendremos
que
Z 1n
Z
o
1
0
0
Jk (β2 x) [xJk0 (β1 x)] − Jk (β1 x) [xJk0 (β2 x)] dx
xJk (β1 x)Jk (β2 x)dx =
β22 − β12
0
0
Z
=
1
0
[Jk (β2 x)xJk0 (β1 x) − Jk (β1 x)xJk0 (β2 x)] dx
0
x=1
m
= Jk (β2 x)xJk0 (β1 x) − Jk (β1 x)xJk0 (β2 x)|x=0
Pr
eli
para βi las raı́ces de los polinomios de Bessel, i.e. Jk (βi ) = 0 podemos deducir que las funciones de Bessel
son ortogonales
Z
1
βi2 − βj2
xJk (βi x)Jk (βj x)dx ∝ δij
0
Más aún partiendo de la ecuación de Bessel original se puede llegar a
2
1 0
β 2 − k2
2
2
[Jk (β)] +
[Jk (β)]
2
2β 2
Bo
rr
ad
or
kJk (βx)k =
300
r
8
in
a
Capı́tulo
Bo
rr
ad
or
Pr
eli
m
Funciones Especiales
301
8.1. ALGUNAS FUNCIONES ESPECIALES
8.1.
8.1.1.
Algunas funciones Especiales
Función Gamma e Integrales de Probabilidad
r
Es la generalización del factorial n! el cual sólo está definido para enteros, mientras que Γ (z) está definida
para toda variable compleja z con parte real positiva.
Γ (z) se define indistintamente como:
Z ∞
Y
Γ (z) =
e−t tz−1 dt ≡ (z − 1)! ≡
(z − 1)
Re z > 0
0
in
a
1 · 2 · 3 · ··· · n
nz
z (z + 1) (z + 2) · · · (z + n)
z
∞ Y
1
z −
γz
n
e
= ze
1+
Γ (z)
n
n=1
Γ (z) = lı́m
n→∞
γ = 0,577215664901 · · ·
m
donde n es un entero positivo y
∞
Z
2
Pr
eli
se conoce como la constante de Euler-Mascheroni:
También es frecuente encontrar Γ (z) con algunas variantes cosméticas:
e−t t2z−1 dt =
Γ (z) = 2
0
Z
0
1
z−1
Z ∞
1
dt = k z
e−kt tz−1 dt
ln
t
0
Para probar la equivalencia de las dos primeras definiciones inventamos las siguiente función de dos variables
n
Z n
t
F (z, n) =
tz−1 dt
Re z > 0
1−
n
0
y como es conocido que
n
t
≡ e−t
1−
n→∞
n
Entonces
or
lı́m
Z
lı́m F (z, n) = F (z, ∞) =
n→∞
∞
e−t tz−1 dt ≡ Γ (z)
0
Bo
rr
ad
Con lo cual queda demostrada la primera de propuestas de Euler.
Para construir la segunda partimos de la misma función F (z, n) y un cambio estratégico de variable
u = nt .
Z
n
F (z, n) = nz
n
(1 − u) uz−1 du
Re z > 0
0
Un par de integraciones por partes nos llevan a comprobar
(
)
Z 1
z 1
u
n
n
n−1
(1 − u)
F (z, n) = nz (1 − u)
+
uz du
z 0 z 0
(
)
Z
1
n(n − 1) 1
n−2 z+1 n(n − 1)
n−2 z+1
z
=n
(1 − u)
u
+
(1 − u)
u du
z(z + 1) 0 z(z + 1) 0
302
8.1. ALGUNAS FUNCIONES ESPECIALES
que el primer término se anula siempre. Repitiendo el proceso n veces
Z 1
n(n − 1)(n − 2)(n − 3) · · · 3 · 2 · 1
z
F (z, n) = n
uz+n−1 du
z(z + 1)(z + 2)(z + 3) · · · (z + n − 1)
0
n(n − 1)(n − 2)(n − 3) · · · 3 · 2 · 1
z
=n
z(z + 1)(z + 2)(z + 3) · · · (z + n)
lı́m F (z, n) = F (z, ∞) = lı́m nz
n→∞
n(n − 1)(n − 2)(n − 3) · · · 3 · 2 · 1
z(z + 1)(z + 2)(z + 3) · · · (z + n)
≡ Γ (z)
in
a
n→∞
r
Una vez más, haciendo
m
Se completa la equivalencia para la primera y segunda definiciones de Euler.
En particular, de la primera de las definiciones se tiene por integración directa
Z ∞
Γ (1) =
e−t dt = 1
0
Z ∞
Z ∞
√
2
1
=
e−t t−1/2 dt =
Γ
e−u du = π
2
0
0
mientras que de la segunda, si z = n = 1, 2, 3, · · · , se obtiene
Pr
eli
Γ (n + 1) = n!
1
1 · 3 · 5 · · · · (2n − 1) √
π
Γ n+
=
2
2n
Finalmente la tercera de las definiciones de la función Γ (z) viene expresada en término de un producto
infinito (Weierstrass). Este puede demostrarse partiendo de la segunda definición de Euler
1 · 2 · 3 · ··· · n
nz
z (z + 1) (z + 2) · · · (z + n)
n n
1 Y
m
1 Y
z −1 z
n
= lı́m
nz = lı́m
1+
n→∞ z
n→∞ z
m+z
m
m=1
m=1
Γ (z) = lı́m
n→∞
n Y
1
z −z ln n
= z lı́m
e
1+
n→∞
Γ (z)
m
m=1
or
Por lo tanto
Bo
rr
ad
Ahora bien, multiplicando y dividiendo por
n
Y
ez/m = ez(
Pn
1
m=1 m
)
m=1
nos queda
n
Pn
1
= z lı́m ez(( m=1
n→∞
Γ (z)
1
m
)−ln n)
o
(
lı́m
n→∞
n Y
m=1
z −z/m
e
1+
m
)
Donde, la serie exponente del primero de los términos converge a un valor constante y cual ha quedado
bautizado como la constante de Euler-Mascheroni
( n
!
)
X 1
1 1 1
1
γ = lı́m 1 + + + + · · · − ln n = lı́m
− ln n
n→∞
n→∞
2 3 4
n
m
m=1
γ = 0,5772156649015328606065112 · · ·
303
8.1. ALGUNAS FUNCIONES ESPECIALES
Con lo cual queda demostrada la tercera de las propuestas para expresar la Función Gamma
z
∞ Y
1
z −
e n
= zeγz
1+
Γ (z)
n
n=1
in
a
Γ (z + 1) = z Γ (z)
Z ∞ z−1
x dx
π
Γ (z) Γ (1 − z) =
=
(1
+
x)
sen
πz
0
√
1
22z−1 Γ (z) Γ z +
= πΓ (2z)
2
r
Es fácil comprobar las siguientes propiedades
0
0
m
La primera de ellas (la relación de recurrencia) es trivial y se obtiene integrando por partes la definición
integral de Euler.
Z ∞
Z ∞
−t z
−t z−1 ∞
Γ (z + 1) =
e t dt = z e t
+z
e−t tz−1 dt = zΓ (z)
0
Pr
eli
El primer sumando de la integración por partes se anula siempre. Esta propiedad es válida ∀z con z 6=
0, −1, −2, · · · .
La segunda de las propiedades (fórmula de reflexión) se comprueba también partiendo de definición
integral de Euler con el siguiente cambio de variable t = u2 .
Z ∞
Z ∞
2
−u2 2z−1
Γ (z) Γ (1 − z) = 2
e
u
du 2
e−v v 1−2z dv
0
Z0Z ∞
2z−1
−(u2 +v 2 ) u
dudv
=4
e
v
0
or
si ahora hacemos u = ρ cos ϕ y v = ρ sen ϕ, la integral anterior queda como
Z ∞
Z π/2
2
Γ (z) Γ (1 − z) = 4
ρe−ρ dρ
cot2z−1 ϕdϕ
0
=4·
Bo
rr
ad
Finalmente, si
1
2
0
π/2
Z
cot2z−1 ϕdϕ
0
√
ϕ = arccot x;
−dx
dϕ = √
2 x (1 + x)
nos queda
Z
∞
Γ (z) Γ (1 − z) =
0
π
xz−1 dx
=
(1 + x)
sen πz
Es inmediato volver a comprobar
Γ
√
1
= π
2
Del mismo modo, si utilizamos además la relación de recurrencia encontramos
Γ (z) Γ (−z) =
π
−z sen πz
304
8.1. ALGUNAS FUNCIONES ESPECIALES
La fórmula de duplicación y puede comprobarse partiendo de la definición del lı́mite de Euler, ası́
√
22z−1 Γ (z) Γ z + 21
= π
Γ (2z)
1 · 2 · 3 · ··· · n
1 · 2 · 3 · · · · · 2n
2z
n2z = lı́m
(2n)
n→∞ 2z (2z + 1) · · · (2z + n)
n→∞ 2z (2z + 1) · · · (2z + 2n)
por lo cual se tiene la siguiente expresión dentro del argumento del lı́mite
1 · 2 · 3 · ··· · n
1 · 2 · 3 · ··· · n
z
n
z (z + 1) (z + 2) · · · (z + n)
z + 21 z + 32 · · · z +
1 · 2 · 3 · · · · · 2n
2z
(2n)
2z (2z + 1) (2z + 2) · · · (2z + 2n)
!
1
2
+n
n
z+ 12
m
22z−1
in
a
Γ (2z) = lı́m
la cual se reacomoda como
2
r
Hay que hacer notar que en el numerador sustituimos directamente las expresiones para del lı́mite de Euler
y en la del denominador, adicionalmente sustituimos n por 2n
1
Pr
eli
n2z+ 2
22z−1 (n!) 2z (2z + 1) (2z + 2) · · · (2z + 2n)
·
lı́m
2z
3
1
1
n→∞ (2n)! z z +
2 (z + 1) z + 2 (z + 2) · · · z + 2 + n (z + n) (2n)
y
1
2
z z + 21 (z + 1) z + 32 (z + 2) · · · z + n2 2n−1
nz+ 2
22z−1 (n!)
lı́m
·
·
n→∞ z z + 1 (z + 1) z + 3 (z + 2) · · · z + 1 + n (z + n)
(2n)!
22z n2z
2
2
2
Entonces
22z−1 Γ (z) Γ z +
Γ (2z)
1
2
= lı́m
n→∞
2√
2n−2 (n!) n
(2n)!
or
por lo cual se deduce que el valor de lado izquierdo de la ecuación es independiente del valor de z por lo
tanto es el mismo valor para cualquier z y lo evaluamos para z = 12
√
22z−1 Γ (z) Γ z + 21
1
=Γ
= π
Γ (2z)
2
Bo
rr
ad
con lo cual queda comprobada la fórmula de duplicación.
Otras propiedades que van quedar como curiosidad y sin demostración son:
Γ (nz) = (2π)
(1−n)/2
1
nnz− 2
n−1
Y
k=0
z+
k
n
z
z!
Γ (z + 1)
=
=
w
w!(z − w)!
Γ (w + 1) Γ (z − w + 1)
A partir de Γ (z) se definen otras funciones especiales, las cuales se expresan conjuntamente con sus propiedades como
305
8.1. ALGUNAS FUNCIONES ESPECIALES
8.1.2.
La Funciones Digamma y Poligamma
1 · 2 · 3 · ··· · n
nz
Γ (z + 1) = z! = lı́m
n→∞ (z + 1) (z + 2) · · · (z + n)
1 · 2 · 3 · ··· · n
z
ln (z!) = ln lı́m
n
n→∞ (z + 1) (z + 2) · · · (z + n)
in
a
= lı́m (ln (n!) + z ln n − ln (z + 1) − ln (z + 2) − · · · − ln (z + n))
r
,
Para evitar tratar con derivadas de los factoriales es costumbre trabajar con sus derivadas logarı́tmicas.
A partir de la segunda definición
n→∞
ahora derivando,
y finalmente acomodando, para llegar a la definición más conocida
∞ X
n=1
También se le conoce como función Psi
ψ(z) =
1
1
−
(z + n) n
Pr
eli
F(z) = −γ −
m
d
1
1
1
ln (z!) ≡ F(z) = lı́m ln n −
−
− ··· −
n→∞
dz
(z + 1) (z + 2)
(z + n)
Γ0 (z)
d
d
=
ln (Γ (z)) ≡ F(z − 1) =
ln ((z − 1)!)
Γ (z)
dz
dz
con las siguientes propiedades
1
+ ψ(z)
z
ψ(z − 1) − ψ(z) = π cot πz
1
+ 2 ln 2 = 2ψ(2z)
ψ(z) + ψ z +
2
or
ψ(z + 1) =
Bo
rr
ad
De donde se pueden deducir
ψ(1) = Γ0 (1) = γ
La función ψ(z) puede ser expresada en términos de integrales definidas, para ello notamos que
Z ∞
Γ0 (z) =
e−t tz−1 ln t dt
0
y sustituyendo la identidad de Frullani
Z
ln t =
0
∞
e−x − e−xt
dx
x
306
8.1. ALGUNAS FUNCIONES ESPECIALES
tendremos
Z ∞ −x
e − e−xt
e−t tz−1
dx dt
x
Z ∞ 0
Z0 ∞
dx
e−x − e−xt e−t tz−1 dt
=
x 0
Z
Z
Z0 ∞
Z ∞
dx −x ∞ −t z−1
dx ∞ −t(x+1) z−1
e
t dt
e
e t dt −
=
x
x 0
0
0
0
Z ∞
i
dx h −x
−z
= Γ (z)
e − (x + 1)
x
0
R∞
0
e−kt tz−1 dt y por lo tanto
∞
Z
ψ(z) =
0
i
dx h −x
−z
e − (x + 1)
x
Pr
eli
También daremos (sin demostración) otras expresiones
Z ∞ −t
e
e−tz
ψ(z) =
−
dt
t
1 − e−t
0
Z 1
1 − xz−1
dx
ψ(z) = −γ +
1−x
0
r
∞
m
ya que Γ (z) = k z
Z
in
a
Γ0 (z) =
La Función Poligamma se obtiene derivando en forma repetida la Función Digamma
ψ (m) (z + 1) = F(m) (z) =
∞
X
dm
1
m+1
F(z)
=
(−1)
m!
m+1
m
dz
n=1 (z + n)
m = 1, 2, 3 · · ·
y cuya serie puede ser expresada en términos de la función Zeta de Riemman
como
or
ζ(m) ≡
∞
X
1
nm
n=1
F(m) (0) = −1)m+1 m!ζ(m + 1)
Bo
rr
ad
de esta forma es posible desarrollar en serie de Maclaurin
ln(n!) = −γ +
8.1.3.
n
z3
z2
n z
ζ(2) − ζ(3) + · · · + (−1)
ζ(n) + · · ·
2
3
n
La Aproximación de Stirling
El comportamiento asintótico de las funciones especiales será tratado en una clase aparte. Pero la importancia de la Aproximación de Stirling obliga a que se trate en este punto. Supongamos que consideramos el
caso z ≡ x ∈ <. Por lo cual estamos interesados en el caso x 1. Partimos de
Z
Z
1
1 ∞ −t x
1 ∞ −t+x ln t
Γ (x) = Γ (x + 1) =
e t dt =
e
dt
x
x 0
x 0
307
8.1. ALGUNAS FUNCIONES ESPECIALES
haciendo t = xu tenemos que
∞
Z
Γ (x) = xx
e−x(u−ln u) du
0
Ahora bien, el integrando tendrá su máximo en u = 1 donde la exponencial tiene su mı́nimo y es entorno a
ese punto que desarrollará en series de Taylor
Γ (x) = x
x
Z
∞
−x(u−ln u)
e
du ≈ x
x
∞
Z
du e−x(1+ 2 (u−1)
1
2
− 13 (u−1)3 +··· )
0
0
√
r
por lo cual
1
1
1
2
3
4
(u − 1) − (u − 1) + (u − 1) + · · ·
2
3
4
in
a
u − ln u = 1 +
du
x (u − 1) nos lleva
Z
xx e−x ∞
1 4
1 3
1 5
− 12 v 2
√ v −
Γ (x) ≈ √
dve
exp
v +
3 v − ···
4x
x −√x
3 x
5x 2
m
Otro cambio de variable v =
Para valores x 1 se expande, en series de Taylor los exponenciales que contengan términos
√1
x
Pr
eli
Z
xx e−x ∞
1 3
1 4
1 5
− 12 v 2
√ v −
Γ (x) ≈ √
dve
1+
v +
+
3 v − ···
4x
x −∞
3 x
5x 2
2
1 3
1 5
1
1 4
√
v +
+
v −
+
3 v − ···
2! 3 x
4x
5x 2
)
3
1
1 3
1 4
1 5
√ v −
+
v +
+ ···
3 v − ···
3! 3 x
4x
5x 2
Finalmente, utilizando que
 √
 √2π
1 2
dve− 2 v v n =
2π · 1 · 3 · 5 · · · · (n − 1)

−∞
0
∞
or
Z
n=0
n = 2k
n = 2k − 1
Bo
rr
ad
e integrando término a término, tendremos que
r
2π x −x
1
1
Γ (x) ≈
x e
1+
+
+
·
·
·
x
12x 288 x2
8.1.4.
La función Beta
Z
B(x, y) =
1
y−1
tx−1 (1 − t)
dt
Re x > 0 ∧ Re y > 0
0
B(x, y) =
Γ (x) Γ (y)
Γ (x + y)
308
8.1. ALGUNAS FUNCIONES ESPECIALES
La Función Integral de Probabilidad
La función Integral de Probabilidad para una variable compleja arbitraria z como
Z z
2
2
Φ(z) = √
e−t dt
π 0
z
√
π
Φ(z)
2
0
√
Z z
2
π
erf c(z) =
e−t dt =
[1 − Φ(z)]
2
z
erf(z) =
−t2
e
dt =
Z
α
e−t tz−1 dt
Pr
eli
γ (z, α) =
m
Función Gamma Incompleta γ (z, α) y
Función Gamma Complementaria Γ (z, α)
in
a
Z
r
Obviamente Φ(0) = 0 y Φ(∞) = 1. A partir de esta función se define la Función Error y su complemento
Z0 ∞
Γ (z, α) =
e−t tz−1 dt
α
las cuales claramente cumplen con
γ (z, α) + Γ (z, α) = Γ (z)
y resumen
γ (z + 1, α) = zγ (z, α) − αz e−α
Bo
rr
ad
or
Γ (z + 1, α) = zΓ (z, α) + αz e−α
309
r
9
Bo
rr
ad
or
Pr
eli
m
El problema de Sturm-Liuoville
in
a
Capı́tulo
310
9.1. EL PROBLEMA DE STURM-LIUOVILLE
9.1.
9.1.1.
El problema de Sturm-Liuoville
Cálculo Operacional
Toda ecuación diferencial puede ser descrita de la siguiente forma
d
F (x) = f (x) ⇒ DF (x) = f (x)
dx
(9.1)
(9.2)
in
a
D (Axn + Bxm ) = AD (xn ) + BD (xm ) = nAxn−1 + mBxm−1
r
donde D (•) es un operador diferencial lineal, tal y como los estudiamos en su momento. De esta forma
y consecuentemente
(D − r1 ) (D − r2 ) |yi = 0
con r1 y r1
r1 = r2 = r
r1 6= r2
r1 = r2∗
raices de a r2 + b r + c = 0 ,
Pr
eli
con soluciones, como era de esperarse de la forma
m
y en muchos aspectos ese operador diferencial D (•) puede ser tratado como un número más.
De esta forma una ecuación diferencial homogénea puede ser descrita en forma de operadores cómo
a y 00 + b y 0 + c y = 0 ⇒ O |yi = 0 ⇔
a D2 + b D + c |yi = 0
(9.3)
⇒
⇒
⇒
reales
reales
complejas r1 = α + i β
y(x) = (A + Bx) er x
y(x) = A er1 x + B er2 x
y(x) = eα x (A cos(β x) + B sen(β x))
(9.4)
(9.5)
Esta notación también se presta para algunas curiosidades. Para una ecuación diferencial genérica con
coeficientes constantes se tiene
y 00 − 3 y 0 + 2 y = x2 ⇒ D2 − 3D + 2 y = x2 ⇒ (D − 1) (D − 2) y = x2 .
(9.6)
más aún
(9.7)
1
−1
=
= −1 − D − D2 − D3 − D4 − · · ·
D−1
1−D
(9.8)
D3
1 D D2
−
− ···
=− − −
2
4
8
16
(9.9)
or
x2
x2
x2
⇒ y=
−
(D − 1) (D − 2)
(D − 2) (D − 1)
y=
Bo
rr
ad
por lo cual expandiendo
−1 1
1
=
D−2
2 1−
de donde
y=
D
2
1 D D2
D3
− − −
−
− ···
2
4
8
16
x2 − −1 − D − D2 − D3 − D4 − · · · x2
por lo tanto tendremos la solución particular de la ecuación y 00 − 3 y 0 + 2 y = x2
2
x2
x
x 1
3
7
y= − − −
− −x2 − 2x − 2 =
+ x+
2
2 4
2
2
4
(9.10)
(9.11)
311
9.1. EL PROBLEMA DE STURM-LIUOVILLE
Las operaciones que se usaron arriba están relacionadas muy estrechamente con las propiedades de la integral
Z ∞
e−st f (t)dt
(9.12)
0
r
En el mismo espı́ritu anterior podemos asociar una ecuación diferencial de segundo orden a un operador
diferencial
d2
d
P (x) 2 + Q(x)
(9.13)
+ R(x) u(x) = 0 ⇒ P (x)D2 + Q(x)D + R(x) |ui = 0 ⇔ L |ui = 0 .
dx
dx
{z
}
|
in
a
L
Donde las funciones P (x), Q(x) y R(x) son funciones reales, definidas en el intervalo [a, b] y que cumplen
con las siguientes exigencias
P (x) no contiene ceros en (a, b).
9.1.2.
Operadores diferenciales de segundo orden
m
P 00 (x), Q0 (x) y R(x) existen y son contı́nuas en [a, b], y
Pr
eli
Consideremos el espacio de Hilbert de funciones continuas en [a, b], en el cual representaremos a esas
funciones como |ui y los operadores lineales actúan en ese espacio de Hilbert de la forma acostumbrada
L |ui = |ũi. Entonces, a través de la definición del producto interno podemos construir
∗
∗
hv |ũi = hũ |vi ⇔ hv| L |ui = hu| L† |vi .
(9.14)
or
Sabemos que, los operadores hermı́ticos (o autoadjuntos: L = L† ) tendrá autovalores {λ1 , λ2 , λ3 , · · · , λn }
reales y los correspondientes autovectores {|w1 i , |w2 i , |w3 i , · · · , |wn i} serán ortogonales, wi |wj i ∝ δ ij .
El hecho que construyamos una ecuación de autovalores con L de la forma expresada en (9.13) implica
una ecuación de la forma
L |vi i = λi |vi i ⇔
P (x)D2 + Q(x)D + R(x) |vi i = λi |vi i .
(9.15)
Con lo cual estarı́amos resolviendo una familia de ecuaciones diferenciales homogéneas del tipo
dyi (x)
d2 yi (x)
+ Q(x)
+ (R(x) − λi ) yi (x) = 0 ,
dx2
dx
Bo
rr
ad
P (x)
(9.16)
parametrizadas por el parámetro λi . Más aún, con esta estrategia podremos integrar ecuaciones diferenciales
de la forma
dyi (x)
d2 yi (x)
P (x)
+ Q(x)
+ (R(x) − λi w(x)) yi (x) = 0 ,
(9.17)
dx2
dx
si consideramos productos internos generalizados con funciones peso w(x) de la forma
Z
hg |f i =
b
dx w(x) g ∗ (x)f (x) .
(9.18)
a
Varios son los ejemplos de esta forma general de abordar las ecuaciones diferenciales como un problema
de autovalores. Entre ellos podemos mencionar:
312
9.1. EL PROBLEMA DE STURM-LIUOVILLE
El oscilador armónico:
d2
y(x) = −ω 2 y(x) .
dx2
| {z }
(9.19)
d2
d
(1 − x )
− 2x
Pn (x) = −n(n + 1) Pn (x) .
dx2
dx
{z
}
|
(9.20)
La ecuación de Legendre:
2
in
a
L
r
L
En general toda las familias de polinomios ortogonales, pn (x) con producto interno definido como
m
hp
Z
|pn i =
b
w(x)pm (x)pn (x)dx = hn δm n ,
con w(x) > 0 una función peso en a ≤ x ≤ b.
Esto es:
m
a
(9.21)
Pr
eli
d2
d
P (x) 2 + Q(x)
pn (x) = −αn pn (x) = 0
dx
dx
{z
}
|
L
Donde las expresiones para P (x), Q(x) y αn se encuentran especificadas en la Tabla (9.1)
P (x)
1 − x2
1 − x2
1 − x2
1
x
x
1 − x2
Q(x)
−2x
−x
−2x
−2x
1−x
1−x+α
β − α − x(2 + α + β)
or
Polinomio
Pn
Tn
Un
Hn
Ln
Lα
n
Pnαβ
αn
n(n + 1)
n2
n(n + 1)
2n
n
n
n(n + α + β + 1)
Bo
rr
ad
Cuadro 9.1: Funciones para determinar la ecuación diferencial para la cual son solución los polinomios
ortogonales. Con Pn Legendre, Tn Tchebychev 1E; Un Tchebychev 2E; Hn Hermite; Ln Laguerre; Lα
n (x)
Laguerre G; Pnαβ (x) Jacobi
La ecuación de Bessel
|
9.1.3.
x2
d2
d
2
Jk (x) = k 2 Jk (x);
+
x
+
x
dx2
dx
{z
}
k ∈ R.
(9.22)
L
Operadores diferenciales autoadjuntos
Es claro que las funciones P (x), Q(x) y R(x) tendrán algunas restricciones adicionales a las expresadas
arriba, de tal forma que se garantice que el operador L sea autoadjunto (hermı́tico).
313
9.1. EL PROBLEMA DE STURM-LIUOVILLE
Para encontrar esas restricciones a los coeficientes, partimos de la definición de producto interno en
un espacio de funciones. En general, vimos que, para un espacio de funciones continuas y continuamente
diferenciales en [a, b] una posible definición de producto interno es
b
Z
hg |f i =
b
Z
∗
dx g ∗ (x) Lf (x) ,
dx g (x)f (x) ⇒ hg| L |f i =
a
(9.23)
a
d2 f (x)
+
dx2
Z
b
df (x)
+
dx
Z
df (x)
d(P (x) g ∗ (x))
P (x) g (x)
− f (x)
dx
dx
dx g ∗ (x) P (x)
a
dx g ∗ (x) Q(x)
a
b
dx g ∗ (x) R(x)f (x) .
a
Integrando por partes la primera y segunda integral tendremos
a
b
d2 f (x)
dx g (x) P (x)
=
dx2
∗
∗
y
Z
b
dx g ∗ (x) Q(x)
a
df (x)
b
= f (x) Q(x) g ∗ (x)|a −
dx
Z
b
b
Z
a
dx f (x)
a
b
dx f (x)
+
a
d2 (P (x) g ∗ (x))
dx2
(9.25)
m
Z
(9.24)
in
a
b
Z
hg| L |f i =
r
es decir
d(Q(x) g ∗ (x))
dx
(9.26)
Pr
eli
Con lo cual podremos escribir:
Z b
d
dP (x)
dQ(x) d2 P (x)
d2
− Q(x)
+ R(x) −
+
g ∗ (x)
hg| L |f i =
dx f (x) P (x) 2 + 2
dx
dx
dx
dx
dx2
a
|
{z
}
L†
+
f (x) Q(x) −
dP (x)
dx
g ∗ (x) + P (x)
df (x) ∗
dg ∗ (x)
g (x) −
f (x)
dx
dx
b
(9.27)
a
donde hemos identificado por L† al operador adjunto de L. Ahora bien, si queremos que L sea autoadjunto
(o hermı́tico ) L = L† , entonces se debe cumplir que
dP (x)
− Q(x) = Q(x)
dx
or
2
y
−
dQ(x) d2 P (x)
+
=0
dx
dx2
(9.28)
y ambas se satisfacen idénticamente si
Bo
rr
ad
dP (x)
.
(9.29)
dx
Estas restricciones sobre P (x) y Q(x) son aparentes, porque siempre podremos construir un operador
diferencial autoadjunto a partir de cualquier operador diferencial de segundo orden. En efecto, como P (x)
únicamente puede tener raı́ces en los extremos del intervalo [a, b], siempre podremos definir

!
Z b
 P̄ (x) = h(x)P (x)
1
Q(x)
dx
exp
⇒
(9.30)
h(x) =

P (x)
P (x)
a
Q̄(x) = h(x)Q(x)
Q(x) =
con lo cual se cumple inmediatamente la condición (9.29), a saber
!
!
Z b
Z b
dP̄ (x)
d
Q(x)
Q(x)
Q(x)
=
exp
dx
=
exp
dx
= Q̄(x)
dx
dx
P (x)
P (x)
P (x)
a
a
(9.31)
314
9.1. EL PROBLEMA DE STURM-LIUOVILLE
y entonces h(x)L siempre será auto adjunto.
Entonces, al utilizar (9.29) en (9.13) es fácil convencerse que todo operador autoadjunto puede ser escrito
como
d(•)
d
P (x)
+ R(x) .
(9.32)
L↔
dx
dx
Adicionalmente, la ecuación general (9.27) quedarı́a escrita como:
|a
† ∗
dx f (x) L g (x) + P (x)
{z
}
df (x) ∗
dg ∗ (x)
g (x) −
f (x)
dx
dx
hf |L† |gi∗
b
.
a
(9.33)
r
hg| L |f i =
b
in
a
Z
Claramente, si L es autoadjunto y f (x) y g(x) son soluciones de una ecuación diferencial autoadjunta,
el segundo término se debe anular, y allı́ habrán de incidir las condiciones de borde que se impongan al
problema.
El Sistema Sturm-Liouville
m
9.1.4.
Pr
eli
Evidentemente, si consideramos que f (x) y g(x) son soluciones de una ecuación diferencial autoadjunta
(que puede ser representada por un operador lineal de segundo orden autoadjunto L), entonces la ecuación
de autovalores
d
d
L |ui i = −λi |ui i ⇔
P (x)
+ R(x) ui (x) = −λi w(x)ui (x)
(9.34)
dx
dx
donde, λi son los autovalores, ui (x) las autofunciones soluciones y w(x) > 0 es la función peso descrita en
(9.18). Claramente esta ecuación (9.34) debe ser complementada con las condiciones de frontera
P (x)u∗j (x)
dui (x)
dx
b
= 0 ∀ i, j
(9.35)
a
or
Las ecuaciones (9.34) y (9.35) constituyen Sistema Sturm-Liouville y también se le refiere como el problema
de Sturm-Liouville.
Se distinguen dos posibles situaciones con las condiciones de frontera:
Bo
rr
ad
1. Condiciones Regulares: Para este caso se especifican los valores de una combinación de las funciones
y las derivadas:
dui (x)
dui (x)
β1 ui (x) + γ1
= C1 y β2 ui (x) + γ2
= C2
dx
dx
en los extremos x = a y x = b. Estos valores son finitos en todo el intervalo de validez de las funciones.
Claramente de ésta pueden derivarse cuatro tipos de condiciones de frontera
a) Condiciones Regulares Puras: Para este caso se especifican los valores para la combinación
lineal completa, con β1 6= 0, β2 6= 0, γ1 6= 0 y γ2 6= 0
b) Condiciones de Dirichlet: Para este caso se especifican los valores de la función ui (x) en los
extremos, x = a y x = b. Esto es para γ1 = γ2 = 0
c) Condiciones de Neumann: Para este caso se especifican los valores de las derivadas
los extremos, x = a y x = b. Esto es para β1 = β2 = 0
dui (x)
dx
en
d ) Condiciones Mixtas: Cuando se especifican los valores de un tipo de condiciones de frontera
en un extremo y otro en el otro. Esto es para β1 = γ2 = 0 o γ1 = β2 = 0
315
9.1. EL PROBLEMA DE STURM-LIUOVILLE
2. Condiciones Periódicas: Para este caso el valor de la función y su derivada es el mismo en los
i (x)
i (x)
= dudx
. Otra vez, estos valores son finitos en todo el intervalo de
extremos ui (a) = ui (b) y dudx
a
b
validez de las funciones.
3. Condiciones Singulares: Para este caso encontramos valores singulares para las funciones y sus
derivadas.
Algunos ejemplos ilustrativos
r
9.1.5.
in
a
Vamos a analizar el caso muy simple de la ecuación diferencial tipo oscilador armónico libre. Esto es:
d2 y(x)
+ λy(x) = 0 ,
dx2
(9.36)
y veremos como cambia cuando se tienen en cuenta distintos tipos de condiciones de frontera.
dy(x)
dx
y(0) = 0 ∧
m
Condición Regular con
= 0.
x=π
Pr
eli
Este caso corresponde una condición de frontera regular con γ1 = β2 = 0 y, en principio, tendrá soluciones
distintas para λ > 0, λ = 0, y λ < 0
λ = 0 La solución será de la forma y(x) = C1 x+C2 como y(0) = 0 tendremos que C2 = 0 y como
dy(x)
dx
=
x=π
0 necesariamente C1 = 0. Con lo cual la única solución es y(x) = 0 y λ no será un autovalor de la
ecuación (9.36).
λ < 0 Podemos re-escribirla con λ = −µ2 . Entonces la solución general para (9.36) tendrá la forma y(x) =
C1 eµ x + C2 e−µ x . Las condiciones de frontera imponen
0 = C1 + C2
∧
0 = µ C1 eµ π + −C2 e−µ π
or
y otra vez, tendremos como única solución 0 = C1 = C2 y λ no será un autovalor de la ecuación (9.36).
λ > 0 Para éste caso usamos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) + C2 sen(µ x). Las condiciones de frontera imponen: y(0) = 0 ⇒ C1 = 0 y
= C2 µ cos(µπ) = 0 ⇒ µn = ±
Bo
rr
ad
dy(x)
dx
x=π
2n + 1
(2n + 1)2
⇒ λn =
2
4
para n = 0, 1, 2, 3, · · ·
Es decir, tendremos infinitos auto valores asociados con infinitas autofunciones yi (x) = sen
para n = 0, 1, 2, 3, · · · .
2n+1
2 x
En primer lugar, es importante señalar que, por ser L un operador hermı́tico sus autovalores son reales
y cumplen λ0 < λ1 < λ2 < λ3 · · · , es decir, son crecientes para ı́ndices crecientes de las autofunciones.
En segundo lugar que las infinitas autofunciones forman una base ortogonal y, por lo tanto la suma
de todas esas soluciones, también será solución de (9.36), con las condiciones de frontera: y(0) =
0 ∧
dy(x)
dx
= 0 y λ > 0 puede ser escrita como
x=π
y(x) =
∞
X
n=0
sen
2n + 1
x
2
(9.37)
316
9.1. EL PROBLEMA DE STURM-LIUOVILLE
y1 = µ
r
y3 = tanh(µ)
y2 =
in
a
µ ⇡ 0.9962
µ
m
Figura 9.1: Las posibles soluciones µ = − tanh(µ π), tanto para µ > 0 como para µ > 0 para el intervalo
[0, 2] se muestra claramente en la figura. Para µ > 0 no existe solución, pero para µ < 0, se encuentra
numéricamente que µ ≈ −0,9962
Pr
eli
Esta hecho nos permitirá resolver el problema inhomogéneo, L |ui = |f i, y será analizado en detalle
más adelante.
Condición Regular con
y(0) = 0 ∧ y(π) +
dy(x)
dx
= 0.
x=π
Para este caso tendremos una condición de frontera regular con γ1 = 0 y, en principio, tendrá soluciones
distintas para λ > 0, λ = 0, y λ < 0.
or
λ = 0 Se cumplen las mismas situaciones que el caso anterior y se demuestra que sólo es posible la solución
trivial y(x) = 0.
Bo
rr
ad
λ < 0 Una vez más hacemos λ = −µ2 y la solución general tendrá la forma y(x) = C1 eµ x + C2 e−µ x . Las
condiciones de frontera imponen:
C1 = −C2
∧
0 = C1 eµ π + C2 e−µ π + µ C1 eµ π − C2 e−µ π
con lo cual
µ=−
(eµ π − e−µ π )
≡ − tanh(µ π) .
(eµ π + e−µ π )
Esta ecuación trascendente se tiene que resolver numéricamente. Si µ > 0 no existirá solución para
µ = − tanh(µ π). Esto se ilustra claramente en la figura 9.1. No hay punto de corte entre las dos
funciones. Por lo tanto volvemos al caso de la solución trivial y(x) = 0. Si µ < 0 entonces, al resolver numéricamente, encontramos
que µ ≈ −0,9962, con lo cual λ ≈ −0,9924 y consecuentemente
y(x) ≈ C1 e−0,9962 x − e0,9962 x .
λ > 0 En éste caso una vez más hacemos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) + C2 sen(µ x).
Las condiciones de frontera imponen: y(0) = 0 ⇒ C1 = 0 y, para este caso
y(π) = 0 = C2 (sen(µ π) + µ cos(µ π)) ⇒ µ = − tan(µ π) .
317
9.1. EL PROBLEMA DE STURM-LIUOVILLE
y1 = µ
tan(µ ⇡)
y2 =
in
a
r
y3 =
µ
m
Figura 9.2: Las posibles soluciones de µ = − tan(µ π), tanto para µ > 0 como para µ > 0 para el intervalo
[0, 4] se muestra claramente en la figura. Tanto para µ > 0 como para µ < 0 existen infinitas soluciones.
Pr
eli
Otra vez, la ecuación trascendente µ = − tan(µ π), se tiene que resolver numéricamente. No obstante,
procedemos a analizar una posible representación gráfica que se muestra en la Figura 9.2. Claramente,
tanto para µ > 0 como para µ < 0 existen infinitas soluciones. Si resolvemos numéricamente para el
caso µ > 0 encontramos que:
µ1 ≈ 0,7876, µ2 ≈ 1,6716, µ3 ≈ 2,6162 · · · ⇒ λ1 ≈ 0,6204, λ2 ≈ 2,7943, λ3 ≈ 6,8446 · · ·
Del mimo modo, para µ < 0 se obtiene:
µ̃1 ≈ −1,2901, µ̃2 ≈ −2,3731, µ̃3 ≈ −3,4092 · · · ⇒ λ̃1 ≈ 1,6644, λ̃2 ≈ 5,6314, λ̃3 ≈ 11,6225 · · ·
Por lo tanto la solución, se podrá escribir,
∞
X
sen (µn x) − sen (|µ̃n |x)
or
y(x) =
(9.38)
n=0
Bo
rr
ad
Condiciones Periódicas
Paras las condiciones de frontera periódicas tendremos: y(0) = y(L) y
Una vez más se distinguen tres escenarios.
dy(x)
dx
=
x=0
dy(x)
dx
.
x=L
λ = 0. En este caso, la solución vuelve a ser y(x) = C1 x + C2 y las condiciones de frontera imponen
y(0) = y(L) ⇒ C2 = C1 L + C2 ⇒ C1 = 0
dy(x)
dx
=
x=0
dy(x)
dx
⇒ C2 = C2 .
x=L
Por lo tanto, para λ = 0, la solución (9.36) con condiciones de borde periódicas, será y(x) = C2
λ < 0. Una vez más, λ = −µ2 y la solución general tendrá la forma y(x) = C1 eµ x + C2 e−µ x . Las condiciones
de frontera imponen
y(0) = y(L) ⇒ C1 1 − eµ L = C2 e−µ L − 1
318
9.1. EL PROBLEMA DE STURM-LIUOVILLE
y
dy(x)
dx
=
x=0
dy(x)
dx
⇒ C1 1 − eµ L = −C2 e−µ L − 1 .
x=L
Por lo tanto, C1 = C2 = 0, y obtenemos la solución trivial y(x) = 0 para valores de λ < 0.
λ > 0. Al igual que en lo casos anteriores hacemos λ = µ2 y la solución será del tipo y(x) = C1 cos(µ x) +
C2 sen(µ x). Las condiciones de frontera imponen:
r
y(0) = y(L) ⇒ C1 (1 − cos(µ L)) = C2 sen(µ L)
y
m
in
a
dy(x)
dy(x)
=
⇒ C2 (1 − cos(µ L)) = −C1 sen(µ L)
dx x=0
dx x=L
con lo cual, al resolver para C2 se obtiene
2
2nπ
2nπ
2C1 (1 − cos(µ L)) = 0 ⇒ cos(µ L) = 1 ⇒ µn = ±
para n = 0, 1, 2, 3 · · ·
⇒ λn =
L
L
por lo cual, para cada autovalor λn tendremos asociadas dos autofunciones: y1 (x) = cos 2nπ
L x y
y2 (x) = sen( 2nπ
L x)
Pr
eli
Condiciones Singular
Aquı́ se presentan uno o más infinitos en el intervalo de validez x ∈ [a, b]. En esta sección analizaremos
únicamente el caso para el cual los puntos singulares estén en los extremos x = a y x = b. En este caso, la
ecuación (9.34), vale decir
dui (x)
d
P (x)
+ (R(x) + λi w(x)) ui (x) = 0 ,
(9.39)
L |ui i = −λi w(x) |ui i ⇔
dx
dx
or
tendremos P (a) = 0 o P (b) = 0 o ambos. La aparición de polos en el intervalo de validez de las ecuaciones
diferenciales fue lo que motivó el uso del método de Frobenious que se discutió en la sección 7.8. Particularmente, la ecuación de Bessel (7.40) en la sección 7.9 representa este caso. Tal y como discutimos en esas
secciones, si incluimos x = 0 en el intervalo de validez de la ecuación esta presenta un polo en uno de los
extremos del intervalo. Es decir, en la ecuación de Bessel escrita en forma autoadjunta:
d
dy(x)
n2
2 00
0
2 2
2
2
x y + xy + k x − n y = 0 ⇔
x
+ k x−
y(x) = 0 ,
(9.40)
dx
dx
x
2
Bo
rr
ad
identificamos: P (x) = x, R(x) = − nx , λ = k 2 y finalmente w(x) = x. Tal y como mostramos en (7.9) la
solución general de esta ecuación es:
y(x) = C1 Jn (k x) + C2 Yn (k x)
con y(a = 0) = 0 ⇒ C2 = 0
⇒ y(x) = C1 Jn (k x)
(9.41)
La condición de borde y(a = 0) = 0 impone que C2 = 0 porque Yn (k x → 0) → ∞.
Si adicionalmente, imponemos y(b) = 0, entonces se cumplirá que Jn (k a) = 0 por lo cual k a = rJ n ν ,
donde rJ n ν con ν = 1, 2, 3, · · · son las raı́ces de las función de Bessel Jn (x), tal y como se expresan en la
Tabla 7.1. Entonces, al igual que en los casos anteriores tendremos
r
rJ n ν
r2
J nν
kn =
⇒ λn = J 2n ν ⇒ yν (x) = C1 Jn
x
(9.42)
a
a
a
De esta forma se tendrán las funciones asociadas con los autovalores y los ceros de la función de Bessel
reescalarán el argumento de la función.
319
9.1. EL PROBLEMA DE STURM-LIUOVILLE
9.1.6.
Función de Green
Consideremos ahora la solución de caso inhomogéneo
d
dy(x)
L |yi = |f i ⇔
P (x)
+ R(x)y(x) = f (x) .
dx
dx
L |ui i = −λi |ui i ⇒ |yi =
∞
X
C i |ui i .
(9.44)
i=0
i=0
i=0
i=0
in
a
donde {|ui i} son las autofunciones de L. Por lo tanto podemos expresar (9.43) de la forma
!
∞
∞
∞
X
X
X
i
|f i = L |yi ⇒ |f i = L
C |ui i =
C i L |ui i = −
C i λi |ui i ,
r
Claramente
(9.43)
(9.45)
m
para finalmente proyectar (9.43) a lo largo de las mismas autofunciones |ui i y dado que las funciones {|ui i}
son ortogonales, obtenemos los coeficientes C i
Rb
∞
X
dx u∗j (x) w(x)f (x)
1 uj |f i
a
j
j
j
i
j
⇔
C
=
.
(9.46)
u |f i = −
C λi u |ui i ⇒ C =
R
b
λj huj |uj i
| {z }
dx u∗ (x) w(x)uj (x)
i=0
a
Por lo tanto,
|yi =
∞
X
1 ui |f i
λi hui |ui i
i=0
!
j
Pr
eli
δi j
∞
X
1
|ui i ⇔ y(x) =
λ
i=0 i
Rb
dξ u∗i (ξ) w(ξ)f (ξ)
a
Rb
dζ
a
u∗i (ζ) w(ζ)ui (ζ)
!
ui (x) .
Siempre se puede normalizar las autofunciones y con ello se simplifica la expresión anterior
!
Z b
Z b
∞
X
1
∗
i
∗
dξ ûi (ξ) w(ξ)f (ξ) ûi (x) ,
û |ûi i = 1 ⇔
dζ ûi (ζ) w(ζ)ûi (ζ) = 1 ⇒ y(x) =
λ
a
a
i=0 i
donde
or
|ui i
ui
|ûi i = p
⇔ ûi (x) = qR
.
i
b
hu |ui i
dζ u∗i (ζ) w(ζ)ui (ζ)
a
Bo
rr
ad
De este modo, tendremos
∞
X
1
y(x) =
λ
i=0 i
Z
b
dξ
û∗i (ξ) w(ξ)f (ξ)
a
!
Z
ûi (x) =
a
b
(9.47)
(9.48)
(9.49)
!
∞
X
1 ∗
û (ξ)ûi (x) w(ξ)f (ξ) .
dξ
λ i
i=0 i
{z
}
|
(9.50)
G(x,ξ)
Por lo tanto, la solución al problema de Sturm-Liouville se puede expresar en términos de la función de
Green como
Z b
∞
X
1 ∗
y(x) =
dξ G(ξ, x)w(ξ)f (ξ) , con: G(ξ, x) =
ûi (ξ)ûi (x) .
(9.51)
λ
a
i=0 i
Para ejemplificar esta técnica, consideremos la ecuación diferencial del oscilador armónico forzado
ẍ(t) + ω 2 x(t) = cos(ω̄ t) ,
con: x(0) = x(π) = 0
donde ẍ ≡
d2 x(t)
dt2
(9.52)
320
9.1. EL PROBLEMA DE STURM-LIUOVILLE
Resolvemos primero el problema de autovalores
p
p
ẍ(t) + ω 2 x(t) = λ x(t) ⇒ x(t) = A cos t ω 2 − λ + B sen t ω 2 − λ
(9.53)
Las condiciones de frontera imponen
p
p
ω2 − λ = n
y x(π) = 0 ⇒ sen π ω 2 − λ = 0 ⇒
con n = 0, ±1, ±2, · · ·
(9.54)
sen(n t).
2 1/2
π
in
a
Las autofunciones tendrán la forma de xn (t) = An sen(n t). Al normalizarlas tendremos xn (t) =
De este modo la función de Green y la solución quedan como:
!
Z
∞
∞
X
2 π
sen(n τ ) sen(n t)
2 X sen(n τ ) sen(n t)
⇒ x(t) =
dτ
cos(ω̄ τ ) ,
G(τ, t) =
π n=0
ω 2 − n2
π 0
ω 2 − n2
n=0
r
x(0) = 0 ⇒ A = 0
con lo cual
m
∞
Z
∞
2 X sen(n t) π
2 ω̄ (1 ± cos(ω̄π)) X sen(n t)
x(t) =
dτ sen(n τ ) cos(ω̄ τ ) ⇒ x(t) =
.
π n=0 ω 2 − n2 0
π
ω̄ 2 − ω 2 + λ
ω 2 − n2
n=0
(9.55)
(9.56)
Pr
eli
la cual constituye la solución más general para la ecuación del oscilador armónico forzado (9.52).
Inspirados en el nuestra motivación inicial, (9.43), podemos extenderla para considerar las siguientes
ecuaciones diferenciales
dy(x)
d
(L + λ) |yi = |f i ⇔
P (x)
+ (R(x) + λ w(x)) y(x) = f (x)
(9.57)
dx
dx
donde y(x) estará sometida a algunas de las condiciones de frontera expresadas en 9.1.4. Una vez más
resolvemos el problema de autovalores para encontrar las autofunciones en las cuales expandiremos todas las
funciones involucradas en el problema. Esto es, en general y siguiendo el esquema presentado en (9.44)
L |ûi i = −λi |ûi i ⇒ |f i =
∞
X
F i |ûi i ≡
∞
X
ûi |f i |ûi i
(9.58)
i=0
i=0
or
donde hemos supuesto que las autofunciones fueron normalizadas, ûj |ûi i = δij . Con lo cual
!
∞
∞
X
X
(L + λ) |yi = |f i ⇒ (L + λ)
C i |ûi i =
ûi |f i |ûi i ⇒ C i (λi + λ) − ûi |f i = 0
Bo
rr
ad
i=0
(9.59)
i=0
y se sigue que
∞
X
ûi |f i
C =
⇒ |yi =
(λi + λ)
i=0
i
ûi |f i
(λi + λ)
!
|ûi i ⇔ y(x) =
∞
X
i=0
Rb
a
dξ û∗i (ξ) w(ξ)f (ξ)
λi + λ
intercambiando sumatorias e integrales tendremos
Z b
∞
∞
X
X
û∗i (ξ)ûi (x)
û∗i (ξ)ûi (x)
y(x) =
dξ w(ξ)f (ξ)
⇒ G(ξ, x) =
,
λi + λ
λi + λ
a
i=0
i=0
!
ûi (x) ,
(9.60)
(9.61)
podemos identificar claramente la función de Green. Nótese que para el caso λi +λ = 0, es decir si λ en (9.57)
coincide con alguno de los autovalores del operador L, la función de Green se hace infinita y este esquema
presenta dificultades para su aplicación.
321
r
10
in
a
Capı́tulo
Bo
rr
ad
or
Pr
eli
m
Apéndice
322
Download