Uploaded by jose carlos galiano bernal

Estadisticas+y+Econometria+Financiera+Court

advertisement
Eduardo Co
ourrt Monteverd
de
Erick Williamss Rengiffo
ESTADÍSTICAS
Y ECONOMETRÍA
FINANCIERA
EDUARDO COURT & ERICK RENGIFO
Revisión Técnica
Lic. Enrique Fernando Zabos Pouler
Estadísticas y Econometría Financiera
Court, Eduardo & Rengifo, Erick
Court, Eduardo & Rengifo, Erick
Estadísticas y Econometría Financiera
1a ed. - Buenos Aires,
Cengage Learning Argentina, 2011.
612 p.; 21x27 cm.
Directora General
Susana de Luque
Coordinadora de Edición y Producción
Luciana Rabuffetti
Edición y Revisión Técnica
Lic. Enrique Fernando Zabos Pouler
ISBN 978-987-1486-48-9
1. Econometría. 2. Estadística. 3. Enseñanza Superior.
I. Rengifo Minaya, Erick Williams. II. Título.
CDD 330.015 195
Fecha de catalogación: 14/03/2011
Diseño
Sebastián Escandell
Verónica De Luca
División Latinoamérica
Cono Sur
Rojas 2128
(C1416CPX) Ciudad Autónoma de Buenos Aires, Argentina
www.cengage.com.ar
México
Corporativo Santa Fe 505, piso 12
Col. Cruz Manca, Santa Fe
05349, Cuajimalpa, México DF
www.cengage.com.mx
Copyright D.R. 2011 Cengage Learning Argentina,
una división de Cengage Learning Inc.
Cengage Learning™ es una marca registrada usada
bajo permiso. Todos los derechos reservados.
Pacto Andino: Colombia, Venezuela y Ecuador
Cra. 7 No. 74-21 Piso 8 Ed. Seguros Aurora
Bogotá D.C., Colombia
www.cengage.com.co
Rojas 2128.
(C1416CPX) Ciudad Autónoma
de Buenos Aires, Argentina.
Tel: 54 (11) 4582-0601
El Caribe
Metro Office Park 3 - Barrio Capellania
Suite 201, St. 1, Lot. 3 - Code 00968-1705
Guaynabo, Puerto Rico
www.cengage.com
Para mayor información, contáctenos en
www.cengage.com
o vía e-mail a:
clientes.conosur@cengage.com
Impreso en MetroColor S.A.
Tirada de 1000 ejemplares
Impreso en Perú
Queda prohibida la reproducción o transmisión total o parcial del texto de la presente
obra bajo cualesquiera de las formas, electrónica o mecánica, incluyendo fotocopiado,
almacenamiento en algún sistema de recuperación, digitalización, sin el permiso previo
y escrito del editor. Su infracción está penada por las leyes 11.723 y 25.446
PA RT E
1
Índice
ACERCA DE LOS AUTORES ...................................................................................................................................................................... I
PRÓLOGO .........................................................................................................................................................................................................III
Capítulo 1 Estadística descriptiva ............................................................................................................................................1
1.
INTRODUCCIÓN A LAS ESTADÍSTICAS ...........................................................................................................................................1
2.
COLECCIÓN DE DATOS (MUESTREO)................................................................................................................................................3
2.1.
El muestreo probabilístico ...........................................................................................................................................................3
2.1.1.
Muestreo aleatorio simple ................................................................................................................................................4
2.1.2. Muestreo sistemático ......................................................................................................................................................... 5
2.1.3. Muestreo estratificado simple ........................................................................................................................................5
2.2. El muestreo no probabilístico .................................................................................................................................................... 6
2.2.1. Muestreo basado en el juicio del analista ...................................................................................................................6
2.2.2. Muestreo basado en la facilidad de acceso a los elementos que forman la base del estudio .............. 6
2.2.3. Muestreo basado en un propósito específico ...........................................................................................................6
3.
DISTRIBUCIÓN DE FRECUENCIAS ...................................................................................................................................................... 7
4.
MEDIDAS DE TENDENCIA CENTRAL.............................................................................................................................................. 11
4.1.
El promedio o media..................................................................................................................................................................... 11
4.2. El promedio ponderado .............................................................................................................................................................. 12
4.3. La mediana ........................................................................................................................................................................................ 13
4.4. La moda .............................................................................................................................................................................................. 13
5.
MEDIDAS DE DISPERSIÓN ................................................................................................................................................................... 13
5.1.
El rango ................................................................................................................................................................................................14
5.2. Los cuartiles ......................................................................................................................................................................................14
5.3. La desviación media absoluta (DMA) ...................................................................................................................................16
5.4. La varianza y la desviación estándar ................................................................................................................................. 18
5.5. La variable estandarizada (z) .................................................................................................................................................. 20
5.6. Coeficiente de variación ............................................................................................................................................................ 21
6.
MEDIDAS DE ASOCIACIÓN ................................................................................................................................................................... 22
6.1.
El diagrama de series de tiempo ........................................................................................................................................... 22
6.2. El diagrama de dispersión ......................................................................................................................................................... 22
6.3. El coeficiente de correlación ................................................................................................................................................... 26
6.4. El coeficiente de variación........................................................................................................................................................ 28
7.
PROBLEMAS PROPUESTOS................................................................................................................................................................ 28
8.
ECUACIONES DEL CAPÍTULO ..............................................................................................................................................................31
Capítulo 2 Probabilidades ................................................................................................................................................................. 35
1.
INTRODUCCIÓN .......................................................................................................................................................................................... 35
2.
DEFINICIONES ............................................................................................................................................................................................. 35
2.1.
Experimento..................................................................................................................................................................................... 36
2.2. Variable aleatoria (VA)................................................................................................................................................................ 36
2.2.1. Variables aleatorias discretas ....................................................................................................................................... 36
2.2.2. Variables aleatorias continuas ..................................................................................................................................... 36
2.3. Espacio muestral............................................................................................................................................................................ 37
2.4. Evento ................................................................................................................................................................................................. 37
2.5. Probabilidad ...................................................................................................................................................................................... 37
3.
MÉTODOS PARA CALCULAR LAS PROBABILIDADES ......................................................................................................... 37
3.1.
Método clásico................................................................................................................................................................................. 38
3.2. Método basado en las frecuencias relativas .................................................................................................................. 38
3.3. Método subjetivo ........................................................................................................................................................................... 40
4.
CONTEO........................................................................................................................................................................................................... 40
4.1.
El principio de multiplicación ................................................................................................................................................... 40
4.2. Permutaciones .................................................................................................................................................................................41
4.3. Combinaciones .................................................................................................................................................................................41
5.
TEORÍA DE CONJUNTOS Y PROBABILIDADES ........................................................................................................................ 42
5.1.
Intersección ...................................................................................................................................................................................... 42
5.2. Unión .................................................................................................................................................................................................... 43
5.3. Conjuntos mutuamente excluyentes ................................................................................................................................. 43
5.4. Regla de la suma ............................................................................................................................................................................ 43
5.5. Tablas de contingencias ............................................................................................................................................................. 43
5.6. Diagrama del árbol ........................................................................................................................................................................ 45
5.7.
Probabilidad marginal.................................................................................................................................................................. 45
5.8. Probabilidad conjunta ................................................................................................................................................................. 46
5.9. Probabilidad condicional ............................................................................................................................................................ 46
5.10. La regla de la multiplicación......................................................................................................................................................47
5.11. Regla de la multiplicación de eventos independientes..............................................................................................47
6.
EL TEOREMA DE BAYES .........................................................................................................................................................................47
7.
INDEPENDENCIA ESTADÍSTICA........................................................................................................................................................ 49
7.1.
La independencia estadística y el tipo de muestreo ................................................................................................. 50
7.1.1.
Muestreo con reemplazo ................................................................................................................................................ 50
7.1.2. Muestreo sin reemplazo...................................................................................................................................................51
8.
DISTRIBUCIONES DE PROBABILIDAD .......................................................................................................................................... 52
8.1.
Distribuciones de probabilidad discretas.......................................................................................................................... 52
8.1.1. Esperanza matemática.................................................................................................................................................... 53
8.1.2. La varianza y la desviación estándar ......................................................................................................................... 54
8.1.3. La covarianza ...................................................................................................................................................................... 54
8.1.4. El coeficiente de correlación ......................................................................................................................................... 55
8.2. Distribuciones de probabilidad continuas ........................................................................................................................ 56
9.
PROBLEMAS PROPUESTOS................................................................................................................................................................ 57
10. ECUACIONES DEL CAPÍTULO ..............................................................................................................................................................61
Capítulo 3 Funciones de distribución de probabilidad discretas ................................................. 65
1.
INTRODUCCIÓN .......................................................................................................................................................................................... 65
2.
DISTRIBUCIÓN BINOMIAL.................................................................................................................................................................... 66
3.
DISTRIBUCIÓN HIPERGEOMÉTRICA .............................................................................................................................................. 72
4.
DISTRIBUCIÓN DE POISSON .............................................................................................................................................................. 75
5.
PROBLEMAS PROPUESTOS................................................................................................................................................................ 78
6.
ECUACIONES DEL CAPÍTULO ............................................................................................................................................................. 82
Capítulo 4 Distribuciones de probabilidad continuas .................................................................................. 85
1.
INTRODUCCIÓN .......................................................................................................................................................................................... 85
2.
LA DISTRIBUCIÓN UNIFORME .......................................................................................................................................................... 87
3.
LA DISTRIBUCIÓN EXPONENCIAL .................................................................................................................................................. 89
4.
LA DISTRIBUCIÓN NORMAL ................................................................................................................................................................91
5.
APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL USANDO LA NORMAL ..........................................................102
6.
LA DISTRIBUCIÓN CHI CUADRADA ..............................................................................................................................................107
7.
LA DISTRIBUCIÓN T DE STUDENT ...............................................................................................................................................111
8.
LA DISTRIBUCIÓN F DE FISHER .....................................................................................................................................................116
9.
LAS DISTRIBUCIONES DE PROBABILIDAD MUESTRAL ..................................................................................................118
9.1
Distribución muestral de la media y de la proporción .............................................................................................120
10. PROBLEMAS PROPUESTOS..............................................................................................................................................................126
11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................131
Capítulo 5 Estadística inferencial: Intervalos de confianza ..............................................................137
1.
INTRODUCCIÓN ........................................................................................................................................................................................137
2.
DEFINICIONES ...........................................................................................................................................................................................138
3.
ESTIMACIÓN PUNTUAL .......................................................................................................................................................................140
4.
INTERVALOS DE CONFIANZA..........................................................................................................................................................142
4.1.
Intervalos de confianza para la media poblacional (μ)
cuando la varianza poblacional (σ 2) es conocida .........................................................................................................143
4.2. Intervalos de confianza para la media poblacional (μ)
cuando la varianza poblacional no es conocida...........................................................................................................148
4.3. Intervalos de confianza para el caso de las proporciones ....................................................................................152
5.
AJUSTES CUANDO EL TAMAÑO DE LA POBLACIÓN ES PEQUEÑA ...........................................................................154
6.
DETERMINACIÓN DEL TAMAÑO DE LA MUESTRA .............................................................................................................155
7.
PROBLEMAS PROPUESTOS..............................................................................................................................................................160
8.
ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................163
Capítulo 6 Estadística inferencial: Pruebas de hipótesis para la media ...........................167
1.
INTRODUCCIÓN ........................................................................................................................................................................................167
2.
DEFINICIONES ...........................................................................................................................................................................................167
3.
PRUEBAS DE HIPÓTESIS .................................................................................................................................................................... 171
3.1.
Pruebas de hipótesis para la media poblacional (μ),
cuando la varianza poblacional (σ 2 ) es conocida ........................................................................................................ 171
3.2. Pruebas de hipótesis para la media poblacional (μ),
cuando la varianza poblacional no es conocida...........................................................................................................177
3.3. Pruebas de hipótesis para las proporciones.................................................................................................................183
4.
PROBLEMAS PROPUESTOS..............................................................................................................................................................187
5.
ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................191
Capítulo 7 Estadística inferencial: Aplicaciones de la chi cuadrada.......................................193
1.
INTRODUCCIÓN ........................................................................................................................................................................................193
2.
PRUEBAS DE HIPÓTESIS DE LA VARIANZA POBLACIONAL ........................................................................................193
3.
OTRAS APLICACIONES DE LA CHI CUADRADA ....................................................................................................................200
3.1.
Independencia estadística......................................................................................................................................................200
3.2. Pruebas de bondad de ajuste ...............................................................................................................................................203
4.
PROBLEMAS PROPUESTOS..............................................................................................................................................................214
5.
ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................219
Capítulo 8 Fundamentos de álgebra lineal .............................................................................................................223
1.
INTRODUCCIÓN ........................................................................................................................................................................................223
2.
GENERALIDADES.....................................................................................................................................................................................224
3.
TIPOS ESPECIALES DE MATRICES ................................................................................................................................................224
3.1.
Vectores ...........................................................................................................................................................................................224
3.2. Matriz cuadrada............................................................................................................................................................................224
3.3. Matriz nula.......................................................................................................................................................................................224
3.4. Matriz identidad ...........................................................................................................................................................................225
3.5. Matriz simétrica............................................................................................................................................................................225
4.
OPERACIONES MATRICIALES BÁSICAS ....................................................................................................................................225
4.1.
Matrices transpuestas ..............................................................................................................................................................225
4.2. Suma de matrices ........................................................................................................................................................................226
4.3. Multiplicación de matrices ......................................................................................................................................................226
4.4. Multiplicación escalar ................................................................................................................................................................228
4.5. Producto escalar ..........................................................................................................................................................................228
4.6. Traza de una matriz ...................................................................................................................................................................229
5.
EL DETERMINANTE DE UNA MATRIZ .........................................................................................................................................229
5.1.
Matriz singular ..............................................................................................................................................................................231
6.
MATRIZ INVERSA ....................................................................................................................................................................................232
7.
MATRICES IDEMPOTENTES ..............................................................................................................................................................234
8.
SISTEMA DE ECUACIONES .................................................................................................................................................................235
9.
DEPENDENCIA LINEAL ........................................................................................................................................................................236
10. DERIVADA DE MATRICES ..................................................................................................................................................................237
11. PROBLEMAS PROPUESTOS..............................................................................................................................................................239
12. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................241
Capítulo 9 El modelo de mínimos cuadrados ordinarios (MCO) univariado..................247
1.
INTRODUCCIÓN ........................................................................................................................................................................................247
2.
EL DIAGRAMA DE DISPERSIÓN Y EL MODELO DE MCO UNIVARIADO ...................................................................248
3.
SUPUESTOS DEL MODELO DE MCO .............................................................................................................................................255
4.
EL MODELO DE MCO UNIVARIADO ...............................................................................................................................................260
5.
EL COEFICIENTE DE DETERMINACIÓN (R2).............................................................................................................................267
6.
EL ERROR ESTÁNDAR ..........................................................................................................................................................................271
7.
EL ANÁLISIS DE VARIANZA (ANVA)............................................................................................................................................272
8.
PRUEBA DE HIPÓTESIS INDIVIDUALES DE LOS COEFICIENTES DE LA REGRESIÓN.....................................275
9.
APLICACIÓN USANDO EVIEWS ......................................................................................................................................................281
9.1.
Creación de hoja de trabajo e importación de datos ...............................................................................................281
9.2. Análisis preliminar de los datos ...........................................................................................................................................285
9.3. El modelo de MCO ........................................................................................................................................................................289
9.4. Testeo del modelo de equilibrio de activos financieros (Capital Asset Pricing Model - CAPM) ........290
10. PROBLEMAS PROPUESTOS..............................................................................................................................................................296
11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................299
Capítulo 10 El modelo de mínimos cuadrados ordinarios (MCO) multivariado .......305
1.
INTRODUCCIÓN ........................................................................................................................................................................................305
2.
EL MODELO DE MCO MULTIVARIADO .........................................................................................................................................306
3.
PRUEBAS DE BONDAD DE AJUSTE: EL COEFICIENTE DE DETERMINACIÓN (R2) ............................................311
4.
VARIANZA DE LOS ERRORES ESTIMADOS .............................................................................................................................312
5.
LA VARIANZA DE LOS ESTIMADORES .......................................................................................................................................313
6.
PROPIEDADES DE LOS COEFICIENTES ESTIMADOS POR EL MODELO DE MCO ...............................................314
6.1.
Insesgamiento ...............................................................................................................................................................................315
6.2. Eficiencia ..........................................................................................................................................................................................315
6.3. Consistencia ...................................................................................................................................................................................315
7.
APLICACIÓN: EL MODELO DE VALORACIÓN POR ARBITRAJE (MVA) .....................................................................316
8.
HIPÓTESIS LINEALES ...........................................................................................................................................................................321
9.
VARIABLES CUALITATIVAS ..............................................................................................................................................................325
9.1.
Variables dummy y los valores extremos (outliers) .................................................................................................329
10. NO LINEALIDAD DE LA RELACIÓN ENTRE “Y” Y “X”: REGRESIÓN POLINOMIAL ............................................332
11. PROBLEMAS PROPUESTOS..............................................................................................................................................................335
12. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................340
13. APÉNDICE ....................................................................................................................................................................................................341
13.1. Derivación algebraica de la varianza de los errores.................................................................................................341
13.2. Derivación de la varianza de los parámetros ...............................................................................................................343
13.3. Demostración formal de las propiedades estadísticas de los parámetros estimados ..........................344
Capítulo 11 Prueba de los supuestos del modelo de MCO...............................................................347
1.
INTRODUCCIÓN ........................................................................................................................................................................................347
2.
SUPUESTOS DEL MODELO DE MCO: UN REPASO ...............................................................................................................348
3.
SUPUESTO 1: LINEALIDAD................................................................................................................................................................349
4.
SUPUESTO 2: E( ) = 0..........................................................................................................................................................................352
5.
SUPUESTO 3A: HOMOCEDASTICIDAD, VAR( ) =
ε
5.1.
ε σ
2 .......................................................................................................352
El test de heterocedasticidad de White ..........................................................................................................................353
5.2. Consecuencias de la heterocedasticidad ........................................................................................................................357
6.
SUPUESTO 3B: NO AUTOCORRELACIÓN, COV( ΕI u ΕJ) = 0 ...........................................................................................360
6.1.
Posibles causas de la autocorrelación de los errores..............................................................................................361
6.2. El Test de Durbin-Watson .......................................................................................................................................................361
6.3. El test de Breusch-Godfrey ...................................................................................................................................................363
6.4. Consecuencias de la autocorrelación ...............................................................................................................................365
6.5. Errores estándar ajustados por autocorrelación y heterocedasticidad:
El método de Newey-West .....................................................................................................................................................366
6.6. Mala especificación de la dinámica del modelo ...........................................................................................................367
7.
SUPUESTO 4: Ε ~ N(0, Σ 2) ...............................................................................................................................................................368
7.1.
El test de normalidad de Jarque-Bera ..............................................................................................................................369
7.2.
Consecuencias de no normalidad de los errores ........................................................................................................370
7.3.
Posibles causas de no normalidad......................................................................................................................................370
8.
SUPUESTO 5: ORTOGONALIDAD ..................................................................................................................................................371
9.
OTROS PROBLEMAS ASOCIADOS AL MODELO DE MCO .................................................................................................371
9.1.
Multicolinealidad ..........................................................................................................................................................................371
9.1.1. Consecuencias de cuasi multicolinealidad .............................................................................................................372
9.1.2. Soluciones al problema de cuasi multicolinealidad.............................................................................................372
9.2. Forma funcional ...........................................................................................................................................................................373
9.2.1. Consecuencias de errores de especificación funcional ..................................................................................373
9.2.2. El test de Ramsey ...........................................................................................................................................................373
9.3. Omisión de variables importantes .....................................................................................................................................375
9.4. Variables redundantes .............................................................................................................................................................377
9.5. Estabilidad de los parámetros estimados ......................................................................................................................379
9.5.1. El test de estabilidad de Chow ...................................................................................................................................380
9.5.2. Test de errores de predicción......................................................................................................................................383
10. PROBLEMAS DEL CAPÍTULO............................................................................................................................................................387
11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................390
12. APÉNDICE ....................................................................................................................................................................................................394
12.1. El modelo de mínimos cuadrados generalizados........................................................................................................394
12.2. El método de Cochrane-Orcutt ............................................................................................................................................396
Capítulo 12 Modelos de series de tiempo ...............................................................................................................399
1.
INTRODUCCIÓN ........................................................................................................................................................................................399
2.
PROCESOS ESTACIONARIOS............................................................................................................................................................400
2.1.
Estacionariedad estricta .........................................................................................................................................................400
2.2. Estacionariedad débil ................................................................................................................................................................401
3.
LA AUTOCOVARIANZA, LA AUTOCORRELACIÓN Y EL CORRELOGRAMA............................................................402
3.1.
El proceso de ruido blanco......................................................................................................................................................403
3.2. Pruebas de autocorrelación ..................................................................................................................................................403
4.
MODELO DE MEDIAS MÓVILES MA(Q)........................................................................................................................................406
5.
MODELOS AUTORREGRESIVOS AR(p) .......................................................................................................................................411
6.
MODELOS ARMA(P,Q) ...........................................................................................................................................................................420
7.
CRITERIOS DE INFORMACIÓN .........................................................................................................................................................422
8.
PRONÓSTICOS ..........................................................................................................................................................................................423
5.1.
8.1.
Estacionariedad de procesos AR(p) ...................................................................................................................................413
Pronósticos con el modelo AR(p) ........................................................................................................................................424
8.2. Pronósticos con el modelo MA(q) .......................................................................................................................................425
8.3. Pronósticos con el modelo ARMA(p,q) .............................................................................................................................426
8.4. Evaluación de los pronósticos ..............................................................................................................................................427
8.4.1. La media de los errores al cuadrado (Mean Square Error - MSE) ..................................................................428
8.4.2. La media absoluta de los errores (Mean Absolute Error - MAE) ...................................................................428
8.4.3. La media absoluta de errores porcentuales (Mean Absolute Percentage Error - MAPE) ...................428
8.4.4. El coeficiente de desigualdad de Theil (Theil Inequality Coefficient) .........................................................429
8.4.5. Descomposición de los errores de predicción ......................................................................................................429
9.
LA METODOLOGÍA DE BOX-JENKINS...........................................................................................................................................430
10. PROBLEMAS DEL CAPÍTULO............................................................................................................................................................439
11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................442
Capítulo 13 Modelos para la volatilidad condicional:
Los modelos de heteroscedasticidad condicional autorregresiva .....449
1.
INTRODUCCIÓN ........................................................................................................................................................................................449
2.
MODELOS BÁSICOS DE VOLATILIDAD .......................................................................................................................................450
3.
MODELOS DE HETEROSCEDASTICIDAD CONDICIONAL AUTORREGRESIVA ......................................................452
3.1.
El modelo ARCH(q) ......................................................................................................................................................................453
3.2. Los momentos del modelo ARCH........................................................................................................................................454
3.3. Detección de la presencia de los efectos ARCH .........................................................................................................455
3.4. El modelo ARCH generalizado, GARCH(p,q)...................................................................................................................457
3.5. El modelo ARCH-M ......................................................................................................................................................................463
4.
LA CURVA DE IMPACTO DE LAS NOTICIAS .............................................................................................................................465
4.1.
El modelo TARCH .........................................................................................................................................................................466
4.2. El modelo EGARCH ......................................................................................................................................................................470
4.3. Modelo de componentes ARCH ...........................................................................................................................................476
5.
EL PRONÓSTICO DE LA VOLATILIDAD .......................................................................................................................................480
6.
PROBLEMAS DEL CAPÍTULO............................................................................................................................................................484
7.
ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................486
8.
APÉNDICE ....................................................................................................................................................................................................490
8.1.
La ecuación para la media condicional .............................................................................................................................491
8.2. La ecuación para la varianza condicional .......................................................................................................................491
8.3. El modelo ARCH ............................................................................................................................................................................491
8.4. El modelo GARCH(1,1) como un modelo ARMA(1,1) ...................................................................................................495
5HSUHVHQWDFLyQGHOPRGHOR*$5&+ ST FRPRXQPRGHOR$5&+ ’ ................................................................496
Capítulo 14 Modelos de Series de Tiempo Multivariados
y el Concepto de Cointegración ........................................................................................................499
1.
INTRODUCCIÓN ........................................................................................................................................................................................499
2.
ESTACIONARIEDAD ...............................................................................................................................................................................500
2.1.
Tipos de no estacionariedad .................................................................................................................................................501
2.1.1.
No estacionariedad en tendencia .............................................................................................................................501
2.1.2. No estacionariedad estocástica ................................................................................................................................504
2.1.3. Diferenciar una serie no estacionaria en tendencia ..........................................................................................505
2.2. Métodos visuales para la detección de no estacionariedad.................................................................................506
2.3. El método aumentado de Dickey-Fuller (ADF).............................................................................................................507
3.
EL MODELO AUTORREGRESIVO MÚLTIPLE (VAR) ..............................................................................................................511
3.1.
Generalidades................................................................................................................................................................................511
3.2. Determinación del orden de rezagos del modelo VAR............................................................................................515
3.3. Interpretación de los resultados obtenidos con el modelo VAR .......................................................................519
3.3.1. Significancia en bloques y la causalidad de Granger .........................................................................................519
3.3.2. Las funciones de impulso-respuesta ......................................................................................................................520
3.3.3. Descomposición de la varianza ..................................................................................................................................524
3.3.4. Pronósticos ........................................................................................................................................................................525
3.4. Una nota de precaución ...........................................................................................................................................................526
4.
COINTEGRACIÓN .....................................................................................................................................................................................526
4.1.
El modelo de corrección de errores...................................................................................................................................528
4.2. Determinación de la existencia de vectores de cointegración ..........................................................................529
4.2.1. El método de Engle-Granger .......................................................................................................................................529
4.2.2. El método de Johansen..................................................................................................................................................532
4.3. El modelo VEC: funciones de impulso-respuesta y pronósticos ........................................................................539
5.
UN EJEMPLO INTEGRAL ......................................................................................................................................................................544
6.
PROBLEMAS DEL CAPÍTULO............................................................................................................................................................555
7.
ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................556
$SpQGLFH‡Tablas Estadísticas ...............................................................................................................................................561
Distribución binomial: Tablas de frecuencias relativas ........................................................................................................561
Distribución binomial: Tablas de Frecuencias Acumulativas .............................................................................................567
Distribución Poisson: Tablas de Frecuencia Relativa ............................................................................................................572
Distribución Poisson: Tablas de Frecuencia Relativa ............................................................................................................577
Tabla T de Student...................................................................................................................................................................................582
Tabla T de Student...................................................................................................................................................................................583
Tabla T de Student...................................................................................................................................................................................584
Tabla de Distribución Normal Estándar ........................................................................................................................................585
Estadístico de Durbin-Watson (α=0.05) ......................................................................................................................................586
REFERENCIAS BIBLIOGRÁFICAS ...................................................................................................................................................587
C A PÍ T ULO
1
Estadística descriptiva
1.
INTRODUCCIÓN A LAS ESTADÍSTICAS
Este capítulo introduce las nociones básicas de la teoría estadística y sus aplicaciones en la economía
y los negocios. Las estadísticas pueden entenderse como el proceso de recopilar, analizar e interpretar
datos y reportar los resultados. Las estadísticas son usadas en una variedad de circunstancias que
van desde aplicaciones en el ámbito gubernamental, medicina, negocios y economía, entre otros.
Se muestran en este capítulo una serie de técnicas estadísticas que brindarán al lector las herramientas necesarias para la mejor toma de decisiones en ambientes de incertidumbre. El enfoque
del capítulo es teórico-práctico. Se presentarán los conceptos estadísticos y su aplicación a casos
concretos. Se desarrollarán ejemplos numéricos y, a su vez, se presentarán de manera detallada la
forma en que estos problemas pueden ser resueltos con el uso de Microsoft Excel.
El primer aspecto que todo analista realiza para cumplir con sus funciones es el entender el
problema a tratar. Entendido el problema se procede a enumerar una serie de hipótesis que serán
materia de estudio o proyecto. Una vez determinadas las hipótesis se procede a ver la disponibilidad
de datos (sean de fuentes primarias o secundarias) y, de acuerdo a esta disponibilidad, se ajustarán
las hipótesis a aquellas que puedan ser efectivamente testeadas y se determinarán los métodos de
adquisición de datos necesarios. Los métodos de adquisición de los datos pueden ir desde simple
recolección primaria de datos propios de la empresa (estados financieros, inventario permanente
valorizado, los registros de compras y ventas entre otros) hasta la determinación y ejecución de entrevistas, búsqueda de datos secundarios por internet, etc.
1
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
Acabado el proceso de adquisición de datos, implica para el analista, el comienzo del análisis
estadístico propiamente dicho. El primer aspecto a considerar en esta nueva etapa es entender los
datos, sus principales características y la determinación y localización de posibles errores que se
pudieran haber cometido. En las siguientes secciones se tratará las formas de presentar los datos
que ayuden a tener una primera visión de los mismos mediante el uso de tablas de frecuencias y de
diversos estadísticos de tendencia central, dispersión y asociación.
Antes de proceder, es necesario introducir dos conceptos que serán de gran ayuda para entender
los conceptos y técnicas que se exponen en este capítulo. En estadísticas se conoce a la totalidad de
datos relacionados a una determinada variable como población. El número de elementos en esta
población se denomina N. A cualquier subconjunto de esta población se le conoce como muestra
y su tamaño es representado por la letra n. Por ejemplo, si se está interesado en conocer cuál es el
promedio de los salarios de la población entre los 15 y 64 años de edad de los Estados Unidos, N sería
igual a 205.794.364.1 Si se desea tomar una muestra de la población de 10.000 habitantes, entonces
n sería igual a 10.000.
*UiÀFRQž Población y muestra
Población (N)
Muestra (n)
En términos prácticos, trabajar con la totalidad de los datos (N) es poco eficiente y realista
considerando el tiempo, los recursos económico-financieros y los recursos humanos que serían
necesarios para recolectar dicha información. Por lo tanto, y a no ser que el tamaño de la población
sea pequeño y de fácil acceso, se trabaja con muestras poblacionales de tamaño n. Ahora bien, la
selección de la muestra tiene que hacerse con bastante cuidado, tratando que esta sea una muestra
representativa de la población, de tal manera que los resultados obtenidos mediante el análisis
estadístico sean válidos, es decir, que sean no sesgados y eficientes. Se desarrollarán con más detalle
estos términos en las siguientes secciones.
El capítulo se encuentra organizado de la siguiente manera: la sección 2 describe los métodos
de recolección de datos más usados; la sección 3 muestra como generar las distribuciones de frecuencias a partir de datos recolectados; finalmente en las secciones 4, 5, y 6 se presentan las medidas de
1 CENTRAL INTELLIGENCE AGENCY, The World FactBook, valores aproximados a julio del 2009.
2
CAPÍTULO 1
Estadística descriptiva
tendencia central, dispersión y de asociación, respectivamente. La sección 7 presenta una serie de
ejercicios propuestos y la sección 8 incluye la lista de las ecuaciones más importantes del capítulo.
2.
COLECCIÓN DE DATOS (MUESTREO)
Como se mencionó anteriormente, en la práctica se trabaja con muestras tomadas de determinadas poblaciones. Asimismo, se aludió que las muestras son la base fundamental del análisis, por
lo que se debe de prestar particular atención en la forma en la que esta se recolecta.
Esta sección presenta los conceptos básicos de la colección de datos, dejando la lectura más
avanzada a los libros y artículos mencionados en la bibliografía.
Algunos de los conceptos que se necesitan se describen a continuación:
t
Población, también conocida como Universo, contiene todos los posibles elementos de la
variable en estudio.
t
Muestra, una parte seleccionada de la población.
t
Censo, se refiere a la recolección de todos los elementos de la población.
t
Parámetro, una característica de la población. Por ejemplo, la media poblacional (μ), la
desviación estándar poblacional (σ), entre otros.
t
Estadístico, una característica de la muestra. Por ejemplo, la media muestral ( x ), la desviación estándar poblacional (s), entre otros.
Error muestral, es el error que aparece debido al uso de la muestra en vez de la población. Es
importante notar, que este error puede reducirse al incrementarse el tamaño de la muestra
si se usa el muestreo probabilístico que se detalla posteriormente.
t
t
Error no muestral, también conocido como sesgo o error direccional, representa los errores
originados en el diseño de la muestra, en una mala comunicación de lo que se quería averiguar
en el caso de una entrevista, entre otros. En este caso, el error no muestral no puede disminuir
simplemente añadiéndose más observaciones a la muestra. Se tienen que hacer revisiones
fundamentales a los procesos, a las entrevistas, etc.
En general, antes de determinar el método de muestreo a utilizar, será necesario entender el
problema que se tiene a mano y se deberá tratar de determinar las características de los datos a recolectar. Por lo general, se sugiere realizar ciertos análisis exploratorios para entender mejor los datos
que se desean recolectar.
Se pueden definir dos métodos de muestreo: el muestreo probabilístico y el muestreo no probabilístico. Ambos tipos de muestreo son tratados a continuación.
2.1. El muestreo probabilístico
En este tipo de muestreo se supone que todos los elementos de la población tienen la probabilidad de ser elegidos. Sin embargo, no todos tendrán necesariamente la misma probabilidad de
3
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
ser elegidos. Este método es el que debe ser utilizado si la intención es la realización de inferencia
estadística. Este método, a su vez, se clasifica en:
2.1.1.
Muestreo aleatorio simple
En el muestreo aleatorio simple cada elemento o miembro de la población tiene la misma probabilidad de ser elegido. La forma común en la que se selecciona a los miembros de la población es
creando números aleatorios.
Por ejemplo, si se imagina que se tiene una población de 500 contadores en una determinada
ciudad y que se quiere seleccionar aleatoriamente a 10 de ellos. Se supone que se los tiene identificados
de acuerdo a un número consecutivo que va desde 1 hasta 500. El procedimiento que se seguirá se
describe en la aplicación Excel que presenta a continuación.
Primero se creará la cantidad de números aleatorios deseados (en nuestro caso 10). La creación
se basa en la distribución uniforme (0,1) con lo que se asegura que los números generados estarán
entre 0 y 1. Se multiplica cada uno de los números generados por el tamaño de la población para
obtener el número correlativo que permitirá identificar al contador seleccionado por este proceso
es decir, los números resultantes representan la identificación de los contadores a ser seleccionados.
Por lo normal, se aproximan los números del paso anterior al número inmediato inferior.
Por ejemplo, el primer número aleatorio presentado en la aplicación Excel 1, es igual a 191. Esto
significa que el contador cuyo número de identificación es 191 será seleccionado para nuestra muestra.
$SOLFDFLyQHQ([FHO Generación de Números Aleatorios
4
CAPÍTULO 1
2.1.2.
Estadística descriptiva
Muestreo sistemático
El muestreo sistemático se basa en determinar aleatoriamente un número (conocido como
semilla), que se usa para determinar los elementos u observaciones de una población que serán seleccionados. Por ejemplo, se selecciona un número al azar entre 1 y 10, por ejemplo 4. Este número
implica que las observaciones que se seleccionarán serán basadas en los múltiplos de este número.
Se seleccionarán las observaciones 4, 8, 12, etc.
El principal problema de este método es conocido como el de estacionalidad. El problema
de estacionalidad ocurre cuando en los datos existen ciertos patrones determinísticos que se repiten
de acuerdo a una determinada frecuencia. Un ejemplo clásico es el referido a la venta de helados.
Las mayores ventas de helados se producen durante todos los veranos, mientras que las ventas más
bajas se dan en el invierno. Si se desean determinar las ventas promedio en unidades de una empresa
dedicada a producir helados durante los 10 últimos años, usando datos trimestrales y usando un
muestreo sistemático, se puede correr el riesgo que el número semilla coincida exactamente o con el
verano (que generaría que el promedio sea inflado) o con el invierno (que haría que el promedio esté
subvaluado). De ahí la importancia de conocer los datos con los que se está trabajando para prever
todo tipo de problemas que pudieran aparecer y determinar la mejor manera de solucionarlos.
2.1.3.
Muestreo estratificado simple
Muchas veces la población a estudiar tiene cierta estructura que puede ser identificada a priori.
Por ejemplo, si se desea hacer un análisis del nivel de ingresos de la población de un determinado
país, se pueden identificar distintos niveles de ingresos de acuerdo a determinados estudios sobre
los niveles socio-económicos.
Esta estructura de la población debe ser considerada al momento de recolectar los datos para
hacer que la muestra resultante sea representativa de la población. Es decir, lo que se trata de replicar
es la estructura (o estratos) existente en los datos para luego al interior de cada estrato aplicar un
muestreo aleatorio simple.
Se analiza el siguiente ejemplo desarrollado con valores hipotéticos:
7DEOD
Nivel socio-económico
Población
Ingresos (en miles de U.M.)
Muestra 1
A
B
C
1.000 (10%)
3.000 (30%)
6.000 (60%)
125
70
25
10 (10%)
80 (80%)
10 (10%)
Muestra 2
(muestreo estratificado)
10 (10%)
30 (30%)
60 (60%)
Esta tabla presenta la población y, en paréntesis, el porcentaje respecto al total. Por ejemplo, 10%
de la población pertenece al nivel socio-económico A. Asimismo, presenta valores de dos muestras
hipotéticas de 100 habitantes cada una. Entre paréntesis se encuentra el porcentaje de la misma
respecto al total de la muestra. Por ejemplo, en la muestra 1 se seleccionaron a 80 personas del nivel
B, lo que representa el 80% del total de la muestra.
5
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
La expresión U.M. se refiere a unidades monetarias.
Primero, se supone que el muestreo es completamente aleatorio y que, por azar, el resultado
de la selección resulta sesgado (por diversos motivos, como facilidad de acceso a las observaciones,
o simplemente por motivos aleatorios). Se supone que esos datos corresponden a la Muestra 1 en la
Tabla 1. Aquí se puede observar que el nivel socio-económico B está sobre representado mientras
que el nivel C está sub representado con respecto a la población. Si se desearan construir estadísticos
con esta muestra los resultados estarían sesgados hacia los valores de la clase B.
Por otro lado, la muestra hallada usando un muestreo estratificado simple, la estructura fundamental de la población se ha preservado, generándose de esta manera la representatividad necesaria
de la muestra. Es importante notar que en el muestreo estratificado simple, una vez que los estratos
han sido formados, para seleccionar a los elementos que comprenderán cada uno de los estratos se
aplica una muestra aleatoria simple.
2.2. El muestreo no probabilístico
En este caso no todos los elementos de la población tienen la probabilidad de ser seleccionados.
En este tipo de muestreo se utiliza bastante la intuición y la experiencia del analista y, por lo general,
es utilizado para realizar estudios exploratorios, cuyos resultados no son usados para realizar inferencia acerca de los parámetros poblacionales.
Se pueden identificar los tipos de muestreos no probabilísticos que se citan a continuación.
2.2.1.
Muestreo basado en el juicio del analista
Este tipo de muestreo depende de lo que el analista considere como importante para la construcción de la muestra. Por ejemplo, un auditor contable puede decidir no aplicar ningún muestreo
probabilístico como los mencionados anteriormente y, en vez de eso, determinar en base a su experiencia, qué documentos solicitar para su análisis.
2.2.2. Muestreo basado en la facilidad de acceso a los elementos
que forman la base del estudio
Este muestreo se construye en base a la disponibilidad y facilidad de acceso a los elementos
que constituyen la población. Por ejemplo, si un grupo de estudiantes desea construir una muestra
para entender de manera preliminar (exploratoria) los hábitos de consumo de café de los clientes de
Starbucks; estos pueden concentrar sus esfuerzos en una determinada área geográfica que les sea
de fácil acceso.
2.2.3.
Muestreo basado en un propósito específico
En este tipo de muestreo, los miembros de la muestra son seleccionados con el propósito explícito
de ayudar a responder alguna pregunta relevante en el estudio. Por ejemplo, si se desea determinar la
6
CAPÍTULO 1
Estadística descriptiva
calidad de un libro básico de introducción a las finanzas, se puede seleccionar a un grupo de alumnos de pregrado con nociones mínimas de finanzas. Si estos estudiantes entienden los conceptos
presentados en el libro, esto será una señal que podrá ser fácilmente entendido por estudiantes con
cierto nivel de conocimientos de la materia.
3.
DISTRIBUCIÓN DE FRECUENCIAS
Si el analista cuenta con los datos necesarios para realizar su trabajo, lo primero a hacer será
entender los datos con los que se cuenta. Se supone que los datos se refieren a las ventas en unidades
de los últimos 10 años los que se muestran a continuación:
7DEOD
Año
20X0
20X1
20X2
20X3
20X4
20X5
20X6
20X7
20X8
20X9
Ventas (miles de unidades)
2.540
2.560
2.612
2.630
2.720
2.760
2.785
2.804
2.831
2.935
Una manera bastante fácil y útil para tener un mejor entendimiento de los datos es el crear una
tabla de frecuencias. Las tablas de frecuencias presentan la información agrupada de acuerdo a
rangos predeterminados. Una posible tabla de frecuencias tiene la siguiente forma:
7DEOD Tabla de frecuencias
Clases
Frecuencia
”
(2.600, 2.700]
(2.700, 2.800]
(2.800, 2.900]
(2.900, 3.000]
•
Total
2
2
3
2
1
0
10
Frecuencia relativa
(%)
20%
20%
30%
20%
10%
0%
100%
Frecuencia
acumulada
2
4
7
9
10
10
Frecuencia relativa
acumulada
20%
40%
70%
90%
100%
100%
Los elementos característicos de una tabla de frecuencias son los siguientes:
a.
Clases: son los rangos en los que se separan los datos. Por ejemplo, (2.600, 2.700] indica que se deben seleccionar las observaciones mayores que 2.600 (no incluyendo
2.600) y menores o iguales a 2.700 (incluyendo 2.700).
7
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
b.
Límites de las clases: son los valores que definen el mínimo y máximo valor a incluir
en una determinada clase. Por ejemplo, en la clase (2.600, 2.700], los límites son 2.600
y 2.700.
c.
Rango de las clases: es la diferencia entre el límite máximo y el mínimo. Por ejemplo,
en (2.600, 2.700] el rango sería 2.700 - 2.600 = 100. Es importante notar que el rango
de todas las clases no tiene que ser necesariamente el mismo, aunque se sugiere que si lo
sea por motivos de presentación.
d.
Marca de clases: Es el punto medio de cada clase. Se calcula sumando el límite inferior al superior y dividiendo el resultado entre 2. Por ejemplo, el valor medio de la clase
(2.600, 2.700] es igual a (2.600 + 2.700)/2 = 2.650. Estos valores son importantes para
graficar el polígono de frecuencias que se detallará posteriormente.
Es importante notar que una tabla de frecuencias está bien estructurada si las clases satisfacen
las siguientes características:
a.
Las clases deben ser mutuamente excluyentes, es decir, los límites entre clases jamás
deben pertenecer a más de una clase. Por ejemplo, las clases (2.600, 2.700] y (2.700,
2.800] son mutuamente excluyentes ya que los límites de una clase no están incluidas
en la otra: 2.700 está incluida en la primera clase pero no lo está en la segunda. Nótese
que “]” significa que el límite está incluido en una clase en particular y, “(” implica que
el límite no está incluido en una clase en particular.
b.
Las clases deben ser exhaustivas, es decir, todas las observaciones en la muestra deben
estar incluidas en alguna de las clases. Como puede advertirse en la Tabla 3, todos los
valores de Tabla 2 han sido incluidos. La forma de verificar esto es simplemente verificar que el total de la columna “frecuencia” corresponda al número de observaciones de
la muestra (en nuestro caso 10).
A continuación se describen los resultados presentados en la Tabla 3.
8
a.
La primera columna (clases) contiene las clases en las que se dividirán las observaciones.
b.
La segunda columna (frecuencia) describe el número de observaciones que caen en
una determinada clase. Por ejemplo, se observan dos años con ventas entre (2.600,
2.700]. Nótese que la suma de esta columna debe ser igual al tamaño de la muestra.
c.
La tercera columna (frecuencia relativa) describe el porcentaje de observaciones en
una determinada clase. Por ejemplo, el 20% de las ventas fueron entre (2.600, 2.700].
Adviértase que la suma de esta columna debe ser igual al 100%.
d.
La cuarta columna (frecuencia acumulada) describe el número de observaciones que
son menores o iguales al límite superior de una determinada clase. Por ejemplo, se observan 7 años con ventas menores o iguales a 2.800.
CAPÍTULO 1
e.
Estadística descriptiva
La quinta columna (frecuencia relativa acumulada) describe el porcentaje de observaciones que son menores o iguales al límite superior de una determinada clase. Por ejemplo, se observan que el 70% de las ventas fueron menores o iguales a 2.800.
Cuando se utilizan los valores de la Tabla 3, se pueden generar algunos gráficos que son de
bastante ayuda:
a.
El histograma: muestra la información contenida en la primera columna de la Tabla 3,
es decir presenta las frecuencias.
b.
El gráfico de las frecuencias relativas acumuladas: muestra la información de la
quinta columna de la Tabla 3. Nótese que el máximo valor de las frecuencias relativas
acumuladas es 100%.
*UiÀFR
Histograma y frecuencias
relativas acumuladas
Frequencia
4
100,00%
80,00%
60,00%
40,00%
20,00%
0,00%
3
2
1
0
2500
2600
2700
2800
2900
3000 More
Límites
Frequency
c.
Cumulative %
El polígono de frecuencias: muestra la misma información que el histograma, pero de
manera más intuitiva, en el sentido que supone que las frecuencias varían gradualmente
conforme las observaciones aumentan o disminuyen en el eje de los límites. Para realizar este gráfico se usan los valores medios de las clases como puntos que se ponen en la
parte superior de cada rectángulo. El polígono de frecuencias se obtiene uniendo estos
puntos.
9
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
*UiÀFR
Frequencia
Histograma y polígono
de frecuencias
4
3
2
1
0
2500
2600
2700
2800
2900
3000
More
Límites
Frequency
Frequency
A continuación se presenta la forma en que se pueden realizar estas tablas por medio de Excel.
$SOLFDFLyQHQ([FHO Tabla de frecuencias
Una vez que se tiene un entendimiento de las características básicas de los datos obtenidos mediante el análisis presentado en esta sección, se procederá a analizar determinados estadísticos que
10
CAPÍTULO 1
Estadística descriptiva
proporcionarán un mayor entendimiento de ciertas características claves de los datos en términos
de sus medidas de tendencia central, dispersión y asociación.
4.
MEDIDAS DE TENDENCIA CENTRAL
Las medidas de tendencia central permiten al analista determinar los valores típicos de los datos.
En esta sección se analizarán los estadísticos más importantes: el promedio, el promedio ponderado,
la media y la moda. Se presentarán los estadísticos para las poblaciones y para las muestras. Para esto
se debe recordar que para el tamaño de la población se utilizará N y para el tamaño de la muestra n.
4.1. El promedio o media
El promedio o media es también conocido como la media aritmética. La media poblacional,
que a partir del momento se identificará con la letra griega “μ” (mu), se calcula de la siguiente manera:
N
¦x
i
P
i 1
(1)
N
Por otra parte, si se trata de la media muestral, para una muestra de tamaño n, este estadístico
estará dado por:
n
¦x
i
x
i 1
(2)
n
Donde: x representa el promedio muestral, xi la variable de interés, n el número de observaciones en la muestra y ∑ el operador de suma.
(MHPSOR
Se supone que se tienen los datos de las ventas anuales correspondientes a los 10 últimos años
de una determinada corporación (los datos se encuentran en la Tabla 2) y que desea conocer las
ventas anuales promedio:
‫ݔ‬ҧ ൌ
ʹǤͷͶͲ ൅ ʹǤͷ͸Ͳ ൅ ʹǤ͸ͳʹ ൅ ʹǤ͸͵Ͳ ൅ ʹǤ͹ʹͲ ൅ ʹǤ͹͸Ͳ ൅ ʹǤ͹ͺͷ ൅ ʹǤͺͲͶ ൅ ʹǤͺ͵ͳ ൅ ʹǤͻ͵ͷ
ͳͲ
Por lo tanto, x = 2.718. Es decir, que la venta anual promedio durante los últimos 10 años es
igual 2.718 U.M.
El principal problema de este estadístico es que es muy susceptible a valores extremos. Para
entender este problema, se supone que las ventas en unidades del año 20X9 han sido 5.450 en vez de
2.935. El efecto de este cambio se puede notar a continuación:
11
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
‫ݔ‬ҧ ൌ
ʹǤͷͶͲ ൅ ʹǤͷ͸Ͳ ൅ ʹǤ͸ͳʹ ൅ ʹǤ͸͵Ͳ ൅ ʹǤ͹ʹͲ ൅ ʹǤ͹͸Ͳ ൅ ʹǤ͹ͺͷ ൅ ʹǤͺͲͶ ൅ ʹǤͺ͵ͳ ൅ ૞Ǥ ૝૞૙
ͳͲ
Por lo tanto, x = 2.969. Como se puede apreciar, la existencia de un valor extremo, tiende a
mover el promedio en la dirección de dicha variable. Dicho de otra manera, un valor mucho mayor
que las demás observaciones, tiende a empujar el valor promedio hacia la derecha, mientras que la
existencia de un valor extremo mucho menor que las otras observaciones moverá la media hacia la
izquierda. Este problema se acentúa cuanto más lejano sea el valor.
Una forma de solucionar este problema es no considerar los valores extremos en el cálculo del
promedio o utilizar otro estadístico como la mediana.
4.2. El promedio ponderado
El promedio considera que toda la información tiene la misma ponderación o importancia en
el cálculo del estadístico. Sin embargo, muchas veces cada observación tiene diferente peso o ponderación. Es eso exactamente lo que considera el promedio ponderado. La fórmula del promedio
ponderado es:
n
¦Z u x
xZ
i
i
(3)
i 1
Donde:
n
¦Z
i
1
(4)
i 1
En la fórmula anterior, xZ representa el promedio ponderado y Zi la ponderación de cada
observación.
(MHPSOR
Un ejemplo típico en este caso es el cálculo de la rentabilidad de un portafolio. Si se imagina que
se tiene la siguiente composición de un determinado portafolio: 10% en renta fija, 70% en acciones
y 20% en metales como el oro. Si los rendimientos ganados por cada clase de activo financiero son
2%, 10% y 35%, respectivamente, el promedio ponderado sería calculado de la siguiente manera:
‫ݔ‬ҧ߱ ൌ ሺͲǡͳሻ ൈ ሺʹΨሻ ൅ ሺͲǡ͹ሻ ൈ ሺͳͲΨሻ ൅ ሺͲǡʹሻ ൈ ሺ͵ͷΨሻ ൌ ͳͶǡʹΨ
Es decir, que la rentabilidad promedio del portafolio es igual a 14,2%.
12
CAPÍTULO 1
Estadística descriptiva
4.3. La mediana
La mediana representa el valor medio de los datos debidamente ordenados ya sea de manera
ascendente o descendente. Si el número de observaciones es impar, la mediana se encuentra en la
posición (n + 1)/2 y si el número de observaciones es par la mediana corresponde al promedio de las
dos observaciones centrales que se localizan en las posiciones (n/2) y [(n/2) + 1].
(MHPSOR
Se supone que se tienen las siguientes observaciones en orden ascendente: 1, 4, 7, 10 y 15. En este
caso n (número de observaciones) es igual a 5, por lo tanto, la mediana se encuentra en la posición
(5 + 1)/2 = 3, es decir, la mediana de esta muestra es igual a 7.
Por otro lado, si se tiene la siguiente muestra ordenada de manera ascendente: 1, 4, 7, 10, 15,
18; las posiciones de los valores que determinarán la media son 6/2 = 3 y (6/2) + 1 = 4. Por lo tanto,
la mediana será igual a (7 + 10)/2 = 8,5.
La ventaja de la mediana respecto al promedio es que es inmune a los valores extremos. Por
ejemplo, si se toma la primera serie del primer párrafo de este ejemplo y se reemplaza el último valor
15 por 25. La nueva serie resultante será: 1, 4, 7, 10, 25. Como se puede ver la mediana sigue siendo
7 independientemente de los valores extremos.
4.4. La moda
La moda corresponde al valor que se observa más frecuentemente en la muestra. Si una serie
tiene una sola moda se llamara unimodal; si tiene dos modas se llamará bimodal y si tiene más de
dos modas se llamará multimodal.
(MHPSOR
Si se tiene la siguiente serie: 2, 4, 3, 5, 3, 1 y 9 la moda será 3, es decir, el número que aparece
más frecuentemente en esta serie es el número 3. En este caso, esta serie es unimodal.
5.
MEDIDAS DE DISPERSIÓN
Las medidas de dispersión permiten al analista determinar cuán dispersos son los valores de
los datos respecto a alguna medida de tendencia central, usualmente el promedio. Estas medidas
de dispersión son de gran uso en las finanzas ya que la dispersión de los valores de las observaciones
está asociada con el nivel de riesgo o incertidumbre asociada con la variable observada. Se tratará
este tema en detalle en las siguientes secciones de este capítulo.
A continuación se analizarán algunos de los estadísticos de dispersión más importantes: el
rango, los cuartiles, la desviación media absoluta, la varianza y la desviación estándar, la variable
estandarizada y el coeficiente de variación.
13
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
Para un mejor entendimiento de los conceptos se utilizarán los datos de la presente tabla:
7DEOD
Año
20X0
20X1
20X2
20X3
20X4
20X5
20X6
20X7
20X8
20X9
Gastos en publicidad (miles de U.M.)
110
115
127
138
147
150
175
160
170
180
5.1. El rango
El rango se calcula de la siguiente manera:
Rango = valor máximo – valor mínimo
(MHPSOR
El rango de las observaciones presentadas en la Tabla 4 será: 180 – 110 = 70. Es importante
recalcar que el rango, al solo usar los valores extremos, sufre del mismo problema que el promedio.
Es decir, su valor es sensible a los valores extremos.
5.2. Los cuartiles
Los cuartiles dividen los datos en cuatro grupos, cada uno de los cuales contiene el 25% de las
observaciones de la muestra. La estrategia para calcular los cuartiles es el siguiente:
a.
Encontrar la posición de cada uno de los límites de los cuartiles ( Q1p , Q2p y Q3p ) de la
siguiente manera:
‫݌‬
ܳͳ ൌ
ሺ݊൅ͳሻ
Ͷ
‫݌‬
ǡ ܳʹ ൌ
ʹൈሺ݊ ൅ͳሻ
Ͷ
‫݌‬
‫ ͵ܳݕ‬ൌ
͵ൈሺ݊൅ͳሻ
Ͷ
(5)
Se advierte que la posición del segundo cuartil corresponde a la ubicación de la mediana, es
decir que el segundo cuartil será siempre igual a la mediana.
b.
14
Una vez localizada la posición se procede a determinar el valor que corresponde a la
posición encontrada en el paso a. En caso que esta posición no sea un número entero se
procede a realizar una interpolación lineal tal como se explica a continuación.
C A PÍ T ULO
12
Modelos de series
de tiempo
1.
INTRODUCCIÓN
Los modelos de series de tiempo tratan de explotar la información contenida en la historia de
las mismas variables. Estos modelos son conocidos como modelos en forma reducida o no estructurales, ya que no han sido derivados de un modelo teórico económico o financiero. Estos modelos
son de bastante uso en finanzas, porque usualmente las predicciones obtenidas con estos modelos
son mejores que las obtenidas con los modelos estructurales.
Este capítulo introduce de manera bastante práctica los principales modelos de series de tiempo.
Se empezará presentando en la sección 2 la definición de un proceso estocástico, la definición de
procesos fuerte y débilmente estacionarios. La sección 3 trata sobre las autocovarianzas, autocorrelaciones y el correlograma. También esta sección introduce los principales métodos para detectar las
autocorrelaciones. A continuación se desarrollan, en las secciones 4, 5 y 6, los modelos autorregresivos AR(p), los modelos de medias móviles MA(q), y los modelos ARMA(p,q), respectivamente. La
sección 7 está destinada a la forma matemática de determinar el orden de los modelos de series de
tiempo mediante los criterios de información. La sección 8 desarrolla el tema de los pronósticos y
la forma de verificar su calidad. La sección 9 presenta el método de Box-Jenkins para el trabajo con
modelos de series de tiempo. Se muestra este método mediante el desarrollo de un ejemplo numérico
usando EViews. Finalmente, en las secciones 10 y 11 se encuentran los ejercicios y ecuaciones del
capítulo, respectivamente.
399
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
2.
PROCESOS ESTACIONARIOS
Un concepto clave en los modelos de series de tiempo es el conocido como procesos estocásticos.
Un proceso estocástico es una secuencia de números aleatorios. El proceso estocástico se escribirá
como { yi } para i = 1, 2,… Si este índice representa tiempo, el proceso estocástico se llamará serie de
tiempo. Si se asigna un posible valor de y por cada i se estará construyendo una posible realización
del proceso estocástico.
El principal problema en los modelos de series de tiempo es que en la realidad solo se observa
el proceso estocástico en una de sus varias posibles realizaciones. Por lo tanto, solo se puede obtener
un set de estadísticos (media, varianza, etc.) dadas las observaciones disponibles. En teoría, si se
pudieran observar todas las posibles realizaciones del proceso estocástico, se podrían calcular los
parámetros poblacionales (tal como la media poblacional) simplemente como el promedio de todas
las realizaciones.
Sin embargo, la realidad no se muestra de distintas maneras: solo existe una realización de
la realidad. Esto inmediatamente presenta una limitación que se debe tratar de solucionar. En esta
sección del capítulo se tratará el concepto de estacionariedad, que en síntesis significa que todas
las observaciones de la series de tiempo provienen de la misma distribución de probabilidad y que,
si a su vez el proceso no es muy persistente, cada observación contendrá información valorable que
no está presente en ninguna de las otras observaciones, por lo que los estadísticos obtenidos de las
observaciones serán consistentes con sus respectivos parámetros poblacionales. Por ejemplo, la media
de estas observaciones en el tiempo será consistente con la media poblacional.
El concepto de estacionariedad tiene dos versiones: la estacionariedad estricta y la estacionariedad débil, que se procede a explicar a continuación.
2.1. Estacionariedad estricta
Un proceso estocástico { yi } con i = 1, 2,…T es estrictamente estacionario si, para un número
real finito r y para cualquier conjunto de subíndices i1 , i2 ,…, iT :
Fyi , yi
1
2
,..., yiT
( y1 ,..., yT )
Fyi r , yi r ,..., yi r ( y1 ,..., yT )
1
2
T
(1)
Es decir, que la distribución conjunta de { yi } con i = 1, 2,…T, depende solo de la distancia r y
no de i, es decir, la probabilidad conjunta de ( y1, y11 ) es la misma que ( y51 , y61 ) (nótese que en este
caso r = 10). Lo importante para la distribución es la posición relativa de la secuencia. Además, esto
quiere decir que la probabilidad que y caiga en algún intervalo en particular es siempre la misma.
Por lo tanto, si un proceso estocástico es estrictamente estacionario: la media, la varianza y otros
momentos de la distribución serán los mismos para todo i. Ejemplos de series estrictamente estacionarias incluyen los procesos independientes e idénticamente distribuidos (i.i.d.).
Muchos procesos son no estacionarios simplemente porque tienen una tendencia determinística.
Es decir, que si se remueve la tendencia, la serie de tiempo se convertirá en una serie estacionaria. A
dichas series se les conoce como series estacionarias con tendencia. Asimismo, si se tiene una serie
400
CAPÍTULO 12
Modelos de series de tiempo
de tiempo que no es estacionaria pero que su diferencia sí lo es, se conoce como serie estacionaria
en diferencias.
2.2. Estacionariedad débil
Un proceso estocástico { yi } con i = 1, 2,…T es débilmente estacionario si se cumple lo siguiente:
E ( yi ) P
E ( yi P ) 2
(2)
V2 f
cov( yi , yi j ) J i (i j )
(3)
Jj
(4)
La ecuación (4) dice que es la posición relativa ( j) lo importante y no la absoluta (i). Por ejemplo:
cov y1 , y11
cov y51 , y61
J 11
(5)
(MHPSOR
El gráfico (1) presenta la evolución del índice Dow Jones Industrial Average (DJIA) y el gráfico
(2) presenta la serie de tiempo de los retornos del mismo índice (RDJIA).
*UiÀFR
401
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
*UiÀFR
Como se puede observar el gráfico de los precios (DJIA) es un proceso no estacionario, mientras
que el gráfico de los retornos (RDJIA) parece serlo. Una forma fácil de ver por qué la primera serie
es no estacionaria es tomando un intervalo de un tamaño fijo en dos puntos distantes y calcular el
promedio. Se asume por ejemplo, que se toman las siguientes observaciones del DJIA: 1982 hasta
1984 y del 2002 al 2004 (intervalos de 3 años cada uno). De acuerdo al concepto de estacionariedad,
si se hace esto y la serie es en realidad estacionaria, se esperaría que las medias sean iguales. Sin embargo, solo observando el gráfico se advierte que este no será el caso, puesto que el índice estaba entre
3.638,06 y 2.278,20 entre enero de 1982 y diciembre de 1984 y, entre 616,53 y 421,98 entre enero
del 2002 y diciembre del 2004. En cambio si se observa la serie de los retornos, las medias estarán
bastante cercanas en los mismos intervalos de tiempo, lo que puede indicar que efectivamente esta
serie de tiempo es estacionaria. Posteriormente se presentará la forma econométrica de determinar
la estacionariedad de las series.
3.
LA AUTOCOVARIANZA, LA AUTOCORRELACIÓN Y EL CORRELOGRAMA
Se supone que el subíndice i representa el tiempo, por lo tanto, el proceso estocástico { yi } , i =
1, 2,…T será una serie de tiempo. La autocovarianza se expresa como γj y se la define como:
cov( yi , yi j ) J i (i j )
Jj
(6)
Como se mencionó anteriormente, la autocovarianza solo depende de j (la posición relativa).
La varianza de la serie de tiempo {yi } será igual a:
cov( yi , yi ) var ( yi ) J i i
402
J0
(7)
CAPÍTULO 12
Modelos de series de tiempo
Por lo tanto, la autocorrelación de orden j ( ρj ) se definirá como el ratio entre la autocovarianza
de orden j y la varianza:
Uj
cov( yi , yi j )
Jj
J0
var ( yi )
(8)
Con j = 1, 2,… Si j = 0, ρj = 1. Ahora bien, si se grafica la evolución en el tiempo de ρj , se estará
construyendo lo que se conoce como el correlograma.
3.1. El proceso de ruido blanco
El proceso de ruido blanco (White Noise Process) es un proceso débilmente estacionario con
media constante y no autocorrelación. Es decir, en un proceso de ruido blanco se cumple:
E ( yi ) P
cov( yi , yi - j ) J j
(9)
0jz0
cov( yi , yi ) J 0
V2
(10)
(11)
3.2. Pruebas de autocorrelación
Se recuerda que la autocorrelación muestral se calcula de la siguiente manera:
Jˆ j
n
1
u ¦ ( yt y ) u ( yt j y )
n j t j 1
(12)
Obsérvese que se divide entre n - j y no entre n, para que el estadístico sea insesgado. Esto es importante si se está trabajando con una muestra pequeña. Sin embargo, si la muestra es lo suficientemente
grande n - j será bastante aproximado a n. La media de la serie se calcula como es usual:
n
¦y
i
y
t 1
(13)
n
Se sigue a nivel muestral y se define la autocorrelación muestral como:
Uˆ j
Jˆ j
Jˆ0
(14)
Dado esto, se presentan a continuación los test empleados para determinar la presencia de
autocorrelación. El primer método se basa en la siguiente propiedad asintótica:
n u Uˆ 
o N (0, I m )
d
(15)
403
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
Donde: Uˆ ( Uˆ1 , Uˆ 2 ,..., Uˆ m ). Esta ecuación establece que las autocorrelaciones ρ asintóticamente
se distribuyen como una normal estándar. Por lo tanto, se pueden construir intervalos de confianza
para la autocorrelación poblacional de la siguiente manera:
1 º
»
n¼
ª
U  « r zD /2 u
¬
(16)
(MHPSOR
Si el nivel de confianza deseado es del 90% (nivel de significancia α = 10%), el valor de z α/2 será
igual a 1,645.1 Por lo tanto, el intervalo de confianza para las autocorrelaciones poblacionales será:
ª
U  « r1, 645 u
¬
1 º
»
n¼
(17)
Existen otros métodos que permiten determinar la existencia de autocorrelaciones hasta un
determinado orden (m), que se presentan a continuación.
El método de Box-Pierce y el método de Ljung-Box permiten testear la siguiente hipótesis nula:
H 0 : U1
U3 ... U m
U2
0
(18)
El test de Box-Pierce se calcula mediante:
m
Box Pierce(Q) n u ¦ UÖ 2j
j 1
m
¦(
n u UÖ j )2 F 2 (m)
(19)
j 1
El test de Ljung-Box:
m
UÖ 2j
j 1
n j
Ljung Box(Q) n u (n 2) u ¦
m
n2
¦ n j u(
n u UÖ j )2 F 2 (m)
(20)
j 1
Ambas pruebas se distribuyen como una chi cuadrada debido a que n u Uˆ es asintóticamente
independiente y distribuida como una normal estándar. Por lo tanto, la suma al cuadrado de estos
números es asintóticamente chi-cuadrada. Los grados de libertad de esta distribución son iguales a
m, que representa el número de rezagos deseados.
El método de Ljung-Box es preferido cuando el tamaño de la muestra es pequeño. Como se
puede observar, la diferencia entre estos dos métodos desaparece conforme n (número de observaciones) se incrementa.
1 Se recomienda al lector remitirse al capítulo 5 para un detallado tratamiento de los intervalos de confianza.
404
CAPÍTULO 12
Modelos de series de tiempo
El problema con ambos test es que no existe una metodología clara para seleccionar el número de
rezagos (m). Si se escoge un m muy pequeño, el riesgo que no se estén capturando autocorrelaciones
de orden superior aumentará. Por otro lado, si el número m es demasiado grande las propiedades
asintóticas del test se pueden perder y la distribución no será más la chi cuadrada.
(MHPSOR
En esta parte se presenta un ejemplo ficticio que permite entender cómo es que estos test son
utilizados en la práctica. Se parte del hecho que se han calculado las tres primeras autocorrelaciones
de los retornos de algún instrumento financiero. Se supone que el número de observaciones es igual
a 50 y que el nivel de confianza deseado es igual al 90%. Finalmente, se asume que las autocorrelaciones obtenidas son las siguientes: Uˆ1 1, 25; Uˆ 2 0, 22; Uˆ3 0, 02 .
Primero, se estima el intervalo de confianza para las autocorrelaciones:
ª
U  « r1, 645 u
¬
1 º
» o U  > 0, 2326;0, 2326@
50 ¼
Con base en este intervalo de confianza, solo la primera autocorrelación no está en el intervalo.
Por lo que este será un indicio de la presencia de autocorrelación de primer orden.
Ahora se presenta la forma en que las pruebas de Box-Pierce y Ljung-Box son calculadas:
Box Pierce(Q)
m
¦(
n u Uˆ j ) 2
( 50 u1, 25) 2 ( 50 u 0, 22) 2 ( 50 u 0, 02) 2
j 1
(21)
Box Pierce(Q) 80,565
Ljung Box(Q)
m
n2
¦ n j u(
n Uˆ j ) 2
j 1
§ 50 2 ·
§ 50 2 ·
§ 50 2 ·
2
2
2
Ljung Box(Q) ¨
¸ u ( 50 u1, 25) ¨
¸ u ( 50 u 0, 22) ¨
¸ u ( 50 u 0, 02) (22)
50
1
50
2
50
3
©
¹
©
¹
©
¹
Ljung Box(Q) 85,55
La hipótesis nula en este caso es:
H 0 : U1
U2
U3 0
(23)
Esto significa que se prueba la no existencia de autocorrelación de hasta tercer orden. Se conoce
que ambas pruebas se distribuyen como una chi cuadrada con 3 grados de libertad (m = 3). Si se
desea un nivel de significancia del 10% (es una prueba no direccional, por lo que cada cola será igual
al 5%), el valor crítico superior de la chi cuadrada para estos grados de libertad será igual a 7,8148.
405
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
Por lo tanto, como los valores de las pruebas son 80,565 y 85,55, para el Box-Pierce and Ljung-Box,
respectivamente; se rechazará la hipótesis nula. Lo que significa que existe autocorrelación significativa hasta el tercer rezago.
El valor crítico, se ha hallado usando el comando de Excel “PRUEBA.CHI.INV ” o “CHIINV ”,
según se trate de la versión en español o inglés. La siguiente aplicación muestra la forma de usar Excel
para hallar este valor crítico:
$SOLFDFLyQGH([FHO Valores críticos de la chi cuadrada
n
50
nivel de confianza
0,9
rezagos (m)
3
α/2
grados de libertad
0,05
3
Chi_inferior
0,351846
Chi_superior
7,814728
Se advierte que se tienen dos valores críticos porque se trata de una prueba no direccional.
En las siguientes secciones se comienzan a presentar varios modelos de series de tiempo.
4.
MODELO DE MEDIAS MÓVILES MA(q)
El proceso de medias móviles o (MA) por sus siglas en inglés (Moving Averages) es un modelo
que supone que la variable puede ser explicada por un cierto número de rezagos (q) de los errores,
es decir:
yt
P ut T1 u ut 1 T 2 u ut 2 ... T q u ut q
(24)
Donde los errores (u) son i.i.d. con media cero y varianza σ 2. A partir de esta sección se cambia
el uso del subíndice i por t para referirse al tiempo. Se puede reescribir esta ecuación de la siguiente
manera:
q
yt
P ¦ T j u ut j ut
(25)
j 1
Antes de continuar, se define el siguiente operador matemático L, que será de gran utilidad en
lo que queda del capítulo:
Lm yt
406
yt m
(26)
CAPÍTULO 12
Modelos de series de tiempo
Por ejemplo, Lyt yt-1 , L2yt yt-2 . Si se emplea esta notación en la ecuación (26):
q
yt
P ¦ T j u Lj ut ut
(27)
j 1
Finalmente, si se define:
4( L) 1 T1 u L T 2 u L2 ... T q u Lq
(28)
La ecuación (27) se puede escribir como:
yt
P 4( L)ut
(29)
En la ecuación (28) se requiere que todas las raíces características de 4( L) caigan fuera del
círculo unitario; es decir, que cada raíz de r en la siguiente ecuación característica sea mayor que
uno en valor absoluto:
1 T1 u r T 2 u r 2 ... T q u r q
0
(30)
Esta condición, conocida como la condición de invertibilidad, asegura que el modelo MA(q),
representado como un modelo AR(∞) converja a cero, es decir, que ( 4( L) )-1 tienda a cero. En otras
palabras, esta condición asegura que el modelo MA(q) no es explosivo. Esta condición es muy parecida a la condición de estacionariedad del modelo AR(p) que se discutirá en la próxima sección.
También, esta condición será de vital importancia al momento de trabajar con modelos ARMA(p,q).
La estrategia a seguir cuando se trabaja con series de tiempo es determinar la función de autocorrelación presentada en la ecuación (8). Para eso se necesitan los siguientes componentes: la media,
la varianza y las autocovarianzas. La estrategia presentada para este modelo será la misma que la que
se utilizará para los otros modelos de series temporales.
Para mostrar la técnica se supone el siguiente modelo MA(3):
yt
P ut T1 u ut 1 T 2 u ut 2 T3 u ut 3
(31)
Se recuerda que se asumió que u es un ruido blanco con media cero y varianza σ 2. Se calcula el
valor esperado de esta ecuación. Se toma la esperanza matemática a ambas partes de la ecuación (31):
E ( yt )
E ( P ut T1 u ut 1 T 2 u ut 2 T3 u ut 3 )
E ( yt )
E ( P ) E (ut ) T1 u E (ut 1 ) T 2 u E (ut 2 ) T3 u E (ut 3 )
P
(32)
Como los errores son ruidos blancos con media cero, ecuación (32) será igual a:
E ( yt ) P
(33)
407
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
A continuación se calcula la varianza de y. Se recuerda que la varianza se define como:
var ( yt ) J 0
^
E ª¬ yt E yt º¼
2
`
E[( yt P ) 2 ]
(34)
Sin perder generalidad en este proceso, se asume que μ = 0 y se desarrolla la ecuación (34):
E[ yt 2 ] E[(ut T1 u ut 1 T 2 u ut 2 T3 u ut 3 ) 2 ]
var ( yt ) J 0
(35)
Si se opera:
2
2
2
Ȗ0 E[(ut2 +ș12 ×ut-1
+ș22 ×ut-2
+ș32 ×ut-3
+(2×ș1 ×ut ×ut-1 +otros términos cruzados)]
(36)
Se analiza el primer término cruzado que se presenta en la ecuación (2 u θ1 u ut u ut-1 ). Para esto
se recuerda que la covarianza se define como:
cov (ut , ut j )
E (ut u ut j ) E (ut ) u E (ut j )
E (ut u ut j )
(37)
Asimismo, como los errores son ruidos blancos, la autocovarianza de los errores es cero, obsérvese la ecuación (10). Por lo tanto, cuando se aplique el operador de la esperanza a cada uno de los
términos cruzados en la ecuación (36), estos serán iguales a cero. Lo que queda por ver ahora es qué
pasa con los primeros elementos de la ecuación (36):
2
2
2
var(yt )= Ȗ 0 E(ut2 )+ș12 × E(ut-1
)+ș22 × E(ut-2
)+ș32 × E(ut-3
)
var(yt )= Ȗ 0
V 2 ș12 u V 2 ș22 u V 2 ș32 u V 2
var(yt )= Ȗ 0
V 2 u (1+ș12 ș22 ș32
(38)
Ahora, lo que queda por calcular son las autocovarianzas de este modelo. Para eso se recuerda que:
cov ( yt , yt j )
E ( yt u yt j ) E ( yt ) u E ( yt j ) E ( yt u yt j )
(39)
En esta ecuación se sigue con el supuesto que μ = 0, es decir que E(y t ) = E(yt-1 ) = 0. Se procede
a calcular la autocovarianza de primer orden:
cov( yt , yt 1 ) E( yt u yt 1 ) E[(ut T1 u ut 1 T2 u ut 2 T3 u ut 3 ) u (ut 1 T1 u ut 2 T2 u ut 3 T3 u ut 4 )] (40)
Si se opera:
2
2
2
cov(yt , yt-1 )= E(yt u yt-1 )= E[ș1 u Xt-1
ș1 u ș2 u Xt-2
ș2 u ș3 u Xt-3
Wérminos cruzados] (41)
408
CAPÍTULO 12
Modelos de series de tiempo
De nuevo, al aplicar el operador de la esperanza a los términos cruzados estos desaparecerán de
la ecuación. Se analiza la primera parte de esta ecuación:
2
2
2
ș1 u ș2 u ( Xt-2
ș2 u ș3 u ( Xt-3
cov(yt , yt-1 ) =J 1 =ș1 u ( Xt-1
cov(yt , yt-1 ) =J 1 =ș1 u V 2 +ș1 u ș2 u V 2 +ș2 u ș3 u V 2
(42)
cov(yt , yt-1 ) =J 1 =V 2 u (ș1 ș1 u ș2 ș2 u ș3
Se hace lo mismo para determinar las autocovarianzas de orden superior:
cov ( yt ,yt 2 ) E( yt u yt 2 ) E[(ut T1 u ut 1 T2 u ut 2 T3 u ut 3 ) u (ut 2 T1 u ut 3 T2 u ut 4 T3 u ut 5 )] (43)
2
2
cov(yt , yt-2 )= E(yt u yt-2 )= E[ș2 u Xt-2
ș1 u ș3 u Xt-3
Wérminos cruzados]
(44)
Si se opera, se obtiene:
2
2
cov(yt , yt-2 ) =J 2 =ș2 u ( Xt-2
ș1 u ș3 u ( Xt-3
cov(yt , yt-2 ) =J 2 =ș2 u ı 2 ș1 u ș3 u ı 2
(45)
cov(yt , yt-2 ) =J 2 =ı u ș2 ș1 u ș3
2
La autocovarianza de tercer orden:
cov ( yt ,yt 3 ) E( yt u yt 3 ) E[(ut T1 u ut 1 T2 u ut 2 T3 u ut 3 ) u (ut 3 T1 u ut 4 T2 u ut 5 T3 u ut 6 )] (46)
2
cov(yt , yt-3 )= E(yt u yt-3 )= E[ș3 u Xt-3
Wérminos cruzados]
(47)
Por lo tanto:
2
cov(yt , yt-3 )=J 3 =ș3 u ( Xt-3
cov(yt , yt-3 )=J 3 =ı 2 u ș3
(48)
Como se puede apreciar, las covarianzas de orden mayor a 3 solo tendrán elementos cruzados,
por lo que las covarianzas serán iguales a cero:
cov(yt , yt- j )= E(yt u yt- j )= 0 j > 3
(49)
Finalmente, se calculan las autocorrelaciones de acuerdo a la ecuación (8):
U1
J1
J0
ı 2 u ș1 ș1 u ș2 ș2 u ș3
ș ș u ș ș u ș
= 1 12 2 2 2 2 3
2
2
2
2
ı u ș1 ș2 ș3
ș1 ș2 ș3
(50)
409
ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA
Este libro de los profesores Eduardo Court y Erick Rengifo ofrece un análisis riguroso
y exhaustivo de la compleja interacción entre la estadística, econometría y los mercados
ÀQDQFLHURV\HVXQDFRQWULEXFLyQPX\LPSRUWDQWHDODOLWHUDWXUDHVSDxRODGHORVPHUFDGRV
ÀQDQFLHURV/DLPSOHPHQWDFLyQGHGLIHUHQWHVPRGHORVKDFHTXHHODOFDQFHGHOOLEURVHDEDVWDQWHDPSOLR\PX\SUiFWLFR(VWHOLEURHVGHOHFWXUDREOLJDWRULDSDUDHVWXGLDQWHV\SURIHVLRQDOHVGHODVÀQDQ]DV
Joseph Quinlan
Chief Market Strategist and Managing Director
for Global Wealth and Investment Management at US Trust.
US Trust is the private Wealth management arm of Bank of America
Este libro constituye un valioso aporte de Eduardo Court y Erick Rengifo a la literatura
ÀQDQFLHUD\DTXHSUHVHQWDQGHPDQHUDPX\VHQFLOOD\GLGiFWLFDORVDVSHFWRVIXQGDPHQWDOHVGHODWHRUtDHVWDGtVWLFD\VXDSOLFDFLyQDODVGLVWLQWDVKHUUDPLHQWDV\PRGHORVTXHXWLOL]DQ
ORVDJHQWHVÀQDQFLHURV(OPXQGRPRGHUQRJHQHUDFDGDYH]PiVLQVWUXPHQWRV\RSHUDWLYDV
ÀQDQFLHUDVGHPD\RUFRPSOHMLGDG\VRÀVWLFDFLyQ(VWRH[LJHDVXYH]HQWHQGHU\H[SOLFDUOD
GHWHUPLQDFLyQ\PHGLFLyQGHORVQXHYRVULHVJRVTXHVHGHULYDQGHHOORVHVDTXtTXHODVKHUUDPLHQWDV\PRGHORV HFRQRPHWUtDÀQDQFLHUD VHFRQVWLWX\HQFRPRXQEXHQVRSRUWHSDUD
ODWRPDGHGHFLVLRQHV&RQVLGHURHVWHOLEURGHPXFKDLPSRUWDQFLD\GHOHFWXUDQHFHVDULD
GHVGHHVWXGLDQWHVKDVWDSURIHVLRQDOHVTXHHVWpQLQYROXFUDGRVHQHOPXQGRGHODVÀQDQ]DV
Hector ALonso Bueno Luján
Gerente de Riesgos de Empresas y Corporaciones, BBVA Banco Continental
Global Risk Management - BBVA Group
División Latinoamérica
Cono Sur
Rojas 2128
(C1416 CPX) Buenos Aires, Argentina
www.cengage.com.ar
Pacto Andino: Colombia, Venezuela y Ecuador
Cra. 7 N° 74-21, Piso 8, Ed. Seguros Aurora
Bogotá D.C., Colombia
www.cengage.com.co
México
Corporativo Santa Fe 505, piso 12
Col. Cruz Manca, Santa Fe
05349, Cuajimalpa, México DF
www.cengage.com.mx
El Caribe
Metro Office Park 3 - Barrio Capellania
Suite 201, St. 1, Lot. 3 - Code 00968-1705
Guaynabo, Puerto Rico
www.cengage.com
Download