Eduardo Co ourrt Monteverd de Erick Williamss Rengiffo ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA EDUARDO COURT & ERICK RENGIFO Revisión Técnica Lic. Enrique Fernando Zabos Pouler Estadísticas y Econometría Financiera Court, Eduardo & Rengifo, Erick Court, Eduardo & Rengifo, Erick Estadísticas y Econometría Financiera 1a ed. - Buenos Aires, Cengage Learning Argentina, 2011. 612 p.; 21x27 cm. Directora General Susana de Luque Coordinadora de Edición y Producción Luciana Rabuffetti Edición y Revisión Técnica Lic. Enrique Fernando Zabos Pouler ISBN 978-987-1486-48-9 1. Econometría. 2. Estadística. 3. Enseñanza Superior. I. Rengifo Minaya, Erick Williams. II. Título. CDD 330.015 195 Fecha de catalogación: 14/03/2011 Diseño Sebastián Escandell Verónica De Luca División Latinoamérica Cono Sur Rojas 2128 (C1416CPX) Ciudad Autónoma de Buenos Aires, Argentina www.cengage.com.ar México Corporativo Santa Fe 505, piso 12 Col. Cruz Manca, Santa Fe 05349, Cuajimalpa, México DF www.cengage.com.mx Copyright D.R. 2011 Cengage Learning Argentina, una división de Cengage Learning Inc. Cengage Learning™ es una marca registrada usada bajo permiso. Todos los derechos reservados. Pacto Andino: Colombia, Venezuela y Ecuador Cra. 7 No. 74-21 Piso 8 Ed. Seguros Aurora Bogotá D.C., Colombia www.cengage.com.co Rojas 2128. (C1416CPX) Ciudad Autónoma de Buenos Aires, Argentina. Tel: 54 (11) 4582-0601 El Caribe Metro Office Park 3 - Barrio Capellania Suite 201, St. 1, Lot. 3 - Code 00968-1705 Guaynabo, Puerto Rico www.cengage.com Para mayor información, contáctenos en www.cengage.com o vía e-mail a: clientes.conosur@cengage.com Impreso en MetroColor S.A. Tirada de 1000 ejemplares Impreso en Perú Queda prohibida la reproducción o transmisión total o parcial del texto de la presente obra bajo cualesquiera de las formas, electrónica o mecánica, incluyendo fotocopiado, almacenamiento en algún sistema de recuperación, digitalización, sin el permiso previo y escrito del editor. Su infracción está penada por las leyes 11.723 y 25.446 PA RT E 1 Índice ACERCA DE LOS AUTORES ...................................................................................................................................................................... I PRÓLOGO .........................................................................................................................................................................................................III Capítulo 1 Estadística descriptiva ............................................................................................................................................1 1. INTRODUCCIÓN A LAS ESTADÍSTICAS ...........................................................................................................................................1 2. COLECCIÓN DE DATOS (MUESTREO)................................................................................................................................................3 2.1. El muestreo probabilístico ...........................................................................................................................................................3 2.1.1. Muestreo aleatorio simple ................................................................................................................................................4 2.1.2. Muestreo sistemático ......................................................................................................................................................... 5 2.1.3. Muestreo estratificado simple ........................................................................................................................................5 2.2. El muestreo no probabilístico .................................................................................................................................................... 6 2.2.1. Muestreo basado en el juicio del analista ...................................................................................................................6 2.2.2. Muestreo basado en la facilidad de acceso a los elementos que forman la base del estudio .............. 6 2.2.3. Muestreo basado en un propósito específico ...........................................................................................................6 3. DISTRIBUCIÓN DE FRECUENCIAS ...................................................................................................................................................... 7 4. MEDIDAS DE TENDENCIA CENTRAL.............................................................................................................................................. 11 4.1. El promedio o media..................................................................................................................................................................... 11 4.2. El promedio ponderado .............................................................................................................................................................. 12 4.3. La mediana ........................................................................................................................................................................................ 13 4.4. La moda .............................................................................................................................................................................................. 13 5. MEDIDAS DE DISPERSIÓN ................................................................................................................................................................... 13 5.1. El rango ................................................................................................................................................................................................14 5.2. Los cuartiles ......................................................................................................................................................................................14 5.3. La desviación media absoluta (DMA) ...................................................................................................................................16 5.4. La varianza y la desviación estándar ................................................................................................................................. 18 5.5. La variable estandarizada (z) .................................................................................................................................................. 20 5.6. Coeficiente de variación ............................................................................................................................................................ 21 6. MEDIDAS DE ASOCIACIÓN ................................................................................................................................................................... 22 6.1. El diagrama de series de tiempo ........................................................................................................................................... 22 6.2. El diagrama de dispersión ......................................................................................................................................................... 22 6.3. El coeficiente de correlación ................................................................................................................................................... 26 6.4. El coeficiente de variación........................................................................................................................................................ 28 7. PROBLEMAS PROPUESTOS................................................................................................................................................................ 28 8. ECUACIONES DEL CAPÍTULO ..............................................................................................................................................................31 Capítulo 2 Probabilidades ................................................................................................................................................................. 35 1. INTRODUCCIÓN .......................................................................................................................................................................................... 35 2. DEFINICIONES ............................................................................................................................................................................................. 35 2.1. Experimento..................................................................................................................................................................................... 36 2.2. Variable aleatoria (VA)................................................................................................................................................................ 36 2.2.1. Variables aleatorias discretas ....................................................................................................................................... 36 2.2.2. Variables aleatorias continuas ..................................................................................................................................... 36 2.3. Espacio muestral............................................................................................................................................................................ 37 2.4. Evento ................................................................................................................................................................................................. 37 2.5. Probabilidad ...................................................................................................................................................................................... 37 3. MÉTODOS PARA CALCULAR LAS PROBABILIDADES ......................................................................................................... 37 3.1. Método clásico................................................................................................................................................................................. 38 3.2. Método basado en las frecuencias relativas .................................................................................................................. 38 3.3. Método subjetivo ........................................................................................................................................................................... 40 4. CONTEO........................................................................................................................................................................................................... 40 4.1. El principio de multiplicación ................................................................................................................................................... 40 4.2. Permutaciones .................................................................................................................................................................................41 4.3. Combinaciones .................................................................................................................................................................................41 5. TEORÍA DE CONJUNTOS Y PROBABILIDADES ........................................................................................................................ 42 5.1. Intersección ...................................................................................................................................................................................... 42 5.2. Unión .................................................................................................................................................................................................... 43 5.3. Conjuntos mutuamente excluyentes ................................................................................................................................. 43 5.4. Regla de la suma ............................................................................................................................................................................ 43 5.5. Tablas de contingencias ............................................................................................................................................................. 43 5.6. Diagrama del árbol ........................................................................................................................................................................ 45 5.7. Probabilidad marginal.................................................................................................................................................................. 45 5.8. Probabilidad conjunta ................................................................................................................................................................. 46 5.9. Probabilidad condicional ............................................................................................................................................................ 46 5.10. La regla de la multiplicación......................................................................................................................................................47 5.11. Regla de la multiplicación de eventos independientes..............................................................................................47 6. EL TEOREMA DE BAYES .........................................................................................................................................................................47 7. INDEPENDENCIA ESTADÍSTICA........................................................................................................................................................ 49 7.1. La independencia estadística y el tipo de muestreo ................................................................................................. 50 7.1.1. Muestreo con reemplazo ................................................................................................................................................ 50 7.1.2. Muestreo sin reemplazo...................................................................................................................................................51 8. DISTRIBUCIONES DE PROBABILIDAD .......................................................................................................................................... 52 8.1. Distribuciones de probabilidad discretas.......................................................................................................................... 52 8.1.1. Esperanza matemática.................................................................................................................................................... 53 8.1.2. La varianza y la desviación estándar ......................................................................................................................... 54 8.1.3. La covarianza ...................................................................................................................................................................... 54 8.1.4. El coeficiente de correlación ......................................................................................................................................... 55 8.2. Distribuciones de probabilidad continuas ........................................................................................................................ 56 9. PROBLEMAS PROPUESTOS................................................................................................................................................................ 57 10. ECUACIONES DEL CAPÍTULO ..............................................................................................................................................................61 Capítulo 3 Funciones de distribución de probabilidad discretas ................................................. 65 1. INTRODUCCIÓN .......................................................................................................................................................................................... 65 2. DISTRIBUCIÓN BINOMIAL.................................................................................................................................................................... 66 3. DISTRIBUCIÓN HIPERGEOMÉTRICA .............................................................................................................................................. 72 4. DISTRIBUCIÓN DE POISSON .............................................................................................................................................................. 75 5. PROBLEMAS PROPUESTOS................................................................................................................................................................ 78 6. ECUACIONES DEL CAPÍTULO ............................................................................................................................................................. 82 Capítulo 4 Distribuciones de probabilidad continuas .................................................................................. 85 1. INTRODUCCIÓN .......................................................................................................................................................................................... 85 2. LA DISTRIBUCIÓN UNIFORME .......................................................................................................................................................... 87 3. LA DISTRIBUCIÓN EXPONENCIAL .................................................................................................................................................. 89 4. LA DISTRIBUCIÓN NORMAL ................................................................................................................................................................91 5. APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL USANDO LA NORMAL ..........................................................102 6. LA DISTRIBUCIÓN CHI CUADRADA ..............................................................................................................................................107 7. LA DISTRIBUCIÓN T DE STUDENT ...............................................................................................................................................111 8. LA DISTRIBUCIÓN F DE FISHER .....................................................................................................................................................116 9. LAS DISTRIBUCIONES DE PROBABILIDAD MUESTRAL ..................................................................................................118 9.1 Distribución muestral de la media y de la proporción .............................................................................................120 10. PROBLEMAS PROPUESTOS..............................................................................................................................................................126 11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................131 Capítulo 5 Estadística inferencial: Intervalos de confianza ..............................................................137 1. INTRODUCCIÓN ........................................................................................................................................................................................137 2. DEFINICIONES ...........................................................................................................................................................................................138 3. ESTIMACIÓN PUNTUAL .......................................................................................................................................................................140 4. INTERVALOS DE CONFIANZA..........................................................................................................................................................142 4.1. Intervalos de confianza para la media poblacional (μ) cuando la varianza poblacional (σ 2) es conocida .........................................................................................................143 4.2. Intervalos de confianza para la media poblacional (μ) cuando la varianza poblacional no es conocida...........................................................................................................148 4.3. Intervalos de confianza para el caso de las proporciones ....................................................................................152 5. AJUSTES CUANDO EL TAMAÑO DE LA POBLACIÓN ES PEQUEÑA ...........................................................................154 6. DETERMINACIÓN DEL TAMAÑO DE LA MUESTRA .............................................................................................................155 7. PROBLEMAS PROPUESTOS..............................................................................................................................................................160 8. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................163 Capítulo 6 Estadística inferencial: Pruebas de hipótesis para la media ...........................167 1. INTRODUCCIÓN ........................................................................................................................................................................................167 2. DEFINICIONES ...........................................................................................................................................................................................167 3. PRUEBAS DE HIPÓTESIS .................................................................................................................................................................... 171 3.1. Pruebas de hipótesis para la media poblacional (μ), cuando la varianza poblacional (σ 2 ) es conocida ........................................................................................................ 171 3.2. Pruebas de hipótesis para la media poblacional (μ), cuando la varianza poblacional no es conocida...........................................................................................................177 3.3. Pruebas de hipótesis para las proporciones.................................................................................................................183 4. PROBLEMAS PROPUESTOS..............................................................................................................................................................187 5. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................191 Capítulo 7 Estadística inferencial: Aplicaciones de la chi cuadrada.......................................193 1. INTRODUCCIÓN ........................................................................................................................................................................................193 2. PRUEBAS DE HIPÓTESIS DE LA VARIANZA POBLACIONAL ........................................................................................193 3. OTRAS APLICACIONES DE LA CHI CUADRADA ....................................................................................................................200 3.1. Independencia estadística......................................................................................................................................................200 3.2. Pruebas de bondad de ajuste ...............................................................................................................................................203 4. PROBLEMAS PROPUESTOS..............................................................................................................................................................214 5. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................219 Capítulo 8 Fundamentos de álgebra lineal .............................................................................................................223 1. INTRODUCCIÓN ........................................................................................................................................................................................223 2. GENERALIDADES.....................................................................................................................................................................................224 3. TIPOS ESPECIALES DE MATRICES ................................................................................................................................................224 3.1. Vectores ...........................................................................................................................................................................................224 3.2. Matriz cuadrada............................................................................................................................................................................224 3.3. Matriz nula.......................................................................................................................................................................................224 3.4. Matriz identidad ...........................................................................................................................................................................225 3.5. Matriz simétrica............................................................................................................................................................................225 4. OPERACIONES MATRICIALES BÁSICAS ....................................................................................................................................225 4.1. Matrices transpuestas ..............................................................................................................................................................225 4.2. Suma de matrices ........................................................................................................................................................................226 4.3. Multiplicación de matrices ......................................................................................................................................................226 4.4. Multiplicación escalar ................................................................................................................................................................228 4.5. Producto escalar ..........................................................................................................................................................................228 4.6. Traza de una matriz ...................................................................................................................................................................229 5. EL DETERMINANTE DE UNA MATRIZ .........................................................................................................................................229 5.1. Matriz singular ..............................................................................................................................................................................231 6. MATRIZ INVERSA ....................................................................................................................................................................................232 7. MATRICES IDEMPOTENTES ..............................................................................................................................................................234 8. SISTEMA DE ECUACIONES .................................................................................................................................................................235 9. DEPENDENCIA LINEAL ........................................................................................................................................................................236 10. DERIVADA DE MATRICES ..................................................................................................................................................................237 11. PROBLEMAS PROPUESTOS..............................................................................................................................................................239 12. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................241 Capítulo 9 El modelo de mínimos cuadrados ordinarios (MCO) univariado..................247 1. INTRODUCCIÓN ........................................................................................................................................................................................247 2. EL DIAGRAMA DE DISPERSIÓN Y EL MODELO DE MCO UNIVARIADO ...................................................................248 3. SUPUESTOS DEL MODELO DE MCO .............................................................................................................................................255 4. EL MODELO DE MCO UNIVARIADO ...............................................................................................................................................260 5. EL COEFICIENTE DE DETERMINACIÓN (R2).............................................................................................................................267 6. EL ERROR ESTÁNDAR ..........................................................................................................................................................................271 7. EL ANÁLISIS DE VARIANZA (ANVA)............................................................................................................................................272 8. PRUEBA DE HIPÓTESIS INDIVIDUALES DE LOS COEFICIENTES DE LA REGRESIÓN.....................................275 9. APLICACIÓN USANDO EVIEWS ......................................................................................................................................................281 9.1. Creación de hoja de trabajo e importación de datos ...............................................................................................281 9.2. Análisis preliminar de los datos ...........................................................................................................................................285 9.3. El modelo de MCO ........................................................................................................................................................................289 9.4. Testeo del modelo de equilibrio de activos financieros (Capital Asset Pricing Model - CAPM) ........290 10. PROBLEMAS PROPUESTOS..............................................................................................................................................................296 11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................299 Capítulo 10 El modelo de mínimos cuadrados ordinarios (MCO) multivariado .......305 1. INTRODUCCIÓN ........................................................................................................................................................................................305 2. EL MODELO DE MCO MULTIVARIADO .........................................................................................................................................306 3. PRUEBAS DE BONDAD DE AJUSTE: EL COEFICIENTE DE DETERMINACIÓN (R2) ............................................311 4. VARIANZA DE LOS ERRORES ESTIMADOS .............................................................................................................................312 5. LA VARIANZA DE LOS ESTIMADORES .......................................................................................................................................313 6. PROPIEDADES DE LOS COEFICIENTES ESTIMADOS POR EL MODELO DE MCO ...............................................314 6.1. Insesgamiento ...............................................................................................................................................................................315 6.2. Eficiencia ..........................................................................................................................................................................................315 6.3. Consistencia ...................................................................................................................................................................................315 7. APLICACIÓN: EL MODELO DE VALORACIÓN POR ARBITRAJE (MVA) .....................................................................316 8. HIPÓTESIS LINEALES ...........................................................................................................................................................................321 9. VARIABLES CUALITATIVAS ..............................................................................................................................................................325 9.1. Variables dummy y los valores extremos (outliers) .................................................................................................329 10. NO LINEALIDAD DE LA RELACIÓN ENTRE “Y” Y “X”: REGRESIÓN POLINOMIAL ............................................332 11. PROBLEMAS PROPUESTOS..............................................................................................................................................................335 12. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................340 13. APÉNDICE ....................................................................................................................................................................................................341 13.1. Derivación algebraica de la varianza de los errores.................................................................................................341 13.2. Derivación de la varianza de los parámetros ...............................................................................................................343 13.3. Demostración formal de las propiedades estadísticas de los parámetros estimados ..........................344 Capítulo 11 Prueba de los supuestos del modelo de MCO...............................................................347 1. INTRODUCCIÓN ........................................................................................................................................................................................347 2. SUPUESTOS DEL MODELO DE MCO: UN REPASO ...............................................................................................................348 3. SUPUESTO 1: LINEALIDAD................................................................................................................................................................349 4. SUPUESTO 2: E( ) = 0..........................................................................................................................................................................352 5. SUPUESTO 3A: HOMOCEDASTICIDAD, VAR( ) = ε 5.1. ε σ 2 .......................................................................................................352 El test de heterocedasticidad de White ..........................................................................................................................353 5.2. Consecuencias de la heterocedasticidad ........................................................................................................................357 6. SUPUESTO 3B: NO AUTOCORRELACIÓN, COV( ΕI u ΕJ) = 0 ...........................................................................................360 6.1. Posibles causas de la autocorrelación de los errores..............................................................................................361 6.2. El Test de Durbin-Watson .......................................................................................................................................................361 6.3. El test de Breusch-Godfrey ...................................................................................................................................................363 6.4. Consecuencias de la autocorrelación ...............................................................................................................................365 6.5. Errores estándar ajustados por autocorrelación y heterocedasticidad: El método de Newey-West .....................................................................................................................................................366 6.6. Mala especificación de la dinámica del modelo ...........................................................................................................367 7. SUPUESTO 4: Ε ~ N(0, Σ 2) ...............................................................................................................................................................368 7.1. El test de normalidad de Jarque-Bera ..............................................................................................................................369 7.2. Consecuencias de no normalidad de los errores ........................................................................................................370 7.3. Posibles causas de no normalidad......................................................................................................................................370 8. SUPUESTO 5: ORTOGONALIDAD ..................................................................................................................................................371 9. OTROS PROBLEMAS ASOCIADOS AL MODELO DE MCO .................................................................................................371 9.1. Multicolinealidad ..........................................................................................................................................................................371 9.1.1. Consecuencias de cuasi multicolinealidad .............................................................................................................372 9.1.2. Soluciones al problema de cuasi multicolinealidad.............................................................................................372 9.2. Forma funcional ...........................................................................................................................................................................373 9.2.1. Consecuencias de errores de especificación funcional ..................................................................................373 9.2.2. El test de Ramsey ...........................................................................................................................................................373 9.3. Omisión de variables importantes .....................................................................................................................................375 9.4. Variables redundantes .............................................................................................................................................................377 9.5. Estabilidad de los parámetros estimados ......................................................................................................................379 9.5.1. El test de estabilidad de Chow ...................................................................................................................................380 9.5.2. Test de errores de predicción......................................................................................................................................383 10. PROBLEMAS DEL CAPÍTULO............................................................................................................................................................387 11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................390 12. APÉNDICE ....................................................................................................................................................................................................394 12.1. El modelo de mínimos cuadrados generalizados........................................................................................................394 12.2. El método de Cochrane-Orcutt ............................................................................................................................................396 Capítulo 12 Modelos de series de tiempo ...............................................................................................................399 1. INTRODUCCIÓN ........................................................................................................................................................................................399 2. PROCESOS ESTACIONARIOS............................................................................................................................................................400 2.1. Estacionariedad estricta .........................................................................................................................................................400 2.2. Estacionariedad débil ................................................................................................................................................................401 3. LA AUTOCOVARIANZA, LA AUTOCORRELACIÓN Y EL CORRELOGRAMA............................................................402 3.1. El proceso de ruido blanco......................................................................................................................................................403 3.2. Pruebas de autocorrelación ..................................................................................................................................................403 4. MODELO DE MEDIAS MÓVILES MA(Q)........................................................................................................................................406 5. MODELOS AUTORREGRESIVOS AR(p) .......................................................................................................................................411 6. MODELOS ARMA(P,Q) ...........................................................................................................................................................................420 7. CRITERIOS DE INFORMACIÓN .........................................................................................................................................................422 8. PRONÓSTICOS ..........................................................................................................................................................................................423 5.1. 8.1. Estacionariedad de procesos AR(p) ...................................................................................................................................413 Pronósticos con el modelo AR(p) ........................................................................................................................................424 8.2. Pronósticos con el modelo MA(q) .......................................................................................................................................425 8.3. Pronósticos con el modelo ARMA(p,q) .............................................................................................................................426 8.4. Evaluación de los pronósticos ..............................................................................................................................................427 8.4.1. La media de los errores al cuadrado (Mean Square Error - MSE) ..................................................................428 8.4.2. La media absoluta de los errores (Mean Absolute Error - MAE) ...................................................................428 8.4.3. La media absoluta de errores porcentuales (Mean Absolute Percentage Error - MAPE) ...................428 8.4.4. El coeficiente de desigualdad de Theil (Theil Inequality Coefficient) .........................................................429 8.4.5. Descomposición de los errores de predicción ......................................................................................................429 9. LA METODOLOGÍA DE BOX-JENKINS...........................................................................................................................................430 10. PROBLEMAS DEL CAPÍTULO............................................................................................................................................................439 11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................442 Capítulo 13 Modelos para la volatilidad condicional: Los modelos de heteroscedasticidad condicional autorregresiva .....449 1. INTRODUCCIÓN ........................................................................................................................................................................................449 2. MODELOS BÁSICOS DE VOLATILIDAD .......................................................................................................................................450 3. MODELOS DE HETEROSCEDASTICIDAD CONDICIONAL AUTORREGRESIVA ......................................................452 3.1. El modelo ARCH(q) ......................................................................................................................................................................453 3.2. Los momentos del modelo ARCH........................................................................................................................................454 3.3. Detección de la presencia de los efectos ARCH .........................................................................................................455 3.4. El modelo ARCH generalizado, GARCH(p,q)...................................................................................................................457 3.5. El modelo ARCH-M ......................................................................................................................................................................463 4. LA CURVA DE IMPACTO DE LAS NOTICIAS .............................................................................................................................465 4.1. El modelo TARCH .........................................................................................................................................................................466 4.2. El modelo EGARCH ......................................................................................................................................................................470 4.3. Modelo de componentes ARCH ...........................................................................................................................................476 5. EL PRONÓSTICO DE LA VOLATILIDAD .......................................................................................................................................480 6. PROBLEMAS DEL CAPÍTULO............................................................................................................................................................484 7. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................486 8. APÉNDICE ....................................................................................................................................................................................................490 8.1. La ecuación para la media condicional .............................................................................................................................491 8.2. La ecuación para la varianza condicional .......................................................................................................................491 8.3. El modelo ARCH ............................................................................................................................................................................491 8.4. El modelo GARCH(1,1) como un modelo ARMA(1,1) ...................................................................................................495 5HSUHVHQWDFLyQGHOPRGHOR*$5&+ ST FRPRXQPRGHOR$5&+ ................................................................496 Capítulo 14 Modelos de Series de Tiempo Multivariados y el Concepto de Cointegración ........................................................................................................499 1. INTRODUCCIÓN ........................................................................................................................................................................................499 2. ESTACIONARIEDAD ...............................................................................................................................................................................500 2.1. Tipos de no estacionariedad .................................................................................................................................................501 2.1.1. No estacionariedad en tendencia .............................................................................................................................501 2.1.2. No estacionariedad estocástica ................................................................................................................................504 2.1.3. Diferenciar una serie no estacionaria en tendencia ..........................................................................................505 2.2. Métodos visuales para la detección de no estacionariedad.................................................................................506 2.3. El método aumentado de Dickey-Fuller (ADF).............................................................................................................507 3. EL MODELO AUTORREGRESIVO MÚLTIPLE (VAR) ..............................................................................................................511 3.1. Generalidades................................................................................................................................................................................511 3.2. Determinación del orden de rezagos del modelo VAR............................................................................................515 3.3. Interpretación de los resultados obtenidos con el modelo VAR .......................................................................519 3.3.1. Significancia en bloques y la causalidad de Granger .........................................................................................519 3.3.2. Las funciones de impulso-respuesta ......................................................................................................................520 3.3.3. Descomposición de la varianza ..................................................................................................................................524 3.3.4. Pronósticos ........................................................................................................................................................................525 3.4. Una nota de precaución ...........................................................................................................................................................526 4. COINTEGRACIÓN .....................................................................................................................................................................................526 4.1. El modelo de corrección de errores...................................................................................................................................528 4.2. Determinación de la existencia de vectores de cointegración ..........................................................................529 4.2.1. El método de Engle-Granger .......................................................................................................................................529 4.2.2. El método de Johansen..................................................................................................................................................532 4.3. El modelo VEC: funciones de impulso-respuesta y pronósticos ........................................................................539 5. UN EJEMPLO INTEGRAL ......................................................................................................................................................................544 6. PROBLEMAS DEL CAPÍTULO............................................................................................................................................................555 7. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................556 $SpQGLFHTablas Estadísticas ...............................................................................................................................................561 Distribución binomial: Tablas de frecuencias relativas ........................................................................................................561 Distribución binomial: Tablas de Frecuencias Acumulativas .............................................................................................567 Distribución Poisson: Tablas de Frecuencia Relativa ............................................................................................................572 Distribución Poisson: Tablas de Frecuencia Relativa ............................................................................................................577 Tabla T de Student...................................................................................................................................................................................582 Tabla T de Student...................................................................................................................................................................................583 Tabla T de Student...................................................................................................................................................................................584 Tabla de Distribución Normal Estándar ........................................................................................................................................585 Estadístico de Durbin-Watson (α=0.05) ......................................................................................................................................586 REFERENCIAS BIBLIOGRÁFICAS ...................................................................................................................................................587 C A PÍ T ULO 1 Estadística descriptiva 1. INTRODUCCIÓN A LAS ESTADÍSTICAS Este capítulo introduce las nociones básicas de la teoría estadística y sus aplicaciones en la economía y los negocios. Las estadísticas pueden entenderse como el proceso de recopilar, analizar e interpretar datos y reportar los resultados. Las estadísticas son usadas en una variedad de circunstancias que van desde aplicaciones en el ámbito gubernamental, medicina, negocios y economía, entre otros. Se muestran en este capítulo una serie de técnicas estadísticas que brindarán al lector las herramientas necesarias para la mejor toma de decisiones en ambientes de incertidumbre. El enfoque del capítulo es teórico-práctico. Se presentarán los conceptos estadísticos y su aplicación a casos concretos. Se desarrollarán ejemplos numéricos y, a su vez, se presentarán de manera detallada la forma en que estos problemas pueden ser resueltos con el uso de Microsoft Excel. El primer aspecto que todo analista realiza para cumplir con sus funciones es el entender el problema a tratar. Entendido el problema se procede a enumerar una serie de hipótesis que serán materia de estudio o proyecto. Una vez determinadas las hipótesis se procede a ver la disponibilidad de datos (sean de fuentes primarias o secundarias) y, de acuerdo a esta disponibilidad, se ajustarán las hipótesis a aquellas que puedan ser efectivamente testeadas y se determinarán los métodos de adquisición de datos necesarios. Los métodos de adquisición de los datos pueden ir desde simple recolección primaria de datos propios de la empresa (estados financieros, inventario permanente valorizado, los registros de compras y ventas entre otros) hasta la determinación y ejecución de entrevistas, búsqueda de datos secundarios por internet, etc. 1 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA Acabado el proceso de adquisición de datos, implica para el analista, el comienzo del análisis estadístico propiamente dicho. El primer aspecto a considerar en esta nueva etapa es entender los datos, sus principales características y la determinación y localización de posibles errores que se pudieran haber cometido. En las siguientes secciones se tratará las formas de presentar los datos que ayuden a tener una primera visión de los mismos mediante el uso de tablas de frecuencias y de diversos estadísticos de tendencia central, dispersión y asociación. Antes de proceder, es necesario introducir dos conceptos que serán de gran ayuda para entender los conceptos y técnicas que se exponen en este capítulo. En estadísticas se conoce a la totalidad de datos relacionados a una determinada variable como población. El número de elementos en esta población se denomina N. A cualquier subconjunto de esta población se le conoce como muestra y su tamaño es representado por la letra n. Por ejemplo, si se está interesado en conocer cuál es el promedio de los salarios de la población entre los 15 y 64 años de edad de los Estados Unidos, N sería igual a 205.794.364.1 Si se desea tomar una muestra de la población de 10.000 habitantes, entonces n sería igual a 10.000. *UiÀFRQ Población y muestra Población (N) Muestra (n) En términos prácticos, trabajar con la totalidad de los datos (N) es poco eficiente y realista considerando el tiempo, los recursos económico-financieros y los recursos humanos que serían necesarios para recolectar dicha información. Por lo tanto, y a no ser que el tamaño de la población sea pequeño y de fácil acceso, se trabaja con muestras poblacionales de tamaño n. Ahora bien, la selección de la muestra tiene que hacerse con bastante cuidado, tratando que esta sea una muestra representativa de la población, de tal manera que los resultados obtenidos mediante el análisis estadístico sean válidos, es decir, que sean no sesgados y eficientes. Se desarrollarán con más detalle estos términos en las siguientes secciones. El capítulo se encuentra organizado de la siguiente manera: la sección 2 describe los métodos de recolección de datos más usados; la sección 3 muestra como generar las distribuciones de frecuencias a partir de datos recolectados; finalmente en las secciones 4, 5, y 6 se presentan las medidas de 1 CENTRAL INTELLIGENCE AGENCY, The World FactBook, valores aproximados a julio del 2009. 2 CAPÍTULO 1 Estadística descriptiva tendencia central, dispersión y de asociación, respectivamente. La sección 7 presenta una serie de ejercicios propuestos y la sección 8 incluye la lista de las ecuaciones más importantes del capítulo. 2. COLECCIÓN DE DATOS (MUESTREO) Como se mencionó anteriormente, en la práctica se trabaja con muestras tomadas de determinadas poblaciones. Asimismo, se aludió que las muestras son la base fundamental del análisis, por lo que se debe de prestar particular atención en la forma en la que esta se recolecta. Esta sección presenta los conceptos básicos de la colección de datos, dejando la lectura más avanzada a los libros y artículos mencionados en la bibliografía. Algunos de los conceptos que se necesitan se describen a continuación: t Población, también conocida como Universo, contiene todos los posibles elementos de la variable en estudio. t Muestra, una parte seleccionada de la población. t Censo, se refiere a la recolección de todos los elementos de la población. t Parámetro, una característica de la población. Por ejemplo, la media poblacional (μ), la desviación estándar poblacional (σ), entre otros. t Estadístico, una característica de la muestra. Por ejemplo, la media muestral ( x ), la desviación estándar poblacional (s), entre otros. Error muestral, es el error que aparece debido al uso de la muestra en vez de la población. Es importante notar, que este error puede reducirse al incrementarse el tamaño de la muestra si se usa el muestreo probabilístico que se detalla posteriormente. t t Error no muestral, también conocido como sesgo o error direccional, representa los errores originados en el diseño de la muestra, en una mala comunicación de lo que se quería averiguar en el caso de una entrevista, entre otros. En este caso, el error no muestral no puede disminuir simplemente añadiéndose más observaciones a la muestra. Se tienen que hacer revisiones fundamentales a los procesos, a las entrevistas, etc. En general, antes de determinar el método de muestreo a utilizar, será necesario entender el problema que se tiene a mano y se deberá tratar de determinar las características de los datos a recolectar. Por lo general, se sugiere realizar ciertos análisis exploratorios para entender mejor los datos que se desean recolectar. Se pueden definir dos métodos de muestreo: el muestreo probabilístico y el muestreo no probabilístico. Ambos tipos de muestreo son tratados a continuación. 2.1. El muestreo probabilístico En este tipo de muestreo se supone que todos los elementos de la población tienen la probabilidad de ser elegidos. Sin embargo, no todos tendrán necesariamente la misma probabilidad de 3 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA ser elegidos. Este método es el que debe ser utilizado si la intención es la realización de inferencia estadística. Este método, a su vez, se clasifica en: 2.1.1. Muestreo aleatorio simple En el muestreo aleatorio simple cada elemento o miembro de la población tiene la misma probabilidad de ser elegido. La forma común en la que se selecciona a los miembros de la población es creando números aleatorios. Por ejemplo, si se imagina que se tiene una población de 500 contadores en una determinada ciudad y que se quiere seleccionar aleatoriamente a 10 de ellos. Se supone que se los tiene identificados de acuerdo a un número consecutivo que va desde 1 hasta 500. El procedimiento que se seguirá se describe en la aplicación Excel que presenta a continuación. Primero se creará la cantidad de números aleatorios deseados (en nuestro caso 10). La creación se basa en la distribución uniforme (0,1) con lo que se asegura que los números generados estarán entre 0 y 1. Se multiplica cada uno de los números generados por el tamaño de la población para obtener el número correlativo que permitirá identificar al contador seleccionado por este proceso es decir, los números resultantes representan la identificación de los contadores a ser seleccionados. Por lo normal, se aproximan los números del paso anterior al número inmediato inferior. Por ejemplo, el primer número aleatorio presentado en la aplicación Excel 1, es igual a 191. Esto significa que el contador cuyo número de identificación es 191 será seleccionado para nuestra muestra. $SOLFDFLyQHQ([FHO Generación de Números Aleatorios 4 CAPÍTULO 1 2.1.2. Estadística descriptiva Muestreo sistemático El muestreo sistemático se basa en determinar aleatoriamente un número (conocido como semilla), que se usa para determinar los elementos u observaciones de una población que serán seleccionados. Por ejemplo, se selecciona un número al azar entre 1 y 10, por ejemplo 4. Este número implica que las observaciones que se seleccionarán serán basadas en los múltiplos de este número. Se seleccionarán las observaciones 4, 8, 12, etc. El principal problema de este método es conocido como el de estacionalidad. El problema de estacionalidad ocurre cuando en los datos existen ciertos patrones determinísticos que se repiten de acuerdo a una determinada frecuencia. Un ejemplo clásico es el referido a la venta de helados. Las mayores ventas de helados se producen durante todos los veranos, mientras que las ventas más bajas se dan en el invierno. Si se desean determinar las ventas promedio en unidades de una empresa dedicada a producir helados durante los 10 últimos años, usando datos trimestrales y usando un muestreo sistemático, se puede correr el riesgo que el número semilla coincida exactamente o con el verano (que generaría que el promedio sea inflado) o con el invierno (que haría que el promedio esté subvaluado). De ahí la importancia de conocer los datos con los que se está trabajando para prever todo tipo de problemas que pudieran aparecer y determinar la mejor manera de solucionarlos. 2.1.3. Muestreo estratificado simple Muchas veces la población a estudiar tiene cierta estructura que puede ser identificada a priori. Por ejemplo, si se desea hacer un análisis del nivel de ingresos de la población de un determinado país, se pueden identificar distintos niveles de ingresos de acuerdo a determinados estudios sobre los niveles socio-económicos. Esta estructura de la población debe ser considerada al momento de recolectar los datos para hacer que la muestra resultante sea representativa de la población. Es decir, lo que se trata de replicar es la estructura (o estratos) existente en los datos para luego al interior de cada estrato aplicar un muestreo aleatorio simple. Se analiza el siguiente ejemplo desarrollado con valores hipotéticos: 7DEOD Nivel socio-económico Población Ingresos (en miles de U.M.) Muestra 1 A B C 1.000 (10%) 3.000 (30%) 6.000 (60%) 125 70 25 10 (10%) 80 (80%) 10 (10%) Muestra 2 (muestreo estratificado) 10 (10%) 30 (30%) 60 (60%) Esta tabla presenta la población y, en paréntesis, el porcentaje respecto al total. Por ejemplo, 10% de la población pertenece al nivel socio-económico A. Asimismo, presenta valores de dos muestras hipotéticas de 100 habitantes cada una. Entre paréntesis se encuentra el porcentaje de la misma respecto al total de la muestra. Por ejemplo, en la muestra 1 se seleccionaron a 80 personas del nivel B, lo que representa el 80% del total de la muestra. 5 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA La expresión U.M. se refiere a unidades monetarias. Primero, se supone que el muestreo es completamente aleatorio y que, por azar, el resultado de la selección resulta sesgado (por diversos motivos, como facilidad de acceso a las observaciones, o simplemente por motivos aleatorios). Se supone que esos datos corresponden a la Muestra 1 en la Tabla 1. Aquí se puede observar que el nivel socio-económico B está sobre representado mientras que el nivel C está sub representado con respecto a la población. Si se desearan construir estadísticos con esta muestra los resultados estarían sesgados hacia los valores de la clase B. Por otro lado, la muestra hallada usando un muestreo estratificado simple, la estructura fundamental de la población se ha preservado, generándose de esta manera la representatividad necesaria de la muestra. Es importante notar que en el muestreo estratificado simple, una vez que los estratos han sido formados, para seleccionar a los elementos que comprenderán cada uno de los estratos se aplica una muestra aleatoria simple. 2.2. El muestreo no probabilístico En este caso no todos los elementos de la población tienen la probabilidad de ser seleccionados. En este tipo de muestreo se utiliza bastante la intuición y la experiencia del analista y, por lo general, es utilizado para realizar estudios exploratorios, cuyos resultados no son usados para realizar inferencia acerca de los parámetros poblacionales. Se pueden identificar los tipos de muestreos no probabilísticos que se citan a continuación. 2.2.1. Muestreo basado en el juicio del analista Este tipo de muestreo depende de lo que el analista considere como importante para la construcción de la muestra. Por ejemplo, un auditor contable puede decidir no aplicar ningún muestreo probabilístico como los mencionados anteriormente y, en vez de eso, determinar en base a su experiencia, qué documentos solicitar para su análisis. 2.2.2. Muestreo basado en la facilidad de acceso a los elementos que forman la base del estudio Este muestreo se construye en base a la disponibilidad y facilidad de acceso a los elementos que constituyen la población. Por ejemplo, si un grupo de estudiantes desea construir una muestra para entender de manera preliminar (exploratoria) los hábitos de consumo de café de los clientes de Starbucks; estos pueden concentrar sus esfuerzos en una determinada área geográfica que les sea de fácil acceso. 2.2.3. Muestreo basado en un propósito específico En este tipo de muestreo, los miembros de la muestra son seleccionados con el propósito explícito de ayudar a responder alguna pregunta relevante en el estudio. Por ejemplo, si se desea determinar la 6 CAPÍTULO 1 Estadística descriptiva calidad de un libro básico de introducción a las finanzas, se puede seleccionar a un grupo de alumnos de pregrado con nociones mínimas de finanzas. Si estos estudiantes entienden los conceptos presentados en el libro, esto será una señal que podrá ser fácilmente entendido por estudiantes con cierto nivel de conocimientos de la materia. 3. DISTRIBUCIÓN DE FRECUENCIAS Si el analista cuenta con los datos necesarios para realizar su trabajo, lo primero a hacer será entender los datos con los que se cuenta. Se supone que los datos se refieren a las ventas en unidades de los últimos 10 años los que se muestran a continuación: 7DEOD Año 20X0 20X1 20X2 20X3 20X4 20X5 20X6 20X7 20X8 20X9 Ventas (miles de unidades) 2.540 2.560 2.612 2.630 2.720 2.760 2.785 2.804 2.831 2.935 Una manera bastante fácil y útil para tener un mejor entendimiento de los datos es el crear una tabla de frecuencias. Las tablas de frecuencias presentan la información agrupada de acuerdo a rangos predeterminados. Una posible tabla de frecuencias tiene la siguiente forma: 7DEOD Tabla de frecuencias Clases Frecuencia (2.600, 2.700] (2.700, 2.800] (2.800, 2.900] (2.900, 3.000] Total 2 2 3 2 1 0 10 Frecuencia relativa (%) 20% 20% 30% 20% 10% 0% 100% Frecuencia acumulada 2 4 7 9 10 10 Frecuencia relativa acumulada 20% 40% 70% 90% 100% 100% Los elementos característicos de una tabla de frecuencias son los siguientes: a. Clases: son los rangos en los que se separan los datos. Por ejemplo, (2.600, 2.700] indica que se deben seleccionar las observaciones mayores que 2.600 (no incluyendo 2.600) y menores o iguales a 2.700 (incluyendo 2.700). 7 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA b. Límites de las clases: son los valores que definen el mínimo y máximo valor a incluir en una determinada clase. Por ejemplo, en la clase (2.600, 2.700], los límites son 2.600 y 2.700. c. Rango de las clases: es la diferencia entre el límite máximo y el mínimo. Por ejemplo, en (2.600, 2.700] el rango sería 2.700 - 2.600 = 100. Es importante notar que el rango de todas las clases no tiene que ser necesariamente el mismo, aunque se sugiere que si lo sea por motivos de presentación. d. Marca de clases: Es el punto medio de cada clase. Se calcula sumando el límite inferior al superior y dividiendo el resultado entre 2. Por ejemplo, el valor medio de la clase (2.600, 2.700] es igual a (2.600 + 2.700)/2 = 2.650. Estos valores son importantes para graficar el polígono de frecuencias que se detallará posteriormente. Es importante notar que una tabla de frecuencias está bien estructurada si las clases satisfacen las siguientes características: a. Las clases deben ser mutuamente excluyentes, es decir, los límites entre clases jamás deben pertenecer a más de una clase. Por ejemplo, las clases (2.600, 2.700] y (2.700, 2.800] son mutuamente excluyentes ya que los límites de una clase no están incluidas en la otra: 2.700 está incluida en la primera clase pero no lo está en la segunda. Nótese que “]” significa que el límite está incluido en una clase en particular y, “(” implica que el límite no está incluido en una clase en particular. b. Las clases deben ser exhaustivas, es decir, todas las observaciones en la muestra deben estar incluidas en alguna de las clases. Como puede advertirse en la Tabla 3, todos los valores de Tabla 2 han sido incluidos. La forma de verificar esto es simplemente verificar que el total de la columna “frecuencia” corresponda al número de observaciones de la muestra (en nuestro caso 10). A continuación se describen los resultados presentados en la Tabla 3. 8 a. La primera columna (clases) contiene las clases en las que se dividirán las observaciones. b. La segunda columna (frecuencia) describe el número de observaciones que caen en una determinada clase. Por ejemplo, se observan dos años con ventas entre (2.600, 2.700]. Nótese que la suma de esta columna debe ser igual al tamaño de la muestra. c. La tercera columna (frecuencia relativa) describe el porcentaje de observaciones en una determinada clase. Por ejemplo, el 20% de las ventas fueron entre (2.600, 2.700]. Adviértase que la suma de esta columna debe ser igual al 100%. d. La cuarta columna (frecuencia acumulada) describe el número de observaciones que son menores o iguales al límite superior de una determinada clase. Por ejemplo, se observan 7 años con ventas menores o iguales a 2.800. CAPÍTULO 1 e. Estadística descriptiva La quinta columna (frecuencia relativa acumulada) describe el porcentaje de observaciones que son menores o iguales al límite superior de una determinada clase. Por ejemplo, se observan que el 70% de las ventas fueron menores o iguales a 2.800. Cuando se utilizan los valores de la Tabla 3, se pueden generar algunos gráficos que son de bastante ayuda: a. El histograma: muestra la información contenida en la primera columna de la Tabla 3, es decir presenta las frecuencias. b. El gráfico de las frecuencias relativas acumuladas: muestra la información de la quinta columna de la Tabla 3. Nótese que el máximo valor de las frecuencias relativas acumuladas es 100%. *UiÀFR Histograma y frecuencias relativas acumuladas Frequencia 4 100,00% 80,00% 60,00% 40,00% 20,00% 0,00% 3 2 1 0 2500 2600 2700 2800 2900 3000 More Límites Frequency c. Cumulative % El polígono de frecuencias: muestra la misma información que el histograma, pero de manera más intuitiva, en el sentido que supone que las frecuencias varían gradualmente conforme las observaciones aumentan o disminuyen en el eje de los límites. Para realizar este gráfico se usan los valores medios de las clases como puntos que se ponen en la parte superior de cada rectángulo. El polígono de frecuencias se obtiene uniendo estos puntos. 9 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA *UiÀFR Frequencia Histograma y polígono de frecuencias 4 3 2 1 0 2500 2600 2700 2800 2900 3000 More Límites Frequency Frequency A continuación se presenta la forma en que se pueden realizar estas tablas por medio de Excel. $SOLFDFLyQHQ([FHO Tabla de frecuencias Una vez que se tiene un entendimiento de las características básicas de los datos obtenidos mediante el análisis presentado en esta sección, se procederá a analizar determinados estadísticos que 10 CAPÍTULO 1 Estadística descriptiva proporcionarán un mayor entendimiento de ciertas características claves de los datos en términos de sus medidas de tendencia central, dispersión y asociación. 4. MEDIDAS DE TENDENCIA CENTRAL Las medidas de tendencia central permiten al analista determinar los valores típicos de los datos. En esta sección se analizarán los estadísticos más importantes: el promedio, el promedio ponderado, la media y la moda. Se presentarán los estadísticos para las poblaciones y para las muestras. Para esto se debe recordar que para el tamaño de la población se utilizará N y para el tamaño de la muestra n. 4.1. El promedio o media El promedio o media es también conocido como la media aritmética. La media poblacional, que a partir del momento se identificará con la letra griega “μ” (mu), se calcula de la siguiente manera: N ¦x i P i 1 (1) N Por otra parte, si se trata de la media muestral, para una muestra de tamaño n, este estadístico estará dado por: n ¦x i x i 1 (2) n Donde: x representa el promedio muestral, xi la variable de interés, n el número de observaciones en la muestra y ∑ el operador de suma. (MHPSOR Se supone que se tienen los datos de las ventas anuales correspondientes a los 10 últimos años de una determinada corporación (los datos se encuentran en la Tabla 2) y que desea conocer las ventas anuales promedio: ݔҧ ൌ ʹǤͷͶͲ ʹǤͷͲ ʹǤͳʹ ʹǤ͵Ͳ ʹǤʹͲ ʹǤͲ ʹǤͺͷ ʹǤͺͲͶ ʹǤͺ͵ͳ ʹǤͻ͵ͷ ͳͲ Por lo tanto, x = 2.718. Es decir, que la venta anual promedio durante los últimos 10 años es igual 2.718 U.M. El principal problema de este estadístico es que es muy susceptible a valores extremos. Para entender este problema, se supone que las ventas en unidades del año 20X9 han sido 5.450 en vez de 2.935. El efecto de este cambio se puede notar a continuación: 11 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA ݔҧ ൌ ʹǤͷͶͲ ʹǤͷͲ ʹǤͳʹ ʹǤ͵Ͳ ʹǤʹͲ ʹǤͲ ʹǤͺͷ ʹǤͺͲͶ ʹǤͺ͵ͳ Ǥ ͳͲ Por lo tanto, x = 2.969. Como se puede apreciar, la existencia de un valor extremo, tiende a mover el promedio en la dirección de dicha variable. Dicho de otra manera, un valor mucho mayor que las demás observaciones, tiende a empujar el valor promedio hacia la derecha, mientras que la existencia de un valor extremo mucho menor que las otras observaciones moverá la media hacia la izquierda. Este problema se acentúa cuanto más lejano sea el valor. Una forma de solucionar este problema es no considerar los valores extremos en el cálculo del promedio o utilizar otro estadístico como la mediana. 4.2. El promedio ponderado El promedio considera que toda la información tiene la misma ponderación o importancia en el cálculo del estadístico. Sin embargo, muchas veces cada observación tiene diferente peso o ponderación. Es eso exactamente lo que considera el promedio ponderado. La fórmula del promedio ponderado es: n ¦Z u x xZ i i (3) i 1 Donde: n ¦Z i 1 (4) i 1 En la fórmula anterior, xZ representa el promedio ponderado y Zi la ponderación de cada observación. (MHPSOR Un ejemplo típico en este caso es el cálculo de la rentabilidad de un portafolio. Si se imagina que se tiene la siguiente composición de un determinado portafolio: 10% en renta fija, 70% en acciones y 20% en metales como el oro. Si los rendimientos ganados por cada clase de activo financiero son 2%, 10% y 35%, respectivamente, el promedio ponderado sería calculado de la siguiente manera: ݔҧ߱ ൌ ሺͲǡͳሻ ൈ ሺʹΨሻ ሺͲǡሻ ൈ ሺͳͲΨሻ ሺͲǡʹሻ ൈ ሺ͵ͷΨሻ ൌ ͳͶǡʹΨ Es decir, que la rentabilidad promedio del portafolio es igual a 14,2%. 12 CAPÍTULO 1 Estadística descriptiva 4.3. La mediana La mediana representa el valor medio de los datos debidamente ordenados ya sea de manera ascendente o descendente. Si el número de observaciones es impar, la mediana se encuentra en la posición (n + 1)/2 y si el número de observaciones es par la mediana corresponde al promedio de las dos observaciones centrales que se localizan en las posiciones (n/2) y [(n/2) + 1]. (MHPSOR Se supone que se tienen las siguientes observaciones en orden ascendente: 1, 4, 7, 10 y 15. En este caso n (número de observaciones) es igual a 5, por lo tanto, la mediana se encuentra en la posición (5 + 1)/2 = 3, es decir, la mediana de esta muestra es igual a 7. Por otro lado, si se tiene la siguiente muestra ordenada de manera ascendente: 1, 4, 7, 10, 15, 18; las posiciones de los valores que determinarán la media son 6/2 = 3 y (6/2) + 1 = 4. Por lo tanto, la mediana será igual a (7 + 10)/2 = 8,5. La ventaja de la mediana respecto al promedio es que es inmune a los valores extremos. Por ejemplo, si se toma la primera serie del primer párrafo de este ejemplo y se reemplaza el último valor 15 por 25. La nueva serie resultante será: 1, 4, 7, 10, 25. Como se puede ver la mediana sigue siendo 7 independientemente de los valores extremos. 4.4. La moda La moda corresponde al valor que se observa más frecuentemente en la muestra. Si una serie tiene una sola moda se llamara unimodal; si tiene dos modas se llamará bimodal y si tiene más de dos modas se llamará multimodal. (MHPSOR Si se tiene la siguiente serie: 2, 4, 3, 5, 3, 1 y 9 la moda será 3, es decir, el número que aparece más frecuentemente en esta serie es el número 3. En este caso, esta serie es unimodal. 5. MEDIDAS DE DISPERSIÓN Las medidas de dispersión permiten al analista determinar cuán dispersos son los valores de los datos respecto a alguna medida de tendencia central, usualmente el promedio. Estas medidas de dispersión son de gran uso en las finanzas ya que la dispersión de los valores de las observaciones está asociada con el nivel de riesgo o incertidumbre asociada con la variable observada. Se tratará este tema en detalle en las siguientes secciones de este capítulo. A continuación se analizarán algunos de los estadísticos de dispersión más importantes: el rango, los cuartiles, la desviación media absoluta, la varianza y la desviación estándar, la variable estandarizada y el coeficiente de variación. 13 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA Para un mejor entendimiento de los conceptos se utilizarán los datos de la presente tabla: 7DEOD Año 20X0 20X1 20X2 20X3 20X4 20X5 20X6 20X7 20X8 20X9 Gastos en publicidad (miles de U.M.) 110 115 127 138 147 150 175 160 170 180 5.1. El rango El rango se calcula de la siguiente manera: Rango = valor máximo – valor mínimo (MHPSOR El rango de las observaciones presentadas en la Tabla 4 será: 180 – 110 = 70. Es importante recalcar que el rango, al solo usar los valores extremos, sufre del mismo problema que el promedio. Es decir, su valor es sensible a los valores extremos. 5.2. Los cuartiles Los cuartiles dividen los datos en cuatro grupos, cada uno de los cuales contiene el 25% de las observaciones de la muestra. La estrategia para calcular los cuartiles es el siguiente: a. Encontrar la posición de cada uno de los límites de los cuartiles ( Q1p , Q2p y Q3p ) de la siguiente manera: ܳͳ ൌ ሺ݊ͳሻ Ͷ ǡ ܳʹ ൌ ʹൈሺ݊ ͳሻ Ͷ ͵ܳݕൌ ͵ൈሺ݊ͳሻ Ͷ (5) Se advierte que la posición del segundo cuartil corresponde a la ubicación de la mediana, es decir que el segundo cuartil será siempre igual a la mediana. b. 14 Una vez localizada la posición se procede a determinar el valor que corresponde a la posición encontrada en el paso a. En caso que esta posición no sea un número entero se procede a realizar una interpolación lineal tal como se explica a continuación. C A PÍ T ULO 12 Modelos de series de tiempo 1. INTRODUCCIÓN Los modelos de series de tiempo tratan de explotar la información contenida en la historia de las mismas variables. Estos modelos son conocidos como modelos en forma reducida o no estructurales, ya que no han sido derivados de un modelo teórico económico o financiero. Estos modelos son de bastante uso en finanzas, porque usualmente las predicciones obtenidas con estos modelos son mejores que las obtenidas con los modelos estructurales. Este capítulo introduce de manera bastante práctica los principales modelos de series de tiempo. Se empezará presentando en la sección 2 la definición de un proceso estocástico, la definición de procesos fuerte y débilmente estacionarios. La sección 3 trata sobre las autocovarianzas, autocorrelaciones y el correlograma. También esta sección introduce los principales métodos para detectar las autocorrelaciones. A continuación se desarrollan, en las secciones 4, 5 y 6, los modelos autorregresivos AR(p), los modelos de medias móviles MA(q), y los modelos ARMA(p,q), respectivamente. La sección 7 está destinada a la forma matemática de determinar el orden de los modelos de series de tiempo mediante los criterios de información. La sección 8 desarrolla el tema de los pronósticos y la forma de verificar su calidad. La sección 9 presenta el método de Box-Jenkins para el trabajo con modelos de series de tiempo. Se muestra este método mediante el desarrollo de un ejemplo numérico usando EViews. Finalmente, en las secciones 10 y 11 se encuentran los ejercicios y ecuaciones del capítulo, respectivamente. 399 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA 2. PROCESOS ESTACIONARIOS Un concepto clave en los modelos de series de tiempo es el conocido como procesos estocásticos. Un proceso estocástico es una secuencia de números aleatorios. El proceso estocástico se escribirá como { yi } para i = 1, 2,… Si este índice representa tiempo, el proceso estocástico se llamará serie de tiempo. Si se asigna un posible valor de y por cada i se estará construyendo una posible realización del proceso estocástico. El principal problema en los modelos de series de tiempo es que en la realidad solo se observa el proceso estocástico en una de sus varias posibles realizaciones. Por lo tanto, solo se puede obtener un set de estadísticos (media, varianza, etc.) dadas las observaciones disponibles. En teoría, si se pudieran observar todas las posibles realizaciones del proceso estocástico, se podrían calcular los parámetros poblacionales (tal como la media poblacional) simplemente como el promedio de todas las realizaciones. Sin embargo, la realidad no se muestra de distintas maneras: solo existe una realización de la realidad. Esto inmediatamente presenta una limitación que se debe tratar de solucionar. En esta sección del capítulo se tratará el concepto de estacionariedad, que en síntesis significa que todas las observaciones de la series de tiempo provienen de la misma distribución de probabilidad y que, si a su vez el proceso no es muy persistente, cada observación contendrá información valorable que no está presente en ninguna de las otras observaciones, por lo que los estadísticos obtenidos de las observaciones serán consistentes con sus respectivos parámetros poblacionales. Por ejemplo, la media de estas observaciones en el tiempo será consistente con la media poblacional. El concepto de estacionariedad tiene dos versiones: la estacionariedad estricta y la estacionariedad débil, que se procede a explicar a continuación. 2.1. Estacionariedad estricta Un proceso estocástico { yi } con i = 1, 2,…T es estrictamente estacionario si, para un número real finito r y para cualquier conjunto de subíndices i1 , i2 ,…, iT : Fyi , yi 1 2 ,..., yiT ( y1 ,..., yT ) Fyi r , yi r ,..., yi r ( y1 ,..., yT ) 1 2 T (1) Es decir, que la distribución conjunta de { yi } con i = 1, 2,…T, depende solo de la distancia r y no de i, es decir, la probabilidad conjunta de ( y1, y11 ) es la misma que ( y51 , y61 ) (nótese que en este caso r = 10). Lo importante para la distribución es la posición relativa de la secuencia. Además, esto quiere decir que la probabilidad que y caiga en algún intervalo en particular es siempre la misma. Por lo tanto, si un proceso estocástico es estrictamente estacionario: la media, la varianza y otros momentos de la distribución serán los mismos para todo i. Ejemplos de series estrictamente estacionarias incluyen los procesos independientes e idénticamente distribuidos (i.i.d.). Muchos procesos son no estacionarios simplemente porque tienen una tendencia determinística. Es decir, que si se remueve la tendencia, la serie de tiempo se convertirá en una serie estacionaria. A dichas series se les conoce como series estacionarias con tendencia. Asimismo, si se tiene una serie 400 CAPÍTULO 12 Modelos de series de tiempo de tiempo que no es estacionaria pero que su diferencia sí lo es, se conoce como serie estacionaria en diferencias. 2.2. Estacionariedad débil Un proceso estocástico { yi } con i = 1, 2,…T es débilmente estacionario si se cumple lo siguiente: E ( yi ) P E ( yi P ) 2 (2) V2 f cov( yi , yi j ) J i (i j ) (3) Jj (4) La ecuación (4) dice que es la posición relativa ( j) lo importante y no la absoluta (i). Por ejemplo: cov y1 , y11 cov y51 , y61 J 11 (5) (MHPSOR El gráfico (1) presenta la evolución del índice Dow Jones Industrial Average (DJIA) y el gráfico (2) presenta la serie de tiempo de los retornos del mismo índice (RDJIA). *UiÀFR 401 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA *UiÀFR Como se puede observar el gráfico de los precios (DJIA) es un proceso no estacionario, mientras que el gráfico de los retornos (RDJIA) parece serlo. Una forma fácil de ver por qué la primera serie es no estacionaria es tomando un intervalo de un tamaño fijo en dos puntos distantes y calcular el promedio. Se asume por ejemplo, que se toman las siguientes observaciones del DJIA: 1982 hasta 1984 y del 2002 al 2004 (intervalos de 3 años cada uno). De acuerdo al concepto de estacionariedad, si se hace esto y la serie es en realidad estacionaria, se esperaría que las medias sean iguales. Sin embargo, solo observando el gráfico se advierte que este no será el caso, puesto que el índice estaba entre 3.638,06 y 2.278,20 entre enero de 1982 y diciembre de 1984 y, entre 616,53 y 421,98 entre enero del 2002 y diciembre del 2004. En cambio si se observa la serie de los retornos, las medias estarán bastante cercanas en los mismos intervalos de tiempo, lo que puede indicar que efectivamente esta serie de tiempo es estacionaria. Posteriormente se presentará la forma econométrica de determinar la estacionariedad de las series. 3. LA AUTOCOVARIANZA, LA AUTOCORRELACIÓN Y EL CORRELOGRAMA Se supone que el subíndice i representa el tiempo, por lo tanto, el proceso estocástico { yi } , i = 1, 2,…T será una serie de tiempo. La autocovarianza se expresa como γj y se la define como: cov( yi , yi j ) J i (i j ) Jj (6) Como se mencionó anteriormente, la autocovarianza solo depende de j (la posición relativa). La varianza de la serie de tiempo {yi } será igual a: cov( yi , yi ) var ( yi ) J i i 402 J0 (7) CAPÍTULO 12 Modelos de series de tiempo Por lo tanto, la autocorrelación de orden j ( ρj ) se definirá como el ratio entre la autocovarianza de orden j y la varianza: Uj cov( yi , yi j ) Jj J0 var ( yi ) (8) Con j = 1, 2,… Si j = 0, ρj = 1. Ahora bien, si se grafica la evolución en el tiempo de ρj , se estará construyendo lo que se conoce como el correlograma. 3.1. El proceso de ruido blanco El proceso de ruido blanco (White Noise Process) es un proceso débilmente estacionario con media constante y no autocorrelación. Es decir, en un proceso de ruido blanco se cumple: E ( yi ) P cov( yi , yi - j ) J j (9) 0jz0 cov( yi , yi ) J 0 V2 (10) (11) 3.2. Pruebas de autocorrelación Se recuerda que la autocorrelación muestral se calcula de la siguiente manera: Jˆ j n 1 u ¦ ( yt y ) u ( yt j y ) n j t j 1 (12) Obsérvese que se divide entre n - j y no entre n, para que el estadístico sea insesgado. Esto es importante si se está trabajando con una muestra pequeña. Sin embargo, si la muestra es lo suficientemente grande n - j será bastante aproximado a n. La media de la serie se calcula como es usual: n ¦y i y t 1 (13) n Se sigue a nivel muestral y se define la autocorrelación muestral como: Uˆ j Jˆ j Jˆ0 (14) Dado esto, se presentan a continuación los test empleados para determinar la presencia de autocorrelación. El primer método se basa en la siguiente propiedad asintótica: n u Uˆ o N (0, I m ) d (15) 403 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA Donde: Uˆ ( Uˆ1 , Uˆ 2 ,..., Uˆ m ). Esta ecuación establece que las autocorrelaciones ρ asintóticamente se distribuyen como una normal estándar. Por lo tanto, se pueden construir intervalos de confianza para la autocorrelación poblacional de la siguiente manera: 1 º » n¼ ª U « r zD /2 u ¬ (16) (MHPSOR Si el nivel de confianza deseado es del 90% (nivel de significancia α = 10%), el valor de z α/2 será igual a 1,645.1 Por lo tanto, el intervalo de confianza para las autocorrelaciones poblacionales será: ª U « r1, 645 u ¬ 1 º » n¼ (17) Existen otros métodos que permiten determinar la existencia de autocorrelaciones hasta un determinado orden (m), que se presentan a continuación. El método de Box-Pierce y el método de Ljung-Box permiten testear la siguiente hipótesis nula: H 0 : U1 U3 ... U m U2 0 (18) El test de Box-Pierce se calcula mediante: m Box Pierce(Q) n u ¦ UÖ 2j j 1 m ¦( n u UÖ j )2 F 2 (m) (19) j 1 El test de Ljung-Box: m UÖ 2j j 1 n j Ljung Box(Q) n u (n 2) u ¦ m n2 ¦ n j u( n u UÖ j )2 F 2 (m) (20) j 1 Ambas pruebas se distribuyen como una chi cuadrada debido a que n u Uˆ es asintóticamente independiente y distribuida como una normal estándar. Por lo tanto, la suma al cuadrado de estos números es asintóticamente chi-cuadrada. Los grados de libertad de esta distribución son iguales a m, que representa el número de rezagos deseados. El método de Ljung-Box es preferido cuando el tamaño de la muestra es pequeño. Como se puede observar, la diferencia entre estos dos métodos desaparece conforme n (número de observaciones) se incrementa. 1 Se recomienda al lector remitirse al capítulo 5 para un detallado tratamiento de los intervalos de confianza. 404 CAPÍTULO 12 Modelos de series de tiempo El problema con ambos test es que no existe una metodología clara para seleccionar el número de rezagos (m). Si se escoge un m muy pequeño, el riesgo que no se estén capturando autocorrelaciones de orden superior aumentará. Por otro lado, si el número m es demasiado grande las propiedades asintóticas del test se pueden perder y la distribución no será más la chi cuadrada. (MHPSOR En esta parte se presenta un ejemplo ficticio que permite entender cómo es que estos test son utilizados en la práctica. Se parte del hecho que se han calculado las tres primeras autocorrelaciones de los retornos de algún instrumento financiero. Se supone que el número de observaciones es igual a 50 y que el nivel de confianza deseado es igual al 90%. Finalmente, se asume que las autocorrelaciones obtenidas son las siguientes: Uˆ1 1, 25; Uˆ 2 0, 22; Uˆ3 0, 02 . Primero, se estima el intervalo de confianza para las autocorrelaciones: ª U « r1, 645 u ¬ 1 º » o U > 0, 2326;0, 2326@ 50 ¼ Con base en este intervalo de confianza, solo la primera autocorrelación no está en el intervalo. Por lo que este será un indicio de la presencia de autocorrelación de primer orden. Ahora se presenta la forma en que las pruebas de Box-Pierce y Ljung-Box son calculadas: Box Pierce(Q) m ¦( n u Uˆ j ) 2 ( 50 u1, 25) 2 ( 50 u 0, 22) 2 ( 50 u 0, 02) 2 j 1 (21) Box Pierce(Q) 80,565 Ljung Box(Q) m n2 ¦ n j u( n Uˆ j ) 2 j 1 § 50 2 · § 50 2 · § 50 2 · 2 2 2 Ljung Box(Q) ¨ ¸ u ( 50 u1, 25) ¨ ¸ u ( 50 u 0, 22) ¨ ¸ u ( 50 u 0, 02) (22) 50 1 50 2 50 3 © ¹ © ¹ © ¹ Ljung Box(Q) 85,55 La hipótesis nula en este caso es: H 0 : U1 U2 U3 0 (23) Esto significa que se prueba la no existencia de autocorrelación de hasta tercer orden. Se conoce que ambas pruebas se distribuyen como una chi cuadrada con 3 grados de libertad (m = 3). Si se desea un nivel de significancia del 10% (es una prueba no direccional, por lo que cada cola será igual al 5%), el valor crítico superior de la chi cuadrada para estos grados de libertad será igual a 7,8148. 405 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA Por lo tanto, como los valores de las pruebas son 80,565 y 85,55, para el Box-Pierce and Ljung-Box, respectivamente; se rechazará la hipótesis nula. Lo que significa que existe autocorrelación significativa hasta el tercer rezago. El valor crítico, se ha hallado usando el comando de Excel “PRUEBA.CHI.INV ” o “CHIINV ”, según se trate de la versión en español o inglés. La siguiente aplicación muestra la forma de usar Excel para hallar este valor crítico: $SOLFDFLyQGH([FHO Valores críticos de la chi cuadrada n 50 nivel de confianza 0,9 rezagos (m) 3 α/2 grados de libertad 0,05 3 Chi_inferior 0,351846 Chi_superior 7,814728 Se advierte que se tienen dos valores críticos porque se trata de una prueba no direccional. En las siguientes secciones se comienzan a presentar varios modelos de series de tiempo. 4. MODELO DE MEDIAS MÓVILES MA(q) El proceso de medias móviles o (MA) por sus siglas en inglés (Moving Averages) es un modelo que supone que la variable puede ser explicada por un cierto número de rezagos (q) de los errores, es decir: yt P ut T1 u ut 1 T 2 u ut 2 ... T q u ut q (24) Donde los errores (u) son i.i.d. con media cero y varianza σ 2. A partir de esta sección se cambia el uso del subíndice i por t para referirse al tiempo. Se puede reescribir esta ecuación de la siguiente manera: q yt P ¦ T j u ut j ut (25) j 1 Antes de continuar, se define el siguiente operador matemático L, que será de gran utilidad en lo que queda del capítulo: Lm yt 406 yt m (26) CAPÍTULO 12 Modelos de series de tiempo Por ejemplo, Lyt yt-1 , L2yt yt-2 . Si se emplea esta notación en la ecuación (26): q yt P ¦ T j u Lj ut ut (27) j 1 Finalmente, si se define: 4( L) 1 T1 u L T 2 u L2 ... T q u Lq (28) La ecuación (27) se puede escribir como: yt P 4( L)ut (29) En la ecuación (28) se requiere que todas las raíces características de 4( L) caigan fuera del círculo unitario; es decir, que cada raíz de r en la siguiente ecuación característica sea mayor que uno en valor absoluto: 1 T1 u r T 2 u r 2 ... T q u r q 0 (30) Esta condición, conocida como la condición de invertibilidad, asegura que el modelo MA(q), representado como un modelo AR(∞) converja a cero, es decir, que ( 4( L) )-1 tienda a cero. En otras palabras, esta condición asegura que el modelo MA(q) no es explosivo. Esta condición es muy parecida a la condición de estacionariedad del modelo AR(p) que se discutirá en la próxima sección. También, esta condición será de vital importancia al momento de trabajar con modelos ARMA(p,q). La estrategia a seguir cuando se trabaja con series de tiempo es determinar la función de autocorrelación presentada en la ecuación (8). Para eso se necesitan los siguientes componentes: la media, la varianza y las autocovarianzas. La estrategia presentada para este modelo será la misma que la que se utilizará para los otros modelos de series temporales. Para mostrar la técnica se supone el siguiente modelo MA(3): yt P ut T1 u ut 1 T 2 u ut 2 T3 u ut 3 (31) Se recuerda que se asumió que u es un ruido blanco con media cero y varianza σ 2. Se calcula el valor esperado de esta ecuación. Se toma la esperanza matemática a ambas partes de la ecuación (31): E ( yt ) E ( P ut T1 u ut 1 T 2 u ut 2 T3 u ut 3 ) E ( yt ) E ( P ) E (ut ) T1 u E (ut 1 ) T 2 u E (ut 2 ) T3 u E (ut 3 ) P (32) Como los errores son ruidos blancos con media cero, ecuación (32) será igual a: E ( yt ) P (33) 407 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA A continuación se calcula la varianza de y. Se recuerda que la varianza se define como: var ( yt ) J 0 ^ E ª¬ yt E yt º¼ 2 ` E[( yt P ) 2 ] (34) Sin perder generalidad en este proceso, se asume que μ = 0 y se desarrolla la ecuación (34): E[ yt 2 ] E[(ut T1 u ut 1 T 2 u ut 2 T3 u ut 3 ) 2 ] var ( yt ) J 0 (35) Si se opera: 2 2 2 Ȗ0 E[(ut2 +ș12 ×ut-1 +ș22 ×ut-2 +ș32 ×ut-3 +(2×ș1 ×ut ×ut-1 +otros términos cruzados)] (36) Se analiza el primer término cruzado que se presenta en la ecuación (2 u θ1 u ut u ut-1 ). Para esto se recuerda que la covarianza se define como: cov (ut , ut j ) E (ut u ut j ) E (ut ) u E (ut j ) E (ut u ut j ) (37) Asimismo, como los errores son ruidos blancos, la autocovarianza de los errores es cero, obsérvese la ecuación (10). Por lo tanto, cuando se aplique el operador de la esperanza a cada uno de los términos cruzados en la ecuación (36), estos serán iguales a cero. Lo que queda por ver ahora es qué pasa con los primeros elementos de la ecuación (36): 2 2 2 var(yt )= Ȗ 0 E(ut2 )+ș12 × E(ut-1 )+ș22 × E(ut-2 )+ș32 × E(ut-3 ) var(yt )= Ȗ 0 V 2 ș12 u V 2 ș22 u V 2 ș32 u V 2 var(yt )= Ȗ 0 V 2 u (1+ș12 ș22 ș32 (38) Ahora, lo que queda por calcular son las autocovarianzas de este modelo. Para eso se recuerda que: cov ( yt , yt j ) E ( yt u yt j ) E ( yt ) u E ( yt j ) E ( yt u yt j ) (39) En esta ecuación se sigue con el supuesto que μ = 0, es decir que E(y t ) = E(yt-1 ) = 0. Se procede a calcular la autocovarianza de primer orden: cov( yt , yt 1 ) E( yt u yt 1 ) E[(ut T1 u ut 1 T2 u ut 2 T3 u ut 3 ) u (ut 1 T1 u ut 2 T2 u ut 3 T3 u ut 4 )] (40) Si se opera: 2 2 2 cov(yt , yt-1 )= E(yt u yt-1 )= E[ș1 u Xt-1 ș1 u ș2 u Xt-2 ș2 u ș3 u Xt-3 Wérminos cruzados] (41) 408 CAPÍTULO 12 Modelos de series de tiempo De nuevo, al aplicar el operador de la esperanza a los términos cruzados estos desaparecerán de la ecuación. Se analiza la primera parte de esta ecuación: 2 2 2 ș1 u ș2 u ( Xt-2 ș2 u ș3 u ( Xt-3 cov(yt , yt-1 ) =J 1 =ș1 u ( Xt-1 cov(yt , yt-1 ) =J 1 =ș1 u V 2 +ș1 u ș2 u V 2 +ș2 u ș3 u V 2 (42) cov(yt , yt-1 ) =J 1 =V 2 u (ș1 ș1 u ș2 ș2 u ș3 Se hace lo mismo para determinar las autocovarianzas de orden superior: cov ( yt ,yt 2 ) E( yt u yt 2 ) E[(ut T1 u ut 1 T2 u ut 2 T3 u ut 3 ) u (ut 2 T1 u ut 3 T2 u ut 4 T3 u ut 5 )] (43) 2 2 cov(yt , yt-2 )= E(yt u yt-2 )= E[ș2 u Xt-2 ș1 u ș3 u Xt-3 Wérminos cruzados] (44) Si se opera, se obtiene: 2 2 cov(yt , yt-2 ) =J 2 =ș2 u ( Xt-2 ș1 u ș3 u ( Xt-3 cov(yt , yt-2 ) =J 2 =ș2 u ı 2 ș1 u ș3 u ı 2 (45) cov(yt , yt-2 ) =J 2 =ı u ș2 ș1 u ș3 2 La autocovarianza de tercer orden: cov ( yt ,yt 3 ) E( yt u yt 3 ) E[(ut T1 u ut 1 T2 u ut 2 T3 u ut 3 ) u (ut 3 T1 u ut 4 T2 u ut 5 T3 u ut 6 )] (46) 2 cov(yt , yt-3 )= E(yt u yt-3 )= E[ș3 u Xt-3 Wérminos cruzados] (47) Por lo tanto: 2 cov(yt , yt-3 )=J 3 =ș3 u ( Xt-3 cov(yt , yt-3 )=J 3 =ı 2 u ș3 (48) Como se puede apreciar, las covarianzas de orden mayor a 3 solo tendrán elementos cruzados, por lo que las covarianzas serán iguales a cero: cov(yt , yt- j )= E(yt u yt- j )= 0 j > 3 (49) Finalmente, se calculan las autocorrelaciones de acuerdo a la ecuación (8): U1 J1 J0 ı 2 u ș1 ș1 u ș2 ș2 u ș3 ș ș u ș ș u ș = 1 12 2 2 2 2 3 2 2 2 2 ı u ș1 ș2 ș3 ș1 ș2 ș3 (50) 409 ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA Este libro de los profesores Eduardo Court y Erick Rengifo ofrece un análisis riguroso y exhaustivo de la compleja interacción entre la estadística, econometría y los mercados ÀQDQFLHURV\HVXQDFRQWULEXFLyQPX\LPSRUWDQWHDODOLWHUDWXUDHVSDxRODGHORVPHUFDGRV ÀQDQFLHURV/DLPSOHPHQWDFLyQGHGLIHUHQWHVPRGHORVKDFHTXHHODOFDQFHGHOOLEURVHDEDVWDQWHDPSOLR\PX\SUiFWLFR(VWHOLEURHVGHOHFWXUDREOLJDWRULDSDUDHVWXGLDQWHV\SURIHVLRQDOHVGHODVÀQDQ]DV Joseph Quinlan Chief Market Strategist and Managing Director for Global Wealth and Investment Management at US Trust. US Trust is the private Wealth management arm of Bank of America Este libro constituye un valioso aporte de Eduardo Court y Erick Rengifo a la literatura ÀQDQFLHUD\DTXHSUHVHQWDQGHPDQHUDPX\VHQFLOOD\GLGiFWLFDORVDVSHFWRVIXQGDPHQWDOHVGHODWHRUtDHVWDGtVWLFD\VXDSOLFDFLyQDODVGLVWLQWDVKHUUDPLHQWDV\PRGHORVTXHXWLOL]DQ ORVDJHQWHVÀQDQFLHURV(OPXQGRPRGHUQRJHQHUDFDGDYH]PiVLQVWUXPHQWRV\RSHUDWLYDV ÀQDQFLHUDVGHPD\RUFRPSOHMLGDG\VRÀVWLFDFLyQ(VWRH[LJHDVXYH]HQWHQGHU\H[SOLFDUOD GHWHUPLQDFLyQ\PHGLFLyQGHORVQXHYRVULHVJRVTXHVHGHULYDQGHHOORVHVDTXtTXHODVKHUUDPLHQWDV\PRGHORV HFRQRPHWUtDÀQDQFLHUD VHFRQVWLWX\HQFRPRXQEXHQVRSRUWHSDUD ODWRPDGHGHFLVLRQHV&RQVLGHURHVWHOLEURGHPXFKDLPSRUWDQFLD\GHOHFWXUDQHFHVDULD GHVGHHVWXGLDQWHVKDVWDSURIHVLRQDOHVTXHHVWpQLQYROXFUDGRVHQHOPXQGRGHODVÀQDQ]DV Hector ALonso Bueno Luján Gerente de Riesgos de Empresas y Corporaciones, BBVA Banco Continental Global Risk Management - BBVA Group División Latinoamérica Cono Sur Rojas 2128 (C1416 CPX) Buenos Aires, Argentina www.cengage.com.ar Pacto Andino: Colombia, Venezuela y Ecuador Cra. 7 N° 74-21, Piso 8, Ed. Seguros Aurora Bogotá D.C., Colombia www.cengage.com.co México Corporativo Santa Fe 505, piso 12 Col. Cruz Manca, Santa Fe 05349, Cuajimalpa, México DF www.cengage.com.mx El Caribe Metro Office Park 3 - Barrio Capellania Suite 201, St. 1, Lot. 3 - Code 00968-1705 Guaynabo, Puerto Rico www.cengage.com