Estadísticas y Economía Financiera. 1a. edición. Eduardo Court Monteverde y Erick Rengifo

Page 1

Eduardo Co ourrt Monteverd de Erick Williamss Rengiffo



ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA

EDUARDO COURT & ERICK RENGIFO

Revisión Técnica Lic. Enrique Fernando Zabos Pouler


Estadísticas y Econometría Financiera Court, Eduardo & Rengifo, Erick

Court, Eduardo & Rengifo, Erick Estadísticas y Econometría Financiera 1a ed. - Buenos Aires, Cengage Learning Argentina, 2011. 612 p.; 21x27 cm.

Directora General Susana de Luque Coordinadora de Edición y Producción Luciana Rabuffetti Edición y Revisión Técnica Lic. Enrique Fernando Zabos Pouler

ISBN 978-987-1486-48-9 1. Econometría. 2. Estadística. 3. Enseñanza Superior. I. Rengifo Minaya, Erick Williams. II. Título. CDD 330.015 195 Fecha de catalogación: 14/03/2011

Diseño Sebastián Escandell Verónica De Luca

División Latinoamérica Cono Sur Rojas 2128 (C1416CPX) Ciudad Autónoma de Buenos Aires, Argentina www.cengage.com.ar México Corporativo Santa Fe 505, piso 12 Col. Cruz Manca, Santa Fe 05349, Cuajimalpa, México DF www.cengage.com.mx Copyright D.R. 2011 Cengage Learning Argentina, una división de Cengage Learning Inc. Cengage Learning™ es una marca registrada usada bajo permiso. Todos los derechos reservados.

Pacto Andino: Colombia, Venezuela y Ecuador Cra. 7 No. 74-21 Piso 8 Ed. Seguros Aurora Bogotá D.C., Colombia www.cengage.com.co

Rojas 2128. (C1416CPX) Ciudad Autónoma de Buenos Aires, Argentina. Tel: 54 (11) 4582-0601

El Caribe Metro Office Park 3 - Barrio Capellania Suite 201, St. 1, Lot. 3 - Code 00968-1705 Guaynabo, Puerto Rico www.cengage.com

Para mayor información, contáctenos en www.cengage.com o vía e-mail a: clientes.conosur@cengage.com Impreso en MetroColor S.A. Tirada de 1000 ejemplares Impreso en Perú

Queda prohibida la reproducción o transmisión total o parcial del texto de la presente obra bajo cualesquiera de las formas, electrónica o mecánica, incluyendo fotocopiado, almacenamiento en algún sistema de recuperación, digitalización, sin el permiso previo y escrito del editor. Su infracción está penada por las leyes 11.723 y 25.446


PA RT E

1 Índice

ACERCA DE LOS AUTORES ...................................................................................................................................................................... I PRÓLOGO .........................................................................................................................................................................................................III

Capítulo 1 Estadística descriptiva ............................................................................................................................................1 1.

INTRODUCCIÓN A LAS ESTADÍSTICAS ...........................................................................................................................................1

2.

COLECCIÓN DE DATOS (MUESTREO)................................................................................................................................................3 2.1.

El muestreo probabilístico ...........................................................................................................................................................3 2.1.1.

Muestreo aleatorio simple ................................................................................................................................................4

2.1.2. Muestreo sistemático ......................................................................................................................................................... 5 2.1.3. Muestreo estratificado simple ........................................................................................................................................5 2.2. El muestreo no probabilístico .................................................................................................................................................... 6 2.2.1. Muestreo basado en el juicio del analista ...................................................................................................................6 2.2.2. Muestreo basado en la facilidad de acceso a los elementos que forman la base del estudio .............. 6 2.2.3. Muestreo basado en un propósito específico ...........................................................................................................6 3.

DISTRIBUCIÓN DE FRECUENCIAS ...................................................................................................................................................... 7

4.

MEDIDAS DE TENDENCIA CENTRAL.............................................................................................................................................. 11 4.1.

El promedio o media..................................................................................................................................................................... 11

4.2. El promedio ponderado .............................................................................................................................................................. 12 4.3. La mediana ........................................................................................................................................................................................ 13 4.4. La moda .............................................................................................................................................................................................. 13 5.

MEDIDAS DE DISPERSIÓN ................................................................................................................................................................... 13 5.1.

El rango ................................................................................................................................................................................................14

5.2. Los cuartiles ......................................................................................................................................................................................14


5.3. La desviación media absoluta (DMA) ...................................................................................................................................16 5.4. La varianza y la desviación estándar ................................................................................................................................. 18 5.5. La variable estandarizada (z) .................................................................................................................................................. 20 5.6. Coeficiente de variación ............................................................................................................................................................ 21 6.

MEDIDAS DE ASOCIACIÓN ................................................................................................................................................................... 22 6.1.

El diagrama de series de tiempo ........................................................................................................................................... 22

6.2. El diagrama de dispersión ......................................................................................................................................................... 22 6.3. El coeficiente de correlación ................................................................................................................................................... 26 6.4. El coeficiente de variación........................................................................................................................................................ 28 7.

PROBLEMAS PROPUESTOS................................................................................................................................................................ 28

8.

ECUACIONES DEL CAPÍTULO ..............................................................................................................................................................31

Capítulo 2 Probabilidades ................................................................................................................................................................. 35 1.

INTRODUCCIÓN .......................................................................................................................................................................................... 35

2.

DEFINICIONES ............................................................................................................................................................................................. 35 2.1.

Experimento..................................................................................................................................................................................... 36

2.2. Variable aleatoria (VA)................................................................................................................................................................ 36 2.2.1. Variables aleatorias discretas ....................................................................................................................................... 36 2.2.2. Variables aleatorias continuas ..................................................................................................................................... 36 2.3. Espacio muestral............................................................................................................................................................................ 37 2.4. Evento ................................................................................................................................................................................................. 37 2.5. Probabilidad ...................................................................................................................................................................................... 37 3.

MÉTODOS PARA CALCULAR LAS PROBABILIDADES ......................................................................................................... 37 3.1.

Método clásico................................................................................................................................................................................. 38

3.2. Método basado en las frecuencias relativas .................................................................................................................. 38 3.3. Método subjetivo ........................................................................................................................................................................... 40 4.

CONTEO........................................................................................................................................................................................................... 40 4.1.

El principio de multiplicación ................................................................................................................................................... 40

4.2. Permutaciones .................................................................................................................................................................................41 4.3. Combinaciones .................................................................................................................................................................................41 5.

TEORÍA DE CONJUNTOS Y PROBABILIDADES ........................................................................................................................ 42 5.1.

Intersección ...................................................................................................................................................................................... 42

5.2. Unión .................................................................................................................................................................................................... 43 5.3. Conjuntos mutuamente excluyentes ................................................................................................................................. 43 5.4. Regla de la suma ............................................................................................................................................................................ 43 5.5. Tablas de contingencias ............................................................................................................................................................. 43 5.6. Diagrama del árbol ........................................................................................................................................................................ 45 5.7.

Probabilidad marginal.................................................................................................................................................................. 45

5.8. Probabilidad conjunta ................................................................................................................................................................. 46 5.9. Probabilidad condicional ............................................................................................................................................................ 46 5.10. La regla de la multiplicación......................................................................................................................................................47 5.11. Regla de la multiplicación de eventos independientes..............................................................................................47 6.

EL TEOREMA DE BAYES .........................................................................................................................................................................47


7.

INDEPENDENCIA ESTADÍSTICA........................................................................................................................................................ 49 7.1.

La independencia estadística y el tipo de muestreo ................................................................................................. 50 7.1.1.

Muestreo con reemplazo ................................................................................................................................................ 50

7.1.2. Muestreo sin reemplazo...................................................................................................................................................51 8.

DISTRIBUCIONES DE PROBABILIDAD .......................................................................................................................................... 52 8.1.

Distribuciones de probabilidad discretas.......................................................................................................................... 52 8.1.1. Esperanza matemática.................................................................................................................................................... 53 8.1.2. La varianza y la desviación estándar ......................................................................................................................... 54 8.1.3. La covarianza ...................................................................................................................................................................... 54 8.1.4. El coeficiente de correlación ......................................................................................................................................... 55

8.2. Distribuciones de probabilidad continuas ........................................................................................................................ 56 9.

PROBLEMAS PROPUESTOS................................................................................................................................................................ 57

10. ECUACIONES DEL CAPÍTULO ..............................................................................................................................................................61

Capítulo 3 Funciones de distribución de probabilidad discretas ................................................. 65 1.

INTRODUCCIÓN .......................................................................................................................................................................................... 65

2.

DISTRIBUCIÓN BINOMIAL.................................................................................................................................................................... 66

3.

DISTRIBUCIÓN HIPERGEOMÉTRICA .............................................................................................................................................. 72

4.

DISTRIBUCIÓN DE POISSON .............................................................................................................................................................. 75

5.

PROBLEMAS PROPUESTOS................................................................................................................................................................ 78

6.

ECUACIONES DEL CAPÍTULO ............................................................................................................................................................. 82

Capítulo 4 Distribuciones de probabilidad continuas .................................................................................. 85 1.

INTRODUCCIÓN .......................................................................................................................................................................................... 85

2.

LA DISTRIBUCIÓN UNIFORME .......................................................................................................................................................... 87

3.

LA DISTRIBUCIÓN EXPONENCIAL .................................................................................................................................................. 89

4.

LA DISTRIBUCIÓN NORMAL ................................................................................................................................................................91

5.

APROXIMACIÓN DE LA DISTRIBUCIÓN BINOMIAL USANDO LA NORMAL ..........................................................102

6.

LA DISTRIBUCIÓN CHI CUADRADA ..............................................................................................................................................107

7.

LA DISTRIBUCIÓN T DE STUDENT ...............................................................................................................................................111

8.

LA DISTRIBUCIÓN F DE FISHER .....................................................................................................................................................116

9.

LAS DISTRIBUCIONES DE PROBABILIDAD MUESTRAL ..................................................................................................118 9.1

Distribución muestral de la media y de la proporción .............................................................................................120

10. PROBLEMAS PROPUESTOS..............................................................................................................................................................126 11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................131

Capítulo 5 Estadística inferencial: Intervalos de confianza ..............................................................137 1.

INTRODUCCIÓN ........................................................................................................................................................................................137

2.

DEFINICIONES ...........................................................................................................................................................................................138

3.

ESTIMACIÓN PUNTUAL .......................................................................................................................................................................140

4.

INTERVALOS DE CONFIANZA..........................................................................................................................................................142 4.1.

Intervalos de confianza para la media poblacional (μ) cuando la varianza poblacional (σ 2) es conocida .........................................................................................................143


4.2. Intervalos de confianza para la media poblacional (μ) cuando la varianza poblacional no es conocida...........................................................................................................148 4.3. Intervalos de confianza para el caso de las proporciones ....................................................................................152 5.

AJUSTES CUANDO EL TAMAÑO DE LA POBLACIÓN ES PEQUEÑA ...........................................................................154

6.

DETERMINACIÓN DEL TAMAÑO DE LA MUESTRA .............................................................................................................155

7.

PROBLEMAS PROPUESTOS..............................................................................................................................................................160

8.

ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................163

Capítulo 6 Estadística inferencial: Pruebas de hipótesis para la media ...........................167 1.

INTRODUCCIÓN ........................................................................................................................................................................................167

2.

DEFINICIONES ...........................................................................................................................................................................................167

3.

PRUEBAS DE HIPÓTESIS .................................................................................................................................................................... 171 3.1.

Pruebas de hipótesis para la media poblacional (μ), cuando la varianza poblacional (σ 2 ) es conocida ........................................................................................................ 171

3.2. Pruebas de hipótesis para la media poblacional (μ), cuando la varianza poblacional no es conocida...........................................................................................................177 3.3. Pruebas de hipótesis para las proporciones.................................................................................................................183 4.

PROBLEMAS PROPUESTOS..............................................................................................................................................................187

5.

ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................191

Capítulo 7 Estadística inferencial: Aplicaciones de la chi cuadrada.......................................193 1.

INTRODUCCIÓN ........................................................................................................................................................................................193

2.

PRUEBAS DE HIPÓTESIS DE LA VARIANZA POBLACIONAL ........................................................................................193

3.

OTRAS APLICACIONES DE LA CHI CUADRADA ....................................................................................................................200 3.1.

Independencia estadística......................................................................................................................................................200

3.2. Pruebas de bondad de ajuste ...............................................................................................................................................203 4.

PROBLEMAS PROPUESTOS..............................................................................................................................................................214

5.

ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................219

Capítulo 8 Fundamentos de álgebra lineal .............................................................................................................223 1.

INTRODUCCIÓN ........................................................................................................................................................................................223

2.

GENERALIDADES.....................................................................................................................................................................................224

3.

TIPOS ESPECIALES DE MATRICES ................................................................................................................................................224 3.1.

Vectores ...........................................................................................................................................................................................224

3.2. Matriz cuadrada............................................................................................................................................................................224 3.3. Matriz nula.......................................................................................................................................................................................224 3.4. Matriz identidad ...........................................................................................................................................................................225 3.5. Matriz simétrica............................................................................................................................................................................225 4.

OPERACIONES MATRICIALES BÁSICAS ....................................................................................................................................225 4.1.

Matrices transpuestas ..............................................................................................................................................................225

4.2. Suma de matrices ........................................................................................................................................................................226 4.3. Multiplicación de matrices ......................................................................................................................................................226 4.4. Multiplicación escalar ................................................................................................................................................................228 4.5. Producto escalar ..........................................................................................................................................................................228


4.6. Traza de una matriz ...................................................................................................................................................................229 5.

EL DETERMINANTE DE UNA MATRIZ .........................................................................................................................................229 5.1.

Matriz singular ..............................................................................................................................................................................231

6.

MATRIZ INVERSA ....................................................................................................................................................................................232

7.

MATRICES IDEMPOTENTES ..............................................................................................................................................................234

8.

SISTEMA DE ECUACIONES .................................................................................................................................................................235

9.

DEPENDENCIA LINEAL ........................................................................................................................................................................236

10. DERIVADA DE MATRICES ..................................................................................................................................................................237 11. PROBLEMAS PROPUESTOS..............................................................................................................................................................239 12. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................241

Capítulo 9 El modelo de mínimos cuadrados ordinarios (MCO) univariado..................247 1.

INTRODUCCIÓN ........................................................................................................................................................................................247

2.

EL DIAGRAMA DE DISPERSIÓN Y EL MODELO DE MCO UNIVARIADO ...................................................................248

3.

SUPUESTOS DEL MODELO DE MCO .............................................................................................................................................255

4.

EL MODELO DE MCO UNIVARIADO ...............................................................................................................................................260

5.

EL COEFICIENTE DE DETERMINACIÓN (R2).............................................................................................................................267

6.

EL ERROR ESTÁNDAR ..........................................................................................................................................................................271

7.

EL ANÁLISIS DE VARIANZA (ANVA)............................................................................................................................................272

8.

PRUEBA DE HIPÓTESIS INDIVIDUALES DE LOS COEFICIENTES DE LA REGRESIÓN.....................................275

9.

APLICACIÓN USANDO EVIEWS ......................................................................................................................................................281 9.1.

Creación de hoja de trabajo e importación de datos ...............................................................................................281

9.2. Análisis preliminar de los datos ...........................................................................................................................................285 9.3. El modelo de MCO ........................................................................................................................................................................289 9.4. Testeo del modelo de equilibrio de activos financieros (Capital Asset Pricing Model - CAPM) ........290 10. PROBLEMAS PROPUESTOS..............................................................................................................................................................296 11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................299

Capítulo 10 El modelo de mínimos cuadrados ordinarios (MCO) multivariado .......305 1.

INTRODUCCIÓN ........................................................................................................................................................................................305

2.

EL MODELO DE MCO MULTIVARIADO .........................................................................................................................................306

3.

PRUEBAS DE BONDAD DE AJUSTE: EL COEFICIENTE DE DETERMINACIÓN (R2) ............................................311

4.

VARIANZA DE LOS ERRORES ESTIMADOS .............................................................................................................................312

5.

LA VARIANZA DE LOS ESTIMADORES .......................................................................................................................................313

6.

PROPIEDADES DE LOS COEFICIENTES ESTIMADOS POR EL MODELO DE MCO ...............................................314 6.1.

Insesgamiento ...............................................................................................................................................................................315

6.2. Eficiencia ..........................................................................................................................................................................................315 6.3. Consistencia ...................................................................................................................................................................................315 7.

APLICACIÓN: EL MODELO DE VALORACIÓN POR ARBITRAJE (MVA) .....................................................................316

8.

HIPÓTESIS LINEALES ...........................................................................................................................................................................321

9.

VARIABLES CUALITATIVAS ..............................................................................................................................................................325 9.1.

Variables dummy y los valores extremos (outliers) .................................................................................................329

10. NO LINEALIDAD DE LA RELACIÓN ENTRE “Y” Y “X”: REGRESIÓN POLINOMIAL ............................................332 11. PROBLEMAS PROPUESTOS..............................................................................................................................................................335


12. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................340 13. APÉNDICE ....................................................................................................................................................................................................341 13.1. Derivación algebraica de la varianza de los errores.................................................................................................341 13.2. Derivación de la varianza de los parámetros ...............................................................................................................343 13.3. Demostración formal de las propiedades estadísticas de los parámetros estimados ..........................344

Capítulo 11 Prueba de los supuestos del modelo de MCO...............................................................347 1.

INTRODUCCIÓN ........................................................................................................................................................................................347

2.

SUPUESTOS DEL MODELO DE MCO: UN REPASO ...............................................................................................................348

3.

SUPUESTO 1: LINEALIDAD................................................................................................................................................................349

4.

SUPUESTO 2: E( ) = 0..........................................................................................................................................................................352

5.

SUPUESTO 3A: HOMOCEDASTICIDAD, VAR( ) =

ε

5.1.

ε σ

2 .......................................................................................................352

El test de heterocedasticidad de White ..........................................................................................................................353

5.2. Consecuencias de la heterocedasticidad ........................................................................................................................357 6.

SUPUESTO 3B: NO AUTOCORRELACIÓN, COV( ΕI u ΕJ) = 0 ...........................................................................................360 6.1.

Posibles causas de la autocorrelación de los errores..............................................................................................361

6.2. El Test de Durbin-Watson .......................................................................................................................................................361 6.3. El test de Breusch-Godfrey ...................................................................................................................................................363 6.4. Consecuencias de la autocorrelación ...............................................................................................................................365 6.5. Errores estándar ajustados por autocorrelación y heterocedasticidad: El método de Newey-West .....................................................................................................................................................366 6.6. Mala especificación de la dinámica del modelo ...........................................................................................................367 7.

SUPUESTO 4: Ε ~ N(0, Σ 2) ...............................................................................................................................................................368 7.1.

El test de normalidad de Jarque-Bera ..............................................................................................................................369

7.2.

Consecuencias de no normalidad de los errores ........................................................................................................370

7.3.

Posibles causas de no normalidad......................................................................................................................................370

8.

SUPUESTO 5: ORTOGONALIDAD ..................................................................................................................................................371

9.

OTROS PROBLEMAS ASOCIADOS AL MODELO DE MCO .................................................................................................371 9.1.

Multicolinealidad ..........................................................................................................................................................................371 9.1.1. Consecuencias de cuasi multicolinealidad .............................................................................................................372 9.1.2. Soluciones al problema de cuasi multicolinealidad.............................................................................................372

9.2. Forma funcional ...........................................................................................................................................................................373 9.2.1. Consecuencias de errores de especificación funcional ..................................................................................373 9.2.2. El test de Ramsey ...........................................................................................................................................................373 9.3. Omisión de variables importantes .....................................................................................................................................375 9.4. Variables redundantes .............................................................................................................................................................377 9.5. Estabilidad de los parámetros estimados ......................................................................................................................379 9.5.1. El test de estabilidad de Chow ...................................................................................................................................380 9.5.2. Test de errores de predicción......................................................................................................................................383 10. PROBLEMAS DEL CAPÍTULO............................................................................................................................................................387 11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................390 12. APÉNDICE ....................................................................................................................................................................................................394 12.1. El modelo de mínimos cuadrados generalizados........................................................................................................394 12.2. El método de Cochrane-Orcutt ............................................................................................................................................396


Capítulo 12 Modelos de series de tiempo ...............................................................................................................399 1.

INTRODUCCIÓN ........................................................................................................................................................................................399

2.

PROCESOS ESTACIONARIOS............................................................................................................................................................400 2.1.

Estacionariedad estricta .........................................................................................................................................................400

2.2. Estacionariedad débil ................................................................................................................................................................401 3.

LA AUTOCOVARIANZA, LA AUTOCORRELACIÓN Y EL CORRELOGRAMA............................................................402 3.1.

El proceso de ruido blanco......................................................................................................................................................403

3.2. Pruebas de autocorrelación ..................................................................................................................................................403 4.

MODELO DE MEDIAS MÓVILES MA(Q)........................................................................................................................................406

5.

MODELOS AUTORREGRESIVOS AR(p) .......................................................................................................................................411

6.

MODELOS ARMA(P,Q) ...........................................................................................................................................................................420

7.

CRITERIOS DE INFORMACIÓN .........................................................................................................................................................422

8.

PRONÓSTICOS ..........................................................................................................................................................................................423

5.1.

8.1.

Estacionariedad de procesos AR(p) ...................................................................................................................................413

Pronósticos con el modelo AR(p) ........................................................................................................................................424

8.2. Pronósticos con el modelo MA(q) .......................................................................................................................................425 8.3. Pronósticos con el modelo ARMA(p,q) .............................................................................................................................426 8.4. Evaluación de los pronósticos ..............................................................................................................................................427 8.4.1. La media de los errores al cuadrado (Mean Square Error - MSE) ..................................................................428 8.4.2. La media absoluta de los errores (Mean Absolute Error - MAE) ...................................................................428 8.4.3. La media absoluta de errores porcentuales (Mean Absolute Percentage Error - MAPE) ...................428 8.4.4. El coeficiente de desigualdad de Theil (Theil Inequality Coefficient) .........................................................429 8.4.5. Descomposición de los errores de predicción ......................................................................................................429 9.

LA METODOLOGÍA DE BOX-JENKINS...........................................................................................................................................430

10. PROBLEMAS DEL CAPÍTULO............................................................................................................................................................439 11. ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................442

Capítulo 13 Modelos para la volatilidad condicional: Los modelos de heteroscedasticidad condicional autorregresiva .....449 1.

INTRODUCCIÓN ........................................................................................................................................................................................449

2.

MODELOS BÁSICOS DE VOLATILIDAD .......................................................................................................................................450

3.

MODELOS DE HETEROSCEDASTICIDAD CONDICIONAL AUTORREGRESIVA ......................................................452 3.1.

El modelo ARCH(q) ......................................................................................................................................................................453

3.2. Los momentos del modelo ARCH........................................................................................................................................454 3.3. Detección de la presencia de los efectos ARCH .........................................................................................................455 3.4. El modelo ARCH generalizado, GARCH(p,q)...................................................................................................................457 3.5. El modelo ARCH-M ......................................................................................................................................................................463 4.

LA CURVA DE IMPACTO DE LAS NOTICIAS .............................................................................................................................465 4.1.

El modelo TARCH .........................................................................................................................................................................466

4.2. El modelo EGARCH ......................................................................................................................................................................470 4.3. Modelo de componentes ARCH ...........................................................................................................................................476 5.

EL PRONÓSTICO DE LA VOLATILIDAD .......................................................................................................................................480

6.

PROBLEMAS DEL CAPÍTULO............................................................................................................................................................484

7.

ECUACIONES DEL CAPÍTULO ...........................................................................................................................................................486


8.

APÉNDICE ....................................................................................................................................................................................................490 8.1.

La ecuaciĂłn para la media condicional .............................................................................................................................491

8.2. La ecuaciĂłn para la varianza condicional .......................................................................................................................491 8.3. El modelo ARCH ............................................................................................................................................................................491 8.4. El modelo GARCH(1,1) como un modelo ARMA(1,1) ...................................................................................................495 5HSUHVHQWDFLyQ GHO PRGHOR *$5&+ S T FRPR XQ PRGHOR $5&+ Â’ ................................................................496

CapĂ­tulo 14 Modelos de Series de Tiempo Multivariados y el Concepto de CointegraciĂłn ........................................................................................................499 1.

INTRODUCCIĂ“N ........................................................................................................................................................................................499

2.

ESTACIONARIEDAD ...............................................................................................................................................................................500 2.1.

Tipos de no estacionariedad .................................................................................................................................................501 2.1.1.

No estacionariedad en tendencia .............................................................................................................................501

2.1.2. No estacionariedad estocĂĄstica ................................................................................................................................504 2.1.3. Diferenciar una serie no estacionaria en tendencia ..........................................................................................505 2.2. MĂŠtodos visuales para la detecciĂłn de no estacionariedad.................................................................................506 2.3. El mĂŠtodo aumentado de Dickey-Fuller (ADF).............................................................................................................507 3.

EL MODELO AUTORREGRESIVO MĂšLTIPLE (VAR) ..............................................................................................................511 3.1.

Generalidades................................................................................................................................................................................511

3.2. DeterminaciĂłn del orden de rezagos del modelo VAR............................................................................................515 3.3. InterpretaciĂłn de los resultados obtenidos con el modelo VAR .......................................................................519 3.3.1. Significancia en bloques y la causalidad de Granger .........................................................................................519 3.3.2. Las funciones de impulso-respuesta ......................................................................................................................520 3.3.3. DescomposiciĂłn de la varianza ..................................................................................................................................524 3.3.4. PronĂłsticos ........................................................................................................................................................................525 3.4. Una nota de precauciĂłn ...........................................................................................................................................................526 4.

COINTEGRACIĂ“N .....................................................................................................................................................................................526 4.1.

El modelo de correcciĂłn de errores...................................................................................................................................528

4.2. DeterminaciĂłn de la existencia de vectores de cointegraciĂłn ..........................................................................529 4.2.1. El mĂŠtodo de Engle-Granger .......................................................................................................................................529 4.2.2. El mĂŠtodo de Johansen..................................................................................................................................................532 4.3. El modelo VEC: funciones de impulso-respuesta y pronĂłsticos ........................................................................539 5.

UN EJEMPLO INTEGRAL ......................................................................................................................................................................544

6.

PROBLEMAS DEL CAPĂ?TULO............................................................................................................................................................555

7.

ECUACIONES DEL CAPĂ?TULO ...........................................................................................................................................................556

$SpQGLFH ‡ Tablas Estadísticas ...............................................................................................................................................561 Distribución binomial: Tablas de frecuencias relativas ........................................................................................................561 Distribución binomial: Tablas de Frecuencias Acumulativas .............................................................................................567 Distribución Poisson: Tablas de Frecuencia Relativa ............................................................................................................572 Distribución Poisson: Tablas de Frecuencia Relativa ............................................................................................................577 Tabla T de Student...................................................................................................................................................................................582 Tabla T de Student...................................................................................................................................................................................583


Tabla T de Student...................................................................................................................................................................................584 Tabla de Distribución Normal Estándar ........................................................................................................................................585 Estadístico de Durbin-Watson (α=0.05) ......................................................................................................................................586

REFERENCIAS BIBLIOGRÁFICAS ...................................................................................................................................................587



C A PÍ T ULO

1 Estadística descriptiva

1.

INTRODUCCIÓN A LAS ESTADÍSTICAS

Este capítulo introduce las nociones básicas de la teoría estadística y sus aplicaciones en la economía y los negocios. Las estadísticas pueden entenderse como el proceso de recopilar, analizar e interpretar datos y reportar los resultados. Las estadísticas son usadas en una variedad de circunstancias que van desde aplicaciones en el ámbito gubernamental, medicina, negocios y economía, entre otros. Se muestran en este capítulo una serie de técnicas estadísticas que brindarán al lector las herramientas necesarias para la mejor toma de decisiones en ambientes de incertidumbre. El enfoque del capítulo es teórico-práctico. Se presentarán los conceptos estadísticos y su aplicación a casos concretos. Se desarrollarán ejemplos numéricos y, a su vez, se presentarán de manera detallada la forma en que estos problemas pueden ser resueltos con el uso de Microsoft Excel. El primer aspecto que todo analista realiza para cumplir con sus funciones es el entender el problema a tratar. Entendido el problema se procede a enumerar una serie de hipótesis que serán materia de estudio o proyecto. Una vez determinadas las hipótesis se procede a ver la disponibilidad de datos (sean de fuentes primarias o secundarias) y, de acuerdo a esta disponibilidad, se ajustarán las hipótesis a aquellas que puedan ser efectivamente testeadas y se determinarán los métodos de adquisición de datos necesarios. Los métodos de adquisición de los datos pueden ir desde simple recolección primaria de datos propios de la empresa (estados financieros, inventario permanente valorizado, los registros de compras y ventas entre otros) hasta la determinación y ejecución de entrevistas, búsqueda de datos secundarios por internet, etc.

1


ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA

Acabado el proceso de adquisición de datos, implica para el analista, el comienzo del análisis estadístico propiamente dicho. El primer aspecto a considerar en esta nueva etapa es entender los datos, sus principales características y la determinación y localización de posibles errores que se pudieran haber cometido. En las siguientes secciones se tratará las formas de presentar los datos que ayuden a tener una primera visión de los mismos mediante el uso de tablas de frecuencias y de diversos estadísticos de tendencia central, dispersión y asociación. Antes de proceder, es necesario introducir dos conceptos que serán de gran ayuda para entender los conceptos y técnicas que se exponen en este capítulo. En estadísticas se conoce a la totalidad de datos relacionados a una determinada variable como población. El número de elementos en esta población se denomina N. A cualquier subconjunto de esta población se le conoce como muestra y su tamaño es representado por la letra n. Por ejemplo, si se está interesado en conocer cuál es el promedio de los salarios de la población entre los 15 y 64 años de edad de los Estados Unidos, N sería igual a 205.794.364.1 Si se desea tomar una muestra de la población de 10.000 habitantes, entonces n sería igual a 10.000. *UiÀFR Q Población y muestra

Población (N)

Muestra (n)

En términos prácticos, trabajar con la totalidad de los datos (N) es poco eficiente y realista considerando el tiempo, los recursos económico-financieros y los recursos humanos que serían necesarios para recolectar dicha información. Por lo tanto, y a no ser que el tamaño de la población sea pequeño y de fácil acceso, se trabaja con muestras poblacionales de tamaño n. Ahora bien, la selección de la muestra tiene que hacerse con bastante cuidado, tratando que esta sea una muestra representativa de la población, de tal manera que los resultados obtenidos mediante el análisis estadístico sean válidos, es decir, que sean no sesgados y eficientes. Se desarrollarán con más detalle estos términos en las siguientes secciones. El capítulo se encuentra organizado de la siguiente manera: la sección 2 describe los métodos de recolección de datos más usados; la sección 3 muestra como generar las distribuciones de frecuencias a partir de datos recolectados; finalmente en las secciones 4, 5, y 6 se presentan las medidas de 1 CENTRAL INTELLIGENCE AGENCY, The World FactBook, valores aproximados a julio del 2009.

2


CAPÍTULO 1

Estadística descriptiva

tendencia central, dispersión y de asociación, respectivamente. La sección 7 presenta una serie de ejercicios propuestos y la sección 8 incluye la lista de las ecuaciones más importantes del capítulo. 2.

COLECCIÓN DE DATOS (MUESTREO)

Como se mencionó anteriormente, en la práctica se trabaja con muestras tomadas de determinadas poblaciones. Asimismo, se aludió que las muestras son la base fundamental del análisis, por lo que se debe de prestar particular atención en la forma en la que esta se recolecta. Esta sección presenta los conceptos básicos de la colección de datos, dejando la lectura más avanzada a los libros y artículos mencionados en la bibliografía. Algunos de los conceptos que se necesitan se describen a continuación: t

Población, también conocida como Universo, contiene todos los posibles elementos de la variable en estudio.

t

Muestra, una parte seleccionada de la población.

t

Censo, se refiere a la recolección de todos los elementos de la población.

t

Parámetro, una característica de la población. Por ejemplo, la media poblacional (μ), la desviación estándar poblacional (σ), entre otros.

t

Estadístico, una característica de la muestra. Por ejemplo, la media muestral ( x ), la desviación estándar poblacional (s), entre otros. Error muestral, es el error que aparece debido al uso de la muestra en vez de la población. Es importante notar, que este error puede reducirse al incrementarse el tamaño de la muestra si se usa el muestreo probabilístico que se detalla posteriormente.

t

t

Error no muestral, también conocido como sesgo o error direccional, representa los errores originados en el diseño de la muestra, en una mala comunicación de lo que se quería averiguar en el caso de una entrevista, entre otros. En este caso, el error no muestral no puede disminuir simplemente añadiéndose más observaciones a la muestra. Se tienen que hacer revisiones fundamentales a los procesos, a las entrevistas, etc.

En general, antes de determinar el método de muestreo a utilizar, será necesario entender el problema que se tiene a mano y se deberá tratar de determinar las características de los datos a recolectar. Por lo general, se sugiere realizar ciertos análisis exploratorios para entender mejor los datos que se desean recolectar. Se pueden definir dos métodos de muestreo: el muestreo probabilístico y el muestreo no probabilístico. Ambos tipos de muestreo son tratados a continuación. 2.1. El muestreo probabilístico

En este tipo de muestreo se supone que todos los elementos de la población tienen la probabilidad de ser elegidos. Sin embargo, no todos tendrán necesariamente la misma probabilidad de 3


ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA

ser elegidos. Este método es el que debe ser utilizado si la intención es la realización de inferencia estadística. Este método, a su vez, se clasifica en: 2.1.1.

Muestreo aleatorio simple

En el muestreo aleatorio simple cada elemento o miembro de la población tiene la misma probabilidad de ser elegido. La forma común en la que se selecciona a los miembros de la población es creando números aleatorios. Por ejemplo, si se imagina que se tiene una población de 500 contadores en una determinada ciudad y que se quiere seleccionar aleatoriamente a 10 de ellos. Se supone que se los tiene identificados de acuerdo a un número consecutivo que va desde 1 hasta 500. El procedimiento que se seguirá se describe en la aplicación Excel que presenta a continuación. Primero se creará la cantidad de números aleatorios deseados (en nuestro caso 10). La creación se basa en la distribución uniforme (0,1) con lo que se asegura que los números generados estarán entre 0 y 1. Se multiplica cada uno de los números generados por el tamaño de la población para obtener el número correlativo que permitirá identificar al contador seleccionado por este proceso es decir, los números resultantes representan la identificación de los contadores a ser seleccionados. Por lo normal, se aproximan los números del paso anterior al número inmediato inferior. Por ejemplo, el primer número aleatorio presentado en la aplicación Excel 1, es igual a 191. Esto significa que el contador cuyo número de identificación es 191 será seleccionado para nuestra muestra. $SOLFDFLyQ HQ ([FHO Generación de Números Aleatorios

4


CAPÍTULO 1

2.1.2.

Estadística descriptiva

Muestreo sistemático

El muestreo sistemático se basa en determinar aleatoriamente un número (conocido como semilla), que se usa para determinar los elementos u observaciones de una población que serán seleccionados. Por ejemplo, se selecciona un número al azar entre 1 y 10, por ejemplo 4. Este número implica que las observaciones que se seleccionarán serán basadas en los múltiplos de este número. Se seleccionarán las observaciones 4, 8, 12, etc. El principal problema de este método es conocido como el de estacionalidad. El problema de estacionalidad ocurre cuando en los datos existen ciertos patrones determinísticos que se repiten de acuerdo a una determinada frecuencia. Un ejemplo clásico es el referido a la venta de helados. Las mayores ventas de helados se producen durante todos los veranos, mientras que las ventas más bajas se dan en el invierno. Si se desean determinar las ventas promedio en unidades de una empresa dedicada a producir helados durante los 10 últimos años, usando datos trimestrales y usando un muestreo sistemático, se puede correr el riesgo que el número semilla coincida exactamente o con el verano (que generaría que el promedio sea inflado) o con el invierno (que haría que el promedio esté subvaluado). De ahí la importancia de conocer los datos con los que se está trabajando para prever todo tipo de problemas que pudieran aparecer y determinar la mejor manera de solucionarlos. 2.1.3.

Muestreo estratificado simple

Muchas veces la población a estudiar tiene cierta estructura que puede ser identificada a priori. Por ejemplo, si se desea hacer un análisis del nivel de ingresos de la población de un determinado país, se pueden identificar distintos niveles de ingresos de acuerdo a determinados estudios sobre los niveles socio-económicos. Esta estructura de la población debe ser considerada al momento de recolectar los datos para hacer que la muestra resultante sea representativa de la población. Es decir, lo que se trata de replicar es la estructura (o estratos) existente en los datos para luego al interior de cada estrato aplicar un muestreo aleatorio simple. Se analiza el siguiente ejemplo desarrollado con valores hipotéticos: 7DEOD Nivel socio-económico

Población

Ingresos (en miles de U.M.)

Muestra 1

A B C

1.000 (10%) 3.000 (30%) 6.000 (60%)

125 70 25

10 (10%) 80 (80%) 10 (10%)

Muestra 2 (muestreo estratificado) 10 (10%) 30 (30%) 60 (60%)

Esta tabla presenta la población y, en paréntesis, el porcentaje respecto al total. Por ejemplo, 10% de la población pertenece al nivel socio-económico A. Asimismo, presenta valores de dos muestras hipotéticas de 100 habitantes cada una. Entre paréntesis se encuentra el porcentaje de la misma respecto al total de la muestra. Por ejemplo, en la muestra 1 se seleccionaron a 80 personas del nivel B, lo que representa el 80% del total de la muestra.

5


ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA

La expresión U.M. se refiere a unidades monetarias. Primero, se supone que el muestreo es completamente aleatorio y que, por azar, el resultado de la selección resulta sesgado (por diversos motivos, como facilidad de acceso a las observaciones, o simplemente por motivos aleatorios). Se supone que esos datos corresponden a la Muestra 1 en la Tabla 1. Aquí se puede observar que el nivel socio-económico B está sobre representado mientras que el nivel C está sub representado con respecto a la población. Si se desearan construir estadísticos con esta muestra los resultados estarían sesgados hacia los valores de la clase B. Por otro lado, la muestra hallada usando un muestreo estratificado simple, la estructura fundamental de la población se ha preservado, generándose de esta manera la representatividad necesaria de la muestra. Es importante notar que en el muestreo estratificado simple, una vez que los estratos han sido formados, para seleccionar a los elementos que comprenderán cada uno de los estratos se aplica una muestra aleatoria simple. 2.2. El muestreo no probabilístico

En este caso no todos los elementos de la población tienen la probabilidad de ser seleccionados. En este tipo de muestreo se utiliza bastante la intuición y la experiencia del analista y, por lo general, es utilizado para realizar estudios exploratorios, cuyos resultados no son usados para realizar inferencia acerca de los parámetros poblacionales. Se pueden identificar los tipos de muestreos no probabilísticos que se citan a continuación. 2.2.1.

Muestreo basado en el juicio del analista

Este tipo de muestreo depende de lo que el analista considere como importante para la construcción de la muestra. Por ejemplo, un auditor contable puede decidir no aplicar ningún muestreo probabilístico como los mencionados anteriormente y, en vez de eso, determinar en base a su experiencia, qué documentos solicitar para su análisis. 2.2.2. Muestreo basado en la facilidad de acceso a los elementos que forman la base del estudio

Este muestreo se construye en base a la disponibilidad y facilidad de acceso a los elementos que constituyen la población. Por ejemplo, si un grupo de estudiantes desea construir una muestra para entender de manera preliminar (exploratoria) los hábitos de consumo de café de los clientes de Starbucks; estos pueden concentrar sus esfuerzos en una determinada área geográfica que les sea de fácil acceso. 2.2.3.

Muestreo basado en un propósito específico

En este tipo de muestreo, los miembros de la muestra son seleccionados con el propósito explícito de ayudar a responder alguna pregunta relevante en el estudio. Por ejemplo, si se desea determinar la

6


CAPÍTULO 1

Estadística descriptiva

calidad de un libro básico de introducción a las finanzas, se puede seleccionar a un grupo de alumnos de pregrado con nociones mínimas de finanzas. Si estos estudiantes entienden los conceptos presentados en el libro, esto será una señal que podrá ser fácilmente entendido por estudiantes con cierto nivel de conocimientos de la materia. 3.

DISTRIBUCIÓN DE FRECUENCIAS

Si el analista cuenta con los datos necesarios para realizar su trabajo, lo primero a hacer será entender los datos con los que se cuenta. Se supone que los datos se refieren a las ventas en unidades de los últimos 10 años los que se muestran a continuación: 7DEOD Año 20X0 20X1 20X2 20X3 20X4 20X5 20X6 20X7 20X8 20X9

Ventas (miles de unidades) 2.540 2.560 2.612 2.630 2.720 2.760 2.785 2.804 2.831 2.935

Una manera bastante fácil y útil para tener un mejor entendimiento de los datos es el crear una tabla de frecuencias. Las tablas de frecuencias presentan la información agrupada de acuerdo a rangos predeterminados. Una posible tabla de frecuencias tiene la siguiente forma: 7DEOD Tabla de frecuencias Clases

Frecuencia

(2.600, 2.700] (2.700, 2.800] (2.800, 2.900] (2.900, 3.000] Total

2 2 3 2 1 0 10

Frecuencia relativa (%) 20% 20% 30% 20% 10% 0% 100%

Frecuencia acumulada 2 4 7 9 10 10

Frecuencia relativa acumulada 20% 40% 70% 90% 100% 100%

Los elementos característicos de una tabla de frecuencias son los siguientes: a.

Clases: son los rangos en los que se separan los datos. Por ejemplo, (2.600, 2.700] indica que se deben seleccionar las observaciones mayores que 2.600 (no incluyendo 2.600) y menores o iguales a 2.700 (incluyendo 2.700).

7


ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA

b.

Límites de las clases: son los valores que definen el mínimo y máximo valor a incluir en una determinada clase. Por ejemplo, en la clase (2.600, 2.700], los límites son 2.600 y 2.700.

c.

Rango de las clases: es la diferencia entre el límite máximo y el mínimo. Por ejemplo, en (2.600, 2.700] el rango sería 2.700 - 2.600 = 100. Es importante notar que el rango de todas las clases no tiene que ser necesariamente el mismo, aunque se sugiere que si lo sea por motivos de presentación.

d.

Marca de clases: Es el punto medio de cada clase. Se calcula sumando el límite inferior al superior y dividiendo el resultado entre 2. Por ejemplo, el valor medio de la clase (2.600, 2.700] es igual a (2.600 + 2.700)/2 = 2.650. Estos valores son importantes para graficar el polígono de frecuencias que se detallará posteriormente.

Es importante notar que una tabla de frecuencias está bien estructurada si las clases satisfacen las siguientes características: a.

Las clases deben ser mutuamente excluyentes, es decir, los límites entre clases jamás deben pertenecer a más de una clase. Por ejemplo, las clases (2.600, 2.700] y (2.700, 2.800] son mutuamente excluyentes ya que los límites de una clase no están incluidas en la otra: 2.700 está incluida en la primera clase pero no lo está en la segunda. Nótese que “]” significa que el límite está incluido en una clase en particular y, “(” implica que el límite no está incluido en una clase en particular.

b.

Las clases deben ser exhaustivas, es decir, todas las observaciones en la muestra deben estar incluidas en alguna de las clases. Como puede advertirse en la Tabla 3, todos los valores de Tabla 2 han sido incluidos. La forma de verificar esto es simplemente verificar que el total de la columna “frecuencia” corresponda al número de observaciones de la muestra (en nuestro caso 10).

A continuación se describen los resultados presentados en la Tabla 3.

8

a.

La primera columna (clases) contiene las clases en las que se dividirán las observaciones.

b.

La segunda columna (frecuencia) describe el número de observaciones que caen en una determinada clase. Por ejemplo, se observan dos años con ventas entre (2.600, 2.700]. Nótese que la suma de esta columna debe ser igual al tamaño de la muestra.

c.

La tercera columna (frecuencia relativa) describe el porcentaje de observaciones en una determinada clase. Por ejemplo, el 20% de las ventas fueron entre (2.600, 2.700]. Adviértase que la suma de esta columna debe ser igual al 100%.

d.

La cuarta columna (frecuencia acumulada) describe el número de observaciones que son menores o iguales al límite superior de una determinada clase. Por ejemplo, se observan 7 años con ventas menores o iguales a 2.800.


CAPÍTULO 1

e.

Estadística descriptiva

La quinta columna (frecuencia relativa acumulada) describe el porcentaje de observaciones que son menores o iguales al límite superior de una determinada clase. Por ejemplo, se observan que el 70% de las ventas fueron menores o iguales a 2.800.

Cuando se utilizan los valores de la Tabla 3, se pueden generar algunos gráficos que son de bastante ayuda: a.

El histograma: muestra la información contenida en la primera columna de la Tabla 3, es decir presenta las frecuencias.

b.

El gráfico de las frecuencias relativas acumuladas: muestra la información de la quinta columna de la Tabla 3. Nótese que el máximo valor de las frecuencias relativas acumuladas es 100%.

*UiÀFR

Histograma y frecuencias relativas acumuladas Frequencia

4

100,00% 80,00% 60,00% 40,00% 20,00% 0,00%

3 2 1 0 2500

2600

2700

2800

2900

3000 More

Límites Frequency

c.

Cumulative %

El polígono de frecuencias: muestra la misma información que el histograma, pero de manera más intuitiva, en el sentido que supone que las frecuencias varían gradualmente conforme las observaciones aumentan o disminuyen en el eje de los límites. Para realizar este gráfico se usan los valores medios de las clases como puntos que se ponen en la parte superior de cada rectángulo. El polígono de frecuencias se obtiene uniendo estos puntos.

9


ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA

*UiÀFR

Frequencia

Histograma y polígono de frecuencias 4 3 2 1 0 2500

2600

2700

2800

2900

3000

More

Límites Frequency

Frequency

A continuación se presenta la forma en que se pueden realizar estas tablas por medio de Excel. $SOLFDFLyQ HQ ([FHO Tabla de frecuencias

Una vez que se tiene un entendimiento de las características básicas de los datos obtenidos mediante el análisis presentado en esta sección, se procederá a analizar determinados estadísticos que

10


CAPÍTULO 1

Estadística descriptiva

proporcionarán un mayor entendimiento de ciertas características claves de los datos en términos de sus medidas de tendencia central, dispersión y asociación. 4.

MEDIDAS DE TENDENCIA CENTRAL

Las medidas de tendencia central permiten al analista determinar los valores típicos de los datos. En esta sección se analizarán los estadísticos más importantes: el promedio, el promedio ponderado, la media y la moda. Se presentarán los estadísticos para las poblaciones y para las muestras. Para esto se debe recordar que para el tamaño de la población se utilizará N y para el tamaño de la muestra n. 4.1. El promedio o media

El promedio o media es también conocido como la media aritmética. La media poblacional, que a partir del momento se identificará con la letra griega “μ” (mu), se calcula de la siguiente manera: N

¦x

i

P

i 1

(1)

N

Por otra parte, si se trata de la media muestral, para una muestra de tamaño n, este estadístico estará dado por: n

¦x

i

x

i 1

(2)

n

Donde: x representa el promedio muestral, xi la variable de interés, n el número de observaciones en la muestra y ∑ el operador de suma. (MHPSOR

Se supone que se tienen los datos de las ventas anuales correspondientes a los 10 últimos años de una determinada corporación (los datos se encuentran en la Tabla 2) y que desea conocer las ventas anuales promedio: ‫ݔ‬ҧ ൌ

ʹǤͷͶͲ ൅ ʹǤͷ͸Ͳ ൅ ʹǤ͸ͳʹ ൅ ʹǤ͸͵Ͳ ൅ ʹǤ͹ʹͲ ൅ ʹǤ͹͸Ͳ ൅ ʹǤ͹ͺͷ ൅ ʹǤͺͲͶ ൅ ʹǤͺ͵ͳ ൅ ʹǤͻ͵ͷ ͳͲ

Por lo tanto, x = 2.718. Es decir, que la venta anual promedio durante los últimos 10 años es igual 2.718 U.M. El principal problema de este estadístico es que es muy susceptible a valores extremos. Para entender este problema, se supone que las ventas en unidades del año 20X9 han sido 5.450 en vez de 2.935. El efecto de este cambio se puede notar a continuación:

11


ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA

‫ݔ‬ҧ ൌ

ʹǤͷͶͲ ൅ ʹǤͷ͸Ͳ ൅ ʹǤ͸ͳʹ ൅ ʹǤ͸͵Ͳ ൅ ʹǤ͹ʹͲ ൅ ʹǤ͹͸Ͳ ൅ ʹǤ͹ͺͷ ൅ ʹǤͺͲͶ ൅ ʹǤͺ͵ͳ ൅ ૞Ǥ ૝૞૙ ͳͲ

Por lo tanto, x = 2.969. Como se puede apreciar, la existencia de un valor extremo, tiende a mover el promedio en la dirección de dicha variable. Dicho de otra manera, un valor mucho mayor que las demás observaciones, tiende a empujar el valor promedio hacia la derecha, mientras que la existencia de un valor extremo mucho menor que las otras observaciones moverá la media hacia la izquierda. Este problema se acentúa cuanto más lejano sea el valor. Una forma de solucionar este problema es no considerar los valores extremos en el cálculo del promedio o utilizar otro estadístico como la mediana. 4.2. El promedio ponderado

El promedio considera que toda la información tiene la misma ponderación o importancia en el cálculo del estadístico. Sin embargo, muchas veces cada observación tiene diferente peso o ponderación. Es eso exactamente lo que considera el promedio ponderado. La fórmula del promedio ponderado es: n

¦Z u x

xZ

i

i

(3)

i 1

Donde: n

¦Z

i

1

(4)

i 1

En la fórmula anterior, xZ representa el promedio ponderado y Zi la ponderación de cada observación. (MHPSOR

Un ejemplo típico en este caso es el cálculo de la rentabilidad de un portafolio. Si se imagina que se tiene la siguiente composición de un determinado portafolio: 10% en renta fija, 70% en acciones y 20% en metales como el oro. Si los rendimientos ganados por cada clase de activo financiero son 2%, 10% y 35%, respectivamente, el promedio ponderado sería calculado de la siguiente manera: ‫ݔ‬ҧ߱ ൌ ሺͲǡͳሻ ൈ ሺʹΨሻ ൅ ሺͲǡ͹ሻ ൈ ሺͳͲΨሻ ൅ ሺͲǡʹሻ ൈ ሺ͵ͷΨሻ ൌ ͳͶǡʹΨ

Es decir, que la rentabilidad promedio del portafolio es igual a 14,2%.

12


CAPÍTULO 1

Estadística descriptiva

4.3. La mediana

La mediana representa el valor medio de los datos debidamente ordenados ya sea de manera ascendente o descendente. Si el número de observaciones es impar, la mediana se encuentra en la posición (n + 1)/2 y si el número de observaciones es par la mediana corresponde al promedio de las dos observaciones centrales que se localizan en las posiciones (n/2) y [(n/2) + 1]. (MHPSOR

Se supone que se tienen las siguientes observaciones en orden ascendente: 1, 4, 7, 10 y 15. En este caso n (número de observaciones) es igual a 5, por lo tanto, la mediana se encuentra en la posición (5 + 1)/2 = 3, es decir, la mediana de esta muestra es igual a 7. Por otro lado, si se tiene la siguiente muestra ordenada de manera ascendente: 1, 4, 7, 10, 15, 18; las posiciones de los valores que determinarán la media son 6/2 = 3 y (6/2) + 1 = 4. Por lo tanto, la mediana será igual a (7 + 10)/2 = 8,5. La ventaja de la mediana respecto al promedio es que es inmune a los valores extremos. Por ejemplo, si se toma la primera serie del primer párrafo de este ejemplo y se reemplaza el último valor 15 por 25. La nueva serie resultante será: 1, 4, 7, 10, 25. Como se puede ver la mediana sigue siendo 7 independientemente de los valores extremos. 4.4. La moda

La moda corresponde al valor que se observa más frecuentemente en la muestra. Si una serie tiene una sola moda se llamara unimodal; si tiene dos modas se llamará bimodal y si tiene más de dos modas se llamará multimodal. (MHPSOR

Si se tiene la siguiente serie: 2, 4, 3, 5, 3, 1 y 9 la moda será 3, es decir, el número que aparece más frecuentemente en esta serie es el número 3. En este caso, esta serie es unimodal. 5.

MEDIDAS DE DISPERSIÓN

Las medidas de dispersión permiten al analista determinar cuán dispersos son los valores de los datos respecto a alguna medida de tendencia central, usualmente el promedio. Estas medidas de dispersión son de gran uso en las finanzas ya que la dispersión de los valores de las observaciones está asociada con el nivel de riesgo o incertidumbre asociada con la variable observada. Se tratará este tema en detalle en las siguientes secciones de este capítulo. A continuación se analizarán algunos de los estadísticos de dispersión más importantes: el rango, los cuartiles, la desviación media absoluta, la varianza y la desviación estándar, la variable estandarizada y el coeficiente de variación.

13


ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA

Para un mejor entendimiento de los conceptos se utilizarán los datos de la presente tabla: 7DEOD Año 20X0 20X1 20X2 20X3 20X4 20X5 20X6 20X7 20X8 20X9

Gastos en publicidad (miles de U.M.) 110 115 127 138 147 150 175 160 170 180

5.1. El rango

El rango se calcula de la siguiente manera: Rango = valor máximo – valor mínimo

(MHPSOR

El rango de las observaciones presentadas en la Tabla 4 será: 180 – 110 = 70. Es importante recalcar que el rango, al solo usar los valores extremos, sufre del mismo problema que el promedio. Es decir, su valor es sensible a los valores extremos. 5.2. Los cuartiles

Los cuartiles dividen los datos en cuatro grupos, cada uno de los cuales contiene el 25% de las observaciones de la muestra. La estrategia para calcular los cuartiles es el siguiente: a.

Encontrar la posición de cada uno de los límites de los cuartiles ( Q1p , Q2p y Q3p ) de la siguiente manera: ‫݌‬

ܳͳ ൌ

ሺ݊൅ͳሻ Ͷ

‫݌‬

ǡ ܳʹ ൌ

ʹൈሺ݊ ൅ͳሻ Ͷ

‫݌‬

‫ ͵ܳ ݕ‬ൌ

͵ൈሺ݊൅ͳሻ Ͷ

(5)

Se advierte que la posición del segundo cuartil corresponde a la ubicación de la mediana, es decir que el segundo cuartil será siempre igual a la mediana. b.

14

Una vez localizada la posición se procede a determinar el valor que corresponde a la posición encontrada en el paso a. En caso que esta posición no sea un número entero se procede a realizar una interpolación lineal tal como se explica a continuación.


C A PÍ T ULO

12 Modelos de series de tiempo 1.

INTRODUCCIÓN

Los modelos de series de tiempo tratan de explotar la información contenida en la historia de las mismas variables. Estos modelos son conocidos como modelos en forma reducida o no estructurales, ya que no han sido derivados de un modelo teórico económico o financiero. Estos modelos son de bastante uso en finanzas, porque usualmente las predicciones obtenidas con estos modelos son mejores que las obtenidas con los modelos estructurales. Este capítulo introduce de manera bastante práctica los principales modelos de series de tiempo. Se empezará presentando en la sección 2 la definición de un proceso estocástico, la definición de procesos fuerte y débilmente estacionarios. La sección 3 trata sobre las autocovarianzas, autocorrelaciones y el correlograma. También esta sección introduce los principales métodos para detectar las autocorrelaciones. A continuación se desarrollan, en las secciones 4, 5 y 6, los modelos autorregresivos AR(p), los modelos de medias móviles MA(q), y los modelos ARMA(p,q), respectivamente. La sección 7 está destinada a la forma matemática de determinar el orden de los modelos de series de tiempo mediante los criterios de información. La sección 8 desarrolla el tema de los pronósticos y la forma de verificar su calidad. La sección 9 presenta el método de Box-Jenkins para el trabajo con modelos de series de tiempo. Se muestra este método mediante el desarrollo de un ejemplo numérico usando EViews. Finalmente, en las secciones 10 y 11 se encuentran los ejercicios y ecuaciones del capítulo, respectivamente.

399


ESTADĂ?STICAS Y ECONOMETRĂ?A FINANCIERA

2.

PROCESOS ESTACIONARIOS

Un concepto clave en los modelos de series de tiempo es el conocido como procesos estocåsticos. Un proceso estocåstico es una secuencia de números aleatorios. El proceso estocåstico se escribirå como { yi } para i = 1, 2,‌ Si este índice representa tiempo, el proceso estocåstico se llamarå serie de tiempo. Si se asigna un posible valor de y por cada i se estarå construyendo una posible realización del proceso estocåstico. El principal problema en los modelos de series de tiempo es que en la realidad solo se observa el proceso estocåstico en una de sus varias posibles realizaciones. Por lo tanto, solo se puede obtener un set de estadísticos (media, varianza, etc.) dadas las observaciones disponibles. En teoría, si se pudieran observar todas las posibles realizaciones del proceso estocåstico, se podrían calcular los paråmetros poblacionales (tal como la media poblacional) simplemente como el promedio de todas las realizaciones. Sin embargo, la realidad no se muestra de distintas maneras: solo existe una realización de la realidad. Esto inmediatamente presenta una limitación que se debe tratar de solucionar. En esta sección del capítulo se tratarå el concepto de estacionariedad, que en síntesis significa que todas las observaciones de la series de tiempo provienen de la misma distribución de probabilidad y que, si a su vez el proceso no es muy persistente, cada observación contendrå información valorable que no estå presente en ninguna de las otras observaciones, por lo que los estadísticos obtenidos de las observaciones serån consistentes con sus respectivos paråmetros poblacionales. Por ejemplo, la media de estas observaciones en el tiempo serå consistente con la media poblacional. El concepto de estacionariedad tiene dos versiones: la estacionariedad estricta y la estacionariedad dÊbil, que se procede a explicar a continuación. 2.1. Estacionariedad estricta

Un proceso estocåstico { yi } con i = 1, 2,‌T es estrictamente estacionario si, para un número real finito r y para cualquier conjunto de subíndices i1 , i2 ,‌, iT :

Fyi , yi 1

2

,..., yiT

( y1 ,..., yT )

Fyi r , yi r ,..., yi r ( y1 ,..., yT ) 1

2

T

(1)

Es decir, que la distribución conjunta de { yi } con i = 1, 2,‌T, depende solo de la distancia r y no de i, es decir, la probabilidad conjunta de ( y1, y11 ) es la misma que ( y51 , y61 ) (nótese que en este caso r = 10). Lo importante para la distribución es la posición relativa de la secuencia. Ademås, esto quiere decir que la probabilidad que y caiga en algún intervalo en particular es siempre la misma. Por lo tanto, si un proceso estocåstico es estrictamente estacionario: la media, la varianza y otros momentos de la distribución serån los mismos para todo i. Ejemplos de series estrictamente estacionarias incluyen los procesos independientes e idÊnticamente distribuidos (i.i.d.). Muchos procesos son no estacionarios simplemente porque tienen una tendencia determinística. Es decir, que si se remueve la tendencia, la serie de tiempo se convertirå en una serie estacionaria. A dichas series se les conoce como series estacionarias con tendencia. Asimismo, si se tiene una serie

400


CAPÍTULO 12

Modelos de series de tiempo

de tiempo que no es estacionaria pero que su diferencia sí lo es, se conoce como serie estacionaria en diferencias. 2.2. Estacionariedad débil

Un proceso estocástico { yi } con i = 1, 2,…T es débilmente estacionario si se cumple lo siguiente:

E ( yi ) P

E ( yi P ) 2

(2)

V2 f

cov( yi , yi j ) J i (i j )

(3)

Jj

(4)

La ecuación (4) dice que es la posición relativa ( j) lo importante y no la absoluta (i). Por ejemplo:

cov y1 , y11 cov y51 , y61 J 11

(5)

(MHPSOR

El gráfico (1) presenta la evolución del índice Dow Jones Industrial Average (DJIA) y el gráfico (2) presenta la serie de tiempo de los retornos del mismo índice (RDJIA). *UiÀFR

401


ESTADÍSTICAS Y ECONOMETRÍA FINANCIERA

*UiÀFR

Como se puede observar el gráfico de los precios (DJIA) es un proceso no estacionario, mientras que el gráfico de los retornos (RDJIA) parece serlo. Una forma fácil de ver por qué la primera serie es no estacionaria es tomando un intervalo de un tamaño fijo en dos puntos distantes y calcular el promedio. Se asume por ejemplo, que se toman las siguientes observaciones del DJIA: 1982 hasta 1984 y del 2002 al 2004 (intervalos de 3 años cada uno). De acuerdo al concepto de estacionariedad, si se hace esto y la serie es en realidad estacionaria, se esperaría que las medias sean iguales. Sin embargo, solo observando el gráfico se advierte que este no será el caso, puesto que el índice estaba entre 3.638,06 y 2.278,20 entre enero de 1982 y diciembre de 1984 y, entre 616,53 y 421,98 entre enero del 2002 y diciembre del 2004. En cambio si se observa la serie de los retornos, las medias estarán bastante cercanas en los mismos intervalos de tiempo, lo que puede indicar que efectivamente esta serie de tiempo es estacionaria. Posteriormente se presentará la forma econométrica de determinar la estacionariedad de las series. 3.

LA AUTOCOVARIANZA, LA AUTOCORRELACIÓN Y EL CORRELOGRAMA

Se supone que el subíndice i representa el tiempo, por lo tanto, el proceso estocástico { yi } , i = 1, 2,…T será una serie de tiempo. La autocovarianza se expresa como γj y se la define como:

cov( yi , yi j ) J i (i j )

Jj

(6)

Como se mencionó anteriormente, la autocovarianza solo depende de j (la posición relativa). La varianza de la serie de tiempo {yi } será igual a:

cov( yi , yi ) var ( yi ) J i i

402

J0

(7)


CAPĂ?TULO 12

Modelos de series de tiempo

Por lo tanto, la autocorrelaciĂłn de orden j ( Ď j ) se definirĂĄ como el ratio entre la autocovarianza de orden j y la varianza:

Uj

cov( yi , yi j )

Jj J0

var ( yi )

(8)

Con j = 1, 2,‌ Si j = 0, Ď j = 1. Ahora bien, si se grafica la evoluciĂłn en el tiempo de Ď j , se estarĂĄ construyendo lo que se conoce como el correlograma. 3.1. El proceso de ruido blanco

El proceso de ruido blanco (White Noise Process) es un proceso dĂŠbilmente estacionario con media constante y no autocorrelaciĂłn. Es decir, en un proceso de ruido blanco se cumple:

E ( yi ) P

cov( yi , yi - j ) J j

(9)

0 jz0

cov( yi , yi ) J 0

V2

(10) (11)

3.2. Pruebas de autocorrelaciĂłn

Se recuerda que la autocorrelaciĂłn muestral se calcula de la siguiente manera:

Jˆ j

n 1 u ÂŚ ( yt y ) u ( yt j y ) n j t j 1

(12)

ObsĂŠrvese que se divide entre n - j y no entre n, para que el estadĂ­stico sea insesgado. Esto es importante si se estĂĄ trabajando con una muestra pequeĂąa. Sin embargo, si la muestra es lo suficientemente grande n - j serĂĄ bastante aproximado a n. La media de la serie se calcula como es usual: n

ÂŚy

i

y

t 1

(13)

n

Se sigue a nivel muestral y se define la autocorrelaciĂłn muestral como:

Uˆ j

Jˆ j Jˆ0

(14)

Dado esto, se presentan a continuaciĂłn los test empleados para determinar la presencia de autocorrelaciĂłn. El primer mĂŠtodo se basa en la siguiente propiedad asintĂłtica:

n u Uˆ o N (0, I m ) d

(15)

403


ESTADĂ?STICAS Y ECONOMETRĂ?A FINANCIERA

Donde: Uˆ ( Uˆ1 , Uˆ 2 ,..., Uˆ m ). Esta ecuaciĂłn establece que las autocorrelaciones Ď asintĂłticamente se distribuyen como una normal estĂĄndar. Por lo tanto, se pueden construir intervalos de confianza para la autocorrelaciĂłn poblacional de la siguiente manera:

1 Âş Âť nÂź

ÂŞ

U Â? ÂŤ r zD /2 u ÂŹ

(16)

(MHPSOR

Si el nivel de confianza deseado es del 90% (nivel de significancia Îą = 10%), el valor de z Îą/2 serĂĄ igual a 1,645.1 Por lo tanto, el intervalo de confianza para las autocorrelaciones poblacionales serĂĄ:

ÂŞ

U Â? ÂŤ r1, 645 u ÂŹ

1 Âş Âť nÂź

(17)

Existen otros mĂŠtodos que permiten determinar la existencia de autocorrelaciones hasta un determinado orden (m), que se presentan a continuaciĂłn. El mĂŠtodo de Box-Pierce y el mĂŠtodo de Ljung-Box permiten testear la siguiente hipĂłtesis nula:

H 0 : U1

U3 ... U m

U2

0

(18)

El test de Box-Pierce se calcula mediante: m

Box Pierce(Q) n u ÂŚ UĂ– 2j j 1

m

ÂŚ(

n u UĂ– j )2 F 2 (m)

(19)

j 1

El test de Ljung-Box: m

UĂ– 2j

j 1

n j

Ljung Box(Q) n u (n 2) u ÂŚ

m

n 2

ÂŚ n j u(

n u UĂ– j )2 F 2 (m)

(20)

j 1

Ambas pruebas se distribuyen como una chi cuadrada debido a que n u Uˆ es asintóticamente independiente y distribuida como una normal eståndar. Por lo tanto, la suma al cuadrado de estos números es asintóticamente chi-cuadrada. Los grados de libertad de esta distribución son iguales a m, que representa el número de rezagos deseados. El mÊtodo de Ljung-Box es preferido cuando el tamaùo de la muestra es pequeùo. Como se puede observar, la diferencia entre estos dos mÊtodos desaparece conforme n (número de observaciones) se incrementa. 1 Se recomienda al lector remitirse al capítulo 5 para un detallado tratamiento de los intervalos de confianza.

404


CAPĂ?TULO 12

Modelos de series de tiempo

El problema con ambos test es que no existe una metodologĂ­a clara para seleccionar el nĂşmero de rezagos (m). Si se escoge un m muy pequeĂąo, el riesgo que no se estĂŠn capturando autocorrelaciones de orden superior aumentarĂĄ. Por otro lado, si el nĂşmero m es demasiado grande las propiedades asintĂłticas del test se pueden perder y la distribuciĂłn no serĂĄ mĂĄs la chi cuadrada. (MHPSOR

En esta parte se presenta un ejemplo ficticio que permite entender cómo es que estos test son utilizados en la pråctica. Se parte del hecho que se han calculado las tres primeras autocorrelaciones de los retornos de algún instrumento financiero. Se supone que el número de observaciones es igual a 50 y que el nivel de confianza deseado es igual al 90%. Finalmente, se asume que las autocorrelaciones obtenidas son las siguientes: Uˆ1 1, 25; Uˆ 2 0, 22; Uˆ3 0, 02 . Primero, se estima el intervalo de confianza para las autocorrelaciones: ª

U Â? ÂŤ r1, 645 u ÂŹ

1 Âş Âť o U Â? > 0, 2326;0, 2326@ 50 Âź

Con base en este intervalo de confianza, solo la primera autocorrelaciĂłn no estĂĄ en el intervalo. Por lo que este serĂĄ un indicio de la presencia de autocorrelaciĂłn de primer orden. Ahora se presenta la forma en que las pruebas de Box-Pierce y Ljung-Box son calculadas: Box Pierce(Q)

m

ÂŚ(

n u Uˆ j ) 2

( 50 u1, 25) 2 ( 50 u 0, 22) 2 ( 50 u 0, 02) 2

j 1

(21)

Box Pierce(Q) 80,565

Ljung Box(Q)

m

n 2

ÂŚ n j u(

n Uˆ j ) 2

j 1

§ 50 2 ¡ § 50 2 ¡ § 50 2 ¡ 2 2 2 Ljung Box(Q) ¨ ¸ u ( 50 u1, 25) ¨ ¸ u ( 50 u 0, 22) ¨ ¸ u ( 50 u 0, 02) (22) 50 1 50 2 50 3 Š š Š š Š š Ljung Box(Q) 85,55

La hipĂłtesis nula en este caso es:

H 0 : U1

U2

U3 0

(23)

Esto significa que se prueba la no existencia de autocorrelaciĂłn de hasta tercer orden. Se conoce que ambas pruebas se distribuyen como una chi cuadrada con 3 grados de libertad (m = 3). Si se desea un nivel de significancia del 10% (es una prueba no direccional, por lo que cada cola serĂĄ igual al 5%), el valor crĂ­tico superior de la chi cuadrada para estos grados de libertad serĂĄ igual a 7,8148.

405


ESTADĂ?STICAS Y ECONOMETRĂ?A FINANCIERA

Por lo tanto, como los valores de las pruebas son 80,565 y 85,55, para el Box-Pierce and Ljung-Box, respectivamente; se rechazarĂĄ la hipĂłtesis nula. Lo que significa que existe autocorrelaciĂłn significativa hasta el tercer rezago. El valor crĂ­tico, se ha hallado usando el comando de Excel “PRUEBA.CHI.INV â€? o “CHIINV â€?, segĂşn se trate de la versiĂłn en espaĂąol o inglĂŠs. La siguiente aplicaciĂłn muestra la forma de usar Excel para hallar este valor crĂ­tico: $SOLFDFLyQ GH ([FHO Valores crĂ­ticos de la chi cuadrada n

50

nivel de confianza

0,9

rezagos (m)

3

Îą/2 grados de libertad

0,05 3

Chi_inferior

0,351846

Chi_superior

7,814728

Se advierte que se tienen dos valores crĂ­ticos porque se trata de una prueba no direccional. En las siguientes secciones se comienzan a presentar varios modelos de series de tiempo. 4.

MODELO DE MEDIAS MĂ“VILES MA(q)

El proceso de medias mĂłviles o (MA) por sus siglas en inglĂŠs (Moving Averages) es un modelo que supone que la variable puede ser explicada por un cierto nĂşmero de rezagos (q) de los errores, es decir:

yt

P ut T1 u ut 1 T 2 u ut 2 ... T q u ut q

(24)

Donde los errores (u) son i.i.d. con media cero y varianza Ďƒ 2. A partir de esta secciĂłn se cambia el uso del subĂ­ndice i por t para referirse al tiempo. Se puede reescribir esta ecuaciĂłn de la siguiente manera: q

yt

P ÂŚ T j u ut j ut

(25)

j 1

Antes de continuar, se define el siguiente operador matemĂĄtico L, que serĂĄ de gran utilidad en lo que queda del capĂ­tulo:

Lm yt

406

yt m

(26)


CAPĂ?TULO 12

Modelos de series de tiempo

Por ejemplo, Lyt yt-1 , L2yt yt-2 . Si se emplea esta notaciĂłn en la ecuaciĂłn (26): q

yt

P ÂŚ T j u Lj ut ut

(27)

j 1

Finalmente, si se define:

4( L) 1 T1 u L T 2 u L2 ... T q u Lq

(28)

La ecuaciĂłn (27) se puede escribir como:

yt

P 4( L)ut

(29)

En la ecuaciĂłn (28) se requiere que todas las raĂ­ces caracterĂ­sticas de 4( L) caigan fuera del cĂ­rculo unitario; es decir, que cada raĂ­z de r en la siguiente ecuaciĂłn caracterĂ­stica sea mayor que uno en valor absoluto:

1 T1 u r T 2 u r 2 ... T q u r q

0

(30)

Esta condiciĂłn, conocida como la condiciĂłn de invertibilidad, asegura que el modelo MA(q), representado como un modelo AR(∞) converja a cero, es decir, que ( 4( L) )-1 tienda a cero. En otras palabras, esta condiciĂłn asegura que el modelo MA(q) no es explosivo. Esta condiciĂłn es muy parecida a la condiciĂłn de estacionariedad del modelo AR(p) que se discutirĂĄ en la prĂłxima secciĂłn. TambiĂŠn, esta condiciĂłn serĂĄ de vital importancia al momento de trabajar con modelos ARMA(p,q). La estrategia a seguir cuando se trabaja con series de tiempo es determinar la funciĂłn de autocorrelaciĂłn presentada en la ecuaciĂłn (8). Para eso se necesitan los siguientes componentes: la media, la varianza y las autocovarianzas. La estrategia presentada para este modelo serĂĄ la misma que la que se utilizarĂĄ para los otros modelos de series temporales. Para mostrar la tĂŠcnica se supone el siguiente modelo MA(3):

yt

P ut T1 u ut 1 T 2 u ut 2 T3 u ut 3

(31)

Se recuerda que se asumiĂł que u es un ruido blanco con media cero y varianza Ďƒ 2. Se calcula el valor esperado de esta ecuaciĂłn. Se toma la esperanza matemĂĄtica a ambas partes de la ecuaciĂłn (31):

E ( yt )

E ( P ut T1 u ut 1 T 2 u ut 2 T3 u ut 3 )

E ( yt )

E ( P ) E (ut ) T1 u E (ut 1 ) T 2 u E (ut 2 ) T3 u E (ut 3 )

P

(32)

Como los errores son ruidos blancos con media cero, ecuaciĂłn (32) serĂĄ igual a:

E ( yt ) P

(33)

407


ESTADĂ?STICAS Y ECONOMETRĂ?A FINANCIERA

A continuaciĂłn se calcula la varianza de y. Se recuerda que la varianza se define como:

var ( yt ) J 0

^

E ª yt E yt ºŸ

2

`

E[( yt P ) 2 ]

(34)

Sin perder generalidad en este proceso, se asume que Îź = 0 y se desarrolla la ecuaciĂłn (34):

E[ yt 2 ] E[(ut T1 u ut 1 T 2 u ut 2 T3 u ut 3 ) 2 ]

var ( yt ) J 0

(35)

Si se opera: 2 2 2 Ȗ0 E[(ut2 +ș12 ×ut-1 +ș22 ×ut-2 +ș32 ×ut-3 +(2×ș1 ×ut ×ut-1 +otros tÊrminos cruzados)]

(36)

Se analiza el primer tÊrmino cruzado que se presenta en la ecuación (2 u θ1 u ut u ut-1 ). Para esto se recuerda que la covarianza se define como:

cov (ut , ut j )

E (ut u ut j ) E (ut ) u E (ut j )

E (ut u ut j )

(37)

Asimismo, como los errores son ruidos blancos, la autocovarianza de los errores es cero, obsÊrvese la ecuación (10). Por lo tanto, cuando se aplique el operador de la esperanza a cada uno de los tÊrminos cruzados en la ecuación (36), estos serån iguales a cero. Lo que queda por ver ahora es quÊ pasa con los primeros elementos de la ecuación (36): 2 2 2 var(yt )= Ȗ 0 E(ut2 )+ș12 × E(ut-1 )+ș22 × E(ut-2 )+ș32 × E(ut-3 )

var(yt )= Č– 0

V 2 ș12 u V 2 ș22 u V 2 ș32 u V 2

var(yt )= Č– 0

V 2 u (1+ș12 ș22 ș32

(38)

Ahora, lo que queda por calcular son las autocovarianzas de este modelo. Para eso se recuerda que: cov ( yt , yt j )

E ( yt u yt j ) E ( yt ) u E ( yt j ) E ( yt u yt j )

(39)

En esta ecuaciĂłn se sigue con el supuesto que Îź = 0, es decir que E(y t ) = E(yt-1 ) = 0. Se procede a calcular la autocovarianza de primer orden: cov( yt , yt 1 ) E( yt u yt 1 ) E[(ut T1 u ut 1 T2 u ut 2 T3 u ut 3 ) u (ut 1 T1 u ut 2 T2 u ut 3 T3 u ut 4 )] (40)

Si se opera: 2 2 2 cov(yt , yt-1 )= E(yt u yt-1 )= E[ș1 u Xt-1 ș1 u ș2 u Xt-2 ș2 u ș3 u Xt-3 WÊrminos cruzados] (41)

408


CAPĂ?TULO 12

Modelos de series de tiempo

De nuevo, al aplicar el operador de la esperanza a los tĂŠrminos cruzados estos desaparecerĂĄn de la ecuaciĂłn. Se analiza la primera parte de esta ecuaciĂłn: 2 2 2

ș1 u ș2 u ( Xt-2

ș2 u ș3 u ( Xt-3

cov(yt , yt-1 ) =J 1 =ș1 u ( Xt-1

cov(yt , yt-1 ) =J 1 =ș1 u V 2 +ș1 u ș2 u V 2 +ș2 u ș3 u V 2

(42)

cov(yt , yt-1 ) =J 1 =V 2 u (ș1 ș1 u ș2 ș2 u ș3

Se hace lo mismo para determinar las autocovarianzas de orden superior: cov ( yt ,yt 2 ) E( yt u yt 2 ) E[(ut T1 u ut 1 T2 u ut 2 T3 u ut 3 ) u (ut 2 T1 u ut 3 T2 u ut 4 T3 u ut 5 )] (43) 2 2 cov(yt , yt-2 )= E(yt u yt-2 )= E[ș2 u Xt-2 ș1 u ș3 u Xt-3 WÊrminos cruzados]

(44)

Si se opera, se obtiene: 2 2 cov(yt , yt-2 ) =J 2 =ș2 u ( Xt-2

ș1 u ș3 u ( Xt-3

cov(yt , yt-2 ) =J 2 =ș2 u Ĺ 2 ș1 u ș3 u Ĺ 2

(45)

cov(yt , yt-2 ) =J 2 =Ĺ u ș2 ș1 u ș3

2

La autocovarianza de tercer orden: cov ( yt ,yt 3 ) E( yt u yt 3 ) E[(ut T1 u ut 1 T2 u ut 2 T3 u ut 3 ) u (ut 3 T1 u ut 4 T2 u ut 5 T3 u ut 6 )] (46) 2 cov(yt , yt-3 )= E(yt u yt-3 )= E[ș3 u Xt-3 WÊrminos cruzados]

(47)

Por lo tanto: 2 cov(yt , yt-3 )=J 3 =ș3 u ( Xt-3

cov(yt , yt-3 )=J 3 =Ĺ 2 u ș3

(48)

Como se puede apreciar, las covarianzas de orden mayor a 3 solo tendrĂĄn elementos cruzados, por lo que las covarianzas serĂĄn iguales a cero:

cov(yt , yt- j )= E(yt u yt- j )= 0 j > 3

(49)

Finalmente, se calculan las autocorrelaciones de acuerdo a la ecuaciĂłn (8):

U1

J1 J0

Ĺ 2 u ș1 ș1 u ș2 ș2 u ș3 ș1 ș1 u ș2 ș2 u ș3 = Ĺ 2 u ș12 ș22 ș32

ș12 ș22 ș32

(50)

409


ESTAD�STICAS Y ECONOMETR�A FINANCIERA Este libro de los profesores Eduardo Court y Erick Rengifo ofrece un anålisis riguroso y exhaustivo de la compleja interacción entre la estadística, econometría y los mercados ÀQDQFLHURV \ HV XQD FRQWULEXFLyQ PX\ LPSRUWDQWH D OD OLWHUDWXUD HVSDxROD GH ORV PHUFDGRV ÀQDQFLHURV /D LPSOHPHQWDFLyQ GH GLIHUHQWHV PRGHORV KDFH TXH HO DOFDQFH GHO OLEUR VHD EDVWDQWH DPSOLR \ PX\ SUiFWLFR (VWH OLEUR HV GH OHFWXUD REOLJDWRULD SDUD HVWXGLDQWHV \ SURIHVLRQDOHV GH ODV ÀQDQ]DV Joseph Quinlan Chief Market Strategist and Managing Director for Global Wealth and Investment Management at US Trust. US Trust is the private Wealth management arm of Bank of America

Este libro constituye un valioso aporte de Eduardo Court y Erick Rengifo a la literatura ÀQDQFLHUD \D TXH SUHVHQWDQ GH PDQHUD PX\ VHQFLOOD \ GLGiFWLFD ORV DVSHFWRV IXQGDPHQWDOHV GH OD WHRUtD HVWDGtVWLFD \ VX DSOLFDFLyQ D ODV GLVWLQWDV KHUUDPLHQWDV \ PRGHORV TXH XWLOL]DQ ORV DJHQWHV ÀQDQFLHURV (O PXQGR PRGHUQR JHQHUD FDGD YH] PiV LQVWUXPHQWRV \ RSHUDWLYDV ÀQDQFLHUDV GH PD\RU FRPSOHMLGDG \ VRÀVWLFDFLyQ (VWR H[LJH D VX YH] HQWHQGHU \ H[SOLFDU OD GHWHUPLQDFLyQ \ PHGLFLyQ GH ORV QXHYRV ULHVJRV TXH VH GHULYDQ GH HOORV HV DTXt TXH ODV KHUUDPLHQWDV \ PRGHORV HFRQRPHWUtD ÀQDQFLHUD VH FRQVWLWX\HQ FRPR XQ EXHQ VRSRUWH SDUD OD WRPD GH GHFLVLRQHV &RQVLGHUR HVWH OLEUR GH PXFKD LPSRUWDQFLD \ GH OHFWXUD QHFHVDULD GHVGH HVWXGLDQWHV KDVWD SURIHVLRQDOHV TXH HVWpQ LQYROXFUDGRV HQ HO PXQGR GH ODV ÀQDQ]DV Hector ALonso Bueno Lujån Gerente de Riesgos de Empresas y Corporaciones, BBVA Banco Continental Global Risk Management - BBVA Group

DivisiĂłn LatinoamĂŠrica Cono Sur Rojas 2128 (C1416 CPX) Buenos Aires, Argentina www.cengage.com.ar

Pacto Andino: Colombia, Venezuela y Ecuador Cra. 7 N° 74-21, Piso 8, Ed. Seguros Aurora Bogotå D.C., Colombia www.cengage.com.co

MĂŠxico Corporativo Santa Fe 505, piso 12 Col. Cruz Manca, Santa Fe 05349, Cuajimalpa, MĂŠxico DF www.cengage.com.mx

El Caribe Metro Office Park 3 - Barrio Capellania Suite 201, St. 1, Lot. 3 - Code 00968-1705 Guaynabo, Puerto Rico www.cengage.com


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.