Revista Cuadernos de Economía 55

Page 1

55

NACIONAL FACULTAD DE CIENCIAS ECONÓMICAS ESCUELA DE ECONOMÍA

CUADERNOS DE ECONOMÍA

CID

Centro de Investigaciones para el Desarrollo


UNIVERSIDAD NACIONAL DE COLOMBIA Rector Moisés Wasserman Lerner Vicerrector Sede Bogotá Julio Esteban Colmenares FACULTAD DE CIENCIAS ECONÓMICAS Decano Jorge Iván Bula Escobar ESCUELA DE ECONOMÍA Director Leonardo Duarte Vergara CENTRO DE INVESTIGACIONES PARA EL DESARROLLO (CID) Jorge Armando Rodríguez Alarcón DOCTORADO EN CIENCIAS ECONÓMICAS Coordinador Académico Oscar Arturo Benavides González MAESTRÍA EN CIENCIAS ECONÓMICAS Coordinador académico encargado Leonardo Duarte Vergara PROGRAMA CURRICULAR DE ECONOMÍA Coordinador Héctor William Cárdenas Mahecha

CUADERNOS DE ECONOMÍA EDITOR Álvaro Moreno Mg. en Economía Profesor Asociado FCE Universidad Nacional de Colombia CONSEJO EDITORIAL Liliana Chicaíza Doctora en Economía y Gestión de la Salud Profesora Asociada FCE Universidad Nacional de Colombia Mario García Ph. D. en Economía Profesor Asociado FCE Universidad Nacional de Colombia Iván Darío Hernández Ph. D. en Economía Profesor Asociado FCE Universidad Nacional de Colombia Gabriel Misas Mg. en Ciencias Económicas Profesor Titular FCE Universidad Nacional de Colombia Marcela Eslava Ph. D. en Economía Universidad de los Andes Andrés Álvarez Ph. D. en Economía Universidad de los Andes José Félix Cataño Ph. D. en Ciencias Económicas Universidad de los Andes Darío Maldonado Ph. D. en Economía Universidad del Rosario Marcelo Bucheli Doctor en Historia University of Illinois at Urbana-Champaign


UNIVERSIDAD NACIONAL DE COLOMBIA FACULTAD DE CIENCIAS ECONÓMICAS ESCUELA DE ECONOMÍA

CUADERNOS DE ECONOMÍA VOLUMEN XXX NÚMERO 55 SEGUNDO SEMESTRE DE 2011 (JULIO - DICIEMBRE) Tarifa Postal Reducida No. 2011-440 4-72 La Red Postal de Colombia Vence el 31 de diciembre de 2011 ISSN versión física 0121-4772 ISSN versión electrónica 2248-4337

Bogotá, D.C. - Colombia 2011


II


CONTENIDO

TEORÍA ECONÓMICA Mercantilismo, acumulación de capital y desarrollo económico en la economía monetaria de producción (nacional) Hernando Matallana

1

Reflexión acerca de la representación del agente en la teoría económica evolutiva: controversia entre las perspectivas ortodoxa y heterodoxa Víctor Mauricio Castañeda Rodríguez

31

El utilitarismo de Jeremy Bentham ¿fundamento de la teoría de Leon Walras? Aída-Sofía Rivera-Sotelo

55

MACROECONOMÍA INTERNACIONAL Acumulación de reservas internacionales en economías emergentes José De Gregorio

77

Identificación de episodios de dependencia no lineal en el peso mexicano Semei Coronado Ramírez y Leonardo Gatica Arreola

91

III


IV

En busca de un modelo Benchmark Univariado para predecir la tasa de desempleo de Chile Javier Contreras-Reyes y Byron Idrovo

105

ECONOMÍA FINANCIERA Revisando la hipótesis de los mercados eficientes: nuevos datos, nuevas crisis y nuevas estimaciones Jorge Mario Uribe Gil e Inés María Ulloa Villegas

127

Fragilidad financiera y tasa de cambio Juan Carlos Castro Fernández

155

VIOLENCIA Y ECONOMÍA La calidad de vida y la situación de pobreza de la población desplazada (2008-2010) Manuel Muñoz Conde y Nelson Pachón García

179

ECONOMÍA Y MEDIO AMBIENTE Valuing a water recreation facility using semi parametric estimators in the travel cost method Mónica Marcela Jaime Torres y Alejandro M. Tudela Román

217

DESARROLLO ECONÓMICO Industrialización y desindustrialización de Argentina en la segunda mitad del siglo XX. La paradójica validez de las leyes de Kaldor-Verdoorn Sergio Raúl Cabezas, Patricia Inés Laría y Verónica Rama

235

RESEÑAS Y DEBATES

273

Reseña del libro “Un resumen completo de El Capital de Marx”, de Diego Guerrero Ian J. Seda-Irizarry

RESÚMENES

281


CONTENTS

ECONOMIC THEORY Mercantilism, capital accumulation, and economic development in the (national) monetary production economy Hernando Matallana

1

Reflection about the agent representation en in evolutional economic theory: controversy between the orthodox and heterodox perspectives Víctor Mauricio Castañeda Rodríguez

31

Jeremy Bentham’s utilitarianism. Foundation of the theory of Leon Walras? Aída-Sofía Rivera-Sotelo

55

INTERNATIONAL MACROECONOMICS International reserve accumulation in emerging economies José De Gregorio

77

Identification of non linear dependence episodes in the Mexican peso Semei Coronado Ramírez and Leonardo Gatica Arreola

91

V


VI

In the search of a univariate Benchmark model to forecast the unemployment rate Javier Contreras-Reyes and Byron Idrovo

105

FINANCIAL ECONOMICS Reviewing the efficient markets’ hypothesis : new data, new crises, and new estimations Jorge Mario Uribe Gil and Inés María Ulloa Villegas

127

Financial fragility and exchange rate Juan Carlos Castro Fernández

155

VIOLENCE AND ECONOMY Quality of life and the poverty situation of the displaced population (20082010) Manuel Muñoz Conde and Nelson Pachón García

179

ECONOMY AND ENVIRONMENT Valuing a water recreation facility using semi parametric estimators in the travel cost method Mónica Marcela Jaime Torres and Alejandro M. Tudela Román

217

ECONOMIC DEVELOPMENT Argentinean industrialization and de-industrialization in the second half of the twentieth century. The paradoxical validity of the Kaldro-Verdoorn laws Sergio Raúl Cabezas, Patricia Inés Laría and Verónica Rama

235

REVIEWS AND DEBATES

273

Review of the book “A complete summary of Marx’s Capital”, by Diego Guerrero Ian J. Seda-Irizarry

ABSTRACTS

286


SOMMAIRE

ECONOMIC THEORY Mercantilism, capital accumulation, and economic development in the (national) monetary production economy Hernando Matallana

1

Reflection about the agent representation en in evolutional economic theory: controversy between the orthodox and heterodox perspectives Víctor Mauricio Castañeda Rodríguez

31

Jeremy Bentham’s utilitarianism. Foundation of the theory of Leon Walras? Aída-Sofía Rivera-Sotelo

55

INTERNATIONAL MACROECONOMICS International reserve accumulation in emerging economies José De Gregorio

77

Identification of non linear dependence episodes in the Mexican peso Semei Coronado Ramírez et Leonardo Gatica Arreola

91

VII


VIII

Searching a benchmark model to forecasting Chilean unemployment Javier Contreras-Reyes et Byron Idrovo

105

FINANCIAL ECONOMICS Reviewing the efficient markets’ hypothesis : new data, new crises, and new estimations Jorge Mario Uribe Gil et Inés María Ulloa Villegas

127

Financial fragility and exchange rate Juan Carlos Castro Fernández

155

VIOLENCE AND ECONOMY Quality of life and the poverty situation of the displaced population (20082010) Manuel Muñoz Conde et Nelson Pachón García

179

ECONOMY AND ENVIRONMENT Valuing a water recreation facility using semi parametric estimators in the travel cost method Mónica Marcela Jaime Torres et Alejandro M. Tudela Román

217

ECONOMIC DEVELOPMENT Argentinean industrialization and de-industrialization in the second half of the twentieth century. The paradoxical validity of the Kaldro-Verdoorn laws Sergio Raúl Cabezas, Patricia Inés Laría et Verónica Rama

COMPTE-RENDU ET DÉBATS

1

235

Review of the book “A complete summary of Marx’s Capital”, by Diego Guerrero Ian J. Seda-Irizarry

RÉSUMÉS

291


MERCANTILISMO, ACUMULACIÓN DE CAPITAL Y DESARROLLO ECONÓMICO EN LA ECONOMÍA MONETARIA DE PRODUCCIÓN (NACIONAL)

Hernando Matallana1 By this order duly kept in our trading, we may rest assured that the Kingdom shall be enriched yearly [. . .] because that part of our stock which is not returned to us in wares must necessarily be brought home in treasure. Thomas Mun, England’s Treasure by Forraign Trade, 1664. Let me first state in my own terms what now seems to me to be the element of truth in mercantilist doctrine. [. . .] It should be understood that the advantages claimed are avowedly national advantages and are unlikely to benefit the world as a whole. John M. Keynes, General Theory, 1936.

La consigna de política económica de China durante las últimas tres décadas ha sido una balanza comercial superavitaria y la consolidación de su condición de país acreedor en el mercado mundial. La historia económica del capitalismo de los últimos cinco siglos muestra que esta doble consigna mercantilista, por definición de carácter nacional, se cumple siempre para todos los países que en un momento histórico dado han alcanzado el estatuto de economía capitalista desarrollada. 1 Magister

en Economía. Actualmente es profesor de economía en la Facultad de Economía de la Universidad de los Andes (Bogotá, Colombia). E-mail: hmatalla@uniandes.edu.co. Dirección de correspondencia: Calle 19 No. 1-37, Edificio W, Bogotá, Colombia. El autor agradece de manera especial a Álvaro Moreno Rivas, Amanda Carolina Ortiz y a dos evaluadores anónimos por sus valiosos comentarios. Este artículo fue recibido el 23 de febrero de 2011, la versión ajustada fue recibida el 27 de septiembre de 2011 y su publicación aprobada el 5 de octubre de 2011.

1


2

Cuadernos de Economía, 30(55), julio - diciembre de 2011

De hecho, la condición histórica de país acreedor internacional neto con superávit comercial, acumulación de capital y auge económico sostenidos se registra siempre para las grandes potencias europeas entre los siglos XVI y XIX, en particular Amsterdam y las Provincias Unidas en los siglos XVII y XVIII; Inglaterra en los siglos XVIII y XIX y Alemania en el último tercio del siglo XIX. También se cumple para los Estados Unidos en el último tercio del siglo XIX y la primera mitad del siglo XX, Alemania occidental y Japón en la segunda mitad del siglo XX, los llamados “tigres asiático” en las dos últimas décadas del siglo XX y ciertamente China en la última década del siglo XX y en lo corrido del siglo XXI. Estos distintos procesos han tenido lugar en un mercado mundial caracterizado por la existencia de múltiples monedas nacionales y por su división en países desarrollados del Primer Mundo y países subdesarrollados del Tercer Mundo (y el Segundo Mundo). De nuevo, se registra aquí una segunda coincidencia histórica, en la medida en que sólo aquellos países cuyas monedas nacionales han alcanzado el estatuto de medio de pagos diferidos de contratos internacionales –y en esa medida de moneda mundial–, son en sentido estricto países capitalistas desarrollados, y entre estos sólo unos pocos han logrado una hegemonía monetaria mundial. En el siglo XX, algunas de estas monedas fueron la libra esterlina, el dólar estadounidense, el marco alemán y el yen japonés. En lo que va corrido del siglo XXI, lo son el dólar estadounidense, el euro y el yen, sin saberse aún si el yuan chino alcanzará el estatuto de medio de pagos diferidos internacional en lo que resta del presente siglo. En contraste, los países subdesarrollados se caracterizan justamente por el hecho de que sus monedas nacionales no tienen dicho estatuto o porque carecen en absoluto de una moneda nacional. Históricamente, la cualidad de la moneda nacional de los países desarrollados como moneda mundial ha estado precedida por la realización sostenida de un superávit comercial y la consolidación de su posición como acreedor neto en el mercado mundial. Este es el caso en el siglo XX del dólar norteamericano, el marco alemán y el yen japonés. Sin embargo, la experiencia histórica de los llamados “tigres asiáticos” advierte también que la realización de un superávit comercial sostenido y la posición de acreedor neto en el mercado mundial no son condición suficiente para que una moneda nacional alcance el estatuto de moneda mundial. Con todo, no deja de ser cierto que un superávit comercial y una posición acreedora internacional neta garantizan a una economía nacional una cierta estabilidad macroeconómica, al tiempo que abren la posibilidad de un proceso de desarrollo económico. De allí el interés y la importancia de considerar la lógica monetaria de una estrategia mercantilista de desarrollo, por definición nacional en sus rasgos generales y fundamentales. Este documento discute la lógica económica de una política mercantilista como estrategia de desarrollo económico nacional exitoso, en el contexto de un mercado mundial caracterizado por la existencia de múltiples economías/monedas na-


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

3

cionales, desde la perspectiva keynesiano-monetaria de una economía monetaria de producción2 . El artículo está organizado en seis secciones. En la primera se discute de manera sucinta las nociones de economía monetaria de producción, mercado mundial y desarrollo económico capitalista en la concepción keynesiano-monetaria. En el segundo apartado se presenta el principio de la demanda efectiva como determinante económico de la ganancia y la acumulación de capital en una economía nacional, en un contexto de economía abierta. La tercera parte está dedicada al principio de la ventaja absoluta, la subvaluación de la moneda nacional y la acumulación de reservas internacionales como la condición de mercado bajo la cual tiene lugar la realización de un superávit comercial –como estrategia mercantilista de acumulación de capital. El cuarto segmento trata las condiciones de mercado para la realización de una ganancia no distribuida en el contexto de una economía abierta a partir de la segunda ecuación fundamental de Keynes (1971) y la dinámica de los precios, la producción, el empleo, y la política monetaria y fiscal en situaciones de desempleo involuntario y cuasi-pleno empleo. La quinta sección discute las condiciones generales bajo las cuales debe desarrollarse una política macroeconómica y en particular la política fiscal, con el objetivo de estabilizar el valor interno y externo de la moneda nacional y simultáneamente garantizar la subvaluación de la misma. Se finaliza con algunos comentarios sobre la turbulenta dinámica monetaria y económica del capitalismo mundial en los siglos XX y XXI.

ECONOMÍA MONETARIA DE PRODUCCIÓN Y CAPITALISMO Lógica monetaria, capitalismo y mercado mundial Una posición heterodoxa keynesiano-monetaria sugiere diversos momentos que permiten aprehender el capitalismo como una economía monetaria de producción: 1. El capital-dinero en tanto relación social encierra la determinación del dinero como medio de pagos diferidos (mercancía de contratos en Marx o medium of deferred payments en Keynes) y del capital en tanto valor (a ser) valorizado. En esa doble determinación fundamenta una economía monetaria de producción. 2. El capitalismo en tanto que formación social histórica específica es una economía monetaria de producción (sea bien en su particularidad como economía nacional o bien como totalidad en tanto mercado mundial). 2 Keynes

formula la noción teórica de economía monetaria de producción en 1933 y posteriormente en 1935 (Keynes, 1973). La concepción keynesiano-monetaria de la economía monetaria de producción se refiere a la propuesta teórica de la ‘Escuela de Berlín’ (Riese, 1986, 2001; Betz, 1993, 2001; Lüken-Klaßen (1993); Cassens, 1997).


4

Cuadernos de Economía, 30(55), julio - diciembre de 2011

3. La existencia de diversas monedas nacionales da lugar a una economía monetaria internacional, tal que el mercado de divisas constituye el criterio económico de mercado mundial; la moneda nacional determina la cualidad específica del espacio monetario-económico nacional; la participación relativa de títulos denominados nacional en el portafolio de los propietarios de riqueza determina la extensión del espacio monetario-económico nacional; y la tasa de cambio. 4. El criterio económico de desarrollo capitalista nacional en un mercado mundial caracterizado por la existencia de diversas monedas nacionales es la condición de la moneda nacional como medio de pagos diferidos internacional y en esa medida como moneda mundial. Esta condición garantiza la coherencia interna de la economía nacional, sin que ello implique necesariamente una posición monetaria hegemónica en el mercado mundial. 5. La lógica monetaria de la dinámica económica del mercado mundial produce de manera sistemática la particularización interna del sistema monetario internacional en una jerarquía de monedas nacionales, de las cuales sólo algunas tienen la función de moneda mundial, mientras que las restantes no desempeñan dicha función. En esa medida se entiende la división histórica de la economía mundial en países desarrollados y subdesarrollados, los primeros hegemónicos y los segundos dependientes. 6. El dual real de la jerarquía mundial de monedas nacionales es un sistema de la división internacional del trabajo, al interior del cual se desarrolla y perpetúa el creciente diferencial internacional del salario real y la productividad del trabajo entre los países desarrollados del Primer Mundo y los subdesarrollados del Tercer Mundo. Dos precisiones conceptuales son necesarias aquí. 1. Una economía monetaria de producción es aquella: [E]n la que el dinero juega un papel por sí mismo, y afecta las motivaciones y las decisiones, y en la que, en síntesis, es uno de los factores operativos de la situación, de modo que no se puede predecir el curso de los acontecimientos, ni en el largo plazo ni en el corto plazo, sin saber qué papel juega el dinero entre el estado inicial y el estado final (Keynes, 1973, 408).

2. La consideración teórica económico-monetaria del mercado mundial implica su determinación como un sistema económico de poder en función de los intereses nacionales de los países hegemónicos de un Primer Mundo desarrollado, cuya reproducción sistemática en tanto que países desarrollados tiene como resultado la reproducción sistemática de un Tercer Mundo subdesarrollado y dependiente.


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

5

Capitalismo, acumulación originaria y mercado mundial Un proceso exitoso de desarrollo económico nacional exige una política económica mercantilista (en un sentido económico-funcional no necesariamente estatista y regulador) conforme con la lógica monetaria del capitalismo en tanto que mercado mundial. De una parte, como momento económico interno, un proceso de acumulación originaria de capital (en el sentido marxista del término, sin que ello implique el recurso a la teoría marxista del valor-trabajo). De otra, como momento económico externo, la realización sostenida de un superávit comercial, el desarrollo de la condición de la economía nacional como acreedor neto mundial y la imposición de la moneda nacional en el mercado mundial como medio de pagos diferidos internacional (mercancía universal de contratos). En general, un proceso de acumulación originaria de capital implica la constitución de una economía monetaria de producción, es decir, la generalización del dinero como relación social y supone: La acción del Estado como agente fiscal y monetario (hacienda pública y banca central: impuestos, medio de pagos diferidos, moneda soberana). La organización interna de la sociedad como un sistema de clases socialesfuncionales de carácter capitalista. La distribución funcional de la propiedad privada en manos de la clase capitalista y la particularización de la misma en propietarios de patrimonio (wealth owners), firmas y bancos privados. El desarrollo del trabajo asalariado como un momento interno de las condiciones de producción y reproducción del capital-dinero en tanto que relación social. La organización de la economía como un sistema de mercados cuya lógica monetaria implica el predominio de la esfera monetaria (dinero, crédito, assets) sobre la esfera real (bienes, trabajo asalariado). El desarrollo del proceso económico en tanto que unidad de la producción, distribución, circulación y consumo, bajo la lógica monetaria del capitaldinero. La distribución y la apropiación del ingreso bajo las formas del interés del dinero, la ganancia, la renta del suelo, el impuesto y el salario. La formación de un sistema de precios en el sistema de mercados de la economía. La demanda efectiva como condición de la formación de un ingreso monetario, en particular de la ganancia no distribuida. En un mercado mundial caracterizado por la existencia de diversas monedas nacionales y dividido en países desarrollados y subdesarrollados, la condición de desarrollo económico nacional exige la institución de la moneda nacional como: 1. Criterio económico del espacio monetario nacional y en esa medida del mercado nacional, lo que implica la existencia y la acción económica del Estado


6

Cuadernos de Economía, 30(55), julio - diciembre de 2011

en tanto que agente fiscal (hacienda pública: deuda pública, impuestos), monetario (banca central: medio de pagos diferidos, política monetaria) y cambiario (banca central: tasa de cambio, reservas internacionales). 2. Medio de pagos diferidos universal, es decir, como dinero mundial, siendo condición necesaria y suficiente de la coherencia monetaria y económica interna nacionales y, en esa medida, criterio de la compleción de un proceso de desarrollo económico nacional en el contexto de una economía monetaria internacional.

Demanda efectiva, el principio de la ventaja absoluta y proteccionismo discrecional La acumulación de capital en la economía nacional abierta comprende tres momentos: 1. El desarrollo de la demanda efectiva como condición de la formación de un ingreso monetario, en particular, de la inversión como determinante general de la acumulación de capital y la realización de ganancias no distribuidas, siendo un elemento específico de un proceso sostenido de acumulación. 2. El desarrollo de la ventaja absoluta como condición específica de la realización de un superávit comercial y, en esa medida, de la obtención de ganancias no distribuidas y la acumulación de capital en una economía nacional abierta. 3. Una política de proteccionismo discrecional, por oposición al proteccionismo global que implica la ventaja absoluta, como condición específica del desarrollo de la economía nacional. El desarrollo simultáneo de la inversión y el superávit comercial como el momento demanda de la acumulación interna y externa de capital, de una parte, y de la ventaja absoluta como el momento precio de la realización de un superávit comercial, de otra, tiene como condición la estabilidad del nivel de precios en el frente interno, y la subvaluación de la moneda nacional y la estabilidad de una tasa de cambio real en el frente externo. En una economía monetaria de producción, ambos momentos están determinados de manera sustancial por las disposiciones sobre dinero de los agentes económicos –los propietarios de patrimonio (wealth owners), los bancos privados, la autoridad monetaria (banca central) y el gobierno (hacienda pública)–, en los mercados de dinero, crédito, assets y divisas. Luego la realización de estos distintos momentos exige, en particular: 1. Una política de estabilidad del nivel de precios bajo la forma de (a) una política monetaria y fiscal restrictivas, tal que el ritmo de expansión de la oferta de crédito no supere el ritmo de expansión de la demanda de depósitos en moneda nacional y (b) una política de ingresos que garantice que el incremento porcentual del salario nominal no supere el aumento porcentual de la productividad del trabajo.


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

7

2. Una política de subvaluación y estabilidad de la tasa de cambio, bajo la forma de una política cambiaria de exportación neta de capitales. Se trata específicamente de una política de acumulación de reservas internacionales que contrarreste el efecto de una importación neta de capitales privados sobre la tasa de cambio y estabilice la subvaluación de la moneda nacional. 3. Una política de proteccionismo discrecional bajo una subvaluación de la moneda nacional dirigida a la protección y promoción de la producción de mercancías con un alto valor agregado promueve el desarrollo y aprovechamiento de las ventajas comparativas de la economía nacional. En un proceso dinámico de acumulación de capital esto da lugar a la reasignación de los medios de producción y el desarrollo de los factores productivos como condición de evolución de una estructura productiva compleja (alta densidad de la matriz de producción) y de un mercado nacional caracterizado por la producción y demanda efectiva de bienes de consumo de alta calidad (baja elasticidad-precio de demanda) (Lüken-Klaßen, 1993; Hölscher, 1994). Una estrategia mercantilista nacional conforme con la lógica monetaria de la dinámica económica capitalista debe entonces crear las condiciones de mercado que permitan instrumentalizar de manera eficaz el mercado mundial en función de la acumulación de capital y el desarrollo económico nacionales.

DEMANDA EFECTIVA, GANANCIA Y ACUMULACIÓN DE CAPITAL Las ganancias en el circuito económico El fin de la producción capitalista es la realización de una ganancia y la expectativa de una ganancia el móvil de la decisión de inversión de las firmas. A su vez, la acumulación, concentración y centralización de capital es el medio para potenciar la capacidad de las empresas para obtener ganancias (Marx, 1968). En una economía abierta, un superávit comercial es un momento estratégico de la realización de la ganancia y la acumulación de capital. La lógica monetaria del circuito económico de una economía monetaria de producción implica que en el agregado la ganancia realizada por las firmas consideradas en su conjunto, está dada por la demanda agregada menos los salarios. En una economía abierta con gobierno, esta proposición puede escribirse como: Q = C + I + G − T + Ex − Im − W

(1)

Siendo Q la ganancia realizada, C el consumo final, I la inversión bruta, G el gasto público, T los impuestos, Ex las exportaciones, Im las importaciones, W los salarios.


8

Cuadernos de Economía, 30(55), julio - diciembre de 2011

El consumo final y la inversión constituyen el componente interno privado, el déficit fiscal el componente interno público y el superávit en la cuenta corriente de la balanza de pagos el componente externo neto de la demanda agregada. En particular, la inversión refleja un cálculo privado de rentabilidad esperada (ex ante) de largo plazo de las firmas y tiene un efecto real en la media en que implica la expansión de la capacidad productiva de la economía y simultáneamente la elevación del ingreso y el empleo. En contraste, el gasto público obedece a un cálculo que no necesariamente implica una inversión pública eficaz, pero que si puede obedecer al ciclo político propio de los regímenes liberales. En una perspectiva funcional (Kalecki, 1956), el consumo final se divide en el consumo de los trabajadores CW y el consumo de los capitalistas CQ : C = CW + CQ

(2)

El salario en consumo CW y ahorro SW de los trabajadores: W = CW + SW

(3)

Sustituyendo (2) y (3) en (1) puede escribirse la ecuación kaleckiana de la demanda de la siguiente manera: Q = CQ + I − SW + G − T + Ex − Im

(4)

En la ecuación (4) la ganancia realizada depende positivamente del gasto de consumo de los hogares capitalistas, la inversión de las firmas, el déficit fiscal del gobierno, el superávit en cuenta corriente; y negativamente del ahorro de los trabajadores. Esto último se explica porque, desde la perspectiva de las firmas consideradas en su conjunto, el pago de salarios es una salida y el consumo de los trabajadores una entrada. De modo que, el ahorro de los trabajadores es un monto de dinero que sale de las empresas, pero que no regresa a éstas, y en consecuencia, un saldo negativo que reduce las ganancias de las firmas en igual monto. Conviene entonces a las empresas, y en esa medida a la clase capitalista, que los trabajadores no ahorren. En el agregado, si SW = 0, con G = T y Ex = Im, se cumple de manera exacta que los trabajadores gastan lo que ganan y los capitalistas ganan lo que gastan: Q = CQ + I

(5)

La ecuación (5) advierte sobre el papel central del gasto de la clase capitalista en la formación del ingreso monetario que las firmas se apropian, bajo la forma de la ganancia realizada.


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

9

La clase capitalista gana lo que gasta justamente porque se adelanta a sí misma su propia ganancia3 . Las ganancias obtenidas permiten a las firmas eventualmente financiar el pago de obligaciones monetarias y además llevar a cabo, con base en las ganancias no distribuidas, la autofinanciación de la acumulación de capital.

Ganancias no distribuidas y acumulación de capital Analíticamente, las ganancias realizadas, una categoría ex post, pueden descomponerse en dos rubros (Keynes, 1971, 111-135): La ganancia normal o ganancia ex ante tal que las firmas, dadas sus expectativas y las señales de mercado, no tienen ningún motivo para reconsiderar su decisión de producción y empleo, y en esa medida su política de contratación de factores productivos4 . Los distintos agentes económicos que constituyen la clase capitalista y en los cuales ésta última se particulariza – de una parte bancos, propietarios de patrimonio (wealth-owners) y firmas, y de otra el Estado–, tienen un derecho sobre las ganancia normal o ex ante de las firmas previa realización, bajo la forma de intereses, dividendos, rentas, depreciación, remuneración normal de los empresarios e impuestos. Las ganancias no distribuidas o de estado de mercado (market-state profits), es una categoría ex post y pueden ser positivas, negativas o nulas, según sea la relación entre las decisiones ex ante de demanda y las decisiones ex ante de oferta de los agentes económicos. Esta relación fundamenta el principio de la demanda efectiva y sólo se hace manifiesta ex post como resultado práctico del proceso de mercado. En el equilibrio (de largo plazo), las decisiones ex ante de oferta y demanda de los agentes implican una ganancia no distribuida igual a cero, expresando así de manera precisa el principio de la demanda efectiva en la formulación de Keynes (1936). Luego una situación de desequilibrio se caracteriza por la no coincidencia de las decisiones ex ante de oferta y demanda de los agentes económicos, y tiene su expresión en la realización de ganancias no distribuidas no nulas –y como se discute en la siguiente sección, en un efecto precio de ganancia. Es posible escribir entonces: QS + QU = CQ + I − SW + G − T + Ex − Im 3 Kalecki

(6)

anota al respecto:

Ahora bien, está claro que los capitalistas pueden decidir invertir y consumir más en un período dado de tiempo que en el anterior, pero no pueden decidir ganar más. Por lo tanto, sus decisiones sobre inversión y consumo determinar las ganancias, y no a la inversa (Kalecki, 1956, 47; ver también Marx, 1968, volumen II). 4 En otras palabras, las ganancias “which, if they [i.e. the entrepreneurs] were open to make new bargains with all factors of production at the currently prevailing rates of earnings, would leave them under no motive either to increase or to decrease their scale of operations” (Keynes, 1971, 112).


10

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Siendo QS la ganancia normal y QU las ganancias no distribuidas. Restando QS a ambos lados de la ecuación (6) se obtienen las ganancias brutas no distribuidas, iguales a la suma de las ganancias netas no distribuidas más la depreciación: QU = (−QS + CQ ) + I − SW + G − T + Ex − Im = I − (SQ + SW ) + G − T + Ex − Im = I − SH + G − T + Ex − Im

(7)

SH es el ahorro total de los hogares5 . La ecuación (7) advierte que la suma de las ganancias no distribuidas es igual a la inversión menos el ahorro de los hogares más el déficit fiscal más el superávit en cuenta corriente. El equilibrio en el mercado de bienes implica que las decisiones ex ante de oferta y demanda de los agentes coindicen, de forma que no dan lugar a procesos de ajuste. En el marco de la ecuación (7), el equilibrio de mercado de bienes implica QU = 0. Esto último, muestra que las ganancias no distribuidas no nulas, positivas o negativas, son un fenómeno de desequilibrio (global) de la economía nacional. Las ganancias no distribuidas son resultado de la no coincidencia de las decisiones ex ante de los agentes privados y el gobierno en los mercados monetarios, en particular los mercados de dinero, crédito, assets y divisas. La existencia de ganancias no distribuidas no nulas da lugar a procesos acumulativos en el sistema de mercados e influyen sobre la dinámica económica a lo largo del ciclo económico; en esa medida alteran la trayectoria de la economía: “[P]rofits (or losses)”, es decir, QU > 0 (QU < 0), “having once come into existence become [. . .] a cause of what subsequently ensues; indeed, the main spring of change in the existing economic system. This is the essential reason why it is useful to segregate them in our fundamental equation” (Keynes, 1971, 126). En desequilibrio, las ganancias no distribuidas son positivas o negativas. En el primer caso promueven la acumulación de capital, dando lugar a un círculo virtuoso de nuevas ganancias no distribuidas, que a su vez impulsan la acumulación de 5 Alternativamente,

la ecuación de ganancias distribuidas se obtiene directamente de las ecuaciones del ingreso de factores y la demanda agregada. Para la economía cerrada y sin hacienda fiscal, sean Y S = C + SH –siendo Y S el ingreso de los factores, C el consumo y SH el ahorro de los hogares–, y Y D = C + I –siendo Y D la demanda agregada, I la inversión (incluida la depreciación del capital fijo). Reemplazando el consumo C = Y S − SH en la ecuación de demanda se tiene que Y D = (Y S − SH ) + I = Y S + I − SH . Restando Y S a ambos lados se obtiene la ecuación de ganancias no distribuida QU = Y D − Y S = I − SH . Para una economía abierta con gobierno (hacienda pública) se obtiene la ecuación (7). Esta derivación de las ganancias no distribuidas se considerará posteriormente desde otra perspectiva.


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

11

capital propia de la fase de auge del ciclo económico6 . En contraste, las segundas implican una reducción del patrimonio (capital propio) de las firmas y traen consigo el deterioro de la inversión, lo cual lleva a un deterioro mayor de las ganancias no distribuidas, ya de por sí negativas, alimentando el circulo vicioso en la fase recesiva y de crisis del ciclo económico (Keynes, 1971)7 . En uno y otro caso tienen lugar una dinámica económica caracterizada por procesos cumulativos que exigen, en el auge, una política monetaria y fiscal restrictiva, a fin de evitar el desarrollo de un proceso inflacionario; y en la recesión y la crisis, una política expansiva de gasto público, por parte del Estado con el propósito de reactivar la demanda agregada. En la economía abierta, tanto en la fase de auge como en la de recesión y crisis, un superávit comercial constituye siempre un momento clave de reactivación de la demanda agregada.

Inversión y financiación De la ecuación (7), si G = T y Ex = Im, se tiene entonces que: QU = I − SH

(8)

La ecuación (8) muestra que a nivel agregado la inversión es un gasto entre las firmas –miembros de la clase capitalista–; de modo que el dinero que financia la inversión no deja la esfera de la clase capitalista. Además, genera los recursos que posibilitan a las firmas la autofinanciación de la acumulación de capital, el pago de obligaciones con el sistema bancario y en general con el sistema financiero –y eventualmente, la constitución una reserva financiera líquida (Keynes, 1971, 120). La lógica monetaria del circuito económico de una economía capitalista implica que el desarrollo de la inversión requiere de dinero y no del ahorro de los hogares; indica también que sin inversión no hay ahorro, porque la inversión da lugar al ingreso que financia ese ahorro. El ahorro planeado positivo de los hogares es, en términos de una mecánica de saldos, una fracción del ingreso de factores productivos que las firmas pagan a los propietarios de estos últimos y que no refluye a 6 La

expansión de la capacidad productiva y la producción como consecuencia de la inversión y la mayor demanda, conllevan un mayor ingreso y por ende un nivel de ahorros más grande. Eventualmente, esta dinámica puede traer consigo un incremento en el nivel de precios (el efecto precio de ganancia se discute posteriormente en el texto), cuya expresión flujo es una ganancia no distribuida positiva. Tanto el efecto precio como el efecto cantidad tienden a desaparecer, en la medida en que la acumulación de capital se traduce en una expansión de la capacidad productiva, lo cual conduce a la eventual desaparición de la ganancia no distribuida. 7 Riese (1985b) hace una discusión detallada de una tipología de las fases del ciclo económico, a partir de la segunda ecuación fundamental de Keynes.


12

Cuadernos de Economía, 30(55), julio - diciembre de 2011

las firmas en forma de gasto de consumo de los hogares8 . En este sentido, es una no-apropiación de una fracción del valor de la producción del período. De otra parte, el ahorro planeado de los hogares es una no demanda de bienes producidos, que disminuye las ganancias no distribuidas en igual monto, y en esa medida reduce la capacidad interna de autofinanciación de la inversión por parte las firmas. En consecuencia, en el agregado el ahorro de los hogares es la medida exacta de la necesidad de financiación externa de las firmas (más precisamente, externa a la firma y en tal sentido distinta a la autofinanciación), en forma de crédito y emisión de títulos de deuda (Betz, 2001; Keynes, 1971). En términos formales, siendo F la necesidad de financiación de las firmas se tendrá la siguiente expresión: F = I − QU = SH

(9)

La ecuación (9) advierte sobre la importancia de las ganancias brutas no distribuidas como fuente de autofinanciación de las firmas y sobre la falacia de composición propia de la lógica real (no monetaria) de las economías clásica y neoclásica, según la cual lo que es válido a nivel individual también lo es a nivel agregado. Esta falacia de composición sirve de sustento a autores clásicos y neoclásicos cuando afirman que el ahorro de los hogares financia la inversión. En el caso de una economía abierta con gobierno, la ecuación de la necesidad de financiación de las firmas (F ) es: F = I − QU = SH − [(Ex − Im) + (G − T )]

(10)

Se advierte aquí que F se reduce en la medida en que la economía realice un superávit en cuenta corriente y/o un déficit fiscal. El ahorro planeado de los hogares exige a las firmas suplir el faltante de financiación de la inversión mediante el crédito bancario y/o mediante un superávit comercial y el déficit fiscal del gobierno. Esto último, dado que se obtienen ganancias no distribuidas que permiten a las firmas financiar la acumulación de capital con recursos propios, al tiempo que reducen la necesidad de financiamiento externo (en el sentido arriba desarrollado) y en esa medida el condicionamiento de las 8 De

manera más general, la lógica monetaria del circuito económico, expuesta por Marx en el segundo tomo de El Capital (Marx, 1968), y posteriormente por Keynes (1971, 1936) y Kalecki (1956), implica que: (i) el gasto de consumo y la inversión de la clase capitalista tiene como condición la disposición de dinero y no el ingreso del período anterior (como lo sugiere la economía política clásica) o del período que aún no se ha formado (como lo sugiere la economía neoclásica); (ii) la demanda efectiva bajo la forma del gasto de consumo de los hogares y la inversión de las firmas implica la formación de un ingreso monetario en la circulación igual a dicho gasto; (iii) los capitalistas ganan lo que gastan y los asalariados gastan lo que ganan; (iv) la inversión determina el ingreso que financia el ahorro de la economía, y no al revés como lo sugiere la economía clásica-neoclásica; y (v) el dinero lanzado directa o indirectamente al mercado de bienes por la clase capitalista, regresa a manos de esta última, siempre y cuando, no tenga lugar un ahorro por parte de los hogares capitalistas y trabajadores.


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

13

mismas con respecto al sistema financiero. Las ganancias no distribuidas como fuente de autofinanciación de la acumulación de capital cobran importancia cuando las empresas confrontan dificultades al momento de acceder a los mercados de crédito y de capital.

Inversión y ahorro Retomando la ecuación (7), si se restan CQ y SW a ambos lados de la ecuación (4) se obtiene el ahorro total de la economía: SH + QU = I + (Ex − Im) + (G − T )

(11)

La ecuación (11) advierte que el ahorro total de la economía –la suma del ahorro planeado de los hogares y las ganancias no distribuidas–, está determinado por la fuerza monetaria de la demanda agregada, y no es la condición de financiación de la demanda agregada como argumenta la teoría económica no monetaria. Kalecki se expresa de manera precisa sobre este punto: Ha de recalcarse que la igualdad entre el ahorro y la inversión más el excedente de exportación, más el déficit presupuestal en el caso general -o la inversión a solas en el caso especial- será válida en cualquier circunstancia. En particular, será independiente del nivel de la tasa de interés, que generalmente se consideraba en la teoría económica como el factor equilibrador entre la demanda y la oferta de capital nuevo. En la concepción presente la inversión, una vez que se ha llevado a cabo, provee automáticamente el ahorro necesario para financiarla (Kalecki, 1956, 2).

Y más adelante Para concretar: si algunos capitalistas aumentan su inversión usando reservas líquidas para este propósito, las ganancias de otros capitalistas aumentarán de manera correspondiente pasando de este modo estas reservas invertidas a manos de estos últimos. Si por medio de créditos bancarios se financian inversiones adicionales, el gasto de las cantidades en cuestión causará que una cantidad igual de las ganancias ahorradas se acumule en forma de depósitos bancarios. Por esta razón, los capitalistas que inviertan tendrán la posibilidad de emitir bonos en cierta medida para amortizar así los créditos bancarios. Una consecuencia importante de lo anterior es que la tasa de interés no puede ser determinada por la demanda y la oferta de capital nuevo, pues la inversión se financia a sí misma (Kalecki, 1956, 2)9 .

Keynes (1971) se expresa en el mismo sentido sobre las ganancias no distribuidas en el contexto de discusión de las ecuaciones fundamentales de la teoría del dinero. 9 Keynes

(1936) muestra en el capítulo 14 que la economía clásica supone de manera ilícita el ingreso como dado a fin de determinar la tasa de interés como resultado de la interacción del ahorro y la inversión. Una vez se considera que el ahorro depende del ingreso, una noción propia de la economía monetaria de producción y ajena a la lógica de la economía real, la conclusión ineludible es que la tasa de interés del dinero queda indeterminada.


14

Cuadernos de Economía, 30(55), julio - diciembre de 2011

En particular advierte sobre las implicaciones de la realización de ganancias no distribuidas positivas y negativas, sobre la dinámica de la acumulación de capital y la producción como momentos específicos del ciclo económico: Thus profits, as a source of capital increment for entrepreneurs, are a widow’s cruse which remains undepleted however much of them may be devoted to riotous living. When, on the other hand, entrepreneurs are making losses, and seek to recoup these losses by curtailing their normal expenditure on consumption, i.e. by saving more, the cruce becomes the Danaid jar which can never be filled up; for the effect of this reduced expenditure is to inflict on the producers of consumption goods a loss of an equal amount. Thus the diminution of their wealth, as a class, is as great, in spite of their savings, as it was before (Keynes 1971, 125).

Acumulación de capital, comercio exterior y mercado mundial La realización sostenida de una ganancia no distribuida es un momento esencial en la decisión de inversión de las firmas, en tanto momento dinámico de la acumulación de capital. La fuente de la acumulación de capital es en el frente interno la inversión y en el externo, el superávit comercial. El efecto real de la acumulación interna es la expansión de la producción y el empleo y el de la acumulación externa la exportación del producto nacional y el desempleo doméstico. El efecto conjunto de un superávit en inversión-ahorro y un superávit comercial con el resto del mundo es la elevación de las ganancias de las firmas y bajo determinadas circunstancias la realización de ganancias no distribuidas que permiten a las empresas desarrollar una política de acumulación de capital autofinanciada. A su vez, un mayor nivel de inversión y de demanda agregada, trae consigo una expansión del ingreso (multiplicador keynesiano) y con ello del ahorro (en tanto función del ingreso). En este sentido, conviene al interés económico particular de los capitalistas y del Estado de una economía nacional, la puesta en marcha una política mercantilista de desarrollo del mercado nacional, bajo la forma de acumulación interna de capital y la expansión externa de su economía nacional. Keynes (1971) y Kalecki (1974) esclarecieron de forma precisa este aspecto esencial de la lógica monetaria de la acumulación de capital. Escribe Kalecki: Lo anterior nos muestra, de manera clara, el significado de los mercados “externos” (incluyendo los creados por los déficits presupuestales) para la economía capitalista. Sin estos mercados, las ganancias está condicionadas por la capacidad de los capitalistas para consumir o para llevar a cabo inversiones de capital. Son el excedente de las exportaciones y el déficit presupuestal los que permiten a los capitalistas percibir ganancias por encima de sus compras de bienes y servicios.


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

15

La conexión entre las ganancias “externas” y el imperialismo es obvia. La lucha por la división de los mercados extranjeros existentes y la expansión de los imperios coloniales, que proveen de nuevas oportunidades para la exportación de capital asociada con la exportación de bienes, puede interpretarse como un esfuerzo para conseguir un excedente de exportaciones, la fuente clásica de las ganancias “externas”. Los programas de armamento y las guerras, generalmente financiados por medio de déficits presupuestales, son también una fuente de este tipo de ganancias (Kalecki, 1974, 54).

Keynes se expresa en el mismo sentido con respecto al carácter político de una estrategia mercantilista: “The merchantilists were under no illusions as to the nationalistic character of their policies and their tendency to promote war. It was national advantage and relative strength at which they were admittedly aiming” (Keynes, 1936, 348).

VENTAJA ABSOLUTA, SUBVALUACIÓN Y PROTECCIONISMO GLOBAL En la economía monetaria internacional, tal y como lo advirtiera Mun (1954), un superávit comercial sostenido es un momento económico clave de una política mercantilista exitosa. La realización del mismo implica el principio de la ventaja absoluta como argumento propio de una teoría monetaria de los precios (law of one price) en el contexto de una economía abierta. Exige, de una parte, la determinación teórica del precio de oferta o de producción como fundamento del principio de la ventaja absoluta; y de otra, la determinación teórica de (la subvaluación de) la tasa de cambio en el mercado de divisas como argumento sustancial de la ventaja absoluta. Estos dos elementos permiten fijar las condiciones de mercado para la realización de ganancias no distribuidas, como momento clave de un proceso sostenido de acumulación de capital en una economía abierta.

El principio de la ventaja absoluta El principio de la ventaja absoluta puede expresarse de manera sencilla en términos formales, una vez se advierte que la tasa de cambio nominal, el salario nominal, la productividad del trabajo y la distribución del ingreso de los factores capital y trabajo, determinan el precio de producción de una economía nacional en el mercado mundial (Betz y Lüken-Klaßen, 1994). El principio de la ventaja absoluta puede exponerse de manera sencilla para el caso de dos países, por ejemplo China (Ch) y Estados Unidos (US). El precio de producción de los Estados Unidos en dólares es:


16

Cuadernos de Economía, 30(55), julio - diciembre de 2011

PUSS =

=

WU S (1 + mU S ) yU S nom wU S (1 + mU S ) aU S

(12)

Siendo P S el precio de oferta, y el producto real de la economía, W la suma total de salarios nominales, wnom el salario nominal (por unidad de tiempo) de trabajo, a la productividad física (promedio) del trabajo, W/y = wnom /a el costo laboral unitario y m el mark-up que fijan las empresas como condición de realización del ingreso (de equilibrio) del capital. En particular, la determinación del salario nominal en dólares implica la fijación del precio de oferta también en dólares10 . El precio de producción de China expresado en términos de dólares está dado por: PCh e nom wCh /e = (1 + mCh ) aCh

S PCh(U S) =

(13)

En este caso, e es la tasa de cambio del dólar con respecto al yuan (yuanes por dólar). El grado de competitividad de la industria china en el mercado doméstico de los Estados Unidos puede expresarse como el cociente del precio de producción de los Estados Unidos y el precio de producción de China: u=

PUSS S PCh(U S)

(14)

La ecuación (14) advierte que, dados la tasa de cambio y el mark-up en los dos países, la competitividad de la economía china frente a la estadounidense se eleva, en la medida en que el costo laboral unitario de la primera, en términos de dólares, se reduzca con respecto al costo laboral unitario de la segunda. En general, la reducción del costo laboral unitario es el resultado de un incremento porcentual del salario nominal inferior al aumento porcentual de la productividad (media) del trabajo. 10 En

general: (i) el salario monetario es el resultado de la negociación entre los gremios empresariales y las organizaciones de trabajadores (Keynes, 1936); (ii) la productividad física del trabajo está en función de la técnica de producción y la escogencia de ésta en función de la tasa de ganancia (Sraffa, 1960); y (iii) el mark-up es una función positiva de la tasa de interés del dinero, el grado de monopolio de la economía y la expectativa de una ganancia empresarial (Keynes, 1936; Kalecki, 1956; Riese, 1986).


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

17

Para efectos teóricos y analíticos, el signo de la balanza comercial de China puede determinarse de manera general como una función positiva del grado de competitividad de este país en el mercado estadounidense: ExCh − ImCh = h(u)

(15)

En particular, un superávit comercial de China con los Estados Unidos tiene lugar si el precio de producción chino es menor que el precio de producción estadounidense en el mercado doméstico de este último país, es decir, si China tiene una ventaja absoluta frente a los Estados Unidos: u > 1 ⇒ ExCh − ImCh > 0

(16)

Las ecuaciones (13) a (16) indican que la tasa de cambio del yuan con respecto al dólar es un momento clave de una estrategia mercantilista. Dados el salario nominal en moneda nacional, la productividad del trabajo y el mark-up nacionales, la condición que fundamenta la ventaja absoluta de un país en el comercio internacional (China en el ejemplo), es la subvaluación de su moneda nacional. Una moneda nacional subvaluada promueve de manera global la exportación de los productos nacionales a precios competitivos en el mercado mundial, simultáneamente, protege de manera global a la economía nacional de la competencia mundial, haciendo posible la realización de un superávit comercial. De este modo, la subvaluación de la moneda nacional permite, de una parte, la ampliación del mercado interno, al lograr un superávit comercial que genera ganancias no distribuidas, que a su vez motivan a las firmas a elevar la inversión doméstica y con ella el ingreso, la producción, el empleo, el cambio tecnológico y la productividad del trabajo. De otra, la expansión de los mercados externos para la producción nacional, al tiempo que contribuye a la exportación del desempleo nacional, un aspecto sobre el cual Steuart (1767) había llamado la atención a fines del siglo XVIII.

Balanza de pagos, subvaluación y exportación neta de capital En una economía monetaria de producción nacional abierta, la realización de un superávit comercial tiene como condición la exportación neta de capitales (Riese, 2001). La identidad contable de la balanza de pagos sirve como punto de partida para fijar este punto: ∆RI = Ex − Im + Kim − Kex

(17)

Siendo ∆RI el cambio en reservas internacionales, Kim la importación privada de capital, Kex la exportación privada de capital.


18

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Si se reordenan los términos de la identidad restando el cambio en las reservas internacionales a ambos lados de la ecuación (17) se obtiene: 0 = Ex − Im + [Kim − (Kex + ∆RI)]

(18)

Ex − Im > (Kex + ∆RI) − Kim > 0

(19)

De forma que:

Luego si Kim > Kex, entonces ∆RI > (Kim − Kex), tal que se cumpla Ex > Im. La discusión presentada en torno al principio de la ventaja absoluta mostró que la tasa de cambio juega un papel clave en la realización de un superávit comercial de la economía nacional en el mercado mundial. La tasa de cambio es el precio nominal de una moneda nacional en términos de otra moneda nacional. Se determina en el mercado de divisas como el resultado, de una parte, de las decisiones de portafolio sobre los stocks monetarios y reales en la economía internacional, por parte de los agentes económicos privados –banca privada, propietarios privados de patrimonio (wealth-owners) y empresas–, y de otra, de las decisiones de política monetaria, cambiaria y fiscal de la banca central y el gobierno en tanto hacienda pública, en los mercados de dinero, crédito, assets (nominales y reales) y divisas. Las disposiciones de los agentes sobre el tamaño y la estructura del activo y el pasivo de su portafolio, denominado en diversas monedas nacionales, tienen su expresión en el nivel y la dirección los movimientos de capital registrados en las balanzas de pagos nacionales. Determinan, igualmente, el nivel y la dinámica de las tasas de cambio entre las distintas monedas nacionales. En términos de los componentes de la cuenta de capital de la balanza de pagos, la exportación y la importación privadas de capitales registradas en la cuenta de capital responden a las disposiciones de corto y largo plazo de los agentes económicos privados sobre la estructura tanto del activo como del pasivo de su portafolio. En particular, se trata de decisiones de la banca privada, los propietarios privados y las firmas, cuyo control por parte el gobierno y la banca central nacionales es siempre limitado. En contraste, la exportación de capital bajo la forma de la acumulación de divisas o reservas internacionales está en función del interés político-económico nacional de la banca central y del gobierno y, por lo general, se halla en mayor o menor grado bajo control de estas instituciones. La exportación neta de capitales como resultado de la exportación y la importación privada de capitales, de una parte, y de la exportación de capitales por la autoridad monetaria nacional bajo la forma de la acumulación de reservas internacionales, de otra, como resultado de las decisiones de portafolio de estos agentes, tiene como correlato la subvaluación de la moneda nacional con respecto a las otras monedas


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

19

nacionales. En esa medida, determinan el nivel y la dirección de los flujos monetarios en la cuenta corriente de la balanza de pagos y tienen como consecuencia inmediata la realización de un superávit comercial y eventualmente un superávit en la cuenta financiera de la cuenta corriente. Esto último en la medida en que la economía haya alcanzado una posición de acreedor neto internacional.

La función estratégica de la acumulación de reservas internacionales La acumulación de reservas internacionales, es decir, la acumulación de acreencias denominadas en moneda extranjera por el gobierno o la autoridad monetaria nacional frente al mercado mundial, juega un papel central en el marco de una estrategia mercantilista de acumulación de capital y desarrollo económico en una economía monetaria de producción internacional, por cuanto constituye el argumento central de la subvaluación de la moneda nacional y la realización de un superávit en la balanzas comercial y financiera de la cuenta corriente de la balanza de pagos. La acumulación de reservas internacionales promueve, además: 1. La acumulación de un stock de títulos denominados en monedas nacionales extranjeras que fungen como dinero mundial, lo que permite en mayor o menor grado a la economía nacional confrontar posibles situaciones de inestabilidad cambiaria y ataques especulativos contra su propia moneda, dentro de ciertos límites. 2. La estabilización de la demanda privada de la moneda nacional, expresada en la importación privada de capitales bajo las formas de inversión de portafolio de largo plazo e inversión extranjera directa (con la transferencia de tecnología que esto implica, siempre y cuando no se constituyan enclaves económicos). 3. La compra de propiedad extranjera, bajo la forma de títulos financieros, empresas, materias primas y tecnología –todo en función de la creación de las condiciones propicias para la acumulación interna de capital, el desarrollo económico nacional y la mayor competitividad de la economía nacional en el comercio mundial–, y la eventual refinanciación y compra de la deuda externa bajo condiciones favorables en los mercados financieros internacionales. 4. El desarrollo y la consolidación de la posición de de la economía nacional como país acreedor neto en la economía mundial, lo cual potencia aún más los momentos anteriores, en tanto que condición necesaria más no suficiente del desarrollo de la moneda nacional como moneda mundial.


20

Cuadernos de Economía, 30(55), julio - diciembre de 2011

ECONOMÍA ABIERTA Y LA SEGUNDA ECUACIÓN FUNDAMENTAL DE KEYNES Ganancias no distribuidas, efectos (precio de) ganancia y acumulación La realización de ganancias no distribuidas positivas implica un mark-up de desequilibrio superior al mark-up de equilibrio, m′ > m > 0, tal que el precio de mercado será mayor que el precio de oferta. Esta relación puede expresarse mediante la extensión de la segunda ecuación fundamental de la teoría del dinero de Keynes para una economía abierta con gobierno (Keynes, 1971; Riese, 1985a)11 : wnom (I − SH ) + (G − T ) + (Ex − Im) (1 + m) + a y wnom P = (1 + m′ ) a P =

(20)

En el corto plazo, la decisión de oferta de las empresas depende de sus expectativas sobre la dinámica de la demanda e implica un decisión sobre el ingreso, el nivel de producción, el grado de utilización de la capacidad productiva instalada, el nivel planeado de inventarios, la escogencia de la técnica de producción y la fijación del precio de oferta, para un stock real de capital dado. En la ecuación (20), si la demanda es mayor que la oferta (ingreso), (I − S) + (G − T ) + (Ex − Im) > 0, las firmas se hallan en posición de exigir un precio de mercado mayor que el precio de producción P > P S , dando lugar a ganancias no distribuidas no planeadas QU > 0. El efecto precio de ganancia12 , pu = [(I − S) + (G − T ) + (Ex − Im)] /y > 0, es un incremento del nivel de precios (por una única vez) en el corto plazo, ocasionado por una demanda agregada no anticipada mayor que la oferta. El efecto precio de ganancia da lugar a una mayor rentabilidad del capital, eleva la participación de las ganancias totales en el ingreso de la economía y origina ganancias no distribuidas apropiadas por las firmas. Bajo determinadas circunstancias, por ejemplo la subvaluación sostenida de la moneda nacional, las empresas pueden continuar realizando ganancias no distribuidas durante un tiempo más o menos largo, según sea la dinámica del proceso de mercado. 11 Para

una economía cerrada y sin gobierno, esta segunda ecuación fundamental se obtiene a partir de la ecuación de la demanda agregada para una economía cerrada. La división en ambos lados de la ecuación Y D = Y S + I − SH = Y S + QU por el producto nacional y, lleva a Y D /y = Y S /y+(I −SH )/y, luego P = P S +(I −SH )/y. Riese (1985b) desarrolla una tipología de las diversas constelaciones de mercado que caracterizan el ciclo económico y un proceso inflacionario, en una economía monetaria de producción. 12 Keynes (1971, capítulo 11) habla en este contexto de profit inflation/deflation, a diferencia de income inflation/deflation. Este punto se desarrolla abajo.


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

21

La expectativa de una mayor rentabilidad del capital sobre la base de la realización sostenida de ganancias no distribuidas se convierte en un incentivo para que las empresas puedan elevar el nivel de inversión, con la consecuente expansión del ingreso, la capacidad productiva instalada y el empleo. Un efecto precio de ganancia sostenido puede tener como consecuencia que las firmas incorporen en su cálculo económico la expectativa de futuras ganancias no distribuidas que el mercado confirma de manera renovada. Dados el salario nominal y la productividad del trabajo, la mayor dinámica de la inversión trae consigo un incremento del stock de capital, que elimina la causa del efecto precio de ganancia, haciendo que el nivel general de precios y el salario real retornen a su nivel inicial de equilibrio (P → P s) (Keynes, 1936; Riese 1986). Dicho de otro modo, a medida que el efecto cantidad de la inversión se desarrolla, y el ingreso y la capacidad productiva se ajustan al mayor nivel de la demanda, desaparece la causa del efecto precio de ganancia. Durante el proceso de ajuste, las empresas realizan una ganancia no distribuida positiva que se hace nula una vez la economía ha alcanzado una nueva posición de equilibrio. El incremento del nivel de precios inducido por el efecto precio de ganancia reduce el salario real, wnom /P < wnom /P S . En ausencia de ilusión monetaria, es de esperar que los trabajadores exijan un incremento del salario nominal que compense el aumento de los precios. Sin embargo, en una situación de (alto) desempleo involuntario y/o bajo una política de rígido control de salarios nominales, los trabajadores difícilmente estarán en condiciones de imponer con éxito un ajuste del salario nominal igual al crecimiento del nivel de precios ocasionado por el efecto-precio de ganancia.

Salario nominal, productividad y competitividad Un proceso de acumulación de capital trae consigo la incorporación de nuevas técnicas de producción que implican una creciente productividad del trabajo y la inclusión de nuevos trabajadores a la producción de mercancías. Dado el salario nominal, un incremento en la productividad del trabajo reduce el costo laboral unitario y en consecuencia el precio de oferta. En general, este será el caso siempre que el aumento del salario sea menor al crecimiento de la productividad. Si el salario nominal se eleva por encima del incremento en la productividad, las firmas fijarán un precio de oferta proporcionalmente más alto. En la primera situación tiene lugar un efecto precio de ingreso negativo y en el segundo un efecto precio de ingreso positivo. En un contexto de (alto) desempleo involuntario (y represión de las asociaciones laborales) no es de esperar, dentro de ciertos límites, que los trabajadores estén en capacidad de negociar un incremento del salario nominal igual o mayor al aumento de la productividad del trabajo. En este caso, la ocurrencia del efecto precio de ganancia positivo y la realización de ganancias no distribuidas, resultado de una inversión superior al ahorro planeado de las firmas, un superávit comercial y/o


22

Cuadernos de Economía, 30(55), julio - diciembre de 2011

un déficit fiscal, es compatible con estabilidad interna del nivel de precios e incluso con deflación, puesto que el efecto precio de ganancia positivo puede verse compensado o más que compensado por un efecto precio de ingreso negativo. La combinación de estos diversos efectos precio es virtuosa para la clase capitalista, en la medida en que la realización sostenida de ganancias no distribuidas con estabilidad de precios fundamenta un proceso de acumulación de capital caracterizado por una elevada rentabilidad; la transformación y expansión (evolución) del aparato productivo nacional y el desarrollo del sistema de la división del trabajo al interior del mismo; la estabilidad general del nivel de precios interno; el crecimiento del ingreso nacional y su redistribución a favor de la clase capitalista. Dicha mezcla posibilita además el aumento del salario real per cápita y el nivel general de bienestar de la población asalariada (Hölscher, 1994). En la economía abierta, la devaluación nominal (por única vez) de la moneda nacional puede llevar a una eventual (mayor) subvaluación de la moneda nacional, una mayor competitividad internacional y a la realización de un superávit comercial. Lo anterior si los potenciales efectos inmediatos de la devaluación sobre las expectativas y decisiones de los agentes económicos, en particular de los wealthowners, puedan ser neutralizados. Esto puede intentarse temporalmente, mediante políticas de control de precios y del salario nominal; de la cuenta de capital de la balanza de pagos, o una combinación de ambas.

Cuasi-pleno empleo e inflación de salarios El proceso de expansión económica, al tiempo que eleva el nivel de empleo, puede llevar a una reducción del desempleo involuntario hasta alcanzar una situación de (cuasi-)pleno empleo. La expresión de mercado del cuasi-pleno empleo es la capacidad de los trabajadores para exigir a las empresas un ajuste del salario nominal igual o mayor al incremento en la productividad del trabajo. Esto implica considerar los efectos de una situación de cuasi-pleno empleo para la dinámica de los precios en general y para la subvaluación de la moneda nacional en particular (Keynes, 1936; Riese, 1986). Un incremento del salario nominal mayor al aumento en la productividad trae consigo el crecimiento del precio de producción, dando lugar al efecto precio de ingreso positivo. Bajo una constelación de mercados caracterizada por una fuerte dinámica de la demanda agregada, posibilitada por una política monetaria laxa, el incremento de los precios de oferta se ve confirmado por un alza de los precios de mercado. En un escenario de cuasi-pleno empleo, el aumento en el nivel general de precios da lugar a un nuevo incremento del salario nominal igual o por encima de la tasa de inflación. Esta transmisión o spill-over de las alzas del salario nominal y del precio de oferta y de mercado, característica de un proceso inflacionario, tendrá lugar siempre que éste sea financiado por el sistema bancario, lo que supone la complicidad de la banca central en forma de una política monetaria laxa.


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

23

En un contexto de relativa estabilidad mundial de precios, una dinámica inflacionaria de la economía nacional puede llevar a la reducción del grado de competitividad internacional de la industria doméstica y, eventualmente, a la sobrevaluación de la moneda nacional, lo cual se traducirá en un déficit en la balanza comercial y a un déficit en la cuenta corriente si perdura en el tiempo el déficit en la balanza comercial. Además, la dinámica ascendente de salarios nominales y precios implica la erosión del valor real de activos nominales denominados en moneda nacional. Puesto que el principal interés de los propietarios privados es la preservación de su patrimonio, la reacción de estos a la disminución del valor real de su riqueza se traduce en la fuga interna de capitales en forma de una mayor demanda de bienes tangibles (real assets). Lo anterior causa una alza interna de precios, alimentando así la dinámica inflacionaria y la fuga externa de capital, que conduce a la devaluación del valor externo nominal y real de la moneda nacional y en consecuencia a la desvalorización de los activos nominales denominados en moneda nacional, lo que a su vez retroalimenta la dinámica de inflación-devaluación, con la consecuente agudización de la erosión del valor externo de la moneda nacional.

MACROPOLÍTICA, SUPERÁVIT FISCAL Y ACUMULACIÓN DE CAPITAL Política macroeconómica, estabilidad monetaria y subvaluación Puesto que la “raíz del mal” está en la posibilidad práctica de una situación de cuasi-pleno empleo que ponga en marcha el mecanismo inflacionario salario nominal-precio-devaluación, la estabilidad del nivel de precios (en el frente interno) y de la tasa de cambio (en el frente externo), exige una política económica eficaz que modere el ímpetu de los animal spirits de los empresarios y garantice la existencia de un ejército industrial de reserva (desempleo involuntario) como mecanismo de control de los trabajadores13 . Esto permite que las expectativas y las decisiones de los propietarios de patrimonio y de los bancos privados no se vean perturbadas, al punto de afectar la estabilidad y continuidad del doble proceso de acumulación interna y externa. El proceso de acumulación de capital y expansión económica obedece a la decisión de inversión de las empresas, y tiene lugar en un contexto de estabilidad monetaria y cambiaria, en la medida en que la expansión del crédito por parte de los bancos privados esté asociada con el aumento de la demanda de títulos nominales por parte de los propietarios privados. Luego el freno a la dinámica salario nominalprecio-devaluación y la simultánea regeneración de la estabilidad interna y externa 13 Marx

anota al respecto: “Finalmente, la ley que mantiene siempre la superpoblación relativa o ejército industrial de reserva en equilibrio con el volumen y la energía de la acumulación, mantiene al obrero encadenado al capital con grilletes más firmes que las cuñas de Vulcano con que Prometeo fue clavado a la roca” (Marx, 1968, volumen I, 547).


24

Cuadernos de Economía, 30(55), julio - diciembre de 2011

en los mercados monetarios exige “quebrar” las expectativas de las empresas, de forma que se reduzca la tasa de inversión y en general el ritmo de crecimiento de la demanda agregada de la economía. El menor ritmo de crecimiento económico disminuye la creación de empleo, lo cual permite regenerar el nivel de desempleo involuntario suficiente para debilitar la capacidad de negociación salarial de los trabajadores. La “quiebra” tanto de las expectativas de las empresas como del poder de negociación de los trabajadores requiere de una política monetaria restrictiva de altas tasas de interés (en relación con la eficiencia marginal del capital) y la contención del déficit fiscal, complementado por una política cambiaria dirigida a evitar una sobrevaluación de la moneda nacional que ponga en riesgo la competitividad de la industria nacional en el mercado mundial. Una política macroeconómica de estabilización interna del nivel de precios y externa de la tasa de cambio exige una acción coordinada de la política monetaria, fiscal y cambiaria, pero sólo puede considerarse como exitosa en sentido estricto, en la medida en que el efecto de mercado de las medidas de política lleven a los agentes económicos que actúan en los mercados monetarios, –en particular los propietarios de patrimonio y los bancos privados–, a revisar sus expectativas y sus decisiones de portafolio, de forma que la oferta de crédito en moneda nacional corresponda con la demanda de títulos nominales denominados en moneda nacional por parte de los propietarios de patrimonio. Bajo determinadas circunstancias, dado el efecto tardío de las medidas de política macroeconómica, el gobierno siempre tiene la opción, además de ajustar su política fiscal, de imponer “contra el mercado” y con carácter temporal controles sobre los salarios y los precios, y eventualmente, sobre la cuenta de capital de la balanza de pagos, hasta cuando los efectos de mercado de la política económica lleven a los agentes a revisar sus decisiones en la dirección buscada. Dada la subvaluación de la moneda nacional, el éxito de la política económica se traduce necesariamente en la reafirmación de la constelación de mercados bajo la cual se desarrolla la realización de un superávit comercial y, en consecuencia, en la revitalización de la acumulación de capital, la expansión del ingreso, la producción nacional y el empleo, la elevación de los salario real y la exportación del desempleo involuntario doméstico a las otras economías nacionales.

Superávit fiscal Una estrategia de desarrollo económico fundada en una política mercantilista, exitosa en el mediano y largo plazo que promueva de manera efectiva la acumulación de capital interna y externa, bajo condiciones de estabilidad monetaria y cambiaria, exige una política monetaria y fiscal restrictivas, y sólo debe ser complementada por una política fiscal expansiva con carácter limitado y transitorio en la fase de recesión y crisis del ciclo económico (anticíclica).


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

25

Ciertamente, un déficit fiscal contribuye en el corto plazo a estabilizar la demanda agregada y las ganancias no distribuidas de las empresas, además de constituir un instrumento efectivo de política de empleo y de control social. Igualmente, una deuda pública creciente siempre será beneficiosa para los acreedores del Estado en la medida en que la obligación del servicio de la deuda por parte del gobierno estabiliza la rentabilidad del capital de los bancos privados y los propietarios de patrimonio, al tiempo que les otorga un mayor control sobre los recursos y la política fiscal y monetaria de un Estado, de por sí instrumental a los intereses de la clase capitalista. Desde otro ángulo, una política de déficit fiscal y deuda pública es contraproducente en el mediano y largo plazo para la acumulación de capital y el proceso de desarrollo económico. Una creciente deuda pública trae consigo la expansión del volumen de títulos nominales en moneda doméstica existente en la economía. Un mayor volumen de títulos nominales no generará una presión al alza sobre los precios de la propiedad tangible, sólo cuando los propietarios de riqueza estén dispuestos a demandar ese mayor volumen. Esto último supone un incremento de participación de los títulos nominales en el portafolio de los propietarios de riqueza, lo cual solamente tendrá lugar si se modifica el vector de premios pecuniarios y no pecuniarios de los diversos assets que los tenedores eventualmente incorporen su portafolio. En tal sentido, una política de déficit fiscal no inflacionaria exige, sino al gobierno, sí a la banca central elevar su tasa de interés. Una mayor tasa de interés de la banca central eleva los costos de refinanciación de los bancos privados con dos efectos importantes. Primero, induce a los bancos privados y en general al sistema financiero a elevar el premio pecuniario de los títulos nominales en el portafolio de los propietarios de patrimonio (depósitos, entre otros), lo cual propicia una mayor demanda de títulos nominales en moneda doméstica y hace posible la estabilidad de los precios de la propiedad tangible en el portafolio de los propietarios. Segundo, induce a los bancos a fijar tasas de interés del crédito más altas, lo que eleva el costo de financiación de las firmas y los hogares y conduce a una redistribución del ingreso a favor de los propietarios de patrimonio, con la consecuente reducción de la demanda agregada y el ingreso. En un contexto de economía abierta, si la mayor deuda pública causa desconfianza entre los propietarios de riqueza y en consecuencia cambios en las preferencias de portafolio de estos últimos, puede ocurrir que los premios no pecuniarios de la moneda doméstica se reduzcan y la demanda por la misma se debilite al tiempo que la demanda por otras monedas se fortalece, exigiendo a la banca central elevar su tasa de interés a fin de defender su tasa de cambio. Igualmente, una mayor deuda pública con tasas de interés más altas eleva el servicio de la deuda, con posibles efectos negativos sobre la demanda agregada, que se traduce en menores niveles de inversión (crowding out), ingreso, producción y empleo, y eventualmente en una balanza en cuenta corriente deficitaria (Betz, 2001).


26

Cuadernos de Economía, 30(55), julio - diciembre de 2011

En contraste, bajo determinadas condiciones y dentro de límites precisos que no impliquen una deflación interna, un superávit fiscal puede servir para afianzar una política mercantilista dado que le facilita a la autoridad monetaria la estabilización interna del nivel de precios y externa de la tasa de cambio. En el marco de una política de acumulación de capital exitosa, un crédito fiscal del Estado (por oposición a una deuda pública) refuerza la escasez de la moneda nacional doméstica. Esto en el contexto de la competencia de monedas nacionales en el mercado mundial, puede resultar determinante ya que la escasez se constituye en un argumento de estabilidad de la demanda por la moneda nacional. Una demanda estable por una moneda escasa reafirma la función de reserva de valor de la moneda nacional, eleva el premio no pecuniario de la misma en el cálculo de los propietarios privados y propicia su mayor participación en el portafolio de estos últimos, con la consecuente reducción de la participación de títulos denominados en moneda extranjera. El pago de la deuda pública y la acumulación de un crédito fiscal en razón de un sostenido superávit fiscal reduce la participación de los títulos nominales de deuda pública en el portafolio de los propietarios privados y posibilita la caída de las tasas de interés, lo cual redunda en un mayor nivel de inversión y mejora en la actividad económica, salarios reales más altos, expansión de la base tributaria y autonomía financiera del Estado más amplia. La coincidencia de un superávit comercial y un equilibrio/superávit fiscal constituyen un círculo virtuoso. Inicialmente, conduce a la acumulación de capital que produce un mayor ingreso, lo que a su vez posibilita la expansión del gasto público con equilibrio fiscal. Posteriormente, facilita la política de estabilidad monetaria de la banca central y permite que el proceso de acumulación tenga lugar con tasas de interés menores que las que exigiría una situación de creciente deuda pública. Además de apuntalar la política monetaria y cambiaria, un superávit fiscal facilita el servicio de la deuda pública y, en la medida en que mejora la posición financiera del Estado, permite la refinanciación y el pago anticipado de la misma bajo condiciones de mercado favorables. De otra parte, puesto que la inversión interna y un superávit comercial dan lugar al crecimiento del ingreso nacional y de manera concomitante a la expansión de la base tributaria, la realización de un superávit fiscal (en la fase de acumulación), no necesariamente implica la reducción del gasto fiscal en términos absolutos y/o la elevación de las tasas impositivas. Así mismo, el crédito fiscal puede ser siempre utilizado por el gobierno de turno, sino como argumento económico sí como argumento político, para estabilizar la demanda doméstica en la fase recesiva del ciclo –sin tener que atender a consideraciones de sostenibilidad financiera de la deuda pública– y poner en marcha políticas de corte populista en función del interés particular del gobierno de turno según lo exija el ciclo político de la economía nacional. Luego conviene a la clase capitalista de una economía nacional –considerada como un todo– hacer que el Estado, tanto el gobierno a través de la política fiscal


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

27

como la banca central mediante una política monetaria de escaseamiento de su moneda, cree las condiciones propicias de estabilidad monetaria y cambiaria que requiere un proceso sostenido de acumulación de capital sin emplear un déficit fiscal, excepto en los períodos de recesión y crisis económica generalizada.

COMENTARIOS FINALES La historia económica de la libra esterlina en la primera mitad del siglo XX y del dólar estadounidense en la segunda mitad del siglo XX enseña que la pérdida de la cualidad de moneda mundial de una moneda nacional, más precisamente de su papel como moneda hegemónica en el mercado mundial, viene precedida por un déficit comercial y en cuenta corriente sostenidos, y la pérdida de su posición de acreedor neto en el mercado mundial. Igualmente, se constata que las crisis de hegemonía monetaria de estas dos economías fue siempre la antesala del desarreglo y la inestabilidad generalizada del sistema monetario internacional, y de las grandes crisis económicas mundiales del siglo XX: primero entre 1914 y la década de 1930 –incluso entre 1914 y el final de la Segunda Guerra Mundial en 1945–, con la crisis de hegemonía de la libra esterlina; segundo, desde la década de 1970 hasta el presente con la crisis de hegemonía del dólar. La lógica monetaria del capitalismo actual encierra un futuro incierto para la economía mundial. La inestabilidad monetaria internacional que se registra desde hace más de cuatro décadas es expresión de la crisis de hegemonía del dólar norteamericano, la cual es poco probable se resuelva en las próximas décadas. Hay dos razones para ello: primero, es de esperar que en la primera mitad del siglo XXI se profundice la crisis de hegemonía monetaria de los Estados Unidos; segundo, no existe ninguna potencia capitalista distinta a este país que, bajo la actual constelación de mercados, pueda y quiera asumir la función de país hegemónico monetario en el mercado mundial. Los países capitalistas con monedas nacionales dominantes, es decir, con función de medio de pagos diferidos internacional, seguirán compitiendo en el mercado mundial para sostener y expandir su espacio monetario-económico en la economía mundial e imponer sus intereses a las otras economías nacionales, desarrolladas y subdesarrolladas. En el proceso, una que otra economía hoy desarrollada verá debilitada su posición en el mercado mundial al punto de quedar relegada a la periferia del Primer Mundo y en caso extremo a la periferia global del Tercer Mundo. Por su parte, algunos países hoy en desarrollo pondrán todo su empeño en expandir su presencia monetaria y financiera en el mercado mundial, hacerse a una porción mayor de la producción y el comercio internacionales, imponer su moneda nacional como moneda mundial, y entrar a hacer parte del selecto grupo de países desarrollados, como pudiera ser el caso del China en las décadas venideras.


28

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Cualquiera que sea el derrotero que tome el capitalismo en el siglo XXI, lo cierto es que siguiendo el argumento teórico heterodoxo propio del keynesianismo monetario, no es posible que todos los países del globo terráqueo lleguen al mismo tiempo a formar parte del Primer Mundo, de modo que la división histórica de la economía mundial en países desarrollados y países en desarrollo no dejará de recrearse bajo la lógica del dinero. La articulación interna del mercado mundial como un sistema económico de poder con un centro hegemónico y una periferia dependiente es la característica histórica del capitalismo, la historia doble de una economía mundial en la cual los países del Primer Mundo se han especializado en ganar y los países del Tercer Mundo han sido especializados en perder. De allí la importancia histórica del mercantilismo y la necesidad de aprehender teóricamente su lógica económico-monetaria. En cuanto al postulado económico que subyace a la ideología liberal de la globalización, bien decía la economista inglesa Joan Robinson, recogiendo la tesis de List (1841): “A fin de cuentas, la doctrina del libre cambio no pasa de ser una forma más sutil de mercantilismo. Sólo creen en ella los que pueden salir beneficiados” (Robinson, 1988).

REFERENCIAS BIBLIOGRÁFICAS 1. Betz, K. (1993). Ein monetärkeynesianisches makroökonomisches Gleichgewicht. Marburg: Metropolis Verlag. 2. Betz, K. (2001). Jenseits der Konjunkturpolitik. Überlegungen zur langfristigen Wirtschaftspolitik in einer Geldwirtschaft. Marburg: Metropolis Verlag. 3. Betz, K., Lüken-Klaßen, M. (1994). Mercado mundial y dependencia. Cuadernos de Economía, 14(20), 41-89. 4. Cassens, H. (1997). Wege und Methoden einer monetären Theorie de Produktion. Marburg: Metropolis Verlag. 5. Hölscher, J. (1994). Entwicklungsmodell Westdeutschland: Aspekte der Akkumulation in einer Geldwirtschaft. Berlín: Duncker und Humblot. 6. Kalecki, M. (1974, [1956]). Teoría de la dinámica económica. México: Fondo de Cultura Económica. 7. Keynes, J.M. (1971, [1930]). A Treatise on Money. The Collected Writings of John Maynard Keynes (Vol. 5). Basingstoke: The Macmillan Press. 8. Keynes, J.M. (1936). The General Theory of Employment, Interest and Money. New Cork: Harcourt, Brace and Company. 9. Keynes, J.M. (1973). The General Theory and After. Part I. Preparation. The Collected Writings of John Maynard Keynes (Vol. 13). Basingstoke: The Macmillan Press. 10. List, F. (1997, 1841). Sistema nacional de economía política. México: Fondo de Cultura Económica. 11. Lüken-Klaßen, M. (1993). Währungskonkurrenz und Protektion. Marburg: Metropolis Verlag. 12. Marx, K. (1968). El capital. Crítica de la economía política. México: Fondo de Cultura Económica.


Mercantilismo, acumulación de capital y desarrollo económico

Hernando Matallana

29

13. Mun, T. (1954, [1664]). La riqueza de Inglaterra por el comercio exterior. México: Fondo de Cultura Económica. 14. Riese, H. (1985a). Akkumulation, Inflation und Stagnation in der Bundesrepublik Deutschland. En Riese, H. (ed.) Vermögensmarkt, Investionen und Beschäftigung (pp. 1-44). Berlín: Freie Universität Berlin. 15. Riese, H. (1985b). Die Anatomie des Marktphasenkonzepts. En Riese, H. (Ed.), Vermögensmarkt, Investionen und Beschäftigung (pp. 45-52). Berlín: Freie Universität Berlin. 16. Riese, H. (1986). Theorie der Inflation. Tübingen: J.C.B. Mohr. 17. Riese, H. (2001). Grundlegungen eines monetären Keynesianismus. Ausgewählte Schriften 1964-1999. Marburg: Metropolis Verlag. 18. Robinson, J. (1988). El nuevo mercantilismo. En Robinson, J. Ensayos críticos. Barcelona: Editorial Orbis. 19. Sraffa, P. (1960). Production of Commodities by Means of Commodities. Cambridge: Cambridge University Press. 20. Steuart, J. (1998, [1767]). An Inquiry into de Principles of Political Economy. Vermont: Pickering & Chatto.


30

Cuadernos de EconomĂ­a, 30(55), julio - diciembre de 2011


REFLEXIÓN ACERCA DE LA REPRESENTACIÓN DEL AGENTE EN LA TEORÍA ECONÓMICA EVOLUTIVA: CONTROVERSIA ENTRE LAS PERSPECTIVAS ORTODOXA Y HETERODOXA

Víctor Mauricio Castañeda Rodríguez1 Los aportes a la economía evolutiva de autores como Nelson y Winter (1982), Simon (1955, 1991), Hodgson (1988, 2000), Holland (2004), Lara (2007, 2009), entre otros, han resultado clave para comprender cómo el ser humano se comporta y decide en contextos en que se debe aprender y existen restricciones no sólo de recursos físicos, sino también de información, capacidad computacional y cognición. Al respecto, existe evidencia aportada por ramas del conocimiento diferentes a la economía, como la psicología y la sociología, que muestran desviaciones frente a lo pronosticado por el enfoque neoclásico, siendo notables los trabajos de Kahneman y Tversky (1973, 1979, 1984), que resaltan la importancia de las percepciones en la explicación de los procesos implícitos de la elección. En este documento se hace una revisión de la perspectiva heterodoxa al planteamiento neoclásico en cuatro partes. En la primera se realiza una breve reflexión de la decisión individual, introduciendo el concepto de agente complejo adaptable 1 Magister

en Ciencias Económicas, se desempeña actualmente como docente ocasional en la Universidad Nacional de Colombia (Bogotá, Colombia). E-mail: vmcastanedar@unal.edu.co. Dirección de correspondencia: Cra 106 N. 22-51 (Bogotá, Colombia). El autor agradece los valiosos comentarios hechos por dos evaluadores anónimos. Este artículo fue recibido el 21 de mayo de 2010, la versión ajustada fue recibida el 8 de diciembre de 2010 y su publicación aprobada el 2 de febrero de 2011.

31


32

Cuadernos de Economía, 30(55), julio - diciembre de 2011

y considerando algunos aspectos, que se asumen implícitamente en la teoría ortodoxa y resultan extremadamente reduccionistas. En el segundo apartado se presentan brevemente los aportes de Kahneman y Tversky a la representación del agente hecha por la economía evolutiva. En la tercera sección se considera el enfoque del agente complejo adaptable a nivel organizacional. Finalmente se procede a hacer algunos comentarios a manera de conclusiones.

APORTES AL ESTUDIO DEL COMPORTAMIENTO DEL INDIVIDUO DESDE LA PERSPECTIVA EVOLUTIVA El hecho de estudiar la decisión del individuo bajo la estructura de lo que se denomina un agente complejo adaptable (Holland, 2004; Lara, 2009), el cual no actúa con base en criterios de maximización de funciones de utilidad o determinación de máximos para relaciones de preferencias –según lo asume la teoría económica ortodoxa–, sino que busca mejorar sus acciones como respuesta a un contexto económico, político y social cambiante, beneficiándose de la retroalimentación que recibe del entorno y su capacidad de generar expectativas del mundo a partir de poca información, ha implicado un avance para la teoría económica. Lo anterior, dado que ha permitido una aproximación al comportamiento real de los seres humanos, desvirtuando la figura del hombre como un ser con capacidades de cómputo y cognición demoniacas, usando los términos de Lara (2009, 1). En este sentido, si se considera que el proceso de decisión que realiza el hombre es dependiente del contexto y de sus propias circunstancias (Levinthal, 1997), no es difícil aceptar que al requerir tomar en cuenta muchas “variables”, no existe un criterio de decisión infalible. Así, la construcción mental que hace el hombre de su mundo es incompleta dada su condición humana, esto es, que la impresión que tiene de la realidad se encuentra limitada por sus sentidos, su historia, sus sentimientos, sus experiencias y en general, por un abanico de particularidades que le permiten sólo considerar parte de la información necesaria para garantizar la obtención del fin buscado. En este contexto, el proceso de decisión está sujeto a ajustes y demandará una comparación entre objetivos planteados y logrados que permita examinar la pertinencia de las decisiones adoptadas anteriormente. Este análisis implica que para analizar el proceso de decisión y el efecto del cambio en los parámetros que la condicionan (e.g., el grado en que se castigan los errores), se deba hacer uso de instrumentos “maleables” como los sistemas complejos adaptables (Holland y Miller, 1991)2 . 2 La

imposibilidad de reducir la decisión a problemas de optimización en que existe un elemento objetivo llamado función de utilidad y un contexto invariable en que los precios son exógenos, dificulta la utilización del instrumental matemático tradicional.


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

33

Dichos sistemas en que se considera la idea del agente artificialmente adaptable (AAA) (Holland, Holyoak, Nisbett y Thagard, 1986), consisten en una representación flexible del individuo ajustada a la utilización de técnicas de modelación basadas en computador, que tras la parametrización de los aspectos que rigen su acción3 , se constituyen en la instrumentalización del proceso de decisión anteriormente planteado (Axelrod, 1997)4 . Así, diversos sistemas económicos pueden ser analizados en la medida que se estudia la interacción entre agentes, las tendencias surgidas de una dinámica agregada no lineal y la respuesta a diferentes esquemas de pago o beneficio (e.g., un pago monetario o cambios en reputación); sumándose a las ventajas de este método de experimentación, su bajo costo y la posibilidad de hacer cambios en un reducido número de parámetros, manteniendo inalterados todos los demás, ya sea a nivel del AAA o de contexto. No obstante, este planteamiento presenta algunas deficiencias, como la posible dependencia de los resultados a las condiciones iniciales o el sesgo al definirse el algoritmo de comportamientos en el sistema5 , puesto que según Holland y Miller (1991) “usualmente hay una sola forma de ser totalmente racional, pero muchas formas de serlo en un menor grado” (Holland y Miller, 1991, 367, traducción libre). Además, con la interdependencia entre las circunstancias que caracterizan el proceso de decisión del agente, los efectos de las decisiones tomadas en cualquier instante presionan el cambio en variables que afectarán la toma de decisiones futuras; asimilándose esto a un sistema en permanente cambio que no garantiza situación de equilibrio alguna. En otras palabras, la acción humana en condiciones normales no responde a la lógica tradicional de la optimización, sino a la de encontrar cada vez una mayor coherencia entre acción y consecuencia. Al respecto, se puede evidenciar la dificultad del individuo para actuar según la teoría ortodoxa lo plantea, bastando con pensar en cuantos estudiantes de economía pierden un parcial en que se les pide hallar una correspondencia de demanda ordinaria –número que no es de extrañar sea grande–; insinuándose entonces que las personas del común son proclives a elegir de acuerdo con su intuición, su experiencia y la información obtenida de sus semejantes, lo que les ayuda a acotar el problema de elección y escatimar esfuerzos. Kahneman (2003a) manifiesta que gran parte de las apreciaciones y decisiones se realizan de forma intuitiva, como se dijo anteriormente, gobernando aquellas reglas basadas principalmente en analogías visuales. De acuerdo con Lara (2009) el razonamiento se realiza de manera deliberada y con esfuerzo, resultando en un proceso controlado, mientras que el pensamiento intuitivo aflora de manera natural y sin esfuerzo como un proceso automático, de suerte que el individuo común al es3 Por

ejemplo, el grado de compromiso con estrategias cooperativas y la estructura de evolución de los contextos de decisión. 4 Este tipo de modelos basados en agentes permiten en ambientes controlados estudiar su comportamiento y las interacciones, entre ellos y con el contexto, facilitando el planteamiento y la verificación de hipótesis relacionadas con la acción humana. 5 Entre estos algoritmos se encuentra el algoritmo genético, el sistema de clasificación y las redes neuronales.


34

Cuadernos de Economía, 30(55), julio - diciembre de 2011

tar pocas veces dispuesto a pensar mucho, frecuentemente acepta juicios factibles que aparecen en su mente sin realizar mayores esfuerzos. Ahora bien, aunque es probable que las personas se equivoquen al decidir, ello no significa que un mismo error sea recurrente, puesto que los juicios de valor están inmersos en el mundo de lo emocional; de modo que sentimientos como el dolor, el pesar por las fallas o la impotencia por no haber logrado algo, llevan a los agentes a plantearse explicaciones con respecto a sus errores y a adoptar cambios (Doménech y Casado, 1998). En otras palabras, existe un interés del individuo por ajustar sus acciones en función de alcanzar, cada vez un mejor desempeño; lógica del comportamiento que no anticipa decisiones similares entre agentes, dado que sus motivaciones e historia les son particulares. En síntesis y parafraseando a Kahneman: “La característica más importante del ser humano no es que razona pobremente, sino que con frecuencia actúa de manera instintiva” (Kahneman, 2003a, 1469, traducción libre). El problema de la teoría neoclásica y sus modelos para dar cuenta del comportamiento real de los agentes, nace de un supuesto básico de construcción axiomática muy restrictivo, la plena racionalidad, según la cual el conjunto de alternativas se conoce perfectamente y se puede ordenar asignándoles valores a través de una función de utilidad, de manera que se elige “lo mejor” entre lo factible, sin influencia favorable o desfavorablemente del contexto o de las creencias propias (Fiorito, 2008). Es este comportamiento optimizador irrestricto, el que junto a consideraciones accesorias, por ejemplo el tipo de mercancías sobre las que los agentes definen sus preferencias, lo que permite obtener resultados como la estabilidad del equilibrio Walrasiano6 ; caso en que las condiciones iniciales en relación al mercado pierden relevancia y se asegura que sin importar la dinámica económica, es a través del mecanismo del mercado que se ajustarán los precios para llevar la economía al equilibrio. Esto supone que todos los individuos maximizan su utilidad dadas las dotaciones iniciales y las adiciones hechas por la producción. Como respuesta al análisis abstracto de la economía ortodoxa, la economía evolucionista se refiere a las características dinámicas de los sistemas económicos, considerando que el aprendizaje y la maleabilidad de los agentes ayudan a su supervivencia (Dosi, Freeman y Fabiani, 1994). Se consideran agentes que actúan bajo racionalidad acotada, quienes además pueden mejorar su desempeño según la retroalimentación que reciben del medio, aunque no siempre sea así, puesto que la complacencia con lo logrado o la no aceptación del error limita el proceso. A esta discusión subyace, entonces, el concepto de rutina, término expuesto inicialmente por Nelson y Winter (1982), el cual reflexiona acerca de la capacidad del individuo 6 Por

ejemplo, el teorema de Arrow, Block y Hurwicz señala que cuando a nivel agregado las funciones de exceso de demanda cumplen la ley de Walras, son homogéneas de grado cero en los precios y las mercancías son sustitutas brutas a cualquier vector de precios, entonces un vector de precios de equilibrio es globalmente estable.


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

35

para repetir aquellas acciones más exitosas aprendidas en ambientes con diversas presiones7 . A pesar de que el aporte de Nelson y Winter resultó invaluable, favoreciendo desde una perspectiva alternativa el estudio económico del comportamiento de los individuos, es preciso también considerar que el concepto de rutina desatiende las capacidades del hombre para construir modelos mentales funcionales a largo plazo, al suponer que el comportamiento humano es preestablecido según las relaciones que se puedan extraer de los modelos de ensayo y error. De esta manera, si bien durante ciertos períodos se pueden establecer rutinas que conduzcan a errores reiterativos, lo interesante es pensar en la posibilidad del agente para evidenciar esto y modificar sus decisiones. Al respecto, Lara (2009) determina el problema del concepto “rutina” en su pérdida de flexibilidad, la ambigüedad con que tiende a utilizarse, la supresión del agente y su sustitución por la organización, además del vacío teórico en lo que respecta a la explicación darwiniana de las rutinas y las habilidades. En este orden de ideas, Hodgson (1988, 2000) antepone a la rutina los hábitos, que por su ubicuidad le permiten al agente junto a las reglas, decidir, aprender o simplemente actuar (Hodgson, 2000), siendo además modificables si resultan inapropiados a los fines que determine el individuo. Asimismo, los hábitos al no ser deliberados y surgir de la percepción mediada por las particularidades individuales, cumplen con la función de simplificar la vida humana al liberar al hombre de preocupaciones, como la toma de decisiones plenamente razonadas que por las condiciones cambiantes del mundo, no garantizan un “óptimo”. Así, Hodgson (2000, 14-15) concluye que hay siete (7) casos que ameritan la aplicación de hábitos8 : optimización, vastedad, complejidad, incertidumbre, conocimiento, aprendizaje y comunicación, los cuales se relacionan con restricciones inherentes a la elección. En consecuencia, aunque la adopción de hábitos y el posterior establecimiento de rutinas son instrumentos con que el individuo introduce regularidad a la decisión, ello tiene su costo, representado en el riesgo de letargo o pérdida del interés por actualizarlos. De este modo, con un matiz de “darwinismo social9 ”, es razonable pensar que un individuo que no es flexible, entendiendo con ello su tendencia a ser reiterativo en sus decisiones y no validarlas según las condiciones en cada momento, tendrá una mayor probabilidad de desaparecer en relación con aquel que asume el proceso de retroalimentación. Por lo tanto, no se niega la necesidad 7 Presiones

como el tiempo disponible para decidir, así como lo benévolo del ambiente en que el agente se desenvuelve. 8 Los hábitos en este caso deben ir acompañados de reglas, ya que éstas introducen cierto grado de conciencia en la decisión al plantearse circunstancialmente del modo A −→ B; lo que sugiere la constatación de un conjunto de fundamentos que sustenten determinada elección. 9 Con este término, acuñado por Herbert Spencer en 1857, se quiere expresar la existencia de fenómenos con correlato en el mundo biológico, como el proceso de competencia económico, en el cual los agentes que no adoptan el cambio, por ejemplo de tecnología, pueden desaparecer o incurrir en pérdidas atribuibles a un pobre desempeño.


36

Cuadernos de Economía, 30(55), julio - diciembre de 2011

de que la estructura cognitiva del agente retenga aquellas acciones relacionadas con buenos resultados; mas si se enfatiza en la necesidad de un proceso de revisión periódico, pese a que para ello hayan trabas, por ejemplo, la autocomplacencia que anima a individuos y organizaciones a seguir reglas de acción no necesariamente vigentes (Levinthal y March, 1993; Baum e Ingram, 1998). En síntesis, las condiciones del contexto de decisión son cambiantes y endógenas, puesto que los individuos al actuar intentando adaptarse a su medio, ejercen presión en los ámbitos político, social, económico y cultural (Soros, 2009); lo que hace que el sistema económico sea dinámico y demande a los agentes replantear periódicamente sus decisiones. Ello significa entonces mantener las “buenas acciones” hasta cuando sean pertinentes, guardándose la disposición para acoger nuevas, lo que justifica las actividades de explotación y exploración, que si bien, son referenciadas por March (1991) en torno a la organización, pueden llevarse al plano individual. De un lado, la explotación permite al agente usar eficientemente las ventajas alcanzadas y capacidades existentes a partir de la estandarización de prácticas, manteniendo el conocimiento, aspecto vital en el corto plazo; pero además, la exploración ayuda a redefinir los problemas y el campo de posibles soluciones, elemento central en el largo plazo. Sin embargo, esta presentación virtuosa del proceso no está libre de errores relacionados con la interpretación de la retroalimentación, no existiendo garantía para que la explotación y exploración operen bajo equilibrio10 (Levinthal y March, 1993).

ANÁLISIS DE LAS DECISIONES DESDE LA TEORÍA PROSPECTIVA DE KAHNEMAN Y TVERSKY En esta sección se reflexiona en torno a las características presentes en la toma de decisiones por parte de los individuos. En comienzo, cabe considerar que la perspectiva normativa11 incorpora dos principios: la dominancia y la invarianza. El primero se refiere a la posibilidad de ordenar elecciones según un criterio de: “preferido si es mejor en al menos un aspecto sin ser peor en los demás”, de manera que si entre dos opciones, A y B, al menos en un aspecto una de ellas, supóngase la A, resulta superior a la B sin ser inferior en ninguno de los demás aspectos, se tendrá que A domina a B. El segundo principio corresponde a la idea de que independientemente de cómo se presente un mismo problema, el individuo llegará a una decisión idéntica; lo cual se materializa en la microeconomía tradicional, 10 El

individuo, así como la firma, pueden lograr con determinado conjunto de acciones un éxito a tal grado que la exploración sea vista como una actividad innecesaria, o en sentido opuesto, sean tantos los errores en que se incurre que se considere preferible empezar desde cero y dar prioridad a la exploración; lo cual hace al proceso falible. 11 En el área de la filosofía y las ciencias cognitivas se denomina con este nombre al enfoque basado en la racionalidad completa de los agentes en la toma de decisiones.


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

37

en aspectos como la homogeneidad de grado cero en la demanda o la posibilidad de reducir loterías compuestas a una lotería simple equivalente. No obstante, dichos principios no resultan fácilmente verificables, siendo un ejemplo de esto el presentado por Kahneman y Tversky: Supóngase que en EE.UU. se prepara un plan de acción frente a una enfermedad asiática que se espera incida en la muerte de 600 personas. Se tienen dos alternativas (A y B) para combatir la enfermedad. Si el programa A es adoptado, se salvarán 200 personas. Por otro lado, si el programa B es adoptado, existe 1/3 de probabilidad de que se salven las 600 personas y 2/3 de probabilidad de que no se salve nadie. De una muestra de 152 encuestados, 72 % voto a favor del programa A y 28 % voto por B. En una segunda ronda, se pide manifestar la preferencia entre un programa C que implicará la muerte de 400 personas y un programa D que con una probabilidad de 1/3, incidirá en que nadie muera. Frente a una muestra de 155 encuestados, 22 % mostró su preferencia por el programa C y el restante 78 % se mostró a favor del programa D (Kahneman y Tversky, 1984, 343, traducción libre).

Es fácil ver que los programas C y D son equivalentes a los programas A y B respectivamente, por lo que si se cumpliera la hipótesis de invarianza, C debería haberse preferido a D, pero de hecho, el resultado es opuesto. Una posible explicación para esto es que en la primera presentación del problema se señala la oportunidad de salvar vidas, lo que se podría considerar la versión optimista del problema; mientras que en la segunda presentación, se manifiestan las muertes asociadas a cada programa, lo que es la versión pesimista. Así, los encuestados no parecen haber razonado el problema en términos de valores esperados según se espera tradicionalmente, sino que antepusieron sus creencias adaptadas a la versión del problema, lo que equivale a rechazar el principio de invarianza y aceptar que el contexto sí afecta el modo cómo los agentes deciden. En este orden de ideas, no es bien visto que se juegue con la vida, por lo que son sobrevalorados los resultados ciertos, esto en un contexto en el que la muerte se presenta como un posible error médico. Con lo dicho, dado que en la segunda versión del problema la pregunta presentó como objetivo la reducción del número de muertos, era loable para el encuestado implementar el programa que redujera los “males”, los cuales en este caso equivalen a los decesos atribuibles a la enfermedad. En general, si bien los individuos que participaron en el experimento pudieron haber razonado y concluido que el caso A era equivalente a C, lo mismo que para B y D, la evidencia sugiere que en realidad hicieron uso de su intuición y, por lo tanto, decidieron según lo que les pareció razonable, en término de valores socialmente compartidos. Para Kahneman y Tversky (1984) la función de valor que se define en relación con las pérdidas y ganancias (Gráfica 1), en esencia se caracteriza por tres elementos: es cóncava para las ganancias, lo que indica la aversión al riesgo; convexa en las pérdidas, asociada a la tendencia a tomar riesgos; y tiene un punto


38

Cuadernos de Economía, 30(55), julio - diciembre de 2011

de quiebre, con base en el que se determina qué es ganancia y qué es pérdida12 . El supuesto neoclásico, por otro lado, supone un comportamiento del agente invariable en relación al contexto, considerando además que actúa tomando toda la información disponible y analizando profundamente sus opciones, lo que en términos de costos computacionales e incertidumbre, característica de las decisiones intertemporales, es poco realista. Ante esto Kahneman y Tversky (1984) sugieren que la decisión está condicionada a limitados encuadres o reglas con que se interpreta la información, procesos de contabilidad mental y acotamiento del conjunto de alternativas, cobrando importancia los aspectos de la decisión que son fácilmente relacionables con un horizonte temporal corto. GRÁFICA 1. DESCRIPCIÓN GRÁFICA QUE KAHNEMAN Y TVERSKY HACEN DE LA FUNCIÓN DE VALOR

Fuente: Kahneman y Tversky (1984).

Lo anterior evidencia que los objetos o elementos sujetos de elección no se asocian inequívocamente a estados objetivos del mundo, sino más bien a representaciones mentales, revelándose parcialmente la manera en que funciona el cerebro humano. El hombre busca hacer un buen uso de los recursos con que cuenta según sus limitaciones, por ejemplo, de información o capacidades computacionales, de modo 12 Un

individuo se dirá que es averso al riesgo si para toda lotería simple denotada como L, se tiene que aquella lotería degenerativa cuyo premio es el valor esperado de L se declara “al menos tan buena” como L. En otros términos, el individuo es averso al riesgo si y sólo si: (∑ ) ∑ N N u= P x ≥ n n n=1 n=1 Pn u(xn ).


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

39

que la decisión está sujeta a errores; pero es allí donde se revela la utilidad del enfoque del agente complejo adaptable, cuya premisa es que el individuo aprende de sus errores, requiriendo además de la retroalimentación que provee el ambiente y de la posterior interiorización de las relaciones de causalidad, extraíbles a partir de modelos internos. Sin embargo, el proceso de aprendizaje depende de las consecuencias de los errores y la calidad de retroalimentación (Lara, 2009, 13), puesto que para que el agente retenga la relación entre acciones y consecuencias, ésta tendrá que manifestarse claramente y él debe ser consciente de su importancia. Si el resultado es positivo, el agente repite las acciones que tienen una aparente relación causal con resultados deseados y de manera similar, evita las que se relacionan con resultados indeseables. Lara (2009, 13-14) citando a Hogarth (2002) clasifica las dimensiones que definen la estructura del aprendizaje, en relación con las consecuencias de los errores, como benévolas y exigentes, lo que influirá en la velocidad con que el individuo deba adaptarse a su ambiente de decisión. Así, las consecuencias benévolas demandarán una menor capacidad adaptativa del agente con respecto a las últimas. Esto supone que el agente a priori conoce la importancia de la decisión y pueda “calibrar” su modelo, siendo más cuidadoso o flexibilizando las reglas según las cuales asigna recursos al proceso de decidir. En cuanto a la calidad de la retroalimentación, en la medida en que los resultados sean ambiguos o difícilmente relacionables con acciones determinadas, el agente tendrá dificultades para extraer información útil, caso contrario a cuando la conexión causa-efecto se presenta de modo claro, siendo esta dimensión clasificada también en dos tipos: relevante e irrelevante. Reflexionando sobre estas ideas, se evidencia que una retroalimentación relevante –entendida como aquella que muestra características claves del ambiente en que el individuo se desenvuelve–, es condición necesaria para que efectivamente haya aprendizaje, dado que significaría una constatación del vínculo entre acciones y consecuencias, permitiendo incorporar en la representación mental del mundo aquellas relaciones de causalidad pertinentes. Además, es interesante notar que un ámbito benévolo con retroalimentación irrelevante puede conducir a un estado subóptimo, determinando algún grado de estancamiento, debido a la poca presión para cambiar por parte del agente. En otras palabras, para analizar el proceso de aprendizaje del individuo se necesitan incorporar características que le son particulares, relacionadas con su ser y su contexto. El hombre evolucionó inicialmente en ambientes en los cuales los problemas eran débilmente definidos, lo que indica que no se conocían algunos elementos como los discutidos por Lara (2009, 15), entre los que se cuentan los estados iniciales, los operadores, las medidas de promesa o los estados de solución, que junto a la escases de recursos, hacían de la decisión un seguimiento de rutinas sin escrutinio de su relevancia. No obstante, en el presente, donde cada vez es más difícil sustraerse de la competencia con otros agentes y se dispone de mayor información, se crea una necesidad por mantener la disposición a cambiar, siguiendo


40

Cuadernos de Economía, 30(55), julio - diciembre de 2011

el postulado evolucionista en economía, que requiere de la capacidad para estructurar buenas representaciones del mundo a partir de poco. En este contexto, el éxito de un individuo radica en que la brecha entre lo construido mentalmente y lo observado no sea muy grande. Kahneman (2003b) proporciona evidencia que sustenta la idea anterior, en cuanto hace explícitos diversos elementos –efectos– que juegan un papel importante en la decisión de los agentes y que los desvía de la solución predicha por modelos normativos13 , que entre otras cosas, asumen la perfecta definición del problema y el acceso a recursos ilimitados para su solución; esto último en términos, por ejemplo, de la capacidad computacional, en realidad restringida según lo arguye Simon (1955). Resulta curioso que a pesar de que la construcción de modelos en la economía ortodoxa, aparentemente hace uso del ingenio del economista para abstraer elementos de la realidad y teorizar aspectos como el comportamiento de los individuos, los supuestos implícitos generalmente sean difícilmente verificables. De este modo, pese a que nadie garantiza la calidad del resultado, se sigue pensando en ellos como guías centrales en el diseño, entre otras, de la política económica y social. Asimismo, otro elemento que plantea dificultades para el pensamiento dominante en economía y en particular, el enfoque de la utilidad esperada, es la denominada “ley de los pequeños números”, término asociando a la evidencia empírica según la cual los individuos no deciden basados en probabilidades, sino en percepciones (Kahneman y Tversky, 1984). Por ejemplo, si en Colombia para un grupo de cinco personas se extrapolan las estadísticas, se podría esperar que a lo sumo una tuviera educación universitaria; pero si a dos o tres de dichos individuos se les viste de paño y corbata, la apreciación de los demás cambiaria, haciendo más frecuente su clasificación por terceros como profesionales. La forma en que trabaja la mente humana no incorpora elementos centrales de la racionalidad en los términos ortodoxos y, en cambio, hace sustantivos aspectos como los sentimientos, además de otros como la relación entre acción y consecuencia, de forma que una opción puede no ser considerada únicamente según su efecto en la condición propia –en la medida que el individuo tenga en cuenta su 13 Cinco

“efectos” merecen atención.

1. Encuadre, que parcialmente ya se mencionó, hace referencia a la construcción de representaciones subjetivas del mundo bajo las cuales el agente define su rumbo de acción. 2. Certeza, relacionado con la importancia desmesurada que en general da el individuo a los eventos ciertos en comparación con los probables. 3. Reflexión, se concentra en el cambio de la reacción ante el riesgo, según se analice el espacio de las pérdidas o las ganancias. 4. Aislamiento, es la tendencia con que las personas comparan alternativas, basándose en las diferencias y desechando todos aquellos elementos que pudieran ser comunes. 5. Dotación, se refiere al mayor valor que asigna el individuo a los bienes una vez los posee, lo que contradice la hipótesis de la valoración constante frente a los premios monetarios que la microeconomía clásica enseña, en la cual a partir de funciones de utilidad Bernoulli se asigna un único valor a cada evento.


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

41

relación con los demás, revelándose consecuentemente el ámbito social del ser humano. Esto explica por qué normalmente el hombre, además de buscar una buena relación con sus familiares, también tiene presente, por ejemplo, a sus compañeros de trabajo o estudio y a sus vecinos, aumentando la probabilidad de un trato justo con los demás, según sea necesario interactuar con ellos frecuentemente. Lo anterior, facilita la aparición de comportamientos cooperativos en la acción humana. Al respecto, es común observar en los juegos de ultimátum, en los cuales algún agente concentra determinados recursos, teniendo la posibilidad de quedarse con parte de ellos si logra que otro acepte un pago como porcentaje de la suma inicial, dicho trato será factible sólo cuando la suma que se ofrece equivale por lo menos al 20 % del premio total (Bahry y Wilson, 2006). En otros términos, aunque racionalmente cualquier agente aceptaría un trato en que se le ofreciera una cantidad positiva, considerando una función de utilidad creciente en los premios monetarios y la imposibilidad de recibir cantidad alguna por no aceptar, la evidencia empírica no constata esto14 . Si se piensa la elección del individuo gobernada por funciones de utilidad, una explicación razonable es que los agentes incorporan aspectos como la equidad en su elección, de modo que suelen cooperar con quienes se comportan amablemente con ellos, sin que ocurra lo mismo con quienes de alguna manera les lastiman. En síntesis, existe reciprocidad en el comportamiento humano, por lo que la equidad tiene un efecto positivo sobre el valor que se percibe de la opción de cooperar; lo que indica que el hombre no integra solamente factores tangibles o con un valor estrictamente económico a su decisión. Así, sumado a la capacidad del agente para recordar sus decisiones, y en la medida en que le permita el ambiente reformular o mantener modelos del mundo preexistente, se encuentra la asimilación de los efectos probables de la acción individual en los congéneres, insinuándose la existencia de un proceso adaptativo en que el esquema del mundo que se forma cada hombre debe paulatinamente converger a la estructura del mundo objetivo, que incluye su ámbito social. Del mismo modo, no basta con el aprendizaje por medio de ensayo y error, puesto que debe considerarse la posibilidad de reacción, ante un entorno cambiante, que asegure un grado de flexibilidad en los modelos mentales del individuo15 . Así, se construye 14 Considérense

dos individuos: A y B, cada uno con una función de utilidad Bernoulli creciente. El individuo A cuenta con X unidades monetarias y el individuo B es un desposeído. Desde un enfoque racional bastaría con que el individuo A ofreciera a B una cantidad positiva Z < X para que existiera cooperación y sus ganancias fueran X − Z y Z, respectivamente. El problema que subyace en esto es que a la decisión se anteponen consideraciones de justicia, por lo que el individuo B podría cuestionarse el recibir una cantidad pequeña de X, sabiendo que para que A se beneficie debe ineludiblemente contar con su aprobación. El sentimiento de justicia y el poder para bloquear las aspiraciones de A, le significan a B la posibilidad de negociar su participación en el botín, pese que a primera vista parece razonable que acepte recibir cualquier parte de X, puesto que fB (Z) > fB (0), ∀Z ∈ (0, X]. 15 No se afirma que la flexibilidad deba ser perfecta, puesto que al agente le puede interesar imponer algún grado de regularidad al mundo.


42

Cuadernos de Economía, 30(55), julio - diciembre de 2011

un mecanismo de adaptación con el cual el individuo enfrenta la incertidumbre, guardando la esperanza de no salir tan mal librado en la lotería que juega día a día. Para finalizar esta sección es necesario mencionar algunos problemas relacionados con el proceso de aprendizaje por experiencia, que hacen que el comportamiento adaptativo no siempre conduzca a modelos mejor provistos para reducir la brecha entre los resultados esperados y efectivos, puesto que normalmente se decide en torno a más de una acción y el contexto de la decisión incluye una dimensión temporal, lo que hace de la identificación de relaciones entre acciones y consecuencias un proceso difícil. En primer lugar, la existencia de m acciones y n resultados de modo contemporáneo es un factor que confunde, siendo posible que se atribuyan a una acción propiedades que no le corresponden (Lomi, Larsen y Ginsberg, 1997), aún cuando se establezca la validación continua para revelar la pertinencia de las premisas o las relaciones previamente establecidas. En cuanto a la temporalidad, es razonable pensar que el hecho de emprender una acción no significa que se constate(n) la(s) consecuencia(s) en el mismo instante (Tsang, 1997), lo que genera dudas a la hora de determinar qué acciones son presuntamente exitosas. En la Gráfica 2 se presenta el proceso de aprendizaje considerando los dos problemas comentados16 . GRÁFICA 2. PROCESO DE GENERACIÓN Y VALIDACIÓN DE RELACIONES ENTRE ACCIONES Y RESULTADOS

Fuente: elaboración propia.

LA VISIÓN DE LA FIRMA: UNA DISCUSIÓN EN TORNO A LOS FACTORES QUE LA JUSTIFICAN Esta sección explica la existencia de la firma fundamentándose en la hipótesis de que las restricciones que encuentra el individuo al actuar aisladamente son par16 Se

muestra que de m acciones en el instante t y la observación de n consecuencias en t + 1, el agente concluye una relación inicial denotada Ri , de modo que en t + 1 se aplican m′ acciones de las m iniciales, según lo sugerido por Ri para alcanzar determinados resultados en t + 2, aunque ya en t + 2, la retroalimentación dada por las n′ consecuencias redefine una relación Rr , versión revisada de Ri , convirtiéndose en recurrente el proceso expuesto.


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

43

cialmente superadas por la acción colectiva. Inicialmente, se presenta la concepción tradicional de Williamson (1985), quien articulando elementos allanados por Coase (1937), Simon (1955) y Knight (1921), entre otros, da cuenta de una teoría de la firma como forma organizacional que reduce los costos de transacción y que requiere de una reflexión acerca de problemas como el control y la cohesión entre sus partes, para después considerar la empresa como respuesta parcial a la racionalidad acotada en que se circunscribe la decisión individual. Así, se considera inicialmente la argumentación que revela a la firma como solución a problemas sociales y económicos concretos, para comentar después algunas ideas que riñen en contra de su estabilidad, buscando sopesar al final la importancia relativa de ambos aspectos y profundizar en la manifestación del comportamiento agregado. La denominada corriente del nuevo institucionalismo económico, representada por autores como Williamson, argumenta que la firma existe en la medida en que permite reducir los costos de transacción; aunque dejando desatendida la problemática sobre la interacción entre individuos con distintos intereses. En la Gráfica 3 se muestra como la firma de acuerdo con la concepción de Williamson (1985), fundamentada en Coase (1937), permite reducir el número de contratos de mercado que se tendrían que firmar entre cuatro agentes (a manera de ilustración). Actuado cada parte independientemente, es claro que entre cada par de ellas se debería introducir un contrato, lo que para el ejemplo asciende a (6), número que se reduce a cuatro (4) cuando se considera a la firma (E) como figura que centraliza la interacción entre agentes. En este caso, hay un beneficio equivalente al ahorro en dos (2) contratos17 , a pesar del presumible oportunismo de las partes y de que los contratos sean incompletos18 . Ahora, si se considera que el proceso de adaptación del agente requiere de la interacción con sus semejantes, entonces la firma como institución la facilita, puesto que su existencia reduce la cantidad de factores a ser tenidos en cuenta por cada individuo, que al no ser autosuficiente depende de los recursos que logre obtener 17 Este

ahorro es benéfico sólo cuando cada contrato tiene un costo, cosa razonable si se tiene en cuenta que la información es costosa, no permitiendo el establecimiento de contratos gratuitamente. Con respecto al número de contratos que se requiere, bajo la interacción no centralizada ( ) n(n−1) entre n agentes este se reduce a tantos como agentes haya (n), cuando se introduce 2 a la firma como agente central. En otras palabras, existe un ahorro en términos del número de n(n−3) contratos equivalente a . 2 18 Los contratos sirven de lineamientos o guías, dejando en una zona de tonos grises a gran parte de las acciones pertinentes ante eventuales circunstancias, convirtiéndose esto en un campo propicio para comportamientos mal intencionados de los agentes; más aún cuando la probabilidad de encontrar de nuevo a cierto individuo es reducida, fenómeno menos frecuente en una economía formalizada en que las firmas son capaces de realizar el seguimiento oportuno a los “terceros” tachados de oportunistas.


44

Cuadernos de Economía, 30(55), julio - diciembre de 2011

de los demás19 . Sin embargo, esta idea requiere que se considere al oportunismo como un problema que puede trabar la interacción libre entre individuos, al estar cada uno según su propio interés dispuesto a mejorar su situación incluso en perjuicio de los demás. Por ejemplo, un trabajador que se esfuerza al mínimo cuando recibe un salario fijo, hace que la productividad se vea afectada y en consecuencia, el productor (empleador) obtenga un menor ingreso. Esto revela un fenómeno que vulnera la solidez de la firma, siendo necesario justificar la cooperación según lo subraya Lara (2007) refiriéndose a Simon (1955, 1991), quien analiza la empresa desde una perspectiva de cooperación que acoge el concepto de racionalidad limitada. GRÁFICA 3. ESQUEMA DE LOS CONTRATOS NECESARIOS CON CUATRO (4) AGENTES EN DOS CASOS, CON Y SIN FIRMA, SEGÚN COASE (1937)

Fuente: Hernández (2008).

La importancia de la cooperación se manifiesta en una característica central que es su recurrencia, ya que en un mundo donde es frecuente que cada agente deba interactuar con sus congéneres, de modo repetido, se reducen los incentivos a engañar en las primeras etapas, considerando los costos en reputación que ello implica. De otro lado, la multitud de agentes con quienes se podría interactuar en el transcurso de la vida, por lo menos en algunos ámbitos, crea incentivos para que el engaño como estrategia no sea descartado, motivando la búsqueda por mejorar los instrumentos con que se monitorean y hacen cumplir los acuerdos. Nótese, asimismo, que las dificultades a las que se enfrenta un individuo son recurrentes y se relacionan con sus restricciones (e.g., su capacidad cognitiva), de modo que al no haber razón para que las últimas se modifiquen significativamente de un periodo a otro, tampoco sugieren que los intereses por un comportamiento cooperativo decaigan. En otras palabras, a pesar de la contraposición entre cooperación y oportunismo, no se encuentran argumentos para determinar que la constatación de comportamientos oportunistas sea, por sí sola, razón suficiente para desencadenar en la sociedad una aversión a la acción cooperativa. 19 Considérese que a través de la división del trabajo cada individuo se ocupa en una actividad especí-

fica, de modo que el intercambio con sus semejantes es lo que le permite obtener lo fundamental para su vida, pero que no produce por sí mismo. El trabajador, por ejemplo, ofrece su fuerza laboral a una firma, la cual se encarga de asegurarle un pago y encontrar a quienes finalmente demanden los bienes a los que se incorpora el tipo de trabajo ofrecido por el empleado en particular.


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

45

No obstante, aún no es clara la respuesta a la pregunta: ¿cómo podría surgir la cooperación en un mundo gobernado por conductas oportunistas? Para ello se requiere hacer más explícitos los beneficios de la cooperación, puesto que los costos de ser defraudado para un agente podrían ser lo suficientemente altos, como para eliminar cualquier intento de cooperación. Resulta, entonces, imprescindible una perspectiva que además de estudiar a la firma como meta-agente que reduce los costos de transacción, considere su rol como mecanismo para afrontar la racionalidad limitada de los agentes, enfatizando en su función de centralizadora de recursos, como tiempo y conocimiento, sugiriendo esto una respuesta más efectiva al devenir del mundo20 con relación al comportamiento aislado. Asimismo, la empresa es un entorno favorable para que la experiencia se asuma como factor de evaluación de las acciones seguidas, que según su desviación con respecto a los resultados esperados, produce elementos de juicio para seleccionar mejores opciones según los objetivos organizacionales. Por ejemplo, la presión por el logro de metas bajo un esquema jerárquico puede reducir el tiempo de reacción ante las señales del medio21 . Así, al existir una disyuntiva entre la reducción de los costos de transacción por la firma y la confluencia de fenómenos como el engaño o el oportunismo de los individuos, bien se podrían sobredimensionar los beneficios al acoger aisladamente el enfoque de los costos de transacción22 . Es posible olvidar que la interacción entre agentes demanda de la firma adelantar tareas de seguimiento y control, no determinándose hasta qué punto los recursos ahorrados por la reducción del número de contratos se aplican al pago del monitoreo o la auditoria. Al respecto, Alchian y Damsetz (1972) considerando la multiplicidad de factores productivos que confluyen en la firma y la necesidad de retribuirlos según su productividad, determinan que pese a las dificultades que subyacen a los comportamientos no bien intencionados de las partes, los contratos que se establecen entre la firma y cada agente, o conjunto de ellos, son más eficientes con respecto a los que se firmarían en el mercado bilateralmente, ya que la firma centraliza información no accesible para las partes y esto debe acompañarse de actividades de monitoreo que permitan identificar las desviaciones entre las acciones contratadas y las realizadas. 20 La

producción requiere de la confluencia de distintas habilidades que se articulan en el tiempo y en el espacio, razón por la que el salario sirve como mecanismo para enfrentar la espera implícita en el proceso productivo. 21 Suponga el contexto al que se enfrentan un trabajador y una firma que opera en un mercado competitivo. En cuanto al trabajador, si bien sabe que debe competir con otros por lo que requiere incrementar sus habilidades para mantener su empleo, las concesiones como la existencia de contratos de trabajo con periodos fijos le dan un mayor tiempo para emprender las correspondientes acciones. La firma, en la medida que no responda a las tendencias del mercado, encarará el riesgo de perder su participación para posteriormente desaparecer, a menos que cuente con acuerdos o contratos como los de abastecimiento que le garantizan la demanda durante un periodo. 22 Aunque este enfoque ha sido atribuido a Williamson, esto no significa que él desconociera los problemas referentes al comportamiento de los individuos en términos de oportunismo, lo que da lugar a actividades como el monitoreo.


46

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Ahora, en este punto es importante considerar la pregunta planteada por Lara (2007, 121): ¿qué motiva a las personas reales en organizaciones reales? Para responderla se deben considerar 4 aspectos: autoridad, compensación, identificación y coordinación (Simon, 1991, citado en Lara, 2007, 121). La autoridad permite que bajo un ordenamiento jerárquico se coordinen actividades desarrolladas por distintos individuos, que de acuerdo con la división del trabajo cuentan con habilidades específicas, de manera que en aquellos casos en que el problema que se presenta al subordinado le es extraño o difícil de resolver, se concentra la decisión en el superior, con lo que se restringe la deliberación y desgaste que sería en otro caso asumida por alguien probablemente inexperto –el subordinado– y ahorran recursos como el tiempo. La compensación es la contribución que la firma concede a los fines personales de sus miembros para que acepten condiciones como la jerarquía. Cabe mencionar que tal contribución no sólo se materializa directamente a partir del pago de un salario, sino que abarca la retribución indirecta en aspectos como el desarrollo personal y profesional del individuo o el reconocimiento que induce a que el trabajador se perciba como útil para la sociedad23 . En conjunto con los aspectos ya comentados, y en especial con la autoridad, la identificación evoca la correspondencia entre los valores individuales y los objetivos organizacionales, reduciendo las motivaciones que el individuo tiene para actuar únicamente en beneficio propio. El comportamiento egoísta conlleva en el futuro a que el individuo se encuentre en desventaja para enfrentar la incertidumbre, puesto que la imagen de no ser un buen elemento para las firmas le supondrá menores oportunidades de asociación. En estas circunstancias, un empleado que acepte la autoridad y esté estimulado para mantener su ambiente de trabajo, podría estar dispuesto a sacrificar algunas aspiraciones propias (e.g., ocio) para contribuir a que la organización, se recupere de las crisis económicas, por ejemplo. Finalmente, la coordinación limita los efectos de la incertidumbre inmersa en la decisión de los individuos, lo que justifica según Hodgson (2000, 20) la función de los hábitos para crear regularidad en el contexto24 . Así, la firma establece pautas de acción y permite encausar los esfuerzos individuales en torno a un número limitados de metas, acotando el problema de elección y definiendo un conjunto manejable de alternativas para el uso de los recursos disponibles, siguiendo, entre otros, los criterios de los individuos con mayor conocimiento o experiencia. 23 Al

no ser la contribución económica suficiente para fortalecer la unidad en la firma, programas que auspicien valores como el compañerismo y el trabajo en equipo, partiendo de esquemas en que se promueva a los individuos o se les asigne una participación en las utilidades empresariales, constituyen una alternativa para contribuir a la identidad organizacional, en la cual se confabula el orgullo por pertenecer a la firma y la disponibilidad para integrar ciertos valores colectivos como propios. Adicional a un esquema de compensación, es necesario que en la organización se castiguen de manera efectiva las conductas egoístas con que algún individuo infringe daño a otros; esto como aliciente a comportamientos altruistas que florecen con mayor probabilidad en ambientes en que se puede constatar qué individuos cooperaron y cuáles no, ya que el altruismo está asociado a la retroalimentación o efecto equidad. 24 Induciendo también a la aparición de desviaciones con respecto al fin deseado, según el grado de exigencia del ambiente y lo trascendental de la decisión.


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

47

Esto brinda funcionalidad a la firma, que acota el margen de decisión individual bajo un propósito institucional, haciendo visibles las conductas que se apartan sistemáticamente del referente establecido por la jerarquía organizacional, siempre y cuando haya una clara división de funciones y actividades, existan canales adecuados de comunicación25 y se dote a la administración de elementos para evaluar al personal –por ejemplo, de acuerdo con su participación en la cadena de producción de la firma26 . Considerar los cuatro aspectos discutidos aclara que si bien, se requiere de condiciones que articulen la interacción entre agentes para que la firma sea viable, restringiendo parcialmente la libertad de quienes confluyen en ella, esto no implica que la firma escape a amenazas en su contexto. Existe el riesgo de no coincidir con las demandas del mercado, al ser el capital humano preso de la racionalidad limitada, o dada la complejidad que exhiben las tecnologías de producción, haciendo inviable la elección de los planes de producción, en el espíritu de la teoría neoclásica. En este último caso, no sería factible definir el beneficio analizando cada alternativa cuando su número es muy grande; lo que se asemeja al problema del ajedrecista, que ante un estudio juicioso de cada una de sus alternativas moriría sin haber movido la primera ficha. De esta manera, pese a que hay elementos que incentivan a los individuos para que cooperen al interior de las firmas, constituyéndolas en un medio idóneo para enfrentar problemas propios de la incertidumbre, ello no garantiza su éxito. El aprendizaje a nivel organizacional está relacionado con la experiencia –ventaja competitiva cuando es asumida por la firma (Levinthal y March, 1993)–, pero se requiere que los individuos se percaten de qué acciones corresponden a las expectativas organizacionales y cuáles no, y además que tengan la capacidad de comunicarlo objetivamente, es decir, sin que medien interpretaciones que tergiversen el significado de los eventos. Sin embargo, esto pone de manifiesto otros problemas que dificultan la acción cooperativa en las empresas, como la existencia de sesgos que pueden relacionar el éxito con las acciones emprendidas por alguien en particular y las fallas con condiciones externas (Argyris, 1994; Ford y Baucus, 1987), o que mediados por intereses personales busquen mostrar una falla como éxito o un éxito como falla (Meyer, 1997); no pudiéndose, entonces, prescindir de agentes que hagan las veces de monitores. Pareciera entonces que además del oportunismo, las limitaciones individuales tienden a reproducirse, aunque en menor grado, a nivel de la firma, pudiendo la experiencia organizacional sugerir acciones divorciadas de las condiciones reales del mercado, en la medida que replica problemas en el proceso de aprendizaje para 25 Con

fallas en la comunicación intraorganizacional, se incrementa la probabilidad de que los problemas identificados en un área no sean responsabilidad única de los individuos a cargo, sino que respondan al lastre de omisiones y errores acaecidos en otras áreas. 26 Esto asimila al individuo a un engranaje en una maquina, de modo que al haber problemas en un área y tras un diagnóstico que haga visible a los agentes responsables, se facilita su posterior penalización.


48

Cuadernos de Economía, 30(55), julio - diciembre de 2011

el individuo. No obstante, se puede adquirir experiencia también de terceros, permitiendo a los agentes –individual y colectivamente– complementar sus modelos de decisión según los resultados obtenidos por los demás. Ello sugiere adoptar las acciones exitosas, lo cual depende de la relación entre individuos o firmas líderes y seguidoras27 y de contar con el soporte necesario para su implementación (Levinson y Asahi, 1995). Adicionalmente, la probabilidad de replicar el resultado satisfactorio depende de la similitud entre el contexto al que se enfrentó el(los) líder(es) y al que se enfrenta el(los) seguidor(es) (Baum e Ingram, 1998). En definitiva, la experiencia propia y ajena es una fuente de aprendizaje bajo las observaciones hechas anteriormente, pero se necesita también considerar que existe un periodo entre el momento en que se obtiene la retroalimentación y su uso, siendo poco razonable, cuando existe la posibilidad de inacción, que una firma se funde en un periodo t = 0 para producir de acuerdo con las mejores prácticas observadas (propias o ajenas) en t = 1. Ello significaría soportar pérdidas no obligatorias en tanto haya un lapso entre t = 0 y t = 1 para estudiar las condiciones de la industria y el mercado sin incurrir en los costos de ineficiencia28 . Por ello, en la literatura se diferencia este tipo de aprendizaje denominado congénito (Agarwal, Echambadi, Franco, y Sarkar, 2002; Baum e Ingram, 1998), del aprendizaje desde la experiencia ajena, adquirida cuando la empresa está operando, llamado aprendizaje vicario (Gioia y Manz, 1985; Levitt y March, 1988); encontrándose además que, en general, aquellas firmas que inician operaciones tardíamente son más productivas que aquellas que empiezan prematuramente (García, 2002). El aprendizaje congénito se constituye, así como el vicario, en un elemento que permite actualizar los modelos de decisión, aunque con la ventaja de implicar menores costos directos. Sin embargo, no se puede esperar que las eventuales mejoras conduzcan a la obtención del “modelo óptimo”, puesto que el cambio en el contexto y los factores que afectan la observación de los hechos crean una presión continua en el proceso adaptativo. En particular, aspectos como la información incompleta o la restricción cognitiva de los individuos reclaman de la firma una constante revisión de procesos. Nótese que en el mundo real se puede esperar que el precio de cada insumo no sea único, fluctuando según factores como el proveedor, la región en que se compra, el conocimiento inter-organizacional que haya con antelación o el nivel de competencia, siendo en la mayoría de los casos imposible que en la firma se tenga conocimiento de todos estos elementos. Por otro lado, no existe garantía de que el individuo encargado de decidir en aspectos como el nivel de producción no cometa errores, pudiendo establecer erradamente, en relación con las condiciones de mercado, la cantidad de insumos o productos. 27 Líder será aquel agente que inicialmente implementa una acción (o conjunto de ellas) que resulta(n)

en éxito y seguidor el que una vez observado un resultado deseable, busca replicarlo. argumento es cierto cuando se mantienen las condiciones de entrada a la industria en t = 1, puesto que de no ser así, la firma debería en t = 0 tomar la decisión de entrar o no, considerando la probabilidad de perder la oportunidad de negocio cuando espera hasta t = 1.

28 Este


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

49

Este ambiente, lleno de retos para la firma y los individuos, amerita que el modo como se combinan recursos y se asumen actividades se circunscriba en la división de responsabilidades y una efectiva comunicación entre las partes. Por esto, para Lara (2007, 119) no basta con que la firma reduzca los costos de transacción para asegurar su existencia, se requiere además de una estructura bajo la cual las reglas de juego para los agentes sean claras y aseguren el “trabajo en equipo”. La firma es así un organismo que reduce los problemas de elección individual relacionados con ambientes riesgosos29 o bajo incertidumbre, siempre y cuando concurran factores como los explicados en fragmentos anteriores, ya que ella es afectada, por ejemplo, por la dinámica de los procesos de aprendizaje y las motivaciones heterogéneas de los individuos. Asimismo, a pesar de que el oportunismo, resaltado en fenómenos como la selección adversa y el riesgo moral, es un problema central, no es preciso limitar un análisis de la firma a éste, puesto que no se considerarían las bondades que representa, en términos de redes de conocimiento y acción, la confluencia de agentes en ella. De otro lado, la firma dota a los agentes de instrumentos para cooperar, que se convierten en fortalezas para la adaptación, pues centraliza la autoridad para canalizar la acción individual hacia un fin común. Ahora, esto retribuye a la firma, ya que la cooperación entre agentes crea en ella capacidades –por ejemplo, para traducir las señales del mercado–, lo que resulta imprescindible para lograr la meta de sobrevivir en el proceso competitivo, en el cual son seleccionadas aquellas capaces de actuar con celeridad, adoptando la información disponible de manera efectiva y oportuna. En la medida en que el mercado permite definir qué acciones resultan acordes con las necesidades y tendencias, se produce conocimiento de largo plazo en la organización, ayudando a la construcción de modelos operativos, del mismo modo en que los individuos incorporan modelos internos. Sin embargo, para Lara (2009) ambos modelos funcionan de forma interrelacionada, compitiendo y cooperando entre sí30 , de suerte que cada uno, aun enriquecido por la retroalimentación, no es perfecto. En consecuencia, se requiere algunas veces, por ejemplo, que las decisiones sean tomadas a partir de la experticia acumulada sólo por algunos agentes en la firma, razón que justifica los altos pagos a sus directivos. De otra parte, el éxito de la firma en el mercado demanda poder estudiar hipotéticamente diferentes estados de la naturaleza, buscando hacer buen uso de los recursos. 29 Se

puede pensar que cuando el individuo trabaja aisladamente, tiene que resistir los impactos de no vender su producto, limitando sus posibilidades de consumo y probabilidad de supervivencia. No obstante, cuando el mismo individuo firma un contrato de trabajo, se blinda parcialmente de las fluctuaciones de la actividad económica, aunque esta opción tiene costos, por ejemplo, la diferencia entre los ingresos que percibe como empleado y los que obtendría como independiente en épocas favorables. 30 Un agente puede considerar varios modelos mentales, de modo que según la situación y el resultado buscado sólo serán pertinentes algunos de ellos. Así, aunque cada modelo por sí solo es insuficiente para determinar qué acción tomar en un contexto variable, la cooperación entre ellos es una solución parcial de esta falencia (Holland, 2004).


50

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Esto involucra a la planeación como aprendizaje ex-ante, para decidir en aspectos como el nivel de producción y el diseño de lo que será lanzado al mercado, considerando el riesgo inherente a la actividad productiva. Así, es de esperar que aquellas firmas en que existe una mayor capacidad para aprender de los errores y actuar según la retroalimentación con el ambiente, mantengan y, eventualmente, incrementen su participación en el mercado. De lo discutido, se infiere que a partir de los modelos operativos y de la experiencia de sus directivos las firmas colocan sus precios, pues a pesar de la aparente homogeneidad en los productos, ello no implica que los procesos productivos y la comercialización sean idénticos entre empresas (Calvo, 1983; Taylor, 1980). No obstante, el mercado de acuerdo con el grado de competencia, verifica si la decisión en la colocación del precio fue pertinente o no, creando una señal que le indica a la firma qué tan bien está haciendo las cosas31 . Así, aquellas firmas que cuentan con prácticas que les signifiquen ventajas frente a otras para fijar precios, serán probablemente destino de mayores recursos y alicientes para adelantar actividades de innovación y desarrollo; elementos básicos para cambiar el campo de alternativas en que se desenvuelven y facilitar así su supervivencia a largo plazo. En este escenario se resaltan la planeación, la evaluación de resultados y el fortalecimiento de una red social (empleados, empleadores y agentes externos a ella), como factores clave para promover la competitividad e incentivar la innovación. La firma es un ente en constante cambio que al brindar herramientas a quienes participan en ella para decidir en relación a sus fines, no solamente fundamenta su operación en variables tomadas tradicionalmente como exógenas (e.g., los precios), sino que además responde a la decisión de la competencia y a la retroalimentación que le suministra el mercado. De otro lado, a pesar de que las firmas, así como los individuos, acuden a hábitos y a rutinas en el corto plazo, para contrarrestar la incertidumbre, en el largo plazo la innovación se debe plantear como estrategia de sobrevivencia, siendo necesarias las actividades de exploración en aquellas firmas que pretenden permanecer en mercados no maduros (March, 1991). Por ello, el contexto económico en que se desarrollan las actividades de producción es constantemente redefinido y reconocido como un sistema abierto que se nutre con la asimilación de nuevos descubrimientos (Nicol, 1965), siendo entonces, el estado del conocimiento de cada industria potencialmente redefinido por las innovaciones, no sólo al interior de la respectiva industria.

CONCLUSIONES Con respecto a las decisiones bajo riesgo o en un entorno cambiante, si bien la teoría ortodoxa ha suministrado referentes acerca de lo que cabría esperar del com31 Por

ejemplo, la diferencia entre el precio promedio en el mercado y el precio que coloca la firma, sirve de proxy para la eficiencia, de modo que excluyendo la prima por reconocimiento, un precio muy alto al relacionarse con la estructura de costos, sugiere fallas en la firma.


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

51

portamiento de los agentes económicos, esto se ha hecho bajo unas condiciones muy particulares como la exogeneidad en los precios, de modo que la teoría de la maximización de la utilidad y del beneficio resaltan la decisión racional como una respuesta a unos precios preestablecidos. Sin embargo, la construcción formalizada de la economía ha inducido a que el conocimiento que se tiene acerca de las dinámicas y el proceso competitivo sea muy limitado, siendo necesario ahondar en la consideración del fenómeno desde la economía evolutiva, en que el sujeto de estudio está en un proceso de constante aprendizaje más próximo a la realidad humana. En este sentido, la aceptación de la condición humana del hombre que lo hace propenso a errar, también abre nuevos campos de estudio para la teoría económica, donde las limitaciones se constituyen en presiones para el cambio más que en desventajas competitivas. Asimismo, no existe una estructura organizacional óptima, puesto que dependiendo del ambiente, cada cual tendrá aspectos positivos y negativos, de forma que la firma no se puede ver como un agente estático, sino en constante evolución, que valida sus decisiones con base en los mensajes que le da el mercado como mecanismo de selección. Siguiendo además los aportes de autores como Kahneman y Tversky, la decisión dependerá también de aspectos inherentes al agente, como el denominado efecto encuadre, por lo que cabe esperar que la manera en que cada individuo o empresa responde a las señales del mercado, no sea necesariamente homogénea. Es la diferencia entre agentes, originada en sus esquemas de aprendizaje y en la retroalimentación recibida según sus modelos internos, lo que sustenta la innovación como respuesta exitosa para aquellos individuos que perciben las posibilidades que les ofrece el mercado, y actúan en función de expandir sus oportunidades de negocio o supervivencia. Así, el desempeño de los agentes, en un ambiente demandante, se relaciona con la calidad de sus modelos mentales o de operación, en cuanto a su capacidad para ajustarse efectivamente al contexto. Esto se traduce para la firma, cuando existe cohesión entre sus integrantes, en una mayor probabilidad de éxito, facilitando la estandarización de prácticas y la incorporación de nuevos conocimientos en los procesos productivos, todo dirigido a conseguir que las innovaciones sean apropiadas por la organización.

REFERENCIAS BIBLIOGRÁFICAS 1. Agarwal, R., Echambadi, R., Franco, A. y Sarkar, M.B. (2002). Knowledge transfer through congenital learning: spin-out generation, growth and survival. (Working Paper 02-0101). Urbana-Champaign: University of Illinois at Urbana-Champaign. 2. Alchian, A. y Demsetz, H. (1972). Production, information cost and economic organization. The American Economic Review, 62(5), 777-795. 3. Argyris, C. (1994). Good communication that blocks learning. Harvard Business Review, 72(4), 77-85. 4. Axelrod, R. (1997). The complexity of cooperation: agent-based models of competition and collaboration. Princeton: Princeton University Press.


52

Cuadernos de Economía, 30(55), julio - diciembre de 2011

5. Bahry, D.L. y Wilson, R.K. (2006). Confusion or fairness in the Field? Rejections in the ultimatum game under the strategy method. Journal of Economic Behavior and Organization, 60(1), 37-54. 6. Baum J.A.C. e Ingram, P. (1998). Survival-enhancing learning in the Manhattan hotel industry, 1898-1980. Management Science, 44(7), 996-1016. 7. Calvo, G. (1983). Staggered prices in a utility?maximizing framework. Journal of Monetary Economics, 12(3), 383-398. 8. Coase, R.H. (1937). The nature of the firm. Economica, 4, 386-405. 9. Doménech, J. y Casado J.M. (1998). Nuevas tendencias en la formación: goal-based learning. Dirección y Progreso, 160, 65-81. 10. Dosi, G., Freeman, C. y Fabiani, S. (1994), The process of economic development. Introducing some stylized facts and theories on Technologies, firms and institutions. Industrial and Corporate Change, 3(1), 1-28. 11. Fiorito, A. (2008). La crítica clásica del excedente la economía neoclásica. Cuadernos de Economía, 27(49), 23-56. 12. Ford, J.D. y Baucus, D.A. (1987). Organizational adaptation to performance downturns: An interpretation-based perspective. Academy of Management Review, 12, 366-380. 13. García, V. (2002). La generación de nuevo conocimiento a partir de los errores. Revista Gallega de Economía, 11(1), 1-18. 14. Gioia, D.A. y Manz, C.C. (1985). Linking cognition and behavior: a script processing interpretation of vicarious learning. Academy of Management Review, 10(3), 527-539. 15. Hernández, I. (2008). Empresa Innovación y Desarrollo. Bogotá: Universidad Nacional de Colombia, Unibiblos. 16. Hodgson, G. (1988). Economics and institutions: A manifesto for a modern institutional economics. Cambridge: Polity Press. 17. Hodgson, G. (2000). La ubicuidad de los hábitos y las reglas. Revista de Economía Institucional, 2(3), 11-43. 18. Hogarth, R.M. (2002). Educar la Intuición. El desarrollo del sexto sentido. Barcelona: Paidos. 19. Holland, J. (2004). El orden oculto: De cómo la adaptación crea la complejidad. México: Fondo de Cultura Económica. 20. Holland, J., Holyoak, K., Nisbett, R. y Thagard, P. (1986). Induction: processes of inference, learning and discovery. Cambridge: MIT press. 21. Holland, J. y Miller, J. (1991). Artificial adaptive agents in economic theory. The American Economic Review, 81(2), 365-371. 22. Kahneman, D. (2003a). Maps of bounded rationality: psychology for behavioral economics. American Economic Review, 93(5), 1449-1475. 23. Kahneman, D. (2003b). A psychological perspective on economics. American Economic Review, 93(2), 162-168. 24. Kahneman, D. y Tversky, A. (1973). On the psycology of prediction. Psycological Review, 80, 237-251. 25. Kahneman, D. y Tversky, A. (1979). Prospect theory: An analysis of decision under risk. Econometrica, 47(2), 263-292.


Representación del agente en la teoría económica evolutiva

Víctor Mauricio Castañeda

53

26. Kahneman, D. y Tversky, A. (1984). Choices, values and frames. American Psychologist Association, 39(4), 341-350. 27. Knight, F.H. (1921). Risk, uncertainty and profit. New York: Harper. 28. Lara, A. (2007). Naturaleza y evolución de la organización: la teoría de la empresa de Herbert Simon. En Eunice Taboada (coord.), Hacia una nueva teoría de la empresa (113-134). Azcapotzalco: UAM. 29. Lara, A. (2009). Agente adaptable, aprendizaje y estructura del ambiente: un enfoque alternativo. Comunicación presentada el 18 de noviembre de 2008 en el Primer Seminario Nacional de Economía Institucional. Fronteras del Análisis Económico de las Instituciones. UAM: Xochimilco. Recuperado de http://laisumedu.org/DESIN_ Ibarra/desin/SemFronteras.htm. 30. Levinson, N.S. y Asahi, M. (1995). Cross-national alliances and interorganizational learning. Organizational Dynamics, 24(2), 50-63. 31. Levinthal, D. (1997). Adaptation on rugged landscapes. Management Science, 43(7), 934-950. 32. Levinthal, D. y March, J.G. (1993). The myopia of learning. Strategic Management Journal, 14, 95-112. 33. Levitt, B. y March, J.G. (1988). Organizational learning. Annual Review of Sociology, 14, 319-340. 34. Lomi, A., Larsen, E.R. y Ginsberg, A. (1997). Adaptive learning in organization: a system dynamics-based exploration. Journal of Management, 23(4), 561-582. 35. March, J.G. (1991). Exploration and exploitation in organizational learning. Organization Science, 2(1), 71-87. 36. Meyer, M. (1997). Dilemmas of performance measurement. Journal of Strategic Performance Measurement, 1(2), 33-42. 37. Nelson, R. y Winter, S. (1982). An evolutionary theory of economic change. Cambridge: Ed. MA Bilknap Press. 38. Nicol, E. (1965). Los principios de la ciencia. México: FCE. 39. Simon, H. (1955). A behavioral model of rational choice. The Quarterly Journal of Economics, 69(1), 99-118. 40. Simon, H. (1991). Organizations and markets. Journal of Economic Perspectives, 5(2), 25-44. 41. Spencer, H. (1857). Progress: Its Law and Causes. The Westminster Review, 67, 445-465. 42. Soros, G. (2009). Open society, the Financial Crisis, and the Way Ahead. New York: Open Society Foundations. Recuperado de http://www.soros.org/resources/ multimedia/sorosceu_20091112. 43. Taylor, J.B. (1980). Aggregate dynamics and staggered contracts. Journal of Political Economy, 88, 1-23. 44. Tsang, E.W.K. (1997). Organizational learning and the learning organization: A dichotomy between descriptive and prescriptive research. Human Relations, 50(1), 73-89. 45. Williamson, O. (1985). The economic institutions of capitalism: firms, markets, relational contracting. New York: Free Press.


54

Cuadernos de EconomĂ­a, 30(55), julio - diciembre de 2011


EL UTILITARISMO DE JEREMY BENTHAM ¿FUNDAMENTO DE LA TEORÍA DE LEON WALRAS?

Aída-Sofía Rivera-Sotelo1 La motivación para este escrito surge de una inquietud compartida con los integrantes del semillero del Grupo de Investigación en Pensamiento y Teoría Económica –GIPTE–, sobre los orígenes filosóficos de la teoría de la elección racional (TER). Esta teoría de la acción o comportamiento sirve de base para la corriente dominante en economía –frecuentemente denominada neoclásica–, y extiende sus alcances a todo problema de elección. En general, la TER define la elección en términos de decisiones individuales sobre alternativas posibles en condiciones de escasez, y el problema que precisa toma la forma de maximización de una función objetivo –de contenido diverso y correspondiente al interés propio– bajo restricciones. Básicamente, la TER exige del individuo que pueda organizar de manera coherente sus preferencias y que tome decisiones siguiendo ese orden. A mediados del siglo pasado, con la conceptualización de Paul Samuelson sobre preferencias reveladas, la TER abandonó todo intento por explicar el contenido de 1 Estudiante

de maestría en Estudios Culturales. E-mail: a.riverasotelo@queensu.ca, asriveras@gmail.com. Dirección de correspondencia: B408 Mackintosh-Corry Hall, Queen’s University Kingston, ON K7L 3N6, Canadá. Este texto es el producto de un trabajo asistido por los investigadores del Grupo de Investigación en Pensamiento y Teoría Económica (GIPTE) –en especial de la Dr. Jimena Hurtado Prieto. Para su realización, se contó con el apoyo del Programa de Jóvenes Investigadores de Colciencias y de la Universidad de Los Andes, durante el primer semestre del año 2010. La autora agradece los comentarios de los miembros del semillero de investigación en Historia del Pensamiento Económico y del seminario GIPTE. Este artículo fue recibido el 7 de septiembre de 2010, la versión ajustada fue recibida el 6 de mayo de 2011 y su publicación aprobada el 2 de junio de 2011.

55


56

Cuadernos de Economía, 30(55), julio - diciembre de 2011

las preferencias y con esto todo posible diálogo o controversia con la psicología y la filosofía moral. Una pregunta que sigue abierta en el semillero es si abandonar este debate es suficiente para liberar a la TER de cualquier implicación ética y epistemológica. Tomando como punto de partida a los padres del marginalismo –William Stanley Jevons (1840-1882), Carl Menger (1840-1921) y Leon Walras (1834-1910)–, se pretenden analizar debates y tensiones entre aproximaciones teóricas, para retomar una discusión sobre la fundamentación, alcances e implicaciones de la TER. La relevancia de este ejercicio del GIPTE radica en al menos tres aspectos: (i) se realiza una reflexión disciplinaria sobre la fundamentación de un método dominante actualmente para abordar la “realidad económica” –convencionalmente definida con referencia a la producción/consumo, intercambio y distribución de la riqueza; (ii) el uso de dicho método por múltiples disciplinas para tratar temas sociales que sobrepasan las fronteras de lo otrora considerado económico (Becker y Becker, 1996); (iii) debido a las posibles implicaciones en materia de políticas que afectan la vida cotidiana de muchos seres. En el contexto de ese ambicioso proyecto se sitúa este estudio comparativo del pensamiento de Jeremy Bentham (1748-1832) y Leon Walras (1834-1910) en tres áreas: Las visiones de los autores con relación a la sociedad y el objetivo social, que orientan sus elaboraciones teóricas. La percepción de los autores sobre la economía política y los diferentes acercamientos teóricos y metodológicos. El espacio de un principio de utilidad –potencialmente de comportamiento– en cada teoría. A esta aproximación subyace la idea que un principio de comportamiento no se puede entender por fuera de un análisis comprensivo del pensamiento de los autores. El enfoque comparativo se justifica por el propósito del estudio de rastrear debates, tensiones y discontinuidades entre ideas. Este trabajo se sitúa de la siguiente manera frente a la literatura existente. Múltiples historiadores del pensamiento económico han reconocido los fundamentos del marginalismo y la teoría de la elección racional en el utilitarismo de Jeremy Bentham (Bruno y Benz, 2004, 63; Fernández-Díaz, 2003, 452; Lewin, 1996, 1297; Screpanti y Zamagni, 1997, 158; Sotiropoulos, 2009, 473; Trincado, 2005,120). Por ejemplo, Ernesto Screpanti y Stefano Zamagni (1997) señalan: Otra característica común de los tres padres fundadores, que se convertirá en el pilar del sistema teórico neoclásico, es su adhesión al planteamiento utilitarista[. . . ]. Su marginalismo acreditó una especial versión de la economía política, según la cual el comportamiento humano resulta reducible al cálculo racional orientado a la maximización de la utilidad. A este principio le otorgaban validez universal: por sí solo permitiría comprender toda realidad económica (Screpanti y Zamagni, 1997, 158).


El utilitarismo de Jeremy Bentham

Aída-Sofía Rivera-Sotelo

57

Esta cita llama particularmente la atención por los siguientes motivos. Primero, señala como pilar del sistema teórico neoclásico la adhesión común de los padres fundadores al utilitarismo. Segundo, indica que dicho sistema teórico acreditó una nueva versión de la economía que no se define por un objeto de estudio, sino por un método que parte de un principio de comportamiento humano y cuya validez se considera universal. Tercero, a pesar de la relevancia de dichas observaciones para la economía y la teoría de la elección, en el texto no se profundiza mucho más al respecto. En otras palabras, tanto los fundamentos en el utilitarismo, como la homogenidad del marginalismo y las implicaciones de dichas aserciones, se asumen autoevidentes. En la misma línea, Trincado (2005) se propone demostrar los fundamentos benthamianos del supuestamente homogéneo marginalismo, al señalar similitudes entre fragmentos del pensamiento de Bentham y visiones “marginalistas”, con respecto a la propiedad y la expectativa, la relación entre valor y utilidad, la utilidad marginal decreciente, entre otros. La pregunta que continúa abierta es en qué medida a partir de dichas comparaciones se puede alegar un fundamento benthamiano del marginalismo. Como se mencionó anteriormente, la posición que se asume en este texto es que una afirmación sobre los fundamentos en el utilitarismo de Bentham requiere considerar las visiones de sociedad, debido a que éstas sirven de pilares para las elaboraciones teóricas de los autores comparados. Además, aunque existen vínculos claros entre el pensamiento de Bentham y Jevons (Sigot, 2002), estas conexiones resultan más difíciles y poco estudiadas con relación a Menger y Walras. De ahí que una de las contribuciones del estudio aquí propuesto es deshomogenizar y mostrar discontinuidades en el pensamiento de los padres del marginalismo, en particular mediante el examen de Walras. Por otra parte, vale la pena aclarar que este trabajo se distancia de Fernández-Díaz (2003) por dos razones. Primera, el autor traza rápidamente una conexión entre el utilitarismo y el pensamiento de Walras (Fernández-Díaz, 2003). En sus propias palabras: En efecto, Walras, como hicieron los otros dos autores anteriormente citados [Jevons y Menger], reformuló la ley de necesidades saciables de Gossen, Bentham o Bernoulli, tratando la utilidad o satisfacción de necesidades como un hecho psíquico que conocemos por introspección y como causa del valor (Fernández-Díaz, 2003, 452).

En esta cita se reproduce la idea de homogenidad en el pensamiento de los tres padres del marginalismo, un énfasis en las continuidades dentro de la historia del pensamiento económico y una simplificación del lenguaje que equipara la felicidad a una satisfacción de necesidades vagamente definida. Contario a la referencia y usando los mismos términos de Fernández-Díaz (2003), Walras estaría más cercano a una teoría deontológica basada en una definición previa de justicia, que a una teoría teleológica particularmente utilitarista (Fernández-Díaz, 2003, 479). De


58

Cuadernos de Economía, 30(55), julio - diciembre de 2011

manera similar, Fernández-Díaz (2003) señala: “Walras insistió en la elección de consumidor, en las relaciones entre los mercados y en la mecánica de los precios, elaborando un modelo basado en el individualismo metodológico que sería desarrollado más tarde por los teóricos del equilibrio general” (Fernández-Díaz, 2003, 452). En este caso, el autor, al considerar aisladamente la Economía Política Pura de Walras hace afirmaciones aceleradas sobre el individualismo metodológico2 en dicha teoría. De hecho, un estudio comprensivo de Walras permite observar que su elaboración teórica complica las mismas premisas del individualismo y la elección libre, en tanto para él la sociedad y las personas conforman una entidad inseparable (Fernández-Díaz, 2003, 479). La segunda razón es que a diferencia del trabajo de Fernández-Díaz (2003), este texto no se pretende elaborar sobre implicaciones y críticas al utilitarismo, alcances de las teorías para tratar temas de justicia distributiva o comparaciones con otras teorías de justicia al interior de una tipología particular. En este contexto, las contribuciones de este estudio se restringen a identificar debates y tensiones entre las aproximaciones teóricas de Bentham y Walras con relación a: (i) las visiones de sociedad y objetivos sociales; (ii) las visiones y el lugar de la economía política; (iii) la posible presencia de un principio de comportamiento y su lugar dentro del marco general de una teoría de la sociedad. Este escrito tampoco se enfoca en el equilibrio general, no obstante la información que aquí se presenta es de interés para los estudiosos de los equilibrios por al menos tres razones. Primera, presenta la teoría general de la sociedad que condiciona e informa la teoría de equilibrio general walrasiana. Segunda, controvierte o al menos complica la microfundamentación y la referencia a un principio de elección racional en esta teoría de equilibrio general. Tercera, deja abiertas preguntas sobre las posibles implicaciones de las observaciones anteriores tanto teóricamente como para la vida cotidiana. De otra parte, este texto contribuye al debate en las tres áreas indicadas como foco de análisis, al recurrir a fuentes primarias (Bentham, 1817; Walras, 1860; 186768; 1885) y secundarias (Hurtado, 2004; Lallement, 1993; Rebeyrol, 1999; Sigot, 2001). Aunque intencionalmente se omite mucha literatura acerca de ambos autores, el texto se centra en aquella pertinente para el estudio propuesto. Queda abierta la invitación a otros académicos, para una futura discusión sobre las implicaciones y conexiones entre este trabajo comparativo, el estado actual de la TER y su aplicación y cualquier otro tipo de debates que se puedan identificar a partir de este texto. En este escrito se argumenta que Bentham y Walras ofrecen dos visiones diferentes de la sociedad. Mientras para Bentham la sociedad es un cuerpo ficticio compuesto por individuos y el objetivo social es la felicidad –definida en términos de expectativas sobre relaciones entre placeres y penas generadas por las acciones–, para 2 De

manera general, el individualismo metodológico se caracteriza por reducir la explicación de toda problemática social a un problema de acción individual.


El utilitarismo de Jeremy Bentham

Aída-Sofía Rivera-Sotelo

59

Walras, la sociedad está integralmente relacionada con las personas que hacen parte de la misma. El objetivo social para Walras no es la felicidad sino la justicia, en términos de igualdad de condiciones garantizadas por el Estado y desigualdad de posiciones que reflejan los diferentes talentos, esfuerzos y ahorros personales. Estas diferentes visiones de la sociedad y el objetivo social permiten identificar distintas preguntas, y aproximaciones teóricas y metodológicas. Mientras para Bentham el problema central es cómo inducir el comportamiento individual de manera que al maximizar la propia felicidad se maximice la felicidad social, Walras se ocupa de una estructura institucional que promueve la justicia social y que sirve de base para la actividad económica. En tanto la metodología del primero es microfundamentada y se propone conocer e inducir el comportamiento individual correcto que oriente la sociedad al logro del objetivo último; la justicia walrasiana impone condiciones de neutralidad a un mercado que manifiesta interdependencias difícilmente microfundamentadas. El principio maximizador de la utilidad en Walras es dudosamente idéntico al principio utilitarista, al ser el primero condicionado por el logro de la justica y su contenido definido sin referencia a placeres y penas. En este orden de ideas, no es posible alegar una supuesta fundamentación de la teoría walrasiana en el utilitarismo de Bentham3 . El presente texto está organizado en cuatro secciones más. La primera se ocupa de la visión de la sociedad y el objetivo social en el pensamiento de los autores. La segunda parte analiza el lugar de la economía política en el marco de las dos teorías generales de la sociedad. El tercer apartado se centra en los principios de utilidad, en los cuales potencialmente se pueden rastrear fundamentos de comportamiento individual. Finalmente, se formulan las conclusiones.

VISIONES DE SOCIEDAD Y OBJETIVOS SOCIALES En esta sección se muestra cómo y por qué las visiones de Bentham y Walras sobre la sociedad son distintas. Mientras para el primero, la sociedad es un cuerpo ficticio conformado por individuos y el objetivo social es la felicidad individual y social –entendida esta última a partir de la agregación simple de felicidades individuales–; para Walras, en cambio, no hay individuo, las personas están integralmente relacionadas con la sociedad. Además, para este último, la justicia sirve de base para la organización social incluyendo la actividad económica.

Bentham: el individuo, el cuerpo social y la felicidad Jeremy Bentham (1748-1832) parte de unas verdades que él considera objetivas, universales y autoevidentes. Primera, el individuo es la medida de la organización social. En otras palabras, la sociedad no es más que un cuerpo ficticio compuesto por individuos (Bentham, 1789 [2008], 12; 1839, 32; 1965-1966, 102). Segunda, 3A

manera de advertencia, lo que aquí se argumenta no niega la posibilidad de la fundamentación de otros autores marginalistas en la teoría utilitarista de Bentham.


60

Cuadernos de Economía, 30(55), julio - diciembre de 2011

el individuo está gobernado por las percepciones de placer y pena (Bentham, 1789 [2008], 11; 1965, 421). Un placer, puro e intenso desprovisto de pena, define la felicidad4 . Tercera, la búsqueda de la mayor felicidad es el objetivo individual y social último (Bentham, 1817 [1983], 37; 1839, 31; 1965-1966, 83). En un comienzo, Bentham establece como objetivo universal la mayor felicidad de todos, sin embargo, las felicidades de los individuos pueden entrar en conflicto, y en tal caso la felicidad de uno puede ocasionar una disminución en la felicidad de otro. En consecuencia, la imposibilidad de garantizar la felicidad de todos, lleva a Bentham a considerar como objetivo universal no la mayor felicidad de todos, sino la del mayor número (Bentham, 1789 [2008], 12; 1817 [1983], 37; 1965-1966, 9192; Sigot, 2001, 50-53). En palabras de Bentham: “En caso de confrontación o contienda, siendo igual la felicidad de cada parte, prefiérase la felicidad del mayor a la del menor número” (Bentham, 1965-1966, 91-92, traducción propia)5 . De la cita anterior, cabe señalar dos aspectos adicionales sobre el objetivo universal: su carácter democrático y su definición como la agregación simple de las felicidades individuales. Con respecto al primer punto, dado que la felicidad de cada individuo tiene el mismo peso, en principio, el objetivo social no favorece una gratificación temporal de nadie en particular6 (Bentham, 1965-1966, 56). De una forma amplia, el objetivo contempla la felicidad de la mayoría de los seres sensibles (Bentham, 1839, 27-28); sin embargo, Bentham afirma que su análisis presenta dificultades técnicas para considerar la felicidad de no humanos –lo que se explica ante la imposibilidad de conocer placeres y penas o inducir el comportamiento de otros seres. Igualmente, de manera poco clara, Bentham irrumpe en su análisis de la felicidad universal afirmando que la felicidad que más compete a la humanidad es la humana (Bentham, 1839, 27-28). De esta forma, un objetivo potencialmente universal –en la medida que intentaba involucrar otros seres sensibles no humanos– se restringe a un objetivo social –partiendo del supuesto que lo social se puede entender de manera independiente a lo no humano y que el conocimiento de penas y placeres entre humanos es posible.

4 Bentham

define un estado de felicidad de la siguiente forma:

In so far as the sum of the pleasures of all kinds, experienced by the person in question, during the length of time in question, is regarded, as considerable, the sum of the pains of all kinds experienced by him during that same length of time, being, moreover laid out of the account, -the state which in that respect he is regarded as being in, is termed as state of happiness (Bentham, 1965-1966, 83). 5 “In case of collision and contest, happiness of each party being equal, prefer the happiness of the greater to that of the lesser number” (Bentham, 1965, 91-92). 6 Este punto es controvertido principalmente por Sen (2000). Otras críticas adicionales en consideración a posibles implicaciones de esta aproximación se pueden encontrar en Robbins (1938) y Sen (1983; 1985; 1989; 1997; 2000; 2001). No obstante, un análisis detallado sobrepasa los propósitos de este escrito.


El utilitarismo de Jeremy Bentham

Aída-Sofía Rivera-Sotelo

61

Siguiendo a Bentham, para el logro del objetivo social se debe crear o impulsar un interés en el individuo, que sirva de motivación para que su comportamiento tienda a la mayor felicidad social, al mismo tiempo que busca su propia felicidad (Bentham, 1839, 60). En otras palabras, no sólo el objetivo individual es la propia felicidad, sino que la felicidad individual también es el medio para alcanzar la mayor felicidad social. En esta medida, el utilitarismo concilia el interés personal con el deber y el objetivo social. Todos los individuos, con mayor o menor exactitud, realizan un cálculo en el que evalúan la tendencia de sus acciones a contribuir con la mayor felicidad (Bentham, 1817 [1983], 46; Sigot, 2001, 90). El logro del objetivo social se alcanza cuando los individuos calculan correctamente, porque en tal situación, sus intereses son verdaderos y conducen a la mayor felicidad individual y social –dado que, como se señaló anteriormente, la felicidad social no es más que la suma de las felicidades individuales (Bentham, 1839, 23-24). No obstante, los individuos pueden equivocarse en su cálculo; en ocasiones, no consideran todos los placeres y penas asociados a una acción y, por lo general, prefieren un placer inmediato que un placer mayor a más largo plazo (Bentham, 1817 [1983], 43, 67; 1965-1966, 431). En este caso, un error en el cálculo individual conlleva que no se maximice ni la felicidad individual ni la social. En vista de lo anterior, Bentham garantiza el logro de la mayor felicidad individual y social a través de la introducción de dos figuras, el deontologista y el legislador. Ambas tienen como objetivo que cada interés individual se identifique con el deber o el cálculo correcto –esto asumiendo que el conocimiento del deber es posible. El cálculo correcto de la felicidad mide todos los placeres y penas que pueda causar cada acción, tanto para la felicidad individual como para el objetivo social. La medición de placeres y penas se hace teniendo en cuenta unas circunstancias que afectan exclusivamente al individuo y una última que considera a otros individuos. Las primeras circunstancias son: la intensidad de la sensación, la duración de la percepción, la certeza o probabilidad de ocurrencia, la cercanía o tiempo transcurrido desde la percepción, la fecundidad o la posibilidad de que a una sensación le siga otra del mismo tipo, y la pureza –relacionada con el hecho que una sensación no sea seguida por otra del tipo contrario. La última circunstancia es la extensión o el número de seres afectados por la acción (Bentham, 1789 [2008], 35; 1817 [1983], 66; 1965-1966, 435). De esta última circunstancia se puede observar que el cálculo de la felicidad considera a otros individuos diferentes a quien ejecuta la acción. Esto no es impuesto por el deontologista o el legislador, sino que responde a una característica universal de los individuos, su simpatía, i.e., la tendencia a derivar placer o pena de las experiencias de terceros. Algunos ejemplos de placeres que tienen soporte en la simpatía son los derivados de la amistad y la benevolencia (Bentham, 1789 [2008], 35, 50, 54; 1839, 215; Sigot 2001, 63).


62

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Aunque el deontologista y el legislador tienen el mismo objetivo, cada uno tiene diferentes instrumentos para conseguirlo. El deontologista enseña a los individuos el cálculo correcto y aplica la sanción moral o popular (Bentham, 1983 [1817], 60, 66; 1839, 26, 45, 72, 85, 148-150, 175, 195-6). El legislador pone en funcionamiento un sistema de penas y recompensas que resultan eficaces para orientar el comportamiento de los individuos hacia el deber (Bentham, 1789 [2008], 34; 1817 [1983], 66). En resumen, el individuo es el centro de la elaboración teórica de Bentham y es representado como un ser pasivo afectado por fuerzas que le causan placeres y penas. En la búsqueda de su propia felicidad, el individuo actúa considerando su propio cálculo sobre el balance de penas y placeres producidos por cada acción. El individuo benthamiano puede equivocarse, en tanto pondera más placeres inferiores (inmediatos) que superiores (largo plazo). Aún así, este individuo está dispuesto a aprender sobre el cálculo correcto y reacciona a reconocimientos y castigos. Inicialmente, el individuo benthamiano es un ser sensible, no necesariamente humano, pero dadas las dificultades para conocer e inducir comportamientos en no humanos, el autor centra su análisis en la sociedad –entendida como la agrupación de individuos humanos. La mayor felicidad individual es el objetivo real del comportamiento individual y el medio para el logro de la felicidad social –objetivo último del utilitarismo de Bentham.

Walras: la sociedad y la justicia Leon Walras (1834-1910) rompe con el individualismo de Bentham al afirmar que la sociedad no existe sin los seres humanos y que los seres humanos no existen sino en sociedad. La sociedad y los individuos son simples abstracciones de dos hechos simultáneos. Las personas son seres dotados de: 1. Simpatía y emociones estéticas (i.e., sentimientos desinteresados por otros). 2. Entendimiento y razón. 3. Una voluntad libre dentro de un marco institucional (Walras, 1867-1868 [1990], 89, 97, 163; Rebeyrol, 1999, 15). Por tanto, los destinos personales son tanto individuales como colectivos, tanto independientes como solidarios (Walras, 1867-1868, 82; Lallement, 1993, 459). Para Walras, el problema social principal es determinar cuándo la apropiación para la satisfacción de necesidades –no especificadas– debe ser personal y cuándo colectiva. Para responder a dicha problemática, Walras diferencia entre unas condiciones sociales generales (un marco institucional) y unas condiciones personales de acuerdo con las cuales el individuo actúa libremente. Por un lado, el Estado –un ente independiente de los intereses individuales–, debe asegurar la igualdad de condiciones iniciales para todos; en particular, el Estado en su autoridad debe garantizar los medios de comunicación, las leyes, la seguridad y la educación. Por otro lado, el individuo actúa libremente en este marco institucional


El utilitarismo de Jeremy Bentham

Aída-Sofía Rivera-Sotelo

63

según sus capacidades, deseos y esfuerzos, y es responsable de su posición final. El criterio de justicia se resume entonces en autoridad del Estado y libertad del individuo; igualdad de condiciones y desigualdad de posiciones (Walras, 1867-1868 [1990], 129; 1898 [2005], 362; Lallement, 1993, 459; Rebeyrol, 1999, 30-32). Siguiendo a Lallement (1993) y a Rebeyrol (1999), el criterio de justicia o de bondad que propone Walras es de obligatorio cumplimiento y no es un medio para la obtención de un fin superior (Rebeyrol, 1999, 8, 32). El autor no establece el criterio de justicia como una regla que garantiza la mayor felicidad del mayor número o que está subordinada al mayor bienestar material de la sociedad. Del criterio de justicia walrasiano se derivan dos teoremas que orientan el régimen de apropiación. El primer teorema, señala que las facultades personales son de derecho personal y asimismo su propiedad. Se rechaza con este teorema toda forma de esclavitud y se establece que la desigualdad en las propiedades individuales debe corresponder a la desigualdad de capacidades, esfuerzos y ahorro. En esta esfera de autonomía individual, el Estado no debe intervenir. El segundo teorema indica que las tierras son por derecho natural propiedad del Estado. La tierra no tiene el tratamiento de otros bienes materiales puesto que no es reproducible y dada la superioridad de toda la humanidad, de todas las generaciones en su conjunto, frente a otros seres y cosas, la humanidad es naturalmente propietaria del usufructo de la tierra. El Estado en su autoridad es quien administra dicho beneficio para poder garantizar la igualdad de condiciones. En caso de cumplirse lo anterior, los impuestos pueden abolirse en el muy largo plazo; las personas podrían ahorrar más y la sociedad eventualmente podría convertirse en una de pequeños capitalistas (Walras, 1898 [2005], 369; Cirilo, 1980, 295, 298, 300, 301; 1981, 314, 315; Lallement, 1993, 460-461; Van Daal, 2005, xix, xxxiii). La teoría general walrasiana de la sociedad se desarrolla en diálogo con las teorías morales y sociales que el autor identifica como predominantes en su época. Como las dos teorías morales, Walras identifica al materialismo –alternativamente denotado por el autor como utilitarismo–, y al moralismo o espiritualismo; y como las dos teorías sociales sobresalientes señala a la escuela económica –refiriéndose a la Escuela Liberal Francesa–7 , y al socialismo –refiriéndose al Socialismo Utópico8 . Walras critica a la escuela económica y al socialismo a partir de sus fundamentos en el materialismo o utilitarismo y en el moralismo o espiritualismo, respectivamente. Por utilitarismo, Walras entiende una moral para la cual, lo bueno y lo malo están dictados por sensaciones agradables o desagradables –de placer o de pena. Los humanos son cuerpos provistos de órganos que responden a estímulos externos para satisfacer sus propias necesidades materiales irresistibles (Walras, 7 Conformada por los economistas franceses del siglo XIX entre los que se destacan Claude Frédéric

Bastiat (1801-1850) y Michel Chevalier (1806-1879). La Escuela Liberal Francesa se caracterizó por seguir los planteamientos de Jean Baptiste Say y una posición radical favorable al laissez-faire. 8 Cuyos principales representantes fueron Pierre-Joseph Proudhon (1809-1865) y Heinri de SaintSimon (1760-1825).


64

Cuadernos de Economía, 30(55), julio - diciembre de 2011

1867-1868 [1990], 69, 73). En cuanto a las sensaciones, estas son individuales, lo cual implica para Walras un individualismo absoluto, lo que se ilustra con la siguiente cita: Ahí está la moral de Helvétius, o mejor, del principio de la autoridad exclusiva de los sentidos. ¿Se quiere ir aún más lejos? Se encontrará que cada uno persigue su propio placer en su interés personal, sin que alguna idea de orden moral o de justicia le detenga y le imponga respeto por los otros, todos los humanos son naturalmente enemigos, y la guerra es el estado natural; de donde se sigue que el más fuerte tiene razón, que la fuerza es el único derecho, y que el poder absoluto, principio de paz, es eminentemente legítimo. Esta es la política de Hobbes, es decir, la política que se deriva de la autoridad exclusiva de los sentidos9 (Jouffroy, 1883, 226, citado por Walras, 1867-1868 [1990], 73, traducción propia).

Para Walras, el utilitarismo pretende construir una teoría general de la sociedad con base en el principio individual de la búsqueda y la creación de bienestar o riqueza (Walras, 1867-1868 [1990], 69,78-53). Según el autor, este objetivo coincide con el de la actividad agrícola, industrial y comercial. Por tanto, la escuela de economistas no sólo no contradice al utilitarismo, sino que le da mayor soporte a esta corriente al mostrar que la actividad económica y el comportamiento individual se ciñen a su objetivo, y al enunciar las condiciones más favorables para la creación de bienestar10 o riqueza. En palabras de Walras (1867-1868 [1990]): La economía política lejos de contrariarle, más bien viene en su ayuda. En efecto, constatar que la actividad social consiste parcialmente en la creación agrícola, industrial y comercial de la riqueza, es constatar igualmente que la actividad individual tiene en parte por objetivo la búsqueda del bienestar. Enunciar que existen condiciones sociales más favorables que otras para la creación de la riqueza, es enunciar al mismo tiempo que estas condiciones son las más favorables para la persecución del bienestar. Así, no solamente la constatación de los hechos económicos no contradice al materialismo, sino que además la enunciación de verdades económicas proporciona a la moral materialista una concepción menos lamentable de la sociedad y un principio 9«

Voilà la morale d’Helvétius, ou plutôt du principe de l’exclusive autorité des sens. Voulez-vous aller plus loin encore? Vous trouverez que chacun poursuivant son plaisir propre en son intérêt personnel, sans qu’aucune idée d’ordre moral ou de justice le retienne et lui impose du respect pour les autres, tous les hommes sont naturellement ennemis, et que la guerre est l’état naturel; d’où il suit que le plus fort a raison, que la force est le seul droit, et que le pouvoir absolu, principe de paix, est éminemment légitime. Voilà la politique de Hobbes, c’est-à-dire la politique qui dérive de l’exclusive autorité des sens » (Jouffroy, 1883, 226, citado por Walras, 1867-1868 [1990], 73). Esta cita se encuentra en el texto de Jouffroy, Mélanges philosophiques. 10 Al respecto, es importante señalar que Walras redujo el utilitarismo a la búsqueda individual de mejores condiciones materiales de vida. No obstante, para Bentham sólo algunos placeres están directamente relacionados con condiciones materiales. De hecho, del conjunto de placeres simples o elementales, de los cuales se componen los placeres complejos, hacen parte también los placeres derivados del amor pasional, la justicia y la libertad (Bentham, 1817 [1983], 11). Asimismo, Walras omite que el eje del principio de utilidad de Jeremy Bentham es el objetivo social de mayor felicidad para el mayor número.


El utilitarismo de Jeremy Bentham

Aída-Sofía Rivera-Sotelo

65

más aceptado de orden social11 (Walras, 1867-1868 [1990], 76, traducción propia).

Por moralismo, Walras entiende una moral que se fundamenta en la percepción del espíritu de los fenómenos interiores de placer, pena, pensamiento y voluntad. De acuerdo con el autor, debido al uso exclusivo de los sentidos íntimos de conocimiento, el objetivo humano es individual y se reduce al triunfo de la voluntad libre e independiente. Por tanto, la cohesión de la sociedad sólo se garantiza a través de la caridad y la fraternidad12 . Para el moralismo, la redistribución de la riqueza permite la unidad social y se justifica en términos de los principios sociales o morales de caridad y fraternidad. Sin embargo, la reforma socialista opta por iniciativas individuales que toman la forma de sociedades cooperativas o de asistencia filantrópica y que desatienden la verdad económica13 descrita por la utilidad14 (Walras, 1867-1868 [1990], 58-64, 69, 71, 74). Walras critica ambas teorías, utilitarismo y moralismo, por su individualismo absoluto; en otras palabras, por considerar el destino de cada uno como independiente del destino de otros15 (Walras, 1867-1868 [1990], 27, 53). Este tipo de individualismo implica una sociedad fragmentada sin un objetivo distinto al que define cada individuo de manera aislada, así como una teoría de la apropiación individual que no considera alguna forma de apropiación estatal para beneficio de la comunidad. En palabras de Walras: [U]tilitaristas y moralistas, [. . . ], ambos concluyen en la atribución de toda la riqueza al individuo, sin reserva alguna del beneficio de la comunidad o del Estado; moralistas y utilitaristas, en el dominio de la ciencia social, ambos concluyen en el ejercicio de la iniciativa individual en toda circunstancia, sin 11 «

[L]’économie politique, loin de le contrarier, lui vient plutôt en aide. Constater, en effet, que l’activité sociale consiste en partie dans la création agricole, industrielle et commerciale de la richesse, c’est constater également que l’activité individuelle a en partie pour but la poursuite du bien-être. Énoncer qu’il existe des conditions sociales plus favorables que d’autres à la création de la richesse, c’est énoncer en même temps que ces conditions sont plus favorables à la poursuite du bien-être. Ainsi, non seulement la constatation des faits économiques ne contredit point le matérialisme; mais, de plus, l’énonciation des vérités économiques vient fournir tout à la fois à la morale matérialiste une conception moins désolante de la société et un principe plus avouable d’ordre social » (Walras, 1867-1868 [1990], 76). 12 Walras no aclara ni cómo surgen estos sentimientos en los individuos, ni cómo estos logran cohesionar la sociedad. 13 Básicamente sobre la producción/consumo e intercambio de la riqueza. Sobre este tema se profundizará más adelante. 14 Esta parece ser la interpretación que Walras hace del texto Comment les dogmes finissent, de Jouffroy Théodore publicado en 1825. 15 Nuevamente esto muestra una mala interpretación de Walras sobre el utilitarismo de Bentham, puesto que no sólo reduce esta corriente ética a lo que él denomina materialismo, sino que también omite el objetivo social mayor felicidad para el mayor número y una controversial dependencia de la mayoría de los destinos humanos que se manifiesta en el cálculo correcto.


66

Cuadernos de Economía, 30(55), julio - diciembre de 2011

intervención de la iniciativa colectiva o común en algún caso16 (Walras, 18671868 [1990], 53, traducción propia).

Walras reconoce que la escuela de economistas, a diferencia de los socialistas, atiende la verdad sobre el valor y la producción de riqueza, lo que ha permitido un progreso social en términos técnicos y de opulencia material. Por tanto, Walras propone continuar la búsqueda de la verdad económica, pero superar el individualismo absoluto con un criterio de justicia de obligatorio cumplimiento. Alternativamente, Walras plantea una visión de la sociedad y de las personas como dos hechos simultáneos y dependientes el uno del otro. El criterio de justicia es el principio de organización social que refleja precisamente que los destinos son tanto individuales como colectivos y solidarios. Según este criterio, mientras el Estado –ente independiente de los intereses individuales– garantiza iguales oportunidades para las personas, éstas en función de sus talentos, esfuerzos y ahorros, son responsables de sus posiciones finales. En resumen, mientras para Bentham el individuo es la medida de la organización social; para Walras, la sociedad y las personas son integralmente dependientes. En principio, no existe individuo, mas sólo como abstracción. En tanto para Bentham la felicidad –en términos de expectativas sobre relaciones entre placeres y penas– es el objetivo individual y social; para Walras, el criterio de justicia es bueno en sí mismo y es independiente de los intereses individuales. En ese sentido, el Estado debe garantizar un marco institucional que facilite condiciones de igualdad para que la acción libre de los individuos conduzca a posiciones finales que reflejen los diferentes talentos, esfuerzos y ahorros personales17 .

16 «

Utilitaires et moralistes [. . . ], concluaient ensemble à l’attribution de toute la richesse à l’individu, sans réserve aucune au profit de la communauté ou de l’État; moralistes et utilitaires, dans le domaine de la science sociale, concluent ensemble à l’exercice en toutes circonstances de l’initiative individuelle, sans intervention en aucun cas de l’initiative collective ou commune » (Walras, 1867-1868 [1990], 53). 17 Una observación adicional tiene que ver con la relación entre lo humano y lo no-humano. Bentham señala que el objetivo universal contempla la felicidad de la mayoría de los seres sensibles –sean o no humanos. Sin embargo, el autor reconoce dificultades técnicas para considerar lo diferente a lo humano–, esto asumiendo que es menos problemático conocer el comportamiento humano así como los placeres y penas que causa, y que es posible hacer comparaciones interpersonales y agregar cálculos individuales. Ante la imposibilidad de abordar la felicidad universal, Bentham se concentra en lo social –definido en ausencia de lo diferente a lo humano. Walras comparte este entendimiento de la relación entre lo social y lo no-humano, pero más allá, soporta una jerarquía donde la humanidad –en virtud de su supuesta superioridad frente a otros seres–, tiene por derecho natural la propiedad sobre la tierra. Las anteriores observaciones resultan interesantes dentro de estudios ambientales que se enfocan en el análisis de diversas valoraciones ambientales. Una reflexión más detallada sobrepasa los alcances de éste texto.


El utilitarismo de Jeremy Bentham

Aída-Sofía Rivera-Sotelo

67

LA ECONOMÍA POLÍTICA EN EL MARCO DE LAS TEORÍAS GENERALES DE LA SOCIEDAD En esta sección se señala cómo y por qué las elaboraciones teóricas de los autores se estructuran a partir de sus visiones generales sobre la sociedad y los objetivos sociales. Asimismo, se contrastan las aproximaciones teóricas y metodológicas de los autores. Mientras que Bentham se propone conocer e inducir el comportamiento individual correcto, de manera que al maximizar la felicidad individual se maximice la felicidad social, Walras se ocupa de la estructura institucional que promueva la justicia y sirva de base para la actividad económica. La metodología de Bentham es claramente microfundamentada, en cambio, la perspectiva de Walras sobre la sociedad y las interdependencias, así como sus vagas referencias a un principio de comportamiento, no permiten asociar directamente el individualismo metodológico con la aproximación walrasiana. Para Bentham la economía política es una rama de eudaemonics o la ciencia de la felicidad, por su parte, Walras define tres ramas de la economía política con relación a diferentes objetos y criterios particulares. Asimismo, Walras sugiere una jerarquía en la cual la economía moral y el criterio de justicia preceden la economía política pura y aplicada.

Bentham: eudaemonics y la economía política Eudaemonics es el arte que tiene por objetivo contribuir al logro del bienestar y cuyo principio rector es la utilidad o la tendencia de los actos a la felicidad. Por tanto, eudaemonics es el punto de encuentro de todas las artes y ciencias, incluyendo la economía política (Bentham, 1965-1966, 82-4). La economía política comprende las partes del código civil y penal, asociadas a la consideración de sensaciones generadas por la pérdida o la ganancia (Bentham, 1965-1966, 93; Sigot 2001, 62). En otros términos, esta rama del arte de la felicidad aplica los principios relacionados con la subsistencia y la abundancia. Dichos principios o axiomas se dividen en cuatro grupos: el primero relacionado con la seguridad, el segundo con la subsistencia, el tercero con la abundancia y el cuarto con la igualdad (Bentham, 1965-1966, 93). Con respecto al primer axioma (seguridad), Bentham indica que ningún placer derivado de la contemplación del sufrimiento de otro –infringido por otro humano o por otras causas– es mayor que la pena de quien sufre. El segundo axioma (subsistencia), señala que el principal objetivo de todo ser humano es su subsistencia; siempre que una parte considerable de la población vea comprometida su subsistencia, el legislador debe intervenir para garantizarla (Bentham, 1965-1966,109). El tercer axioma (abundancia), presenta la contribución de esta misma al logro de la felicidad en tres sentidos: (i) al contribuir directamente al disfrute; (ii) al favorecer de manera indirecta a la seguridad; y (iii) al aportar de manera indirecta a la subsistencia. La riqueza del individuo aumenta en proporción directa con el incremento en la producción e indirecta con el consumo (Bentham, 1965-1966, 112-3;


68

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Sigot, 2001, 25). El cuarto y último axioma (igualdad), indica que los ingresos de los asalariados deben ser maximizados, siempre que ellos compongan la mayoría de los miembros de la comunidad (Bentham, 1965-1966, 116). Trincado (2005) observa que dentro de la elaboración teórica de Bentham, la riqueza es fuente de felicidad, objeto de uso y de deseo. El valor de uso –o valor intrínseco– sirve de base para el valor de cambio (Trincado, 2005, 121, 124). En materia económica, el cálculo correcto del legislador y del deontologista depende del acceso a la información necesaria para dicho cálculo y la estabilidad del mismo (Trincado, 2005, 131, 144). Lo anterior tiene implicaciones para cualquier intento de redistribución de la riqueza, dado que no se justifica a menos que pueda generar un incremento significativo de la utilidad –en los casos señalados por el segundo y cuarto axioma de la economía política. El enfoque de Bentham también enfrenta una dificultad con relación a la medición directa de placeres y penas ocasionados por pérdidas y ganancias –sobre todo reconociendo diferencias entre individuos a causa de distintas condiciones socioeconómicas. Debido a esta dificultad, el dinero sirve como medida indirecta de la felicidad, la estabilidad de precios se constituye en una prioridad para el cálculo correcto y la comparación de utilidades marginales del dinero sirve de indicador para mantener el statu quo o promover redistribuciones (Trincado, 2005, 123). Por su parte, el hombre18 económico es el mismo individuo descrito en la primera sección de este texto, un ser pasivo cuyo comportamiento responde a las presiones de las fuerzas del ambiente que siempre le generan placer o pena (Sigot, 2001, 29-30, 150). Asimismo, el individuo benthamiano es un ser que calcula, estima las consecuencias de sus posibles acciones y puede comparar y ordenar los efectos considerando la tendencia a su propia felicidad. Este individuo puede errar en su cálculo por sobrestimar placeres inferiores (inmediatos) frente a placeres superiores (largo plazo). A pesar de esto, el individuo de Bentham puede corregir sus equivocaciones por medio de la educación, reconocimientos y castigos19 (Mitchell, 1918, 166-72). En resumen, para Bentham, la economía política es la rama de la ciencia de la felicidad o eudaemonics que comprende las partes del derecho y el código penal asociadas a sensaciones generadas por la pérdida y la ganancia. Los axiomas que rigen esta rama implican consideraciones sobre la seguridad, la subsistencia, la abundancia y la igualdad. En este esquema, la riqueza genera felicidad, y es objeto de uso y de deseo –i.e., tiene valor de uso y de cambio. El cálculo correcto requiere acceso a una información estable sobre penas y placeres indirectamente señalada por los precios. En materia de distribución, la utilidad marginal del dinero indica si cualquier redistribución compensa los efectos causados por la inestabilidad que 18 Haciendo

uso del género empleado por el autor. de las tareas del Estado es justamente garantizar el flujo de información necesario para cálculos correctos (Principes du code civil 1802 citado por Hurtado, 2004, 382-383; 388-389).

19 Una


El utilitarismo de Jeremy Bentham

Aída-Sofía Rivera-Sotelo

69

produce. Asimismo, el hombre económico no difiere del individuo caracterizado en la primera sección.

Walras: las tres ramas de la economía La economía política es la ciencia que tiene por objeto la riqueza social –i.e. el conjunto de cosas materiales e inmateriales que son escasas, es decir, que existen a disposición en una cantidad limitada y son útiles. Una cosa es útil cuando responde a una necesidad cualquiera y puede usarse para su satisfacción (Walras, 1860 [1990], 150; 1874 [1987], 155). De la definición de riqueza, Walras deriva que: 1. La escasez suscita la apropiación para la satisfacción de necesidades. 2. Lo que presupone que las cosas escasas son valiosas20 e intercambiables. 3. Existe un interés por producir cosas escasas para incrementar la cantidad disponible. En este contexto, la economía política tiene un triple dominio: la propiedad, el valor e intercambio y la producción. La distinción entre estos dominios conduce a una división de la economía política en tres ramas: 1. La economía social o moral, que tiene por objeto la apropiación y responde al criterio de justicia o bondad. 2. La economía política pura, que tiene por objeto el valor y el intercambio, y obedece al criterio de verdad. 3. La economía política aplicada, que tiene por objeto la producción y su criterio es la utilidad (Walras, 1867-1868 [1990], 29, 32; 1874 [1987], 157-8; Lallement, 1993, 452-3). Esta clasificación se distancia del análisis de Bentham, para el cual el único principio de organización y justicia social es la mayor felicidad del mayor número. Siguiendo a Lallement (1993) y a Rebeyrol (1999), en caso de conflicto entre los criterios de justicia, verdad y utilidad, Walras siempre privilegia al primero, lo que implica una unidad y un orden jerárquico de los tres dominios de la economía política. El estudio de la propiedad indica cómo se reparte inicialmente la riqueza y brinda un marco institucional indispensable para la elaboración de la economía política pura (Lallement, 1993, 457; Rebeyrol, 1999, 23). Lo anterior explica la neutralidad21 que Walras impone al mercado en competencia, en palabras de Rebeyrol (1999): 20 Nótese

que la utilidad –entendida como una característica de una cosa para responder y satisfacer una necesidad– es una condición necesaria, pero no suficiente del valor. Además de ser útil, una cosa debe estar disponible en una cantidad limitada para ser valiosa. 21 El mercado no favorece a nadie en la distribución.


70

Cuadernos de Economía, 30(55), julio - diciembre de 2011

[P]ara que el esquema funcione, se requiere entonces que el proceso mercantil sea neutro respecto al criterio de justicia. Es así que se podrá pensar la separación y el vínculo entre la economía y la moral: la economía no permitirá lograr el proyecto moral, sino siendo ella misma neutra, indiferente22 (Rebeyrol, 1999, 23, traducción propia).

Por su parte, la economía política pura precede a la economía política aplicada porque de la primera se deducen las condiciones en las que la libre competencia es imposible, y en consecuencia, en las que el monopolio regulado es una forma más plausible de organización del mercado –lo que es el objeto de la segunda23 (Walras, 1874 [1987], 247; Rebeyrol, 1999, 8; Van Daal, 2005, xix; Monsalve, 2010, 290). La economía política pura descubre las leyes naturales24 que gobiernan el valor de cambio de los bienes y así halla las causas verdaderas de la riqueza social –la verdad económica. Estas leyes se pueden formalizar porque el valor de cambio es mesurable y dado que al fijarse el objetivo de satisfacción máxima de necesidades se permite la aplicación de las matemáticas. Por las razones anteriores, este tipo de economía se parece en todos los aspectos a las ciencias físico-matemáticas y las leyes que descubre tienen un carácter científico (Walras, 1874 [1987], 162; Walras, 1885 [1990], 312; Rebeyrol, 1999, 7-9, 23). La teoría del valor muestra que la libre competencia conduce al mayor bienestar material (Walras, 1898 [2005], 366). En palabras de Van Daal esto implica que: “[l]a libre competencia es tan ventajosa que debe ser la regla, de ser posible . . . [Esto es] cuando los bienes son privados y el número de oferentes es significativo”25 (Van Daal, 2005, xix, traducción propia). Asimismo, esta teoría tiene una similitud con las teorías de Hermann Heinrich Gossen (1810- 1858), William Stanley Jevons (1840- 1882) y Carl Menger (18401921): un principio maximizador que permite la aplicación de un método y que sirve de base para la teoría del consumidor. No obstante, se diferencia en una visión de la economía que se inserta en una representación global de la sociedad (Walras, 1885 [1990], 312; Lallement, 1993, 449). Es justamente la visión global de Walras sobre la sociedad la que explica la diferencia entre su teoría del valor y aquella de Gossen y Jevons. Walras critica a 22 «

[P]our que le schéma fonctionne, il faudra donc que le processus marchand soit neutre au regard du critère de justice. C’est ainsi que l’on pourra penser la séparation et la liaison de l’économie et de la morale: l’économie ne permettra d’accomplir le projet moral que si elle est elle-même moralement neutre, indifférente » (Rebeyrol, 1999, 23). 23 Para Walras, el conocimiento parte de una experiencia inicial que es suficiente para entender la esencia de aquello que se observa. Este entendimiento o conciencia permite la construcción de teoremas que sirven de base para toda la teoría pura. Una vez se construye la teoría pura, el investigador no recurre a la experiencia para verificar su teoría, sino para aplicarla (Walras, 18671868 [1990], 99; Rebeyrol, 1999, 19). 24 Se dice que las leyes del valor de cambio son naturales porque la voluntad humana no puede modificarlas. 25 “[F]ree competition is so advantageous that it should be the rule, if possible . . . [it is] when the goods are private goods and the number of suppliers is large” (Van Daal, 2005, xix).


El utilitarismo de Jeremy Bentham

Aída-Sofía Rivera-Sotelo

71

estos autores por su concepción de un individuo representativo que busca ingenuamente el máximo de placer y el mínimo de pena, puesto que lo considera un caso particular de un Robinson26 en una isla. Alternativamente, la teoría walrasiana busca dar cuenta de un intercambio en el cual personajes absolutamente distintos –el empresario, el trabajador, el propietario, entre otros– obtienen la mayor satisfacción de sus necesidades con la condición de entregar la mercancía que venden a cambio de la idéntica proporción de la mercancía que compran –situación que se conoce como equilibrio general (Walras, 1885 [1990], 320-321). El equilibrio walrasiano es considerado un optimum optimorum, ya que parte de la mejor distribución y responde al criterio de justicia (Lallement, 1993, 457-458; Monsalve, 2010, 312). Hasta el momento es posible concluir que en el criterio de justicia o de bondad descansa el ordenamiento social walrasiano, permite crear un marco institucional que asegura la igualdad de condiciones para las personas que hacen parte de la sociedad, y simultáneamente, facilita que los individuos logren la máxima satisfacción de sus necesidades de acuerdo con sus capacidades personales. Este principio ordena jerárquicamente las tres ramas de la economía política: (i) la economía moral o social regida por el criterio de justicia, (ii) la economía política pura que obedece al criterio de la verdad económica, (iii) la economía política aplicada cuyo criterio es la utilidad. La visión de la sociedad y del objetivo social según Walras, también explica la neutralidad del mercado, el enfoque de equilibrio general y el rechazo de un individuo representativo que guía su conducta por sensaciones penosas o placenteras. En resumen, las distintas visiones de la sociedad y del objetivo social proporcionan las diferentes aproximaciones teóricas y metodológicas de Bentham y Walras con respecto a la economía política. Para Bentham, la economía política está dirigida a la consecución de la mayor felicidad para el mayor número y el hombre económico no difiere del individuo en general; en el caso de Walras, el criterio de justicia dispone el ordenamiento social y una jerarquía entre las tres ramas de la economía política. La prioridad del criterio de justicia condiciona la economía política pura y la aplicada, la neutralidad del mercado, el enfoque del equilibrio general y los alcances de la libre competencia27 . 26 Refiere

a Robinson Crusoe, personaje de la novela de Daniel Defoe titulada de la misma forma y publicada por primera vez en 1719. 27 Una consideración importante, pero que excede los alcances de este escrito tiene que ver con las implicaciones de ambas teorías en términos de justicia distributiva. Por un lado, en Bentham existe una tensión que se explica por la posible variación de la felicidad social como consecuencia de una distribución de la riqueza –lo que además amenaza la estabilidad de la información para el cálculo correcto. Por otro, Walras no pretende eliminar desigualdades en posiciones, sino promover reformas que igualen oportunidades y dispongan de un marco institucional para la libre acción de individuos en función de sus diferentes talentos, esfuerzos y ahorros.


72

Cuadernos de Economía, 30(55), julio - diciembre de 2011

EL LUGAR DE LOS PRINCIPIOS DE UTILIDAD EN LAS ELABORACIONES TEÓRICAS En esta sección se sitúan los principios de utilidad en la elaboración teórica de cada autor y se indaga en qué medida dichos principios son de comportamiento individual. Se arguye que mientras el principio de utilidad es un precepto de comportamiento central en el utilitarismo de Bentham, en Walras, se restringe a la verdad económica –condicionada por el criterio de justicia– y vagamente orienta el comportamiento individual. Además, la utilidad no está definida en términos de felicidad sino de satisfacción de necesidades no delimitadas. Si se quiere, para Walras, la felicidad constituye tan sólo un caso particular dentro de la satisfacción de necesidades.

Bentham: la utilidad y el principio de comportamiento En Bentham, el principio de utilidad es fundamental para todo el desarrollo teórico utilitarista, ya que aprueba una acción si entre todas las posibles, ésta genera un incremento en la felicidad de los seres afectados por la misma. En otras palabras, una acción se aprueba cuando es útil –cuando tiende a producir un placer o a impedir una pena mayor. En palabras de Bentham: Por principio de utilidad se quiere decir aquel principio que aprueba o desaprueba cualquier acción de que se trate, según la tendencia que parece tender a aumentar o disminuir la felicidad de la parte cuyo interés está en juego; o, en otras palabras, promover u oponerse a ella. Digo de cualquier acción, y por tanto no sólo de toda acción de un individuo privado, sino de cualquier medida de gobierno (Bentham, 1789 [2008], 11).

El principio de utilidad se entiende en dos sentidos, el censorial y el enunciativo. El primero indica que la mayor felicidad es el único objetivo social deseable. El segundo señala que el único objetivo real del individuo es su propia felicidad, que además constituye el medio para la realización del sentido censorial. En otras palabras, el principio de utilidad orienta el comportamiento del individuo hacia su propia felicidad, y de esta forma, conduce a la sociedad al logro de la mayor felicidad colectiva –definida como la agregación simple de las mayores felicidades individuales (Bentham, 1817 [1983], 36). Haciendo uso del principio de utilidad y en su problemático conocimiento del cálculo correcto, las figuras del deontologista y el legislador inducen el comportamiento individual mediante educación, premios y castigos, para garantizar la consecución del objetivo social. Asimismo, el principio de utilidad rige la ciencia de la felicidad o eudaemonics, de la cual la economía política es tan sólo una rama.


El utilitarismo de Jeremy Bentham

Aída-Sofía Rivera-Sotelo

73

Walras: utilidad sin utilitarismo Para Walras, en el contexto de la economía política pura y aplicada –condicionadas por el criterio de justicia–, maximizar la utilidad efectiva, es maximizar “la suma total de las necesidades satisfechas, tanto en extensión como en intensidad, por una cantidad consumida dada de la mercancía” (Walras, 1874 [1987], 220). La extensión es la capacidad de un tipo de riqueza para satisfacer necesidades generalizadas para numerosas personas (Walras, 1874 [1987], 215) y se puede medir indirectamente por la cantidad de este tipo de riqueza demandada a un precio nulo (Walras, 1860 [1990], 151; 1874 [1987], 216). La intensidad o rareté es aquella de la última necesidad satisfecha y es decreciente desde la primera unidad consumida hasta la última en que se alcanza la saciedad. Según Walras, a esta utilidad está asociada una magnitud que no es susceptible de medición (Walras, 1898 [2005], 366). Sin embargo, como analíticamente la rareté es la derivada respecto a la utilidad efectiva (Walras, 1898 [2005], 250), es posible conocer su tendencia. La utilidad efectiva se maximiza cuando la proporción entre raretés es igual al precio. Esto porque: [M]ientras que dicha igualdad no se logre, será ventajoso para el individuo vender parte de la mercancía cuya rareté es menor que el producto de su precio por la rareté del otro bien para adquirir parte de la otra mercancía cuya rareté es mayor que el producto de su precio por la rareté de la primera mercancía (Walras, 1898 [2005], 227).

Lo anterior indica que el agente económico con el objetivo de maximizar la satisfacción de sus necesidades (utilidad efectiva), elige con base en un cálculo y en la comparación de raretés; sin embargo, esto no señala fundamentos utilitaristas. Para mostrar dichos fundamentos es necesaria la referencia explícita a la felicidad en términos de placeres o penas. Walras no llena de contenido las necesidades. De sus textos de 1867-8, “Teoría General de la Sociedad” y de 1885, “Un economista desconocido: Hermann-Henri Gossen”, es posible deducir que Walras considera la búsqueda de placer y evasión de penas sólo como un caso particular, lo que permite descartar fundamentos utilitaristas –en el sentido benthamiano– de la teoría walrasiana. Además, mientras el principio de utilidad de Bentham es claramente microfundamentado, como señala Van Daal (1996), esto no se observa en Walras, ni siquiera en la teoría del valor, en la cual los individuos –abstracciones de la relación integral entre las personas y la sociedad–, actúan en presencia de arreglos institucionales (Van Daal, 1996, 280-282). Se puede precisar que el principio de utilidad walrasiano no sólo no está fundamentado en el utilitarismo de Bentham, sino que también difiere en otras aproximaciones marginalistas –particularmente del principio de Jevons. Para Walras la máxima satisfacción de necesidades es tanto un objetivo social como personal. Walras no da contenido a la satisfacción de necesidades y por su crítica tanto al utilitarismo como a Gossen y Jevons, es posible deducir que la necesidad –entendida en términos de placeres y penas– es sólo un caso particular para el autor.


74

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Al teorema walrasiano de la máxima satisfacción se le impone un criterio de bondad o de justicia que es de obligatorio cumplimiento. Este criterio establece la igualdad de condiciones y la desigualdad de posiciones. Las dos implicaciones del criterio de justicia son: 1. Las tierras son por derecho natural propiedad del Estado y la administración de su usufructo por este último, permite financiar un marco institucional que iguala las condiciones para todas las personas que pertenecen a la sociedad. 2. Las facultades personales son un derecho personal y propiedad del individuo, de ahí que dado un marco de igualdad de oportunidades, el individuo en ejercicio de su libertad es remunerado de manera diferente, dependiendo de sus habilidades, esfuerzos y ahorros. El criterio de justicia también rige para la economía política e impone un orden para las tres ramas de la misma. La economía social precede a la economía política pura y aplicada al ofrecerles un marco institucional. De acuerdo con Walras y los otros marginalistas, el teorema de la maximización es la piedra angular de la formalización de la economía; sin embargo, a diferencia de Gossen y Jevons, Walras no define el objeto a maximizar. Todo contenido del objeto es un caso particular, así lo es el placer, razón por la cual no es posible aducir fundamentos utilitaristas –en el sentido de Bentham– en la teoría walrasiana. Más aún el criterio de justicia condiciona al principio de utilidad.

CONCLUSIONES Este estudio comprensivo de las visiones de sociedad y objetivos sociales que orientan las aproximaciones teóricas y metodológicas de Bentham y Walras, permite concluir que no es posible soportar una supuesta fundamentación del principio de utilidad walrasiano en el utilitarismo de Bentham. Este último se construye en una visión individualista de la sociedad y en un principio de utilidad –definido en términos de felicidad–, que define el objetivo social y determina toda la elaboración teórica. Walras no comparte la visión individualista de la sociedad y su principio de utilidad tampoco define el objetivo social. Para Walras, su concepción de justicia orienta y condiciona toda su elaboración teórica. Ni siquiera en la economía política pura y aplicada, el principio de maximización de necesidades se prioriza a la justicia. De hecho, este criterio exige enfatizar en las interdependencias y disponer de un marco institucional para la libre acción de un individuo abstracto. El principio de maximización en Walras es demasiado vago y restringido, para considerarse un principio de acción individual extensivo a cualquier elección. Los hallazgos de este texto contribuyen a deshomogenizar el pensamiento de los padres fundadores del marginalismo, pero se advierte que lo aquí argumentado no niega una posible fundamentación de las teorías de los otros autores en el utilitarismo de Bentham. Con respecto al ambicioso proyecto del semillero del GIPTE,


El utilitarismo de Jeremy Bentham

Aída-Sofía Rivera-Sotelo

75

se puede afirmar que no es posible rastrear la TER en la teoría walrasiana. Finalmente, quedan muchas preguntas abiertas para futuras discusiones e investigaciones sobre las implicaciones de estos hallazgos para el estado actual de la TER, la teoría de equilibrio general, y valoración ambiental en historia del pensamiento económico.

REFERENCIAS BIBLIOGRÁFICAS 1. Becker, G. y Becker, G.N. (1996). The Economics of Life: From Baseball to Affermative Action to Immigration. How Real-World Issues Affect Our Everyday Life. New York: McGraw-Hill. 2. Bentham, J. (1789 [2008]). Los principios de la Moral y la Legislación. Buenos Aires: Editorial Claridad S.A. 3. Bentham, J. (1817 [1983]). Deontology together with A Table of the Springs of Action and The Article on Utilitarianism. En: Goldworth, A. The Collected Works of Jeremy Bentham. Alderley: Clarendon Press. 4. Bentham, J. (1839). Deontología o ciencia de la Moral (tomo I). Valencia: Librería de Mallen y Sobrinos. 5. Bentham, J. (1965-1966). The Philosophy of Economic Science - The Psychology of Economic Man. Londres: The Royal Economic Society by George Allen & Unwin Ltd. 6. Bruno, S. y Benz. M. (2004). From imperialism to inspiration: a survey of economics & psychology. Northampton: Edward Elgar. 7. Cirilo, R. (1980). The ’Socialism’ of Léon Walras and his Economic Thinking. American Journal of Economics and Sociology, 39(3), 53-60. 8. Cirilo, R. (1981). The influence of Auguste Walras on Léon Walras. American Journal of Economics and Sociology, 40(3), 309-16. 9. Fernández-Díaz, A. (2003). Utilitarismo y contractualismo: dos enfoques de la teoría de la justicia. En Fernández-Díaz, A. Estudios de Historia del Pensamiento Económico (pp. 443-489). Madrid: Editorial Complutense. 10. Hurtado, J. (2004). Jeremy Bentham ou le Calcul. La Philosophie économique de Jean-Jacques Rousseau, Adam Smith et Jeremy Bentham à la lumière de Bernard Mandeville. (Tesis inédita de doctorado). Universidad París X Nanterre, París. 11. Jouffroy, T. (1883). Cours d’Esthétique: Par Th. Jouffroy suivi de la Thése du même auteur sur le sentiment du beau et de deux fragments inédits et précédé d’une Préface par Ph. Damiron. Paris: Hachette et Cie. 12. Lallement, J. (1993). Prix et équilibre selon Léon Walras. En: Béraud, A. y Faccarello, G. (ed.), Nouvelle Histoire de la Pensée Économique 2. Des premiers mouvements socialistes aux néoclassiques (pp. 449-466). París: La Découverte. 13. Lewin, S. (1996). Economics and Psychology: Lessons for Our Own Day from the Early Twentieth Century. Journal of Economic Literature, 34, 1293-1323. 14. Mitchell, W. (1918). Bentham’s Felicific Calculus. Political Science Quaterly, 33(2), 161-183. 15. Monsalve, S. (1918). A cien años de la muerte de León Walras I: Sobre su obra original. Cuadernos de Economia 29(53), 287-319.


76

Cuadernos de Economía, 30(55), julio - diciembre de 2011

16. Rebeyrol, A. (1999). L’Économie, la Science Morale et le Socialisme. La Pensée Économique de Walras. París: Dunod. 17. Robins, L. (1938). Interpersonal Comparisons of Utility. Economic Journal, 48, 635-641. 18. Screpanti, E. y Zamagni, S. (1997). El triunfo del utilitarismo y la revolución marginalista. En Screpanti, E. y Zamagni, S. (Ed.), Panorama de Historia del Pensamiento Económico (pp. 155-185). Barcelona: Ariel. 19. Sen, A. (1983). Los bienes y la gente. Revista Comercio Exterior, 33(12), 11151123. 20. Sen, A. (1985). ¿Cuál es el camino al desarrollo? Revista Comercio Exterior, 35(10), 939-949. 21. Sen, A. (1989). Sobre ética y economía. Madrid: Alianza Editorial. 22. Sen, A. (1997). Bienestar, justicia y mercado. Barcelona: Paidós. 23. Sen, A. (2000). Desarrollo y Libertad. Bogotá: Planeta. 24. Sen, A. (2001). La Desigualdad Económica. México. D.F.: Fondo de Cultura Económica. 25. Sigot, N. (2001). Bentham et l’économie. Une histoire d’utilité. París: Economica. 26. Sigot, N. (2002). Jevon’s Debt to Bentham: Mathematical Economy, Morals, and Psychology. The Manchester School, 70(2), 262-278. 27. Sotiropoulos, D. (2009). Why John Stuart Mill should not be enlisted among neoclassical economists. European Journal of the History of Economic Thought, 16(3), 455-73. 28. Trincado, E. (2005). La originalidad de la Economía Marginalista de Jeremy Bentham. Procesos de Mercado: revista Europea de Economía Política, 2(2), 119-149. 29. Van Daal, J. (1996). From Utilitarianism to Hedonism: Gossen, Jevons and Walras. Journal of the History of Economic Thought, 18, 271-86. 30. Van Daal, J. (2005). Studies in Applied Economics. Theory of the Production of Social Wealth. Londres: Routledge. 31. Walras, L. (1860 [1990]). La Vie et l’œuvre Économique de Léon Walras, Introduction au Présent Volume, Notice Autobiographique, Introduction à l’Étude de la Question Sociale. En: Walras, L., L’Économie Politique et la Justice, Examen Critique et Réfutation des Doctrines Économiques de M.P.J. Proudhon, Précédés d’une Introduction à l’Étude de la Question Sociale. Oeuvres Économiques Complètes (tomo V) (pp. IX-84). París: Economica. 32. Walras, L. (1867-1868 [1990]). Recherche de l’Ideal Social. Théorie Générale de la Société. En: Walras, L., Études d’Économie Sociale. Auguste et Léon Walras. Oeuvres Économiques Complètes (tomo IX) (pp. 1-173). París: Económica. 33. Walras, L. (1874 [1987]). Elementos de Economía Política Pura. Edición de Julio Segura. Madrid: Alianza Universidad 34. Walras, L. (1885). Un économiste inconnu : Hermann-Henri Gossen. En: Walras, L., Études d’Économie Sociale. Auguste et Léon Walras. Oeuvres Économiques Complètes, IX (pp. 311-330). París: Economica. 35. Walras, L. (1898 [2005]). Studies in Applied Economics. Theory of the Production of Social Wealth. New York: Routledge.


ACUMULACIÓN DE RESERVAS INTERNACIONALES EN ECONOMÍAS EMERGENTES

José De Gregorio1 La profesión económica aún está en deuda a la hora de determinar el nivel óptimo o adecuado de reservas internacionales. Existen algunas “reglas de pulgar”, o algún otro tipo de calibraciones –en relación con el comercio internacional, la deuda externa o el tamaño del sistema financiero–, pero las justificaciones se basan más bien en conjeturas fundadas en la experiencia o en análisis parciales. Ha habido avances importantes, pero aún falta una explicación y conclusiones robustas sobre el nivel óptimo de las reservas. Al mismo tiempo, subsisten algunas contradicciones; por ejemplo, mantener reservas bajo esquemas de flotación implicaría que no basta con la flexibilidad cambiaria para acomodarse a cambios bruscos en las condiciones financieras internacionales. 1 Ph.D.

en Economía y Magíster en Ingeniería. Se desempeña desde diciembre de 2007 como Presidente del Banco Central de Chile. E-mail: jdegrego@bcentral.cl. Dirección de correspondencia: Agustinas 1180, Santiago de Chile (Chile). Este documento fue presentado en la V Conferencia Anual de Estudios Económicos, Mecanismos de blindaje financiero, fondos regionales y otros esquemas sustitutos o complementarios, organizada por el Fondo Latinoamericano de Reservas (FLAR) y la Corporación Andina de Fomento (CAF), en Cartagena de Indias (Colombia), el 9 de agosto de 2010. El autor agradece los valiosos comentarios y sugerencias de Gabriela Contreras, Kevin Cowan, Luis Óscar Herrera y Felipe Labbé. Este documento fue concluido días después de que el Consejo del Banco Central de Chile decidiera acumular reservas, hecho al que se hará mención. Este artículo fue recibido el 16 de agosto de 2011 y su publicación aprobada el 14 de octubre de 2011.

77


78

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Los países acumulan reservas porque las consideran un colchón de seguridad para períodos de estrés financiero pero, en la práctica, rara vez las usan. Esto se justifica porque las reservas juegan un rol estabilizador por el hecho de estar ahí y no necesariamente por usarse; en este sentido, desempeñan un papel disuasivo (deterrent). Con respecto a los seguros, existen otras alternativas menos costosas para cubrir el riesgo de liquidez como la Flexible Credit Line (FCL) del Fondo Monetario Internacional o los seguros disponibles en los mercados financieros; no obstante, estas alternativas se utilizan poco o nada. La pregunta entonces es cuál es el rol de las reservas. Estas cumplen dos roles simultáneos: afectar el tipo de cambio y proveer un seguro de liquidez. Como se verá, estos motivos no se pueden separar. Este trabajo dará inicio con una breve mención a la racionalidad de la acumulación de reservas. Luego se revisarán distintas metodologías que dan indicios con respecto a su nivel adecuado, enfatizando el caso chileno. Posteriormente, se analizará lo ocurrido durante la crisis financiera global (crisis subprime) y se hará una comparación con lo sucedido durante la crisis asiática. Para finalizar se presentan algunos comentarios sobre seguros alternativos y sus implicaciones de política.

RACIONALIDAD DE LA ACUMULACIÓN DE RESERVAS Una interesante discusión sobre las razones por las cuales los países acumulan reservas se encuentra en Aizenman y Lee (2005), quienes identifican dos causas o motivos: precaución y mercantilista. En el primer caso, los países prefieren tener liquidez en moneda extranjera, invirtiendo sus reservas en activos líquidos, puesto que, en caso de emergencia, las pueden necesitar con rapidez. Incluso sin tener problemas de financiamiento de largo plazo, pueden enfrentar dificultades de liquidez, por lo que es necesario disponer de reservas. La acumulación de reservas busca minimizar los riesgos de una crisis de balanza de pagos, lo que dio origen a las investigaciones de principios de los ochenta. Si bien en esa época no se usaba la expresión sudden stops, el motivo de precaución para casos en los que el país repentinamente viera interrumpido su acceso al financiamiento internacional se expuso como razón para mantener las reservas. Lo interesante, es que no hubo evidencia de que en la crisis reciente se produjeran sudden stops masivos, ni tampoco de que se desacumularan reservas de manera significativa por esta causa. De otra parte, la evidencia muestra que poseer reservas reduce las primas por riesgo, dado que proporciona mayor certeza de que el país se encuentra protegido. Esto aún cuando en la práctica las reservas no se utilicen y mantenerlas implique un costo. Sobre el segundo motivo, el mercantilista, las economías pequeñas y abiertas enfatizan en la importancia de evitar desviaciones muy agudas de sus tipos de cambio.


Acumulación de reservas internacionales en economías emergentes

José De Gregorio

79

En particular, una estrategia para estimular el crecimiento basada en las exportaciones considera tener un tipo de cambio real depreciado. Por lo tanto, aunque se esté bajo un esquema de flotación, en algunos momentos se debe ser lo suficientemente flexible y decidir intervenir en el mercado cambiario para evitar desviaciones de la paridad que puedan tener efectos nocivos sobre el crecimiento y la estabilidad financiera. A pesar de que los efectos de las intervenciones esterilizadas no son concluyentes, los países tienden a intervenir en períodos de entradas masivas de capitales. La acumulación de reservas se debe entender como una política en la cual no se pueden separar los dos objetivos que la motivan: compra de un seguro y defensa del tipo de cambio. Esto dado que los períodos de acumulación de reservas ocurren regularmente cuando el tipo de cambio se encuentra relativamente apreciado. Implícita o explícitamente, el valor del tipo de cambio y sus perspectivas futuras son elementos que se consideran al momento de acumular reservas.

NIVEL ADECUADO DE RESERVAS ¿Cómo se mide el nivel adecuado de reservas? Existen diversas metodologías, cada una abordando el tema desde una perspectiva particular. Una de ellas, es observando una serie de indicadores construidos a partir de cocientes entre las reservas y ciertas variables macroeconómicas. Otra forma, algo más sofisticada, es mantener un nivel de reservas tal que minimice su costo de mantención sujeto a que reduzca la probabilidad de una crisis (García y Soto, 2006). De igual manera, se puede ver cuáles son, en términos de bienestar, los costos de no tener acceso a flujos de capitales (Jeanne y Rancière, 2006). Esto es, ¿cuánto cuesta tener reservas y cuánto ayudan al bienestar? A continuación, usando datos para Chile, se ilustrarán las formas de medir el nivel adecuado de reservas (Gráfica 1). Durante los años noventa, el tipo de cambio en Chile estuvo sujeto a bandas cambiarias. Ante una importante entrada de capitales –explicada por las buenas perspectivas de la economía y un significativo diferencial entre la tasa de interés interna y la internacional– hubo una acumulación importante de reservas internacionales. Adicionalmente se aplicaron controles de capital para mitigar los flujos de capitales2 . Posteriormente, con la crisis asiática, el tipo de cambio, los diferenciales de tasas de interés y las entradas de capitales se normalizaron. Entre septiembre de 1999 (comienzo de la flotación cambiaria) y mediados de 2011, se presentaron cuatro episodios de intervención. A finales de 2001 y de 2002 el tipo de cambio peso/dólar se depreció sin razones fundamentales. En el primer caso, la depreciación tuvo su origen en los problemas de Argentina con su crisis de convertibilidad. La economía chilena presentaba problemas inflacionarios a los 2 Véase

Cowan y De Gregorio (2007) para una revisión de esta experiencia.


80

Cuadernos de Economía, 30(55), julio - diciembre de 2011

que se pudo haber respondido subiendo la tasa de interés prematuramente, puesto que la economía comenzaba a recuperarse. En el segundo episodio, cercano a las elecciones presidenciales en Brasil, hubo una alta volatilidad en los mercados financieros. Las intervenciones en estos períodos fueron transitorias y efectivas para calmar el mercado cambiario (De Gregorio y Tokman, 2005). GRÁFICA 1. RESERVAS INTERNACIONALES DE CHILE (1986-2010)

Fuente: Finanzas Estadísticas Internacionales del FMI y Banco Central de Chile.

El tercer período de intervención fue en el 2008. En ese entonces, en un contexto de tensiones financieras en los mercados internacionales, el peso chileno se apreció de manera importante, llegando a los niveles más bajos de la década. Dado que no se habían acumulado reservas durante un largo tiempo, todos los índices –con respecto a la cantidad de dinero, meses de importación y como porcentaje del PIB– habían caído. En consecuencia, se inició un proceso de acumulación de reservas de alrededor de 5 puntos del PIB (US$8.000 millones). Cuando se había acumulado aproximadamente 75 % del objetivo original fue necesario concluir el programa a causa de las severas presiones cambiarias contra el peso que provocó el colapso de Lehman Brothers. El último episodio se anunció el 3 de enero de 2011, momento en que las reservas como porcentaje del PIB también habían disminuido como consecuencia de la apreciación del tipo de cambio y el crecimiento del PIB. El propósito fue llevar las reservas desde 13 a 17 % del PIB a través de todo el 2011. Esto se dio en un escenario en el cual el peso se había apreciado de manera significativa y la acumulación de reservas debería contribuir a suavizar el ajuste cambiario.


Acumulación de reservas internacionales en economías emergentes

José De Gregorio

81

Sobre las diversas estimaciones del nivel adecuado de reservas, la Gráfica 2 ilustra un ejercicio siguiendo el trabajo de García y Soto (2006). En él, se calcularon las reservas óptimas para distintos costos –medidos en términos de producto– de una crisis financiera originada por un sudden stop. La línea gruesa muestra la serie efectiva de las reservas como porcentaje del PIB. Las otras tres representan el nivel adecuado de reservas para costos de 5 %, 10 y 15 % del PIB. Obviamente el nivel apropiado aumenta con el costo de la crisis. En general, durante esta década la economía chilena tuvo reservas dentro del rango entre 5 y 15 % de costos de crisis. En conclusión, el nivel adecuado de reservas coherente con la probabilidad de sudden stops debiera ubicarse entre 10 y 20 % por ciento del PIB. GRÁFICA 2. NIVELES HISTÓRICO Y ÓPTIMO DE RESERVAS SOBRE PIB ( %)

Fuente: Contreras, Jara, Olaberria y Saravia (2010).

La Gráfica 3 muestra los niveles de reservas de Chile en comparación con los de una muestra amplia de países y luego con aquellos que tienen regímenes de flotación cambiaria. Cuando se contrasta el caso chileno con el de los países desarrollados, el nivel de reservas parece alto. Pero si el cotejo se realiza con respecto a los países emergentes, parece un poco bajo. En comparación con los países que poseen tipo de cambio flotante, se observa que efectivamente los niveles de reservas no difieren sustancialmente, tal como se esperaría a priori. No obstante, la comparación previa considera datos hasta fines de 2009. Si se amplía hacia 2010, la acumulación de reservas de gran parte del mundo emergente –como consecuencia de las presiones a la apreciación de sus monedas– ha hecho que el promedio del nivel de reservas con respecto al PIB en este tipo de economías, que además tienen libre flotación, sea de 17 % del PIB (Cuadro 1).


82

Cuadernos de Economía, 30(55), julio - diciembre de 2011

GRÁFICA 3. RESERVAS INTERNACIONALES SOBRE PIB ( %)

Fuente: Contreras et al. (2010) CUADRO 1. NIVEL DE RESERVAS INTERNACIONALES 2010 (PORCENTAJE DEL PIB) País Brasil Chile Colombia República Checa Hungría Israel Corea del Sur México Filipinas Polonia Sudáfrica Turquía Promedio sin Chile Mediana sin Chile Promedio s/ Israel y Chile Mediana s/ Israel y Chile

Nivel de RI como % del PIB 13,5 13,3 9,6 22,3 34,8 34,6 29,4 11,5 24,5 21,7 10,9 10,9 20,3 21,7 18,9 17,6

Nota. Muestra de países con tipo de cambio flexible. Fuente: FMI (2010) con proyecciones del PIB para el 2010. Para Chile, Banco Central de Chile.

Otra forma de evaluar el nivel de las reservas para Chile es resumir la experiencia internacional a través de estimaciones de un modelo de panel condicionado en


Acumulación de reservas internacionales en economías emergentes

José De Gregorio

83

variables estructurales. El valor real de las reservas de Chile se muestra con la línea azul en la Gráfica 4. Al tomar como referencia todas economías con régimen de tipo de cambio flotante, también se encuentra que Chile tiene niveles de reservas relativamente adecuados para los estándares internacionales. Sin embargo, es importante volver a destacar que estas estimaciones están hechas con datos hasta fines del 2009 y las reservas siguieron aumentando luego de esa fecha. Estimaciones considerando datos más recientes sugieren que el nivel de reservas que aparece como más adecuado ha aumentado. En esta evidencia se basa uno de los objetivos del programa de compra de reservas iniciado a comienzos del 2011, en cuanto a que la economía chilena alcance un nivel de reservas cercanas al 17 % del PIB en el curso del año. GRÁFICA 4. NIVEL DE RESERVAS REALES Y ESTIMADAS EN CHILE

Nota 1. Estimación de panel (reservas en logaritmos). Fuente: Contreras et al. (2010).

En todo caso, el costo de mantener las reservas es un elemento importante al momento de definir un nivel coherente con la solvencia financiera de los bancos centrales. Los diferenciales de tasas imponen una restricción importante al establecer dicho nivel3 .

RESERVAS INTERNACIONALES DURANTE LA CRISIS SUBPRIME El elevado nivel de reservas puede haber sido uno de los factores que le dieron mayor resiliencia a las economías emergentes durante la crisis subprime. En al3 Los

costos de la mantención de reservas son explícitamente modelados en Jeanne y Rancière (2006), aunque no consideran la restricción presupuestaria del Banco Central.


84

Cuadernos de Economía, 30(55), julio - diciembre de 2011

gunos casos, esto habría hecho creíble la provisión de liquidez, en otros, las potenciales defensas del tipo de cambio. En particular, Brasil y México, que intervinieron en momentos complejos por dificultades en su sector corporativo, pueden haber visto aumentada la credibilidad de estas medidas por su nivel de reservas. Así, el nivel de reservas y la significativa depreciación de sus monedas pudieron haber ayudado a mitigar los efectos de la crisis subprime en las economías emergentes. Lo interesante es que los países no desacumularon masivamente reservas, lo que podría indicar que si no se utilizan, el beneficio de las reservas como seguro es limitado. Sin embargo, en situaciones de cambios bruscos en los flujos de capitales, la evidencia tendería a confirmar que tener un alto nivel de reservas, aun cuando no sean usadas, sirve como un importante elemento disuasivo contra la especulación. La mayoría de los modelos que buscan determinar el nivel adecuado de reservas asumen que ellas se usan. La evidencia que se presenta aquí es que su efecto disuasivo es importante, se usen o no. Un riesgo del uso frecuente de las reservas es que se alteran los incentivos y riesgos del sector privado. Las autoridades intervienen y acumulan reservas fuertemente en períodos de entrada de capitales o presiones a la apreciación de sus monedas. Pero esto, al mismo tiempo, causa descalces, puesto que comienza a existir la seguridad, en el sector privado, de que habrá una defensa tanto de una apreciación como de una depreciación masiva. Si se está defendiendo un tipo de cambio artificialmente depreciado, se puede producir una apuesta contra el Banco Central que puede terminar generando una apreciación. A su vez, esta incentivará la entrada de capitales porque los agentes se beneficiarán no solo del diferencial de tasas, sino también de un dólar más caro a la hora de entrar los capitales. La forma de evitar estas distorsiones, en un marco de tipo de cambio flotante, es realizarla en ocasiones excepcionales y de manera transparente, mecánica y creíble, sin apuntar a ningún objetivo cambiario, y dejar que la moneda siga flotando. Durante la crisis, se evidenció una aparente resistencia a perder reservas porque la desacumulación no fue masiva. Ello radica en que, para dar señales de fortaleza y aumentar el grado de resiliencia de la economía frente a crisis internacionales, las autoridades optaron por mantener muchas reservas, a pesar del costo que ello implicaba, lo que tuvo efectos disuasivos. La evidencia muestra que, aparentemente, los países que tenían mayores niveles de reservas habrían experimentado un menor aumento de sus CDS spreads. Esto habría reducido el impacto de la crisis en el costo de financiamiento (Gráfica 5)4 . 4 Para

evidencia econométrica sobre el rol de las reservas internacionales en la determinación de los cambios en los EMBI durante la crisis subprime, ver Banco Central de Chile (2009, Recuadro II.2.).


Acumulación de reservas internacionales en economías emergentes

José De Gregorio

85

GRÁFICA 5. RESERVAS Y RIESGO CREDITICIO

Nota: RI/DECP corresponde a las reservas como porcentaje de la deuda residual de corto plazo. Fuente: Contreras et al. (2010).

Para complementar esta evidencia, es interesante comparar la evolución del tipo de cambio y de las reservas en las últimas dos crisis que han enfrentado las economías emergentes: la crisis asiática, que se esparció por el mundo emergente tras un severo contagio, y la reciente crisis subprime. En ambos casos se analizan los 18 meses de mayor intensidad de la crisis5 . Al comparar lo sucedido en materia cambiaria, como se muestra en la Gráfica 6, se ve que en los dos casos hubo depreciaciones importantes, aunque durante la crisis asiática estas tendieron a ser más persistentes. En la crisis subprime, a 18 meses de su inicio había economías cuyo tipo de cambio ya se había comenzado a apreciar. De hecho, si se considera una ventana más corta para la crisis subprime, se puede observar que 9 meses después de iniciada, la depreciación media era de 22 %. Lo interesante es lo que ocurrió con las reservas (Gráfica 7). En ambas situaciones la media es un cambio de entre 0 y medio punto del PIB, una magnitud bastante baja. Incluso hubo países que acumularon. Más aún, durante la crisis asiática, que estuvo mucho más afectada por un sudden stop de influjos de capitales y por rápidas salidas, la variación de las reservas no fue tan diferente de la ocurrida durante la crisis subprime. Esto tiende a confirmar el hecho de que las reservas se acumulan, pero no se usan mucho, lo que indicaría que son una forma de disuadir las especulaciones financieras más que un colchón para utilizar ante problemas de liquidez. De hecho, 5 Los

histogramas son similares si se consideran ventanas de 12 o 24 meses.


86

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Frankel y Saravelos (2010) encuentran que los países que tenían mayores niveles de reservas al inicio de la crisis subprime fueron menos afectados por ella6 . GRÁFICA 6. DEPRECIACIÓN CAMBIARIA

Fuente: Estadísticas Financieras Internacionales y Panorama Económico Mundial (FMI, 2010). GRÁFICA 7. CAMBIO EN (RI/PIB)

Fuente: Estadísticas Financieras Internacionales y Panorama Económico Mundial (FMI, 2010). 6 Trabajos

previos no encontraron ninguna correlación significativa (e.g., Rose y Spiegel, 2010), aunque Frankel y Saravelos (2010) argumentan que sus resultados se dan porque cubren un período más largo y reciente.


Acumulación de reservas internacionales en economías emergentes

José De Gregorio

87

SEGUROS E IMPLICACIONES DE POLÍTICA De estas experiencias surge la importancia de no interpretar la acumulación de reservas solo como un mecanismo de seguro, puesto que la evidencia da cuenta de que hay países que se encuentran sobreasegurados. Entender este sobreseguro implica interpretar el otro componente de la demanda por reservas: afectar el tipo de cambio. Existen otras formas de seguro que tienen menores costos que las reservas, pero sin efectos cambiarios; incluso podrían presionar a la apreciación de la moneda al dar señales de menor vulnerabilidad frente a turbulencias financieras externas. Los países exportadores de materias primas pueden usar commodity hedges en vez de acumular reservas, lo que sería un instrumento financieramente más conveniente. Se pueden utilizar líneas de crédito contingentes multilaterales, como el caso de la Flexible Credit Line (FCL) del Fondo Monetario Internacional. Es posible suscribir acuerdos bilaterales de líneas swap de monedas, que aunque existen entre países relativamente grandes, no están disponibles para economías pequeñas. A pesar de que se propone el uso de mecanismos alternativos que podrían llevar a las economías a ocupar recursos menos costosos que la acumulación de reservas, no es posible separar esta última de una intervención cambiaria. Dicho efecto no está considerado por quienes argumentan a favor de seguros más baratos. En la mayoría de los países, los anuncios de acumulación de reservas para disponer de un seguro mayor han coincidido con una intervención cambiaria para mitigar apreciaciones. Ese doble efecto de la acumulación podría explicar por qué pareciera que numerosos países han invertido mucho más de lo necesario en este autoseguro. La intervención en los mercados cambiarios tiene su origen en un temor a tener un tipo de cambio muy desalineado. Las líneas de crédito contingentes son una buena idea como seguro, más allá de la discusión que puede surgir sobre los temas de estigma y de riesgo moral. Pero, ¿qué sucedería si un país decidiera tomar una facilidad crediticia contingente en vez de acumular reservas? Primero, dicha economía sería más segura, incentivando una mayor entrada de capitales. Segundo, no tendría razones para intervenir en el mercado cambiario, ya que se encontraría sobreasegurado y tendría otras formas de acceder a financiamiento externo en caso de interrupción de las fuentes privadas. No obstante, se debe hacer frente a una dificultad cuando se piensa en mecanismos de seguro más baratos: no se puede desconocer que en el centro de la decisión sobre las reservas también se tiene el manejo del tipo de cambio. Finalmente, se debe señalar que existen otras formas en que los países pueden amortiguar los cambios de sentimiento de los inversionistas internacionales: la posición de activos internacionales del sector privado. La evidencia presentada en Cowan, De Gregorio, Micco y Nielsen (2008) indica que todas las economías


88

Cuadernos de Economía, 30(55), julio - diciembre de 2011

enfrentan entradas de capitales que poseen una alta volatilidad. Lo que marca una diferencia fundamental entre países expuestos y no expuestos a crisis de financiamiento externo es la volatilidad de las salidas de capitales. El shock externo que preocupa es una menor demanda por activos locales, por parte de no residentes, como, por ejemplo, bancos extranjeros. Esta menor demanda se puede suplir liquidando reservas internacionales, pero también por la vía de la demanda de residentes privados que liquidan sus activos en el exterior para retornar capitales. En Chile, este es el caso de los fondos de pensiones, que han actuado como estabilizadores ante shocks financieros externos.

COMENTARIOS FINALES Dos aspectos relacionados con el manejo de reservas son relevantes para discutir. Primero, las reservas actúan como un seguro, pero que rara vez se usa. Lo más probable es que su papel sea disuasivo frente a las disrupciones financieras. La fuerte acumulación de reservas que se produjo en el mundo emergente después de la crisis asiática puede haber sido uno de los factores que explican el reducido efecto –comparado con otras crisis– que tuvo la crisis subprime, en cuanto al acceso de estas economías a los mercados financieros internacionales. Desde el punto de vista analítico, se requieren modelos que expliciten este canal disuasivo de la mantención de reservas internacionales para dar mayor claridad sobre su nivel adecuado. Desde el punto de vista práctico, esta consideración podría llevar a concluir que este nivel puede ser mayor que el indicado por los esquemas que solo consideran las reservas como un colchón de liquidez. Más aún, otro factor determinante del nivel adecuado de reservas debiera ser el nivel que mantienen otros países, en la medida en que los inversionistas extranjeros basan sus evaluaciones de la vulnerabilidad en la comparación entre países. En segundo lugar, la acumulación de reservas y su impacto cambiario no pueden ser tratados separadamente. Esto implica un desafío para los bancos centrales, por cuanto un esquema de flotación cambiaria debe ser coherente con la mantención de un nivel de reservas adecuado. En un esquema de tipo de cambio flotante con metas de inflación, como el practicado en muchas economías emergentes, sería prudente pensar en mecanismos que permitan la acumulación de reservas sin interferir con la flexibilidad cambiaria. Por ello, pensar en reglas de acumulación, que incorporen adecuadamente los costos cuasi-fiscales de la mantención de reservas, pareciera ser un desafío importante.


Acumulación de reservas internacionales en economías emergentes

José De Gregorio

89

REFERENCIAS BIBLIOGRÁFICAS 1. Aizenman, J. y Lee, J. (2005). International Reserves: Precuationary vs. Mercantilist Views, Theory and Evidence. (IMF Working Paper WP/05/198). Washington, D.C.: FMI. 2. Banco Central de Chile (2009). Informe de Estabilidad Financiera, primer semestre. Santiago de Chile: Banco Central de Chile. 3. Contreras, G., Jara, A., Olaberria, E. y Saravia, D. (2010). ¿Es adecuado el nivel de reservas internacionales de Chile? (Mimeo). Banco Central de Chile, Santiago de Chile. 4. Cowan, K. y De Gregorio, J. (2007). International Borrowing, Capital Controls and the Exchange Rate: Lessons from Chile. En Edwards, S. (ed.). Capital Controls and Capital Flows in Emerging Economies: Policies, Practices and Consequences. Cambridge, MA: NBER y The University of Chicago Press. 5. Cowan, K., De Gregorio, J., Micco, A. y Nielsen, C. (2008). Financial Diversification, Sudden Stops and Sudden Starts. En Cowan, K., Edwards, S. y Valdés, R.O. (eds.). Current Account and External Finance. Santiago de Chile: Banco Central de Chile. 6. De Gregorio, J. y Tokman, A. (2005). El Miedo a Flotar y la Política Cambiaria en Chile. Economía Chilena,8(3), 29-54. 7. García, P. y Soto, C. (2006). Large Hoarding of International reserves: Are They Worth It? En Caballero, R., Calderón, C. y Céspedes, L.F. (eds.). External Vulnerability and Preventive Policies. Santiago de Chile: Banco Central de Chile. 8. Fondo Monetario Internacional. (2010). World Economic Outlook [Data file]. 9. Frankel, J. y Saravelos, G. (2010). Are Leading indicators of Financial Crises Useful in Assessing Country Vulnerability? (NBER Working Paper No. 16047). Cambridge, MA: NBER. 10. Jeanne, O. y Rancière, R. (2006). The Optimal Level of International Reserves for Emerging Market Countries: Formulas and Applications. (IMF Working Paper WP/06/229). Washington, D.C.: FMI. 11. Rose, A. y Spiegel, J. (2010). The Causes and Consequences of the 2008 Crisis: International Linkages and American Exposure. Pacific Economic Review, 15(3), 340-363.


90

Cuadernos de EconomĂ­a, 30(55), julio - diciembre de 2011


IDENTIFICACIÓN DE EPISODIOS DE DEPENDENCIA NO LINEAL EN EL PESO MEXICANO

Semei Coronado Ramírez1 Leonardo Gatica Arreola2 La volatilidad de diferentes series del mercado financiero o económico se ha modelado a través de diferentes métodos. Desde la propuesta hecha por Engel (1982), quien desarrolla el modelo Autoregresivo con Heterocedasticidad Condicional (ARCH) bajo el supuesto de media cero y varianza no constante sobre el pasado, se ha desarrollado un importante número de investigaciones que parten de esta metodología. Otro trabajo pionero en el análisis de la volatilidad son los modelos Autoregresivos Generalizados con Heterocedasticidad Condicional (GARCH) de Bollerslev (1986) y su objetivo es determinar que no hay errores en la varianza. Sin embargo, estos métodos de análisis no logran modelar correctamente el comportamiento de los eventos de dependencia no lineal, que por lo general presentan estas series, y por el cual la volatilidad de este tipo de series no es ajena al supuesto de no linealidad. 1 Doctor

en Negocios y Estudios Económicos. Se desempeña actualmente como profesor del Centro Universitario de Ciencias Económico Administrativas (CUCEA) del Departamento de Métodos Cuantitativos de la Universidad de Guadalajara. E-mail: crs514@cucea.udg.mx, semeic@gmail.com. Dirección de correspondencia: Periférico Norte 799, Módulo M-201, Núcleo Los Belenes, Zapopan. C.P. 45000. (Jalisco, México). 2 Doctor en Economía. Se desempeña actualmente como profesor del Centro Universitario de Ciencias Económico Administrativas (CUCEA) del Departamento de Métodos Cuantitativos de la Universidad de Guadalajara. E-mail: leonardo.gatica@cucea.udg.mx, leonardo.gatic@gmail.com. Dirección de correspondencia: Periférico Norte 799, Módulo K-302, Núcleo Los Belenes, Zapopan. C.P. 45000. (Jalisco, México). Este artículo fue recibido el 14 de mayo de 2010, la versión ajustada fue recibida el 20 de octubre de 2010 y su publicación aprobada el 22 de noviembre de 2010.

91


92

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Existen algunos estudios que abordan el problema de no linealidad en una serie y que pueden capturar la existencia de un comportamiento de dependencia no lineal, como es el caso del estadístico de Bicorrelación Hinich Portmanteau. Éste ha sido empleado para analizar diferentes tipos de series, principalmente financieras y económicas. Por ejemplo, ha sido utilizado para presentar evidencia de no linealidad en el retorno de las acciones del NYSE (Hinich y Patterson, 1985), y en el índice bursátil asiático –se estudió el comportamiento no lineal para cinco países asiáticos– (Lim, Azali e Hinich, 2006). El método también se ha empleado para estudiar los efectos de eventos políticos y de política económica en series bursátiles como el índice de rendimiento del Kuala Lumpur (KLCI) (Lim e Hinich, 2005). Otro ejemplo es el trabajo de Hinich y Serletis (2007), quienes han aplicado la prueba para detectar episodios no lineales en el tipo de cambio del dólar canadiense. El objetivo de este documento es identificar los eventos de dependencia no lineal del tipo de cambio mexicano, así como los posibles eventos políticos y/o económicos que pudieran haber causado este comportamiento, a partir de la adopción de un régimen de tipo de cambio flexible en 1995. Los trabajos tomados como referencia son el de Bonilla, Romero-Meza e Hinich (2007) –en el cual se detecta episodios no lineales para varios tipos de cambio latinoamericanos, incluido el mexicano, y se deja abierta la línea de investigación para analizar eventos políticos y/o económicos que pudieran haberlos ocasionado– y el de Romero, Bonilla e Hinich (2007) que analiza el mercado accionario de Chile, detectando fechas de posibles eventos causantes de la no linealidad de la serie. En el presente trabajo se utiliza el estadístico Hinich Portmanteau, que detecta periodos no lineales, por medio de funciones ventanas. Para cada ventana la hipótesis nula es que la serie es lineal, en otras palabras, se considera H0 : la serie es ruido blanco. Se encuentran veintidós ventanas significativas que rechazan H0 y se describen circunstancias políticas y/o económicas que pudieron causar la no linealidad. Dado que existen eventos de dependencia no lineal en la serie, ésta no puede analizarse por cualquier modelo Autoregresivo con Heterocedasticidad Condicional (ARCH) o Autoregresivo Generalizado con Heterocedasticidad Condicional (GARCH), aún cuando algunos logran capturar ciertos tipos de asimetrías en la series3 . Lo anterior se debe a que estos modelos no cuentan con estructuras estadísticas capaces de detectar dependencia no lineal, lo cual podría causar errores en los pronósticos. El documento se divide en cuatro secciones. En la primera se hace una revisión de la literatura. En la segunda parte se describen de los datos. En la tercera se presenta la metodología y se analizan los resultados. En el apartado final, se formulan las conclusiones. 3 Existen

también modelos de alta frecuencia que son superiores en la detección de asimetrías a los modelos del tipo GARCH. Un ejemplo de estos es el estadístico REVERSE (Ver Hinich y Rothman, 1998).


Episodios de dependencia no lineal en el peso mexicano

Semei Coronado y Leonardo Gatica

93

REVISIÓN DE LA LITERATURA Hace apenas dos décadas el tipo de cambio en México era controlado o intervenido por el gobierno o el banco central. El sistema financiero y económico sufrió un colapso en diciembre de 1994 y a partir de 1995 se instrumentaron políticas fiscales y monetarias que han permitido restablecer la confianza en el sistema financiero mexicano. Dos de las más importantes son la liberalización del tipo de cambio y la independencia del banco central (Bazdresch y Werner, 2002). Como en el caso de cualquier tipo de cambio, existe un importante número de trabajos que buscan analizar y predecir la volatilidad del tipo de cambio mexicano. Por ejemplo, Benavides (2004) lo ha analizado para predecir la volatilidad del precio futuro con respecto al dólar americano, utilizando modelos univariantes y multivariantes ARCH y GARCH, así como un modelo multivariante ARCH BEKK, nombrado así después del trabajo de Baba, Engle, Kraft y Kroner (BEKK). Este último modelo sirve para estimar la varianza y la covarianza condicionales. Su utilidad también radica en que puede relacionar la volatilidad con diferentes activos financieros. Aún así, todos los modelos mencionados siguen el supuesto de una distribución normal y, por tanto, no pueden capturar comportamientos no lineales del tipo de cambio. Bazdresch y Werner (2002), reconocen implícitamente que existe un comportamiento no lineal y asimétrico en el tipo de cambio, al señalar que a partir de la adopción del régimen de libre flotación, el tipo de cambio se ha caracterizado por periodos de tranquilidad que cambian repentinamente a episodios de gran volatilidad. En este mismo trabajo, los autores emplean un método lineal para tratar de capturar esta dinámica. Para explicar estos comportamientos, Bazdresch y Werner desarrollan un modelo monetario de determinación del tipo de cambio con equilibrios múltiples. En éste los cambios en las expectativas del mercado sobre el riesgo cambiario dan origen a dos equilibrios, uno con pequeñas depreciaciones y baja volatilidad, y otro en el cual se presentan grandes depreciaciones y alta volatilidad. Para la estimación del modelo utilizan un método de coeficientes indeterminados, proponiendo una solución con parámetros desconocidos que sustituyen en la solución, para determinar los valores apropiados de los parámetros. Este proceso puede explicar más de 40 % del sesgo implícito en los mercados de forwards del peso. Por su parte, Ramírez y Martínez (2005) contrastan la eficiencia del mercado de futuros del dólar en México aplicando el principio de expectativas racionales por medio de una ecuación de regresión y análisis de cointegración. Los autores analizan el tipo de cambio spot y futuro, concluyendo que las dos series rechazan la hipótesis nula de existencia de raíz unitaria de Dickey-Fuller4 y que son no estacionarias. 4 Estadístico

para detectar raíces unitarias en los procesos autoregresivos (AR).


94

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Por su parte, Fullerton, Hattori y Calderón (2001) modelan el tipo de cambio por corrección de errores utilizando la balanza de pagos y la política monetaria. Los resultados estimados para todas las especificaciones de la prueba son débiles. De hecho, la mayoría de los coeficientes son estadísticamente insignificantes y con signos opuestos. Concluyen que la serie sigue una caminata aleatoria5 . Otros estudios que han analizado la volatilidad del tipo de cambio mexicano son el de Huerta y Hernández (1995), Kakkar (2001) y Arranz e Iglesias (2005). En este último caso, se avanza en el uso de modelos de volatilidad estocástica que han demostrado ser más adecuados que los de la familia ARCH, en el análisis de este tipo de series. Sin embargo, al igual que los métodos empleados en todos los trabajos anteriormente referidos, se parte del supuesto de normalidad y de distribuciones independientes e idénticas (i.i.d.). Si existen episodios de dependencia no lineal en una serie, este tipo de modelos son incapaces de capturar este comportamiento. Existe, no obstante, una literatura creciente en la identificación del comportamiento no lineal. A partir del trabajo seminal de Hinich y Patterson (1985), se desarrollaron las herramientas estadísticas para identificar la presencia de procesos no lineales en series financieras (Brooks, 1996). Desde entonces el número de trabajos que se han enfocado en identificar episodios de comportamiento no lineal en series económicas y financieras ha ido en aumento. Varios trabajos reportan comportamiento no lineal en el mercado accionario norteamericano y que identifican episodios de no linealidad en el mercado financiero norteamericano –Hsieh (1989, 1991); Kohers, Pandey y Kohers (1997); Patterson y Ashley (2000) y Skaradzinski (2003). Evidencia similar ha sido encontrada por Antoniou, Ergul y Holmes (1997); Ammermann (1999); Ahmed, Rosser, Barkley y Uppal (1999); Ammermann y Patterson (2003); Lim, Hinich y Liew (2005), y Lim y Hinich (2005) para el caso de mercados asiáticos, y por Panunzi y Ricci (1993), Abhyankar, Copeland y Wong (1997), Brooks (1996), Brooks y Hinich (1998, 2001), Afonso y Teixeira (1998), Opong, Mulholland, Fox y Farahmand (1999), Kosfeld y Robé (2001), Fernández y Sosvilla (2003) y Panagiotidis (2005) en el caso de los mercados europeos. Para el caso latinoamericano la literatura es más escasa, sin embargo, existen trabajos como el de Bonilla, Romero-Meza y Hinich (2006) y Romero et al. (2007), los cuales encuentran evidencia de comportamiento no lineal. Por otra parte, existen documentos discutiendo los problemas de los modelos GARCH para analizar los tipos de cambio latinoamericanos (Bonilla et al., 2007). Brooks y Hinich (1998) probaron la validez de la especificación de una estructura GARCH para los errores de series financieras, en el caso de los tipos de cambio. Sus resultados demuestran que existe una estructura estadística que no puede ser capturada por los modelos GARCH y cualquier tipo de modelo derivado de estos. La metodología de estos trabajos en su gran mayoría recurre a análisis de alta frecuencia de las series, la cual será utilizada en este documento. 5 Para

que siga una caminata aleatoria una serie, se debe partir del supuesto de que sigue una distribución normal.


Episodios de dependencia no lineal en el peso mexicano

Semei Coronado y Leonardo Gatica

95

LOS DATOS Los datos para este análisis fueron obtenidos del Banco de México, considerando la serie del tipo de cambio nominal peso mexicano-dólar U.S. al cierre de venta diario, entre el 3 de enero de 1995 y el 13 de septiembre de 2010. Los datos se transformaron en términos de la relación T Ct = ln(tct − tct−1 ), siendo tct la tasa de tipo de cambio al cierre en el tiempo t y tct−1 el tipo de cambio al cierre previo. El número de observaciones son 3.949. La Gráfica 1 muestra el comportamiento del tipo de cambio (peso mexicano-dólar U.S.) en su transformación logarítmica. GRÁFICA 1. TIPO DE CAMBIO EN TASA LOGARÍTMICA (03/01/95-13/09/10)

Fuente: elaboración propia.

El Cuadro 1 muestra el resumen de las estadísticas descriptivas para la serie. Se observa que la asimetría es positiva, lo cual indica que los datos están por encima del valor de la media. La curtosis al ser positiva tiene forma leptocúrtica, esto no quiere decir que la distribución tenga menos varianza, por el contrario, es más probable que ofrezca más valores extremos que una distribución normal. Finalmente, con el estadístico Jarque-Bera se rechaza la hipótesis nula con un 95 porciento de confianza, lo cual indica que la serie no tiene una distribución normal. CUADRO 1. RESUMEN ESTADÍSTICO PARA EL TIPO DE CAMBIO (03/01/95-13/09/10) Estadísticos Observaciones Media Desviación Estándar Asimetría Curtosis Jarque-Bera Valor de p

Fuente: elaboración propia.

Tipo de cambio 3.949 0,000223 0,00755 -1,6 66,7 1102308 0


96

Cuadernos de Economía, 30(55), julio - diciembre de 2011

METODOLOGÍA Y RESULTADOS Métodos de análisis En este análisis se sigue a Hinich y Patterson (2001) y se emplea el estadístico Hinich Portmanteau para detectar episodios transcendentes de dependencia no lineal en la serie. Este modelo separa las observaciones en pequeños marcos (ventanas) de igual longitud no traslapadas, aplicando los estadísticos C y H a cada una de las ventanas para analizar la autocorrelación y la bicorrelación bajo el supuesto H0 : las observaciones son ruido blanco. Considérese que x(t) denota la serie de tiempo, siendo t un entero. Si T es la longitud de cada ventana, entonces la k − sima ventana se describe como {y(tk ), y(tk + 1), . . . , y(tk + n − 1)}. La siguiente ventana no traslapada será entonces {y(tk+1 ), y(tk+1 + 1), . . . , y(tk+1 + n − 1)}, siendo tk−1 = tk + n. Para cada ventana, H0 : x(tk ) es un proceso estacionario ruido puro6 con bicorrelaciones cero, para cada una de ellas y H1 : x(tk ) el proceso en cada ventana es aleatorio con correlaciones diferentes a cero Cxx (r) = E[x(t)(t + r)] o bicorrelaciones no cero Cxxx (r, s) = E[x(t)x(t + r)x(t + s)], en el dominio principal 0 < r < s < L, donde L es el número de rezagos definido en cada ventana. xx Las observaciones han sido estandarizadas z(tk ) = x(tks)−¯ –restando la media x de cada ventana (¯ xx ) y divididas entre la desviación estándar de la ventana (sx )).

La correlación muestral es definida de la siguiente forma: T −r 1∑ Czz (r) = (T − r) − Z(t)Z(t + r) 2 t=1

(1)

El estadístico para detectar dependencia serial en las series para cada ventana, se denota por C y es el siguiente: C=

L ∑

2

[Czz (r)] ∼ χ2 (L)

(2)

r=1

La bicorrelación (r, s) está definida como: Czzz (r, s) = (T − s)−1

T −s ∑

[Z(tk )Z(tk+r )Z(tk+s )] 0 ≤ r ≤ s

(3)

k=1 6 Una

serie de tiempo que es un proceso estacionario, puede ser puro ruido o puro ruido blanco. En contraste una serie ruido blanco es cuando su función de autocovarianza es cero para todos los rezagos. Eso no implica que las innovaciones sean independientes, al menos que la serie sea Gaussiana.


Episodios de dependencia no lineal en el peso mexicano

Semei Coronado y Leonardo Gatica

97

El estadístico para detectar la no linealidad en la serie en el modelo Hinich Portmanteau se denota por H 7 : H=

L ∑ s−1 ∑ [ 2 ] G (r, s) ∼ χ2 ((L − 1)(L/2))

(4)

s=2 r=1

Y 1

G(r, s) = (T − s) 2 Czzz (r, s)

(5)

Los estadísticos C y H, tienden a una distribución χ2 con (L − 1)(L/2) grados de libertad, T si el número de rezagos L = T c con 0 < c < 0, 5, siendo c un parámetro libre, bajo la hipótesis nula H0 : el proceso es ruido blanco. Entonces, U = F (H) tiene una distribución uniforme (0, 1), donde F es una distribución χ2 con (L − 1)(L/2) grados de libertad. El programa opera sobre la variación transformada U = F (H). Basándose en simulaciones de Montecarlo se recomienda utilizar un valor c = 0, 4 con el fin de maximizar la robustez del estadístico y garantizar una validación aproximada de la teoría asintótica. El método es una simplificación y generalización del método usado para procesos de señales. Una ventana es significativa para cualquiera de los estadísticos C o H, si se rechaza H0 al nivel de significancia del umbral. Para cada una de las dos pruebas (autocor= relación y bicorrelación), α para cada ventana es: αventana 1 − [(1 − αc )(1 − αH )] (Ammerman, 1999). En este estudio se utiliza un umbral de 0, 1 %. En este caso la probabilidad de rechazar H0 , cuando realmente es verdadera es de una en cada cien a ese nivel de significancia, el cual minimiza la probabilidad de obtener dependencias cuando no existen (Lim et al., 2005). Esto sucede si se aplica la prueba de bicorrelación a cualquier modelo GARCH, realizando una adecuación en los datos. Se hace un ajuste a las observaciones, transformándolas en un conjunto binario   1siz(t) ≥ 0 [x(t)] = (6)  −1otrocaso Si Z(t) es modelado por un proceso de tipo GARCH, las innovaciones son i.i.d, lo cual genera un proceso ruido blanco. Esta transformación hace que el modelo GARCH sea puro ruido y no puro ruido blanco. Así que si se rechaza H0 para ambos estadísticos C o H, entonces las estructuras estadísticas que tiene la serie no pueden ser capturadas por un modelo GARCH o algún tipo derivado de este. Este rechazo se puede deber a que las innovaciones tienen dependencia serial, lo cual viola el supuesto principal de i.i.d de los modelos GARCH y sus derivados (Lim et al., 2005). 7 Para

ver la demostración matemática y sus propiedades ver Hinich (1996).


98

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Resultados El Cuadro 2 presenta los estadísticos C y H 8 , realizando la transformación binaria a la serie completa. Los resultados muestran que se rechaza H0 para ambos estadísticos. Esto viola el supuesto de innovaciones i.i.d., que plantean los modelos GARCH. Eso implica que los modelos GARCH no pueden capturar estructuras estadísticas que están presentes en el proceso subyacente y los parámetros son desconocidos en la serie del tipo de cambio. CUADRO 2. ESTADÍSTICOS C Y H PARA TODO EL PERIODO TRANSFORMADO Periodo N. de observaciones N. de rezagos Valor p de C Valor p de H

03/01/95-13/09/10 3.949 4 0 0

Fuente: elaboración propia.

A continuación, se investiga sobre la dependencia no lineal en el proceso subyacente, realizando pequeñas submuestras que son los marcos o ventanas. La serie ha sido dividida en un conjunto de 131 ventanas no traslapadas de longitud 30 de 30 observaciones, debido a que un mes tiene aproximadamente 30 días9 . Se estableció un umbral de 0, 1 % para los valores de los estadísticos C y H 10 . Esta es la probabilidad de obtener un 0, 1 por ciento de ventanas significativas no traslapadas. Se encontraron veintidós ventanas que presentan evidencia de episodios de dependencia no lineal. Los resultados se muestran en el Cuadro 3. Estos resultados rechazan H0 : de puro ruido, para los dos estadísticos C y H en la serie del tipo de cambio en México (peso-dólar US), lo que viola el supuesto estricto de los modelos GARCH que capturan los cambios de la volatilidad a través del tiempo. La implicación de este resultado es que los datos no pueden ser modelados por un proceso GARCH de ningún tipo ya que no pueden modelar estructuras estadísticas de dependencia no lineal. El Cuadro 3 presenta las fechas de las veintidós ventas en las que se observa evidencia de comportamiento no lineal causado por algún evento político, financiero o económico. En cuanto a 1995, la primera ventana significativa se encuentra entre los meses de enero y febrero y corresponde aún al pánico posterior a la devaluación de diciembre del año anterior. En los siguientes meses no se observan episodios no lineales que evidencien algún tipo de intervención o comportamiento 8 Los

estadísticos C y H fueron computados con el programa T23 disponible en http://hinich.webhost.utexas.edu/. 9 La longitud de las ventanas deberá ser lo suficientemente larga para aplicar los estadísticos C y H, pero también suficientemente corta para poder capturar episodios no lineales dentro de cada una (Brooks y Hinich, 1998). 10 El programa que se utilizó es el T23 disponible en http://hinich.webhost.utexas.edu/.


Episodios de dependencia no lineal en el peso mexicano

Semei Coronado y Leonardo Gatica

99

financiero que los pudiera disparar. Es hasta la segunda mitad del año cuando se vuelven a presentar ventanas significativas, las cuales se explican por el aumento en las reservas del Banco de México debido a una inyección de capital del exterior –tanto de manera directa al banco, como a través de la Secretaría de Hacienda y Crédito Público (SHCP). En este periodo el Banco de México llegó a acumular reservas por valor de 6,168 millones de dólares. CUADRO 3. NÚMERO Y PORCENTAJE DE TRANSFORMACIÓN BINARIA

VENTANAS

Umbral N. de ventanas Longitud de ventana N. ventanas sig. C N. ventanas sig. H % ventanas H Días considerados en cada ventana

SIGNIFICATIVAS

PARA

LA

0,1 131 30 0 22 16,79 03/01/95-10/02/95 07/08/95-18/09/95 19/09/95-30/10/95 29/04/96-10/06/96 14/04/97-27/05/07 20/08/97-02/10/97 03/10/97-13/11/97 13/02/98-26/03/98 29/01/99-12/03/99 30/11/99-11/01/00 26/03/01-09/05/01 21/06/01-01/08/01 05/06/02-16/07/02 18/03/04-30/04/04 01/07/05-11/08/05 12/08/05-23/09/05 07/11/05-19/12/05 02/05/06-12/06/06 13/06/06-24/07/06 30/05/07-10/07/07 03/10/07-14/11/07 13/01/10-24/02/10

Fuente: elaboración propia.

Un número importante de ventanas se vuelve a presentar a mediados de 1997 y corresponden a las elecciones intermedias, en las que por primera vez el partido oficial perdió la mayoría absoluta en la Cámara de Diputados. Igualmente el partido de izquierda gana las primeras elecciones para designar el gobierno del Distrito Federal. La pérdida de la mayoría absoluta en el Congreso provocó una inadecuación de las normas internas de este órgano y la complicación e incertidumbre


100

Cuadernos de Economía, 30(55), julio - diciembre de 2011

en el proceso de negociación y definición de la ley de ingresos y el proyecto de egresos, lo cual sin duda tuvo un impacto al inicio del siguiente año. Es muy probable que este clima de incertidumbre sobre la política fiscal haya resultado en los episodios que se observan en el primer trimestre de 1998. Junto con este proceso, en ese mismo trimestre el Banco de México anunció su programa de política monetaria para contrarrestar la meta anual de inflación de 12 % al cierre del año. Además, la SHCP dio a conocer el calendario y los montos de colocación de valores públicos, para dar certidumbre a los participantes en el mercado financiero nacional. Posiblemente estos dos hechos de política económica tuvieran un impacto reflejado en los episodios de dependencia no lineal para ese periodo. Para las ventanas de 1999, el proceso de negociación del presupuesto en el ambiente causado por la pérdida de la mayoría absoluta puede ser el responsables de los eventos no lineales observados al inicio y al final del año, así como a comienzo de 2000. Vale la pena señalar que durante este último año, únicamente se detectó un periodo de dependencia en el mes de enero, a pesar de tratarse del año electoral en el que el Partido Revolucionario Institucional (PRI) perdió las elecciones después de 70 años de hegemonía. Las siguientes ventanas significativas se encontraron en el segundo trimestre del 2001. Durante este lapso existían expectativas inflacionarias a la baja y la tasa de interés nominal se redujo, igualmente, se suspendió la opción de venta de divisas al Banco de México por parte de la SHCP. Las ventanas detectadas en el 2005 corresponden a distorsiones en algunos de los precios de artículos básicos y las adecuaciones consecuentes en el corto plazo para alcanzar la meta inflacionaria. En este lapso, hay un cierre de las fronteras a las importaciones de carne de los Estados Unidos, debido a la enfermedad de las vacas locas y la fiebre aviar, además de una caída importante en la producción de tomate por factores climáticos; en consecuencia, las exportaciones hacia los Estados Unidos se reducen. En este contexto, existen varios aumentos del corto11 por parte del Banco de México y se presenta incertidumbre en la arena política. Durante esos meses el candidato de izquierda que contendría en las elecciones del año siguiente, toma la delantera en las encuestas y su popularidad es creciente dentro de un clima de hostigamiento en su contra, encabezado por el Presidente de la República en turno, hecho que no hizo más que fortalecerlo. Las ventanas significativas en 2006 corresponden a los meses de junio y julio. En ese momento había en México un gran revuelo en la arena político-electoral debido a las elecciones presidenciales. Este proceso fue conflictivo y muy competido y sin duda la incertidumbre sobre quién sería el nuevo presidente y las expectativas de los posibles escenarios afectó el comportamiento del mercado cambiario mexicano. 11 Política

que utiliza el Banco de México para controlar la inflación. Es el dinero que deja de proveer el Banco de México a los bancos en sus operaciones dirias para que al cierre se sobregiren e impulsen a la alza la tasa de interés y así incentivar el ahorro y frenar el consumo.


Episodios de dependencia no lineal en el peso mexicano

Semei Coronado y Leonardo Gatica101

Una vez que el proceso electoral y de sucesión presidencial finalizó, se observan dos periodos de no linealidad en el segundo semestre de 2007. Estos eventos probablemente están ligados a los incrementos en los precios de los productos básicos (frutas, hortalizas, maíz12 y tortilla). En este contexto, el Banco de México enfrenta mayores incentivos para continuar con su política de aumento del corto para lograr alcanzar las metas inflacionarias. Posteriormente a los eventos detectados en el 2007, se presenta un amplio periodo donde no existe evidencia de episodios de dependencia no lineal. Este periodo de estabilidad refleja una política cambiaria neutral y posiblemente la certidumbre que el triunfo del candidato de la derecha y el debilitamiento de la izquierda, pero sobre todo la estabilidad que en la arena política que se generó después de un año de las elecciones presidenciales, provocó mayor confianza en los merados financieros y en las expectativas de los agentes que se reflejan en la ausencia de episodios no lineales. Es en los primeros meses de 2010 que se identificó un importante número de ventanas que evidencian comportamiento no lineal. Esto puede ser causado por una reforma fiscal deficiente y el aumento de las tasas impositivas, lo cual afecta los mercados financieros. Este proceso fallido de reforma fiscal, afectó de manera importante y negativa, la percepción de los agentes sobre la posibilidad de la construcción de una política fiscal adecuada, debido a la recuperación de la mayoría en el Congreso por parte del PRI y a las negociaciones de carácter político electoral que determinan los acuerdos sobre la política económica.

CONCLUSIONES En este trabajo se aplicó el estadístico Hinich Portmanteau para detectar episodios de dependencia no lineales en la serie del tipo de cambio mexicano y, siguiendo la idea Bonilla et al. (2007) y Romero et al. (2007), se mencionaron los posibles eventos políticos y/o económicos que pueden explicar este comportamiento. Se encontraron 16, 79 % de ventanas significativas, lo cual implica que la serie tiene un comportamiento que los modelos de las familias ARCH/GARCH no pueden capturar como lo han demostrado Brooks y Hinich (1998). Ya que en esos periodo el tipo de cambio mexicano presenta estructuras de dependencia no lineal que se contraponen a los supuestos de normalidad y de i.i.d. Los modelos que parten de estos supuestos no pueden modelar correctamente el comportamiento de la serie. Los resultados del análisis también implican que, dada la evidencia del comportamiento de dependencia no lineal que tiene el tipo de cambio en una economía en desarrollo como la mexicana, el mercado cambiario no se comporta de forma eficiente. Este resultado es consistente con otros análisis realizados para economías en desarrollo. 12 En

este caso, causado por el aumento en la producción de etanol.


102

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Este estudio intenta aportar una alternativa para conocer las estructuras estadísticas de las series de tiempo, específicamente la del tipo de cambio, y con base en sus resultados poder discutir el uso adecuado de cierto tipo de modelos para su análisis y pronóstico. En particular, los resultados encontrados en este trabajo hacen evidente la cautela con la que se debe proceder en el uso de modelos de las familias ARCH, GARCH o de modelos con volatilidad estocástica para estudiar el tipo de cambio en el caso de México. Este argumento puede extenderse para el estudio de otras series, ya que en muchas ocasiones la toma de decisiones de política se basa en análisis que utilizan este tipo de modelos, lo cual podría dar resultados erróneos si no se consideran los problemas que estas técnicas tienen para capturar estructuras de dependencia no lineal que pueden estar presentes en las series. Una de las posibles líneas de investigación que se desprende de los resultados aquí presentados es la posibilidad de investigar la correlación del tipo de cambio con otras variables, contrastarla con alguno de los filtros aplicados a los ciclos económicos para conocer mejor su comportamiento y así determinar si siguen existiendo episodios no lineales.

REFERENCIAS BIBLIOGRÁFICAS 1. Abhyankar, A., Copeland, L. y Wong, W. (1997). Uncovering non-linear structure in real-time stock-market indexes the S&P 500, the DAX, the Nikkei 225 and the FTSE-100. Journal of Business and Economic Statistics, 15(1), 1-14. 2. Afonso, A. y Teixeira, J. (1998). Non-linear tests of weakly efficient markets evidence from Portugal. Estudios de Economia, 19, 169-87. 3. Ahmed, E., Rosser, J., Barkley, J. y Uppal, J. (1999). Evidence of non-linear speculative bubble in pacific-rim stock markets. Quarterly Review of Economics and Finance, 39(1), 21-36. 4. Ammerman, P. (1999). Nonlinearity and overseas capital markets: evidence from the Taiwan stock exchange. (Tesis inédita de doctorado). Virginia Polytechnic Institute, USA. 5. Ammermann, P. y Patterson, D. (2003). The cross-sectional and cross-temporal universality of non-linear serial dependencies evidence from world stock indices and the Taiwan stock exchange. Pacific-Basin Finance Journal, 11(2), 175-95. 6. Antoniou, A., Ergul, N. y Holmes, P. (1997). Market efficiency, thin trading and non-linear behavior evidence from an emerging market. European Financial Management, 3(2), 175-90. 7. Arranz, M. y Iglesias. M. (2005). Análisis de los tipos de cambio en la economía mexicana y comparación con otros países: Un enfoque de volatilidad estocástica. Investigación Económica, 64(253), 159-169. 8. Bazdresch, S. y Werner, A. (2002). El comportamiento del tipo de cambio en México y el régimen de libre flotación: 1996-2001. (Documento de Investigación 2002-09). México D.F.: Banco de México. Recuperado de http://www.banxico.org.mx/dyn/ documents/ %7B551708AA-9D83-687A-03C1-50DEA76A1F12 %7D.pdf. 9. Benavides, G. (2004). Predictive accuracy of futures optiones implied volatility: the case of exchange rate futures Mexican peso-US dollar. (Documento de trabajo).


Episodios de dependencia no lineal en el peso mexicano

10. 11.

12. 13. 14. 15.

16. 17. 18. 19. 20. 21. 22.

23. 24. 25. 26. 27. 28.

29.

Semei Coronado y Leonardo Gatica103

México D.F.: Banco de México. Recuperado de http://papers.ssrn.com/sol3/papers. cfm?abstract_id=600742 Bollerslev, T. (1986). Generalized autoregressive conditional heteroskedasticity. Journal of Econometrics, 31(3), 307-327. Bonilla, C., Romero-Meza, R. y Hinich, J.M. (2007). GARCH inadequacy for modeling exchange rates: empirical evidence from Latin America. Applied Economics, 39(19), 2529-2533. Bonilla, C., Romero-Meza, R. y Hinich, M. (2006). Episodic nonlinearity in Latin American stock market indices. Applied Economics Letters, 13(3), 195-199. Brooks, C. (1996). Testing for non-linearity in daily sterling exchange rates. Applied Financial Economics, 6(4), 307-17. Brooks, C. y Hinich, M. (1998). Episodic nonstationary in exchange rates. Applied Economics Letters, 5(11), 719-722. Brooks, C. y Hinich, M. (2001). Bicorrelations and cross-bicorrelations as nonlinearity tests and tools for exchange rate forecasting. Journal of Forecasting, 20(3), 181-96. Engel, R. (1982). Autoregressive conditional heteroskedasticity with estimates of variance of United Kingdom inflation. Econometrica, 50(4), 987-1007. Fernández S.J. y Sosvilla, S. (2003) Modeling the linkages between US and Latin American Stock Markets. Applied Economics, 35(12), 1423-1434. Fullerton, T., Hattori, M. y Calderón C. (2001). Error correction exchange rate modeling: evidence for Mexico. Journal of Economics y Finance, 25, 358-368. Hinich, J.M. (1996). Testing for dependence in the input to a linear time series model. Nonparametric Statistics, 6(2-3), 205-221. Hinich, J.M., y Patterson, M.D. (1985). Evidence of nonlinearity in daily stock returns. Journal of Business and Economic Statistics, 3(1), 69-77. Hinich, M. y Rothman, P. (1998). Frequency-domain test of time reversibility. Macroeconomic Dynamics, 2(1), 72-88. Hinich, J.M. y Patterson, M.D. (2001). The episodic behavior of dependencies in high frequency stock returns. Mimeo. Recuperado de http://web.austin.utexas.edu/ hinich/files/Statistics/Episodic-stocks.pdf Hinich, J.M. y Serletis, A. (2007). Episodic nonlinear event detection in the Canadian exchange rate. Journal of the American Statistical Association, 102(477), 68-74. Hsieh, D. (1989). Testing for non-linear dependence in daily foreign exchange rates. Journal of Business, 62(3), 339-368. Hsieh, D. (1991). Chaos and non-linear dynamics application to financial markets. Journal of Finance, 46(5), 1839-1877. Huerta, A. y Hernández, F. (1995). Comportamiento del tipo de cambio real y desempeño económico en México. Economía Mexicana Nueva Época, 4(2), 239-263. Kakkar, V. (2001). Long run real exchange rates: evidence from Mexico. Economics Letters, 72(1), 79-82. Kohers, T., Pandey, V. y Kohers, G. (1997). Using non-linear dynamics to test for market efficiency among the major U.S. stock exchanges. Quarterly Review of Economics and Finance, 37(2), 523-45. Kosfeld, R. y Robé, S. (2001). Testing for nonlinearities in German bank stock returns. Empirical Economics, 26(3), 581-97.


104

Cuadernos de Economía, 30(55), julio - diciembre de 2011

30. Lim, K. y Hinich, M. (2005). Cross-temporal universality of non-linear serial dependencies evidence from Asian stock indices. Economics Bulletin, 7(1), 1-6. 31. Lim, K., Azali, M. y Hinich, J.M. (2006). Model identification of ARCH/GARCH using non-linearity test an application on Asean-5 foreign exchange markets. Mimeo. Recuperado de http://hinich.webhost.utexas.edu/files/Economics/Bispec-exchange.pdf 32. Lim, K., Hinich, J.M. y Liew, V. (2005). Statistical inadequacy of GARCH models for Asian stock markets: evidence and implications. Journal of Merging Market Finance, 4(3), 264-279. 33. Opong, K., Mulholland, G. Fox, A. y Farahmand, K. (1999). The Behavior of some UK equity indices an application of Hurst and BDS tests. Journal of Empirical Finance, 6(3), 267-82. 34. Panagiotidis, T. (2005). Market capitalization and efficiency. Does it matter? evidence from the Athens stock exchange. Applied Financial Economics, 15(10), 707713. 35. Panunzi, F. y Ricci N. (1993). Testing non linearities in Italian stock exchange. Rivista Internazionale di Scienze Economiche e Commerciali, 40, 559-574. 36. Patterson, D. y Ashley, R. (2000). A non-linear time series workshop: A toolkit for detecting and identifying non-linear time series dependence. Norwell: Kluwer Academic Publishers. 37. Ramírez, R.A. y Martínez, D.A. (2005). Eficiencia en el mercado de futuros del dólar en México. Agricultura, Sociedad y Desarrollo, 2(1), 47-50. 38. Romero, M.R., Bonilla, C. y Hinich, J.M. (2007). Nonlinear event detection in the Chilean stock market. Applied Economics Letters, 14(13), 987-991. 39. Skaradzinski, D. (2003). The non-linear behavior of stock prices the impact of firm size, seasonality, and trading frequency. (Tesis inédita de Doctorado). Virginia Polytechnic Institute and State University, USA.


EN BUSCA DE UN MODELO BENCHMARK UNIVARIADO PARA PREDECIR LA TASA DE DESEMPLEO DE CHILE

Javier Contreras-Reyes1 Byron Idrovo2 La motivación de este estudio radica en la necesidad de contar con benchmarks basados en modelos univariados de series de tiempo para predecir la tasa de desempleo de Chile. En el ámbito económico, esta clase de modelos constituyen atractivos benchmarks para evaluar la capacidad predictiva de modelos estructurales, en los que interactúan múltiples variables y cuya forma funcional está basada en la teoría económica. La sencillez del mecanismo de identificación, estimación y predicción que caracteriza a los modelos univariados de series de tiempo, es la razón principal por la que son frecuentemente utilizados en la literatura. Por otro lado, predecir la tasa de desempleo es relevante, debido a su estrecho vínculo con el ciclo económico. Básicamente, al ser la mano de obra un factor substancial para la producción de bienes y servicios, es una parte importante del 1 Magíster

en Estadística, se desempeña como estadístico en el Centro de Modelamiento Matemático del Departamento de Ingeniería Matemática de la Universidad de Chile (Santiago de Chile, Chile). E-mail: jcontreras@dim.uchile.cl. Dirección de correspondencia: Blanco Encalada 2002 (Santiago de Chile, Chile). 2 Magíster en Economía, se desempeña como economista en la Gerencia de Estudios de la Cámara de la Construcción (Santiago, Chile). E-mail: bidrovo@cchc.cl. Dirección de correspondencia: Marchant Pereira 10, Providencia (Santiago de Chile, Chile). Este artículo fue recibido el 23 de septiembre de 2010, la versión ajustada fue recibida el 3 de mayo de 2011 y su publicación aprobada el 3 de junio de 2011.

105


106

Cuadernos de Economía, 30(55), julio - diciembre de 2011

aparato productivo de la economía. Asimismo, de acuerdo a la ley de Okun3 , los cambios en el ciclo económico están correlacionados negativamente con la tasa de desempleo, es decir, a mayor (menor) crecimiento económico, menor (mayor) desocupación laboral. En este sentido, la tasa de desempleo publicada mensualmente por el Instituto Nacional de Estadísticas (INE) es un indicador natural de alerta temprana de la actividad económica agregada. Particularmente, Bergoing et al. (2005) sostienen que la dinámica del empleo es una variable que incide fuertemente en la economía chilena. Igualmente, los modelos estructurales utilizados para la medición de la tasa de crecimiento tendencial de la economía, comúnmente incorporan la relación entre los cambios del desempleo y los cambios en la producción. Por lo tanto, proponer benchmarks precisos para predecir la trayectoria de la tasa de desempleo, constituye un legítimo aporte para establecer una forma de comparación de la habilidad predictiva de los modelos de estructura económica. En este contexto, el presente trabajo investiga la capacidad predictiva de los procesos SARIMA (Seasonal Autoregressive Integrated Moving Average) que además de ajustar los componentes cíclico y estacional propios de una serie económica como es la tasa de desempleo de Chile, se caracterizan por ser modelos fáciles de identificar, estimar y predecir. Se utilizó información disponible desde febrero de 1986 hasta febrero de 2010 (289 observaciones)4 . Alternativamente, se ajustó un modelo ARFIMA (Autorregresive Fractionary Integrated Moving Average), debido a que el desempleo muestra cierta persistencia en su comportamiento, lo que presumiblemente responde al lento ajuste del salario real frente a los distintos estados del ciclo económico. A partir de los métodos de estimación de Reisen (1994), Geweke et al. (1983) y Whittle (2002) se obtuvieron parámetros de integración mayores que 0,5, lo que empíricamente sustenta el tratamiento del desempleo como una serie no estacionaria (ver Anexo 1). Esto último podría resultar un tanto extraño al economista no familiarizado con la literatura predictiva de procesos univariados. Sin embargo, considerar la existencia de una o más raíces unitarias en la tasa de desempleo, elimina la incertidumbre paramétrica, ya que los modelos de series de tiempo tienden a ser parsimoniosos (García y Pincheira, 2006). En la literatura económica se distinguen dos posturas para tratar de explicar el comportamiento del desempleo de Chile. Una de ellas es que la evolución de esta variable obedece predominantemente a shocks de productividad, lo que promueve una conducta cíclica en el empleo (Cowan et al., 2005). La disminución sistemáti3 El economista norteamericano Arthur Okun planteó una relación lineal entre los cambios en la tasa

de desempleo y las variaciones del producto interno bruto durante la década de 1950. Pese a que la evidencia de tal relación es netamente empírica, es mundialmente reconocida como “una de las regularidades empíricas más confiables de la macroeconomía”. 4 Los datos de desempleo elaborados y publicados por el INE consisten en dividir el número total de personas desocupadas por la fuerza laboral (suma total de personas ocupadas y desocupadas) en el trimestre móvil de cada mes. En otras palabras, la tasa de desempleo mide la proporción de la fuerza laboral que carece de trabajo en el mercado formal.


Javier Contreras-Reyes y Byron Idrovo 107

En busca de un modelo benchmark univariado

ca de la tasa de desempleo durante el período 1986-1998 (Gráfica 1), coincide con una alta acumulación de mano de obra y un crecimiento significativo de la productividad total de factores –en línea con la recuperación de las libertades civiles, mejores términos de intercambio, mayor disponibilidad de capital externo, estabilidad macroeconómica y mercados financieros más profundos. El salto discreto del desempleo en 1999 responde, básicamente, al efecto recesivo de la crisis asiática –que incidió en el menor nivel del producto potencial. En este contexto, la persistente disminución de la tasa de desempleo durante más de una década, seguida por un significativo cambio de su nivel y tendencia, hacen de ella un proceso estadísticamente no estacionario en niveles, pero sí en primeras diferencias. El segundo planteamiento establece que además de los posibles shocks a la productividad en Chile, se debe considerar el efecto de nuevas políticas en el mercado laboral (Rodríguez, 2007; Martínez et al., 2001; Brown et al., 1975), tales como: los aumentos del salario mínimo en el período 1998-2000 y la reforma laboral establecida a fines del año 2001 -en la cual las normativas al código del trabajo incluyen una ley que disminuye el número de horas semanales máximas permitidas (de 48 a 45) y que entra en vigencia desde 2005. Así, la interacción entre los mayores costos de contratación para las empresas y el costo de oportunidad de permanecer inactivo para las personas, se tradujo en una tasa de desempleo persistentemente alta con respecto a la observada durante la época de oro (1986-1998). GRÁFICA 1. TASA DE DESEMPLEO CHILENA (1986-2010)

10 8 6

Unemployment rate (%)

12

Unemployment rate (1986−2010)

1990

1995

2000

2005

2010

Time (years)

Fuente: elaboración propia.

Posiblemente, la yuxtaposición de ambos efectos (shocks de productividad y de intervención de política), implicaría la existencia de heterogeneidad en la evolución histórica de la tasa de desempleo. Por lo que la matriz de covarianza de su componente estacional también podría ser inestable en el tiempo. De este modo,


108

Cuadernos de Economía, 30(55), julio - diciembre de 2011

no se descarta que lo anterior haga del desempleo de Chile un proceso regular de densidad espectral no racional con dos raíces unitarias: una en el componente no periódico y otra en el bloque estacional. Por esta razón, ambas raíces unitarias son consideradas y tratadas en este trabajo, con el objetivo de identificar el mejor modelo SARIMA para predecir el desempleo. Por otra parte, no existe consenso en la literatura con respecto a la forma en que se debería seleccionar el número de rezagos de los modelos autorregresivos. Mientras algunos autores escogen rezagos basados en el criterio de información de Akaike (AIC) (Stock y Watson (SW), 2003, 2006), otros se basan en el criterio de información Bayesiano (BIC) (Elliot y Timmermann, 2008). Ambos criterios, que en principio seleccionan modelos de acuerdo con el ajuste dentro de la muestra, difieren en la penalización que hacen a los parámetros adicionales que deberán ser estimados en el modelo. Dado lo anterior, el orden de rezagos de los modelos univariados de series de tiempo, están basados en los criterios mencionados anteriormente; mientras que el método descriptivo de selección fundamentado en el error cuadrático medio de la predicción (ECM) y el estadístico propuesto por Giacomini y White (2006) son utilizados para evaluar si el modelo SARIMA es capaz de dominar en términos de precisión y estabilidad predictiva a un conjunto de modelos alternativos de series de tiempo univariados –extensamente utilizados en la literatura económica. Las predicciones de la tasa de desempleo se realizan en un período de 12 años (enero de 1999 a febrero de 2010). Este lapso en particular considera el efecto adverso de la crisis asiática de 1999, y el posterior cambio de régimen de meta inflacionaria y de superávit estructural en la economía chilena. La evaluación de la calidad predictiva de los modelos se centra en las proyecciones fuera de muestra de 1, 6 y 12 meses hacia adelante. En este sentido y siguiendo el estudio de García y Pincheira (2006) sobre modelos de predicción aplicados a la inflación de Chile, el presente trabajo busca contar con benchmarks predictivos para la tasa de desempleo chileno. Entre los estudios que consideran modelos univariados como benchmarks predictivos de la tasa de desempleo se encuentra el de Gomes y Reis (2009). Estos autores plantean modelos ARFIMA, al mismo tiempo que realizan pruebas de raíz unitaria con quiebres estructurales para examinar la persistencia del desempleo en la zona metropolitana de la ciudad de San Pablo en Brasil. Entre los principales hallazgos, descartan la hipótesis de que la tasa de desempleo de la ciudad sea estacionaria, ya que la estimación del parámetro de integración fraccionaria resultó mayor que 0,5 durante el período mensual de 1985-2008. Por lo que concluyen que los modelos de la familia SARIMA son apropiados para modelar la dinámica del desempleo. Para el caso de Rumania, Dobre y Alexandru (2008) modelan la trayectoria mensual de la tasa de desempleo usando la metodología de Box y Jenkins (1970), para los años 1998-2007. Los resultados que se derivan del estudio empírico revelan


En busca de un modelo benchmark univariado

Javier Contreras-Reyes y Byron Idrovo 109

que el modelo más adecuado para replicar el desempleo en Rumania es un ARIMA (2, 1, 2). Para el caso de Chile, existe poca evidencia de la aplicación de modelos univariados de series de tiempo para predecir la tasa de desempleo, ya que los mayores esfuerzos se han concentrado en identificar las variables explicativas y predecir con base en éstas. Por esto, la literatura trata, principalmente, modelos multivariados de estructura económica, los cuales no siempre son capaces de vencer homogéneamente en el tiempo a sencillos benchmarks univariados5 . Este hallazgo coloca un reto a los posteriores intentos de predecir la tasa de desempleo: los nuevos modelos deben ser capaces de vencer al menos a un simple proceso autorregresivo de primer orden. Los resultados del presente trabajo indican que el ECM (RECM) fuera de muestra de las proyecciones SARIMA es menor que el de los métodos univariados. En particular, el modelo SARIMA permite obtener proyecciones que son estadísticamente más precisas que las de los benchmarks univariados, considerados para todos los horizontes analizados. Estos resultados fueron coherentes con el test de Giacomini y White (2006), el cual está orientado a evaluar un método de predicción y no un modelo de diagnóstico. Por último, si bien no se ahonda en las razones que se encuentran detrás del satisfactorio comportamiento predictivo, éste se asocia a la imposición de dos raíces unitarias en la tasa de desempleo, lo que provee predicciones más precisas. El documento está organizado en tres secciones de la siguiente forma. En la primera se discute la metodología, en el segundo segmento se analizan los resultados obtenidos y se realizan las comparaciones de los diversos modelos utilizados en la literatura; en el tercer apartado se formulan las conclusiones.

METODOLOGÍA Desde febrero de 1986 –primer registro de desempleo publicado por el INE– la tasa de desempleo chilena ha mostrado un comportamiento cíclico y estacional muy característico. En épocas de auge (parte más alta del ciclo económico) el desempleo disminuye considerablemente hasta ubicarse por debajo de su promedio histórico. Por el contrario, frente a escenarios de crisis dicha variable tiende a expandirse significativamente con respecto a su medida de tendencia central. Con relación al componente estacional, la tasa de desempleo alcanza su mayor nivel en los meses de invierno –siendo julio y agosto los meses más predominantes de cada 5 SW

(2008), recogen una amplia literatura sobre la habilidad predictiva de la inflación de Estados Unidos entre los procesos univariados de series de tiempo versus los modelos estructurales con variables múltiples. Se considera válido el hallazgo de estos autores desde el punto de vista empírico; principalmente, porque en Chile no hay evidencia reciente de la aplicación de dicho análisis para explicar la tasa de desempleo.


110

Cuadernos de Economía, 30(55), julio - diciembre de 2011

año. Esto se debe en parte, a la postergación de las obras de infraestructura y edificación –altamente intensivas en la utilización de mano de obra–, ante condiciones climáticas poco propicias para el desarrollo normal de estas actividades. En este contexto, es posible modelar la tasa de desempleo como un proceso del tipo ARIMA (p, d, q) × (P, D, Q)s . Este modelo captura la particularidad estacional y cíclica de la serie –la parte cíclica es la que se asocia al componente autorregresivo y de media móvil.

d Φ(B)Φs (B)∇D 12 ∇1 Xt = Θ(B)Θs (B)ϵt

(1 −

p ∑ k=1

ϕk B k )(1 −

P ∑

(1)

ϕsk B k )(1 − B s )D (1 − B)d Xt =

k=1

(1 −

q ∑ k=1

θk B k )(1 −

q ∑

θks B k )ϵt

(2)

k=1

Donde, Φ(B) es un polinomio de coeficientes, con operador de rezagos B del componente autorregresivo AR; y Φs (B) es análogo al caso anterior, pero aplicado al proceso autorregresivo de la parte estacional SAR. Θ(B) y Θs (B) son los polinomios de coeficientes del proceso de media móvil MA y su símil estacional SMA. Se sospecha que la tasa de desempleo es no estacionaria, debido a los cambios significativos de media y varianza durante las fases de boom y recesión económica. De igual forma, se presume que el tramo ARIMA del componente periódico (o estacional) también es no estacionario, ya que existen factores (propios del efecto calendario) que indirectamente podrían acentúar la estacionalidad de la serie –por ejemplo, la composición de los días de la semana. En resumen, el procedimiento utilizado para modelar la serie de la tasa de desempleo es: 1. Se estimó la función de autocorrelación (ACF) de la serie y se observó que convergía hiperbólicamente a cero. Al descartar la posibilidad de que sea estacionaria con integración fraccionaria (ver Anexo 1), se optó por transformar la serie tomando una diferenciación. 2. Se obtuvo nuevamente la ACF y se encontró un patrón estacional con un comportamiento sinusoidal de larga memoria, lo cual es típico en variables que muestran alta persistencia en su trayectoria. Por lo tanto, se optó por diferenciar en doce meses la serie obtenida en el paso anterior. 3. Basándose en los criterio de Akaike y BIC, se seleccionó el mejor modelo SARIMA, estimado mediante Máxima Verosimilitud (ML). Los residuos del modelo resultaron ruido blanco –según el test de Box-Ljung.


En busca de un modelo benchmark univariado

Javier Contreras-Reyes y Byron Idrovo 111

En el período 1986-1997 la tasa de desempleo mantuvo una tendencia a la baja –con un promedio histórico de 8,1 %. Este fenómeno es coherente con el nivel potencial de crecimiento económico observado durante dicho período –en torno a 7,8 % (Chumacero, 1996). Dada la característica de la serie, cualquier predicción de desempleo, con base en estos datos, difícilmente habría dado cuenta de un fuerte cambio de tendencia, como la observada durante la crisis asiática (19981999). Para entonces, el desempleo aumentó en forma persistente hasta llegar a su máximo nivel de 11,9 % en agosto de 1999, para luego mantenerse oscilante en torno a 9,2 % en los siguientes ocho años. Durante la post-crisis asiática, la actividad económica se caracterizó por su bajo desempeño –con un crecimiento potencial de sólo 5 % (Johnson, 2001)–, relativo a la pronta recuperación experimentada por los países del sudeste asiático. Estos sucesos dieron orígen al debate sobre la aparente persistencia de la actividad económica y por ende del empleo. Algunos autores sostienen que la dinámica del empleo es uno de los factores que incide altamente en el prolongado deterioro de la economía (Bergoeing et al., 2005). A partir del segundo semestre de 2008, tras los efectos de la crisis financiera internacional, la tasa de desempleo chilena tendió nuevamente al alza; incluso, alcanzó niveles similares a los observados durante crisis asiática. Esto refleja en parte, un cierto grado de homogeneidad en la reacción del mercado laboral frente a shocks externos, al menos, durante la recesión de 1999 y la más reciente. En este contexto y sumando las características de no estacionariedad de la tasa de desempleo, se propone un análisis basado en un modelo de series de tiempo del tipo SARIMA para predecir la tasa de desempleo mensual en el corto plazo. Basado en el análisis de densidad espectral, se encuentra que las discontinuidades de la serie de desempleo son puramente cíclicas. El periodograma de la Gráfica 2 destaca un peack en torno a 0, 5 (2π/0,5 ≈ 12 meses), lo que refleja la predominancia del componente cíclico de la serie, validando empíricamente la especificación del modelo propuesto. Esto a su vez permite que el shock de la crisis asiática sea un argumento válido para simular la crisis de 2010. Es más, las similitudes encontradas entre las trayectorias de los niveles de desempleo de la crisis asiática versus la crisis de 2010 ponen de manifiesto la significativa inercia del mercado laboral, al punto de que los shocks materializados durante la crisis asiática, presuntamente, podrían ser replicados en la actualidad. Por último, a diferencia de otros estudios en los que se modela una estructura económica para ajustar la tasa de desempleo nacional, el presente estudio permite que los propios datos temporales de la variable desempleo revelen las características de la estructura probabilística subyacente. En este sentido, el presente documento no indaga sobre los factores que están detrás de la posible rigidez del mercado laboral; su objetivo es modelar y proyectar la tasa de desempleo con base en su propia historia, es decir, utilizando únicamente la significativa correlación con el pasado.


112

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Por otra parte, la elevada persistencia y volatilidad de la serie de desempleo hizo que cualquier intento de estabilización mediante la aplicación de funciones de transformación de la variable de tipo Box Cox, resultara infructuosa. La función de autocorrelación (ACF) de la Gráfica 2 muestra un prolongado decaimiento a medida que aumentan los rezagos de tiempo, por lo que en primera instancia se sospecha que podría tratarse de un proceso de larga memoria del tipo ARFIMA. Sin embargo, a partir de los métodos de estimación de Reisen (1994), Geweke et al. (1983), y Whittle (1962) se obtuvieron parámetros de integración mayores que 0, 5, lo que empíricamente sustenta el tratamiento de la tasa de desempleo como una serie no estacionaria (ver Anexo 1). GRÁFICA 2. ACF Y PERIODOGRAMA DE LA TASA DE DESEMPLEO OBTENIDO A TRAVÉS DE LA TRANSFORMACIÓN RÁPIDA DISCRETA DE FOURIER Unemployment rate (1986−2010)

30

Periodogram

ACF 0.2

0

−0.4

−0.2

10

0.0

20

0.4

40

0.6

50

0.8

60

1.0

Unemployment Rate Periodogram

0

5

10

15 Lag

20

0.0

0.5

1.0

1.5

2.0

2.5

3.0

Frequencies

Fuente: elaboración propia.

Análisis de tendencia y estacionalidad del ajuste SARIMA Tras descartar la posibilidad de que la tasa de desempleo sea estacionaria con integración fraccionaria, se optó por la primera diferenciación. En otras palabras, para eliminar la tendencia estocástica, se procedió a diferenciar la serie una vez. En la Gráfica 3 (primer gráfico de izquierda a derecha) se muestra la pérdida de tendencia, aunque la variabilidad producida por la estacionalidad de la serie persiste al observar la función de autocorrelación de la serie ajustada (segundo gráfico). Dado que eurísticamente la estacionalidad es sinónimo de no estacionariedad, se realizó el respectivo ajuste estacional de la serie. De este modo, la Gráfica 3 muestra las ACF y la función de autocorrelación parcial (PACF) de la tasa de desempleo después de controlar por su tendencia estocástica y estacionalidad (tercer y cuarto gráfico de izquierda a derecha). A partir de la ACF se determinó que existen los siguientes peacks: uno en la parte MA estacional


Javier Contreras-Reyes y Byron Idrovo 113

En busca de un modelo benchmark univariado

(esto es cada 12 meses por ser la serie de frecuencia mensual) y cuatro en la parte MA de los parámetros ARIMA de la serie. GRÁFICA 3. SERIE ORIGINAL Xt SOMETIDA A LOS DISTINTOS FILTROS

(1 − B )X t

(1 − B 12 )(1 − B )X t

(1 − B 12 )(1 − B )X t

PACF

−0.4

−0.5 1990

2000

2010

Time (years)

−0.2

−0.2

0.0

0.0

0.2

ACF 0.0

ACF

0.4

0.2

0.5

0.6

0.5 0.0 −0.5 −1.0

Differentiated Unemployment rate

0.8

0.4

1.0

1.0

1.0

(1 − B )X t

0

5

10

15

Lag (years)

20

0.0

1.0

2.0

Lag (years)

3.0

0.0

1.0

2.0

3.0

Lag (years)

Fuente: elaboración propia.

En el gráfico PACF es posible notar que existen los siguientes saltos: dos en la parte AR estacional (períodos 12 y 24, respectivamente) y tres significativos en la parte AR de los parámetros ARIMA de la tasa de desempleo. De esta forma, se determina un modelo preeliminar: ARIMA(3, 1, 4) × (2, 1, 1)12 , estimado por el método de máxima verosimilitud (MV). No obstante, al estimar los parámetros de este modelo no se encontró significancia para el componente AR estacional según el estadístico t-student (ver Cuadro 3A). Tomando en consideración el principio de parsimonia, se decidió estimar el modelo ARIMA(1, 1, 2) × (0, 1, 1)12 , el cual obtuvo valores AIC y BIC (-38,05 y -25,53) menores que los inicialmente propuestos (-37,06 y -16,16), como lo muestra el Cuadro 2A. Todos los parámetros del modelo ARIMA(1, 1, 2) × (0, 1, 1)12 resultaron significativos a un nivel de confianza de 95 % y con errores ruido blanco distribuidos normalmente. Por otro lado, en la Gráfica 4A se puede apreciar que el test de BoxLjung muestra que los valores p asociados a los residuos del modelo son mayores que el error de confianza α = 0,05, para un rezago equivalente a 24 meses y las autocorrelaciones residuales se concentran dentro de las bandas de Bartlett, por lo que se concluye que los residuos no están correlacionados. Además, se muestra que los residuos en gran medida se concentran en la recta normal y el test de normalidad Shapiro-Wilk arroja un valor p de 0,433 (W = 0,994), lo cual no rechaza la hipótesis nula de normalidad residual. De esta forma, los supuestos de normalidad y de ruido blanco de los residuos son coherentes con el no rechazo de los test (Gráfica 4B).


114

Cuadernos de Economía, 30(55), julio - diciembre de 2011

GRÁFICA 4A. RESIDUOS ESTANDARIZADOS, ACF RESIDUAL Y VALORES P DE BOX-LJUNG

−3

−1

1 2 3

Standardized residuals

1990

1995

2000

2005

2010

Time (years)

0.4 0.0

ACF

0.8

Residual ACF

0.0

0.5

1.0

1.5

2.0

Lag (years)

0.4 0.0

p value

0.8

Box-Ljung test p values

5

10

15

Lag (years)

Fuente: elaboración propia.

20


Javier Contreras-Reyes y Byron Idrovo 115

En busca de un modelo benchmark univariado

GRÁFICA 4B. GRÁFICO NORMAL Q-QPLOT RESIDUAL

0.0 −0.2 −0.6

−0.4

Sample Quantiles

0.2

0.4

0.6

Normal Q−Q Plot

−3

−2

−1

0

1

2

3

Theoric Quantiles

Fuente: elaboración propia.

Evaluación de habilidad predictiva Un método de proyección será mejor que otro en la medida que tenga menor RECM. Para comparar estadísticamente la diferencias de habilidad predictiva entre los modelos propuestos, se hará uso del paradigma de evaluación propuesto por Giacomini y White (2006). Este test está orientado a evaluar un método de predicción y no un modelo de diagnóstico, por ende, no considera incertidumbre paramétrica, lo cual es útil si se desea comparar modelos anidados provenientes de un modelo SARIMA. El test GW atribuido a Diebold-Mariano (1995) se construye a partir de la diferencia ∆LnT = Li (y) − Lj (y) donde Li (y) =| ybk − yk |, k = 1, . . . , T , el cual corresponde al error de predicción del modelo i ̸= j. Se propone contrastar H0 : E[∆L] = 0 vs H1 : E[∆L] > 0, a partir del siguiente estadístico6 : ∑T −τ 1 t=m ∆LnT nT tn T = (3) √ σ bnT / nT Siendo nT = T − τ − m + 1, T el tamaño total de la muestra, τ el horizonte de predicción y m la observación en que comienza las ventanas móviles. Para 6 Notar

que bajo H0 , el estadístico tnT es asintóticamente normal.


116

Cuadernos de Economía, 30(55), julio - diciembre de 2011

τ = 1, se utiliza una estimación para σ bnT a partir de la estimación de σ bαb asociado al modelo de regresión simple ∆LnT = α b +ϵ. Sin embargo, para horizontes τ > 1 se permite usar estimador HAC de Newey-West (1994). A partir de esta herramienta estadística, se compara el modelo SARIMA versus distintos benchmarks: AR(1), IMA(1), ARMA(1,1), modelos ARMA y ARIMA con menores AIC y BIC.

RESULTADOS En primer lugar, se encontró que el proceso que caracteriza a la tasa de desempleo es no estacionario, por lo que se ajustó un modelo autorregresivo integrado de primer orden. Los estimadores de Reisen-Geweke y Porter-Hudak arrojaron valores en torno a 1 para el parámetro de integración, mientras que para la estimación de Whittle, se obtuvo un parámetro fraccionario cercano al 0,5 para cualquier especificación de las componentes AR y MA. Al descartar la posibilidad de que la tasa de desempleo sea estacionaria con integración fraccionaria, se consideró la presencia de una tendencia estocástica. Es más, los test de raíz unitaria de DickeyFuller aumentado y Phillips-Perron confirman la característica no estacionaria de la variable de interés. El Cuadro 1 muestra los valores p con niveles de significancia de 1 % (∗ ∗ ∗). Ambos tests tienen como hipótesis nula que la serie en cuestión es no estacionaria. En esta línea, se plantearon modelos autorregresivos y de media móvil aplicados a la variable de desempleo diferenciada en primer orden. CUADRO 1. TEST DE RAIZ UNITARIA PARA TASA DE DESEMPLEO Test Augmented Dickey - Fuller Phillips - Perron

yt -2.708 0.099

(1 − B)yt −8.855(∗∗∗) 0.010(∗∗∗)

Nota 1. Valores p con (∗ ∗ ∗) significativo al 1 %. Nota 2. Todos los tests tienen como hipótesis nula que la serie en cuestión es no estacionaria. Fuente: elaboración propia.

Adicionalmente, se ajustó un modelo de regresión lineal con tendencia y estacionalidad sinusoidal determinísticas –esto considerando la frecuencia encontrada en el periodograma (ver Gráfica 1A). A partir de la información del Cuadro 4A se puede decir que los parámetros asociados a la tendencia y periodicidad senoseoidal no son significativas y que según el test de Box-Ljung, los residuos no son ruido blanco. Se concluye que un modelo determinístico de estas características no es adecuado ni para el ajuste ni para realizar predicciones de la tasa de desempleo. Por otra parte, se testeó la presencia de raíces unitarias estacionales mediante el test de Hylleberg-Engle-Granger-Yoo (HEGY) (Hylleberg, Engle, Granger y Yoo, 1990). Un primer resultado (H0 : π1 = 0) confirma la presencia de raíz unitaria


En busca de un modelo benchmark univariado

Javier Contreras-Reyes y Byron Idrovo 117

no estacional en relación con lo obtenido por los test de Dickey-Fuller y PhillipsPerron. De igual forma, se comprobó estadísticamente una alta persistencia en el componente períodico del desempleo, al no rechazar la hipótesis nula de raíz unitaria estacional (ver Cuadro 2). CUADRO 2. TEST DE HEGY PARA RAIZ UNITARIA ESTACIONAL Hipótesis Nula π1 = 0 π2 = 0 π3 = π4 = 0 π5 = π6 = 0 π7 = π8 = 0 π9 = π10 = 0 π11 = π12 = 0

Estadístico -2.360 -3.487 18.615 45.686 12.403 18.546 11.491

valor p 0.10 0.01 0.10 0.10 0.10 0.10 0.10

Nota. Todos los tests tienen como hipótesis nula que la serie en cuestión posee raices unitarias. Fuente: elaboración propia.

En este contexto y sumando las características de no estacionariedad de la tasa de desempleo, se efectuó un análisis basado en un modelo de series de tiempo del tipo SARIMA. De esta forma y tomando en consideración el criterio de AIC y BIC, se obtuvo un modelo ARIMA(1, 1, 2) × (0, 1, 1)12 . A partir de este modelo se calculó el período de permanencia de una perturbación en la tasa de desempleo, empleando la función de impulso-respuesta: (1 + ϕB)(1 − B)(1 − B 12 )yt = (1 + θ1 B + θ2 B 2 )(1 − θ12 B 12 )ϵt

(4)

Definiendo xt = (1 − B)(1 − B 12 )yt

(5)

Se obtiene la siguiente expresión: xt =

(1 + θ1 B + θ2 B 2 )(1 − θ12 B 12 )ϵt (1 + ϕB)

(6)

Realizando la descomposición de Wald para el denominador se tiene que:   +∞ ∑ ( ) xt =  (−ϕ)j B j  1 + θ1 B + θ2 B 2 − θ12 B 12 − θ12 θ1 B 13 − θ12 θ2 B 14 ϵt j=0

(7) Definiendo una perturbación ϵt = 1, la función de impulso-respuesta del modelo está dada por:


118

Cuadernos de Economía, 30(55), julio - diciembre de 2011

t ω(j) = ∂ϵ∂xt+j =  1,      θ1 − ϕ,    j j−1   + θ2 (−ϕ)j−2 , (−ϕ) − θ1 (−ϕ) 2(ϕ12 − θ1 ϕ11 + θ2 ϕ10 − 0,5θ12 ),    2(−ϕ13 + θ1 ϕ12 − θ2 ϕ11 − 0,5(θ1 − ϕ)θ12 ),      2[−ϕj + θ1 ϕj−1 − θ2 ϕj−2 − 0,5((−ϕ)j−12 + θ1 (−ϕ)j−13 +    +θ2 (−ϕ)j−14 )θ12 ],

j=0 j=1 2 < j < 12 j = 12 j = 13 j > 13

Se puede apreciar en la Gráfica 5 la elevada persistencia de una perturbación en la serie. Según el modelo propuesto, la persistencia en la dinámica de la tasa de desempleo podría prolongarse por más de un año. GRÁFICA 5. GRÁFICO DE LA FUNCIÓN DE IMPULSO RESPUESTA ω(j)

−1.0

−0.5

Correlation 0.0

0.5

1.0

Impulse−Response Function

0

10

20

30

40

Lag (months)

Fuente: elaboración propia.

Con relación a la calidad de las predicciones, los cuadros 5A, 6A y 7A del anexo muestran los resultados del test de GW aplicado a los modelos mencionados en la sección de “evaluación de la habilidad predictiva” y al modelo SARIMA. Para cada celda se muestra el valor p asociado al test, en donde un valor menor a 0,05 (si se utiliza un nivel de confianza del 95 %) indica que el modelo en la fila posee


En busca de un modelo benchmark univariado

Javier Contreras-Reyes y Byron Idrovo 119

mayor RECM que el de columna. Una simple inspección por los cuadros permite apreciar que en todos los casos y para los 3 horizontes considerados, el modelo propuesto SARIMA no posee mayor ECM que los benchmarks tradicionales y más aún, en todos los casos los valores p son cercanos a 1, lo cual indica que para un 95 % en el test a una cola los benchmarks tradicionales no poseen menor ECM que el modelo propuesto. Con el propósito de hacer más expedita la exposición, es conveniente comparar estos resultados con el Cuadro 8A del anexo, el cual muestra los valores RECM de cada modelo, para los 3 horizontes de predicción. Se puede apreciar que en general los valores RECM asociados a los modelos aumentan a medida que crece el horizonte de predicción, sin embargo, el RECM del modelo propuesto SARIMA se mantiene siempre bajo. Además, se evidencia que el benchmark ARIMA obtenido por BIC, es el modelo con el segundo menor ECM. En la Gráfica 3A de la izquierda, al modelo SARIMA (en línea gruesa) y los benchmarks tradicionales (en línea entrecortada) para los 3 horizontes de predicción; y a la derecha se destaca este segundo mejor modelo (en línea entrecortada) para compararlo con el modelo SARIMA (en línea gruesa), mostrando que a pesar de que los RECM aumentan a medida que crece el horizonte de predicción, los modelos tradicionales no logran superar al modelo SARIMA.

COMENTARIOS FINALES Según el análisis espectral, se aprecia que los cambios de la tasa de desempleo son netamente cíclicos. Por otra parte, la función de autocorrelación y los métodos de estimación de diferenciación fraccionaria de un modelo ARFIMA permitieron identificar que la variable de interés se comporta como un proceso estacionario. En este contexto, se decidió modelar la tasa de desempleo como un proceso ARIMA(1, 1, 2) × (0, 1, 1)12 , según los criterios de información de Akaike, BIC y la función de autocorrelación. Se estableció que la estructura de los modelos de series de tiempo que se analizaron, permite aproximar el período de permanencia de una perturbación en la tasa de desempleo; según el modelo propuesto, la persistencia en la dinámica de la tasa de desempleo podría prolongarse por más de un año. La evaluación de la capacidad predictiva de los modelos se centra en las proyecciones fuera de muestra de 1, 6 y 12 meses hacia adelante. Los resultados indicaron que la raíz del ECM (RECM) fuera de muestra de las proyecciones SARIMA fue menor que el de los métodos univariados. En particular, el modelo SARIMA permitió realizar proyecciones que son estadísticamente más precisas que las de los benchmarks univariados considerados para todos los horizontes analizados. Por último, si bien no se profundiza en las razones que permiten explicar este comportamiento predictivo, se identifica que éste está asociado a la imposición de dos raíces unitarias en la tasa de desempleo.


120

Cuadernos de Economía, 30(55), julio - diciembre de 2011

REFERENCIAS BIBLIOGRÁFICAS 1. Albagli, E., Contreras, G., García, P., Magendzo, I. y Valdés, R. (2003). Errores de Predicción en Perspectiva. (Documento de Trabajo 199). Santiago de Chile: Banco Central de Chile. 2. Bergoeing, R., Mornadé, F., Piguillem, F. (2005). Labor Market Distortions, Employment, and Growth: The Recent Chilean Experience. En Chumacero, R.A., Schmidt-Hebbel, K. y Loayza, N. (Ed.). General Equilibrium Models for The Chilean Economy (pp. 395-414). Santiago de Chile: Banco Central de Chile. 3. Box, G.E.P. y Jenkins, G.M. (1970). Time Series Analysis. Forecasting and Control. San Francisco: Holden-Day. 4. Brown, R., Durbin, J. y Evans, M. (1975). Techniques for Testing the Constancy of Regression Relationships over Time. Journal of the Royal Statistical Society. Series B (Methodological) 37(2), 149-192. 5. Contreras-Reyes, J., Goerg, G.M., Palma, W. (2011). afmtools: Estimation, Diagnostic and Forecasting Functions for ARFIMA models. R package version 0.1.1. URL http://cran.r- project.org/web/packages/afmtools/. 6. Cowan, K., Micco, A., Mizala, A., Pages, C. y Romaguera, P. (2005). Un diagnóstico del desempleo en Chile. Santiago de Chile: Centro de Microdatos, Universidad de Chile. 7. Christian, J. (2001). Un Modelo de Switching para el Crecimiento en Chile. Cuadernos de Economía, 38(115), 291-319. 8. Chumacero, R. y Quiroz, J. (1996). La Tasa Natural de Crecimiento de la Economía Chilena: 1985-1996. Cuadernos de Economía, 33(100), 453-72. 9. Dobre, I. y Alexandru, A. (2008). Modelling Unemployment Rate Using BoxJenkins Procedure. Journal of Applied Quantitative Methods, 3(2), 156-166. Disponible en: http://www.jaqm.ro/issues/volume-3,issue-2/pdfs/dobre_alexandru.pdf 10. Elliot, G. y Timmerman, A. (2008). Economic Forecasting. Journal of Economic Literature, 46(1), 3-56. 11. Giacomini, R. y White, H.(2006). Tests of Conditional Predictive Ability. Econometrica, 74(6), 1545-1578. 12. Geweke, J. y Porter-Hudak, S. (1983). The Estimation and Application of Long Memory Time Series Model. Journal of Time Series Analysis, 4, 221-238. 13. Gomes, C. y Reis, F. (2009). Measuring Unemployment Persistence of Diferent Labor Force Groups in the Greater Sao Paulo Metropolitan Area. Estudos Econômicos (São Paulo), 39(4), 763-784. 14. Hylleberg, S., Engle, R., Granger, C. y Yoo, B. (1990). Seasonal integration and cointegration. Journal of Econometrics, 44, 215-238. 15. Jonathan, D.C. y Kung-Sik, C. (2008). Time Series Analysis With Applications in R, Second Edition. Londres: Springer. 16. Martínez, C., Morales, G. y Valdés, R. (2001). Cambios estructurales en la demanda por trabajo en Chile. Economía Chilena, 4(2), 5-25. 17. Newey, W.K. y West, K.D. (1987). A Simple, Positive Semidefinite, Heteroskedasticity and Auto-correlation Consistent Covariance Matrix. Econometrica, 55(3) 703708.


Javier Contreras-Reyes y Byron Idrovo 121

En busca de un modelo benchmark univariado

18. Pincheira, P. y García, A. (2009). Forecasting Inflation in Chile With an Accurate Benchmark (Working Papers, Central Bank of Chile 514). Santiago de Chile: Banco Central de Chile. 19. R Development Core Team (2011). R: A Language and Environment for Statistical Computing. Viena: R Foundation for Statistical Computing. http://www.Rproject.org. 20. Reisen, V.A. (1994). Estimation of the Fractional Diference Parameter in the ARFIMA(p,d,q) model using the Smoothed Periodogram. Journal of Time Series Analysis, 15(3), 335-350. 21. Rodríguez, J. (2007). Desempleo en Chile 1998-2007: Shocks Productivos o Distorsiones en el Mercado Laboral? (Tesis inédita de maestría). Universidad de Chile, Santiago de Chile, Chile. 22. Stock, J.H. y Watson, M.W. (2003). Forecasting Output and Inflation: The Role of Asset Prices. Journal of Economic Literature, 41(3), 788-829. 23. Stock, J.H. y Watson, M.W. (2006). Why Has U.S. Inflation Become Harder to Forecast? (NBER Working Papers 12324). Cambridge: National Bureau of Economic Research. 24. Stock, J.H. y Watson, M.W. (2008). Phillips Curve Inflation Forecasts (NBER Working Papers 14322). Cambridge: National Bureau of Economic Research. 25. Whittle P. (1962). Gaussian estimation in stationary time series. Bulletin of the International Institute of Statistics, 39, 105-129.

ANEXO 1. MODELO ARFIMA El término de memoria larga utilizado en el estudio de series de tiempo, suele asociarse con la persistencia que muestran algunas series estacionarias en sus funciones de autocorrelación, que convergen paulatinamente hacia cero. Este comportamiento no es compatible con el modelo SARIMA aquí propuesto, que considera una medida extrema de persistencia de la tasa de desempleo. En este sentido, además del modelo SARIMA, también se ajustó un proceso de larga memoria ARFIMA (Autorregresive Fractionary Integrated Mobile Average) para modelar el comportamiento del desempleo, ya que éste muestra cierta persistencia, lo cual es coherente con el lento ajuste del salario real frente a los distintos estados del ciclo económico. Formalmente se tiene: Φ(B)Xt = Θ(B)∇−d 1 ϵt (1 −

p ∑ k=1

ϕk B k ) = (1 −

q ∑

θk B k )(1 − B)−d ϵt

(8)

k=1

Siendo Φ(B) es un polinomio de coeficientes con operador de rezagos B del componente autorregresivo AR, Θ(B) es el polinomio de coeficientes del proceso de media móvil MA y d corresponde a la diferenciación fraccionaria del modelo. En el Cuadro 1A se presentan tres estimadores para el parámetro d de la tasa de desempleo, en todos los casos se tiene que la serie de tasa de desempleo es no estacionaria. 1. Reisen. Basado en la ecuación de regresión usando la función de periodograma alisado como una estimación de la densidad espectral. 2. Geweke y Porter-Hudak. Basado en la ecuación de regresión usando la función de periodograma como una estimación de la densidad espectral.


122

Cuadernos de Economía, 30(55), julio - diciembre de 2011

3. Whittle. Estimador local exacto de Whittle a través del método cuasi-máximoverosímil (ver implementación computacional en Contreras-Reyes et al., 2011). CUADRO 1A. DISTINTAS ESTIMACIONES DEL PARÁMETRO FRACCIONARIO PARA LA TASA DE DESEMPLEO Método Reisen Geweke and Porter-Hudak Whittle

Estimación dˆ 0.829 0.968 0.499

S.E 0.068 0.208 0.096

Fuente: elaboración propia. GRÁFICA 1A. GRÁFICO DE AJUSTE DEL MODELO DE REGRESIÓN LINEAL

6

8

Tasa

10

12

Tasa de Desempleo

0

50

100

150

200

250

300

tiempo

Fuente: elaboración propia. GRÁFICA 2A. VALORES P DEL TEST DE BOX-LJUNG PARA SUS RESIDUOS

0.0

0.2

0.4

valores p

0.6

0.8

1.0

p values for Ljung−Box statistic

2

4

6 Rezago

Fuente: elaboración propia.

8

10

12


Javier Contreras-Reyes y Byron Idrovo 123

En busca de un modelo benchmark univariado

CUADRO 2A. ESPECIFICACIONES DE MODELOS DE SERIES DE TIEMPO CON SUS RESPECTIVOS ESTADÍGRAFOS DE AJUSTE: CRITERIO DE INFORMACIÓN AIC Y BIC Modelo ARIMA(1, 1, 1) × (0, 1, 1)12 ARIMA(1, 1, 2) × (0, 1, 1)12 ARIMA(1, 1, 3) × (0, 1, 1)12 ARIMA(1, 1, 4) × (0, 1, 1)12 ARIMA(2, 1, 1) × (0, 1, 1)12 ARIMA(2, 1, 2) × (0, 1, 1)12 ARIMA(2, 1, 3) × (0, 1, 1)12 ARIMA(2, 1, 4) × (0, 1, 1)12 ARIMA(3, 1, 1) × (0, 1, 1)12 ARIMA(3, 1, 2) × (0, 1, 1)12 ARIMA(3, 1, 3) × (0, 1, 1)12 ARIMA(3, 1, 4) × (0, 1, 1)12 ARIMA(4, 1, 1) × (0, 1, 1)12 ARIMA(4, 1, 2) × (0, 1, 1)12 ARIMA(4, 1, 3) × (0, 1, 1)12 ARIMA(4, 1, 4) × (0, 1, 1)12

BIC 27.613 -25.527 -20.295 -15.451 14.478 -20.722 -15.661 -13.453 0.193 -17.306 -11.869 -11.775 -1.009 -12.107 -6.045 -8.987

AIC 18.719 -38.052 -36.451 -35.238 1.953 -36.878 -35.449 -36.872 -15.962 -37.093 -35.287 -38.825 -20.797 -35.526 -33.095 -39.667

Fuente: elaboración propia. CUADRO 3A. ESTIMACIÓN DE LOS PARÁMETROS DEL MODELO ARIMA(1, 1, 2) × (0, 1, 1)12 Parámetro ϕ1 θ1 θ2 θ1s

Estimación −0.2433 0.9032 0.7726 −0.8776

s.e 0.0751 0.0483 0.0575 0.0566

Test-t 3.238 18.719 13.434 15.498

p-value 0.0008 (***) <2e-16 (***) <2e-16 (***) <2e-16 (***)

Nota. Se obtuvo significancia a un 1 % (***) en todos los parámetros. Fuente: elaboración propia. CUADRO 4A. ESTIMACIÓN DE LOS PARÁMETROS DEL MODELO DE REGRESIÓN LINEAL Parámetro α0 α1 β1 β2

Estimación 8.667 -0.001 -0.171 -0.744

s.e 0.199 0.001 0.141 0.140

Test-t 43.533 -0.824 -1.217 -5.304

p-value <2e-16 (***) 0.411 0.225 2.27e-07 (***)

Nota 1. La regresión lineal calculada fue yt = α b0 + α b1 t + βb1 sin(t/2) + βb2 cos(t/2) + εt . Nota 2. Se obtuvo un coeficiente de determinación de R2 = 0.096 y significancia de α b0 y βb2 a un 1 % (***). Fuente: elaboración propia.


124

Cuadernos de Econom铆a, 30(55), julio - diciembre de 2011

CUADRO 5A. TEST DE GIACOMINI-WHITE PARA SARIMA Y DIVERSAS ESPECIFICACIONES ARIMA PARA TASA DE DESEMPLEO (ENERO DE 1999 A FEBRERO DE 2010)

SARIMA AR(1) IMA(1) ARMA(1,1) ARMA(AIC) ARIMA(AIC) ARIMA(BIC)

1 2 3 4 5 6 7

2 1.0000 . . . . . .

3 1.0000 0.0000 . . . . .

4 1.0000 0.0000 0.6969 . . . .

5 1.0000 0.0000 0.0000 0.0000 . . .

6 0.9985 0.0000 0.0000 0.0000 0.0047 . .

7 1.0000 0.0000 0.0000 0.0000 0.1219 0.9819 .

Nota. Proyecciones 1 mes hacia adelante. Fuente: elaboraci贸n propia. CUADRO 6A. TEST DE GIACOMINI-WHITE PARA SARIMA Y DIVERSAS ESPECIFICACIONES ARIMA PARA TASA DE DESEMPLEO (ENERO DE 1999 A FEBRERO DE 2010)

SARIMA AR(1) IMA(1) ARMA(1,1) ARMA(AIC) ARIMA(AIC) ARIMA(BIC)

1 2 3 4 5 6 7

2 0.9999 . . . . . .

3 0.9971 0 . . . . .

4 0.998 0 0.3435 . . . .

5 0.9587 0 0 0 . . .

6 0.9989 0 0.0019 0.0014 0.057 . .

7 0.9317 0 0 0 0.2382 0.8948 .

Nota. Proyecciones 6 meses hacia adelante. Fuente: elaboraci贸n propia. CUADRO 7A. TEST DE GIACOMINI-WHITE PARA SARIMA Y DIVERSAS ESPECIFICACIONES ARIMA PARA TASA DE DESEMPLEO (ENERO DE 1999 A FEBRERO DE 2010)

SARIMA AR(1) IMA(1) ARMA(1,1) ARMA(AIC) ARIMA(AIC) ARIMA(BIC)

1 2 3 4 5 6 7

2 0.9999 . . . . . .

3 0.9992 0 . . . . .

Nota. Proyecciones 12 meses hacia adelante. Fuente: elaboraci贸n propia.

4 0.999 0 0.8945 . . . .

5 0.9918 0 0 0 . . .

6 0.976 0 0 0 0.0029 . .

7 0.9842 0 0 0 0.1779 0.9881 .


Javier Contreras-Reyes y Byron Idrovo 125

En busca de un modelo benchmark univariado

CUADRO 8A. VALORES RECM PARA SARIMA Y DIVERSAS ESPECIFICACIONES ARIMA PARA TASA DE DESEMPLEO (ENERO DE 1999 A FEBRERO DE 2010) Model/Horizon SARIMA AR(1) IMA(1) ARMA(1,1) ARMA(AIC) ARIMA(AIC) ARIMA(BIC)

1 0.222 0.468 0.384 0.384 0.287 0.261 0.284

6 0.239 0.585 0.531 0.525 0.414 0.292 0.424

12 0.244 0.624 0.540 0.547 0.415 0.343 0.415

Nota. Proyecciones 1, 6 y 12 meses hacia adelante. Fuente: elaboración propia. GRÁFICA 3A. GRÁFICOS RECM PARA VENTANAS MÓVILES DE 1, 6 Y 12 MESES PARA EL MODELO ESCOGIDO Y DISTINTOS BENCHMARKS Forecasting 1 mounth ahead

0.0

0.0

0.1

0.2

0.2

0.3

RMSE

0.6 0.4

RMSE

0.4

0.8

0.5

1.0

0.6

1.2

Forecasting 1 mounth ahead

Jan-99

Jul-00

Fab-02

Sep-03

Apr-05

Jan-07

Jul-08

Jan-99

Jul-00

Fab-02

Time

Sep-03

Apr-05

Jan-07

Jul-08

Time

Forecasting 6 mounths ahead

1.5

RMSE

0.0

0.0

0.5

0.5

1.0

1.5 1.0

RMSE

2.0

2.0

2.5

2.5

3.0

Forecasting 6 mounths ahead

Jan-99

Jul-00

Fab-02

Sep-03

Apr-05

Jan-07

Jan-99

Jul-08

Jul-00

Fab-02

Forecasting 12 mounths ahead

Apr-05

Jan-07

Jul-08

Jan-07

Jul-08

1.5 1.0

1.5

RMSE

2.0

2.0

2.5

2.5

3.0

Forecasting 12 mounths ahead

0.5

0.5

1.0

RMSE

Sep-03 Time

Time

Jan-99

Jul-00

Fab-02

Sep-03 Time

Apr-05

Jan-07

Jul-08

Jan-99

Jul-00

Fab-02

Sep-03

Apr-05

Time

Nota. Los gráficos de la izquierda muestra en línea gruesa el modelo SARIMA versus todos los benchmarks en línea entrecortada y a la derecha, el modelo SARIMA en línea gruesa versus el mejor benchmark en línea entrecortada, el ARIMA(2,1,5). Fuente: elaboración propia.


126

Cuadernos de EconomĂ­a, 30(55), julio - diciembre de 2011


REVISANDO LA HIPÓTESIS DE LOS MERCADOS EFICIENTES: NUEVOS DATOS, NUEVAS CRISIS Y NUEVAS ESTIMACIONES

Jorge Mario Uribe Gil1 Inés María Ulloa Villegas2 Desde que Eugene Fama (1970) acuñó el famoso término de “eficiencia de mercados” para referirse a los procesos aleatorios que se comportan como “juegos justos”, cuyos resultados no pueden ser predichos sistemáticamente, los alcances y las implicaciones teóricas y políticas del mismo han sufrido devenires de todo tipo. Las posiciones académicas con respecto a la eficiencia en este sentido son contrastantes y la han convertido en una acepción más de la misma controversia que se extiende a lo largo y ancho del pensamiento económico contemporáneo, entre economistas neokeynesianos y neoclásicos, que difieren en último término sobre el papel que el Estado debe jugar en una economía de mercado. En un lado del espectro se sitúan quienes creen fehacientemente en la eficiencia de los mercados financieros, –por ejemplo, Fama y French (2010), Fama (1991, 1 Magíster

en Economía, se desempeña actualmente como profesor del Departamento de Economía de la Universidad del Valle (Cali, Colombia). E-mail: jorge.uribe@correounivalle.edu.co. Dirección de correspondencia: Carrera 13 N. 100-00, edificio 387, oficina 3014 (Cali, Colombia). 2 Diplom Volkswirtin, se desempeña actualmente como Profesora Asociada del Departamento de Economía de la Universidad del Valle (Cali, Colombia). E-mail: ines. ulloa@correounivalle.edu.co. Dirección de correspondencia: Calle 13 N. 100-00, edificio 387, oficina 4020 (Cali, Colombia). Los autores agradecen el apoyo de la Facultad de Ciencias Sociales y Económicas y del Centro de Investigaciones y Documentación Socioeconómica (CIDSE); la invaluable asistencia de investigación de Stephanía Mosquera López y Natalia Restrepo López; y los comentarios de dos árbitros anónimos de la revista. Este artículo fue recibido el 5 de octubre de 2010, la versión ajustada fue remitida el 18 de marzo de 2011 y su publicación aprobada el 4 de abril de 2011.

127


128

Cuadernos de Economía, 30(55), julio - diciembre de 2011

1998), Malkiel (1999, 2003, 2005), entre otros–, los cuales han desarrollado un arsenal estadístico enorme para “probar” dicha eficiencia. La implicación política de esta posición será, regularmente, que los mercados de capitales son eficientes y constituyen un mecanismo óptimo para la asignación de recursos; por tanto, la intervención estatal sólo puede empeorar las cosas. En el otro lado están quienes no creen en la eficiencia del mercado y de hecho niegan que dicha eficiencia sea posible (Grossman y Stiglitz, 1980; Stiglitz, 2010), por lo cual el papel del Estado, por ejemplo a nivel regulatorio, no sólo tiene cabida sino que es imprescindible. También se pueden encontrar quienes consideran este concepto de eficiencia sólo como un artificio ideológico propio de la arremetida neoclásica para justificar las políticas de libre mercado, en la década de los setenta, que por ende nada tiene que ver con la eficiencia económica en el sentido tradicional, es decir, en el sentido de Pareto (Hyme, 2003). En este caso extremo la eficiencia de los mercados financieros no tiene ninguna implicación de política económica, sólo se trata de un término prejuiciado. Finalmente, un enfoque alternativo que crítica las aproximaciones tradicionales a la medición de la dependencia en las series financieras y en alguna medida sus implicaciones sobre la Hipótesis de los Mercados Eficientes (HME) se encuentra, por ejemplo, en los trabajos de Peters (1996) y Mandelbrot y Hudson (2006). En este trabajo se aborda el tema de la eficiencia del mercado una vez más y se señalan algunas de las implicaciones teóricas del mismo. Primero, se plantea que la eficiencia en el sentido informacional es una condición necesaria para la eficiencia en la asignación y con este argumento teórico en mente se procede al análisis empírico de la eficiencia, para varios mercados de acciones en el mundo. En este marco empírico se plantean algunas mejoras metodológicas a las medidas tradicionales. De esta forma es como en la primera parte del documento se argumenta que la eficiencia en la información (o en el sentido de Fama), debe ser entendida como una condición necesaria, aunque no suficiente, para que se cumpla el Primer Teorema del Bienestar de la Economía Walrasiana. Se subraya así, un salto teórico enorme que muchas veces se pasa por alto: para que un mercado sea eficiente en el sentido de Pareto, primero debe serlo informacionalmente; no obstante, no es necesariamente cierto que un mercado eficiente en el sentido de Fama lo es automáticamente en el sentido de Pareto. Esta idea también fue esbozada por Stiglitz (1981) y no ha tenido la atención que se esperaría dentro de la literatura académica, pero vuelve a ser particularmente relevante en épocas de crisis. Lo anterior se ilustra con una breve revisión de dos trabajos clásicos sobre la materia: que los mercados nunca pueden ser eficientes informacionalmente (en el sentido fuerte), idea que fue desarrollada por Grossman y Stiglitz (1980), y que esta ineficiencia, que a su vez es producto de la presencia de información asimétrica, implica que los equilibrios del mercado competitivo ya no están garantizados,


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

129

en particular no se puede asegurar que se cumplan los dos teoremas del bienestar fundamentales del equilibrio walrasiano (Rothschild y Stiglitz, 1976). En este trabajo se plantea que la eficiencia de mercado no deja de ser una condición deseable, toda vez que un mercado eficiente estará reflejando mejor la información disponible sobre los precios de los activos financieros y su valor fundamental. Lo que sucede es que no constituye en ningún caso un argumento definitivo, por sí solo, en términos de política económica. De la anterior discusión deberá quedar claro que, también, es un error considerar que los dos conceptos (en el sentido de Fama y en el sentido de Pareto) no tienen relación alguna como se plantea en Hyme (2003). De esta forma, sobre la base de que la eficiencia es una propiedad deseable, aunque no concluyente, se procede al análisis estadístico. Se estiman las medidas de eficiencia (débil), del mercado propuestas por la literatura contemporánea, para varios índices latinoamericanos y del mundo, de forma dinámica. Se subrayan las limitaciones teóricas y prácticas de las mismas, y se propone una forma alternativa de medición basada en las cópulas, una opción que es más robusta empíricamente. Este análisis permite establecer que incluso desde las propuestas estándar que existen para medir la eficiencia, es posible identificar indicios de ineficiencia en los mercados que tienden a sobre reaccionar ante las buenas y malas noticias, es decir, aquellos en los que las burbujas de los precios de los activos financieros se han convertido en un comportamiento recurrente en épocas recientes. Este es el caso de los mercados financieros más profundos del mundo: Londres y Nueva York. Lo anterior deja cabida para la regulación estatal que busca evitar las burbujas financieras, o por lo menos, que busca “desinflarlas” cuando éstas se producen. Este argumento se suma al debate contemporáneo sobre la necesidad de incorporar objetivos sobre los precios de los activos financieros y no únicamente objetivos de inflación de precios al consumidor por parte de las autoridades monetarias. En este contexto, convendría construir medidas dinámicas sobre la eficiencia como las que se proponen en este documento. La condición más laxa que se puede pedir a los mercados financieros es que sean eficientes en el sentido de Fama, y en particular débilmente, y muchas veces ni siquiera a este nivel lo son. Las expectativas juegan aquí un papel fundamental, en particular las expectativas que se retroalimentan. Son estos procesos los que en muchos casos impiden que los mercados ajusten sus precios “eficientemente”, aun si los agentes tienen expectativas racionales. Esta consideración no es original, en últimas es consecuencia de los mismos espíritus animales de los que habló Keynes hace más de 70 años.

UNA REVISIÓN TEÓRICA DEL CONCEPTO DE EFICIENCIA A market in which prices always fully reflect available information is called efficient (Fama, 1970, 383).


130

Cuadernos de Economía, 30(55), julio - diciembre de 2011

A capital market is said to be efficient if it fully and correctly reflects all relevant information in determining security prices. Formally, the market is said to be efficient with respect to some information set, φ, if security prices would be unaffected by revealing that information to all participants. Moreover, efficiency with respect to an information set, φ, implies that it is impossible to make economic profits by trading on the basis of φ (Malkiel, 1987, 120).

Estas dos definiciones son estándar en la literatura sobre el tema. La segunda es un intento de llevar la primera al campo empírico y evitar las ambigüedades que ésta engendra. No obstante, como ocurre cada vez que una hipótesis se hace más específica, hay cierta pérdida de información con respecto a la que se quería expresar en un principio. La definición de Malkiel (1987) plantea que la eficiencia se puede reducir a la imposibilidad de realizar ganancias sistémicas en el mercado. La idea subyacente es clara: dado que la información que llega al mercado es abundante (incluso ilimitada) y que en todo momento los precios absorben tal información, si algún hecho del mañana no se ha reflejado en los precios de hoy es porque su materialización depende del azar o porque es desconocido por todos. Si un mercado de capitales es eficiente, será imposible predecir sistemáticamente los precios de los activos que se transan en su interior y, por tanto, obtener ganancias no acotadas sistemáticamente con base en tales activos, siguiendo cualquier tipo de técnica de predicción o haciendo uso de cualquier conjunto de información. El mejor pronóstico del precio mañana será el precio de hoy, el cual corresponde a la suma descontada de los flujos futuros infinitos, representados por la tenencia del activo financiero para su poseedor. Al reflexionar sobre lo anterior, se observa que no hay discrepancia entre la bolsa pensada como un casino (Stiglitz, 2010) y la bolsa entendida como un mercado cuyo mecanismo de precios refleja toda la información disponible (Fama, 1970). La idea es que el precio responderá a sus fundamentales y cualquier desviación de estos debe ser aleatoria (un casino). El problema con lo anterior es que no es fácil determinar qué parte de los precios responde a los fundamentales y qué parte no. Por ejemplo, recientemente se creía que el alza del precio de las acciones en los Estados Unidos durante la década de los noventa y principios del siglo XXI, hasta el momento en que estalló la crisis de las “punto com” en el 2002; o desde esa fecha hasta la caída de Lehman Brothers en septiembre de 2008, estaba sustentada en gran medida por los fuertes procesos de innovación tecnológica en esos periodos. Innovación tecnológica, primero por parte de las empresas de nuevas tecnologías de información y después, por parte de los bancos de inversión. Dado lo anterior, era natural concluir que tal ascenso respondía a los fundamentales de las empresas en bolsa. Hoy es evidente que esto no era del todo cierto y que gran parte del alza en los precios bursátiles fue producto del exceso de liquidez presente en el mercado y de la subvaloración del riesgo; es decir, no era producto de los fundamentales, sino de la especulación, era una burbuja.


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

131

El ejemplo anterior ilustra un poco las dificultades técnicas y teóricas que existen para discernir si un mercado es eficiente o si no lo es. El problema se hace aún mayor cuando se consideran las características técnicas de las medidas empíricas diseñadas para tal fin: éstas se basan en el análisis de las autocorrelaciones de las series y en la posibilidad de determinar patrones en las mismas que implicarían que existe cierta información que no es recogida por el mercado de forma inmediata, tal como implica la Hipótesis de los Mercados Eficientes (HME). De ahí que una buena forma de medir la eficiencia sea analizando estas autocorrelaciones de las series o, alternativamente, cualquier modelo de predicción contra la estrategia de comprar y mantener. Llegado este punto se hacen evidentes al menos dos saltos teóricos. Primero, se pasó de la necesidad de determinar si los precios incorporan toda la información disponible de forma inmediata a verificar si era posible realizar ganancias sistemáticas (o “morder al mercado”). Segundo, se trata de verificar dicha posibilidad basándose en el análisis de las relaciones lineales de la serie consigo misma. El primer salto es relativamente fácil de atenuar si se revisa con mayor profundidad el concepto de eficiencia; sobre el segundo hace falta desarrollar nuevas medidas, una de las cuales se propone en este documento. Con respecto al primer punto se debe tener presente que la imposibilidad de ganarle al mercado sistemáticamente y la incorporación en los precios de toda la información disponible, no es lo mismo; lo primero es una implicación de lo segundo. Sin embargo, puede darse el caso de que no sea posible realizar ganancias sistemáticas basándose en el análisis de autocorrelación y aun así de que exista cierta información que no sea correctamente reflejada por los precios de los activos; por ejemplo, si se utiliza para la predicción un modelo de series de tiempo con un desempeño muy pobre por fuera de muestra, pero con coeficientes individuales estadísticamente distintos de cero. De cualquier forma, las medidas basadas en el análisis de la autocorrelación son (tal vez por accidente) robustas ante esta crítica, ya que en caso de que los precios reflejen toda la información disponible (independientemente de que se pueda hacer dinero con el modelo estimado), tales correlaciones no deberían existir. En este sentido el análisis de autocorrelación es más válido que el de comparar estrategias de inversión para medir la eficiencia, ya que hace énfasis directamente en lo que se quiere medir y no en su consecuencia. Nótese algo más, en un mercado “sospechosamente” alcista, como el que es típico cuando se está inflando una burbuja financiera, la autocorrelación tiende a hacerse significativa. Igual sucede con un mercado bajista, que es el típico una vez la burbuja estalla3 . Este patrón no se manifiesta con la misma intensidad en todos 3 Sobre

este patrón recurrente véase Marichal (2010). En particular señala, refiriéndose a las crisis del 29 y subprime: “A su vez, en ambos casos las crisis fueron precedidas por un extraordinario auge bursátil, inflado a raíz de un notable incremento de la oferta de crédito por parte de firmas de inversión que desembocó en una serie de burbujas financieras” (Marichal, 2010, 317).


132

Cuadernos de Economía, 30(55), julio - diciembre de 2011

los mercados. Ninguna de estas situaciones es producto de los movimientos de los fundamentales de los activos financieros; son, por el contrario, fruto de diversos factores como la especulación, la exuberancia irracional, los espíritus animales o la histeria del inversionista, por ejemplo. En los dos casos anteriores las medidas de eficiencia basadas en la autocorrelación deberían advertir sobre las sospechosas tendencias del mercado y en efecto lo hacen (ver sección 3). La mala noticia para el inversionista es que, aun cuando se concluya que el mercado no es eficiente, esto no garantizará que sea posible “morder al mercado” en todo momento. Más aún, en un mercado alcista los agentes que tienen posiciones largas en los títulos tienden a ganar sistemáticamente y en un mercado bajista los agentes que tiene posiciones cortas también tienden a ganar sistemáticamente, y ambos procesos se retroalimentan y se convierten en profecías auto realizadas, de forma tal que cada vez es más difícil encontrar contrapartes para la transacción. Por supuesto, esto es cierto hasta que el proceso se invierta y las ganancias se acoten, y si el proceso tarda mucho en invertirse debe dudarse de la eficiencia del mercado. Aquí se pone de manifiesto el alcance de las medidas de eficiencia, más allá de la órbita del inversionista. Este punto es de suma importancia para el regulador, cuyo objetivo no es realizar ganancias especulativas, sino garantizar que los ciclos bajistas y alcistas del mercado respondan en mayor medida a los fundamentales económicos y no a la pura especulación, dados los altos costos que las crisis financieras representan para el bienestar social.

La eficiencia mejor pensada en términos relativos Un punto más que hace parte del análisis estándar sobre eficiencia es que ésta se puede pensar mejor en términos relativos; es decir, ante algún tipo de información (Campbell, Lo y MacKinlay, 1997). Una taxonomía muy frecuente es la propuesta por Roberts (1967): 1. Eficiencia en el sentido débil: el conjunto de información contra el cuál se plantea la eficiencia del mercado incluye únicamente la historia de los precios o los retornos. 2. Eficiencia en el sentido semi-fuerte: el conjunto de información incluye toda la información conocida por todos los participantes del mercado (información pública disponible). 3. Eficiencia en el sentido fuerte: el conjunto de información incluye toda la información conocida por algún participante del mercado (información privada). El enfoque que se basa en el estudio de las relaciones de dependencia temporal es adecuado para la eficiencia en el sentido débil. Por su parte, la eficiencia en el sentido fuerte se encuentra inmersa en una paradoja ineludible, que fue señalada


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

133

por Grossman y Stiglitz (1980)4 y que se explicará con mayor detalle más adelante. Hechas estas claridades, como se verá, el solo análisis de la eficiencia débil es lo suficientemente rico para mostrar la imposibilidad de los mercados de comportarse según predice la HME.

Eficiencia en el sentido de Pareto versus eficiencia en el sentido de Fama En este apartado se relacionan teóricamente la idea de la eficiencia en el sentido de Fama (informacional) con la eficiencia en el sentido de Pareto. Para lo anterior se hará referencia al clásico artículo de Rothschild y Stiglitz (1976) en el cual extienden intuitivamente el concepto de Equilibrio General Walrasiano al caso en que los agentes que intervienen en el mercado cuentan con distintos conjuntos de información. En este estudio los autores encuentran que las características tradicionales del Equilibrio General Walrasiano (EGW) no se mantienen en estos casos, en particular, no se conserva el Primer Teorema del Bienestar. El resultado de Arrow y Debreu (1954) sobre la existencia del equilibrio general plantea que siempre existe un vector de precios de equilibrio que vacía el mercado. Formalmente, siguiendo a Jehle y Renny (2001): si se considera una economía j i 5 (ui , ei , θij , Y j )i∈I,j∈J ), en la cual ∑ Y i y u satisfacen los supuestos usuales . Y en la que se cumple que y + i∈I e >> 0 para algún vector de producción ∑ agregado y ∈ j∈J Y j , entonces, existirá al menos un vector de precios p∗ >> 0, tal que z(p∗ ) = 0. ui es la utilidad del consumidor i, ei es la dotación inicial del consumidor i (con I consumidores), Y j es la función de producción de la empresa j (con j empresas), θij es la porción de los beneficios generados por la empresa j que le corresponde al consumidor i, y, finalmente, z(p∗ ) es el vector de excesos de demanda a los precios de equilibrio p∗ . Este vector de precios p∗ de equilibrio da lugar a asignaciones que se encuentran en el núcleo de la economía, es decir, que son eficientes en el sentido de Pareto (no es posible mejorar el resultado de la asignación walrasiana para algún agente en el mercado, sin disminuir el bienestar de algún otro). Lo anterior es, por supuesto, el Primer Teorema del Bienestar del EGW. Al respecto Rothschild y Stiglitz (1976) muestran cómo la incertidumbre por sí sola no invalida los resultados clásicos del EGW. En particular, ya no será posible trabajar con funciones de utilidad bajo certeza, sino con funciones de utilidad esperada, las cuales fueron propuestas por von Neumann y Morgenstern (1944), pero los resultados de equilibrio continuarán inalterados. No obstante, una vez se 4 Fama (1990) modifica, posteriormente, el postulado general de la HME como consecuencia de este

señalamiento. j saber: ui es continua, estrictamente creciente y estrictamente cuasicóncava en ℜn + y Y saj es cerrado y acotado y Y j es estrictamente tisface que 0 ∈ Y j ⊆ Rn , Y j ∩ ℜn = {0}, Y + convexa.

5A


134

Cuadernos de Economía, 30(55), julio - diciembre de 2011

rompe el supuesto de información simétrica y se permite que algunos agentes en el mercado tengan información distinta a la de los demás6 , sólo existe una forma en la que se sostiene el Primer Teorema del Bienestar: la situación en la que todos los agentes comparten iguales preferencias por el riesgo. De lo contrario, basta con que existan dos tipos distintos de agentes para que los resultados de equilibrio del mercado lleven a asignaciones que pueden no ser eficientes en el sentido de Pareto. El trabajo subraya entonces la imposibilidad de garantizar que los precios reflejen siempre toda la información disponible, cuando los agentes toman sus decisiones con base en diferentes conjuntos de información. De hecho es este impedimento el que lleva a que los equilibrios de separación o de agrupamiento que deberían operar en estos casos no funcionen, y el equilibrio del mercado muchas veces podría corresponder a la desaparición del mercado. Nótese la relación directa que hay entre la eficiencia informacional y la eficiencia en el sentido de Pareto7 . La primera es condición necesaria, más no suficiente para garantizar la segunda. La palabra garantizar en el párrafo anterior enfatiza en que existen algunos casos, poco probables, en los que ciertas configuraciones del mercado lleven a un equilibrio en el cual se cumpla el Primer Teorema del Bienestar, aun bajo información asimétrica. La condición sigue sin ser suficiente, porque incluso cuando el mecanismo de precios opere eficientemente en el sentido informacional, pueden existir rigideces en el corto plazo que impidan su adaptación.

Sobre la imposibilidad de la eficiencia informacional (en el sentido fuerte) Otro trabajo de Stiglitz, ahora con Grossman (Grossman y Stiglitz, 1980) subraya una falla más de la HME. El argumento general es el siguiente: si se parte del supuesto de que la información es costosa y los mercados son eficientes, entonces nadie tendrá incentivos para incurrir en el costo de la información. Será más rentable y, por ende, un comportamiento racional, esperar a que los precios reflejen toda la información disponible, incluida aquella que es costosa. No habrá que esperar mucho en todo caso, porque la HME garantiza que esta información se incorpore en el precio instantáneamente. No obstante, puesto que todos los agentes tienen los mismos incentivos, ninguno incurrirá en el costo de la información, razón por la cual será imposible que los precios la reflejen. Esta paradoja opera en particular contra la HME definida en el sentido fuerte: bien los mercados son eficientes o bien la información es costosa. No obstante, puede 6 En el caso estudiado por los autores, que es el mercado de seguros, se permite que quienes contratan

el seguro conozcan más sobre su propio comportamiento y su propensión a tener accidentes que las empresas aseguradoras. 7 Dicho de otra forma, si no hay eficiencia en la información, ya que los precios no recogen la información disponible porque la información es asimétrica, no se cumple el primer teorema del bienestar, que establece que todas las asignaciones del EGW serán Pareto-Eficientes.


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

135

argumentarse (Fama, 1991) que ésta no invalida la hipótesis en el sentido débil o semi-fuerte (ya que en estos se supone que la información no es costosa). Las repercusiones de esta paradoja son más hondas de lo que parece a primera vista. Si se anula la eficiencia de mercados en el sentido fuerte, se anula el resultado de la eficiencia informacional y se elimina la garantía teórica de que se llegará a una situación de equilibrio en la cual se cumpla el Primer Teorema del Bienestar. De lo anterior se desprende que el análisis de la eficiencia debería concentrarse en las alternativas débil y semi-fuerte. En este trabajo se pretende explorar la eficiencia de los mercados en el sentido débil, lo cual puede servir para alertar al regulador sobre fallas informacionales persistentes de los mercados. No obstante, si se encuentra que los mercados son eficientes en el sentido débil, en ningún caso deberá ser tomado como prueba de que el mercado es eficiente en el sentido de Pareto (para eso debería serlo en el sentido fuerte).

SOBRE CAMINATAS ALEATORIAS Y JUEGOS JUSTOS La contraparte empírica de estos precios que se determinan aleatoriamente son los procesos de caminatas aleatorias o más generalmente las martingalas. Una martingala es básicamente un juego en el que nadie posee algún tipo de ventaja y en el que la evolución de las ganancias es aleatoria. En estos es imposible inferir el valor futuro del precio utilizando cualquier tipo de estimador lineal o no lineal y el valor esperado de los retornos es cero, condicionado a la historia del juego. Aunque las martingalas subyacen a cualquier tipo de medición de la eficiencia, los instrumentos más utilizados en las pruebas de este tipo son las caminatas aleatorias que son más específicas que éstas. Una caminata aleatoria puede ser descrita por el siguiente proceso: Pt = µ + Pt−1 + ϵt

(1)

Siendo µ el cambio esperado en el precio o la deriva y ϵt un término de perturbación o incremento esperado en el precio del activo, que se distribuye, según lo restringida que sea la hipótesis que se quiere probar de caminata aleatoria, así: Caminata aleatoria tipo 1 (RW 1) : ϵt ∼ IID(0, σ 2 ) es un proceso independiente e idénticamente distribuido. Caminata aleatoria tipo 2 (RW 2) : ϵt ∼ IN ID(0, σ 2 ), es un proceso independiente, pero no idénticamente distribuido. Caminata aleatoria tipo 3 (RW 3) : ϵt es un proceso que no es independiente, ni está idénticamente distribuido, pero cuya autocorrelación serial en niveles es igual a cero; es decir, alberga casos como: Cov(ϵt , ϵs ) = 0∀t ̸= s,


136

Cuadernos de Economía, 30(55), julio - diciembre de 2011

pero en donde Cov(ϵ2t , ϵ2s ) ̸= 0∀t ̸= s. En otras palabras, puede haber dependencia, pero no correlación. Cada una de estas hipótesis (RW 1, RW 2 y RW 3) es más laxa que la anterior y en la práctica los estadísticos de eficiencia utilizados casi siempre se refieren a la tercera hipótesis (RW 3). También es usual suponer normalidad en la distribución de los residuos y log-normalidad de la variable explicada, para simplificar el análisis y la estimación. Por lo anterior, conviene trabajar sobre los logaritmos de los precios (que se denotarán en adelante con letras minúsculas) y no sobre los precios en niveles, ya que dada la forma de la distribución normal estándar, sería teóricamente posible el caso de precios negativos. La siguiente es la versión en logaritmos de la ecuación de precios. pt = µ + pt−1 + ϵt conϵt ∼ N (0, σ 2 )

(2)

En este documento se plantea una alternativa para el cálculo del RW 2, que permitirá acercarse a lo que se pretende modelar teóricamente. En pocas palabras se trascienden los paradigmas de la linealidad y la normalidad, que no están justificados en el análisis de eficiencia.

Pruebas empíricas estándar Una vasta cantidad de pruebas se ha desarrollado para verificar que los precios de las acciones en bolsa siguen caminatas aleatorias. El estudio de la eficiencia de mercado se remonta a Bachelier (1900) y pasa por los trabajos de Working (1934), Kendall (1953), Samuelson (1965), Mandelbrot (1966) y Fama (1970), por mencionar unos pocos. Asimismo, los estadísticos propuestos incluyen los análisis de secuencias, reversas y corridas; las reglas de filtreo; el análisis técnico; el análisis de autocorrelación; la razón de varianzas; las inferencias para horizontes largos de tiempo; el rango de dependencia de largo plazo; entre otros. Los más usuales, el análisis de autocorrelación a través del estadístico Q de Box y Pierce (1970) y las razones de varianza desarrolladas por Lo y MacKinlay (1988). Análisis de autocorrelación Se parte de que bajo la hipótesis de RW todas las autocorrelaciones seriales son cero. Un test útil para probar este hecho es el estadístico Q de Box y Pierce (1970) –en general estadístico de Pormanteau–, dado por la siguiente ecuación: Qm ≡ n

m ∑

ρ2 (k)a∼ χ2m

(3)

k=1

O la versión de Ljung y Box (1978) que es más robusta en muestras pequeñas: Q∗m ≡ n(n + 2)

m a ∑ ρ2 (k) 2 χ n − k∼ m

k=1

(4)


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

137

En esta ecuación, n es el número de observaciones, k el contador de la sumatoria, m el rango en el que se mide la autocorrelación, ρ el coeficiente de autocorrelación y la letra griega χ2m indica la distribución que sigue el estadístico (con m grados de libertad). La hipótesis nula en este caso es que todas las autocorrelaciones son cero, de modo que si se rechaza lo que indica es que al menos una no es cero.

Razón de varianzas Esta sección sigue de cerca el texto de Campbell et al. (1997). Siendo rt el retorno compuesto continuo (diferencia de los logaritmos del precio pt − pt−1 ) producido durante un período para un activo Z y siendo rt (2) = rt + rt−1 , si la serie de los retornos es estacionaria y se divide la varianza de la segunda expresión entre dos veces la varianza de la primera, se tienen una razón de varianzas (V R) dada por: V R(2) =

V ar(rt (2)) = 1 + ρ(1) 2V ar(rt )

(5)

En otras palabras, la razón de varianzas de los retornos de un período sobre los retornos acumulados de dos períodos ρ(1) es 1 más el coeficiente de autocorrelación de primer orden. Para el caso de los RW esta razón es 1 ya que todos los coeficientes de autocorrelación son iguales a cero. La generalización de la expresión para retornos acumulados en q períodos está dada por: ) q−1 ( ∑ V ar(rt (q)) k V R(q) = 1− =1+2 ρ(k) qV ar(rt ) q

(6)

k=1

Si se cumple la hipótesis de RW 3 la expresión será uno sin importar el número de retornos acumulados que se tomen. Bajo la hipótesis nula dada por Ho: Ho : rt = µ + ϵt con ϵt ∼ N ID(0, σ 2 ) Con 2n+1 logaritmos de los precios de los títulos (p0 +p1 +, . . . , p2n ) se requiere estimar la media µ y la varianza σ 2 del proceso, lo cual se puede hacer mediante: 1 ∑ 1 (pk − pk−1 ) = (p2n − p0 ) 2n 2n

(7)

1 ∑ (pk − pk−1 − µ ˆ )2 2n

(8)

1 ∑ (p2k − p2k−2 − µ ˆ)2 2n

(9)

2n

µ ˆ=

k=1 2n

σ ˆa2 =

k=1 2n

σ ˆb2 =

k=1


138

Cuadernos de Economía, 30(55), julio - diciembre de 2011

En este caso, los dos primeros son los estimadores de media y varianza que maximizan la función de verosimilitud y el tercero aprovecha la naturaleza de los RW seguidos por pt y bajo la hipótesis de RW 3, la media y la varianza de los incrementos en el precio son lineales en el intervalo del incremento, así que σ 2 puede ser estimada por la ecuación [9]. En teoría asintótica convencional los tres estimadores son fuertemente consistentes, por lo que se puede probar que la razón de estas varianzas se distribuye asintóticamente como: (√ )a 2 ˆR(2) − 1) 2n( V σ ˆ b √ N (0, 1) (10) VˆR ≡ 2 σ ˆa 2n ∼

Junto con la generalización de este análisis en q periodos acumulados de retornos se comprimirán dos pasos más. Se corregirá el sesgo que tienen los estimadores de verosimilitud en la estimación de la verdadera varianza y se utilizará el mayor número de datos posible sobreponiendo los datos, como si se tratase de una ventana móvil. Se tendrá entonces que: 1 ∑ = (pk − pk−1 − µ ˆ)2 nq − 1 nq

σ ¯a2

(11)

k=1

σ ¯c2

( ) nq q 1 ∑ 2 (pk − pk−q − q µ ˆ) , donde m = q(nq − q + 1) 1 − (12) = m nq k=1

Con la siguiente razón de varianzas generalizada: σ 2¯(q) V¯R(q) ≡ c 2 σa

(13)

Se tendrá entonces: ψ(q) ≡

( ng(V¯R(q) − 1)

2(2q − 1)(q − 1) 3q

)(−1/2) ∼a N (0, 1)

(14)

El estadístico ψ(q) permite determinar cuándo la razón de varianzas es estadísticamente igual a 1. Por ejemplo, con un nivel de confianza del 95 por ciento, si el estadístico cae por fuera del intervalo [−1, 96; 1, 96] la hipótesis de caminata aleatoria podrá ser rechazada con un 5 por ciento de significancia. El estadístico ψ no es robusto ante la heteroscedasticidad y puede llevar a que se rechacen hipótesis nulas de RW 3 debido a que la varianza cambia en el tiempo. Lo y Mackinlay (1988) definen una nueva hipótesis nula compuesta Ho∗ con 4 condiciones: E(ϵt ) = 0, ∀t y E(ϵt ϵs ) = 0, ∀t ̸= s.


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

139

r ϵt es una perturbación ϕ-combinada con coeficientes Φ(m) de tamaño (2r−1) r o es α-combinada con coeficientes α(m) de tamaño (r−1) , donde, para todo

t y para todo τ ≥ 0 existe algún δ > 0 para el cual E[|ϵt ϵt+τ |2(r+δ) < ∆ < ∞]. ∑nq 1 2 2 limnq→∞ nq t=1 E(ϵt ) = σ < ∞. E (ϵt ϵt−j , ϵt ϵt−k ) = 0, ∀t, ∀j, k ̸= 0, k ̸= j. Las definiciones de ϕ-combinada y α-combinada se presentan en White (1984). Lo que esta hipótesis nula compuesta expresa se resume en que, por una parte, especifica la ausencia de correlación que interesa probar en los RW 3 (primera condición) y por otra, deja cierto margen de maniobra para introducir algún tipo de variabilidad en el tiempo de la varianza (condiciones 2 y 3). La condición 4 implica que los coeficientes de autocorrelación en la muestra están asintóticamente no correlacionados (Campbell et al., 1997). Bajo Ho∗ , el estadístico V¯R(q)−1 converge fuertemente8 a 0 para todo incremento no acotado q y n. El siguiente es un estimador heterocesdásticamente robusto y consistente de δˆk : ∑nq (nq j=k+1 (pj − pj−1 − µ ˆ)2 (pj−k − pj−k−1 − µ ˆ )2 ) ˆ ∑nq δk = (15) [ j=1 (pj − pj−1 − µ ˆ)2 ]2 Siendo δˆk la varianza asintótica de los coeficientes de autocorrelación muestrales ρˆ(k). ˆ El siguiente es un estimador heterocesdásticamente robusto y consistente de θ(q): ˆ =4 θ(q)

)2 q−1 ( ∑ k 1− δˆk q

(16)

k=1

ˆ la varianza asintótica de la razón de varianzas insesgada definida en Siendo θ(q) la ecuación (13). De lo anterior se puede concluir que ψ ∗ (q) es un estadístico de prueba que involucra el hecho de que puede presentarse cualquier forma generalizada de heterocedasticidad: √ a nq(V¯R(q) − 1) √ ψ ∗ (q) = N (0, 1) (17) ˆ θ(q) ∼

Este es el estadístico de razón de varianzas empleado habitualmente en la literatura contemporánea para poner a prueba la HM E en su versión débil, suponiendo normalidad en la distribución de los retornos. El uso que se hace del estadístico 8 Almost

sure convergence.


140

Cuadernos de Economía, 30(55), julio - diciembre de 2011

tiene al menos dos fallas. La primera es que se calcula estáticamente, es decir, uno para cada mercado. Este método excluye la posibilidad de que un mismo mercado sea eficiente o ineficiente condicional al período y al tipo de situación en la cual se encuentre la economía: en épocas alcistas, bajistas, de burbuja, entre otros. La segunda es que sólo produce una estimación confiable cuando los retornos son normales. Las series de tiempo financieras exhiben características muy conocidas (ver nota al pie 11) que hacen que el supuesto de normalidad condicional sea imposible de sostener en la estimación. En la siguiente sección se propone una alternativa para el cálculo empírico de la eficiencia.

Cópulas de independencia: una alternativa empírica para la medición de la eficiencia El problema de la razón de varianzas, como herramientas empírica para la medición de la eficiencia, es que a pesar de incorporar explícitamente un ajuste por heteroscedasticidad, sigue haciendo énfasis en la estimación de relaciones lineales en la historia de la serie. No obstante, la HM E en su acepción teórica, no dice nada sobre una relación lineal entre el pasado y el presente de la serie: plantea en general la imposibilidad de dependencia en la serie, tanto lineal como no lineal. Vale la pena aclarar que una relación de dependencia en la varianza como la supuesta por los modelos de Heteroscedasticidad Condicional Autorregresiva (ARCH)9 no invalida la HM E, pero sí lo haría cualquier relación no lineal que opere sobre la media de la serie. Ambos puntos se consideran dentro de la medida propuesta en esta sección. Una alternativa para la contrastación empírica de la eficiencia es el uso de las cópulas, como forma más general para el cálculo de dependencias. Éstas se definen en una escala cuantílica y no están atadas en términos generales al supuesto de normalidad subyacente a las correlaciones de Pearson. Formalmente, una cópula es una función de distribución multivariada tal que: C : [0, 1]n → [0, 1]

(18)

Siendo n las series bajo estudio y C la cópula. En la ecuación (18) se expresa el mapeo desde el hipercubo unitario n dimensional al intervalo unitario, de forma tal que se cumple el teorema de Sklar (1959). Teorema de Sklar (1959). Sea F una función de distribución multivariada con marginales F1 , . . . , Fn (no necesariamente continua). Entonces, existe una cópula C : [0, 1]n → [0, 1], tal que, para todo x1 , . . . , xn en R = [−∞, ∞], F (x1 , . . . , xn ) = C(F1 (x1 ), . . . , Fn (xn )) 9 Este

(19)

modelo fue originalmente planteado en Engle (1982) y su generalización más popular se encuentra en Bollerslev (1986).


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

141

Si las marginales son continuas, entonces C es única; en otro caso C está únicamente determinada por el Rango(F1 ) × Rango(F2 ) × . . . × Rango(Fn ), donde, Rango(Fi ) = Fi (ℜ). Conversamente, si C es una cópula y F1 , . . . , Fn son funciones de distribución univariadas, entonces la función F definida en la ecuación (19) es una función de distribución multivariada con marginales F1 , . . . , Fn . Para una explicación más completa ver Becerra y Melo (2008) o McNeil, Frey y Embrechts (2005). Note que si la variable aleatoria Xi tiene una función de distribución Fi continúa, entonces se tiene que: Fi (Xi ) ∼ U (0, 1)

(20)

De la misma forma, si U ∼ U (0, 1) entonces Fi−1 (U ) ∼ Fi , donde Fi−1 es la función de distribución inversa de Fi , definida como: Fi−1 (α) = nf (x ∈ ℜ : Fi (x) ≥ α)

(21)

De la ecuación (20) se tiene que: xi = Fi−1 (ui ) para i = 1, 2, . . . n

(22)

C(u1 , . . . , un ) = F (F1−1 (u1 ), . . . , Fn−1 (un ))

(23)

Obteniéndose:

La expresión anterior implica que la cópula puede ser representada en términos de la función de distribución multivariada F y sus distribuciones marginales F1 , . . . , Fn . Por otro lado, partiendo de F, F1 , . . . , Fn y ui = F (xi ) para i = 1, 2, . . . n, se tiene que: F (x1 , . . . , xn ) = P (X1 ≤ x1 , . . . , Xn ≤ xn ) = P (F1−1 (X1 ) ≤ F1−1 (x1 ), . . . , Fn−1 (Xn ) ≤ Fn−1 (xn ))

(24)

= P (U1 ≤ u1 , . . . , Un ≤ un ) = C(u1 , . . . , un ) En este estudio las funciones de distribución marginales pueden ser entendidas como las funciones de los retornos de las series financieras en diferentes momentos o con diferentes rezagos. La cópula no impone un número de restricciones en la dimensión de la estimación, lo cual permite que se constituya como una medida más general de la dependencia que las razones de varianza. Para el caso de las cópulas de independencia, se supondrá que existen dos variables aleatorias x1 y x2 y que ambas son independientes, por lo tanto, su función de distribución conjunta es igual a: F (x1 , x2 ) = F1 (x1 ) · F2 (x2 )

(25)


142

Cuadernos de Economía, 30(55), julio - diciembre de 2011

En el caso de independencia la función de distribución conjunta es igual al producto de las funciones de distribución marginales y gracias a las definiciones presentadas en la ecuación (24) se obtiene que: F (x1 , x2 ) = P (X1 ≤ x1 , X2 ≤ x2 ) = P (F1−1 (X1 ) ≤ F1−1 (x1 ), F2−1 (X2 ) ≤ F2−1 (x2 )) = P (U1 ≤ u1 , U2 ≤ u2 ) = u 1 u2 = C(u1 , u2 )

(26)

En forma general para el caso de n dimensiones la cópula de independencia estará dada por (Becerra y Melo, 2008): C(u1 , . . . , un ) = Πnj=1 uj

(27)

Método de estimación de las cópulas de independencia En este documento se hace uso de la prueba planteada por Genest y Rémillard (2004), la cual consiste, básicamente, en comparar los cuantiles de la cópula empírica que describen los datos con los de una cópula de independencia simulada, a través de un estadístico propuesto por los autores. Si la evidencia lleva a no rechazar la hipótesis nula de independencia entre las funciones de distribución marginales (en este caso la serie y sus rezagos), la eficiencia estará garantizada, al menos en el sentido de la hipótesis RW 2. Vale la pena mencionar que, tal y como se puede observar en la ecuación (24), la cópula no está definida sobre las series de estudio directamente, sino sobre una seudo muestra: (u1 , . . . , un ) con ui = F (xi ). El proceso de construcción de la seudo muestra propuesto por McNeil et al. (2005) y Carmona (2004) consiste en utilizar un método semiparamétrico para aproximar la función de distribución. La parte central de las distribuciones se aproximan empíricamente y las colas mediante la utilización de la Teoría del Valor Extremo (TVE). Este método permite construir distribuciones de probabilidad con mayor ajuste para las series financieras10 . Un ajuste adicional sobre la serie, necesario antes de estimar la cópula, es la modelación de la varianza, ya que la seudo muestra se construye a partir de la serie estandarizada y no sobre la serie original. Este proceso elimina la dependencia en segundo momento, característica de las series financieras, la cual como se mencionó antes, no interfiere con la HM E. La estimación de la varianza condicional se hace mediante modelos GARCH 11 (1,1). El procedimiento anterior es empíricamente contrastable mediante el estadístico de prueba de Kolmogorov Smirnoff (KS). En este trabajo se calculó el estadístico 10 Las series financieras tienen características muy reconocidas:

y asimétricas (Christoffersen, 2003). 11 Generalized Autoregressive Conditional Heteroscedasticity.

al ser heterocedásticas, leptocúrticas


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

143

KS para la serie de la seudo muestra de cada mercado y en ningún caso se puede rechazar la hipótesis nula de uniformidad (0, 1). También se recurrió a la inspección gráfica de los histogramas de la seudo muestra y a una gráfica cuantil-cuantil entre una distribución uniforme (0, 1) simulada y la muestra construida bajo el procedimiento anterior. Ninguna de las pruebas permite rechazar la hipótesis nula de ajuste del modelo semiparámetrico estimado para las series bajo estudio. El trabajo de Becerra y Melo (2008) encuentra un ajuste similar para las series colombianas, también con un enfoque semiparámétrico y un modelo GARCH(1, 1) para la estandarización.

RESULTADOS En este estudio se trabajó con los datos de índices bursátiles de diez países, buscando contrastar los mercados latinoamericanos con los del resto del mundo e intentando plantear la eficiencia en términos relativos, de acuerdo con Campbell et al. (1997). Los índices bursátiles utilizados fueron: IGBC (Colombia), IPC (México), IBOVESPA (Brasil), MERVAL (Argentina), S&P500 (Estados Unidos), FTSE (Inglaterra), SSMI (Suiza), NIKKEI 225 (Japón), HSI (Hong Kong), BSESN (India)12 . Se construyeron estadísticos de razones de varianza heterocedásticamente robustos como los planteados en la ecuación (17) para cada mercado desde julio de 2001 hasta agosto de 2010. Estas razones de varianza se construyeron para todo el periodo muestral y para diferentes momentos, con una ventana móvil de 1.000 datos (aproximadamente 4 años de transacción). La medida estándar en la literatura es la razón de varianza para todo el periodo de análisis, que capta básicamente las relaciones lineales de dependencia. Esta medida estándar se refina aquí con el cálculo de razones de varianza con una ventana móvil, con las cuales se pretende observar mejor la dinámica en los mercados. Igualmente, se construyeron razones con diferentes rezagos, desde un día hasta treinta días, para cada país en cada momento de tiempo. Esta información se reporta en las Gráficas 1A y 2A de los anexos, junto con los valores críticos del estadístico. Las gráficas discriminan entre tres tipos de mercados: los que se comportan eficientemente durante todo el periodo muestral; aquellos que lo hacen parcialmente, durante la mayor parte; y los que se comportan ineficientemente mayoritariamente. Los mercados más eficientes, en el sentido débil, durante el período de estudio son Japón (NIKKEI 225) y Argentina (MERVAL). La descripción de los estadísticos 12 Se analizó también el mercado de Chile,

pero no se presentan los resultados puesto que la información disponible sólo comprende desde septiembre de 2003 y el período de estudio comienza antes, en julio de 2001.


144

Cuadernos de Economía, 30(55), julio - diciembre de 2011

responde a lo que cabría esperarse bajo la HEM. El estadístico nunca sobrepasa las bandas de confianza al 95 y 99 por ciento. Los mercados eficientes parcialmente presentan un estadístico que se mantiene predominantemente entre las bandas de confianza al 95 y 99 por ciento. Estos mercados son Brasil (IBOVESPA), Hong Kong (HSI), India (BSESN) y Suiza (SSMI), como se puede observar en la Gráfica 1A. Los mercados menos eficientes son los mercados de Colombia (IGBC), Estados Unidos (S&P500), Inglaterra (FTSE) y México (IPC). En estos mercados el estadístico asociado se sale recurrentemente de las bandas de confianza al 95 y 99 por ciento, sobre todo al 95 por ciento. Por ejemplo, el mercado estadounidense es ineficiente desde finales de junio de 2006 hasta octubre de 2008 en mayor medida, pero continúa siéndolo a mediados de agosto de 2010 (al 99 por ciento de confianza). Lo anterior está asociado con la fase final de la burbuja inmobiliaria de ese país, la cual también afectó las cotizaciones bursátiles de las empresas que transan en bolsa, particularmente de las firmas financieras. El anterior análisis también se puede aplicar al mercado de capitales inglés, en el cual el período de ineficiencia va desde inicios de junio de 2006 hasta finales de septiembre de 2008. La diferencia radica en que a partir de esa fecha el mercado inglés se estaría comportando eficientemente, lo cual no sucede en los Estados Unidos. Lo anterior podría dar indicios de una sobre reacción superior por parte de los agentes en el mercado americano en relación con el inglés. La caída de la bolsa estadounidense al momento de desinflarse la burbuja financiera, al ser aún más acentuada que la de la bolsa en Inglaterra, implicó una mayor correlación serial, que se tradujo en valores más grandes de los estadísticos de las razones de varianza. En el caso colombiano, el mercado es ineficiente, según la razón de varianzas dinámica, desde el comienzo del periodo de análisis hasta finales de 2009 al 95 por ciento, y finales de 2008 al 99 por ciento. Los resultados aquí descritos se corroboran con el estadístico de la razón de varianzas para cada mercado, con diferentes rezagos. Con este estadístico se logra captar cuantos días tarda un mercado para ajustar la información, de acuerdo con la HME. En la Gráfica 2A se presenta este estadístico para algunos mercados, en las fechas en las cuales se estimó con mayor valor absoluto (período de mayor ineficiencia). En la Gráfica 2A se observa que dentro de los mercados menos eficientes, el tiempo que tarda en incorporarse la información en el precio difiere. Mientras que en el caso de Estados Unidos e Inglaterra ésta se tiende a incorporar más rápidamente, en el caso colombiano no termina de reflejarse en el precio ni siquiera después de mes y medio de transacciones, al 99 por ciento de confianza.


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

145

Medidas similares se estimaron para todos los mercados, en cada día. Las gráficas no se presentan13 , pero en general lo que se observa es que en los mercados más profundos en épocas de ineficiencia la información se incorpora más rápidamente que en los menos desarrollados. Al estimar las razones de varianza, ya no para una ventana móvil de cuatro años sino para la muestra total, se obtiene el estadístico estándar en la literatura de la razón de varianzas. Los resultados de él se presentan en los Cuadros 1 y 2 junto con los resultados obtenidos con las cópulas de independencia. Como ya se explicó metodológicamente, la estimación de cópulas de independencia corresponde a una prueba de la HM E más general, puesto que identifica tanto relaciones lineales como no lineales entre los retornos de los índices bursátiles. Así pues, no se debe encontrar que un mercado sea ineficiente según una razón de varianzas y que sea eficiente con una comparación de cópulas. En el Cuadro 1 se muestra que Colombia, según la razón de varianzas para toda la muestra, es el único mercado ineficiente al 99 por ciento de confianza. Si se refina el intervalo de confianza hasta el 95 por ciento, pasan a ser ineficientes también los mercados de Estados Unidos y México. Al analizar los resultados de las cópulas, como una medida más refinada de la eficiencia, ningún mercado es eficiente al 95 por ciento de confianza (Cuadro 2); es decir, en ellos se presentan relaciones de dependencia entre los retornos de la índices bursátiles lineales y no lineales. Al relajar el intervalo de confianza al 99 por ciento, son eficientes los mercados de Japón, Argentina, Suiza y Hong Kong – como era de esperarse por lo encontrado con las razones de varianza. Estos últimos dos mercados tuvieron lapsos cortos de ineficiencia que se observan en las razones de varianza, pero son mercados que predominantemente ajustan sus precios y no sobre reaccionan, mostrando así comportamientos acordes con la HME. Finalmente, en la Gráfica 3A se presentan los índices bursátiles y las razones de varianza de tres de los mercados menos eficientes (Estados Unidos, Inglaterra y Colombia). Se observa que los períodos de mayor ineficiencia están asociados con burbujas; principalmente con las fases de mayor ascenso en los precios, por encima de sus fundamentales antes del estallido de la burbuja y con el período de ajuste posterior. En el caso de Estados Unidos e Inglaterra lo que se presenta son los momentos cúspide de la burbuja residencial y financiera que comenzó en los años noventa y estalló entre 2007 y 2009. En Colombia, el ascenso del IGBC antes de 2006 estuvo asociado con una sobrevaloración de los activos internos, producto de un exceso de liquidez en el mercado (Uribe, 2007), que fue corregido para esta fecha por parte de las autoridades monetarias, mediante incrementos sucesivos en la tasa de interés de referencia.

13 Pueden

ser solicitadas a los autores, a través de correo electrónico.


Estadístico 1,24 -0,65 2,72 -2,24 0,05 1,50 -1,44 -0,16 2,02 -0,43

Valor Crítico 99 % 2,330 2,330 2,330 2,330 2,330 2,330 2,330 2,330 2,330 2,33

Hipótesis Eficiencia (99 %) No se rechaza No se rechaza Se rechaza No se rechaza No se rechaza No se rechaza No se rechaza No se rechaza No se rechaza No se rechaza

Valor Crítico 95 % 1,645 1,645 1,645 1,645 1,645 1,645 1,645 1,645 1,645 1,65

Nota 1. Valor crítico 99 % (2,33). Nota 2. Valor crítico 95 % (1,645). Fuente: elaboración propia con base en datos de los índices bursátiles disponibles en www.yahoo.finance.

País Argentina Brasil Colombia Estados Unidos China (Hong Kong) India Inglaterra Japón México Suiza

CUADRO 1. ESTADÍSTICO DE EFICIENCIA BASADO RAZONES DE VARIANZA (JULIO DE 2001-AGOSTO DE 2010) Hipótesis Eficiencia (95 %) No se rechaza No se rechaza Se rechaza Se rechaza No se rechaza No se rechaza No se rechaza No se rechaza Se rechaza No se rechaza

146 Cuadernos de Economía, 30(55), julio - diciembre de 2011


Estadístico 0,0610 0,0925 1,0268 0,3136 0,0804 0,2823 0,1427 0,0848 0,2051 0,0783

Valor Crítico 99 % 0,086 0,086 0,086 0,086 0,086 0,086 0,086 0,086 0,086 0,086

Hipótesis Eficiencia (99 %) No se rechaza Se rechaza Se rechaza Se rechaza No se rechaza Se rechaza Se rechaza No se rechaza Se rechaza No se rechaza

Valor Crítico 95 % 0,059 0,059 0,059 0,059 0,059 0,059 0,059 0,059 0,059 0,059

Nota 1. Valor crítico 99 % (0,08597617). Nota 2. Valor crítico 95 % (0,05921396). Fuente: elaboración propia con base en datos de los índices bursátiles disponibles en www.yahoo.finance.

País Argentina Brasil Colombia Estados Unidos China(Hong Kong) India Inglaterra Japón México Suiza

Hipótesis Eficiencia (95 %) Se rechaza Se rechaza Se rechaza Se rechaza Se rechaza Se rechaza Se rechaza Se rechaza Se rechaza Se rechaza

CUADRO 2. ESTADÍSTICO DE EFICIENCIA BASADO EN CÓPULAS DE INDEPENDENCIA ( JULIO DE 2001-AGOSTO DE 2010)

Revisando la hipótesis de los mercados eficientes Jorge Mario Uribe y Inés María Ulloa

147


148

Cuadernos de Economía, 30(55), julio - diciembre de 2011

CONCLUSIONES Las conclusiones de esta investigación apuntan en dos direcciones. Primero, le revisión de la literatura indica un claro nexo entre eficiencia informacional y eficiencia en el sentido de Pareto, luego es importante estudiar la eficiencia informacional; con este marco teórico en mente se procede a las conclusiones empíricas. Del análisis del trabajo de Rostchild y Stiglitz (1976) y Stiglitz (1981) se puede ver que la eficiencia en el sentido de Fama (1970), también conocida como eficiencia en la información, puede ser entendida como una condición necesaria más no suficiente para que los mercados financieros sean eficientes en el sentido de Pareto. Cualquier recomendación de política económica deberá tener en cuenta esta relación. A pesar de las limitaciones teóricas del concepto de eficiencia, sobretodo en el sentido fuerte y que fueron señaladas claramente en Grossman y Stiglitz (1980), ésta sigue constituyendo una propiedad deseable de los mercados financieros, toda vez que es una condición necesaria para garantizar que se cumpla el Primer Teorema del Bienestar. De lo anterior se desprende la necesidad de revaluar las posiciones que pretenden desligar los conceptos de eficiencia informacional y en la asignación (Hyme, 2003). Las aproximaciones metodológicas estándar para medir la eficiencia en el sentido débil, básicamente a través de razones de varianza y estadísticos de correlación serial, presentan dos debilidades: 1. Son medidas estáticas que no tienen en cuenta que un mismo mercado en distintos momentos puede pasar de ser eficiente a ser ineficiente, o lo contrario, dependiendo por ejemplo de la aparición de burbujas especulativas en su interior14 . 2. Sólo miden dependencias lineales en los niveles de los retornos, es decir, contrastan una caminata aleatoria de tipo 3 (RW3) en la tipología de Campbell et al. (1997), lo cual es mucho más restrictivo que el concepto teórico de eficiencia, que nunca impone los conceptos de linealidad y de normalidad. Lo primero se puede solucionar con el cálculo de razones de varianza heterocedásticamente robustas en forma dinámica, a través de ventanas móviles, como se hace en este documento y lo segundo, mediante la estimación del estadístico de independencia propuesto por Genest y Rémillard (2004), basado en las cópulas empíricas de los datos y una cópula de independencia simulada. Al aplicar estas mejoras en la estimación para los datos de diez mercados financieros en el mundo (Colombia, México, Argentina, Brasil, Estados Unidos, Inglaterra, Suiza, India, Hong Kong y Japón), se encuentra que difícilmente la HME se mantiene durante el periodo analizado (enero de 2001 a agosto de 2010). 14 La

relación entre burbujas y eficiencia en el mercado requiere de un mayor estudio al que se presenta en este trabajo. Futuras investigaciones podrán apuntar en esta dirección.


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

149

Al 99 % de confianza sólo cinco mercados resultan eficientes, en tanto que al 95 % no lo es ninguno, según la medida basada en cópulas. El resultado se captura mejor mediante el uso de razones de varianza dinámicas y cópulas, que mediante las razones estáticas o los coeficientes de autocorrelación. Según los hallazgos de este trabajo, los mercados que tienden a sobre reaccionar ante los choques y que por ende son propensos a crear burbujas, se comportan de forma menos eficiente que aquellos que no. De la misma forma, existen mayores indicios de ineficiencia informacional en los períodos expuestos a grandes choques que en aquellos de relativa calma. Investigaciones más profundas deberán hacerse sobre la relación teórica y empírica entre burbujas en el precio de los activos e ineficiencia.

REFERENCIAS BIBLIOGRÁFICAS 1. Arrow, K.J. y Debreu, G. (1954). Existence of an Equilibrium for a Competitive Economy. Econometrica, 22(3), 265-290. 2. Bachelier, L. (1900). Théorie de la Spéculation. Annales Scientifiques de L’É.N.S., 3(17), 21-86. 3. Becerra, O. y Melo. L.F. (2008). Usos e Implicaciones de la Cópula en la Medición del Riesgo Financiero (Borradores de Economía, 489). Bogotá: Banco de la República. Recuperado de: http://www.banrep.gov.co/publicaciones/pub_borra.htm 4. Bollerslev, T. (1986) Generalized Autoregressive Conditional Heteroskedasticity. Journal of Econometrics, 31(3), 307-327. 5. Box, G.E.P. y Pierce D. (1970). Distribution of Residual Autocorrelations in Autoregressive-Integrated Moving Average Time Series Models. Journal of the American Statistical Association, 65(332), 1509-1526. 6. Campbell, J., Lo, A.W. y MacKinlay, A.C. (1997). The Econometrics of Financial Markets. New Jersey: Princeton University Press. 7. Carmona, R. (2004). Statistical Analysis of Financial Data in S-Plus. Nueva York: Springer-Verlag. 8. Christoffersen, P. F. (2003). Elements of Financial Risk Management. California: Elsevier. 9. Engle, R.E. (1982). Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of U.K. Inflation. Econometrica, 50(4), 987-1008. 10. Fama, E.F. (1970). Efficient Capital Markets: A Review of Theory and Empirical Work. The Journal of Finance, 25(2), 383-417. 11. Fama, E.F. (1991). Efficient Capital Markets: II. The Journal of Finance, 46(5), 1575-1617. 12. Fama, E.F. (1998). Market Efficiency, Long Term Returns, and Behavioral Finance. Journal of Financial Economics, 49(1), 283-306. 13. Fama, E.F. y French, K.R. (2010). Luck versus Skill in the Cross Section of Mutual Fund Returns. The Journal of Finance, 65(5), 1915-1947. 14. Genest, C. y Rémillard. B. (2004). Test of Independence and Randomness Based on the Empirical Copula Process. Test, 13(2), 335-369. 15. Grossman, S. y Stiglitz, J. (1980). On the Impossibility of Informationally Efficient


150

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Markets. The American Economic Review, 70(3), 393-408. 16. Hyme, P. (2003). La Teoría de los Mercados Eficientes. Un Examen Crítico. Cuadernos de Economía, 22(39), 57-83. 17. Jehle, G. y Reny, P.J. (2001). Advanced Microeconomic Theory. Massachusetts: Addison Wesley. 18. Kendall, M.G. (1953). The Analysis of Economics Time Series, Part I: Prices. Journal of the Royal Statistical Society, 116(1), 11-34. 19. Ljung, G.M. y Box, G.E.P. (1978). On a Measure of Lack of Fit in Time Series Models. Biometrika, 65(2), 297-303. 20. Lo, A. y Mackinlay, A.C. (1988). Stocks Markets Prices Do Not Follows Random Walks: Evidence for a Simple Specification Test. The Reviews of Finance Studies, 1(1), 41-66. 21. Malkiel, B.G. (1987). Efficient Market Hypothesis. En Eatwell, J., Milgate, M. y Newman, P. (eds.). New Palgrave: A Dictionary of Economics 2 (pp. 120-123). Hampshire: Macmillan. 22. Malkiel, B.G. (1999). A Random Walk Down Wall Street: The Best Investment Advice for the New Century Completely Revised and Updated. New York: W.W. Norton & Company. 23. Malkiel, B.G. (2003). The Efficient Market Hypothesis and Its Critics. Journal of Economic Perspectives, 17(1), 59-82. 24. Malkiel, B.G. (2005). Reflections on the Efficient Market Hypothesis: 30 Years Later. Financial Review, 40(1), 1-9. 25. Mandelbrot, B. (1966). Forecast of Future Prices, Unbiased Markets, and Martingale Models. Journal of Bussines, 39(1,2), 242-255. 26. Mandelbrot, B y Hudson, R. L. (2006). The (Mis)behavior of Markets. New York: Basic Books. 27. Marichal, C. (2010). Nueva Historia de las Grandes Crisis Financieras. Una Perspectiva Global 1873-2008. Ciudad de México: Debate. 28. McNeil, A.J., Frey, R. y Embrechts, P. (2005). Quantitative Risk Management: Concepts, Techniques, and Tools. New Jersey: Princeton University Press. 29. Peters, E. (1996). Chaos and Order in the Capital Markets: A New View of Cycles, Prices, and Market Volatility. New York: John Wiley & Sons. 30. Roberts, H. (1967). Statistical Versus Clinical Prediction of the Stocks Markets (manuscrito no publicado). Chicago: Center for Research in Security Prices, Universidad de Chicago. 31. Rothschild, M. y Stiglitz, J. (1976). Equilibrium in a Competitive Insurance Market: An Essay on the Economics of Imperfect Information. The Quaterly Journal of Economics, 90(4), 629-649. 32. Samuleson, P. (1965). Proof that Properly Anticipated Prices Fluctuate Randomly. Industrial Management Review, 6(2), 41-49. 33. Sklar, A. (1959). Fonctions de Repartition à n Dimensions et Leurs Marges. Publications de l’Institut de Statistique de l’Université de Paris, 8, 229-231. 34. Stiglitz, J. (1981). The Allocation Role of the Stock Market. Pareto Optimality and Competition. The Journal of Finance, 36(2), 235-251. 35. Stiglitz, J. (2010). Freefall: America, Free Markets, and the Sinking of the World Economy. New York: Norton & Company.


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

151

36. Uribe, J.M. (2007). Caracterización del Mercado Accionario Colombiano 20012006: un Análisis Comparativo (Borradores de Economía, 456). Bogotá: Banco de la República. Recuperado de: http://www.banrep.gov.co/publicaciones/pub_borra.htm 37. Von Neumann, J. y Morgenstern, O. (1944). Theory of Games and Economic Behavior. New Jersey : Princeton University Press. 38. White, H. (1984). Asymptotic Theory for Econometricians. Orlando FL: Academic Press. 39. Working, H. (1934). A Random Difference Series for Use in the Analysis of Time Series. Journal of the American Statistical Association, 29(185), 11-24.

ANEXO GRÁFICA 1A. PANEL A. MERCADOS EFICIENTES DURANTE LA MUESTRA (JULIO DE 2001AGOSTO DE 2010)

PANEL B. MERCADOS PARCIALMENTE EFICIENTES DURANTE LA MUESTRA (JULIO DE 2001-AGOSTO DE 2010)


152

Cuadernos de Economía, 30(55), julio - diciembre de 2011

PANEL C. MERCADOS MENOS EFICIENTES DURANTE LA MUESTRA (JULIO DE 2001-AGOSTO DE 2010)

Nota 1. En cada gráfico se presenta el estadístico asociado con la razón de varianza a un día para cada mercado. Nota 2. Cada punto del gráfico es un estadístico calculado con una ventana móvil de mil datos, que representan aproximadamente cuatro años de transacción. También se reportan las bandas de confianza al 95 y 99 por ciento. Una vez el estadístico traspasa estas bandas se rechaza la Hipótesis de Eficiencia de Mercados para ese período. Fuente: datos de los índices bursátiles disponibles en www.yahoo.finance.


Revisando la hipótesis de los mercados eficientes

Jorge Mario Uribe y Inés María Ulloa

153

GRÁFICA 2A. ESTADÍSTICO DE RAZÓN DE VARIANZAS PARA UN DÍA CON DIFERENTES REZAGOS (MERCADOS MENOS EFICIENTES)

Nota. Las razones de varianza se calcularon para los cuatro mercados menos eficientes de la muestra el día en que se estimó el estadístico de mayor valor absoluto en el período de estudio. Fuente: datos de los índices bursátiles disponibles en www.yahoo.finance. GRÁFICA 3A. ESTADÍSTICO DE RAZÓN DE VARIANZAS E ÍNDICES BURSÁTILES


154

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Nota. Se presenta el estadístico de razón de varianzas y el índice bursátil de cada mercado para el periodo de estudio. Se resaltan los períodos de mayores valores en el estadístico, siempre sobre el 99 por ciento de confianza. Fuente: datos de los índices bursátiles disponibles en www.yahoo.finance.


FRAGILIDAD FINANCIERA Y TASA DE CAMBIO

Juan Carlos Castro Fernández1 A diferencia de las crisis cambiarias y de balanza de pagos que ocurrieron durante la década de 1980, las ocurridas en los últimos 20 años han tenido como protagonista al sector privado. En los noventas “costosas crisis financieras sacudieron a México (1994), Asia oriental (1997), Rusia (1998), Brasil (1999, 2002), Turquía (2000) y Argentina (2001)” (Zagha, Nankani y Gill, 2006). La mayoría de estas crisis surgieron como consecuencia del comportamiento del sector corporativo y afectaron a países considerados ejemplares en el escenario internacional como México en 1994. La situación no fue diferente en la crisis bancaria de Colombia en 1999 ni en la crisis “subprime” de los Estados Unidos (20072010). Estos fenómenos no pueden ser explicados por los modelos tradicionales de primera generación, y tampoco totalmente, por los de segunda generación (García y Olivié, 1999). En las siguientes páginas se pretende examinar el efecto de la tasa de cambio sobre las posiciones financieras de las empresas y de la economía en general, a través de su influencia sobre los flujos de caja. De esta manera, se mostrará su papel en la estabilidad financiera de la economía cuando existe deuda del sector privado denominada en moneda extranjera. El estudio del papel de la tasa de cambio en la inestabilidad financiera se torna más interesante cuando se piensa en las economías de los llamados países en de1 Magíster

en Ciencias Económicas, se desempeña actualmente como Analista de Inversiones en ECOPETROL y profesor de cátedra de la Universidad Católica de Colombia. E-mail: juankcf@gmail.com, jccastrof@unal.edu.co. Dirección de correspondencia: Diagonal 31 B Sur N. 27-94. Este artículo fue recibido el 3 de diciembre de 2009, la versión ajustada fue remitida el 16 de agosto de 2011 y su publicación aprobada el 2 de septiembre de 2011.

155


156

Cuadernos de Economía, 30(55), julio - diciembre de 2011

sarrollo, en los cuales el nivel de ahorro interno es insuficiente y los mercados accionarios y de derivados son incipientes, por lo que se recurre en gran escala al ahorro externo –en particular al endeudamiento–, como fuente de financiamiento de la inversión. Se modificó el modelo de Foley (2003) teniendo en cuenta la denominación de la deuda de las firmas, lo que deja ver cómo la tasa de cambio altera las posiciones financieras de las mismas. Además, las variaciones hechas al modelo permiten identificar que la tasa de cambio afecta la estabilidad económica y que puede producir efectos reales a través de la inestabilidad financiera, cuando las empresas tienen deuda denominada en moneda extranjera. El trabajo se divide en tres partes. En la primera se presenta una revisión de la literatura. En la segunda se formula el modelo dinámico en tiempo continuo para tipo de cambio flexible, que se basa en la hipótesis de inestabilidad financiera de Hyman Minsky. En la tercera se formulan las conclusiones.

REVISIÓN DE LA BIBLIOGRAFÍA Los textos que estudian las crisis cambiarias, financieras y de balanza de pagos son abundantes. En general, se ha clasificado la bibliografía por el periodo en que ha aparecido, pero se podría hablar de modelos de tercera generación (enfoque de las hojas de balance) desde Minsky (1982, 1987) y Kalecki (1956), antes de que el modelo de Krugman (1979) apareciera. Una clasificación alternativa se hace de acuerdo con la fuente de inestabilidad y la naturaleza del detonador2 . De acuerdo con ésta, se observan tres grupos de modelos: 1. La fuente de inestabilidad se da por los fundamentales y la formación de expectativas. El detonador es un choque exógeno. 2. La inestabilidad surge de la estructura de las hojas de balance, cuyo comportamiento genera ciclos endógenos. El detonador es endógeno. 3. La inestabilidad surge en las hojas de balance y un choque exógeno detona la crisis.

MODELOS TIPO 1 El primer grupo de modelos está formado por los de primera y segunda generación, junto con algunos híbridos como el modelo de Cavallari y Corsetti (2000); se caracterizan por involucrar juegos de expectativas que adelantan el momento de la crisis o la causan. Así mismo, describen situaciones en las que se especula sobre el 2 Para

una revisión exhaustiva de la bibliografía usando esta clasificación véase Castro (2003). El Cuadro 1 al final de esta sección presenta una resumen de esta clasificación.


Fragilidad financiera y tasa de cambio

Juan Carlos Castro

157

estado de los fundamentales –primera generación: Krugman (1979), Flood y Garber (1984), Conolly y Taylor (1984)– o sobre las decisiones de política con respecto al abandono del ancla cambiaria –segunda generación: Obsfeld (1994, 1996), Calvo y Mendoza (1998), Masson (1998), Ozkan y Sutherland (1998), Jeanne y Masson (2000). En los modelos tradicionalmente conocidos como de primera generación, la fuente de inestabilidad es la incompatibilidad de las políticas monetaria y fiscal con el ancla. Ante un gran déficit fiscal –u otra deficiencia macroeconómica–, que se financia con emisión se hace insostenible el tipo de cambio fijo. Los agentes anticipan el agotamiento de las reservas y ocurre, en consecuencia, un ataque especulativo que adelanta el colapso del sistema cambiario. El choque exógeno es la expansión del crédito del banco central que al ser esterilizado agota las reservas. El efecto de la expansión se complementa por un ataque especulativo que se da cuando el tipo de cambio esperado iguala al tipo de cambio fijo. En los modelos de segunda generación la inestabilidad surge del proceso de formación de expectativas de los agentes privados con respecto a la conducta de la autoridad cambiaria, el cual se basa en el comportamiento de algunas variables macroeconómicas (altos tipos de interés, desempleo, desaceleración del crecimiento). Los agentes comparan los costos políticos del abandono del ancla (credibilidad), con los costos reales de su mantenimiento (mayor desempleo y menor crecimiento). Si los últimos son mayores que los primeros, las expectativas de devaluación aumentan, lo que a su vez incrementa los costos de mantenimiento del ancla y, por tanto, las expectativas se cumplen y se da un cambio de régimen. En el trabajo de Calvo y Mendoza (1998) el ataque se da sin que haya deficiencia económica alguna en el país y las expectativas de los agentes responden a rumores que no se verifican por el alto costo de la información. Como consecuencia, se dan colapsos autocumplidos del tipo de cambio, debido a la conducta gregaria o de manada de los inversores internacionales. Cavallari y Corsetti (2000) presentan una generalización de los modelos de primera y segunda generación a partir del uso del tipo de cambio sombra –es decir, el que prevalecería si se abandonara el ancla–, de modo que existe una crisis cambiaria cuando la tasa sombra es mayor que la actual. La inestabilidad surge de una regla generalizada de cambio de régimen. En este caso, la autoridad monetaria se ve forzada a abandonar el tipo de cambio fijo cuando la demanda de dinero iguala al crédito doméstico. El colapso se produce en tiempo finito y la probabilidad de una crisis aumenta con el deterioro secular de los fundamentales, lo cual desplaza la tasa sombra. En el análisis de segunda generación se define la función de pérdida de la sociedad, reflejando las preferencias de política en vez de suponerlas. Se da un juego de expectativas de los agentes sobre el estado de los fundamentales, lo que produce equilibrios múltiples. En este caso, el abandono se da si la diferencia entre la


158

Cuadernos de Economía, 30(55), julio - diciembre de 2011

pérdida social de mantener el tipo de cambio fijo es mayor o igual al costo político de abandono (dado exógenamente). Los autores muestran que la diferencia –en la regla de abandono general– entre los modelos de primera y segunda generación, es el monto por el cual la tasa sombra supera a la tasa fija. En el escenario de primera generación esta diferencia debe ser mayor o igual a cero, mientras que en los de segunda generación debe superar el costo político que acarrea tal medida. Estos modelos sufren de debilidades asociadas a la rigurosidad de los supuestos en cuanto a la financiación del déficit con emisión monetaria, la actitud pasiva del banco central ante el evidente agotamiento de las reservas y el supuesto ajuste gradual cuando se da el cambio de régimen (Saxena, 2004).

MODELO TIPO 2 La segunda clase de modelos abarca aquellos en los cuales la inestabilidad y el detonador están determinados endógenamente. Aquí se encuentran modelos heterodoxos que recurren a ciclos endógenos para explicar el surgimiento de las crisis. Dentro de estos se destacan los modelos de Minsky (1982, 1987) y Kalecki (1956), los cuales fueron formulados para economías cerradas y desarrolladas. En el caso de Minsky (1987), ante la presencia de incertidumbre no cuantificable, los cambios en las expectativas causan ciclos económicos endógenos y por el mismo mecanismo se puede llegar a una crisis prolongada. La fuente de inestabilidad es la estructura de deudas en relación con los flujos de caja. De acuerdo con esta relación, las unidades se clasifican en: 1. Empresas Cubiertas, para las cuales los flujos de caja siempre exceden los compromisos de pago. 2. Empresas Especulativas, en las que durante un breve periodo inicial el flujo de caja sólo alcanza para cubrir los intereses, pero no las amortizaciones, de modo que requieren refinanciamiento. 3. Empresas Ponzi, donde los flujos de caja iniciales son insuficientes incluso para pagar los intereses de los préstamos, por lo requieren aún mayor refinanciamiento (Mantey, 2000, 1072). Minsky considera que la decisión especulativa fundamental de una economía capitalista es la proporción del flujo de efectivo que se destina para el pago del servicio de la deuda (intereses más amortizaciones), considerando el endeudamiento que se utiliza para financiar la inversión. La relación entre el precio de demanda y el precio de oferta de los bienes de capital (o costo de reposición) determina la dinámica de la inversión y por este medio causa los movimientos cíclicos de la economía. El mecanismo de la crisis de acuerdo con Minsky (1987) tendrá el siguiente comportamiento: (i) en la fase inicial del ciclo, el rendimiento esperado es alto, lo que


Fragilidad financiera y tasa de cambio

Juan Carlos Castro

159

lleva a un ritmo de inversión acelerado aumentando la demanda por crédito; (ii) la expansión de la inversión continúa hasta que las estructuras de los pasivos son muy riesgosas, debido al aumento de las tasas de interés y a una disminución en el retorno de la inversión real; (iii) se da un aumento en la demanda especulativa de dinero o un desplazamiento de activos ilíquidos a líquidos por medio de la venta de los activos físicos para pagar las deudas, en consecuencia, los precios de los mismos disminuyen desencadenándose un proceso de deflación por deudas como el descrito por Fisher (Minsky, 1987, 136-137). De esta manera, se llega a un exceso de financiamiento externo causado por la creencia generalizada de que la situación existente en el plano de los negocios continuará indefinidamente (euforia), llevando al deterioro de los precios de demanda de los bienes de capital y, en consecuencia, a la crisis financiera. Por su parte, Kalecki expone una teoría de ciclo endógeno, donde la inversión y el nivel de actividad económica se determinan mutuamente, y “la inversión en una época dada es determinada por el nivel y la tasa de cambio de la propia inversión en una época anterior” (Kalecki, 1956, 121). Para Kalecki la inestabilidad surge del hecho de que la masa de ganancia y el acerbo de capital ejercen influencia sobre la tasa de ganancia en tiempos distintos. Esto se debe a que el gasto de inversión actúa con rezago sobre la masa de ganancia, por lo que se generan movimientos cíclicos. Los cambios producidos endógenamente sobre las tasas de ganancia son el detonante de la contracción y de la crisis financiera al reducir la rentabilidad de la inversión. Sin embargo, la fragilidad financiera surge del riesgo creciente con respecto al apalancamiento, puesto que “cuanto mayor sea la inversión en relación con el capital de empresa, mayor será también la reducción de los ingresos del empresario en caso de un fracaso de sus negocios” (Kalecki 1956, 94). Así, la fuente de inestabilidad es endógena y reside en el proceso de endeudamiento de las empresas3 . Por su parte, el detonador son los cambios endógenos en la tasa de ganancias. También forman parte de este grupo de modelos, aquellos inspirados en las teorías de Minsky y Kalecki, como los de Taylor y Rada (2003), Palley (1994), Foley (2003) y Taylor y O’Conell (2006). Estos últimos se proponen formalizar matemáticamente la parte macroeconómica de la teoría de la inestabilidad financiera de Minsky. En este modelo la inestabilidad surge de la falta de coordinación entre las decisiones de cartera de inversiones de las empresas y las familias. La crisis surge cuando cambios endógenos en la tasa de ganancias esperada o realizada causan sustitución de activos reales por dinero, como consecuencia, la preferencia por el dinero de las familias aumenta, las tasas de interés suben y caen las tasas de ganancia y la inversión. De esta forma, se da un proceso de deflación por deudas, caracterizado por la desintermediación financiera y la desaparición de activos. 3 El

acceso al mercado financiero y, por tanto, la capacidad de endeudamiento dependen del tamaño del capital de la empresa.


160

Cuadernos de Economía, 30(55), julio - diciembre de 2011

La crisis tiene la siguiente lógica: “En la cima de la expansión, la proporción de deudas de las empresas con respecto a su valor neto se incrementa, y pasan gradualmente (en la terminología de Minsky) de posiciones cubiertas a especulativas, o incluso ‘Ponzi’. El escenario está listo a un nivel micro para que se lleve a cabo el colapso financiero; finalmente alguna ola de bajas lo hace explotar” (Taylor y O’Conell, 2006, 27). El trabajo de Duncan Foley (2003) es una versión de economía abierta del modelo descrito anteriormente, en la que el desplazamiento de una posición financiera a otra se endogeniza, al permitir que la tasa de inversión exceda a la de beneficio. Una firma es insolvente cuando su valor neto es menor o igual a cero y la fragilidad financiera del sistema viene dada endógenamente por la trayectoria de las tasas de interés (i), de beneficio (r) y de crecimiento (g). En este modelo, la economía se considera cubierta siempre que la tasa de beneficio sea mayor que la de acumulación o de crecimiento; siendo especulativa en caso contrario, pero con una tasa de interés menor que la de beneficio; y Ponzi cuando esta última es menor que la tasa de interés. Así mismo, la pérdida de confianza de los acreedores es estimulada por el desplazamiento de los recursos de la inversión productiva a la especulativa, la cual se da por un aumento en la incertidumbre o menores retornos esperados de la inversión productiva con relación a los de la inversión especulativa. Esta pérdida de confianza puede conducir a una crisis por la negativa de los acreedores a conceder préstamos. La principal desventaja de estos modelos es su formulación para economías cerradas. Aunque algunos intentos se han hecho para elaborar versiones de economía abierta, estas aún no recogen toda su riqueza conceptual. Debido a esta carencia dejan de lado el efecto de variables importantes como la tasa de cambio y la conducta de los inversores internacionales (flujos de capital). Los mayores avances en corregir la deficiencia se han hecho introduciendo choques exógenos en el análisis, lo que se verá en el siguiente grupo de modelos.

MODELOS TIPO 3 El tercer tipo son los modelos en los cuales la inestabilidad surge en las hojas de balance, pero la crisis se activa por un choque exógeno. Aquí, comparten espacio: 1. Modelos heterodoxos, inspirados en la teoría de la inestabilidad financiera de Hyman Minsky, que dan un papel importante a los flujos de capital, los tipos de cambio y tasas de interés externas, como detonadores de la crisis (Dymski, 1999; Kregel, 1998; Akyüz, 1998; Arestis y Glyckman, 2002; Oreiro 2006; Sordi y Vercelli, 2006). 2. Modelos más tradicionales en los que la inestabilidad es causada por el estado de las hojas de balance de las empresas, pero es detonada por choques


Fragilidad financiera y tasa de cambio

Juan Carlos Castro

161

exógenos sobre la tasa de interés, el tipo de cambio, entre otros (Krugman, 1999; Céspedes, Chang y Velasco, 2000; Besancenot y Vranceanu, 2007; Christiano, Gust y Roldosd, 2004). 3. Modelos que recurren a las crisis bancarias como generadoras de crisis financieras (Chang y Velasco, 1999, 2000, 2001; Caballero y Krishnamurthy, 2000; Piti, 2001) y en los cuales los problemas de información asimétrica juegan un papel importante (Mishkin, 1999, 2001). Los modelos inspirados en Minsky además del mecanismo de crisis y el choque endógeno, incluyen un choque exógeno, debido a la apertura de la economía. Arestis y Glyckman (2002), aplican el análisis de Minsky a una economía abierta, extendiendo la tipología para incluir los efectos de variaciones en la tasa de cambio (choque exógeno) y no sólo en la tasa de interés. Debido a la apertura la economía está expuesta a una fragilidad financiera “internacionalizada”, en la cual está propensa a contagios de crisis originadas en el exterior y de origen interno. El choque exógeno sobre la tasa de cambio detona la crisis, ya que esta tasa es una fuente de incertidumbre. La liberalización financiera –debido al mayor ritmo de innovación que conlleva– acelera el crecimiento de las razones de deuda, aumentando la fragilidad financiera y adelantando el desenlace de las crisis financieras y bancarias. Los autores afirman que en economía abierta, el Estado es simplemente otra unidad financiera, en relación con el valor externo de su moneda, por esto no es posible emplear la política monetaria como herramienta para limitar el contagio de la fragilidad. Por otra parte, Dymski (1999) afirma que una entrada de capitales crea desequilibrios si la economía carece de los mecanismos institucionales apropiados para dirigir los flujos hacia los proyectos de inversión más rentables. Los flujos de capitales exacerban una burbuja de activos, la cual se convierte en una nueva fuente de crisis de Minsky4 que se produce cuando la confianza de los inversores se debilita y las entradas de capital se desaceleran o se revierten (choque exógeno). Así una crisis de Minsky se genera sin que haya un ciclo de Minsky5 , es decir, no es necesario que se llegue a niveles de endeudamiento altos, ni que la tasa de ganancia caiga, para que se de una crisis financiera, puesto que el choque sobre los flujos de capital la adelanta. El momento de la crisis o la ocurrencia de una burbuja de activos, no pueden ser conocidos, debido a la incertidumbre keynesiana (ocurren en cualquier momento del ciclo). Dymski (1999) hace dos modificaciones al modelo básico de Minsky: (a) incluye las relaciones entre cuenta corriente y reservas para tomar en cuenta las crisis 4 Una

crisis de Minsky es una situación en la cual se da un proceso de deflación por deudas y el precio de los activos se desploma. 5 Un ciclo de Minsky se refiere al ciclo generado por el proceso de inversión y endeudamiento de las unidades económicas descrito por Hyman Minsky en el cual la creencia de que la situación en el plano de los negocios continuará mejorando, lleva a los agentes al sobre-endeudamiento y hace que transiten de posiciones cubiertas a especulativas e incluso ‘Ponzi’ cuando la tasa de ganancia cae, generando crisis caracterizadas por un proceso de deflación por deudas.


162

Cuadernos de Economía, 30(55), julio - diciembre de 2011

cambiarias; (b) toma en consideración los flujos de capital entre fronteras. Afirma que la existencia de un sector bancario capaz de coordinar y dirigir los flujos financieros, es un mecanismo para evitar las burbujas de activos y los colapsos financieros en una economía en expansión. La mayoría de estos modelos tienen una formalización menor que los modelos más ortodoxos, aunque su riqueza conceptual es mucho mayor. En general, no se modelan regímenes cambiarios ni se estudia el papel de los mismos sobre la estabilidad financiera. Por otra parte, los modelos tradicionales de tercera generación, en los cuales la inestabilidad surge de los estados financieros de las empresas, se preocupan por choques sobre el tipo de cambio y los flujos de capital. Aparecen a finales de la década de 1990, no siendo sino hasta entonces que los modelos tradicionales de crisis de balanza de pagos y cambiaria, empiezan a preocuparse por los balances del sector corporativo. La aparición de estos modelos, es motivada por las crisis en los países del sudeste asiático, Rusia, México y Argentina. Krugman “enfatiza en el papel de las hojas de balance de las empresas en la determinación de su habilidad para invertir, y aquel de los flujos de capital al afectar la tasa de cambio real” (Krugman, 1999, 3). La fragilidad financiera surge de manera endógena debido a un alto apalancamiento, una baja propensión a importar y/o una alta deuda en moneda extranjera relativa a las exportaciones. Una caída en los flujos de capital (choque exógeno) “puede afectar adversamente las hojas de balance de los empresarios domésticos, reduciendo su habilidad para endeudarse y así reduciendo adicionalmente los flujos de capital” (Krugman, 1999, 15). Céspedes, Chang y Velasco (2000) elaboran un modelo en el cual el tipo de cambio juega un papel central en el proceso de ajuste. La inestabilidad en este modelo proviene de un alto apalancamiento, dando como resultado una recesión que puede ser prolongada o no. Los choques que detonan la crisis son cambios en la tasa de interés internacional y en la demanda por exportaciones. Estos autores concluyen que en una economía financieramente frágil (es decir, la elasticidad del premio al riesgo al tipo de cambio es mayor que cero), los efectos de los choques sobre el producto interno bruto son mayores. El régimen cambiario es neutral, de modo que el premio al riesgo es el mismo entre regímenes, así “el producto en dólares cae por el mismo monto independientemente de la política cambiaria” (Céspedes et al., 2000, 25). Los autores afirman que el papel de la política cambiaria es “afectar la distribución de la depreciación real sobre el tiempo” (Céspedes et al., 2000, 31). La medida preventiva que se sugiere, al igual que en Krugman, es el desestímulo al endeudamiento en moneda extranjera. Otra subcategoría de modelos es aquella cuya fuente de inestabilidad es la información asimétrica ; en general están representados por los modelos en que las crisis bancarias causan crisis financieras. La asimetría de información se considera exógena porque se da como un supuesto de los modelos y surge de choques que


Fragilidad financiera y tasa de cambio

Juan Carlos Castro

163

interfieren en los flujos de información; no obstante, el estado y el deterioro de los balances de los bancos es endógeno. Por su parte, en los trabajos de Mishkin (1999, 2001) se identifican cuatro fuentes de inestabilidad: 1. 2. 3. 4.

Deterioro de las hojas de balance del sector financiero. Incremento en la tasa de interés (choque). Incremento en la incertidumbre (choque). Deterioro en las hojas de balance del sector no financiero debido a la caída de los precios de los activos.

Igualmente se resalta el papel de los choques del tipo de cambio. Para Castro (2003) un cambio inesperado en los flujos de capital produce una devaluación que detona la crisis, pero según Mishkin (2001) el tipo de cambio fijo oculta el riesgo cambiario, lo que produce una devaluación mayor cuando ocurre un ataque especulativo exitoso. Chang y Velasco (1999, 2000, 2001) exponen modelos de corridas bancarias, donde el riesgo moral –que surge en la información asimétrica sobre el tipo de los agentes– motiva expectativas adversas sobre la liquidez de los bancos y el tipo de los demás agentes. Estas expectativas pueden dar origen a corridas de los depositantes y/o de los prestamistas internacionales, en consecuencia, las crisis bancarias pueden ocurrir aún sin crédito del extranjero; sin embargo, “las expectativas adversas no son, por ellas mismas, suficientes para que ocurra una crisis: los fundamentales de la economía deben también ser frágiles” (Chang et al., 2001, 499). Los bancos entran en bancarrota y se desata una crisis bancaria si sus obligaciones de corto plazo (retiros en el periodo 1 más deuda externa de corto plazo) superan el valor de liquidación de sus inversiones de largo plazo (iliquidez). La presencia de crédito internacional exacerba la vulnerabilidad financiera de la economía, ya que la negativa de los prestamistas a otorgar nuevos préstamos puede causar una corrida de los depositantes. Lo mismo ocurre cuando hay endeudamiento de corto plazo; los autores afirman que es el plazo de los flujos y no su volumen lo que importa (term mismatch). Así mismo, al comparar los regímenes cambiarios concluyen que el tipo de cambio flexible es superior, por las asignaciones que se obtienen y la posibilidad de usar una política de prestamista de última instancia, para evitar las crisis de balanza de pagos y las corridas bancarias. “En el régimen de tipos flexibles, la posibilidad de una devaluación del peso elimina los incentivos para las corridas [. . .] de modo que [. . .] en equilibrio no puede haber pánicos” (Chang y Velasco, 1999, 36). Piti (2001) presenta un modelo en el que los bancos cumplen el papel de intermediarios entre las empresas y el crédito externo. Este arbitraje, puede causar un deterioro en las hojas de balance de los bancos, debido a que la denominación de


164

Cuadernos de Economía, 30(55), julio - diciembre de 2011

sus deudas y acreencias es diferente. Un choque sobre la tasa de cambio detona la crisis bancaria, lo que trae consigo una contracción real que se da a través de la reducción del crédito. Piti, propone como medida profiláctica garantizar que el sistema bancario este bien capitalizado y cubierto (que sea prudente). Caballero y Krishnamurthy (2000) suponen un país con dos sectores (transable T y no transable N ), restringido en su acceso al crédito internacional (el colateral internacional de la economía es una fracción del retorno del sector transable –λt Rt Kt –. Las firmas del sector N sufren un choque de liquidez exógeno (choque de productividad), teniendo que reinvertir una proporción de sus retornos para completar el proyecto de inversión. Este choque causa una pérdida de la tasa de retorno en el sector. El sector T hace la función de intermediario entre el sector N y el crédito externo; este último pide prestado al primero, hipotecando su colateral doméstico representado por una fracción de sus retornos esperados (λn Rn Kn ). Además hay un choque externo agregado sobre la capacidad de la economía para atraer recursos de inversores extranjeros (sobre la fracción λt ). La crisis se caracteriza por un exceso de demanda por fondos prestables que incrementa la tasa de interés doméstica, lo que hace que los precios de los activos domésticos colapsen (fire sales) (Caballero et al., 2000). Si se incluyen bancos en el modelo, se solucionan los problemas de información asimétrica, pero la caída de los precios de los activos trae problemas para los bancos, empeorando los efectos perversos de la crisis. Los modelos más ortodoxos son abundantes y por lo mismo han estudiado más choques exógenos como detonadores de las crisis, sin embargo, el análisis de la influencia del régimen cambiario casi que ha sido exclusivo de los trabajos de Céspedes, Chang y Velasco. Su principal debilidad radica en el hecho de que la crisis, aunque endógena por naturaleza, surge por un choque exógeno y exclusivamente por éste, desconociendo que choques endógenos también pueden causar el colapso financiero. Como se ha visto, la bibliografía con respecto a las crisis de balanza de pagos y financiera es abundante. Se pueden destacar dos hechos: primero, la corriente tradicional había dejado de lado el papel de las finanzas del sector privado como fuente de crisis y fue hasta después de la crisis asiática que se preocuparon por esta causa de inestabilidad. Por el contrario, los modelos heterodoxos, keynesianos y kaleckianos tuvieron siempre en cuenta la financiación de la inversión privada, pero se limitaron por mucho tiempo al análisis de la economía cerrada. Segundo, el análisis de Minsky (1982, 1987) y Kalecki (1956) parece ser el más apropiado para abordar la inestabilidad financiera, puesto que dentro de la definición de unidad financiera de Minsky (1982, 1987) caben los hogares (familias) y el estado. Además el objetivo del presente trabajo es estudiar los efectos del tipo de cambio sobre las crisis financieras, las cuales surgen del proceso de endeudamiento de las empresas. En economía abierta la denominación de estas deudas


Fragilidad financiera y tasa de cambio

Juan Carlos Castro

165

es importante y las variaciones de la tasa de cambio pueden jugar un papel desestabilizador. CUADRO 1. CLASIFICACIÓN DE LA BIBLIOGRAFÍA Naturaleza del detonador Endógena

Exógena

Hojas de balance

Fundamentales + expectativas

Minsky (1982, 1987) Kalecki (1956) Inspirados en Minsky: Taylor y O’Conell (1989) Taylor y Rada (2003) Foley (2001) (2003) Palley (1994) Inspirados en Minsky: Dymski (1999) Kregel (1998) Akyüz (1998) Arestis y Glyckman (2002) Oreiro (2005-2006) Sordi y Vercelli (2006)

Fundamentales: Krugman (1979) Flood y Garber (1984) Conolly y Taylor (1984) Expectativas autocumplidas y cambios de régimen:

Tradicionales: Hojas de balance empresas Krugman (1999) Céspedes, Chang y Velasco (2000) Besancenot y Vranceanu (2007) Christiano, Gust y Roldosd (2004)

Obsfeld (1994, 1996) Calvo y Mendoza (1998) Masson (1998) Ozkan y Sutherland (1998) Jeanne y Masson (2000)

Información asimétrica: Mishkin (1999, 2001)

Híbridos: Cavallari y Corsetti (2000)

Crisis Bancarias: Chang y Velasco (1999, 2000, 2001) Caballero y Krishnamurthy (2000) Piti (2001)

Fuente: elaboración propia a partir de la revisión de los trabajos mencionados.

INESTABILIDAD FINANCIERA Y TASA DE CAMBIO: UN MODELO DINÁMICO El concepto de inestabilidad financiera y el comportamiento eufórico propios de la teoría de Minsky (1982, 1987) se ajustan a la pregunta de este escrito. Si pueden las crisis financieras surgir del comportamiento del sector privado, entonces, ¿qué papel juega la tasa de cambio en la inestabilidad financiera? Por eso, para formular un modelo que recoja la teoría de Minsky y el papel del tipo de cambio se amplió uno ya existente, basado en Minsky (1982, 1987), que forma parte de los modelos de ciclo real –considerando la relación acelerador-multiplicador (Foley, 2003).


166

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Un modelo de inestabilidad financiera con tipo de cambio flexible Foley (2003) formula un modelo en el que incluye el equilibrio externo, a fin de modificar el de Taylor y O’Connell (1989), logrando elaborar una versión de economía abierta del mismo. Sin embargo, el modelo considera que todos los agregados económicos están a precios internacionales o en términos reales: por lo tanto, Foley no considera el papel de la tasa de cambio en esta economía. A continuación se presenta una modificación a ese modelo, que introduce la tasa de cambio como variable de estado en un régimen de tipo de cambio flexible. La identidad del flujo de caja, que permite modelar la estructura financiera de las firmas, viene dada por: R+D =I +V

(1)

En esta ecuación las fuentes de fondos son los ingresos de operación (R) y el nuevo endeudamiento (D); estos fondos se usan en los gastos de inversión (I) y el pago de intereses de la deuda (V ). La deuda de una firma se divide en deuda interna (con otra firma nacional) (Dd) y deuda externa eD∗ . Del mismo modo los intereses se dividen entre los que se pagan por la deuda domestica iB y los abonados por el endeudamiento externo i∗ eB ∗ . El valor neto de las empresas (W ) está dado por la diferencia entre el valor de sus activos (A) y sus deudas (D); aumenta con la inversión (I) y disminuye con el endeudamiento (D). W =A−B ˙ ˙ W = A − B˙ = I − D

(2) (3)

A partir de estas ecuaciones se definen las posiciones financieras según la hipótesis de Minsky. “Una firma cubierta tiene R ≥ I + V ” (Foley, 2003, 159). A este tipo de firmas sus ingresos les alcanzan al menos para pagar el servicio de la deuda y financiar sus inversiones. Foley dice que estas empresas, en general, no tienen oportunidades de inversión atractivas. Una firma está en una posición especulativa cuando R ≥ V , pero R ≤ I + V , lo que implica que sus ingresos no le alcanzan para financiar completamente sus inversiones después de responder por sus obligaciones crediticias. Finalmente, una empresa está en una posición Ponzi cuando R < V , de tal forma que D > I y la firma debe recurrir al roll over de deuda. Así Foley (2003) define las posiciones financieras de una firma de la siguiente manera: Cubierta (hedge) Especulativa Ponzi

R≥V +I R≥V; R<V;

R<V +I D>I


Fragilidad financiera y tasa de cambio

Juan Carlos Castro

167

Estas posiciones deben ser re-expresadas a fin de incluir la influencia del tipo de cambio de la siguiente manera: Cubierta (hedge) Especulativa Ponzi

R ≥ ˜i(B d + ϵB ∗ ) + I R ≥ ˜i(B d + ϵB ∗ ); R < ˜i(B d + ϵB ∗ );

R < ˜i(B d + ϵB ∗ ) + I D>I

Siendo ˜i = V /B la tasa de interés que se paga en promedio sobre toda la deuda, es decir, el promedio ponderado de la tasa de interés interna (i) y externa (i∗ ). A simple vista es evidente la influencia del tipo de cambio sobre la posición financiera. Partiendo de una posición cubierta, un aumento inesperado sobre la tasa de cambio causa un incremento en el valor de la deuda denominada en moneda extranjera, que se refleja en el servicio de la deuda. Si el incremento en la tasa de cambio es suficientemente grande los retornos ya no serían suficientes para financiar el servicio de la deuda y la inversión, pasando la firma de una posición cubierta a una especulativa. Lo mismo es cierto si se parte de una posición especulativa, un incremento en la tasa de cambio suficientemente grande llevaría a la firma a una posición Ponzi. A fin de describir la dinámica de las finanzas de las firmas se re-expresa la ecuación 1 en términos de las variaciones de los componentes del flujo de caja. Dando como resultado la siguiente expresión: B˙ = Dd + ϵD∗ + ϵB ˙ ∗ = D + ϵB ˙ ∗ = I + V − R + ϵB ˙ ∗ = (g − r)A + ˜iB + ϵδB ˙

(4)

En este caso, g = I/A es la tasa de crecimiento de los activos; r = R/A es la tasa de beneficios y δ = B ∗ /B es la proporción de deuda denominada en moneda extranjera. En las trayectorias donde g y ϵ˙ son constantes, la solución a la ecuación diferencial es: [ ] g−r g−r ˜ ˙ t B(t) = B0 − A0 e(i+ϵδ) + A0 egt (5) g − ˜i − ϵδ g − ˜i − ϵδ ˙ Al re-escribir la solución en términos de la razón endeudamiento a activos ϕ = B/A, se pueden enunciar las condiciones de solvencia de la firma. La empresa será solvente siempre y cuando esta razón sea menor que la unidad. ˙ ϕ(t) = [ϕ0 − ϕ∗ ] e(i+ϵδ−g)t + ϕ∗ ˜

(6)

Hay dos trayectorias que llevan a la bancarrota en tiempo finito: una en la que g > ˜i + ϵδ ˙ y ϕ∗ > 1; y otra en la que g < ˜i + ϵδ ˙ y ϕ0 > ϕ∗ . En las trayectorias ∗ en que r > ˜i + ϵδ, ˙ (es decir, cuando ϕ < 1) la firma no caerá en bancarrota,


168

Cuadernos de Economía, 30(55), julio - diciembre de 2011

sin embargo, debido a que tendrá incentivos a invertir puede llegar a estar en una posición especulativa, caracterizada por g > r > ˜i + ϵδ. ˙ Si hay un incremento en la tasa de interés, un aumento en la tasa de devaluación o una caída en la tasa de ganancia, la firma puede llegar a una posición financiera Ponzi g > ˜i + ϵδ ˙ > r. La economía nacional Suponiendo una economía con tipo de cambio flexible y dos clases sociales: trabajadores y empresarios; siguiendo a Kalecki (1956), los últimos toman las decisiones de ahorro e inversión y los primeros consumen todo el ingreso que obtienen a cambio de su trabajo. Así, el producto de la economía (X) se reparte de la siguiente manera: salarios W = (1 − π)X y beneficios P = πX; una fracción s de estos es ahorrada y la tasa de beneficios se supone constante π. Dado lo anterior, el consumo viene dado por: C = W + (1 − s)P = (1 − sπ)X

(7)

Haciendo abstracción del gasto y de los impuestos. El déficit en cuenta corriente (D) viene dado por la suma del consumo (C) y la inversión (I) menos el producto, ϵD = C + I − X = I − sπX, esto es análogo a la deuda de las empresas vista anteriormente y puede entenderse como la agregación de deudas. La agregación de la deuda interna es nula, de modo que D es equivalente a la deuda externa agregada. Como proporción del capital esta identidad puede ser reescrita como: d = g − sr

(8)

Siendo d = ϵD/K, g = I/K, r = πX/K. Es necesario aclarar que se asume que todo está expresado a precios nacionales excepto la deuda, que para cumplir la identidad se multiplica por el tipo de cambio (ϵ). Además se hace explícito que existen dos bienes en la economía, uno de consumo –que se produce internamente– y otro de inversión –que se importa. De manera que el valor de las importaciones es igual a la inversión y el valor de las exportaciones es igual al ahorro. Esto caracteriza a una economía en desarrollo, en la cual la mayoría de los bienes de capital son importados. El valor en pesos de la deuda, depende positivamente de la tasa de interés, que es controlada por el banco central, y del tipo de cambio, a través de la valorización de la deuda que produce sus cambios; y negativamente de la tasa de ganancia. d = d0 + ηi − ψsr + φϵ

η, ψ, φ > 0

(9)

Se sigue el supuesto de paridad no cubierta de tasa de interés (1 + i) = (1 + i∗ ) (1 + E(ϵ)), ˙ siendo E el operador de expectativa y ϵ˙ la tasa de devaluación6 . 6 Este supuesto se

hace por simplicidad. A pesar de que la evidencia empírica no respalda la paridad no cubierta de tasas de interés emplear otros supuestos haría bastante difícil modelar la dinámica del tipo de cambio y del sistema. Por razones similares no se incluye el premio al riesgo –en la dinámica del tipo de cambio el premio al riesgo sería una constante (dada exógenamente)–, sin embargo, sería interesante modelar los movimientos de este premio al riesgo y ver sus efectos sobre la estabilidad del sistema.


Fragilidad financiera y tasa de cambio

Juan Carlos Castro

169

Foley (2003) sigue a Taylor y O’Connell (1985) en la ecuación de determinación de la tasa de inversión, la cual depende de la tasa de ganancia, de la tasa de interés real y del factor de exuberancia, que refleja la conducta eufórica de los empresarios –clave en la hipótesis de inestabilidad financiera de Minsky. g = g0 + h(r + ρ − i);

h>0

(10)

A partir de las tres ecuaciones anteriores se puede expresar la tasa de beneficios como: r=

g−d g0 − d0 + hρ − (h + η)i − φϵ = s s(1 − ψ) − h

(11)

Un incremento en la tasa de interés lleva a un incremento en las entradas de capital y en las importaciones, y a una caída en la inversión doméstica, reduciendo el producto domestico, la razón producto-capital y la tasa de ganancia. Un incremento en la exuberancia aumenta la inversión doméstica, la razón producto-capital y la tasa de ganancia (Foley, 2003, 163). Esto quiere decir que un incremento en el tipo de cambio, afecta el precio de los bienes de capital en moneda nacional, lo que reduce la inversión a través de una menor tasa de ganancia. De manera similar se puede encontrar una expresión para la tasa de inversión. Esta tiene un componente independiente que aumenta con incrementos en el factor de exuberancia y disminuye con el crecimiento de la tasa de interés y el tipo de cambio, debido al mayor costo de financiación, por un lado, y al mayor precio de los bienes de capital, por el otro. g=

s(1 − ψ)g0 − hd0 + hs(1 − ψ)ρ − h [s(1 − ψ) + η] i − hφϵ s(1 − ψ) − h

(12)

Tomando como variables de estado g, i y ϵ7 , se puede reformular r y d, en términos de estas tres así: g − d0 − ηi − φϵ s(1 − ψ) ψg − d0 − ηi − φϵ d=− (1 − ψ) r=

(13) (14)

Dinámica de Minsky A continuación se especifican las reglas de movimiento de las variables de estado. Siguiendo a Foley (2003), la exuberancia crece a medida que la tasa de crecimiento 7 Tomamos

a la tasa de inversión (g) como variable de estado en lugar de la tasa de exuberancia (ρ) como lo hace Foley (2003). La sustitución de estas dos variables no afecta los resultados del modelo por la relación directa que existe entre las dos.


170

Cuadernos de Economía, 30(55), julio - diciembre de 2011

supera su nivel de equilibrio y cae a medida que la tasa de interés o el tipo de cambio exceden sus niveles de equilibrio. ρ˙ = β(g − g¯) − δ(i − ¯i) − σ(ϵ − ϵ¯)

(15)

La tasa de interés es el instrumento de política monetaria del banco central y es manejada por éste de acuerdo con un esquema, en el cual el objetivo es la tasa de crecimiento de equilibrio. Si el crecimiento supera el objetivo de política el banco sube la tasa. i˙ = γ(g − g¯)

(16)

El movimiento del tipo de cambio está definido por el diferencial de tasas de interés. Esto es consistente con el supuesto de paridad no cubierta enunciado anteriormente. Si la tasa de interés está por encima de la tasa de interés externa, el tipo de cambio debe subir para eliminar las oportunidades de arbitraje. Si ℓ = 1 se tendrá el caso de perfecta previsión. ϵ˙ = ℓ(i − i∗ )

(17)

Por simplicidad se supondrá que la tasa de interés internacional iguala a la tasa de equilibrio. Diferenciando totalmente la ecuación 11 con respecto al tiempo, se obtiene la siguiente expresión: g˙ =

h(s(1 − ψ)) h(s(1 − ψ) + η) ˙ hβ ρ˙ − i− ϵ˙ s(1 − ψ) − h s(1 − ψ) − h s(1 − ψ) − h

(18)

Remplazando en 18 las ecuaciones 15 a 17 se obtiene una expresión de la dinámica de la tasa de crecimiento en función de la tasa de inversión, la tasa de interés y el tipo de cambio, de la siguiente forma: h [(s(1 − ψ))β − (s(1 − ψ) + η)γ] h [(s(1 − ψ))δ + βℓ] (g − g¯) − (i − ¯i) s(1 − ψ) − h s(1 − ψ) − h h(s(1 − ψ))σ − (ϵ − ϵ¯) (19) s(1 − ψ) − h

g˙ =

A partir de estas ecuaciones de comportamiento dinámico se tiene un sistema de ecuaciones diferenciales que se resume en el siguiente jacobiano:  h[(s(1−ψ))β−(s(1−ψ)+η)γ]  − h[(s(1−ψ))δ+βγ] − h(s(1−ψ))σ s(1−ψ)−h s(1−ψ)−h s(1−ψ)−h  (20) J = γ 0 0 0 γ 0 Las condiciones de estabilidad de este sistema de ecuaciones son importantes porque darán luces con respecto a la influencia del tipo de cambio sobre la estabilidad financiera. Igualmente, el efecto de la política monetaria sobre el sistema es importante. En la ecuación 9 se muestra que es el factor por el que la exuberancia actúa sobre las decisiones de inversión, de manera que al observar sus efectos sobre la estabilidad se podrá analizar cuál es el impacto del comportamiento eufórico de los agentes sobre la misma.


Fragilidad financiera y tasa de cambio

171

Juan Carlos Castro

La estabilidad El examen de la estabilidad del equilibrio de estado estacionario, permite establecer las condiciones bajo las cuales este equilibrio es un atractor, es decir, que la dinámica del sistema tiende hacia el equilibrio (Campos e Isaza, 2002). La primera condición de estabilidad viene dada por la ecuación (21). Condición 1 Det(J) < 0

h(s(1 − ψ))σ γℓ < 0 s(1 − ψ) − h

(21)

Para que esta condición se cumpla, se requiere que s(1−ψ)−h y ℓ tengan el mismo signo. Foley (2003) supone implícitamente que el signo de la primera expresión es positivo; sin embargo, cuando la influencia del factor de exuberancia sobre la tasa de inversión es muy alto (h > s(1 − ψ)) el sistema se vuelve inestable. Esto implica que si los agentes creen que los retornos de la inversión van a ser muy altos, invierten en exceso y sobre-reaccionan a las caídas en las perspectivas de ganancias, liquidando inversiones rápidamente, esto podría describirse como un comportamiento eufórico extremo. Condición 2 T r(J) < 0

h [(s(1 − ψ))β − (s(1 − ψ) + η)γ] <0 s(1 − ψ) − h

(22)

Manteniendo el supuesto de Foley (2003), para que la segunda condición se cumpla se requiere que la autoridad monetaria tenga un gran compromiso con la estabilización, de manera que aumente de manera considerable la tasa de interés cuando la tasa de crecimiento esté por encima de su objetivo. γ>

(s(1 − ψ))β (s(1 − ψ) + η)

(23)

En caso contrario (η muy pequeño o nulo) el sistema será inestable. Esta implicación es importante, ya que resalta la importancia de tener una política monetaria contracíclica, la cual reduce la inestabilidad de la economía, aun en economía abierta. Pero, como se dijo anteriormente, un incremento en la tasa de interés puede llevar a las firmas a una posición Ponzi y de esta manera causar una crisis financiera, a través del encarecimiento del crédito. Por lo que, una respuesta excesiva de la autoridad monetaria a la brecha del producto puede crear problemas financieros a las empresas. Condición 3 −

h(s(1 − ψ))σ h [s(1 − ψ)δ + βℓ] γℓ − γ s(1 − ψ) − h s(1 − ψ) − h

{

h [(s(1 − ψ))β − (s(1 − ψ) + η)γ] s(1 − ψ) − h

} >0 (24)


172

Cuadernos de Economía, 30(55), julio - diciembre de 2011

La tercera condición muestra claramente la influencia de la dinámica del tipo de cambio sobre la estabilidad de la economía. Reorganizando la expresión (24) se llega a la siguiente: s(1 − ψ)δA = ℓ∗ [hs(1 − ψ)σ + βA] s(1 − ψ)δA ℓ>− = ℓ∗ [hs(1 − ψ)σ + βA]

ℓ<−

si hs(1 − ψ)σ + βA > 0 si hs(1 − ψ)σ + βA < 0 (25)

{ Donde A =

h[(s(1−ψ))β−(s(1−ψ)+η)γ] s(1−ψ)−h

} .

Si la segunda condición de estabilidad se cumple A < 0. Entonces, si hs(1 − ψ)σ + βA > 0, ℓ no debe ser muy grande puesto que de serlo el sistema sería inestable; en otras palabras, la respuesta del tipo de cambio al diferencial de tasa de interés no debe ser muy elevada. Adicionalmente, si ℓ es grande es posible que ante cambios en las tasa de interés la economía caiga en crisis financieras por el encarecimiento del endeudamiento en moneda extranjera. Una sobre reacción del tipo de cambio al diferencial de tasa de interés puede generar crisis financieras por la inestabilidad que produce sobre el valor de la deuda y el precio de los bienes de inversión en un país en desarrollo. Cuando hs(1 − ψ)σ + βA < 0, ℓ puede ser negativo. Si lo es, la primera condición de estabilidad no se cumpliría y la economía sería inestable, pero esta situación carece de sentido económico, puesto que la tasa de cambio debe responder positivamente a los diferenciales de la tasa de interés. Si ℓ es positiva la economía puede ser estable, pero la dinámica del tipo de cambio puede conducir a una crisis financiera a través del encarecimiento de la deuda externa.

CONCLUSIONES En este trabajo se buscaba determinar los efectos de los cambios en la tasa de cambio sobre la estabilidad financiera. Para esto se siguió la hipótesis de inestabilidad financiera de Hyman Minsky y se modificó el modelo de Foley (2003), el cual fue formulado originalmente para economía abierta, pero dejaba a un lado los efectos de la tasa de cambio. Del análisis efectuado anteriormente se derivan varias conclusiones. Cuando las empresas pueden endeudarse en moneda extranjera, el tipo de cambio afecta su posición financiera, haciéndola transitar de una posición cubierta a una especulativa y de esta última a un estado Ponzi, ante una depreciación de la tasa de cambio que aumente el valor de esta deuda en pesos. Esto es similar (cualitativamente) al efecto de un incremento de las tasa de interés.


Fragilidad financiera y tasa de cambio

Juan Carlos Castro

173

Del mismo modo, al hablar del agregado de la economía se deben contemplar dos efectos de la tasa de cambio. Una depreciación aumenta el valor de la deuda externa en moneda local, de manera que entra a formar parte del costo del financiamiento externo, pero también incrementa el precio de los bienes de capital, encareciendo la inversión. Estos dos efectos combinados causan una caída en la tasa de beneficios y en la tasa de inversión. Así, el efecto macroeconómico de la depreciación consiste en la reducción de las tasas de ganancia e inversión. El aumento en la tasa de interés tiene el mismo efecto, debido al encarecimiento del crédito que conlleva. Si ante incrementos en la tasa de interés la tasa de cambio cae –en respuesta posiblemente a unas mayores entradas de capitales– la economía sería inestable y el efecto de la tasa de interés sobre el crecimiento no sería claro. De modo que, la estabilidad del sistema depende en gran medida de la dinámica del tipo de cambio. Este no es sólo un factor nominal sin efectos reales, sino que puede llegar a causar una recesión (a través de la reducción de la inversión y, por tanto, de la demanda agregada) y una crisis financiera. Al igual que en Foley (2003) la estabilidad requiere un compromiso fuerte de la autoridad monetaria con la estabilización. Sin embargo, los aumentos de la tasa de interés, aunque estabilicen el producto, pueden causar crisis financieras que implican pérdida de activos y un menor crecimiento. Si el tipo de cambio reacciona positivamente ante cambios en la tasa de interés, un overshotting del tipo de cambio traería inestabilidad económica además de inestabilidad financiera. Debido al efecto “costo de financiamiento” que reduciría la inversión, la tasa de beneficios y el crecimiento económico. Algunas mejoras a este modelo que valdría la pena incluir son: considerar el efecto del riesgo de no pago generalizado de la deuda en moneda local; tomar en cuenta las interrelaciones entre la deuda en moneda local y extranjera; mostrar los efectos sobre el mercado laboral de las crisis financieras, puesto que aunque se intuye que una caída del producto se acompaña de una caída en el empleo, no se hace explícito. Finalmente se hace hincapié en que el estudio de los costos de las crisis es importante, puesto que llama la atención sobre la necesidad de prevenirlas.

REFERENCIAS BIBLIOGRÁFICAS 1. Arestis, P. y Glickman, M. (2002). Financial Crisis in Southeast Asia: Dispelling Illusion the Minskyan Way. Cambridge Journal of Economics, 26, 237-260. 2. Akyüz, Y. (1998). The East Asia Financial Crisis: Back to the Future. Ginebra: United Nations Conference for Trade and Development. Recuperado de http://www. unicc.org/unctad/en/pressref/prasia98.htm. 3. Besancenot, D. y Vranceanu, R. (2007). Financial Instability under a Flexible Exchange Rate. Scandinavian Journal of Economics, 109(2), 291-302. 4. Caballero, R. y Krishnamurthy, A. (2000). Emerging Market Crises: An Asset Markets Perspective (NBER Working Paper 6843). Cambridge: NBER.


174

Cuadernos de Economía, 30(55), julio - diciembre de 2011

5. Calvo, G. y Mendoza, E. (1998). Rational Herd Behaviour and the Globalization of Security Markets (Discussion Paper / Institute for Empirical Macroeconomics 120). Minneapolis: Federal Reserve Bank of Minneapolis. 6. Campos Romero, D. e Isaza Delgado, J.F. (2002). Prolegómenos a los Sistemas Dinámicos. Bogotá: Universidad Nacional de Colombia. 7. Castro Fernández, J.C. (2003). Endeudamiento Privado Externo y Régimen Cambiario: Un modelo para Países en Desarrollo. Trabajo para optar al título de Economista. Universidad Nacional de Colombia, Bogotá. 8. Cavaralli, L. y Corsetti, G. (2000). Shadow Rates and Multiple Equilibria in the Theory of Currency Crises. Journal of International Economics, 51, 257-286. 9. Céspedes, L; Chang, R. y Velasco, A. (2000). Balance Sheets and Exchange Rate Policy (NBER Working Paper 7840). Cambridge, MA.: NBER. 10. Chang, R. y Velasco, A. (1999). Fragilidad Financiera y Régimen Cambiario. Planeación y Desarrollo, 30(1), 7-46. 11. Chang, R. y Velasco, A. (2000). Banks, Debt Maturity and Financial Crisis. Journal of international Economics, 51, 169-194. 12. Chang, R. y Velasco, A. (2001). A Model of Financial Crises in Emerging Markets. The Quartely Journal of Economics, 116(2), 489-517. 13. Christiano, L.; Gust, C. y Roldosd, J. (2004). Monetary policy in a financial crisis. Journal of Economic Theory, 119, 64-103. 14. Conolly, M. y Taylor, D. (1984). The Exact Timing of the Collapse of an Exchange Rate Regime and its Impact on Relative Price of Traded Goods. Journal of Money, Credit and Banking, 16(2), 194-207. 15. Dymski, G. (1999). Asset Bubbles And Minsky Crises In East Asia: A Spatialized Minsky Approach (Jerome Levy Economics Institute Working Paper). New York: Jerome Levy Economics Institute. 16. Foley, D. (2003). Financial Fragility in Developing Economies. En: Dutt, A.K. y Ros (eds.). Development economics and structuralist macroeconomics: essays in honor of Lance Taylor (pp. 157-168). Northampton: Edward Elgar Publishing, Inc. 17. Flood, R. y Garber, P. (1984). Collapsing Exchange Rate Regimes: Some Linear Examples. Journal of International Economics, 41(3/4), 1-13. 18. García, C. y Olivie, I. (1999). Modelos Teóricos de Crisis de Tipo de Cambio y su Aplicación a las Crisis de Asia Oriental (Documento de Trabajo 99-10). Madrid: Universidad Complutense. 19. Jeanne, O. y Masson, P. (2000). Currency Crises, Sunspots and Markov-Switching Regimes. Journal of International Economics, 50, 327-350. 20. Kalecki, M. (1956). Teoría de la Dinámica Económica: Ensayo Sobre los Movimientos Cíclicos y a Largo Plazo de la Economía Capitalista. México: FCE. 21. Kregel, J.A. (1998). Yes, It Did Happen Again - A Minsky Crisis Happened in Asia (Jerome Levy Economics Institute Working Papers No. 234). New York: Jerome Levy Economics Institute. 22. Krugman, P. (1999). Balance Sheets, the Transfer Problem and Financial Crises. International Tax and Public Finance, 6(4), 459-472. 23. Krugman, P. (1979). A model of balance of payments crisis. Journal of Money Credit and Banking, 11(3), 311-325.


Fragilidad financiera y tasa de cambio

Juan Carlos Castro

175

24. Mantey de Anguiano, G. (2000). Hymam P. Minsky en El Pensamiento Económico del Siglo XX. Comercio Exterior, 50(12), 1069-1076. 25. Masson, P. (1998). Contagion-Monsoonal Effects, Spillovers, and Jumps Between Multiple Equilibria (IMF Working Papers 98/142). Washington, D.C.: FMI. 26. Minsky, H.P. (1987). Las Razones de Keynes. México: FCE. 27. Minsky, H.P. (1982). Can “It” Happen Again? Essays on Instability and Finance. New York: Sharpe. 28. Mishkin, F. (1999). Global Financial Instability:Framework, Events, Issues. Journal of Economic Perspectives, 13(4), 3-20. 29. Mishkin, F. (2001). Financial Policies and the Prevention of Financial Crises in Emerging Market Countries (NBER Working Paper 8087). Cambridge, MA.: NBER. 30. Obsfeld, M. (1994). The logic of Currency Crisis (NBER Working Paper 8087). Cambridge, MA.: NBER. 31. Obsfeld, M. (1996). Models of Currency Crisis with Self-Fulfilling Features. European Economic Review, 40, 1037-1047. 32. Oreiro, J.L. (2006). Capital mobility, real exchange rate appreciation, and asset price bubbles in emerging economies: a Post Keynesian macroeconomic model for a small open economy. Journal of Post Keynesian Economics, 28(2), 317-344. 33. Ozkan, G. y Sutherland, A. (1998). A Currency Crisis Model With an Optimising Policymaker. Journal of International Economics, 44, 339-364. 34. Palley, T. (1994). Debt, Agrégate Demand, And The Business Cycle: An Analisis In The Spirirt Of Kaldor And Minsky. Journal of Post Keynesian Economics, 16(3), 371-390. 35. Piti, D. (2001). Currency Crises and the Real Economy: The Role of Banks (IMF Working Paper. WP/01/49). Washington, D.C.: FMI. 36. Saxena, S. (2004). The Changing Nature of Currency Crisis. Journal of Economic Surveys, 18(3), 321-350. 37. Sordi, S. y Vercelli, A. (2006). Financial fragility and economic fluctuations. Journal of Economic Behavior & Organization, 61, 543-561. 38. Taylor, L. y O’Conell, S. (2006). Una Crisis al Estilo Minsky. Investigación Económica, 187, 11-29. 39. Taylor, L. y Rada, C. (2003). Debt-Equity Cycles in the 20th Century: Empirical Evidence and a Dynamic Keynesian Model (CEPA Working Paper 2003-1). New York: Center for Economic Policy Analysis. 40. Zagha, R; Nankani, G. y Gill, I. (2006). Rethinking growth. Finance and Development, 43(1), 7-11.


176

Cuadernos de Economía, 30(55), julio - diciembre de 2011

ANEXO 1. LOS HECHOS ESTILIZADOS Y LA BIBLIOGRAFÍA Modelos tipo 1 Este tipo de modelos lo hacen bien en explicar las crisis que surgieron en los decenios de 1970 y 1980 (fundamentales) y la crisis del sistema monetario europeo. Sus características fueron: 1. Crisis latinoamericana de finales de la década de 1970 y principios de la de 1980. Grandes déficits fiscales (mayores al 8 % del PIB) y en cuenta corriente. Crecimiento sustancial de la oferta monetaria (financiamiento por señoreaje). Crecimiento del crédito doméstico al sector público. Tipo de cambio fijo. Salida de flujos de capitales y pérdida de reservas. Aumento en la tasa de interés como consecuencia de lo anterior. 2. Crisis del SME. Expectativas y crisis autocumplidas. Movilidad perfecta de capitales. Salidas de capital. Apreciación real. Recesión y crecientes tasas de interés pre-crisis. Ataques especulativos.

Modelos tipo 2 Estos modelos reflejan casi cualquier crisis. Los hechos estilizados relacionados son: 1. 2. 3. 4. 5. 6. 7. 8.

Ritmo de inversión y crecimiento acelerado en la parte inicial del ciclo. Alta demanda por crédito. Exceso de endeudamiento en algún sector de la economía (público o privado). Cambio de expectativas. Subida de las tasas de interés o caída en el retorno de la inversión. Desplazamiento de la demanda hacia activos líquidos. Caída en el precio de demanda de los activos. Cualquier choque que afecte el valor de la deuda o de los retornos puede desatar la crisis.

Modelos tipo 3 Inspirados en Minsky (1982, 1987) Estos son los modelos que mejor explican las crisis recientes. Además de los hechos estilizados de los modelos tipo 2 incluyen: 1. Apertura de la economía. 2. Choque exógeno (flujos de capital, tasa de cambio, tasa de interés, choque de expectativas). 3. No es necesario el exceso de endeudamiento, las reversiones de los flujos de capital u otro choque pueden desatar la crisis financiera.


Fragilidad financiera y tasa de cambio

Juan Carlos Castro

177

Modelos tradicionales (tasa de interés o tasa de cambio) 1. Alto apalancamiento (exceso de endeudamiento). 2. No necesariamente déficit en cuenta corriente. 3. Choques exógenos como: reversión de flujos de capital, diferencial de tasas de interés, demanda de exportaciones.

Modelos de información asimétrica y de crisis bancaria 1. Deterioro en los balances de los bancos o del sector no financiero (exceso de endeudamiento o term mismatches). 2. Incrementos endógenos de la tasa de interés. 3. Caída de los precios de los activos. La crisis surge como consecuencia de choques exógenos: incrementos de la tasa de interés, expectativas, tasa de cambio, flujos de capital.


178

Cuadernos de EconomĂ­a, 30(55), julio - diciembre de 2011


LA CALIDAD DE VIDA Y LA SITUACIÓN DE POBREZA DE LA POBLACIÓN DESPLAZADA (2008-2010)

Manuel Muñoz Conde1 Nelson Pachón García2 El desplazamiento de miles de personas de sus hogares y de sus tierras, causado por la expulsión violenta y el despojo de bienes, crea una situación de miseria que la Corte Constitucional (CC) ha querido aliviar y reparar mediante una serie de sentencias y autos en las que se ordena al Ejecutivo restaurar los derechos violentados de los desplazados y repararlos por los grandes perjuicios causados. La CC ha diseñado mecanismos para verificar el debido cumplimiento de sus sentencias, entre los cuales se encuentran las encuestas de verificación sobre población desplazada. Estas han sido realizadas, por encargo de la CC, a través de la Comisión de Seguimiento a la Política Pública Sobre Desplazamiento Forzado, por la Consultoría para los Derechos Humanos y el Desplazamiento (CODHES) y el Centro 1 Doctor

en Ciencias Económicas, se desempeña actualmente como Profesor Asociado de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia (Bogotá, Colombia). E-mail: mjmunozc@bt.unal.edu.co. Dirección de correspondencia: Cra 30 No 45-03, edificio 311, tercer piso, sala de profesores (Bogotá, Colombia). 2 Estadístico, se desempeña actualmente como Estadístico del Centro de Investigaciones para el Desarrollo de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia (Bogotá, Colombia). E-mail: npachong@unal.edu.co. Dirección de correspondencia: Cra 30 No 45-03, edificio 311, tercer piso, sala de profesores (Bogotá, Colombia). Los autores agradecen a todo el equipo de trabajo del CID que realizó la Tercera Encuesta Nacional de Verificación de los Derechos de la Población Desplazada (2010) con quienes se discutió el contenido de este documento. Igualmente, expresan su gratitud a Clara Ramírez por sus comentarios y aportes a las primeras versiones del documento. Este artículo fue recibido el 1 de marzo de 2011 y su publicación aprobada el 2 de agosto de 2011.

179


180

Cuadernos de Economía, 30(55), julio - diciembre de 2011

de Investigaciones para el Desarrollo de la Facultad de Ciencias Económicas de la Universidad Nacional (CID). Haciendo uso de la información de estas encuestas, se pretende estudiar las condiciones de vida y la situación de pobreza de la población desplazada, y establecer si estos aspectos han cambiado significativamente entre 2008 y 2010. Con este fin, en el documento se presenta un análisis sobre pobreza y calidad de vida de la población desplazada y se relacionan estas variables con las medidas tomadas por la CC para la restitución de los derechos básicos de esta población. El trabajo está dividido en cinco secciones. En la primera se enuncian las motivaciones del estudio y su objetivo principal. En el segundo apartado, se presentan las medidas de calidad de vida, pobreza y los indicadores de goce efectivo de derecho que se utilizarán. En el tercer segmento se realiza un análisis descriptivo de los indicadores descritos en la segunda sección. En la cuarta parte estudia si los niveles de calidad de vida y pobreza de la población desplazada están asociados con el goce o no de los derechos exigidos por la CC. Para finalizar se formulan las conclusiones.

MOTIVACIÓN El desplazamiento forzado, una catástrofe humanitaria causada por el hombre, conduce a una serie de perjuicios materiales y psicológicos, con la violación reiterativa de los derechos fundamentales como el de la vida y la libertad, acompañado en la mayoría de los casos del despojo de bienes y de la destrucción del grupo familiar. El desarraigo de las víctimas, su destierro y la desposesión los ha llevado a la miseria, tanto, que la CC ha exigido una serie de medidas con miras a restablecer la Constitución ya que se vive “un estado de cosas inconstitucionales” (Sentencia T-025 de 2004), ante la grave violación de los derechos de millones de víctimas. Para el restablecimiento pleno de la Constitución, la CC plantea una serie de medidas que van desde la ayuda inmediata al desplazado y la atención de emergencia, pasando por la asistencia para que el desplazado pueda habituarse a nuevos ambientes, con garantías de empleo y vivienda dignas, hasta la reparación integral por los derechos violentados. El objetivo de este estudio es analizar el grado en que se ha dado cumplimiento a lo ordenado por la CC y cómo esto ha incidido en la calidad de vida y en la situación de pobreza de la población desplazada. Esto es posible gracias a las encuestas de Verificación de los Derechos de la Población Desplazada realizadas por encargo de la CC, a la Comisión de Seguimiento a la Política Pública Sobre Desplazamiento Forzado (Comisión de Seguimiento). En ellas se realizan una serie de preguntas que permiten analizar la calidad de vida y la pobreza, lo mismo que la estimación de los Indicadores de Goce Efectivo de Derechos (IGED). En la siguiente sección se presentarán los indicadores de pobreza y calidad de vida, y los IGED, para luego mostrar los valores de los indicadores en 2008 y 2010.


Manuel Muñoz y Nelson Pachón181

La situación de pobreza de la población desplazada

MEDIDAS DE CALIDAD DE VIDA, POBREZA E IGED Para la medición de la calidad de vida y la pobreza, se emplearán el Índice de Condiciones de Vida (ICV), la magnitud e intensidad de la pobreza por ingresos (Línea de Pobreza –LP– y Línea de Indigencia –LI–), la magnitud de la pobreza por Necesidades Básicas Insatisfechas (NBI) y el Método Integrado de Pobreza (MIP). Es importante aclarar que los indicadores de pobreza hacen parte integral de los indicadores de calidad de vida, ya que la pobreza incide negativamente en las condiciones de vida de una sociedad. La magnitud e incidencia de la pobreza absoluta son un claro indicio de mala calidad de vida. En general, un indicador muy utilizado como parte integrante de las condiciones de vida, es la distribución de ingresos, pero en este caso no parece muy pertinente dado que los ingresos de los desplazados son bastante bajos, por lo cual tendría sentido compararlos con los del resto de la población, pero no al interior del propio grupo. En vista de ello, se prefieren presentar los niveles de ingresos que han podido alcanzar los hogares con desplazados. A continuación, se hará una síntesis de los indicadores de NBI, LP, MIP y ICV.

Necesidades Básicas Insatisfechas (NBI) En el Cuadro 1 se presentan los Indicadores simples de Necesidades Básicas Insatisfechas (NBI), teniendo en cuenta las variables que los componen y su definición operativa. Puesto que cada indicador simple se refiere a una necesidad básica diferente, se construye un indicador compuesto. A partir de este se clasifica como pobre o con NBI, a todo hogar que se encuentre en al menos una de las situaciones de carencia expresada por los indicadores simples, y en miseria todo hogar que tenga dos o más de los indicadores simples de necesidades básicas insatisfechas. Para estimar la magnitud de la pobreza en la población, se supone que las personas que habitan en hogares con NBI o miseria, se encuentran en esas mismas condiciones. La magnitud de la pobreza se calcula como el total de hogares (personas) con NBI sobre el total de hogares (personas). En el caso particular de este estudio, todo grupo familiar que resida en un hogar pobre se considera pobre. CUADRO 1. METODOLOGÍA DE NECESIDADES BÁSICAS INSATISFECHAS (DANE) Indicador

Descripción

1. Vivienda inadecuada

Recoge las características físicas que clasifican una vivienda considerada inadecuada para el alojamiento humano.

Definición operativa. Situaciones que expresan privaciones Incluye hogares en: viviendas móviles, refugio natural o puente; viviendas sin paredes o con paredes exteriores de zinc, tela, lona, cartón, latas, desechos, plástico; viviendas con pisos de tierra.


182

Cuadernos de Economía, 30(55), julio - diciembre de 2011 Indicador

Descripción

2. Hacinamiento crítico

Intenta captar los niveles críticos de ocupación de los recursos de la vivienda por el grupo que la habita. Expresa en forma más directa el no acceso a condiciones vitales y sanitarias mínimas.

3. Servicios inadecuados

4. Alta dependencia económica

Este es un indicador indirecto de los niveles de ingreso.

5. Inasistencia escolar

Mide la satisfacción de necesidades educativas mínimas para la población infantil.

Definición operativa. Situaciones que expresan privaciones Se consideran en hacinamiento crítico los hogares con más de tres personas por cuarto.

Se clasifican aquí: hogares sin sanitario y hogares que carecen de acueducto y se proveen de agua de río, quebrada, manantial, nacimiento, carrotanque o de la lluvia. Considera los hogares con más de tres personas por miembro ocupado cuyo jefe haya aprobado como máximo dos años de educación primaria. Incluye los hogares con, por lo menos un niño entre 7 y 11 años, pariente del jefe y que no asita a un centro de educación formal.

Fuente: Muñoz y Pachón (2008a).

Línea de Pobreza (LP) La Línea de Pobreza (LP) se define como el ingreso mínimo por debajo del cual, se considera que un individuo es pobre y la Línea de Indigencia (LI) corresponde al ingreso mínimo necesario para satisfacer las necesidades alimenticias (Muñoz, 1988, 1996). A partir de ellas se puede estimar otros indicadores. Porcentaje de pobres. Llamado también magnitud o incidencia de la pobreza. Se define como: q P0 = H = n Indica la proporción de la población cuyos ingresos son menores o iguales que la LP. Por su parte, la magnitud de la indigencia corresponde a la proporción de hogares con un ingreso menor a la LI. Si un hogar es pobre todos los miembros del hogar se consideran pobres. Brecha de pobreza (BP), este indicador se define como: ] q [ 1∑ Yi I= 1− q i=1 Z Siendo Z la Línea de pobreza, q el número de individuos cuyos ingresos son menores o iguales que la LP y Yi el ingreso del individuo i. La BP establece, en promedio, el ingreso que le hace falta a las personas (hogares) pobres para salir de esta condición y permite conocer qué tan pobres son los pobres, pues entre más alta sea la brecha, más ingresos se requieren para salir de esta situación.


La situación de pobreza de la población desplazada

Manuel Muñoz y Nelson Pachón183

El Índice FTG. Hay tres indicadores de pobreza que corresponden a la clase de índices propuesta por Foster, Greer y Thorbecke (FGT): el porcentaje de pobres, la intensidad de pobreza y la distancia cuadrática media. El índice FTG puede expresarse en forma general como: ]α q [ 1∑ Yi Pα = 1− α = 0, 1, 2 n i=1 Z Siendo n la población total, Z la LP, q el número de individuos cuyos ingresos son menores o iguales a la LP, y Yi el ingreso del individuo i. Con α = 0 se obtiene la incidencia. Con α = 1 se calcula P1 que corresponde a un índice de Intensidad de la Pobreza (IP): ] q [ Yi 1∑ 1− P1 = H.I = n i=1 Z Cuando α = 2 se obtiene un indicador llamado Severidad de la Pobreza (SP), el cual da un mayor peso al déficit de los más pobres. En otras palabras, indica cuánta desigualdad hay entre los pobres: ]2 q [ 1∑ Yi P2 = 1− n i=1 Z Su cálculo es similar al de la BP, teniendo en cuenta que la variable sobre ]2 [ la cual se estima la media es 1 − YZi , cuando el hogar es pobre y cero en caso contrario.

Método Integrado de Pobreza (MIP) Este método combina la pobreza medida a partir de las NBI con la pobreza medida a partir de la LP. Rubén Katzman (1989) divide a los hogares (o personas) en cuatro grupos: No pobres, es el grupo constituido por hogares o personas que no son pobres ni por NBI ni por LP. Pobreza inercial, corresponde a hogares (personas) que no son pobres por LP y si lo son por NBI. Pobreza reciente, pertenecen a este grupo hogares (personas) que son pobres por LP y no lo son por NBI. Pobreza crónica, hogares que son pobres por LP y NBI. Para su cálculo se requiere construir una variable compuesta por 4 valores, uno por cada una de las 4 posibles combinaciones de la variable indicadora de pobreza por NBI –excluyendo alta dependencia económica– y la variable indicadora de hogares (personas) pobres según LP. El porcentaje de población en cada grupo se calcula como el total de individuos con la característica sobre la población total.


184

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Índice de Condiciones de Vida (ICV) Si bien los indicadores de pobreza expuestos anteriormente, pueden considerarse como una medida del bienestar social de una sociedad, ya que permiten identificar la proporción de personas que no tienen recursos para acceder a bienes y servicios básicos, no tienen en cuenta que la pobreza es más que falta de recursos y que por ello es necesario considerar otras variables, de acuerdo con el peso que cada una pueda tener en el bienestar y en la misma pobreza. En otras palabras, la pobreza y el bienestar son un fenómeno multidimensional. Esto ha llevado a que los expertos creen un índice de bienestar que pretende medir las condiciones de vida, considerando su condición multidimensional: el ICV. El Índice de Condiciones de Vida (ICV) mide el estándar de vida mediante la combinación de variables de: capital humano, acceso potencial a bienes y servicios físicos, calidad de la vivienda y composición del hogar. Este índice asigna a cada hogar un puntaje que varía entre 0 y 100, que aumenta cuando mejoran sus condiciones. La forma de construir el ICV ha variado, ya que se han incluido nuevas variables, mientras que otras se ha excluido. La versión utilizada en este trabajo es la diseñada por la Misión Social DNP-PNUD (Sarmiento y Ramírez, 1997). En este modelo hay cuatro factores, cada uno de los cuales está compuesto por variables relacionadas, ya sea de calidad de la vivienda, servicios con los que se cuentan o educación. A continuación se relacionan los cuatro factores identificados por el modelo y sus componentes, cada uno de las cuales ha recibido una ponderación de acuerdo con su poder discriminante. La suma total arroja el valor del índice para cada hogar, el cual se normaliza para que varíe entre 0 y 100. Los puntajes asignados a cada una de las categorías de las variables componentes se encuentran en el Cuadro 2. 1. Acceso y calidad de los servicios. Se emplean en su medición las siguientes variables: disponibilidad y tipo de servicio sanitario, fuente de abastecimiento de agua para el consumo humano, combustible empleado para cocinar y sistema de eliminación de basuras. 2. Educación y capital humano. Este factor incluye la escolaridad máxima del jefe del hogar; la escolaridad promedio de las personas de 12 años y más, la proporción de jóvenes de 12 a 18 años que asisten a nivel secundario, técnico o universitario; y la proporción de niños de 5 a 11 años que asisten a un establecimiento educativo. Mide los niveles de escolaridad acumulada y potencial del grupo familiar. 3. Tamaño y composición del hogar. Incluye la proporción de niños menores de 6 años en el hogar y el hacinamiento, medido como la relación entre el número de personas y el número de cuartos disponibles. 4. Calidad de la vivienda. Para determinar lo adecuado de la vivienda se emplean como variables la calidad de los materiales de las paredes y de los pisos.


La situación de pobreza de la población desplazada

Manuel Muñoz y Nelson Pachón185

CUADRO 2. PUNTAJES PARA EL CÁLCULO DEL ICV (MISIÓN SOCIAL-DNP) FACTOR Factor 1. Acceso y calidad de los servicios

VARIABLE Eliminación de excretas

Fuente de abastecimiento de agua

Combustible para cocinar

empleado

Recolección de basuras

Factor 2. Educación y capital humano

Escolaridad máxima del jefe del hogar

Escolaridad promedio personas de 12 años y más

Proporción de jóvenes de 12-18 que asisten secundaria/universidad

Proporción de niños de 5-11 que asisten a establecimiento educativo Factor 3. Tamaño y composición del hogar

Proporción de niños menores de 6 años en el hogar Hacinamiento en el hogar (N. de personas por cuarto)

CATEGORIAS No tiene servicio sanitario Inodoro conectado a pozo séptico, inodoro sin conexión, letrina Bajamar Inodoro con conexión a alcantarilla Río, quebrada, manantial, nacimiento, agua embotellada Pozo, lluvia, aljibe Pila pública, carrotanque, aguatero Acueducto por tubería, otra fuente por tubería Leña, carbón, material de desechos, no cocinan Petróleo, gasolina Gas, electricidad La tiran a un patio La queman o entierran La tiran a un río Recolección pública Sin educación Primaria incompleta Primaria completa Secundaria incompleta Secundaria completa Universitaria incompleta Universitaria completa Postgrados y doctorados 0 = Escolaridad 0 <Escolaridad <= 4 4 <Escolaridad <= 5 5 <Escolaridad <= 10 10 <Escolaridad <= 11 11 <Escolaridad <= 15 15 <Escolaridad 0 = Proporción asistencia 0 <Proporción asistencia <1 Proporción asistencia = 1 Hogares sin jóvenes de 12-18 años 0 = Proporción asistencia 0 <Proporción asistencia <1 Proporción asistencia = 1 Hogares sin niños de 5-11 años 0.65 <proporción de niños 0.00 proporción de niños <0.65 Proporción de niños = 0.00 7 <= Hacinamiento 6 <= Hacinamiento <7 5 <= Hacinamiento <6 4 <= Hacinamiento <5 3 <= Hacinamiento <4 2 <= Hacinamiento <3 0 <= Hacinamiento <2

PUNTAJE 0,00000 2,77638

2,96622 7,14265 0,00000 0,77646 4,01172 6,98816 0,00000 4,83240 6,67331 0,00000 1,58639 2,59314 6,62014 0,00000 3,46426 7,37326 9,40968 10,53322 11,42269 11,51632 11,51632 0,00000 2,38766 6,53763 9,66432 11,54033 12,10882 12,30780 0,00000 4,37408 5,65614 5,65614 0,00000 0,00000 5,69468 9,94619 0,00000 0,71880 7,44939 0,00000 2,46770 3,72897 5,01766 5,84022 7,86922 12,80462


186 FACTOR Factor 4. Calidad de la vivienda

Cuadernos de Economía, 30(55), julio - diciembre de 2011 VARIABLE Material predominante de los pisos de la vivienda

Material predominante de las paredes de la vivienda

CATEGORIAS Tierra o arena Madera burda, tabla Cemento Baldosín, ladrillo, madera, pulida, mármol, alfombra, tapete Sin paredes Guadua, caña, esterilla Madera burda Bahareque Zinc, tela, cartón Adobe o tapia pisada Bloque, ladrillo

PUNTAJE 0,00000 3,18360 4,33323 6,78725

0,00000 0,00000 0,58653 0,70788 1,63824 2,28545 6,10802

Fuente: Sarmiento y Ramírez (1997).

El algoritmo de cálculo empleado consiste en crear nuevas variables de acuerdo con las categorías identificadas por el modelo y en asignarles los puntajes correspondientes. A continuación se suman dichos puntajes por factor componente y procede a calcular el ICV para cada hogar como la suma de los puntajes totales de los 4 factores componentes. La medida agregada del indicador es el promedio de los puntajes asignados a los hogares en la muestra.

Indicadores de Goce Efectivo de Derecho (IGED) Como ya se ha mencionado, la CC ha establecido una serie de indicadores (llamados de Goce efectivo de derechos, IGED), para hacer seguimiento al grado de cumplimiento de lo ordenado por esta institución, con respecto al restablecimiento del orden constitucional. Para entender los indicadores es necesario analizar primero lo ordenado por la CC. La CC definió los derechos mínimos de la población desplazada y por tanto el Gobierno y la sociedad deben garantizar. Los derechos que exige la CC son: subsistencia mínima, vida, integridad, libertad, identidad, seguridad, salud, educación, vivienda, alimentación, generación de ingresos. De estos derechos, hay cuatro que no se pueden medir a través de encuestas: vida, libertad, integridad y seguridad. Los otros siete se han venido monitoreando con las encuestas de verificación. Subsistencia mínima La CC definió que todo desplazado tiene derecho a la subsistencia mínima, para lo cual adoptó los IGED que garanticen que “el hogar en situación de emergencia o vulnerabilidad extrema tiene cubiertas sus necesidades con la subsistencia mínima” (Comisión de Seguimiento, 2009, 79). Hay dos tipos de asistencia: 1. Ayuda inmediata, que debe recibir toda persona que declare que ha sido forzada a desplazarse, que incluye: atención médica, valoración psicosocial,


La situación de pobreza de la población desplazada

Manuel Muñoz y Nelson Pachón187

albergue temporal, atención médica de urgencia, medicinas, alimentación, bienes de aseo, utensilios de cocina, camas/colchonetas, vestuario y agua potable. 2. Atención humanitaria de emergencia que deben recibir todos los desplazados inscritos en el Registro Único de Población Desplazada (RUPD) e incluye: auxilio para arriendo, cupos escolares, documentos de identidad, capacitación, vinculación a proyectos productivos, asistencia y orientación jurídica, protección, afiliación a salud, mercados o bonos alimentarios, elementos de aseo, elementos de cocina, camas/ colchonetas. Identidad Todas las personas desplazadas deben poseer documentos de identidad de acuerdo con su edad: Registro Civil para personas de seis o menos años. Tarjeta de identidad para niños y niñas de siete a diez y siete años inclusive. Cédula de ciudadanía para personas de 18 años o más. Hombres de 18 a 50 años con libreta militar. Salud “A fin de asegurar el derecho a la salud para la población desplazada, la Corte Constitucional adoptó una serie de IGED que buscan dar cuenta del acceso, calidad, aceptabilidad y disponibilidad del servicio” (Comisión de Seguimiento, 2009, 99). De estos hacen parte: Afiliación al régimen contributivo de seguridad social en salud. En su defecto que el grupo familiar tenga carta para ser atendido. Acceso al sistema de vacunación (para niños de uno a menos de 5 años). Control de crecimiento y desarrollo (menores de 5 años). Controles prenatales (mujeres embarazadas). Atención psicológica. Educación Todo niño(a) de 5 a 17 años tiene derecho a asistir a un establecimiento de educación formal. Vivienda “[. . .] La Corte Constitucional ha señalado la importancia fundamental del derecho a una vivienda digna, en vista de que estas personas han tenido que abandonar sus propios hogares[. . .]” (Comisión de Seguimiento, 2009, 117), los IGED son: Seguridad jurídica de la tenencia (propietarios con escritura registrada, arrendatarios con contrato escrito).


188

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Condiciones materiales de la vivienda; tipo de vivienda; material de las paredes; hacinamiento (medido en personas por cuarto para dormir); disponibilidad de servicios públicos domiciliarios; ubicación de la vivienda en zonas de alto riesgo. Alimentación Los hogares deben disponer de alimentos aptos para el consumo y acceder a una cantidad suficiente de los mismos. En este indicador se incluye el que los niños menores de cinco años asistan a una guardería o jardín, ya que ello presupone que allí reciben por lo menos una ración de alimentos adecuada. Generación de ingresos Se refiere a que el hogar cuente con un ingreso autónomo por encima de la LP, que los miembros ocupados del hogar lo estén en actividades formales (ganen al menos un salario mínimo, estén afiliados a la Seguridad social y no sean ayudantes familiares sin remuneración). Una vez expuesta la forma de medir la pobreza y bienestar de los hogares y la metodología diseñada para evaluar el grado de cumplimiento de los derechos, en la siguiente sección se describirá la magnitud de la pobreza y el grado de bienestar del que gozan los hogares desplazados, según estén o no en el RUPD.

APROXIMACIÓN A LA ESTIMACIÓN DE INDICADORES EN ESTE ESTUDIO El análisis que se presenta en este documento, fue realizado con información de la Tercera Encuesta de Verificación, logrando acceder a los indicadores de pobreza e ICV. En cuanto a los IGED, las encuestas de seguimiento contienen una batería de preguntas, con las cuales es posible saber si la población desplazada los ha podido ejercer o no. En este apartado se muestra cómo se ha construido una calificación para cada uno de los derechos (de 0 a 5), de acuerdo con el grado de cumplimiento de los mismos. Esto como forma práctica de cuantificar la garantía del derecho de: atención inmediata, atención humanitaria de emergencia, identidad, salud, educación, vivienda, seguridad alimentaria y generación de ingresos3 .

Ayuda inmediata Ya se ha mencionado que todos los desplazados que han declarado su condición ante la autoridad competente, son sujetos de este derecho: por ello, para su calificación se excluyen los desplazados que no han declarado su condición. 3 Para

2010, se agregan los indicadores de reparación.


La situación de pobreza de la población desplazada

Manuel Muñoz y Nelson Pachón189

Las variables de subsistencia mínima que conforman este derecho fueron consideradas para su calificación4 . Si el grupo familiar había accedido a la ayuda inmediata, se calificaba con 5, en caso contrario con cero. Para la nota definitiva de este derecho se consideraron las ocho variables restantes y se promediaron, dando una ponderación de 45 % a alimentos, 45 % a albergue y 10 % al resto. El peso establecido fue el resultado de las frecuencias de respuesta a la siguiente pregunta: “de los siguientes apoyos, cuál considera más importante recibir en este momento?” Más del 90 % de los grupos dan prioridad a vivienda, alimentación y generación de ingresos, y el resto se distribuye en los otros apoyos.

Atención humanitaria de emergencia Son sujetos de derecho todos los grupos familiares inscritos en el Registro Único de Población Desplazada (RUPD). Como en el caso anterior la calificación, fue 0 si no se recibió el apoyo específico y 5 si se recibió. Aquí también se calcula un promedio ponderado: 90 % para vivienda, alimentación y vinculación a proyectos productivos y 10 % para el resto de apoyos5 . Se debe anotar que para este derecho algunos grupos familiares pueden no recibir directamente vivienda o alimentos, pero se les suministra una tarjeta débito con dinero. En este caso si un grupo no recibió alimentos, pero si el dinero, se considera que recibió alimentos, lo mismo ocurre para el caso de la vivienda. Si el grupo no obtuvo ni alimentos ni vivienda, pero si el dinero, se considera que éste solo suple uno de los dos primeros. Por último, si recibió directamente alimentos o vivienda, y además dinero, no se le da puntaje adicional.

Identidad Para este derecho, como para el resto de indicadores que se describirán más adelante, si bien se toma a todos los grupos familiares desplazados, se definen los sujetos de derecho según el caso, por ejemplo, el sujeto de derecho de registro civil es la población de 6 años o menos; para tarjeta de identidad, la población de 7 a 17 años; para la cédula, los desplazado de 18 años o más; y para la libreta militar, los hombres mayores de edad. Una vez definidos los sujetos de derecho para el grupo familiar, se divide el número de personas que tienen el goce por el número de sujetos de ese derecho y se multiplica por cinco; así se obtiene la nota del grupo por ese derecho. Posteriormente, se toma un promedio de las notas, para obtener la nota promedio del derecho, en este caso el promedio se calcula sobre lo obtenido en registro civil, tarjeta de identidad, libreta militar y cédula. 4 No

se incluyeron atención médica de urgencias ni medicina, por considerar que en estos dos casos sólo tiene sentido si es expresamente solicitado por el grupo familiar. 5 Estas ponderaciones se explican por la razón manifestada en apartado anterior.


190

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Seguridad alimentaria En este indicador todos los miembros del grupo desplazado resultan sujetos de derecho. Para deducir el IGED, se tomaron en consideración tres preguntas: 1. Durante la semana pasada, ¿comió menos de lo que deseaba por falta de alimentos o de dinero para comprarlos? 2. Durante la semana pasada, ¿se quejó de hambre por falta de alimentos o de dinero para comprarlos? 3. Durante la semana pasada, ¿cuántos desayunos, cuántos almuerzos y/o cuántas comidas dejó de consumir, por falta de alimentos o de dinero para comprarlos? Otro indicador de seguridad alimentaria que se utiliza es si la madre lactante recibe alimentos preparados de algún programa especial para este grupo de personas. Igualmente, se utiliza la pregunta de si el niño menor de 5 años asiste a una guardería o jardín. Para cada una de las tres primeras preguntas, se considera que la persona goza del derecho si no ocurrió el evento que se indaga. La nota es el promedio del número de personas del grupo que satisfacen el derecho sobre el total de sujetos de derecho. Para las otras dos variables, los sujetos de derecho son las madres y los niños, respectivamente.

Salud Para este derecho se tomaron seis indicadores. Controles prenatales de las mujeres embarazadas. Se considera que goza del derecho la mujer embarazada que por lo menos va cada dos meses durante su embarazo. Control de crecimiento. La población sujeto de derecho son los menores de cinco años. Se ha gozado del derecho si en los últimos doce meses han sido llevados a control de crecimiento y desarrollo. Vacunación. La población sujeto de derecho son todos los niños de uno a cuatro años (inclusive). Deben recibir la primera dosis de la vacuna triple viral. Afiliación al régimen de seguridad social en salud. Todos los desplazados son sujetos de este derecho. Atención médica. Los sujetos de derecho son todos los desplazados que soliciten este servicio. Atención psicosocial. La población sujeto de derecho son todos los desplazados que soliciten este apoyo. La nota de este derecho se obtiene tomando la proporción de los que han gozado de estos servicios con respecto a los sujetos de derecho de cada indicador. Posteriormente, se calcula un promedio simple.


La situación de pobreza de la población desplazada

Manuel Muñoz y Nelson Pachón191

Educación Como el indicador propio de este derecho está incluido dentro de NBI y el ICV, se optó por tomar los indicadores complementarios de gratuidad de la matricula y la pensión. Los sujetos de derecho son todos los niños(as) entre 5 y 17 años (inclusive) que deben estar estudiando, y cuya matrícula y pensión deben ser gratuitas. Si esto se cumple, para cada caso, se coloca 1 en el indicador, si solo se les condona una parte 0,5 y si no se condona nada 0. Luego se obtiene el promedio por hogar de los sujetos de derecho y se multiplica por cinco.

Vivienda Para vivienda sólo se toman en cuenta los indicadores de seguridad jurídica y de ubicación de la vivienda en zonas de riesgo, ya que los otros aspectos están incluidos en el ICV y en NBI. Si alguien del hogar es propietario de la vivienda y tiene escritura registrada de ésta, o si la vivienda es arrendada con contrato escrito, se considera con seguridad jurídica. Por otro lado, se considera que la vivienda no está ubicada en una zona de alto riesgo si ésta no ha sido afectada por inundaciones, derrumbes, entre otros, y no ha sido declarada en alto riesgo por autoridades locales u organizaciones comunitarias. Si la vivienda tiene seguridad jurídica y no está ubicada en zonas de alto riesgo, el indicador tomará el valor de 5, si cumple alguna de las dos condiciones anteriores 2,5 y si no cumple ninguna de las dos 0.

Generación de ingresos Dado que los ingresos se consideran dentro del indicador de LP, no fueron tenidos en cuenta directamente para medir el goce de este derecho. No obstante, si se contemplan indicadores de capacitación laboral, programas de integración y generación de ingresos. Para ello se utilizaron tres preguntas: J14. Durante el tiempo que lleva como desplazado, ¿ha recibido o está recibiendo algún curso de capacitación laboral o para aprender un oficio? J16. Durante el tiempo que lleva como desplazado, ¿ha sido beneficiario de programas de generación de ingresos? J18. Durante el tiempo que lleva como desplazado, ¿ha participado en programas de integración para desplazados? Los sujetos de este derecho son las personas desplazadas de 12 años o más. Si recibieron capacitación laboral obtiene 5, si no 0. Se aplica esta misma regla a los otros dos programas.


192

Cuadernos de Economía, 30(55), julio - diciembre de 2011

POBREZA Y CALIDAD DE VIDA DE LOS HOGARES CON PERSONAS VÍCTIMAS DEL DESPLAZAMIENTO FORZADO En esta parte se analizarán los cambios en las condiciones de vida de los hogares con personas desplazadas, según los resultados de la segunda y tercera encuesta de verificación. Como ya se ha señalado, se estudiarán los cambios ocurridos en diferentes indicadores de pobreza y de calidad de vida. Se ha querido mostrar esta evolución, no sólo para el ámbito nacional sino también para el regional, con el propósito de señalar, cuáles son las regiones que pueden presentar mayores dificultades al brindar a los desplazados, el apoyo necesario para restituir sus derechos. Las regiones consideradas son: 1. Antioquia-Chocó. Comprende los municipios de estos departamentos. 2. Costa baja. Abarca los municipios de Atlántico, Bolívar, Córdoba y Sucre. 3. Costa alta. Corresponde a los municipios de Magdalena, Guajira, Cesar y Norte de Santander. 4. Sur occidental. Incluye los municipios de los departamentos de Caquetá, Cauca, Nariño, Putumayo y el municipio de Buenaventura (Valle). 5. Centro. Considera Bogotá y los municipios de Cundinamarca, Tolima, Valle (sin Buenaventura), Santander, Huila, Caldas, Quindío y Risaralda. 6. Oriental. Comprende los municipios de Meta, Casanare y Guaviare. En los cuadros 3 a 7 se presentan los cambios en los indicadores de pobreza con la medición de LP y LI. En el Cuadro 3 se puede observar la distribución del total de hogares y personas desplazadas, si están o no inscritos en el RUPD, por región y por condición de pobreza.

Pobreza de ingresos En el Cuadro 4 se observa la incidencia de pobreza; 97,2 % de los hogares con desplazados eran pobres en 2008 y esta situación no cambió para 2010, cuando esta cifra fue de 97 %. Esto muestra un grado muy alto de pobreza entre los desplazados, ya que si bien la pobreza en Colombia, medida por LP es bastante alta (46 %), la magnitud mostrada en el grupo de desplazados es alarmante. Esta magnitud no cambia mucho entre las regiones consideradas. La región con menor magnitud de pobreza es la Oriental (en ambos años) con 95 % en 2010 y la de mayor magnitud es Costa Baja (también en ambos años) con 97,5 %. Se evidencia que el rango de variación entre regiones es muy pequeño.


TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD

Fuente: elaboración propia.

Sur Occidental

Oriental

Costa Baja

Costa Alta

Centro

Antioquia Chocó

TOTAL

REGIÓN E INSCRIP. EN RUPD

100,0 % 72,3 % 27,7 % 100,0 % 69,3 % 30,7 % 100,0 % 68,5 % 31,5 % 100,0 % 66,0 % 34,0 % 100,0 % 80,8 % 19,2 % 100,0 % 81,9 % 18,1 % 100,0 % 75,9 % 24,1 %

TOTAL

HOGARES POBREZA No Si 100,0 % 100,0 % 67,1 % 72,4 % 32,9 % 27,6 % 100,0 % 100,0 % 76,4 % 69,2 % 23,6 % 30,8 % 100,0 % 100,0 % 55,1 % 68,9 % 44,9 % 31,1 % 100,0 % 100,0 % 80,2 % 65,6 % 19,8 % 34,4 % 100,0 % 100,0 % 63,2 % 81,1 % 36,8 % 18,9 % 100,0 % 100,0 % 87,8 % 81,6 % 12,2 % 18,4 % 100,0 % 100,0 % 55,1 % 76,6 % 44,9 % 23,4 % 100,0 % 73,6 % 26,4 % 100,0 % 72,4 % 27,6 % 100,0 % 69,6 % 30,4 % 100,0 % 66,9 % 33,1 % 100,0 % 81,7 % 18,3 % 100,0 % 84,4 % 15,6 % 100,0 % 77,7 % 22,3 %

TOTAL

PERSONAS POBREZA No 100,0 % 68,5 % 31,5 % 100,0 % 63,5 % 36,5 % 100,0 % 61,1 % 38,9 % 100,0 % 70,4 % 29,6 % 100,0 % 72,1 % 27,9 % 100,0 % 93,2 % 6,8 % 100,0 % 62,2 % 37,8 % Si 100,0 % 73,7 % 26,3 % 100,0 % 72,5 % 27,5 % 100,0 % 69,8 % 30,2 % 100,0 % 66,8 % 33,2 % 100,0 % 81,8 % 18,2 % 100,0 % 84,0 % 16,0 % 100,0 % 78,0 % 22,0 %

CUADRO 3. HOGARES CON PERSONAS DESPLAZADAS (SEGÚN POBREZA POR LP)

100,0 % 81,1 % 18,9 % 100,0 % 74,7 % 25,3 % 100,0 % 84,6 % 15,4 % 100,0 % 78,4 % 21,6 % 100,0 % 86,8 % 13,2 % 100,0 % 83,7 % 16,3 % 100,0 % 79,8 % 20,2 %

TOTAL

HOGARES POBREZA No Si 100,0 % 100,0 % 72,3 % 81,4 % 27,7 % 18,6 % 100,0 % 100,0 % 59,4 % 75,2 % 40,6 % 24,8 % 100,0 % 100,0 % 85,7 % 84,5 % 14,3 % 15,5 % 100,0 % 100,0 % 72,1 % 78,6 % 27,9 % 21,4 % 100,0 % 100,0 % 68,9 % 87,2 % 31,1 % 12,8 % 100,0 % 100,0 % 68,0 % 84,5 % 32,0 % 15,5 % 100,0 % 100,0 % 74,7 % 80,0 % 25,3 % 20,0 % 100,0 % 82,8 % 17,2 % 100,0 % 77,6 % 22,4 % 100,0 % 85,3 % 14,7 % 100,0 % 79,7 % 20,3 % 100,0 % 88,6 % 11,4 % 100,0 % 85,6 % 14,4 % 100,0 % 82,0 % 18,0 %

TOTAL

PERSONAS POBREZA No Si 100,0 % 100,0 % 73,8 % 83,0 % 26,2 % 17,0 % 100,0 % 100,0 % 59,8 % 77,9 % 40,2 % 22,1 % 100,0 % 100,0 % 85,4 % 85,3 % 14,6 % 14,7 % 100,0 % 100,0 % 70,6 % 79,9 % 29,4 % 20,1 % 100,0 % 100,0 % 75,3 % 88,8 % 24,7 % 11,2 % 100,0 % 100,0 % 68,5 % 86,2 % 31,5 % 13,8 % 100,0 % 100,0 % 81,5 % 82,0 % 18,5 % 18,0 %

La situación de pobreza de la población desplazada Manuel Muñoz y Nelson Pachón193


194

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Por otro lado, se puede observar en el Cuadro 4 que la magnitud de pobreza es un poco mayor en los hogares con desplazados inscritos en el RUPD, pero al menos, en el total esa diferencia no parece significativa. Entre regiones se observan algunas diferencias, pero siempre entre hogares no inscritos. En la región Oriental la magnitud de la pobreza pasa de 96,9 % a 90,2 %, que corresponde al cambio positivo más grande. Otras regiones donde la magnitud bajó para los no inscritos son Antioquia-Chocó y Costa Baja. Esto contrasta con los resultados para la región Centro, en la cual la magnitud pasa de 95,2 % a 97,6 %. En el Cuadro 5 se puede observar la evolución de la magnitud de la indigencia, que está por encima del 70 % y que contrasta con los datos del total del país (alrededor del 17 %). En este caso, los cambios parecen ser positivos, al bajar la indigencia de 77 % en 2008 a 75 % en 2010, debido a disminuciones importantes en Costa Alta, Costa Baja y en la Región Oriental, zonas en las cuales la indigencia cae en más del 5 %. Queda para más adelante tratar de explicar estas disminuciones, pero las que se presentan en la Costa (baja y alta) parecen ser de naturaleza diferente a las reducciones de la Oriental. En las dos primeras, el número de desplazados decreció, lo cual podría explicar la caída. En las otras tres regiones las variaciones no son muy grandes. Como se mostró en la metodología, no basta con conocer la magnitud de la pobreza, también es importante mirar otras variables relacionadas; por ello se han estimado (para el caso de los ingresos) otros indicadores, como el BI (cuanto se requiere de ingresos para alcanzar la línea de pobreza), este indicador se presenta en el Cuadro 6. Lo que allí se muestra es que un hogar con personas desplazadas requeriría multiplicar por algo más de 3 sus ingresos para salir de pobre o lo que es equivalente, un hogar de personas desplazadas tiene un ingreso per cápita 72 % por debajo de la LP, en promedio6 . En este caso, también el cambio entre 2008 y 2010 es mínimo, mostrando una tendencia a aumentar, en especial en Antioquia-Chocó y una disminución en la región Oriental. Los otros dos indicadores de pobreza (intensidad y severidad) se pueden observar el Cuadro 4. Para los desplazados estos indicadores son prácticamente iguales en 2008 y 2010, incluso el de severidad es un poco más alto en el 2010. En lo que sí parece haber diferencias es entre los inscritos y no inscritos al RUPD sobre todo en el 2010; en este año el indicador de intensidad está por debajo en 3 puntos para los no inscritos, lo mismo que el indicador de severidad7 . 6 En

Bogotá para toda la población, en 2007, la brecha era de 0,43 (Muñoz y Pachón, 2008b). efectos de comparación, cabe señalar que, en 2007, para Bogotá estos indicadores eran de 11,9 y 7,4 respectivamente, presentándose los niveles más altos en la localidad de Ciudad Bolívar con 26,4 y 17,1 respectivamente (Muñoz y Pachón, 2008b).

7 Para


Fuente: elaboración propia.

Sur Occidental

Oriental

Costa Baja

Costa Alta

Centro

Antioquia Chocó

TOTAL

REGIÓN

INSCRIPCIÓN EN RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD

CUADRO 4. INDICADORES DE POBREZA CON LP Incidencia MEDIA 0,9716 0,9736 0,9663 0,9764 0,9740 0,9818 0,9661 0,9727 0,9517 0,9745 0,9690 0,9851 0,9807 0,9849 0,9631 0,9534 0,9500 0,9687 0,9685 0,9771 0,9412

2008 Intensidad MEDIA 0,6969 0,6997 0,6896 0,6978 0,6962 0,7012 0,6588 0,6665 0,6420 0,7092 0,7066 0,7143 0,7339 0,7378 0,7175 0,6389 0,6303 0,6775 0,7258 0,7304 0,7111 Severidad MEDIA 0,5420 0,5440 0,5370 0,5356 0,5340 0,5392 0,4965 0,5009 0,4869 0,5532 0,5525 0,5546 0,5831 0,5863 0,5697 0,4884 0,4767 0,5413 0,5868 0,5882 0,5825

Incidencia MEDIA 0,9702 0,9735 0,9563 0,9713 0,9772 0,9539 0,9736 0,9732 0,9755 0,9701 0,9725 0,9614 0,9751 0,9802 0,9415 0,9496 0,9590 0,9015 0,9680 0,9701 0,9598

2010 Intensidad MEDIA 0,6994 0,7050 0,6752 0,7217 0,7351 0,6820 0,6726 0,6756 0,6560 0,6932 0,6956 0,6845 0,7297 0,7376 0,6782 0,6199 0,6283 0,5770 0,7285 0,7325 0,7125 Severidad MEDIA 0,5490 0,5549 0,5233 0,5741 0,5899 0,5274 0,5165 0,5198 0,4983 0,5374 0,5402 0,5275 0,5874 0,5953 0,5357 0,4553 0,4606 0,4279 0,5883 0,5925 0,5717

La situación de pobreza de la población desplazada Manuel Muñoz y Nelson Pachón195


196

Cuadernos de Economía, 30(55), julio - diciembre de 2011

CUADRO 5. HOGARES CON PERSONAS DESPLAZADAS ( % DE HOGARES Y PERSONAS INDIGENTES) REGIÓN TOTAL Antioquia Chocó

Centro

Costa Alta

Costa Baja

Oriental Sur Occidental

INSCRIPCIÓN EN RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD

2008 Hogares Personas 77,19 80,91 77,95 81,64 75,20 78,89 76,83 79,91 76,72 80,19 77,06 79,18 69,55 73,53 70,85 74,41 66,73 71,52 80,77 84,34 81,11 85,34 80,11 82,32 85,66 88,55 86,50 88,99 82,13 86,61 65,31 68,22 64,62 68,46 68,43 66,91 79,82 83,57 80,63 83,94 77,27 82,27

2010 Hogares Personas 75,13 79,55 75,92 80,25 71,76 76,16 76,39 81,92 78,46 83,99 70,26 74,75 70,47 74,86 70,86 75,21 68,35 72,83 75,92 80,83 75,84 80,90 76,21 80,58 81,81 85,39 83,27 86,27 72,22 78,54 60,93 64,71 61,97 65,82 55,60 58,15 80,36 83,28 80,66 83,50 79,13 82,32

Fuente: elaboración propia. CUADRO 6. BRECHA MEDIA REGIÓN

TOTAL Antioquia Chocó

Centro

Costa Alta

Costa Baja

Oriental Sur Occidental

INSCRIPCIÓN EN RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD TOTAL RUPD NO RUPD

Fuente: elaboración propia.

2008 BRECHA MEDIA 0,717 0,719 0,714 0,715 0,715 0,714 0,682 0,685 0,675 0,728 0,729 0,725 0,748 0,749 0,745 0,670 0,663 0,699 0,749 0,748 0,755

2010 BRECHA MEDIA 0,721 0,724 0,706 0,743 0,752 0,715 0,691 0,694 0,672 0,715 0,715 0,712 0,748 0,752 0,720 0,653 0,655 0,640 0,753 0,755 0,742


La situación de pobreza de la población desplazada

Manuel Muñoz y Nelson Pachón197

Por regiones, se encuentran diferencias importantes: en Antioquia-Chocó y la Región Centro, hay un aumento de ambos indicadores; en las dos regiones de la costa y en la Sur Occidental, los indicadores prácticamente no cambian; mientras que en la Oriental hay una pequeña disminución. Se destaca el comportamiento en Antioquia-Chocó donde el aumento en la intensidad y severidad de la pobreza, se presenta con los hogares de desplazados inscritos en el RUPD, así la primera medida pasa de 69,6 a 73,5, mientras que la severidad pasa de 53,4 a 59; para los no inscritos los cambios son muy pequeños y en sentido contrario. Este comportamiento contrasta con lo sucedido con los no RUPD de las regiones Costa Alta y Costa Baja, en las cuales cae tanto el indicador de intensidad como el de severidad, en Costa Alta pasa de 71,4 a 68,5 el de intensidad y en Costa Baja se reduce, pasando de 57 a 53,6).

Necesidades Básicas Insatisfechas (NBI) Para 2010 los hogares con población en situación de desplazamiento tenían niveles de Necesidades Básicas Insatisfechas del orden de 47 % (Cuadro 7), los cuales son superiores a los del país hace 25 años, cuando con base en el Censo de 1985, el DANE estimó que 43,2 % de los hogares colombianos eran pobres, según el indicador de necesidades básicas insatisfechas. Adicionalmente, 19 % de los hogares con personas desplazadas se encontraban en situación de miseria, al tener dos o más necesidades básicas insatisfechas. En 1985, el 21,4 % de los hogares colombianos estaba en esta situación. Para valorar la grave situación de la población desplazada, basta con señalar que en 2005, la pobreza por NBI en el conjunto del país era 27,7 % y la miseria 10,6 %, de manera que la población desplazada tenía en 2010 tasas de pobreza, por este indicador, que casi duplicaban las de la población colombiana. Cuando se analiza cada indicador, se observa que uno de los principales problemas es el hacinamiento, ya que 21 % de los hogares estaba por encima del nivel considerado como crítico (más de tres personas por cuarto). Le sigue en importancia el componente de vivienda inadecuada, que golpeaba al 20,2 % de la población desplazada, esto es, que habitan viviendas con materiales inadecuados de pisos (tierra) y paredes (tela o materiales de desecho). Los servicios inadecuados afectaban al 16,1 % de la población, lo cual quiere decir que no tienen servicio sanitario o carecen de acueducto. La alta dependencia económica afectaba al 13,2 % de la población, lo cual implicaba que en esos hogares, el jefe ha aprobado, como máximo, dos años de escolaridad y hay más de tres personas por miembro ocupado. El único indicador con baja frecuencia es el de inasistencia escolar, solamente en 2,9 % de los hogares había niños(as) entre 7 y 11 años, parientes del jefe, que no asistían a un establecimiento educativo. Si se compara con los datos para el conjunto de la población del país, se observa que el hacinamiento, es superior al existente en Colombia en 1985 (19 %);


198

Cuadernos de Economía, 30(55), julio - diciembre de 2011

lo propio sucede con la vivienda inadecuada (12,9 % en 1985) y la dependencia económica (13,3 %). En cuanto a los servicios, el indicador es inferior al del país en 1985 (20,9 %), pero superior al existente en 1993 (10,5 %). Puede afirmarse, entonces, que desde el punto de vista de Necesidades Básicas Insatisfechas, los hogares desplazados registran un retraso de más de dos décadas con respecto al conjunto de la población colombiana. Cuando el indicador NBI se calcula para personas, se encuentra que en julio de 2010, 53 % de los desplazados eran pobres por NBI y 23,3 % estaban en situación de miseria. En contraste, según la última revisión de los datos del Censo de 2005 realizada en julio de 2010 por el DANE, el porcentaje de personas en pobreza por NBI era de 27,8 %; 19,6 % en las cabeceras municipales y 53 % en el resto de los municipios. De manera que los desplazados, pese a vivir en las cabeceras municipales, tienen niveles de pobreza iguales a los que la población rural tenía hace cinco años. Antes de continuar con las comparaciones entre regiones y con el año 2008, es importante relacionar dos de los indicadores simples de NBI, con los indicadores de Goce Efectivo de Derecho: educación y vivienda inadecuada. Como se anotó en la parte metodológica, estos indicadores que hacen parte del IGED no se incluyeron allí porque son componentes de NBI e ICV. Si bien el indicador de inasistencia escolar solo comprende a los niños entre 7 y 11 años, se considera que es una buena aproximación a lo que sucede con la asistencia escolar y por tanto se puede afirmar que el derecho a asistencia escolar que la CC ha exigido se está cumpliendo en grado alto. Por el contario, el alto porcentaje de viviendas inadecuadas y con servicios deficientes muestran que en materia del goce de vivienda digna no se está satisfaciendo de manera adecuada. Volviendo al Cuadro 7, se puede ver que como en el caso anterior, no hay muchas diferencias entre los hogares con desplazados inscritos en el RUPD, con los no inscritos. En todo caso, la poca diferencia muestra que hay tendencia a una mayor pobreza por NBI en los no inscritos (caso contrario a la pobreza por ingresos). Al observar los indicadores simples parece haber diferencias importantes en: vivienda inadecuada y servicios inadecuados –siendo mayor para los desplazados no inscritos–, y en alta dependencia económica –siendo mayor el indicador para los desplazados inscritos. Esto último es consistente con la mayor incidencia de pobreza por ingresos en estos hogares. Por regiones, como muestra el Cuadro 7, la mayor incidencia de NBI entre los hogares con desplazados se presenta en las dos regiones de la Costa, con una proporción de hogares pobres que supera el 58 %. En la región Costa Alta los indicadores que más parecen relacionarse con esta alta magnitud de pobreza son vivienda inadecuada y hacinamiento crítico, con más de 30 % de incidencia; en la de Costa Baja son vivienda inadecuada y servicios inadecuados. En Costa Alta hay diferencias notorias entre RUPD y no RUPD, así en vivienda inadecuada la divergencia es de seis puntos y en servicios inadecuados es de cinco.


46,6 46,5 47,1 42,9 42,2 45,0 41,8 42,3 39,1 58,6 57,5 62,4 58,8 57,9 64,7 35,1 35,9 31,2 39,2 39,7 36,9

19,3 19,4 19,1 14,7 13,8 17,4 16,5 16,9 14,0 30,1 28,9 34,4 31,9 32,0 31,2 10,6 11,7 5,2 9,7 10,3 7,2

Hogares En pobreza % En miseria %

Fuente: elaboración propia.

REGIÓN E INSCRIPCIÓN EN RUPD TOTAL Inscritos RUPD No inscritos Antioquia Chocó Inscritos RUPD No inscritos Centro Inscritos RUPD No inscritos Costa Alta Inscritos RUPD No inscritos Costa Baja Inscritos RUPD No inscritos Oriental Inscritos RUPD No inscritos Sur Occidental Inscritos RUPD No inscritos 52,6 52,6 52,6 48,8 48,7 48,9 48,9 49,1 47,2 64,0 63,1 67,5 62,0 61,3 66,8 40,7 41,4 36,5 44,9 45,6 41,6

22,8 22,7 23,0 17,3 16,5 20,1 19,5 19,8 17,4 34,4 32,9 40,4 34,7 34,8 33,5 12,2 13,3 6,0 12,9 13,5 9,9

Personas En pobreza % En miseria % Vivienda inadecuada 20,2 19,7 22,4 15,4 13,7 20,6 19,3 19,1 19,9 31,8 30,6 36,3 33,3 32,8 37,0 12,4 12,4 12,4 5,8 5,7 6,2

Servicios inadecuados 16,1 15,7 17,7 13,0 12,0 16,0 7,2 7,1 8,2 24,6 23,5 28,5 34,6 33,8 39,4 2,1 2,4 0,4 13,6 14,0 11,8

Hogares Hacinamiento crítico 20,8 20,9 20,2 17,2 17,3 17,1 20,4 20,7 18,6 32,2 31,8 33,4 17,7 17,9 16,2 21,1 22,3 15,2 16,4 16,5 16,1 Inasistencia escolar 2,9 2,7 3,3 2,5 3,0 1,2 4,6 4,3 6,1 2,3 1,7 4,6 1,4 1,4 2,0 3,8 3,8 3,9 2,0 1,8 2,4

CUADRO 7. PROPORCIÓN DE HOGARES CON DESPLAZADOS, QUE SON POBRES SEGÚN EL INDICADOR DE NBI (2010) Alta dep. económica 13,2 13,6 11,1 13,1 13,9 10,7 11,8 12,7 6,5 13,2 12,8 14,8 16,9 17,0 16,2 8,9 9,1 8,0 13,7 14,4 11,1

La situación de pobreza de la población desplazada Manuel Muñoz y Nelson Pachón199


53,7 54,3 52,1 49,1 48,1 51,2 46,4 46,4 46,4 57,7 58,7 55,7 70,4 70,9 68,0 51,9 51,1 55,3 40,3 41,2 37,5

23,2 23,7 21,8 15,8 14,5 18,7 15,4 15,2 15,7 26,9 28,0 24,7 39,8 40,4 37,3 23,4 22,8 26,4 12,9 13,0 12,9

Hogares En pobreza % En miseria %

Fuente: elaboración propia.

REGIÓN E INSCRIPCIÓN EN RUPD TOTAL Inscritos RUPD No inscritos Antioquia Chocó Inscritos RUPD No inscritos Centro Inscritos RUPD No inscritos Costa Alta Inscritos RUPD No inscritos Costa Baja Inscritos RUPD No inscritos Oriental Inscritos RUPD No inscritos Sur Occidental Inscritos RUPD No inscritos 58,8 59,2 57,7 54,8 53,7 57,9 51,1 50,5 52,5 62,7 63,5 61,2 73,2 73,7 70,7 57,3 56,8 59,7 46,7 47,9 42,2

27,2 27,6 25,8 18,4 17,0 21,9 19,0 18,7 19,8 31,4 32,6 29,0 43,8 44,6 40,2 24,4 23,8 27,4 17,1 16,9 17,6

Personas En pobreza % En miseria % Vivienda inadecuada 24,0 24,3 23,4 13,1 10,1 20,0 14,7 13,4 17,4 26,5 28,7 22,2 47,8 47,8 48,0 23,3 21,2 32,8 11,4 11,4 11,5

Servicios inadecuados 13,9 14,4 12,4 10,7 9,0 14,5 5,7 7,3 2,3 14,4 14,1 15,0 34,2 34,8 31,7 8,8 7,4 15,3 3,2 2,4 5,6

Hogares Hacinamiento crítico 27,6 28,7 24,9 27,8 28,0 27,5 26,9 27,3 26,0 32,0 34,0 27,9 25,0 26,3 19,6 32,6 34,6 23,7 22,4 23,8 17,9 Inasistencia escolar 3,5 3,0 4,8 3,2 2,6 4,5 4,8 4,5 5,3 3,4 2,7 4,9 2,7 2,2 4,8 2,6 1,9 5,7 3,1 3,1 3,0

CUADRO 8. PROPORCIÓN DE HOGARES CON DESPLAZADOS, QUE SON POBRES SEGÚN EL INDICADOR DE NBI (2008) Alta dep. económica 16,4 16,4 16,6 14,6 15,2 13,3 13,7 13,3 14,6 17,8 16,8 19,6 19,6 20,0 17,7 15,4 15,4 15,5 16,7 16,8 16,6

200 Cuadernos de Economía, 30(55), julio - diciembre de 2011


La situación de pobreza de la población desplazada

Manuel Muñoz y Nelson Pachón201

En el Cuadro 8 se pueden observar las cifras de NBI para el año 2008; al hacerlo, se destaca una baja importante en los indicadores de NBI, ya que en 2008, su magnitud era de 54 %, es decir que entre 2008 y 2010 la magnitud de pobreza por NBI cayó en siete puntos. Esta disminución se presentó tanto en inscritos como en no inscritos, pero es más acelerada en los primeros (reducción en 8 puntos). Por indicadores simples, el que presenta el mayor descenso es hacinamiento crítico que en 2008 era de 27,6 %, seguido por vivienda inadecuada que baja cuatro puntos. Es de notar que el indicador de servicios inadecuados muestra un pequeño aumento entre 2008 y 2010. Esta reducción en el NBI, se explica básicamente por la fuerte disminución que presenta este indicador en la región Oriental, ya que en dos años la pobreza por NBI cae en más de 16 puntos. La magnitud del descenso es similar tanto en los hogares inscritos en el RUPD, como en los no inscritos y se presenta en los indicadores simples, salvo en el indicador de inasistencia escolar (que ya era pequeño en 2008)8 . Otra región donde hay una importante disminución del indicador es en Costa Baja, con una caída de 13 puntos, debido a la reducción de más de 14 puntos en el indicador de vivienda inadecuada, siendo esta la región con el decrecimiento más fuerte en los hogares inscritos en el RUPD. En Antioquia-Chocó y en Centro hay disminuciones entre 5 y 7 puntos. Mientras que en las regiones Sur Occidental y Costa Alta los cambios en NBI no parecen significativos. De todas maneras, en Costa Alta hay una recomposición de los NBI, ya que hay un fuerte incremento de los indicadores de vivienda inadecuada y de servicios inadecuados, tanto para los hogares inscritos en el RUPD y como para los no inscritos.

Método Integrado de Pobreza (MIP) En el Cuadro 9 se observa la magnitud de hogares pobres utilizando el MIP, la información allí presentada, sólo confirma la precariedad de las condiciones de vida de los desplazados, con 40 % de sus hogares con pobreza crónica en 2010 y 57 % en la llamada pobreza reciente9 . Las diferencias entre RUPD y no RUPD no son muy grandes, pero hay una tendencia a que la llamada pobreza reciente sea más alta en los RUPD que en los no RUPD, cosa contraria sucede con la pobreza crónica. Curiosamente esta tendencia es inversa a la que se presentaba en 2008. Por regiones la magnitud de pobreza crónica (por ingresos y por NBI) más alta se presenta en las dos zonas de la Costa con más de 50 % de pobres crónicos, lo cual es una cifra impresionante. En las regiones Oriental y Sur Occidental este tipo de pobreza es menor. 8 En

un análisis posterior, sería conveniente analizar con mayor detalle los resultados obtenidos en esta región. 9 Kaztman (1989) considera que la pobreza reciente aqueja a aquellos hogares que son pobres por LP y no por NBI, pero se debe aclarar que no necesariamente es que hayan caído en la pobreza recientemente.


202

Cuadernos de Economía, 30(55), julio - diciembre de 2011

En cuanto a la pobreza reciente, donde hay más hogares en esta situación es en las regiones Oriental y Sur Occidental. De todas maneras la magnitud de pobreza total es siempre mayor al 95 %, presentándose la más baja en la región Oriental. El Cuadro 9 también presenta el MIP para 2008. Lo primero que resalta es que no se observa ninguna mejoría entre los dos años, ya que la magnitud de pobreza total es similar en el total, por regiones y por inscritos o no al RUPD; lo que sí cambia un poco es la composición de esta pobreza, ya que la crónica baja al pasar de 46 % a 40 %, pero aumenta la reciente al pasar de 51 % a 57 % en 2008 y 2010, respectivamente. Lo anterior muestra que un porcentaje importante de desplazados ha empezado a satisfacer las necesidades comprendidas en el NBI, pero siguen siendo pobres por ingresos; esto parece especialmente cierto entre los hogares inscritos al RUPD, ya que en los no RUPD no hay este “reacomodo”. Los resultados del MIP son consistentes con lo descrito sobre NBI y LP: disminución importante de las NBI y estancamiento o incluso aumento de la pobreza por LP. CUADRO 9. PORCENTAJE DE HOGARES POBRES POR MIP REGIÓN E INSCRIPCIÓN EN RUPD TOTAL RUPD No RUPD Antioquia Chocó RUPD No RUPD Centro RUPD No RUPD Costa Alta RUPD No RUPD Costa Baja RUPD No RUPD Oriental RUPD No RUPD Sur Occidental RUPD No RUPD

Crónica 46,3 47,4 43,3 41,1 39,6 44,4 38,9 39,1 38,7 49,5 52,0 44,6 64,9 65,8 60,9 45,3 45,3 45,3 31,1 32,2 27,8

2008 Inercial Reciente 0,6 0,6 0,6 0,5 0,6 0,3 0,5 0,5 0,5 0,6 0,7 0,3 1,0 0,8 2,0 0,9 0,9 0,9 0,3 0,5 0,0

50,9 49,9 53,3 56,6 57,8 53,8 57,7 58,2 56,5 48,0 44,9 53,9 33,2 32,7 35,4 50,0 49,7 51,6 65,7 65,5 66,3

Total

Crónica

97,8 98,0 97,2 98,1 98,0 98,5 97,1 97,8 95,7 98,0 97,6 98,8 99,1 99,3 98,3 96,2 95,9 97,7 97,2 98,2 94,1

40,1 39,8 41,2 34,9 33,8 38,2 35,8 35,8 35,9 53,5 52,4 57,6 52,5 51,9 56,3 30,4 31,7 23,7 31,3 31,6 30,2

2010 Inercial Reciente 0,7 0,5 1,5 0,5 0,1 1,7 0,4 0,3 0,9 1,1 0,9 1,9 1,1 0,8 2,8 0,8 0,3 3,4 0,4 0,5 0,0

56,9 57,5 54,4 62,2 63,9 57,2 61,5 61,5 61,6 43,5 44,9 38,5 45,0 46,1 37,8 64,6 64,2 66,5 65,5 65,4 65,8

Total 97,7 97,8 97,1 97,6 97,8 97,1 97,8 97,6 98,5 98,1 98,1 98,0 98,6 98,9 96,9 95,7 96,2 93,5 97,2 97,5 96,0

Fuente: elaboración propia.

En las regiones donde más se presenta este fenómeno es en la Oriental (hogares inscritos y no inscritos), en Costa Baja, pero solo para hogares RUPD y en Antioquia-Chocó (hogares inscritos y no inscritos). En la región de Costa Alta aumenta la proporción de hogares en pobreza crónica y disminuye la de pobreza reciente, esto se explica por el comportamiento de esta variable en los No RUPD,


Manuel Muñoz y Nelson Pachón203

La situación de pobreza de la población desplazada

en los cuales la pobreza crónica fue de 44,6 % en 2008 y aumentó a 57,6 % en 2010, por su parte, la pobreza reciente pasó de 53,9 a 38,5 %, durante los mismos años10 .

Índice de Condiciones de Vida (ICV) En los cuadros 10 y 11 se puede observar el puntaje del Índice de Condiciones de Vida (ICV) promedio, alcanzado por los hogares con desplazados para los años 2008 y 2010, respectivamente y el puntaje en cada uno de los factores que lo componen11 . En la última columna de los cuadros 10 y 11 se presentan los hogares con desplazados que tienen un puntaje menor a 67, la justificación de este límite está argumentada en la publicación “Los Municipios Colombianos hacia los Objetivos de Desarrollo del Milenio” del Programa Nacional de Desarrollo Humano (PNUD, DNP, PNDH, GTZ, 2006). En este trabajo se propone un mínimo normativo que trata de recoger lo establecido en la Constitución de 1991, como derechos básicos; traducido en puntos del indicador, ese mínimo sería 67. CUADRO 10. ICV MEDIO ALCANZADO Y HOGARES POR DEBAJO DE 67 (2008) REGIÓN E INSCRIPCIÓN EN RUPD TOTAL RUPD No RUPD Antioquia Chocó RUPD No RUPD Centro RUPD No RUPD Costa Alta RUPD No RUPD Costa Baja RUPD No RUPD Oriental RUPD No RUPD Sur Occidental RUPD No RUPD

FACTOR1 MEDIA 21,8 21,6 22,4 23,6 23,6 23,4 25,9 25,8 26,1 21,6 21,6 21,8 15,4 15,5 15,2 22,1 22,5 20,2 22,6 22,5 22,6

FACTOR2 MEDIA 23,0 23,0 23,0 23,4 23,1 24,1 23,6 23,7 23,4 22,5 22,7 22,1 22,5 22,5 22,5 23,2 23,2 23,3 23,2 23,0 23,8

FACTOR3 MEDIA 11,4 11,1 12,2 11,4 11,1 12,0 11,6 11,4 12,1 10,8 10,3 11,9 11,6 11,3 12,8 11,3 11,0 12,8 12,1 11,8 12,9

FACTOR4 MEDIA 8,0 7,9 8,3 8,7 8,8 8,4 9,1 9,1 9,1 8,1 7,9 8,7 6,1 6,1 6,2 8,5 8,7 7,7 7,8 7,7 8,1

ICV MEDIA 64,3 63,7 66,0 67,1 66,7 68,0 70,2 70,0 70,7 63,1 62,5 64,5 55,6 55,4 56,7 65,1 65,3 64,0 65,6 65,1 67,4

% Hog con un ICV <67 51,4 52,9 47,4 45,4 46,7 42,6 35,9 35,9 35,8 54,6 56,5 51,1 71,5 71,7 70,6 52,6 52,1 54,9 50,6 53,1 42,8

Fuente: elaboración propia. 10 A

modo de comparación puede considerarse el caso de Bogotá en 2007, donde la pobreza crónica llegó a 2,6 % y la reciente a 25 %, mientras que en la localidad de Ciudad Bolívar (la más pobre) la crónica era de 9,3 % y la reciente de 46,2 %. 11 Los cuatro factores que componen el ICV son: acceso y calidad de los servicios de la vivienda, educación y capital humano, tamaño y composición del hogar y calidad de la vivienda.


204

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Para 2010 (Cuadro 11) la proporción de hogares con un puntaje menor a este valor es cercana al 46 %, siendo un poco más alto en los no RUPD con casi 48 %. Por regiones, donde se presentó una mayor proporción de hogares por debajo de 67 fueron las dos costas; en Costa Baja esta proporción fue de 61 % y en la Alta de 58 %. Las zonas con menor proporción fueron la Oriental con 33 % y la Centro con 37 %. CUADRO 11. ICV MEDIO ALCANZADO Y HOGARES POR DEBAJO DE 67 (2010) REGIÓN E INSCRIPCIÓN EN RUPD TOTAL RUPD No RUPD Antioquia Chocó RUPD No RUPD Centro RUPD No RUPD Costa Alta RUPD No RUPD Costa Baja RUPD No RUPD Oriental RUPD No RUPD Sur Occidental RUPD No RUPD

FACTOR1 MEDIA 21,7 21,7 21,5 24,0 24,2 23,3 24,6 24,6 24,7 19,5 19,7 18,8 15,9 16,0 15,5 24,7 24,7 24,3 20,8 20,9 20,6

FACTOR2 MEDIA 24,3 24,3 23,9 24,7 25,0 24,0 24,2 24,2 24,1 23,9 24,2 22,6 23,9 24,0 23,7 24,5 24,5 24,2 24,5 24,3 25,3

FACTOR3 MEDIA 12,4 12,3 12,9 12,7 12,5 13,3 12,4 12,4 12,8 11,1 11,1 11,3 12,7 12,5 13,7 12,3 12,0 13,7 13,0 13,0 13,3

FACTOR4 MEDIA 8,2 8,3 7,9 8,4 8,6 7,6 8,8 8,9 8,8 7,4 7,4 7,4 7,7 7,8 7,4 9,4 9,4 9,3 7,6 7,6 7,6

ICV MEDIA 66,5 66,6 66,2 69,8 70,3 68,1 70,0 70,0 70,4 61,9 62,4 60,1 60,2 60,3 60,2 70,8 70,7 71,5 65,9 65,7 66,9

% Hog con un ICV <67 45,9 45,5 47,7 38,2 36,3 43,6 36,7 36,4 38,0 58,2 56,8 63,2 60,8 61,0 59,3 33,0 33,5 30,5 49,2 49,8 46,9

Fuente: elaboración propia.

Mirando el cambio del puntaje promedio de los hogares con personas desplazadas entre 2008 y 2010 se observa un pequeño aumento, al pasar de 64,3 en 2008 a 66,5 en 2010 (siempre por debajo de 67). Si hay algún crecimiento en el promedio del ICV, éste se presenta entre los hogares con desplazados inscritos en el RUPD (64 en 2008 a 67 en 2010), mientras que en los no RUPD este puntaje es prácticamente igual. Por factores, en los únicos en que parece haber un cambio significativo son educación y capital humano (factor 2) y en tamaño y composición del hogar (factor 3), lo cual se da en ambos tipos de hogares (RUPD y no RUPD). La región Oriental es la que presenta un mayor cambio positivo, ya que el promedio de ICV fue de 65,1 en 2008 y de 70,8 en 2010. Este aumento en el ICV promedio se presenta tanto en hogares RUPD como no RUPD y se da en todos los factores que componen el ICV. Este comportamiento se refleja en la proporción de hogares que están por debajo de 67 al pasar de 52,6 % en 2008 a 33 % en 2010. Otra región donde aumenta el promedio del ICV es Costa Baja, con un incremento en 5 puntos, lo cual lleva a que los hogares por debajo del límite de 67 pasen de


La situación de pobreza de la población desplazada

Manuel Muñoz y Nelson Pachón205

71 % a 61 %. En las otras regiones los cambios no parecen ser muy importantes, salvo un pequeño aumento en el ICV promedio de Antioquia-Chocó y una disminución en la llamada Costa Alta, explicada por la caída en el factor 1 (acceso y calidad de los servicios de la vivienda). Como referencia, se tiene que, según la Encuesta de Calidad de Vida de 2003, el ICV total nacional era de 77,4 puntos, con un valor de 84,6 puntos en cabeceras y 55,3 en el resto de los municipios. Variaba fuertemente por regiones, partiendo de 53,1 en la zona rural de la región Atlántica, hasta 89,3 en Bogotá. Desde entonces no se ha publicado una nueva estimación del indicador, por lo cual es necesario hacer las comparaciones con las cifras existentes 7 años atrás. Aún así la población desplazada tiene un indicador menor en 10 puntos al del país en 2003 y menor en casi 20 puntos al de las cabeceras municipales.

El Goce Efectivo de Derechos Como se ha mencionado anteriormente, para analizar el grado de cumplimiento de los derechos que la CC ha exigido que se restablezcan a la población desplazada, se instituyeron una serie de indicadores llamados de Goce Efectivo de Derecho (IGED). En la tercera sección se propuso una metodología para estudiar su grado cumplimiento, que consistía en colocar una nota de 0 a 5, siendo 5 la máxima posible. En los cuadros 12 y 13 se puede observar el promedio de notas para los ocho IGED para 2008 y 2010, respectivamente. Se debe aclarar que dentro del grupo de hogares NO RUPD hay algunos que nunca declararon su condición de desplazados y por ello no son sujetos de atención inmediata. Para lo que sigue y a menos que se indique lo contrario, los NO RUPD analizados son aquellos que si declararon, pero que no fueron inscritos. Observando la situación de 2010 (Cuadro 13) se destaca que las autoridades encargadas de que se cumplan los derechos de los desplazados se “rajan”. En ninguna región, ni para las personas inscritas en el RUPD ni para las no inscritas, la nota final –que es un promedio simple de las ocho notas de cada derecho– es igual a tres. Para todo el país la nota final fue 2,5, que podría interpretarse, como que el grado de derechos se estaba garantizando en 50 % de lo exigido, grado de cumplimiento que puede considerarse bastante deficiente. Las diferencias entre regiones y entre RUPD y No RUPD realmente no son muy grandes. En otras palabras, no se puede afirmar que haya algún grupo particular o una zona geográfica específica que en este tema, esté en mejores o peores condiciones que lo que refleja la nota para el total del país. Por otro lado, se destacan positivamente los puntajes obtenidos en educación y en salud. En educación la nota promedio para el total fue 3,8, que se interpreta como un grado de cumplimiento del 76 % y en salud la nota obtenida fue de 4,1, es decir, 82 % de cumplimiento. Se observa que este grado de cumplimiento es


206

Cuadernos de Economía, 30(55), julio - diciembre de 2011

general, aunque un poco menor para los grupos no inscritos; sólo en la región Oriental la nota en educación es baja (pero, mayor que 3). Otro indicador que puede considerarse aceptable es el de identificación, ya que alcanzó un grado de cumplimiento de 76 %, aunque podría pensarse que por la naturaleza misma de este derecho debería ser muy cercano al 100 %, y que cualquier pequeña diferencia fuese consecuencia de cambios de edad, es decir, un rezago. Por ello un 3,8 en este indicador no parece satisfactorio. Los otros indicadores son poco alentadores, especialmente generación de ingresos, que en ninguna parte alcanza siquiera uno o la ayuda inmediata que, según el indicador, es prácticamente nula. La región donde se lograron mejores resultados en atención de emergencia –que es para los desplazados inscritos–, fue el Centro, con un cumplimiento de 58 %, frente a un 44 % en el total del país. En seguridad alimentaria, el grado de cumplimiento no llegó al 50 %, siendo de nuevo en la región Centro donde el grado de cumplimiento fue un poco mayor. La situación de vivienda es muy similar, un grado de cumplimiento totalmente insatisfactorio. Sólo en la región Oriental llegó a 66 % para los grupos inscritos, en ninguna otra zona se alcanza el 60 %. Al realizar la comparación con el Cuadro 12, se pueden observar los cambios de los puntajes entre 2008 y 2010. En 2008 el promedio fue de 2,3, es decir, menor al obtenido en 2010; con esto, por lo menos se puede decir que la situación en 2010 no es peor que la presentada en 2008. Al examinar cada derecho, sólo en salud se observa un cambio positivo importante, al pasar de 3,7 en 2008 a 4,1 en 2010; es decir, el grado de cumplimiento creció de 74 % a 82 %. Los indicadores de educación también presentan una mejora; mientras que en el resto de indicadores no hay cambios que parezcan significativos. Por regiones, en casi todas ellas el aumento en la nota final es de dos décimas, salvo para la Costa Alta, en la cual su valor permanece constante. En salud, este mejoramiento se da tanto para los inscritos como para los no inscritos, aunque en algunas regiones se observan mejores resultados entre los no inscritos. En educación, se observa la misma tendencia, lo cual permitiría pensar que las mejoras no son frutos de esfuerzos específicos dirigidos a la población desplazada. En cuanto a la seguridad alimentaria se aprecia un mejoramiento importante en Antioquia-Chocó (aunque el grado de cumplimiento sigue siendo bastante bajo), y algo menos en la región Sur Occidental. Con respecto a la identificación se observa una leve tendencia a mejorar en Antioquia-Chocó, Centro y Costa alta. Por su parte, en ayuda de emergencia, la mejora se presenta en Costa Alta y en Antioquia-Chocó12 . 12 Una

de las razones por las cuales la diferencia entre RUPD y NO RUPD no son muy grandes es que las notas para los RUPD de ayuda inmediata y atención de emergencias son muy bajas (el promedio de ayuda inmediata es menor que 1 y el de atención de emergencias es 2,2), mientras que los NO RUPD no cuentan con nota de atención de emergencia y pocos de ellos la tienen en ayuda inmediata (sólo los que declararon). De esta manera, el promedio es sobre 6 para los no declarantes, sobre 7 para los NO RUPD declarantes y sobre 8 para los RUPD.


AYUDA INMEDIATA 0,7 0,7 0,6 . 0,7 0,7 0,6 . 0,8 0,8 0,9 . 0,6 0,7 0,4 . 0,6 0,6 0,4 . 0,6 0,6 0,6 . 0,7 0,7 0,7 .

Fuente: elaboración propia.

TOTAL RUPD NO RUPD Declara NO RUPD No declara Antioquia Chocó RUPD NO RUPD Declara NO RUPD No declara Centro RUPD NO RUPD Declara NO RUPD No declara Costa Alta RUPD NO RUPD Declara NO RUPD No declara Costa Baja RUPD NO RUPD Declara NO RUPD No declara Oriental RUPD NO RUPD Declara NO RUPD No declara Sur Occidental RUPD NO RUPD Declara NO RUPD No declara

REGIÓN

ATENCIÓN EMERGENCIA 2,2 2,2 . . 2,2 2,2 . . 2,8 2,8 . . 2,3 2,3 . . 1,3 1,3 . . 2,4 2,4 . . 2,2 2,2 . .

CUADRO 12. NOTA ALCANZADA EN LOS IGED (2008)

3,6 3,6 3,4 3,4 3,6 3,6 3,6 3,5 3,7 3,7 3,5 3,6 3,4 3,5 3,5 3,3 3,3 3,4 3,1 3,1 4,0 4,0 3,9 4,0 3,7 3,8 3,7 3,3

IDENTIFICACIÓN 3,5 3,6 3,3 2,9 3,4 3,7 3,2 2,8 3,3 3,5 3,2 2,5 3,6 3,7 3,6 3,4 3,7 3,8 3,5 3,0 3,1 3,1 2,9 2,8 3,4 3,6 2,6 2,6

EDUCACIÓN

SEGURIDAD ALIMENTARIA 2,3 2,4 2,4 2,2 2,0 2,0 2,3 2,0 2,6 2,6 2,3 2,5 2,5 2,6 2,9 2,3 2,0 2,1 2,1 1,8 2,8 2,8 2,8 3,0 2,0 2,0 1,8 2,0 3,7 3,9 3,3 3,3 3,8 3,9 3,9 3,4 3,2 3,4 2,6 2,9 3,9 4,0 3,8 3,5 4,0 4,1 3,8 3,4 3,8 3,9 2,9 3,3 3,8 3,9 3,3 3,4

SALUD

GENERACIÓN INGRESOS 0,4 0,5 0,2 0,1 0,3 0,4 0,2 0,1 0,5 0,7 0,1 0,0 0,4 0,5 0,1 0,1 0,4 0,5 0,5 0,1 0,4 0,5 0,0 0,1 0,4 0,5 0,1 0,1 2,3 2,4 2,3 2,2 1,9 2,0 1,8 1,4 2,5 2,6 2,3 2,4 2,2 2,2 2,6 2,2 2,4 2,3 2,6 2,3 3,0 3,0 2,7 2,9 2,2 2,2 1,8 2,4

VIVIENDA

2,3 2,4 2,2 2,3 2,2 2,3 2,2 2,2 2,4 2,5 2,1 2,3 2,4 2,4 2,4 2,4 2,2 2,2 2,2 2,3 2,5 2,5 2,2 2,7 2,3 2,3 2,0 2,3

FINAL

La situación de pobreza de la población desplazada Manuel Muñoz y Nelson Pachón207


AYUDA INMEDIATA 0,8 0,8 0,4 . 0,6 0,7 0,2 . 0,8 0,8 0,7 . 0,7 0,8 0,2 . 0,8 0,8 0,2 . 0,6 0,6 0,4 . 1,0 1,0 0,5 .

Fuente: elaboración propia.

TOTAL RUPD No RUPD Declara No RUPD No declara Antioquia Chocó RUPD No RUPD Declara No RUPD No declara Centro RUPD No RUPD Declara No RUPD No declara Costa Alta RUPD No RUPD Declara No RUPD No declara Costa Baja RUPD No RUPD Declara No RUPD No declara Oriental RUPD No RUPD Declara No RUPD No declara Sur Occidental RUPD No RUPD Declara No RUPD No declara

REGIÓN

ATENCIÓN EMERGENCIA 2,2 2,2 . . 1,8 1,8 . . 2,9 2,9 . . 1,9 1,9 . . 1,9 1,9 . . 2,7 2,7 . . 2,0 2,0 . .

CUADRO 13. NOTA ALCANZADA EN LOS IGED (2010)

3,8 3,8 3,8 3,6 3,9 3,9 3,9 3,7 3,9 3,9 3,9 3,8 3,7 3,8 3,6 3,5 3,5 3,6 3,4 3,2 3,9 4,0 3,6 3,9 3,8 3,9 4,0 3,7

IDENTIFICACIÓN 3,8 3,9 3,4 3,5 4,0 4,1 3,2 3,7 3,6 3,7 3,0 3,5 3,9 3,9 3,7 3,7 4,0 4,0 4,4 3,3 3,3 3,3 3,3 2,6 3,8 3,9 3,1 3,3

EDUCACIÓN

SEGURIDAD ALIMENTARIA 2,4 2,5 2,4 2,4 2,6 2,6 2,3 2,6 2,6 2,6 2,1 2,6 2,5 2,6 3,0 2,3 1,8 1,8 1,8 1,6 2,9 2,9 2,9 3,4 2,4 2,4 2,4 2,0 4,1 4,2 4,0 3,9 4,2 4,2 3,9 4,0 3,9 3,9 3,6 3,7 4,3 4,3 4,4 4,1 4,3 4,3 4,1 3,6 4,1 4,1 3,8 4,2 4,2 4,3 4,1 3,8

SALUD

GENERACIÓN INGRESOS 0,4 0,5 0,1 0,1 0,3 0,3 0,2 0,0 0,6 0,7 0,1 0,1 0,4 0,5 0,1 0,1 0,5 0,6 0,1 0,1 0,5 0,6 0,1 0,2 0,4 0,4 0,1 0,1 2,4 2,4 2,4 2,4 2,5 2,5 2,4 2,6 2,5 2,4 2,4 2,5 2,1 2,1 2,3 1,9 2,2 2,2 2,2 1,8 3,2 3,3 2,6 2,7 2,6 2,7 2,6 2,6

VIVIENDA

2,5 2,5 2,3 2,6 2,5 2,4 2,3 2,7 2,6 2,6 2,2 2,6 2,4 2,4 2,4 2,5 2,3 2,3 2,2 2,2 2,7 2,6 2,3 2,9 2,5 2,5 2,4 2,5

FINAL

208 Cuadernos de Economía, 30(55), julio - diciembre de 2011


Manuel Muñoz y Nelson Pachón209

La situación de pobreza de la población desplazada

GOCE EFECTIVO DE DERECHOS, CALIDAD DE VIDA Y POBREZA Uno de los aspectos que se quiere estudiar en este trabajo es la relación que existe entre el goce efectivo de los derechos, y la calidad de vida y la pobreza de los desplazados. La hipótesis central es que entre mayor sea el grado de cumplimiento de los IGED, los desplazados podrán tener una mejor calidad de vida y menores indicadores de pobreza, por tanto un mayor bienestar. Aunque en el documento sólo se muestran algunos ejercicios preliminares que relacionan los indicadores de pobreza y calidad de vida con el grado de cumplimento de los derechos, los resultados sugieren que la hipótesis puede ser correcta. En los cuadros 14 y 15 se pueden ver resultados muy dicientes de cruces entre grado de cumplimiento de los IGED, los niveles de pobreza y el puntaje promedio alcanzado por el ICV. CUADRO 14. CUMPLIMIENTO DE LOS IGED VS. CALIDAD DE VIDA Y POBREZA (2008) Pobreza por LP PUNTAJE FINAL IGED Total Alto Bajo Medio

Total 100 3,2 28,4 68,4

POBREZA No pobres Pobres 2,8 97,2 7,6 92,4 1,8 98,2 3,0 97,0

Pobreza por NBI PUNTAJE FINAL IGED Total Alto Bajo Medio

Total 99,9 3,2 28,3 68,4

NBI No pobres Pobres 45,7 54,3 69,2 30,8 34,6 65,4 49,3 50,7

MIP PUNTAJE FINAL IGED Total Alto Bajo Medio

Total 100,0 3,2 28,4 68,4

No pobres 2,2 7,6 1,2 2,3

TIPO KAZTMAN Crónica Inercial 46,8 0,6 22,4 . 58,7 0,6 43,0 0,7

Reciente 50,4 70,0 39,5 54,0

Pobreza por ICV PUNTAJE FINAL IGED Total Alto Bajo Medio

Fuente: elaboración propia.

Total 99.9 3,2 28,3 68,4

Grupos No pobres Pobres 47,8 52,2 74,6 25,4 34,8 65,2 51,9 48,1

ICV Puntaje Promedio 64,3 75,47 59,09 66,0


210

Cuadernos de Economía, 30(55), julio - diciembre de 2011

CUADRO 15. CUMPLIMIENTO DE LOS IGED VS. CALIDAD DE VIDA Y POBREZA (2010) Pobreza por LP PUNTAJE FINAL IGED Total Alto Bajo Medio

Total 100 5,2 22,3 72,6

POBREZA No pobres Pobres 2,9 97,1 5,7 94,3 2,5 97,5 2,8 97,2

Pobreza por NBI PUNTAJE FINAL IGED Alto Bajo Medio

Total 100 5,1 22,3 72,5

NBI No pobres Pobres 53,0 47,0 76,7 23,3 36,9 63,1 56,2 43,8

MIP PUNTAJE FINAL IGED Alto Bajo Medio

Total 100 5,2 22,3 72,6

No pobres 2,2 4,9 1,7 2,2

TIPO KAZTMAN Crónica Inercial 40,3 0,7 17,4 0,8 57,2 0,9 36,7 0,6

Reciente 56,8 76,9 40,3 60,4

Pobreza por ICV PUNTAJE FINAL IGED Alto Bajo Medio

Total 100 5,1 22,3 72,5

Grupos No pobres Pobres 54,0 46,0 82,4 17,6 34,4 65,6 58,0 42,0

ICV Puntaje Promedio 66,50 75,50 59,47 68,06

Fuente: elaboración propia.

Las notas del IGED se han agrupado en tres: Alta que va de 3,5 a 5-0. Media que va de 2,0 a menos de 3,5. Baja de 0 a menos de 2. Este rango de puntaje se ha cruzado con la magnitud de la pobreza por LP, por NBI y por ICV (con el punto de corte de 67) lo mismo que con el promedio de ICV alcanzado. En El Cuadro 14 se observa el cruce con la información de 2008 y en el Cuadro 15 la de 2010. Por LP en 2008, se observa que la magnitud de la pobreza para el grado alto en IGED fue 92 %, en el medio fue 97 % y en el bajo más de 98 %. Para 2010 la proporción de grupos pobres para el puntaje alto fue 94 % y para el resto 97 %. Por NBI, se observa este mismo tipo de relación; en 2008 los grupos con un IGED alto tenían una magnitud de la pobreza por NBI de 31 %, los de IGED medio 51 %


La situación de pobreza de la población desplazada

Manuel Muñoz y Nelson Pachón211

y los de IGED bajo 65 %. Estas cifras en 2010 son 23 %, 44 % y 63 %, respectivamente, lo cual permite establecer una clara relación entre grado de cumplimiento de los derechos y la pobreza por NBI. En 2008 los grupos no pobres, considerando MPI, que tenían al mismo tiempo un IGED “alto” representaban más de 7 % del total, quienes tenían IGED “medios” sobrepasaban un poco el 2 % y para los de IGED bajo sólo correspondían a 1,2 %. Un resultado en el cual no se había pensado, pero es lógico, es que en pobreza reciente –sólo por LP– la incidencia más alta se encuentra entre los de puntaje “alto” y la incidencia de pobreza reciente más pequeña está entre los grupos con puntaje bajo. Esto se debe a que la gran mayoría de grupos con bajo rango de IGED están ubicados en pobreza crónica, por tanto, en la reciente se revierte la relación. Para el año 2010, se repite más o menos el mismo patrón que en 2008; así los grupos no pobres con IGED alto son 5 %, 2,2 % para el medio y 1,7 % para el bajo. La incidencia de pobreza crónica es bastante alta en los grupos con IGED bajos y va reduciéndose a medida que aumenta el puntaje IGED; por ello mismo, la pobreza reciente se comporta de forma contraria, es decir, su incidencia es mayor a medida que aumentan los puntajes IGED. Al considerar los grupos que tienen puntajes por debajo del mínimo constitucional (un ICV menor a 67), se puede observar el mismo tipo de relación que se presenta con los NBI. En 2008 los grupos con IGED “altos” que estaban por encima de este mínimo representaban el 75 %, entre los que tenían un IGED medio eran algo más de la mitad –el 52 % alcanzaba el mínimo–, y para los puntajes bajos de IGED solo 35 % lograba los 67 puntos de ICV. En 2010 estas cifras son 82 %, 58 % y 34 %, respectivamente. Por último, en los mismos cuadros, se observa el puntaje del ICV promedio alcanzado según rango del IGED, se evidencia una relación directa entre dichos rangos y el puntaje. Así en 2008, los IGED “altos” tenían un ICV promedio de 75, los “medios” un ICV de 66 y los “bajos” 59; para el 2010 el ICV promedio fue de 75, 68 y 59, respectivamente. En los Cuadros 16 y 17 se presentan los resultados de dos ejercicios de regresión, para una prueba de hipótesis según la cual entre más alta calificación se obtenga en los IGED más alto será el bienestar de los hogares. Las variables con las que se mide el bienestar son el puntaje del ICV (Cuadro 16) y la Brecha de ingresos (Cuadro 17)13 . Las variables que se incluyen en los modelos econométricos, son las que normalmente se utilizan para un análisis de bienestar de los hogares y se ha incluido la nota promedio del IGED obtenida y mostrada en el capítulo anterior. Como variables independientes se tomaron: el promedio de calificación del IGED, la edad del jefe, los años de educación formal del jefe, una dummy del sexo del 13 Se toman estas dos variables para medir el bienestar, porque además de ser buenas aproximaciones,

toman valores continuos y, por tanto, el análisis de regresión se facilita.


212

Cuadernos de Economía, 30(55), julio - diciembre de 2011

jefe (hombre referencia), si el grupo familiar ha tenido más de un desplazamiento, la tasa de ocupación de los de 12 años y más, la tasa de informalidad de los ocupados, una dummy por cada región (se tomó Antioquia-Chocó como la referencia) y una dummy por cada etnia del jefe (referencia ninguna etnia). De esta manera se trató de verificar si se cumple la hipótesis de que un mayor grado de calificación en los IGED incide en una mejor calidad de vida de los grupos familiares de los desplazados. Al introducir las otras variables que son importantes en la determinación del bienestar, se puede identificar la contribución del IGED en ese bienestar. En el Cuadro 16, se observan los resultados de la regresión entre ICV y las variables aludidas. Las variables incluidas explican el 35 % de la varianza del ICV, el sexo del jefe no resultó significativo; la región Sur Occidental no contribuye en forma significativamente diferente a la de referencia; y la etnia clasificada como raizal tampoco fue significativa. CUADRO 16. EL ICV Y ALGUNOS DE SUS DETERMINANTES Source Model Error Corrected Total

DF 14 15645 15659

Análisis de varianza Sum of squares Mean square 1328187 94870 2442996 156,1519 3771183

Root MSE Dependent Mean Coeff Var Variable Intercept NOTA_FINAL EDAD_JEF EDU_JEF MASDEUNDES TASA_OCUPA TASA_INFOR ALTA BAJA CENTRO ORIENTAL INDIGENA NEGRO GITANO PALENQUE

DF 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Fuente: elaboración propia.

12,49608 65,08637 19,19922

R-Square Adj R-Sq

F Value 607,55

0,3522 0,3516

Parámetros estimados Standard error 0,69002 0,16252 0,00841 0,03094 0,32363 0,37304 0,42849 0,29978 0,287 0,29109 0,4118 0,40755 0,27029 3,03418 2,11738

Parameter estimate 37,80571 4,77473 0,22308 2,19553 -2,16915 2,82802 -2,72558 -3,37656 -5,66498 2,71516 -1,11808 -3,31504 -3,96398 -6,38886 -5,56881

Pr > F <.0001

t Value 54,79 29,38 26,54 70,97 -6,7 7,58 -6,36 -11,26 -19,74 9,33 -2,72 -8,13 -14,67 -2,11 -2,63

Pr > |t| <,0001 <,0001 <,0001 <,0001 <,0001 <,0001 <,0001 <,0001 <,0001 <,0001 0,0066 <,0001 <,0001 0,0353 0,0085


Manuel Muñoz y Nelson Pachón213

La situación de pobreza de la población desplazada

CUADRO 17. LA BRECHA DE INGRESOS Y ALGUNOS DE SUS DETERMINANTES Análisis de varianza Source Model Error Corrected Total

DF 10 15.542 15.552

Sum of squares 254,83973 1745,46064 2000,30037

Root MSE Dependent Mean Coeff Var

Variable Intercept NOTA_FINAL DUMMY_SEX EDAD_JEF EDU_JEF MASDEUNDES TASA_OCUPA TASA_INFOR ALTA CENTRO ORIENTAL

DF 1 1 1 1 1 1 1 1 1 1 1

0,33512 0,65673 51,0284

Mean square 25,48397 0,11231

R-Square Adj R-Sq

Pr > F <.0001

0,1274 0,1268

Parámetros estimados Standard error 0,01805 0,00435 0,00545 0,00022644 0,00083188 0,0087 0,01003 0,01152 0,0071 0,00689 0,01036

Parameter estimate 1,08213 -0,04413 0,06571 -0,00318 -0,01103 0,01929 -0,38486 0,08973 -0,0183 -0,04391 -0,08278

F Value 226,92

t Value 59,96 -10,14 12,05 -14,04 -13,25 2,22 -38,38 7,79 -2,58 -6,37 -7,99

Pr > |t| <,0001 <,0001 <,0001 <,0001 <,0001 0,0266 <,0001 <,0001 0,0099 <,0001 <,0001

Fuente: elaboración propia.

Como se observa en el cuadro los signos de los parámetros estimados se comportan como era esperado, edad y educación del jefe contribuyen a un mayor ICV, mientras que el hecho de que el grupo familiar haya tenido más de un desplazamiento incide negativamente sobre el índice. La tasa de ocupación aumenta el índice, pero una mayor tasa de informalidad lo contrae. El hecho de que el grupo resida en la región de la costa (Alta o Baja) o en la Oriental contribuye a un menor ICV (con respecto a lo que se consigue en la región de Antioquia-Chocó), así mismo, los que residen en la región Central tienen en promedio, 2,7 puntos por encima de los habitantes de Antioquia-Chocó. Se observa también, que (salvo la raizal del Archipiélago) la calidad de vida de todas las etnias es significativamente menor que la de los grupos que habitan en un hogar cuyo jefe no pertenece a ninguna de las señaladas. Por último, el Cuadro 16 muestra cómo un punto más en la nota final de los IGED, aumenta en casi 5 puntos el ICV –con una alto nivel de significancia estadística–, en vista de ello no es posible rechazar la hipótesis de una incidencia positiva de los IGED sobre el bienestar.


214

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Algo similar se obtiene cuando se modela la brecha de ingresos con respecto a las mismas variables14 (Cuadro 17). En este caso ninguna etnia resultó significativa para explicar la brecha y las zonas Centro y Oriental no aportan nada significativo con respecto a la región de referencia. Antes de hablar sobre la variable de interés, se quiere enfatizar en tres variables que contribuyen a aumentar ostensiblemente la brecha: que el jefe sea mujer aumenta la brecha en casi 7 %, que el grupo haya sido obligado a desplazarse más de una vez aumenta la brecha en casi 2 %, la tasa de informalidad aumenta la brecha en 9 %, en contraste con la tasa de ocupación que la disminuye en casi 40 %. En cuanto al Goce Efectivo de Derechos, un aumento en un 20 % en su cumplimiento, disminuye la brecha en un 4,5 % lo cual no se debe despreciar. Se reitera que dados los resultados, no es posible rechazar la hipótesis de que hay una relación positiva entre el grado de cumplimiento de derechos y el bienestar de los grupos familiares desplazados, al contrario, se observa una fuerte relación entre éstos. Lo anterior conduce a una clara conclusión desde el punto de vista de política: la necesidad de aumentar hasta el 100 % el grado de cumplimiento los derechos exigidos por la Corte Constitucional y así llevar las condiciones de vida de las víctimas del desplazamiento a un nivel aceptable.

A MANERA DE CONCLUSIONES Este documento intentó mostrar algunos aspectos relacionados con el bienestar de las familias desplazadas en Colombia por causa de la violencia, haciendo uso de la información recolectada en las Encuestas de Verificación sobre población desplazada ordenadas por la Corte Constitucional. Desafortunadamente, los resultados evidencian las condiciones verdaderamente precarias en que viven los desplazados por la violencia, con niveles de pobreza superiores a los del promedio nacional y con un grado de avance mínimo entre 2008 y 2010. La pobreza por ingresos no muestra ningún signo de mejoría entre los dos años analizados, salvo en la región Oriental para los grupos familiares no inscritos, pero esto se puede deber más a características particulares de esta población y no a un mejoramiento general en este indicador. En el caso de las NBI, si bien la incidencia es altísima, se puede decir que hay un mejoramiento importante en el indicador, puesto que se reduce en más de 7 puntos. Si bien el mejoramiento es general, las regiones donde cae más la incidencia de las NBI son la Oriental y la Costa Baja. En cuanto al puntaje promedio del ICV se presenta un cambio pequeño entre los dos años, explicado básicamente por un aumento entre los grupos inscritos al RUPD. 14 Se

recuerda al lector que la brecha se define con respecto a lo que le falta al hogar para alcanzar la LP. De esta forma, una brecha negativa indica que el hogar tiene un ingreso mayor que la LP, por tanto, lo que se espera es que a mayor bienestar la brecha sea más negativa.


La situación de pobreza de la población desplazada

Manuel Muñoz y Nelson Pachón215

Por otra parte, el estudio presentado ha querido evaluar, en la forma más objetiva posible, el grado de cumplimiento de los derechos que deben tener los desplazados según diversas sentencias y autos proferidos por la Honorable Corte Constitucional. Para ello se desarrolló una metodología que permitió calificar el cumplimiento de los Indicadores de Goce Efectivo de Derecho (IGED), incluyendo 8 de estos indicadores y calificándolos de 0 (no se cumple en absoluto) a 5 (se satisface plenamente). Los resultados de este ejercicio son, de nuevo, decepcionantes ya que muestran que el grado de cumplimiento de estos derechos, es muy bajo, no llegando al 50 % y con un progreso muy reducido entre 2008 y 2010. Los indicadores que muestran algún grado de cumplimiento más o menos aceptable (superior al 70 %) son el derecho a la identidad, la educación y la salud. En contraste, los indicadores de ayuda inmediata, atención de emergencia y generación de ingresos son lamentables, mostrando un grado de cumplimiento inferior al 20 % para atención inmediata y generación de ingresos. Por último, se ha planteado la hipótesis de que hay una relación positiva entre el grado de cumplimiento de los IGED y el bienestar, la cual ha sido verificada en dos ejercicios econométricos realizados. No obstante, en posteriores investigaciones habrá que profundizar en ciertos aspectos, para tener mayor certeza en los diseños de política. De lo anterior, surgen gran cantidad de posibles investigaciones, por ejemplo, es posible que la nula disminución en la pobreza por ingresos se relacione con el hecho de que, junto con la atención inmediata, el indicador de generación de ingresos sea el más bajo; es decir, puede que la pobreza por ingresos esté articulada con el grado de cumplimiento insatisfactorio de este indicador de Goce Efectivo de Derecho.

REFERENCIAS BIBLIOGRÁFICAS 1. Comisión de Seguimiento a la política pública sobre desplazamiento forzado. (2009). El Reto ante la tragedia humanitaria del desplazamiento forzado: Garantizar la observancia de los derechos de la población desplazada, volumen 2. Bogotá: Industrias gráfica Darbel. 2. Corte Constitucional (2004). Sentencia T-025/04. Bogotá: Corte Constitucional. Disponible en: http://www.codhes.org/images/stories/pdf/sentencia %20t-025 %20 de %202004.pdf 3. Katzman, R. (1989). La heterogeneidad de la pobreza. El caso de Montevideo. Revista de la CEPAL, 37, 141-152. 4. Muñoz, M. (1988). La magnitud de la pobreza en trece ciudades colombianas medida a través de líneas de indigencia y de pobreza. Boletín de Estadística, 429, 149-227. 5. Muñoz, M. (1996). Evolución de la Pobreza en Colombia, medida por Necesidades Básicas Insatisfechas (NBI) 1991, 1993-95. Boletín de Estadística, 520, 188-202.


216

Cuadernos de Economía, 30(55), julio - diciembre de 2011

6. Muñoz, M. y Pachón, N. (2008a). Actualización y análisis de la evolución de la pobreza en Bogotá. Informe Final. Bogota D.C.: SPD- CID. 7. Muñoz, M. y Pachón, N. (2008b). Evolución de la pobreza en Bogotá entre 2003 y 2007. Según información de las encuestas de Calidad de Vida. Bogota D.C.: SPDCID. 8. PNUD, DNP, PNDH, GTZ (2006). Los Municipios Colombianos hacia los Objetivos de Desarrollo del Milenio. Bogotá D.C.: DNP, PNDH, PNUD, GTZ. 9. Sarmiento, A. y Ramírez, C. (1997). El Índice de Calidad de Vida: una propuesta para la Distribución. Bogotá D.C.: Misión Social, DNP.


VALUING A WATER RECREATION FACILITY USING SEMI PARAMETRIC ESTIMATORS IN THE TRAVEL COST METHOD

Mónica M. Jaime1 Alejandro M. Tudela2 The high moors and forest region located in the highlands of Antioquia, Colombia, is considered a strategic ecosystem for the population that lives in and out of the metropolitan area of the Aburrá Valley. This ecosystem provides several environmental services, such as water provision, which is used for recreational purposes in the Parque de las Aguas (Water Park) as a free input3 . This park is one of the main recreational sites in the Antioquia Department (Corantioquia, 1999). 1 MSc.

in Environmental and Natural Resources Economics. Currently occupies the position of full time lecturer at Universidad de Concepción (Chillán, Chile). Mailing address: Business and Administration School, Universidad de Concepción, Campus Chillan. Chile. PO Box 537 (Chillán, Chile). E-mail: mjaime@udec.cl. 2 Ph.D. in Transport. Currently occupies the position of associate professor at Universidad de Concepción (Concepción, Chile). Mailing address: Civil Engineering Department, Universidad de Concepcion. Chile. PO Box 160 C, (Concepción, Chile). E-mail: atudela@udec.cl. We want to thank two anonymous referees for providing useful comments. This article was received on March 12, 2009, latest version received on August 28, 2010 and his publication approved on November 21, 2010. 3 The water net that arises from its ecosystem provides water to more than 63,000 inhabitants that belong to the surrounding area, and provides both water and electricity to Medellín city through the multiple resource management system “Rio Grande II”, which is divided in two hydroelectric power systems: Niquía and Tasajera. When the productive process is finished in Niquía, water is used for aqueduct and drain purposes in the north area of Medellín. On the other hand, when the productive process is finished in Tasajera, water is used for recreational purposes in the “Parque de las Aguas” as a free input, and then it is spilled into Medellín’s river in order to dilute the concentration of pollutants (Corantioquia, 1999).

217


218

Cuadernos de EconomĂ­a, 30(55), julio - diciembre de 2011

Orrego, Jaime and Bedoya (2002) developed a valuation study, oriented to find legal support for the protection of this ecosystem, such that it was declared a Special Management Area (SMA). They used the Travel Cost Method (TCM) to assess the benefits associated with the park, and valued the economic effect of keeping this ecosystem. Poisson and Negative Binomial probability distributions were adjusted to the data, following Shaw (1988) and Englin and Shonkwiler (1995), and taking into account the discrete nature of the explained variable and the existence of a truncated sample with a possible endogenous stratification bias. Results showed that the welfare measure for the whole sample that visited the site during the study period was more than nine times the investment that that environmental authority carried out for a period that lasted six years. This figure had a clear impact upon the SMA declaration process (Orrego et al., 2002). A more flexible approach has been suggested to validate the results obtained using the parametric method (Silverman, 1986). The flexible method should relax the assumptions used in the parametric approach, such that any bias can be tackled. If benefit estimates obtained through both approaches are relatively similar, then results could be deemed as robust. There are two more flexible approaches with respect to the parametric methods: non parametric (NP) techniques and semi parametric (SNP) techniques. The NP techniques are based upon unknown error distributions and functional forms, i.e., they are completely free econometric specifications. They are used mainly to verify the results obtained through parametric methods. An important restriction related to their usage corresponds to the difficulty on the incorporation of an important number of explanatory variables, which is required for the decision making (Silverman, 1986). On the other hand, SNP methods allow the researcher the relaxation of incorrect parametric specifications, coping with possible specification biases. Furthermore, SNP techniques allow the consideration of an important number of explanatory variables, when compared with NP methods. Nevertheless, the SNP techniques are rather complex during the estimation process (Cooper, 2000). This work consists of the application of the SNP techniques for the estimation of the recreational benefits related to the Parque de las Aguas4 , in the Antioquia Department. The application of this flexible econometric method might allow the correction of any bias associated with data truncation and endogenous stratification in data when using the TCM. The use of the SNP techniques might allow obtaining more robust welfare measures, improving the decision making process. 4 Since its creation in 1996, this park has been one of the main recreational sites in the AburrĂĄ valley.

On average, it is visited for 1,195,000 individuals each year, which are mainly attracted because of the existence of a modern system of aquatic infrastructure. It has an area of 107 Ha, from which 40 Ha are covered with water, in addition to an ecological path where visitors can observe different species of trees. Water demand in the park for recreational purposes reaches 6,500 m3 per month (Orrego et al., 2002).


Valuing a water recreation facility

Mónica Jaime y Alejandro Tudela

219

This paper has been organised as follows. Section two contains a review of the Travel Cost method (TCM), and of the parametric and SNP techniques. The application of the SNP technique to the Parque de las Aguas data is reported in the third section, whereas the analysis and discussion of the results is detailed in section four. Final conclusions of the study are pointed out in the last section.

THE TRAVEL COST METHOD The Travel Cost method (TCM) is based upon the consumer choice theory. It measures the willingness to pay for good and environmental services associated with recreational sites. The real value of a resource is expressed through the willingness to pay for using the resource. This willingness to pay could be the cost associated with visiting a recreational site. A demand curve for the environmental good could be estimated, comparing the benefits for consuming the good, with the costs related to the good supply. Changes in access costs, as well as policy instruments, could be assessed through variations in the consumer surplus (Ward and Beal, 2000). During the initial developments of the TCM, Clawson and Knetsch –for more details see Ward and Beal (2000)– derived a demand curve based on aggregated zone information. This approach had two problems. The first had to do with the loose of efficiency due to the aggregation of socioeconomic information, whilst the second trouble was related to the lack of sensitive to individual travel time changes. These inconveniences motivated the employment of disaggregated information, estimating individual demand models, with a later aggregation process. Revealed preferences could be represented and modelled in a better way. Later developments considered the inclusion of new explanatory variables, such as the travel cost of going to an alternative site (Freeman III, 1993; Orrego et al., 2002), the site quality (Orrego et al., 2002) and the recreational facilities –see Ward and Beal (2000). These studies also considered aspects such as the subjective value of time (Fernández, 1992; Ortúzar, 1994; Ward and Beal, 2000), the site staying time (McConnell, 1992), socioeconomic differences in the population and multipurpose visits (Ward and Beal, 2000; Mendelsohn, Hof, Peterson and Johnson, 1992), the consideration of the different components of the travel cost variable (Zawacki, Marsinko and Bowker, 2000), and the treatment of the error component specification in the recreational demand models (Ward and Beal, 2000). An alternative approach to model the recreational demand is based upon the discrete choice models or Random Utility Models (RUM), whose theoretical background rests on the Random Utility Theory. In this case, the choice made by an individual, among many options, is modelled. The TCM models the number of trips (frequency) to a recreational site, whereas the RUM studies the probability of visiting a specific site. Discrete choice models look for the maximization of the individual utility, considering constraints of income and time. Demand models can be estimated and consumer surplus evaluated. More information can


220

Cuadernos de EconomĂ­a, 30(55), julio - diciembre de 2011

be found in Mendelsohn et al. (1992); Feather, Hellerstein and Tomasi (1995), and Feather and Hellerstein (1997).

Parametric Estimates In recreational demand models the dependent variable corresponds to the number of trips to a recreation site made by an individual in a given period of time. Information is usually gathered through in situ surveys. Due to this, data might contain some biases that should be considered during the estimation process. A first aspect to be taken into account is that the dependent variable is a non negative integer. A second matter has to do with the fact that non participant information is not available. Sample only refers to those people who have travelled to the site at least once. Sample is referred as truncated. A third issue is related to the situation that people visiting more often the place are more likely to be interviewed, with respect to those occasional visitors. Sample might have an endogenous stratification. Shaw (1988), the first researcher dealing with the problems pointed out before, suggested a demand model based upon a Poisson distribution since it can cope with non negative dependent variables. The estimation of coefficients would be through the maximum likelihood method, eliminating the biases on the welfare measures due to the truncation in the sample. The use of a Poisson distribution is not obligated. Actually, the distribution should satisfy the condition of having a well specified conditional mean. Besides, it is required that the distribution variance is also well specified, such that the ratio variance-mean equals one; this condition is known as equal-dispersion. However, since many works dealing with recreational demand modelling show the existence of data over-dispersion, then it is suggested the usage of different estimators, keeping the condition of a correct specification of the mean and the variance (Cameron and Trivedi, 1998; Gourieroux, Monfort and Trognon, 1984), or the use of a more general distribution, like a Negative Binomial. This distribution eliminates the possibility of bias due to the over-dispersion since its conditional variance has a squared specification in the mean (Creel and Loomis, 1990). More information regarding the over-dispersion tests for the Poisson distribution can be found in Cameron and Trivedi (1990). With respect to the endogenous stratification, Englin and Shonkwiler (1995) developed a Negative Binomial model, which corrects simultaneously the truncation and endogenous stratification biases, whilst Ovaskainen, Mikkola and Pouta (2001) assessed the effect of the endogenous stratification on the coefficients and welfare estimates.

Semi-Parametric Estimates The Semi Parametric (SNP) techniques are a tool halfway between the parametric and non parametric estimators. According to Delgado and Robinson (1992), a SNP


Valuing a water recreation facility

Mónica Jaime y Alejandro Tudela

221

probability model has two components: a parametric and a non parametric model. Although much of the effort is put on the parametric part of the model, it must be said that the non parametric component allows for a better modelling, providing more robust results. This non parametric part improves the efficiency of the model with respect to any consistent parametric estimation. The relevance achieved for the flexible specifications is due to the limitations associated with the parametric statistic inference, which rest on the “induction hypothesis”5 . When dealing with parametric estimates, a probability distribution is assumed. In most of the cases that choice is arbitrary, leading to biased estimates. However, because of its simplicity, these techniques are widely used in many empirical applications. On the other hand, semi parametric methods allow the researcher to reduce the potential for misspecification bias associated with parametric techniques, providing a solution to any statistical bias, but they do at the cost of increased complexity over the parametric approaches and require careful fitting to the data (Cooper, 2000). Most of the flexible functional forms are of a second order, i.e., if h(x) is approximated by h(x/θ) then for any x0 there exists a θ0 parameter such that

h(x0 + g) − h(x0 + g0 )

θ l´ım =0 (1) 2 g→0 |g| Even though the use of flexible forms might improve the statistical aspects of the modelling, there is no way of assuring that a flexible form will eliminate all biases stated previously (Gallant, 1984). A semi parametric technique is any methodology that allows testing for a hypothesis without assuming any specification form. The semi parametric model approaches the parametric one asymptotically, eliminating the “induction hypothesis”. The most appropriated way of approaching the real model is through a series expansion, similar to hk (x/θ) =

k ∑

θj ϕj (x)

(2)

j=1

Gallant (1984) stated that experience and literature have shown that most of the flexible forms correspond to the main terms of series expansions. This would validate the use of this approach. Since a series expansion hk (x/θ) can approximate very well an h(x) function, then it is possible to define a norm ∥e∥, which will permit to measure the error approximation; an adequate norm is the Sobolev one. This norm corresponds to ∥e∥ = h(x) − hk (x/θ) 5 This

(3)

hypothesis states that parametric estimates are limited for the distributional moments of the assumed probability function, and as a consequence of this, they are not suitable to represent the problem under study.


222

Cuadernos de Economía, 30(55), julio - diciembre de 2011

One of the semi parametric models corresponds to a Fourier flexible functional form, hk (x, θ). This functional form adds lineal and squared terms to the basic Fourier form, such that the total number of terms is reduced when non periodic functions are approximated. The size of the expansion depends on the data availability. When more data are available, then the number of terms in the expansion is increased; this is known as the Sobolev flexibility. This lets the reduction of the error ∥e∥, for any x, as much as desired, according the sample size, n, increases (Creel, 1997; Cooper, 2000). The Sobolev flexibility term has been used to name series expansions that are dense according to the Sobolev norm. A functional form showing Sobolev flexibility has the following properties: elasticity is consistent, hypothesis will not be rejected spuriously, and the specification bias will be neglected. If these properties are fulfilled, then equation 1 will be satisfied. Gallant (1984) proved that the Fourier flexible form complies with the properties of the Sobolev flexibility. This implies that this form has the property of approximating a real function and its derivatives, for a finite order, over a specific range for the argument. ∗

Let λ be a vector of integers. Let |λ| be the sum of the absolute values of λ elements. If function f (x) is a vector of order K, then λ will be a vector of non negative integers with order K, such that Dλ f (x) =

∂ |λ|

∂X1λ1 ∂X2λ2 . . . ∂Xkλk

f (x)

(4)

The Sobolev norm is an indicator that takes into the derivatives, such that if hk (x/θ) approximates poorly h(x), or any of its derivatives of order K, then the error given by equation 3 will reach a large value. According to Creel (1997) and Gallant and Souza (1991), the Sobolev norm of any function f (x) will be:

∥f (x)∥m,X = max sup Dλ f (x)

(5) ∗

|λ| ≤ m x ∈ X Where m is a finite non negative integer and X is the domain of f (x). If h(x, θ) is a Fourier approximation of f (x), then in the estimation optimum will be satisfied by the following: ∗ b −→ 0 (6) f (x) − h(x, θ) m,X

Therefore, any approximation that is continuous according to the Sobolev norm, for any real function, will allow the estimation of consistent coefficients. This is quite important at the moment of calculating the welfare changes, since they depend on the demand model coefficients.


Valuing a water recreation facility

Mónica Jaime y Alejandro Tudela

223

Besides, it is possible to choose θj independently from the information available about m, X and f (x). The problem that remains is how to estimate these coefficients using any standard econometric procedure. According to Gallant (1984), if coefficients are estimated using OLS, ML or OLS in two or three steps, they will have the desirable properties about consistency and so on. Coming back to the Fourier functional form, this has the following expression: hk (x, θk ) = Uo + b′ x + 0, 5x′ Cx+   A ∑ J  ∑ + (νjα cos [jkα′ s(x)] − wjα sin [jkα′ s(x)])   α=1

(7)

j=1

∑A ∑A ′ Where Uo = uo + α=1 uoα , C = α=1 uoα kα kα and x is a row vector of order (k − A − J) × 1. This vector corresponds to all the arguments of the utilities difference model, where k is the dimension of θ, A is the length of the series, and J is the order of the approximation. A and J are positive integers. kα are vectors of positive and negative integers, which are indices of the conditional variables after transforming and scaling x by s(x). The s(x) function avoids the periodicity of the model, since the sine and cosine functions are periodic, whereas the demand functions are not. s(x) scales and transforms the x variables, such that they are always in the interval [0, 2π − 0.000001]. The modified variables are smaller than 2π, which correspond to the period of the sine and cosine functions (Cooper, 2000). With respect to the optimal values for A and J, some authors suggest that a proper length would be two or three indices, whereas the order should vary between one and two; more details can be found in Creel (1997). A discussion about the optimal number of coefficients (θ), to be estimated is provided by Chalfant and Gallant (1985) and Cooper (2000). Keeping in mind the discrete and truncated nature of the dependent variable, then it seems plausible the utilization of a Fourier form as an approximation of the real function. Estimations can be carried out using ML or SML, whilst semi parametric Poisson or Negative Binomial distributions can be used to model the data. Although these distributions are not totally flexible, they permit to cope with the biases in this kind of samples (Cooper, 2000). An extension of this approach, based upon more flexible transformations, such as polynomial series, can be revised in Cameron and Johansson (1997). Regarding the properties of the estimates, Andrews (1991) and Gallant and Souza (1991) studied the conditions under which the Fourier form achieves asymptotic normality, whereas Delgado and Mora (1995) derived the asymptotic properties of the semi parametric procedures considering weaker conditions than those required by continuous estimators. On the other hand, Fenton and Gallant (1996) ran a study to find out whether the apparent convenience of using SNP methods had any setback, considering that the


224

Cuadernos de Economía, 30(55), julio - diciembre de 2011

SNP is the more convenient non parametric method to estimate simultaneously the coefficients of the non lineal model and the latent density process using ML. They found that there is no problem using SNP methods, since SNP estimates are qualitative and asymptotically equivalents to kernel estimates, when using totally non parametric methods, being the later the optimal estimates. Besides, Fan and Li (1996) carried out several tests to evaluate consistency when using non parametric and semi parametric regressions. Finally, Gurmu, Rilstone and Stern (1999) developed a semi parametric approach for over disperse regression models, based on a series expansion for the unknown density of the unobserved component, which is a quite attractive approach when truncated discrete models are estimated and the error term distribution is not well specified. There are few examples with regard to the use of semi parametric methods to model recreational demand. Creel (1997) estimated welfare measures (Equivalent Variation) for an unknown demand functional form. Cooper (2000) used and compared parametric, semi parametric, and non parametric methods when dealing with the estimation of benefits associated with the hunting of water birds in protected areas in San Joaquin Valley, California. Crooker (2004) explored the efficiency of using semi parametric techniques when assessing welfare measures associated with people that visited the Lake Clear, Iowa, in year 2000.

APPLICATION The Fourier flexible functional form was applied to data collected by Orrego et al. (2002), from November 2000 to February 2001. 409 visitors of the Parque de las Aguas were interviewed. Data were transformed and adjusted to the [0, 2π − 0.000001] interval, then proceeding to the estimation of the semi parametric models. Scaling was performed to avoid the Gibb effect, which happens when there are large oscillations when using Fourier series. ML and SML procedures were used for the estimation, since they allowed the correction of the truncation and endogenous stratification biases. Regarding the semi parametric models estimated, they corresponded to four types, depending on the combinations of length and order: SNP-I (order = length = 1), SNP-II (order = 2; length = 1), SNP-III (order = 1; length = 2) and SNP-IV (order = 2; length = 2). The general specification of the models was Ti = h(xi ) + ei , where h(x) was estimated through a Fourier flexible form, i.e., hk (x, θ). x corresponds to the explanatory variables vector and θ are the coefficients to be estimated. A general specification of the deterministic component is shown in equation 7. More details about the explanatory variables in this study can be found in Orrego et al. (2002). CV2 is the travel cost, including a 40 % of the salary as a proxy of the travel time opportunity cost; CS2 is the travel cost of the alternative site,


Valuing a water recreation facility

Mónica Jaime y Alejandro Tudela

225

including a 40 % of the salary as a proxy of the travel time opportunity cost; Salario corresponds to the monthly income. The estimated coefficients were given by θ = (a, b, c, u1 , v1 . . . uj , vj ). This vector has a dimension of K = 3 + 2 · J. The calculation procedure consisted in estimating the vector θ0 for different specifications and values of hk (xi , θ), n, and K and studying the error approximation for h(x), and the first and second derivatives, (d/dx)h(x) and (d2 /dx2 )h(x). Once coefficients were estimated, demand elasticities were calculated to have a full economic interpretation of results (Cooper, 2000). Elasticity expressions correspond to: } { J A ∑ ∑ ( ] ) ] [ ′ [ ′ ∂hk (x, θk ) = b + Cx + 2 j νjαcos jkα s(x) + wjα sin jkα s(x) kα ∂x α=1 j=1 (8)

Consumer surplus for the j − th individual was estimated using ( ∫ ) max n T Cij ∑ ∗ CSj = wi exp [hk (x, θk )] dT C i=1

(9)

T Cij

max Where T Cij is the exclusion fare or maximum observed travel cost, and wi is an observation weight if required. For SNP models the total consumer surplus for the sample is equal to the sum of the individual surpluses, since the SNP model might be highly non linear (Cooper, 2000).

Since there is an important co-linearity among estimates when using Fourier series forms, resting reliability to the hypothesis tests, then welfare measures will be presented through confidence intervals. These intervals were estimated using a bootstrap approach. For the bootstrap, 30.000 sets of simulated data were generated. Each simulation allowed the estimation of a set of coefficients and, hence, a welfare measure. An empirical distribution of coefficients and welfare measure were built up following this procedure. The specific bootstrap method used in this case corresponded to the bias accelerated correction (bac) procedure. More details regarding this approach can be found in Crooker (2004). The test suggested by Cameron and Trivedi (1997) was used to check for over dispersion in the data and estimated models. This test consists of running the following regression: [ ]2 bi Ti − λ bi + ϵi [ ] = αλ (10) b λi − 1


226

Cuadernos de Economía, 30(55), julio - diciembre de 2011

bi = exp(hk (xi , θ)). According to this test, if Ho : α = 0 cannot be Where λ rejected, then the E[T ] = V ar[T ] condition in the Poisson model cannot be discarded either. This implies that the collected data do not exhibit over dispersion (Cooper, 2000).

DISCUSSION Different regressions were estimated for the Poisson distribution, since this distribution corrects the truncation and endogenous stratification biases. Estimation were made using the Pseudo Maximum Likelihood (SML), with a parameterisation of the variance-mean ratio, such that V ar/M ean = 1 + E(M ean). This parameterisation is the most appropriated in this type of models according to Cooper (2000). Estimations were carried out using Gauss 6.0, modifying the original codes prepared by Cooper (2000). Modified codes are available on request from the corresponding author. Results are presented in table 1. TABLE 1. RESULTS FOR POISSON MODELS Variable CV2

CS2

Salario Coef. α Log-L T Tˆ

SNP-I -0.0591 (−0.4901, 0.9057)* (−0.6075, 0.7863) 0.0845 (−0.3165, 0.4889)* (−0.1461, 0.6540) 0.6839 (0.3397, 1.0305)* (0.1782, 0.8715) 10 0.4256 -45.824 -783 1286 877

SNP-II -0.0479 (−0.9830, 0.8825)* (−1.1353, 0.6843) -0.0504 (−0.5531, 0.4549)* (−0.3882, 0.6205) 19.316 (0.8227, 3.0541)* (0.5514, 2.0674) 16 0.4067 -45.148 -777 1286 877

SNP-III -0.0922 (−0.3627, 1.5381)* (−1.0718, 0.8152) 0.1008 (−0.3317, 0.5370)* (−0.1724, 0.6891) 0.7019 (0.3329, 1.0735)* (0.0834, 0.8173) 16 0.4066 -47.113 -776 1286 877

SNP-IV -0.3645 (−2.0489, 1.3032)* (−2.5756, 0.5565) -0.0288 (−0.6228, 0.5685)* (0.4462, 0.7369) 19.802 (0.8344, 3.1411)* (0.4241, 2.0439) 28 0.3794 -43.646 -767 1286 877

Note 1. ()* = corrected confidence intervals (bac). Note 2. () = uncorrected confidence intervals (CI-90 %) Source: based upon author main results.

Results are presented as elasticities. Values in brackets are the corrected (90 % bac) and uncorrected (CI-90 %) elasticities intervals. As expected, elasticities for order 1 models (SNP-I and SNP-III) have the proper sign: (∂T /∂CV 2 < 0), (∂T /∂CS2 > 0), and (∂T /∂Salario > 0), i.e., less trips if the own travel cost increases, but more trips if the alternative site travel cost increases or if the own salary is augmented.


Valuing a water recreation facility

M贸nica Jaime y Alejandro Tudela

227

For order 2 models (SNP-II y SNP-IV), just the own travel cost, CV2, and Salario variable elasticities had the expected sign. When increasing the length or order, changes are obtained in the estimates. Bigger change is gotten for the SNP-IV. These changes might provoke variations in welfare measures and conclusions derived from them. With respect to the confidence intervals for elasticities, differences are got when comparing the corrected and uncorrected estimates. Actually, there is a displacement of intervals: lower and upper bounds increase for the corrected models, and a change on the width of the intervals. When corrected intervals are biased, then uncorrected intervals are the valid ones. The number of coefficients estimated (coef ), moves between 10 and 28. Higher order and length models have more coefficients to be estimated. The 伪 coefficient corresponds to the test to identify the existence of over dispersion. For the estimated models it cannot be rejected the null hypothesis, being true 31.4 % for all models, implying that there is no over dispersion. Therefore, there is no need to estimate a Negative Binomial model. Regarding the predictive capacity of the models, they are able to predict the 68.2 % of total trips in the sample. Estimates of consumer surplus (CS) per trip are shown in table 2. CS varies between $4.148 and $7.635 per trip. Lowest value is related to the higher order and length model. These results are quite significant to an individual and aggregated level. Although CS variations among models look like small when referring to values per person, these changes are quite important when values are aggregated to the sample (409 people) and the whole visitor population (1.195.000 per year). This fact might have an important effect on policy decision making regarding investment and management. The choice of the best model representing the sample being modelled and the population should not be a minor issue. TABLE 2. CONSUMER SURPLUS PER TRIP (POISSON MODEL). CS/Trip bac 90 % CI-90 % Standard error VC

SNP-I 7635 (4,510; 10,780) (4,627; 10,680) 1905.7912 0.2624

SNP-II 5660 (2,010; 9,336) (3,241; 9,929) 2226.8192 0.3747

SNP-III 6930 (2,660; 11,229) (3,677; 11,785) 2604.6385 0.3724

SNP-IV 4148 (-727; 9,075) (1,872; 10,117) 2979.4823 0.6248

Source: based upon models estimation.

Concerning the confidence intervals for welfare measures, it can be noticed that the corrected interval (bac 90 %) for the SNP-IV model is biased. This implies that the valid interval is the one related to the uncorrected values (CI-90 %). Besides, the difference between the corrected and uncorrected intervals for the SNP-I model


228

Cuadernos de EconomĂ­a, 30(55), julio - diciembre de 2011

welfare estimate is quite small, implying that for this model the bias in the welfare estimate is the smallest, when compared with the other models. This coincides with the fact of SNP-I model having the smallest variation coefficient (VC). It can be concluded from the previous observations that the difference between the corrected and uncorrected intervals increases when moving from lower to higher order and length models. This might be due to the fact that models tend to be less linear when increasing the order or length. For instance, an order 1 model implies that the power for the sine and cosine functions is equal to one, whereas if order is 2, the demand function is approximated through squared forms of sine and cosine functions. Estimates of the total consumer surplus, for the sample of 409 individuals, are shown in table 3. TABLE 3. TOTAL CONSUMER SURPLUS (POISSON MODEL).

CS total bac 90 % CI-90 % Standard error

SNP-I 6696310 (3918465, 9491218) (4042057, 9394553) 1693836

SNP-II 4964002 (1745522, 8204724) (2823682, 8740356) 1963270

SNP-III 6077593 (2332030, 9848473) (3217466, 10315810) 2284618

SNP-IV 3.638.362 (-619367, 7939977) (1636144, 8862616) 2601585

Source: based upon SNP estimation results.

Total consumer surplus was calculated aggregating the individual CS estimates. As in the individual case, total welfare estimate for the SNP-IV model is biased when considering the corrected interval, implying that the uncorrected one is the valid. Differences among models increase when the model order is augmented, as expected. Hence, it was necessary an order 1 model to get an improvement on the modelling and data adjustment, with respect to the parametric model. Since there is not over dispersion, then a Poisson model is enough, instead of using a Negative Binomial. Besides, if the number of coefficients to be estimated is too large, the SNP models tend to be less reliable with respect to simpler models. This can be observed in SNP-II and SNP-IV models, which have the wrong sign for the coefficient associated with the CS2 variable. Moreover, elasticities for these models are quite larger than those obtained for the order 1 model. Following Cooper’s results (Cooper, 2000) and this work, it can be said that for relatively small samples, a simpler model is better than a higher order and length model. More sophisticated models tend to be instable. More complex SNP models converge to the real demand function according the sample size increases. Taking into account the previous comments, it can be said that the best models are those of order 1 (SNP-I and SNP-III). However, since SNP-I model adjusts better


Valuing a water recreation facility

M贸nica Jaime y Alejandro Tudela

229

the data than the SNP-III model, then it is concluded that this model should be used for policy decision making. As it was mentioned in section 2, the NP and SNP models can be used for cross verification. Following Cooper (2000), if NP and SNP results are similar, then it can be said that benefits are robust for the chosen estimator. He compared the results for parametric, SNP and NP models, concluding the previous statement. In this work the only available publication for comparison, using the same data, is the work produced by Orrego et al. (2002). They estimated a parametric Negative Binomial model, correcting by truncation and endogenous stratification. Confidence intervals for the welfare measure, average consumer surplus per trip, were built using the expressions provided by Yen and Adamowicks (1993). Results are shown in table 4. TABLE 4. CONSUMER SURPLUS PER TRIP (PARAMETRIC CASE) CS

Point Estimate 16197.7

Expected Value 20030

Confidence Interval (90 %) (19389.2, 20670.8)

Source: based on Orrego et al. (2002)

The comparison of these results with those reported in table 2 shows that the parametric approach generates much higher values for the consumer surplus per trip. This difference might affect clearly any policy decision. Besides, Laverde and Montes (2003) using the same data estimated a non parametric model. When comparing the three welfare estimates it was detected the following order relationship: CSSN P < CSN P < CSparam . This could be explained based upon the specific assumptions associated with each model. Furthermore, the NP model does confirm the SNP model results, but fails when trying to validate the parametric results. The parametric model considered a fixed functional form, obtaining that the income (Salario) coefficient was very small, close to zero. Although outdoor recreation is not a main service for Colombian people, implying that the recreation expenditure is relatively small, the result obtained using the parametric approach does not sound plausible, when the socioeconomic characteristics of the region where the survey was conducted are considered. On the other hand, the SNP model showed that income (Salary variable) was relevant at the moment of travelling for recreation purposes. This would imply that in the sample there would be income effect. It is argued that the difference between the parametric and SNP models resides on the assumption they hold. Clearly the parametric model is more restricted than the SNP one, implying that the later would able to capture better the data characteristics. Furthermore, the travel cost to the site, the travel cost to the alternative site, and the income are all relevant when deciding to visit the Parque de las Aguas. These


230

Cuadernos de Economía, 30(55), julio - diciembre de 2011

results are quite consistent with the socio economic context related to the sample. Income and travel costs are indeed constraints at the moment of choosing an out door recreation facility in less developed countries. The SNP model confirms this fact. In contrast, Cooper’s work (Cooper, 2000) confirms that in more developed countries income effect on recreation decisions is quite unimportant. The income distribution information in the data base showed that the recreational site visitors were people belonging to the lowest socioeconomic strata (Orrego et al., 2002)6 . The survey was applied to people arriving by car though. Highest income people normally would not attend this type of facilities since they would have more exclusive amenities. This confirms the econometric results for the SNP model.

CONCLUSIONS The ecosystem of forests and high moors in the Andes highland was declared a protected area, supported on the worked developed by Orrego et al. (2002). According to them, benefits related to visitors over the year 2000 were similar to the infrastructure investment required to put the recreation site in operation. Since they used a parametric approach to estimate the benefits, and since these approaches are not very flexible, imposing many restrictions on the analysis, it was decided to carry out a semi parametric modelling approach. This more flexible approach might help to drive the policy decisions. Cooper’s work (Cooper, 2000) was used to guide this research, even though some changes had to be introduced due to the existence of truncation and endogenous stratification in the sample collected by Orrego et al. (2002). A Poisson distribution was adjusted, with a Fourier expansion of the model. Four semi parametric models were estimated, considering different orders and lengths. However, just an order 1 model would be enough to detect an improvement on estimates and economic results with respect to the parametric model. Consumer surplus per trip for the simplest SNP model resulted in 47.14 % of the value obtained by Orrego et al. (2002). The utilization of this lowest value might help to improve the policy decision making, adopting a more conservative approach. Total consumer surplus, considering the whole population visiting the recreation site, might vary between M$8.000 and M$18.000. Regarding the possibility of over dispersion in the data, estimations showed that this is not relevant. This implied that it was not necessary to estimate a Negative Binomial distribution, as recommended by Orrego et al. (2002). 6 According

to Orrego et al., (2002), despite the fact that visitors inhabit all the neighborhoods of Medellín, an important average came from middle and low income zones. From those questioned in the survey, 6.6 % reached primary school, 38.14 % secondary school, 12.71 % technical school, and 42.54 % higher education. In addition, only 10.76 % had a permanent employment contract. On average, individuals visited the park 3.1443 times per year, remaining 5.17 hrs in the park.


Valuing a water recreation facility

MĂłnica Jaime y Alejandro Tudela

231

In contrast with the findings by Orrego et al. (2002) in relation with the non existence of income effect, the SNP model showed that such effect would exist in the sample, and population visiting the site. This finding matches the socio economic characterization of the sample used to estimate the models. In addition, the existence of the income effect implies that a Marshall surplus should not be used as a measure of the users’ welfare, but as a Hicks measure. When comparing the different modelling approaches, it must be said that the semi parametric results did not match the parametric ones, but did agree with the non parametric outcomes (Kernel approach). This implies that SNP benefit estimates can be considered robust. Furthermore, even though the parametric and semi parametric approaches allowed the correction of the sample biases, the assumptions and scarce flexibility of the parametric models did not permit the capture of the full impact of the independent variables on the dependent one. The apparent non existence of income effect, as mentioned previously, is an example of this. There was no possibility to implement the cross validation test to check for over adjustment in the SNP models. Instead, the variation coefficients (VC) associated with the welfare measures, for the four SNP models, were compared with the VC for the non parametric model estimated by Laverde and Montes (2003); they estimated a Variable Partition Histogram (PAVA) model. The analysis showed that all models were over adjusted but the SNP-I. VC for this model and the non parametric model were similar indeed. Finally the SNP-I model was chosen to represent the demand being modelled. It has been shown that it is feasible to estimate a semi parametric model to study the demand for a recreational site, obtaining promising results with respect to the classical and little flexible parametric models, and the more sophisticated and absolutely flexible non parametric ones. When comparing the SNP welfare measures with respect to those obtained using the standard approach, it was found some important differences that might affect the decision process when dealing with recreational investments and the optimal allocation of resources. It is pending the implementation of the cross validation test, such that the choice of the best model, among many, can be made with certainty. It would be also interesting to estimate a semi parametric model, considering a Negative Binomial distribution instead, contrasting these results with those obtained when using a Poisson distribution.

REFERENCIAS BIBLIOGRĂ FICAS 1. Andrews, D.W. (1991). Asymptotic normality of series estimators for nonparametric and semiparametric regression models. Econometrica, 59(2), 307-345. 2. Cameron, A.C. and Trivedi, P.K. (1990). Regression-based test for overdispersion in the Poisson model. Journal of Econometrics, 46(3), 347-364.


232

Cuadernos de Economía, 30(55), julio - diciembre de 2011

3. Cameron, A.C. and Johansson, P. (1997). Count data regression using series expansions: with applications. Journal of Applied Econometrics, 12(3), 203-223. 4. Cameron, A.C. and Trivedi, P.K. (1998). Regression analysis of count data. New York: Cambridge University Press. 5. Chalfant, J.A. and Gallant, A.R. (1985). Estimating substitution elasticities with the Fourier cost function. Journal of Econometrics, 28(2), 205-222. 6. Cooper, J. (2000). Nonparametric and semi-nonparametric recreational demand analysis. American Journal of Agricultural Economics, 82(2), 451-462. 7. Corporación Autónoma Regional del Centro de Antioquia (CORANTIOQUIA). Banco Interamericano de Desarrollo (BID) (1999). Conservación, ordenamiento y manejo del sistema de páramos y bosques alto andinos del Noroccidente medio antioqueño. Medellín: CORANTIOQUIA. 8. Creel, M. and Loomis, J.B. (1990). Theoretical and empirical advantages of truncated count data estimators for analysis of deer hunting in California. American Journal of Agricultural Economics, 72(2), 434-445. 9. Creel, M. (1997). Welfare estimation using the Fourier form: simulation evidence for the recreation demand case. The Review of Economics and Statistics, 79(1), 88-94. 10. Crooker, J. (2004). Valuing resource access with semi-nonparametric techniques: an application to Clear Lake (Working paper 04-WP 352). Ames: Iowa State University, Center for Agricultural and Rural Development. 11. Delgado, M. and Robinson, P.M. (1992). Non parametric and semi parametric methods for economic research. Journal of Economic Surveys, 6(3), 201-249. 12. Delgado, M.A. and Mora, J. (1995). Non parametric and semi parametric estimation with discrete regressors. Econometrica, 63(6), 1477-1484. 13. Englin, J. and Shonkwiler, J.S. (1995). Estimating social welfare using count data models: an application to long-run recreation demand under conditions of endogenous stratification and truncation. The Review of Economics and Statistics, 77(1), 104-112. 14. Fan, Y. and Li, Q. (1996). Consistent model specification test: omitted variables and semiparametric functional forms. Econometrica, 64(4), 865-890. 15. Feather, P., Hellerstein, D. and Tomasi, T. (1995). A discrete-count model of recreational demand. Journal of Environmental Economics and Management, 29(2), 214227. 16. Feather, P. and Hellerstein, D. (1997). Calibrating benefit function transfer to assess the conservation reserve program. American Journal of Agricultural Economics, 79(1), 151-162. 17. Fenton, V.M. and Gallant, A.R. (1996). Qualitative and asymptotic performance of SNP density estimators. Journal of Econometrics, 74(1), 77-118. 18. Fernández, J.E. (1992). El valor subjetivo del tiempo: antecedentes y marco teórico para una investigación empírica (Documento de trabajo No. 63). Santiago de Chile: Pontificia Universidad Católica de Chile, Departamento de Ingeniería de Transporte. 19. Freeman III, A.M. (1993). The measurement of environmental and resource values. Theory and methods. Washington D.C.: Resources for the Future. 20. Gallant, A.R. (1984). The Fourier flexible form. American Journal of Agricultural Economics, 66(2), 204-208.


Valuing a water recreation facility

Mónica Jaime y Alejandro Tudela

233

21. Gallant, A.R. and Souza, G. (1991). On the asymptotic normality of Fourier flexible form estimates. Journal of Econometrics, 50(3), 329-353. 22. Gourieroux, C., Monfort, A. and Trognon, A. (1984). Pseudo maximum likelihood methods: applications to Poisson models. Econometrica, 52(3), 701-720. 23. Gurmu, S., Rilstone, P. and Stern, S. (1999). Semiparametric estimation of count regression models. Journal of Econometrics, 88(1), 123-150. 24. Laverde, D.C and Montes, J. (2003). Procedimientos no-paramétricos para el análisis de demanda recreacional (Tesis inédita). Universidad Nacional de Colombia, Medellín, Colombia. 25. McConnell, K.E. (1992). On-site time in the demand of recreation. American Journal of Agricultural Economics, 74(4), 918-925. 26. Mendelsohn, R., Hof, J., Peterson, G. and Johnson, R. (1992). Measuring recreation values with multiple destination trips. American Journal of Agricultural Economics, 74(4), 926-933. 27. Orrego, S., Jaime, M. and Bedoya, J. (2002). Valoración económica de los beneficios recreacionales proporcionados por el Parque de las Aguas en el Área Metropolitana del Valle de Aburrá. Lecturas de Economía, 56(1), 107-131. 28. Ortúzar, J. (1994). El valor del tiempo para evaluación de proyectos. (Informe ejecutivo, Fondo Nacional de desarrollo científico y tecnológico). Santiago de Chile: Pontificia Universidad Católica de Chile, Departamento de Ingeniería de Transporte. 29. Ovaskainen, V., Mikkola, J. and Pouta, E. (2001). Estimating recreation demand with on-site data: an application of truncated and endogenously stratified count data models. Journal of Forest Economics, 7(2), 125-144. 30. Shaw, D. (1988). On-site samples regression: Problems of non-negative integers, truncation and endogenous stratification. Journal of Econometrics, 37(2), 211-223. 31. Silverman, B. W. (1986). Density estimation for statistics and data analysis. London: Chapman and Hall. 32. Ward, F. and Beal, D. (2000). Valuing nature with travel cost models. United Kingdom: Edward Elgar Publishing. 33. Yen, S. and Adamowicks, W. (1993). Statistical properties of welfare measures from count data models of recreational demand. Review of Agricultural Economics, 15(2), 203-215. 34. Zawacki, W., Marsinko, A and Bowker, J.M. (2000). A travel cost analysis of nonconsumptive wildlife-associated recreation in the United States. Forest Science, 4(46), 496-506.


234

Cuadernos de EconomĂ­a, 30(55), julio - diciembre de 2011


INDUSTRIALIZACIÓN Y DESINDUSTRIALIZACIÓN DE ARGENTINA EN LA SEGUNDA MITAD DEL SIGLO XX. La paradójica validez de las leyes de Kaldor-Verdoorn

Sergio Raúl Cabezas1 Patricia Inés Laría2 Verónica Rama3 La cuestión del crecimiento fue la primera que ocupó a la economía. Los clásicos concibieron este fenómeno como un proceso de avance, diversificación y especialización productiva. Para Adam Smith el motor de esta dinámica es la división del trabajo, que explica la posición relativa (ventaja absoluta) de las naciones. De manera similar, Marx señala como eje el desarrollo de las fuerzas productivas. Esta línea que vincula el crecimiento con fenómenos socio-técnicos fue recuperada en el siglo XX por otros economistas como Allyn Young y Joseph Schumpeter. 1 Magíster

en Economía Energética y Política Ambiental. Profesor de la Facultad de Economía y Administración de la Universidad Nacional del Comahue (Neuquén, Argentina). Email: scabezas@uncoma.edu.ar. Dirección de correspondencia: Capitán Gómez 1750 (8324) Cipolletti (Río Negro, Argentina). 2 Doctora en Ciencias Sociales. Profesora de la Facultad de Economía y Administración de la Universidad Nacional del Comahue (Neuquén, Argentina). Email: patriciailaria@yahoo.com.ar. Dirección de correspondencia: Entre Ríos 352 (8332) General Roca (Río Negro, Argentina). 3 Magíster en Economía y Desarrollo Industrial y especialista en Pequeñas y Medianas Empresas. Profesora de la Facultad de Economía y Administración, Universidad Nacional del Comahue, (Neuquén, Argentina). Email: veronrama@yahoo.com.ar. Dirección de correspondencia: San Martín 1120 (8332) General Roca Río Negro Argentina. Este artículo fue recibido el 25 de agosto de 2010 y su publicación aprobada el 4 de diciembre de 2010.

235


236

Cuadernos de Economía, 30(55), julio - diciembre de 2011

El pensamiento neoclásico abandonó este abordaje al introducir, [. . .] Un tipo de análisis económico totalmente diferente a los contenidos sustantivos que habían abordado los economistas clásicos: la asignación de recursos pasó a ser el problema básico de la ciencia. Las fuerzas competitivas operando a través de los precios relativos y la sustitución de factores generan una tendencia al aprovechamiento total del potencial de la economía, por lo que el crecimiento y la acumulación de capital dejaron de ser centro de atención, que se trasladó a los precios en la esfera del intercambio (Palazuelos, 2000, 165).

Cuando Keynes cuestionó la capacidad del mercado para lograr el pleno empleo, la macroeconomía centró el análisis en la demanda. Domar (1947) y Harrod (1959) lo extendieron al largo plazo, concibiendo la teoría keynesiana del crecimiento, que se desvinculó de la dotación ortodoxa de factores para conectarse con su grado de ocupación y el gasto autónomo. El límite de las economías abiertas no está en su capital o tecnología sino en la magnitud del “súper multiplicador” (Hicks, 1950). Por otra parte, la evolución del gasto y el avance tecnológico se desfasan en un proceso desequilibrado, irreversible e incierto. Kaldor (1971) recuperó la visión dinámica “circular” y auto-reforzada del crecimiento focalizando la causalidad que va del crecimiento macroeconómico al cambio tecnológico. Este marco de Causación Acumulativa (CC), en la línea de Young (1928) se asienta en los rendimientos crecientes derivados de las economías de especialización. La ley de Kaldor-Verdoorn (ley K-V) resulta de la aplicación empírica de este abordaje, “endogenizando” el avance tecnológico que se deriva del crecimiento de la industria, que a su vez eleva la productividad por la vía de rendimientos crecientes (Verdoorn, 1949; Kaldor, 1971). Los trabajos en la línea de CC se han complementado con los modelos de crecimiento “liderado por las exportaciones” que vinculan el impacto tecnológico interno con la competitividad externa (Kaldor, 1970). La demanda determina el crecimiento y diversificación del producto, que eleva la productividad, lo que a su vez mejora la competitividad internacional y aumenta las exportaciones, intensificando el proceso acumulativo, y originando mecanismos de retroalimentación que garantizan estos incrementos de productividad y competitividad en el largo plazo. Dentro de la literatura reciente que ha aportado a esta línea se pueden citar Pini (1996), León Ledesma (1998, 2003), Mamgain (1999), Thomas (2003), Bianchi (2001), Freitas (2002), Whorle Guimaraes (2002), Perrotini (2002), Pieper (2003) y Guerrero de Lizardi (2004). Las visiones alternativas al mainstream se han diversificado y ampliado. A esta altura numerosos académicos inspirados en Smith, Marx, Schumpeter y Keynes trabajan asumiendo el carácter desequilibrante del cambio tecnológico y económico, que hace del crecimiento un proceso complejo de evolución, transformación


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

237

y cambio cualitativo más que una suave transición hacia un estado de progreso sostenido y uniforme. Las relaciones dinámicas entre variables tecnológicas, económicas e institucionales juegan un rol preponderante (Castellacci y Álvarez, 2006). Los rendimientos crecientes constituyen el mecanismo básico del abordaje de CC, recuperada por los “padres” del desarrollo (Myrdal, 1957; Young, 1928; Kaldor, 1970). En esta línea, este artículo recupera aspectos fundamentales de las leyes de Kaldor Verdoorn, analizando su evolución en la industria de Argentina durante el período 1945-2002. En la primera sección se resume el papel que desempeñan las leyes dentro de la visión de causación acumulativa del crecimiento. En la segunda, tercera y cuarta parte se sintetizan y analizan los resultados de la aplicación de las técnicas de econometría de series de tiempo para analizar el postulado de la primera, la segunda y la tercera ley, respectivamente, es decir, la capacidad de la industria de funcionar como “motor de la economía”, evaluar la existencia de rendimientos crecientes y el impacto de las ganancias de productividad. En el quinto apartado, mediante el Mecanismo de Corrección de Errores se analiza el desequilibrio y la velocidad de ajuste en el corto plazo. En el último segmento se formulan las conclusiones. Cada una de estos segmentos incluye además una descripción del comportamiento de la producción, el empleo y la productividad en la industria argentina durante los años estudiados. En este largo período la economía nacional atravesó etapas estructuralmente muy diferentes: industrialización por sustitución de importaciones (ISI); inestabilidad y crisis macroeconómicas –asociadas básicamente al endeudamiento externo–; la profundización y caída de un esquema de rigidez monetaria y cambiaria; y la apertura comercial y financiera irrestricta con privatizaciones. A su vez, en el período seleccionado, la ISI atravesó distintas fases. La inicial abarca los dos gobiernos de Perón (1945-1955), sin considerar el giro contenido en el II Plan Quinquenal de 1952 y la segunda incluye la experiencia desarrollista, el período radical del Dr. Illia (1963-1966), la dictadura militar posterior y el “tercer peronismo” (1973-1976). Los indicadores de esta segunda fase evidencian el impacto de la incorporación de inversiones extranjeras, principalmente en la producción automotriz, metalúrgica y química-petroquímica. Las conclusiones de la cuarta y última sección refuerzan la concepción del crecimiento como proceso histórico “circular” y auto-reforzado, con eje en el cambio tecnológico liderado por la demanda y muestran la utilidad de las leyes de K-V como instrumentos de análisis, instando a continuar el trabajo para contextualizar las mismas en naciones de industrialización reciente, incompleta o dependiente. También puede afirmarse que en Argentina sus postulados se han cumplido, con especificidades que confirman tanto el carácter trunco y dependiente de la ISI como el fracaso de la experiencia “privatista” y “aperturista”, para consolidar el círculo virtuoso del crecimiento.


238

Cuadernos de Economía, 30(55), julio - diciembre de 2011

TEORÍA KALDORIANA DE “CAUSACIÓN ACUMULATIVA” En los últimos treinta años el debate sobre el crecimiento económico ha sido fructífero. Aunque subsisten algunos aspectos difusos, se han ajustado las mediciones, diversificado los modelos y aún desde abordajes teóricos alternativos se acepta unánimemente la divergencia, que señala una ampliación y persistencia temporal de las diferencias en entre países y entre regiones. La inclusión como endógenas de variables representativas de la tecnología, el capital humano, el conocimiento y las instituciones, ha sido un logro teórico significativo. Los modelos actuales prácticamente no apelan a determinantes exógenos y colocan el crecimiento en función de variables económicas de nivel macro o de decisiones individuales. La nueva teoría del crecimiento neoclásica muestra al progreso técnico, desincorporado o incluyendo a los bienes de capital, en el corazón del análisis; al igual que desde la visión heterodoxa, veinte años antes, los teóricos de la CC habían abordado la naturaleza endógena del crecimiento. Pareciera que con el tratamiento endógeno de la tecnología, ortodoxia y heterodoxia han acercado posiciones. La economía neoclásica continúa apoyándose en el paradigma de equilibrio general, sostenido en el correcto funcionamiento de los mercados y en el supuesto de pleno empleo, mientras que en el lado opuesto se asume como natural el desequilibrio. Desde que los modelos de Domar (1947) y Harrod (1959) extrapolaron la dinámica keynesiana al largo plazo, la heterodoxia asume que la tasa “natural” de crecimiento y el pleno empleo nunca se alcanzan: el crecimiento continuamente crea recursos para más crecimiento. Se recuperó la visión de CC de proceso endógeno que se auto refuerza en tanto el alejamiento del paradigma del equilibrio corresponde al papel fundamental que se le atribuye a la demanda: la tasa natural deviene endógena y determinada por la tasa real. Precisamente en la demanda agregada reside una diferencia fundamental con el mainstream. Las nuevas teorías del crecimiento todavía suponen que las decisiones de inversión se toman directamente a partir de las de ahorro, corroborando la ley de Say, mientras que la visión keynesiana colocó al consumo, la inversión y la demanda externa como determinantes del crecimiento. En esta línea la versión CC de Kaldor (1978) postula que la composición del producto y la demanda influencian la dinámica de la productividad vía rendimientos crecientes. En los modelos derivados de esta concepción los aumentos de demanda, principalmente externa, no sólo expanden el producto en el corto plazo, sino que inician un proceso acumulativo de ganancias de productividad, que constituyen la base del crecimiento a largo plazo. Desde esta visión, Nicholas Kaldor, protagonista de la ruptura teórica que provocaron las ideas keynesianas, se concentró en la formulación de las “leyes” que caracterizan el crecimiento endógeno. Esta novedad deriva de considerar la inversión


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

239

como variable inducida y ponerla en función de la misma actividad económica, en evidente recuperación del “súper multiplicador” de Hicks (1950), que había “abierto” la economía cerrada de la versión original y además introducido el principio de aceleración. El trabajo de Kaldor evolucionó hacia dos tipos de modelos: los de “dos sectores” (agricultura/industria) y los de crecimiento “export-led”. Estos últimos fructificaron a su vez en líneas de investigación extremadamente útiles para explicar fenómenos actuales como la transnacionalización financiera y el endeudamiento externo. Sobre las bases del planteamiento de CC e invirtiendo la causalidad que ponía a la demanda en función de la producción la visión kaldoriana, recuperó dos relaciones fundamentales. La primera considera el impacto del crecimiento del producto sobre la productividad. El argumento se basa en los rendimientos crecientes, en lo que constituye una directa conexión con la CC en la versión de Young examinada críticamente por Myrdal, que se suma a las Vebleniana y Wickselliana (Fujita, 2004). Los “padres del desarrollo” ya habían postulado al crecimiento como un complejo de mecanismos diversos de retroalimentación. La segunda relación completa el círculo de la CC y se acerca a la escuela de la Regulación: el crecimiento de la productividad aumenta la competitividad y las exportaciones, retroalimentando el crecimiento en la demanda. En este punto la CC kaldoriana se aparta algo de Young, cuyos rendimientos crecientes dependen tanto de la oferta como de la demanda, variables señaladas como recíprocas. Las leyes K-V surgen de la observación de los “hechos estilizados” (stylized facts) sobre los que Kaldor asentó su explicación del crecimiento, y profundizan el vínculo entre crecimiento del producto y aumento de la productividad, abriendo un amplio campo de investigaciones teóricas y empíricas. Los trabajos que recuperan este enfoque contienen ingentes esfuerzos para “bajar a tierra” la dinámica de causación acumulativa y modelar sus “hechos estilizados” mediante la formulación de “leyes” dinámicas internamente consistentes y observables empíricamente. Respetando los trabajos originales, la mayoría las formulan con las siguientes especificaciones: Ley KV I. La tasa de crecimiento de una economía (PIB) está positivamente correlacionada con la tasa de crecimiento de su sector industrial manufacturero (PIB industrial). Ley KV II. Las tasas crecientes de producción en el sector industrial manufacturero (PIB industrial) incrementan la productividad de ese sector (productividad industrial). Ley KV III. El incremento de la productividad en la industria manufacturera. (productividad industrial) a su vez aumenta la productividad en el resto de los sectores de la economía (productividad en los sectores no industriales).


240

Cuadernos de Economía, 30(55), julio - diciembre de 2011

En las secciones siguientes se trabaja sobre estas especificaciones adaptándolas al caso argentino bajo estudio.

LA PRIMERA LEY DE KALDOR La primera ley de Kaldor se refiere a un postulado central de la economía clásica, señalado originalmente por Adam Smith (1958): la productividad de la industria manufacturera se ubica por encima de la productividad en la agricultura. Este papel de “motor del crecimiento” otorgado a la manufactura, es compartido por algunas concepciones que la asociaron directamente con el desarrollo. Centrada en la eficiencia asignativa, la visión neoclásica encuentra que el énfasis en la industrialización puede llevar precisamente a una asignación sub-óptima de recursos. Las corrientes schumpeterianas, estructuralistas y postkeynesianas responden contraponiendo otra concepción de eficiencia: la operativa o eficiencia-X, que mide la capacidad de gestionar un conjunto de recursos, factores e insumos hacia un objetivo prefijado (generalmente la máxima producción), para lo cual se requiere de activos inmateriales colectivos como capacidad de coordinación, conocimientos, decisión e información. La productividad del trabajo es la variable que aproxima la eficiencia operativa y el impacto conjunto/complementario de estos activos materiales e inmateriales. Esta controversia sobre la “superioridad” de la industria ha estado presente en distintos estudios sobre América Latina. En el caso específico de Argentina existen estudios significativos basados en modelos de “dos sectores”, que abordan los desafíos de la industrialización cuando las ventajas relativas estáticas otorgan superioridad relativa al agro sobre la manufactura (Braun y Joy, 1968; Diamand, 1973; Llach y Sánchez, 1984). Por otra parte, analistas de la obra de Lauchlin Currie (Cánfora Argandoña, 2006) afirman que en su interpretación los rendimientos crecientes younguianos son macroeconómicos, transectoriales y se verifican en las actividades primarias y de servicios (Sandilands, 2009). El camino de la sustitución de importaciones, orientó fuertemente la conformación de la manufacturera Argentina, de manera similar a otros países de América Latina en una dinámica caracterizada de semi-industrialización dependiente (Ferrer, 1974). En el periodo posterior a la crisis de 1930 crecieron las “industrias livianas”, lo que impulsó transformaciones sustanciales en el mercado de trabajo y la estructura económica. Las corrientes migratorias desde las áreas rurales hacia los núcleos urbanos produjeron un crecimiento importante de la clase trabajadora asalariada, en particular de la industrial. En consecuencia, y hasta mediados de los años 1950, el proceso de industrialización estuvo básicamente orientado al mercado interno.


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

241

Entre 1946 y 1955 se evidencia un cambio sustantivo en el modo de intervención del Estado, el cual asumió el rol de orientar los sectores clave de la economía, afectando así la posición de las fracciones económicas dominantes, en particular de aquellas centralmente sustentadas en la producción primaria de exportación (Basualdo, 2006a, 2006b). La estrategia económica proponía una activa protección y regulación de las actividades de producción de bienes de consumo no durable. La industria cobraba protagonismo y dejaba de ser un complemento de la producción primaria, mientras que el sector agropecuario se reacomodaba como proveedor de divisas y bienes-salario. La producción agropecuaria experimentó una desaceleración paralela al crecimiento industrial, consolidándose una tendencia que se muestra en la Gráfica 1; sin embargo, las restricciones externas provocaron ciclos de “stop and go” que se iniciaban con un crecimiento de la producción industrial, seguido de una caída en términos absolutos, producto de la imposibilidad de financiar las compras externas derivadas de un elevado coeficiente de elasticidad Ingreso de las importaciones. Esta dinámica se acentuó en los primeros años de la segunda ISI y permite identificar ciclos en la evolución de la tasa promedio anual de crecimiento del PIB industrial entre 1950 y 1970 (Gráfica 2). GRÁFICA 1. PRODUCCIÓN PRIMARIA Y MANUFACTURERA EN ARGENTINA (1930-1974)

Fuente: elaboración propia a partir de datos de la Cepal.

Buscando superar la repetición de ciclos, la década del cincuenta marcó el inicio de una estrategia orientada a promover el tránsito de la industrialización “liviana” a la industrialización “pesada” de insumos, infraestructura y bienes de capital, lo que requería tecnologías más complejas y mayores dotaciones de capital. Esta


242

Cuadernos de Economía, 30(55), julio - diciembre de 2011

dinámica encontró su máxima expresión entre 1964 y 1974, cuando la producción manufacturera creció a una tasa del 7 % promedio anual sin interrupciones y estuvo acompañada de la expansión de la productividad e incrementos en la cantidad de asalariados, en los salarios y en las exportaciones (Bisang, Burachick y Katz, 1995). GRÁFICA 2. CICLOS STOP AND GO EN LA INDUSTRIA ARGENTINA (1950-1970)

Fuente: elaboración propia a partir de datos de la Cepal.

La interrupción de este proceso a mitad de la década del setenta es el hecho fundamental de la dinámica histórica argentina. El gobierno militar alteró profunda, enérgica y rápidamente las bases del esquema anterior y el país atravesó la primera “ola” de retroceso-reducción del Estado, y de apertura comercial y financiera. La restauración de la democracia en 1983 con el gobierno del Dr. Alfonsín no revirtió este “giro” en el funcionamiento de las instituciones y agentes económicos. Los años de la década de 1980 se caracterizaron por significativas dificultades para restaurar y consolidar una dinámica de crecimiento, originadas básicamente en restricciones externas, consecuencia de la falta de acceso a los mercados financieros internacionales. Al cambiar el gobierno en la década de 1990 una segunda “ola” avanzó en la desarticulación del esquema industrial sustitutivo con más privatizaciones, continuando con la eliminación de las restricciones a la apertura comercial y financiera, y reduciendo aún más las funciones regulatorias del Estado. De otra parte, se agregó la convertibilidad del peso –lo que redujo sensiblemente los márgenes de la política monetaria y cambiaria–, y que se agotó con la grave crisis de finales de 2001. Cabe acotar que si bien los decenios de 1980 y 1990 fueron críticos para todos los países de América Latina, el deterioro de Argentina fue extremadamente profundo. Si se considera la evolución del PIB sólo dos países


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

243

latinoamericanos (Haití y Nicaragua) tuvieron un comportamiento peor durante el período considerado (Basualdo, 2006a). En la raíz de este deterioro socio-productivo cíclico, pero constante y prolongado, subyace una verdadera alteración cualitativa del orden económico, el cual pasó a estar fuertemente condicionado por diversas formas de valorización financiera del capital –fenómeno que hizo su aparición en los años setenta y se profundizó en los noventa. Interpretado como una transformación que va mucho más allá del mero crecimiento cuantitativo del sector, la valorización financiera ha sido caracterizada como “un proceso abarcativo que revolucionó el comportamiento microeconómico de las grandes firmas oligopólicas, así como el de la economía en su conjunto” (Basualdo, 2006b, 4). La “des-industrialización” de la economía, la sociedad y la cultura fue la otra cara de la moneda de la valorización financiera. Este fenómeno se estructuró con tal contundencia que no pudo revertirse durante la década de 1980. El “nuevo orden industrial”, consecuencia de la valorización financiera, se manifestó fuertemente durante la “larga década del noventa” (19902002), consolidando una reestructuración regresiva (Azpiazu, Basualdo y Schorr, 2001). Se alude a la expresión reestructuración regresiva para caracterizar el crecimiento de la “extranjerización” y de la inserción del sector fabril en los flujos internacionales de exportaciones e importaciones, las marcadas desigualdades en el comportamiento de los diferentes actores industriales y la segmentación creciente de sectores y regiones. Todo esto en el contexto de una reducción de la participación en el producto y en la ocupación, “cediendo” lugar a los servicios. A lo largo de la breve experiencia del gobierno de la Alianza en 2000 y 2001 se agudizaron las tendencias de la década anterior. Las series de producto que se presentan en la Gráfica 3 muestran este proceso, por medio de la evolución del PBI total, el PIB de la industria manufacturera y el PIB extra-industrial –que abarca la totalidad de los otros sectores. La Gráfica 3 señala que la tasa de crecimiento del PIB industrial muestra una tendencia creciente, por debajo de la evolución del producto total, que es a su vez poco significativa. En este marco general, es conveniente distinguir las dos etapas: (i) crecimiento y consolidación del proceso de semi-industrialización dependiente y (ii) des-industrialización posterior que desarticuló la estructura resultante de la etapa ISI. Estos dos sub-períodos de evolución del coeficiente PIB industria manufacturera/PIB, se aprecian en las gráficas 4 y 5. En el año 1974 la ISI alcanzó su “pico” y la industria manufacturera llegó a representar el 32,51 % del PIB. Los valores mínimos de esta etapa correspondieron a 1953 y 1963, alcanzando 26,16 % y 26,26 %, respectivamente. A partir de una participación del 31,85 % sobre el PIB en 1975, la industria manufacturera comienza a perder peso relativo de manera considerable, hasta llegar a un mínimo de 21,53 % en el “valle” de la crisis de 2001. Hasta esa instancia los


244

Cuadernos de Economía, 30(55), julio - diciembre de 2011

valores más reducidos se habían ubicado en 1981 y 1982, que corresponden a los últimos dos años del gobierno militar: 25,98 % y 25,96 %, respectivamente. GRÁFICA 3. PIB INDUSTRIAL Y EXTRA-INDUSTRIAL 1945-2002

Fuente: elaboración propia a partir de datos de la Cepal. GRÁFICA 4. COEFICIENTE PIB INDUSTRIA MANUFACTURERA/PIB (1945-1975)

Fuente: elaboración propia a partir de datos de la Cepal.


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

245

GRÁFICA 5. COEFICIENTE PIB INDUSTRIA MANUFACTURERA/PIB (1975-2002)

Fuente: elaboración propia a partir de datos de la Cepal.

En este período se evidencia la dificultad que tuvo la industria argentina para articular, a partir del proceso ISI, una dinámica industrial con la solidez y permanencia necesarias para conformar el círculo de CC en la línea de Verdoorn y Kaldor, sustentado en rendimientos crecientes. Como es sabido, estos rendimientos aluden a mejoras de organización, externalidades positivas y ventajas de concentración típicas de la industria. Se trata de una sinergia sectorial consecuencia de la generación, asimilación y difusión de innovaciones en un espacio común que trasciende la firma individual, evidenciando que el proceso de innovación más que una negociación entre oferentes y demandantes de factores en el ámbito espacial del mercado, es un complejo de transacciones que “atan” la innovación a un territorio. Más aún, las pautas de funcionamiento establecidas a posteriori llevaron a una verdadera regresión del sector. Si se analiza todo el período, por encima del quiebre industrialización-reestructuración regresiva experimentado, se visualiza un crecimiento industrial poco significativo. En 58 años el producto industrial se duplicó, lo que equivale a una tasa cercana al 2 % anual promedio (1,98 %), dinámica “levemente creciente” en un contexto de crecimiento global poco significativo (2,24 % anual promedio) y de desindustrialización relativa (crecimiento del PIB extra-industrial de 2,35 %). Además de controversias conceptuales, la primera ley de Kaldor originó críticas metodológicas, puesto que la industria manufacturera es parte del producto total, la correlación entre el producto total y el producto industrial manufacturero puede resultar espuria4 . 4 Para

evitar esta posibilidad, en este trabajo el análisis de cointegración se llevó a cabo utilizando la especificación TASA DE CRECIMIENTO DEL PIB EXTRA INDUSTRIAL = f (TASA DE CRECIMIENTO DEL PIB INDUSTRIAL).


246

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Siguiendo los pasos del método Engle-Granger, los datos fueron analizados con el programa EVIEWS. En una primera etapa del análisis se corrobora si las tasas de crecimiento del PIB industrial y del PIB de los sectores extra-industriales son series integradas de primer orden I (1), mediante el test de Dickey-Fuller Aumentado (ADF). Realizada esta prueba se da forma a la ecuación que incluye la tasa de crecimiento del PIB extra-industrial como variable dependiente de la tasa de crecimiento del PIB industrial utilizando Mínimos Cuadrados Ordinarios (MCO). Nuevamente, se comprueba la estacionariedad de los residuos aplicando el test ADF. En el Cuadro 1 se muestran los resultados del procedimiento. CUADRO 1. CRECIMIENTO DEL PRODUCTO DE LA INDUSTRIA Y EXTRA INDUSTRIAL EN ARGENTINA (1945-2002) Análisis de cointegración - resultados VARIABLE DEPENDIENTE Tasa PIB EXTRA IND Variable Tasa PIB IND C R-Cuadrado

MUESTRA

OBSERVACIONES

1945 2002 Coeficiente 0,46 0,01 0,68

R-Cuadrado Ajustado

0,68

Desvío estándar de la regresión Suma cuadrados residuos Log Verosimilitud Estadístico Durbin-Watson Test de Dickey-Fuller Aumentado

0,02

58 Error Estándar 0,04 0 Media variable dependiente DE variable dependiente Criterio Akaike

0,03 135,02 1,58 Hipótesis Nula: D(RES) tiene raíz unitaria

Ecuación Test de DickeyFuller Aumentado

Valores críticos 0,01 0,05 0,1 Método: Mínimos Cuadrados

Variable RES(-1) R-Cuadrado

Coeficiente -0,83 0,4

R-Cuadrado Ajustado

0,4

E.S. de la regresión Suma cuadrados residuos Log Verosimilitud

0,02 0,03 133,78

Fuente: elaboración propia.

Estadístico t 10,93 4,42 0,02 0,04 -4,59

Criterio Schwarz Estadístico F Prob Estadístico F Exógena: No

-4,52 119,56 0 Rezago: 0 (Fijado)

Estadístico t -6,13

Probabilidad 0

-2,61 -1,95 -1,61 Variable Dependiente: D(RES) Error Estándar 0,14 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico DurbinWatson

0 0

Muestra (ajustada): 1946-2002 Estadístico t -6,13 0 0,03 -4,66 -4,62 1,87

Observaciones: 57 después de ajuste RES(-1) 0


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

247

Los resultados muestran que efectivamente existe cointegración en el período, con lo cual se puede afirmar que la ley I de Kaldor se cumple: las variables mantienen entre sí una relación definida en el largo plazo. Efectivamente, la tasa de crecimiento de la economía (PIB) está positivamente correlacionada con la tasa de crecimiento de su sector industrial manufacturero (PIB industrial). Considerando que las series utilizadas corresponden a las tasas de crecimiento de las variables, el coeficiente 0,46 debe ser interpretado como la elasticidad del PIB extra-industrial del PIB industrial. Al ser esta elasticidad menor que 1, se puede concluir que el impacto multiplicador de la industria sobre el resto de la economía no es el que se infiere de la visión de causalidad acumulativa que sustenta la ley. Considerando el quiebre del proceso ISI a partir de 1976 y la dinámica de desindustrialización posterior, se realizaron las mismas pruebas en los sub-períodos, con el fin de detectar la posibilidad de un comportamiento diferente de las series. En los Cuadros 2 y 3 se presentan los resultados de la aplicación de las técnicas de co-integración a las mismas series, pero en las etapas 1945-1975 de ISI y 19762002 de reestructuración regresiva. Las series también cointegran en las dos etapas. Los coeficientes asimilables a la elasticidad son 0,38 y 0,56, respectivamente. Al igual que en los resultados del Cuadro 1 la dispersión es baja y la probabilidad de que estos coeficientes asuman el valor 0 es nula. Las variables evolucionan de manera conjunta en el largo plazo. Como se expresó anteriormente, se puede afirmar, por el sentido de esta coevolución, que el impacto multiplicador de la industria es menor que el que se infiere del abordaje de causación acumulativa. Como paso adicional, se evaluó la posibilidad de un resultado diferente en alguna etapa específica de la industria argentina. Teniendo en cuenta que no es recomendable la aplicación en períodos cortos de técnicas de cointegración, se utilizó la elasticidad para observar la relación entre el PIB industrial y el extra-industrial. La dos primeras etapas analizadas corresponden a las respectivas fases de la ISI. Entre 1945 y 1963 aún no se había consolidado la producción de bienes de capital ni la Inversión Extranjera Directa (IED) en las ramas “líderes”, lo que se concreta en la fase 1964-1974. Las elasticidades permiten concluir que el impacto expansivo de la industria sobre el resto de las actividades económicas fue más significativo en la primera fase que en la segunda, aspecto que hace necesario una investigación más profunda de las diferencias al interior de esta etapa. Por ahora, sólo cabe adherir a la hipótesis de que la dinámica socio-técnica de las Empresas Transnacionales (ET), sesgada hacia los bienes de capital, haya resultado menos expansiva (Diamand, 1973). Para analizar la etapa de crecimiento bajo las condiciones de “los noventa” se seleccionó el período 1991-19985 . El PIB extra industrial creció 5,95 % 5 No

se incluyeron los años1990 y 1999. En 1990 la hiperinflación con recesión demoró la consolidación del “nuevo orden” y en 1999 ya se iniciaba la crisis que terminaría en 2001.


248

Cuadernos de Economía, 30(55), julio - diciembre de 2011

anual promedio, superior al 5,16 % de la industria, lo que arroja una elasticidad de 1,1531. CUADRO 2. CRECIMIENTO DEL PRODUCTO DE LA INDUSTRIA Y EXTRA INDUSTRIAL EN ARGENTINA (1945-1975) Análisis de cointegración - resultados VARIABLE DEPENDIENTE Tasa PIB EXTRA IND Variable Tasa PIB IND C R-cuadrado

MUESTRA

R-cuadrado ajustado

0,6

E.S. de la regresión Suma cuadrados residuos Log Verosimilitud Estadístico Durbin-Watson Test de Dickey-Fuller Aumentado

0,02 0,01 76,34 2,05 Hipótesis Nula: D(RES) tiene raíz unitaria

1945-1975 Coeficiente 0,38 0,02 0,62

Ecuación Test de DickeyFuller Aumentado

Valores críticos 0,01 0,05 0,1 Método: Mínimos Cuadrados

Variable RES(-1) R-cuadrado

Coeficiente -1,06 0,55

R-cuadrado ajustado

0,55

E.S. de la regresión Suma cuadrados residuos Log verosimilitud

0,02 0,01 74,53

OBSERVACIONES

Error Estándar 0,06 0 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico F Prob Estadístico F Exógena: No

Estadístico t 6,82 3,47 0,03

Estadístico t -5,94

Probabilidad 0

-2,64 -1,95 -1,61 Variable Dependiente: D(RES) Error Estándar 0,18 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico DurbinWatson

Probabilidad 0 0

0,03 -4,8 -4,7 46,48 0 Rezago: 0 (Fijado)

Muestra (ajustada): 1946-1975 Estadístico t -5,94 0

Observaciones: 30 después de ajuste Probabilidad 0

0,03 -4,9 -4,86 1,94

Fuente: elaboración propia.

Este resultado, en el marco de una tendencia de pérdida de peso relativo de la industria y creciente gravitación de los servicios, ha planteado en los analistas la siguiente pregunta: ¿la economía argentina habría ingresado en el “sendero de modernización” característico de los países centrales? o, por el contrario, ¿esta “terciarización” se asocia a una pérdida creciente de valor agregado nacional? (Azpiazu et al., 2001; Schorr, 2005). El análisis de la ley III más adelante aportará algunos elementos: no hay indicios de que el aumento de productividad extra industrial detectado esté relacionado con un aumento en la eficiencia general o que sea impulsado por la industria.


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

249

CUADRO 3. CRECIMIENTO DEL PRODUCTO DE LA INDUSTRIA Y EXTRA INDUSTRIAL EN ARGENTINA (1976-2002) Análisis de cointegración - resultados VARIABLE DEPENDIENTE Tasa PIB EXTRA IND Variable Tasa PIB IND C R-cuadrado

MUESTRA

OBSERVACIONES

1976-2002 Coeficiente 0,56 0,02 0,75

R-cuadrado ajustado

0,74

E.S. de la regresión Suma cuadrados residuos Log verosimilitud Estadístico Durbin-Watson Test de Dickey-Fuller aumentado

0,03 0,02 61,81 1,41 Hipótesis nula: D(RES) tiene raíz unitaria

27 Error Estándar 0,07 0 Media variable dependiente SD variable dependiente Criterio Akaike Criterio Schwarz Estadístico F Prob Estadístico F Exógena: No

Estadístico t -3,58

Ecuación Test de DickeyFuller Aumentado

Valores críticos 0,01 0,05 0,1 Método: Mínimos Cuadrados

Variable RES(-1) R-cuadrado

Coeficiente -0,74 0,34

R-cuadrado ajustado

0,34

E.S. de la regresión Suma cuadrados residuos Log verosimilitud

0,02 0,02 59,91

-2,66 -1,95 -1,61 Variable Dependiente: D(RES) Error Estándar 0,21 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico DurbinWatson

Estadístico t 8,6 3,53 0,02

Probabilidad 0 0

0,05 -4,43 -4,33 73,88 0 Rezago: 0 (Fijado)

Probabilidad 0

Muestra (ajustada): 1977-2002 Estadístico t -3,58 0

Observaciones: 26 después de ajuste Probabilidad 0

0,03 -4,53 -4,48 1,83

Fuente: elaboración propia. CUADRO 4. PIB INDUSTRIAL Y EXTRA INDUSTRIAL TASAS DE CRECIMIENTO Y ELASTICIDADES PERÍODO

1945-1963 1964-1974 1991-1998 1999-2002

PIB EXTRA INDUSTRIAL (Tasa promedio anual) 1 0,0231 0,0416 0,0595 -0,0727

Fuente: elaboración propia.

PIB INDUSTRIAL (Tasa promedio anual) 2 0,0246 0,0714 0,0516 -0,0331

ELASTICIDAD PIB EXTRA INDUSTRIAL DEL PIB INDUSTRIAL 3 = 1/2 0,939 0,5826 1,1531 2,1964


250

Cuadernos de Economía, 30(55), julio - diciembre de 2011

En cuanto a la etapa 1999-2002 –de caída general de la producción–, la elasticidad PIB extra industrial del PIB industrial fue 2,2 lo que agrega argumentos favorables al planteamiento que relaciona la desindustrialización con un impacto negativo muy fuerte sobre el resto de los sectores y con la dinámica general de valorización financiera iniciada en la década de 1970 y que tuvo su crisis más grave a comienzo del siglo XXI (Basualdo, 2003 y 2006b).

LA SEGUNDA LEY DE KALDOR-VERDOORN Hasta ahora se ha presentado el planteamiento teórico y el análisis econométrico de la Primera Ley de Kaldor - Verdoorn. En esta sección se resumen los resultados de la aplicación de técnicas de cointegración al estudio de la Segunda Ley. A finales de la década del cuarenta Verdoorn (1949) sostenía que podría encontrarse una correlación entre productividad del trabajo y producto industrial; dado que la división del trabajo sólo sucede a través de incrementos en el volumen del out-put, lo que posibilita una mayor racionalización, con efecto similar a la mecanización. En un planteamiento sectorialmente más amplio, Arrow (1962) señala la correlación entre aumentos de productividad y el producto acumulado, postulando que este resultado da cuenta de rendimientos industriales crecientes sustentados en procesos acumulativos de aprendizaje, learning-by-doing y aumentos de eficiencia. Kaldor recupera ambos antecedentes y formula el postulado conocido posteriormente como ley de Kaldor-Verdoorn (Ley KV II): el crecimiento de la productividad industrial es función del crecimiento del producto del sector. Este “hecho estilizado” es la base de los modelos de causación acumulativa: un país industrializado sin restricción de demanda puede explotar las economías de escala y colocarse en un sendero de crecimiento. La pregunta que orienta este artículo es la siguiente: ¿es posible esta dinámica en países que intentan industrializarse? En esta sección se pretende avanzar hacia una respuesta mediante la aplicación de técnicas econométricas. En lo que refiere a la formalización, Verdoorn (1949, 1951) utilizó en su trabajo la correlación entre productividad del trabajo en industria y el producto industrial. Kaldor alertó que, al igual que en la ley I, existe riesgo de una correlación espuria y propone como variables las tasas de crecimiento del empleo y del producto industrial, versión habitualmente utilizada en la literatura posterior. Es interesante analizar la causalidad en la relación entre las variables seleccionadas. Si se considera como variable independiente el PIB industrial y los coeficientes resultantes son menores que 1, se podría concluir en principio, que existe un impacto en la productividad derivada de la expansión industrial, lo cual indicaría la existencia de rendimientos crecientes y economías dinámicas. Simétricamente


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

251

los coeficientes deberían ser mayores a la unidad si se toma la cantidad de ocupados/asalariados como variable independiente. El resultado esperado es que el crecimiento del empleo debe ser significativamente menor al incremento en el out-put de la manufactura, lo que según Verdoorn equivale a un aumento en la productividad, habiéndose obtenido el coeficiente de manera indirecta. Antes de exponer los resultados del análisis de cointegración entre las series seleccionadas se analiza la evolución de las variables en el caso argentino. La Gráfica 6 compara la evolución del producto industrial y la cantidad de asalariados mediante un índice con base 100 en 1945. GRÁFICA 6. PIB Y ASALARIADOS EN LA NDUSTRIA ARGENTINA (1945-2002)

Fuente: elaboración propia a partir de datos de la Cepal, Llach y Sánchez (1984), Instituto Nacional de Estadística y Censos.

En el período analizado en la Gráfica 6, la industria eliminó la mitad de sus asalariados. Las series muestran un millón doscientos mil empleados para 1945. En 2002 los asalariados industriales no llegaban a la mitad. En 1975, año de máximo empleo industrial la industria había llegado a ocupar un millón ochocientos mil empleados, de esta manera la pérdida supera el millón doscientos mil. La relación producto-ocupación asalariada y su dinámica son fundamentales en la consolidación de un círculo virtuoso de crecimiento acumulativo y en el análisis de la evolución de la productividad (variable que aproxima la existencia de rendimientos crecientes) de la ley K-V. Con el fin de plantearla de manera más detallada se han analizado seis sub-períodos: tres de crecimiento (1945-1964, 1964-1974 y 1990-1998) y tres de caída de la producción industrial (1975-1982, 1982-1990 y 1998-2002).


252

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Entre 1945 y 1964 se estructura la etapa “fácil” de la ISI liderada por ramas de menor contenido tecnológico y orientación al mercado interno. Hasta 1974, con el ingreso de ET, se completa el círculo de la semi-industrialización dependiente. La reestructuración industrial que la sucede se profundiza entre 1990 y 1998 bajo condiciones de convertibilidad, apertura y privatizaciones, y se cancela con la crisis de 2001. Las gráficas 7, 8 y 9 exhiben la dinámica producto-ocupación asalariada en estas tres etapas. GRÁFICA 7. PIB Y ASALARIADOS EN LA INDUSTRIA ARGENTINA (1945-1964)

Fuente: elaboración propia a partir de datos de la Cepal, Llach y Sánchez (1984), Instituto Nacional de Estadística y Censos (INDEC). GRÁFICA 8. PIB Y ASALARIADOS EN LA INDUSTRIA ARGENTINA (1964-1975)

Fuente: elaboración propia a partir de datos de la Cepal, Llach y Sánchez (1984), e Instituto Nacional de Estadística y Censos (INDEC).


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

253

GRÁFICA 9. PIB Y ASALARIADOS EN LA INDUSTRIA ARGENTINA (1990-1998)

Fuente: elaboración propia a partir de datos de la Cepal, Llach y Sánchez (1984), e Instituto Nacional de Estadística y Censos (INDEC).

En los dos subperíodos de la etapa ISI el crecimiento industrial estuvo acompañado por un aumento en la cantidad de asalariados, aunque a una tasa notoriamente inferior. Esta dinámica es asimilable a la enunciada por los modelos de causación acumulativa en la línea de Kaldor: el incremento de productividad en la industria se logra con tasas de crecimiento de ocupación inferiores a las del producto. Por el contrario el período de “restructuración industrial con crecimiento” de la década del noventa se caracterizó por una notoria caída en la cantidad de asalariados en la industria: en esos nueve años el sector expulsó más de ciento noventa mil. Las gráficas 10, 11 y 12 muestran la evolución en el número de asalariados en los períodos de caída de la producción industrial. GRÁFICA 10. PIB Y ASALARIADOS EN LA INDUSTRIA ARGENTINA (1975 - 1982)

Fuente: elaboración propia a partir de datos de la Cepal, Llach y Sánchez (1984), e Instituto Nacional de Estadística y Censos (INDEC).


254

Cuadernos de Economía, 30(55), julio - diciembre de 2011

GRÁFICA 11. PIB Y ASALARIADOS EN LA INDUSTRIA ARGENTINA (1982-1990)

Fuente: elaboración propia a partir de datos de la Cepal, Llach y Sánchez (1984), e Instituto Nacional de Estadística y Censos (INDEC). GRÁFICA 12. PIB Y ASALARIADOS EN LA INDUSTRIA ARGENTINA (1998-2002)

Fuente: elaboración propia a partir de datos de la Cepal, Llach y Sánchez (1984), e Instituto Nacional de Estadística y Censos (INDEC).

En términos comparativos la caída fue mucho menor en el contexto del gobierno del Dr. Alfonsín entre 1983 y 1989; aunque fueron más de ciento cincuenta mil. Finalmente, con la crisis que interrumpió la segunda “ola” privatista y que se inició con la crisis financiera mundial de 1997, la industria argentina perdió un 25 % de su producción y de sus asalariados. Teniendo en cuenta estas consideraciones, se muestran en el Cuadro 5 los resultados del análisis de cointegración aplicado al período 1945-2002.


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

255

CUADRO 5. CRECIMIENTO DEL PRODUCTO Y LOS ASALARIADOS EN LA INDUSTRIA ARGENTINA (1945-2002) Análisis de cointegración - resultados VARIABLE DEPENDIENTE Tasa ASALARIADOS Ind Variable Tasa PIB INDUSTRIAL C R-cuadrado

MUESTRA

OBSERVACIONES

1945 2002 Coeficiente 0,39 -0,02 0,38

R-cuadrado ajustado

0,36

E.S. de la regresión Suma cuadrados residuos Log verosimilitud Estadístico Durbin-Watson Test de Dickey-Fuller Aumentado

0,04 0,08 107,8 1,03 Hipótesis Nula: D(RES) tiene raíz unitaria

58 Error Estándar 0,07 0,01 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico F Prob Estadístico F Exógena: No

Estadístico t -5,01

Ecuación Test de DickeyFuller Aumentado

Valores críticos 0,01 0,05 0,1 Método: Mínimos Cuadrados

Variable RES(-1) R-cuadrado

Coeficiente -0,57 0,31

R-cuadrado ajustado

0,31

ES de la regresión Suma cuadrados residuos Log verosimilitud

0,03 0,06 115,12

-2,61 -1,95 -1,61 Variable Dependiente: D(RES) Error Estándar 0,13 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico DurbinWatson

Estadístico t 5,8 -3,37 -0,01

0 0

0,05 -3,65 -3,58 33,6 0 Rezago: 0 (Fijado)

Probabilidad 0

Muestra (ajustada): 1946-2002 Estadístico t -5,01 0

Observaciones: 57 después de ajuste RES(-1) 0

0,04 -4 -3,97 2,04

Fuente: elaboración propia.

Según Liquitaya Briceño (2008), para Verdoorn (1951) las Elasticidades Empleo y Productividad eran indicadores de rendimientos crecientes a escala debido a una mayor división del trabajo. Posteriormente Kaldor (1970, 1978) observó como regularidad empírica que un 1 % más en el crecimiento del producto genera 0,5 % de crecimiento del empleo. Los resultados obtenidos muestran una ElasticidadEmpleo del PIB Industrial de 0,39 %. Sobre la base de este valor del coeficiente, puede afirmarse que durante los 58 años bajo análisis la industria sostuvo una dinámica caracterizada por ganancias de productividad en principio superiores a las aludidas. Las consideraciones hechas sobre el comportamiento del empleo industrial en el caso argentino y la necesidad de diferenciar entre “ganancias de eficiencia” y “au-


256

Cuadernos de Economía, 30(55), julio - diciembre de 2011

mentos de productividad” por reducción de empleo, hacen necesario un análisis por etapas. Se consideran entonces dos subperíodos: industrialización entre 19451975 y desindustrialización entre 1976-2002 (cuadros 6 y 7). CUADRO 6. CRECIMIENTO DEL PRODUCTO Y LOS ASALARIADOS EN LA INDUSTRIA ARGENTINA (1945-1975) Análisis de cointegración - resultados VARIABLE DEPENDIENTE Tasa Asalariados IND Variable Tasa PIB IND C R-cuadrado

MUESTRA

OBSERVACIONES

1945 1975 Coeficiente 0,32 0,01 0,33

R-cuadrado Ajustado

0,31

E.S. de la regresión Suma cuadrados residuos Log Verosimilitud Estadístico Durbin-Watson Test de Dickey-Fuller Aumentado

0,03 0,03 63,54 1,25 Hipótesis Nula: D(RES) tiene raíz unitaria

31 Error Estándar 0,08 0,01 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico F Prob Estadístico F Exógena: No

Estadístico t -6,41

Ecuación Test de DickeyFuller Aumentado

Valores críticos 0,01 0,05 0,1 Método: Mínimos Cuadrados

Variable RES(-1) R - Cuadrado

Coeficiente -1,11 0,59

R - Cuadrado Ajustado

0,59

E.S. de la regresión Suma cuadrados residuos Log Verosimilitud

0,02 0,01 82,98

-2,64 -1,95 -1,61 Variable Dependiente: D(RES) Error Estándar 0,17 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico DurbinWatson

Estadístico t 3,78 0,78 0,02

Probabilidad 0 0,44

0,04 -3,97 -3,88 14,32 0 Rezago: 0 (Fijado)

Probabilidad 0

Muestra (ajustada): 1946 1975 Estadístico t -5,19 0

Observaciones: 30 después de ajuste Probabilidad 0

0,02 -5,47 -5,42 1,78

Fuente: elaboración propia.

Los Cuadros 6 y 7 sintetizan los resultados de la técnica de cointegración aplicada a las series de tasas de crecimiento en la cantidad de asalariados y en el producto industrial. Durante la ISI el coeficiente asociado a la elasticidad empleo fue 0,32, mientras que en la posterior el valor fue 0,30. La reestructuración regresiva logró un incremento de productividad casi igual a la sustitución de importaciones. Sin embargo, debe tenerse en cuenta que en la fase ISI la dinámica industrial era Crecimiento-Crecimiento (del PIB y los asalariados) mientras que en la segunda etapa se transformó en Caída-Caída. Entre 1945 y 1975 la industria duplicó


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

257

su producción y aumentó la cantidad de asalariados en 55 %. En el período de reestructuración regresiva el PIB y los asalariados industriales se redujeron 9,39 % y 67,41 %, respectivamente. Se concluye que la ISI logró aumentos de productividad en la línea de una dinámica de causación acumulativa y que posteriormente dichos incrementos pasaron a generarse vía reducción del producto y el empleo asalariado, en mayor proporción. CUADRO 7. CRECIMIENTO DEL PRODUCTO Y LOS ASALARIADOS EN LA INDUSTRIA ARGENTINA (1976-2002) Análisis de cointegración - resultados VARIABLE DEPENDIENTE Tasa Asalariados IND Variable Tasa PIB IND C R-cuadrado

MUESTRA

OBSERVACIONES

1976 -2002 Coeficiente 0,3 -0,04 0,36

R-cuadrado ajustado

0,34

E.S. de la regresión Suma cuadrados residuos Log Verosimilitud Estadístico Durbin-Watson Test de Dickey-Fuller Aumentado

0,03 0,02 56,54 1,46 Hipótesis Nula: D(RES) tiene raíz unitaria

27 Error Estándar 0,08 0,01 Media variable dependiente SD variable dependiente Criterio Akaike Criterio Schwarz Estadístico F Prob Estadístico F Exógena: No

Estadístico t -3,84

Ecuación Test de DickeyFuller Aumentado

Valores críticos 0,01 0,05 0,1 Método: Mínimos Cuadrados

Variable RES(-1) R-cuadrado

Coeficiente -0,74 0,37

R-cuadrado ajustado

0,37

E.S. de la regresión Suma cuadrados residuos Log Verosimilitud

0,03 0,02 55,06

-2,66 -1,95 -1,61 Variable Dependiente: D(RES) Error Estándar 0,19 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico DWatson

Estadístico t 3,76 -6,8 -0,04

Probabilidad 0 0

0,04 -4,04 -3,94 14,13 0 Rezago: 0 (Fijado)

Probabilidad 0

Muestra (ajustada): 1977 2002 Estadístico t -3,84 0

Observaciones: 26 después de ajuste Probabilidad 0

0,04 -4,16 -4,11 1,68

Fuente: elaboración propia.

Al igual que lo realizado en el análisis de la primera ley, para observar la relación entre el crecimiento del PIB industrial y los asalariados en períodos más cortos representativos de determinadas etapas históricas de Argentina, se recurrió a la definición de elasticidad (Cuadro 8).


258

Cuadernos de Economía, 30(55), julio - diciembre de 2011

CUADRO 8. PIB Y ASALARIADOS EN LA INDUSTRIA. TASAS DE CRECIMIENTO Y ELASTICIDADES PERÍODO

1945 1963 1964 1974 1991 1998 1999 2002

ASALARIADOS INDUSTRIA 1 0,0105 0,0275 -0,0271 -0,0703

PIB INDUSTRIAL 2 0,0231 0,0714 0,0516 -0,0727

ELASTICIDAD EMPLEO DEL PIB INDUSTRIAL 3 = 1/2 0,4545 0,3852 -0,5252 0,967

Fuente: elaboración propia.

Se corroboran los incrementos de productividad pari passu el crecimiento en la ISI, mayores en la segunda fase. Asimismo, se observa que entre 1991 y 1998 (en el contexto de privatizaciones, apertura y convertibilidad) estos aumentos se asocian a la expulsión de asalariados e incorporación de bienes de capital. Finalmente, en los años finales de la etapa “neoliberal”, en un contexto de caída del producto y el empleo, el descenso de la producción manufacturera ocasionó un ajuste equivalente en el empleo. La interpretación de estos resultados de cointegración requiere recuperar un aspecto de la concepción de productividad implícita en la ley K-V, tema central por otra parte, en la controversia ortodoxia-heterodoxia. La teoría neoclásica difiere con el planteamiento kaldoriano porque atribuye los aumentos de productividad únicamente al trabajo y no considera la contribución del capital en la conformación de rendimientos crecientes. Una de las respuestas heterodoxas es la de Diamand (1999, 134-140), la cual postula que los aumentos genuinos de productividad derivan de aumentos generalizados de eficiencia (incluida la contribución del capital), aunque el cálculo se refiera a un solo factor de la producción. Cabe mencionar que la noción neoclásica de productividad del capital se sustenta en la función de producción, que supone una relación perfectamente sustitutiva entre capital y trabajo (isocuantas continuas). Otras perspectivas, como las schumpeterianas, plantean esta relación como complementaria, con dotaciones fijas de factores e isocuantas discontinuas. Si bien los estudios sobre los trabajos originales de Kaldor no detectan una función de producción implícita en su especificación de la ley de Verdoorn, afirma que efectivamente ésta considera una función de progreso técnico.

EL IMPACTO EN LA PRODUCTIVIDAD EXTRA INDUSTRIAL El planteamiento kaldoriano incluye una tercera ley que vincula positivamente el crecimiento de la productividad manufacturera con la de otros sectores: el crecimiento industrial (producto y empleo) eleva la productividad de otras actividades.


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

259

En principio, se aludía al sector primario que muestra “desocupación disfrazada”, en una suerte de apelación teórica al modelo de Lewis (1954). La mano de obra se desplaza desde el sector rural “no-capitalista” al “capitalista”, la cantidad de trabajadores rurales declina, la desocupación disfrazada desciende y productividad se eleva, salvo que determinadas transformaciones en la población económicamente activa (por ejemplo, incorporación de mujeres) no lo impidan. Según la interpretación de Mamgain (1999), Lewis admite la incorporación de fuerza de trabajo agrícola. Para que el mecanismo de la ley funcione, la diferencia de productividades y salarios entre los dos sectores debe mantenerse, en un juego de suma cero entre agricultura y manufactura. El razonamiento resulta algo restrictivo, dado que no reconoce incrementos de productividad en la agricultura en complementariedad con la industria, fenómeno evidente en la economía actual. Sobre este aspecto de la relación agro-industria en la tercera ley, se citan diferencias entre Kaldor y algunas formulaciones de Verdoorn. Por ejemplo, para evitar un posible descenso en el empleo industrial, Kaldor apela directamente al supuesto de que los incrementos de productividad en la industria no tienen impacto salarial, dado el excedente de mano de obra en la agricultura. Sin aumento de salarios, es más factible que se concrete el incremento de la demanda laboral en la industria, la reducción del empleo primario excedente mencionado y el aumento la productividad promedio de la economía como consecuencia del crecimiento de la productividad industrial. Este razonamiento de Kaldor parece contradecir la visión keynesiana a la que se suscribe, ya que apela a la teoría de la distribución neoclásica sustentada en la productividad marginal y el funcionamiento aceitado del mercado de trabajo. Algunos análisis en la línea de los rendimientos crecientes, reconocen estos problemas en el razonamiento y otorgan fuerza a la posibilidad de un proceso de transmisión de incrementos de eficiencia. En principio, mientras el nivel de la productividad en la industria manufacturera sea más elevado, la reasignación de recursos a la manufactura debería incrementar la productividad promedio de la economía aunque se sostenga la disparidad relativa entre sectores, salvo que el aumento de salarios inhiba la demanda de trabajo industrial y la productividad en la agricultura no se eleve. En esta línea están los escritos sobre la obra de Lauchlin Currie (Cánfora Argandoña, 2006) en la que los rendimientos crecientes pueden surgir de aumentos inducidos de productividad en la agricultura, los servicios (banca, transporte) y la construcción. Estos análisis explican que parte de la evidencia empírica sobre la ley haya tenido en cuenta las diferencias estructurales entre economías. En las más desarrolladas, la participación de la industria manufacturera en el producto y el empleo no difieren significativamente y el ratio (productividad industrial/productividad total) es cercano a la unidad. La expansión de la industria sobre la estructura productiva habría llegado a un máximo de aumentos generalizados de eficiencia, obtenidos en parte por transferencia de recursos desde los sectores de baja a los de alta productividad relativa.


260

Cuadernos de Economía, 30(55), julio - diciembre de 2011

En los “nuevos países industrializados” del sudeste asiático, por el contrario, el nivel de productividad industrial es más elevado que en la agricultura. Aunque es concluyente la evidencia de un crecimiento muy significativo en el coeficiente PIB industrial/PIB, el ratio productividad manufacturera/productividad total varía ampliamente al interior de este grupo (Mamgain, 1999). Las leyes de Kaldor-Verdoorn se verifican claramente en estos países, ya que la industrialización se estructura pari passu incremento y difusión de los aumentos de productividad. Pero, ¿qué hay detrás de estos incrementos de eficiencia? Claramente la generación, absorción y difusión de tecnología, fenómeno central en la red compleja y disímil de las vertientes que surgieron de Schumpeter. Dentro de ellas se pueden distinguir los siguientes abordajes: neo-schumpeteriano, la línea evolucionista de Nelson y Winter, de los sistemas de innovación y de la brecha tecnológica (tech-gap). Con respecto de esta última hay que señalar que las interpretaciones kaldorianas “compiten” con la literatura de esta vertiente en cuanto al peso relativo de los factores endógenos. Los iniciadores de la línea tech-gap fueron economistashistoriadores que rescatan las experiencias exitosas de países que se apoyaron en la difusión internacional de tecnología para lograr el crecimiento económico: Gerschenkron (1962), Habakkuk (1962), Freeman (1987), entre otros. Rowthorn (1975) también alude a esta cuestión: el crecimiento de la productividad puede deberse a la difusión de tecnología desde los países más a los menos industrializados, siendo menos significativas las características inherentes al sector manufacturero. A esta altura del argumento cabe mencionar que la mayoría de los análisis de la economía argentina se apoyan en visiones vinculadas con modelos “de dos sectores” (Braun y Joy, 1968) o Estructuras Productivas Desequilibradas (EPD) (Diamand, 1973): el sector primario, en función de sus ventajas comparativas, exhibe en principio un nivel de productividad relativa superior al industrial. Es importante señalar que los sectores extra industriales no evidencian la fuerte tendencia a expulsar asalariados que se verificó en la manufactura como parte del proceso de desindustrialización de la economía a partir de 1976 (Gráfica 13). La ampliación de la brecha producto-empleo que muestra la gráfica, con una tendencia creciente en la cantidad de asalariados, da la pauta de una dinámica de crecimiento de la productividad extra-industrial. A partir de ello, es posible indagar con respecto al impacto positivo de la industria sobre el resto de los sectores de la economía, como explicación de estos aumentos de productividad. Para ello se aplicaron las técnicas de cointegración.


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

261

GRÁFICA 13. PIB Y ASALARIADOS EXTRA-INDUSTRIA EN ARGENTINA (1945-2002)

Fuente: elaboración propia a partir de datos de la Cepal, Llach y Sánchez (1984), e Instituto Nacional de Estadística y Censos (INDEC).

En el Cuadro 9, el coeficiente 0,3326 mide el impacto relativo del crecimiento industrial sobre la evolución de la productividad en el resto de la economía y su magnitud indica una relación inelástica. Apelando a las ideas que sustentan las leyes de Kaldor puede afirmarse que una tasa promedio anual que no llega al 2 % no alcanza para poner en marcha los eslabonamientos intra y extra-industriales derivados de los rendimientos crecientes. Aunque la tasa de crecimiento industrial en la etapa ISI fue prácticamente el doble del promedio logrado en el “largo medio siglo” (1945-2002), la magnitud de la elasticidad resulta aún menor: 0,2431 (Cuadro 10). Las conclusiones van en la misma dirección que las comentadas en la observación de las leyes I y II: el carácter de incompleto y dependiente de la industrialización experimentada en la etapa sustitutiva. En la etapa 1976-2002 de reestructuración regresiva de la industria, la productividad en los sectores que no integran la industria manufacturera se modificó 0,4417 ante cada punto de alteración del PIB industrial (Cuadro 11). Sin embargo, mal podría concluirse que este dato indique algún tipo de efecto multiplicador de la industria, dado que el sector se redujo a un ritmo del 0,2 % anual y la productividad fuera de la manufactura permaneció prácticamente estancada (0,5 % anual promedio). Al igual que en las secciones anteriores se presenta en el Cuadro 12 la tasa de crecimiento anual promedio en sub-períodos de la ISI y de la década del noventa.


262

Cuadernos de Economía, 30(55), julio - diciembre de 2011

CUADRO 9. CRECIMIENTO DEL PRODUCTO INDUSTRIAL Y LA PRODUCTIVIDAD FUERA DE LA INDUSTRIA ARGENTINA (1945-2002) Análisis de cointegración - resultados VARIABLE DEPENDIENTE Tasa PROD EXTRA IND Variable Tasa PIB IND C R-cuadrado

MUESTRA

OBSERVACIONES

1945 2002 Coeficiente 0,3326 0,0022 0,4402

R-cuadrado ajustado

0,4302

E.S. de la regresión Suma cuadrados residuos Log Verosimilitud Estadístico Durbin-Watson Test de Dickey-Fuller Aumentado

0,0285 0,0455 125,057 1,5286 Hipótesis Nula: D(RES) tiene raíz unitaria

58 Error Estándar 0,0501 0,0039 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico F Prob Estadístico F Exógena: No

Estadístico t -5,8793

Ecuación Test de DickeyFuller Aumentado

Valores críticos 0,01 0,05 0,1 Método: Mínimos Cuadrados

Variable RES(-1) R-cuadrado

Coeficiente -0,8331 0,381318

R-cuadrado Ajustado

0,381318

E.S. de la regresión Suma cuadrados residuos Log verosimilitud

0,027717 0,04302 124,0111

-2,6062 -1,9467 -1,6131 Variable Dependiente: D(RES) Error Estándar 0,1417 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico DurbinWatson

Estadístico t 6,6356 0,5656 0,0088

Probabilidad 0 0,5739

0,0378 -4,2433 -4,1723 44,0315 0 Rezago: 0 (Fijado)

Probabilidad 0

Muestra (ajustada): 1946 2002 Estadístico t -0,0008 0,0352

Observaciones: 57 después de ajuste Probabilidad 0

-4,3162 -4,2803 1,7924 1,9821

Fuente: elaboración propia.

Como puede observarse, la primera fase de la ISI muestra una elasticidad mayor que la segunda. Aunque el crecimiento de la productividad extra industrial resultó más elevado estuvo muy lejos de aproximarse la tasa de crecimiento del PIB industrial. La fase de crecimiento de los noventa exhibe tasas positivas similares, lo que redunda en una elasticidad cercana a la unidad. Sin embargo, la profundidad de la crisis de agotamiento del “modelo” implicó una caída en la producción del 7,27 % y de prácticamente un 3 % anual promedio en la productividad extra industrial, lo que dificulta la elaboración consideraciones generales.


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

263

CUADRO 10. CRECIMIENTO DEL PRODUCTO INDUSTRIAL Y LA PRODUCTIVIDAD FUERA DE LA INDUSTRIA ARGENTINA (1945-1975) Análisis de cointegración - resultados VARIABLE DEPENDIENTE Tasa PROD EXTRA IND Variable Tasa PIB IND C R-cuadrado

MUESTRA

OBSERVACIONES

1945 1975 Coeficiente 0,2431 0,0028 0,5063

R-cuadrado ajustado

0,4893

E.S. de la regresión Suma cuadrados residuos Log verosimilitud Estadístico Durbin-Watson Test de Dickey-Fuller Aumentado

0,0171 0,0085 83,1836 1,9814 Hipótesis Nula: D(RES) tiene raíz unitaria

31 Error Estándar 0,0446 0,0035 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico F Prob Estadístico F Exógena: No

Ecuación Test de DickeyFuller Aumentado

Valores críticos 0,01 0,05 0,1 Método: Mínimos Cuadrados

Variable RES(-1) R-cuadrado

Coeficiente -1,1065 0,5858

R-cuadrado Ajustado

0,5858

E.S. de la regresión Suma cuadrados residuos Log Verosimilitud

0,0155 0,007 82,9827

Fuente: elaboración propia.

Estadístico t -6,4079 -6,4079 -2,6443 -1,9525 -1,6102 Variable Dependiente: D(RES) Error Estándar 0,1727 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico DurbinWatson

Estadístico t 5,4534 0,8078 0,0122

Probabilidad 0 0,4258

0,0239 -5,2376 -5,1451 29,7399 0 Rezago: 0 (Fijado)

Probabilidad 0

Muestra (ajustada): 1946-1975 Estadístico t -6,4079 0,0006 0,0241 -5,4655 -5,4188 1,7826

Observaciones: 30 después de ajuste Probabilidad 0


264

Cuadernos de Economía, 30(55), julio - diciembre de 2011

CUADRO 11. CRECIMIENTO DEL PRODUCTO INDUSTRIAL Y LA PRODUCTIVIDAD FUERA DE LA INDUSTRIA ARGENTINA (1976-2002) Análisis de cointegración - resultados VARIABLE DEPENDIENTE Tasa PROD EXTRA IND Variable Tasa PIB IND C R-cuadrado

MUESTRA

OBSERVACIONES

1976 2002 Coeficiente 0,4417 0,0056 0,4707

R-cuadrado ajustado

0,4495

E.S. de la regresión Suma cuadrados residuos Log verosimilitud Estadístico Durbin-Watson Test de Dickey-Fuller Aumentado

0,0366 0,0335 52,024 1,4562 Hipótesis Nula: D(RES) tiene raíz unitaria

27 Error Estándar 0,0937 0,007 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico F Prob Estadístico F Exógena: No

Estadístico t -3,6138

Ecuación Test de DickeyFuller Aumentado

Valores críticos 0101 0,05 0,1 Método: Mínimos Cuadrados

Variable RES(-1) R-cuadrado

Coeficiente -0,7785 0,3392

R-cuadrado ajustado

0,3392

E.S. de la regresión Suma cuadrados residuos Log verosimilitud

0,0358 0,0321 50,1844

2,6569 1,9544 1,6093 Variable Dependiente: D(RES) Error Estándar 0,2154 Media variable dependiente DE variable dependiente Criterio Akaike Criterio Schwarz Estadístico DurbinWatson

Estadístico t 4,7151 0,7973 0,0048

Probabilidad 0,0001 0,4328

0,0494 -3,7055 -3,6095 22,2318 0,0001 Rezago: 0 (Fijado)

Probabilidad 0,0008

Muestra (ajustada): 1976 2002 Estadístico t -3,6138 -0,0033

Observaciones: 27 después de ajuste Probabilidad 0,0013

0,0441 -3,7834 -3,735 1,7434

Fuente: elaboración propia. CUADRO 12. PIB INDUSTRIAL Y PRODUCTIVIDAD EXTRA INDUSTRIAL. TASAS DE CRECIMIENTO Y ELASTICIDADES

1945-1963 1964-1974 1991-1998 1999-2002

PRODUCTIVIDAD EXTRA INDUSTRIAL

PIB INDUSTRIAL

0,015 0,0169 0,0481 -0,0297

0,0231 0,0714 0,0516 -0,0727

Fuente: elaboración propia.

ELASTICIDAD PRODUCTIVIDAD EXTRA INDUSTRIAL DEL PIB INDUSTRIAL 0,6494 0,2367 0,9322 0,4085


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

265

Para completar la referencia a estas etapas particulares en la evolución de la economía argentina se presentan las gráficas 14 y 15, que muestran la dinámica del PIB industrial y de la productividad extra-industrial, en las dos instancias más representativas de los “modelos” de crecimiento ISI y su contrapuesto de los noventa. GRÁFICA 14. INDUSTRIA Y PRODUCTIVIDAD EXTRA INDUSTRIAL (1964-1974)

Fuente: elaboración propia a partir de datos de la Cepal, Llach y Sánchez (1984) e Instituto Nacional de Estadística y Censos (INDEC). GRÁFICA 15. INDUSTRIA Y PRODUCTIVIDAD EXTRA INDUSTRIAL (1991-1999)

Fuente: elaboración propia a partir de datos de la Cepal, Llach y Sánchez (1984), e Instituto Nacional de Estadística y Censos (INDEC).


266

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Los once años de “pico” de industrialización dejan ver el liderazgo del sector manufacturero e incrementos de productividad en los otros sectores, asentados en un crecimiento del empleo positivo, pero inferior al crecimiento del producto. Esta dinámica sintetiza de manera ajustada, aunque en un período corto, la visión de la industria como motor de la economía y difusor de cambio tecnológico como subyace en el pensamiento kaldoriano. Por el contrario, en los noventa la “brecha de productividad” coexiste con un estancamiento del empleo y la industria crece a una tasa inferior al resto de los sectores. Aparecen aquí cuestiones fundamentales como la dinámica de la productividad en el sector agrícola y en los servicios y se impone, en consecuencia, la inclusión de estas cuestiones en futuros análisis más pormenorizados.

LOS AJUSTES EN EL CORTO PLAZO La cointegración de las series, analizada en secciones previas, arroja como resultado la existencia de relaciones estables y equilibradas entre las mismas en el largo plazo, lo que puede no verificarse en períodos cortos. El Mecanismo de Corrección de Errores (MCE) es el procedimiento pertinente para incorporar el error en la ecuación de cointegración, variable que permite “atar” el comportamiento de corto plazo al equilibrio de largo plazo. La aplicación de Mínimos Cuadrados Ordinarios (MCO), con el término de error desfasado un período, proporciona el valor del coeficiente que da cuenta del desequilibrio en el corto plazo, directamente proporcional a la velocidad de ajuste. Los cuadros 13, 14 y 15 muestran los resultados del procedimiento. CUADRO 13. CRECIMIENTO DEL PRODUCTO EXTRA INDUSTRIAL E INDUSTRIAL EN ARGENTINA (1945-2002). MODELO DE CORRECCIÓN DE ERRORES Dependent Variable: DPIB_EXTRA_IND Method: Least Squares Date: 10/26/10 Time: 14:08 Sample (adjusted): 1946-2002 Included observations: 57 after adjustments Variable DPIBIND RRES1 C R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

Coefficient 0.408244 -0.851172 0.000283 0.808264 0.801163 0.023157 0.028958 135,2918 1,8142

Fuente: elaboración propia.

Std. Error 0.031124 0.135006 0.003070 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

t-Statistic 13,11674 -6,30469 0.092330

Prob. 0.0000 0.0000 0.9268 -0.001306 0.051932 -4,642 -4,534 113,819 0.000000


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

267

CUADRO 14. CRECIMIENTO DEL PRODUCTO Y LOS ASALARIADOS EN LA INDUSTRIA EN ARGENTINA (1945-2002). MODELO DE CORRECCIÓN DE ERRORES Dependent Variable: DASALIND Method: Least Squares Date: 10/28/10 Time: 11:32 Sample (adjusted): 1946 2002 Included observations: 57 after adjustments Variable DPIBIND RRES22 C R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

Coefficient 0.286045 -0.542472 -0.001916 0.550420 0.533769 0.031178 0.052493 118,3392 1,9493

Std. Error 0.041898 0.109061 0.004131 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

t-Statistic 6,8271 -4,974 -0.463923

Prob. 0.0000 0.0000 0.6446 -0.002631 0.045662 -4,047 -3,9395 33,0561 0.000000

Fuente: elaboración propia. CUADRO 15. PIB INDUSTRIAL Y PRODUCTIVIDAD EXTRA INDUSTRIA EN ARGENTINA (19452002). MODELO DE CORRECCIÓN DE ERRORES Dependent Variable: DPIB_EXTRA_IND Method: Least Squares Date: 10/26/10 Time: 14:09 Sample (adjusted): 1946 2002 Included observations: 57 after adjustments Variable DASALIND RRES3 C R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

Coefficient 0.481359 -0.782546 0.001166 0.503123 0.484720 0.037279 0.075044 108,1534 1,7516

Std. Error 0.109128 0.134260 0.004950 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

t-Statistic 4,41096 -5,82859 0.235525

Prob. 0.0000 0.0000 0.8147 -0.001306 0.051932 -3,68959 -3,58207 27,33943 0.000000

Fuente: elaboración propia.

CONCLUSIONES La tradición clásica en la línea de Smith, Marx, Young y Schumpeter comparte la visión del crecimiento como proceso histórico con eje en el cambio tecnológico, en contraposición al pensamiento neoclásico. La macroeconomía keynesiana integró


268

Cuadernos de Economía, 30(55), julio - diciembre de 2011

además el papel fundamental de la demanda agregada, siendo Kaldor el encargado de completar el diseño de una dinámica “circular” y auto-reforzada. Dentro de este paradigma alternativo se encuentran actualmente distintas vertientes que proporcionan abundante literatura, en la cual el crecimiento está cada vez más cerca de la inspiración de los teóricos del desarrollo. Ejemplos de estas líneas de investigación se pueden encontrar en los trabajos empíricos basados en las leyes de Kaldor-Verdoorn (Cartón Madura, 2009; León Ledesma, 1998; Moreno Rivas, 2008; Rojas Ulo, 2010), así como los citados análisis de las restricciones externas a partir de la ley de Thirlwall. Recuperar los aspectos fundamentales de las mencionadas leyes y observar aristas derivadas de su aplicación en países en desarrollo constituye un verdadero desafío. En un contexto de naciones que evidencian restricciones para lograr su industrialización parece un contrasentido desde el inicio: ¿cómo podría verificarse la dinámica “circular acumulativa” del crecimiento en estas economías? Concretar el intento en Argentina parece aún más complicado, considerando la profundidad cuantitativa y cualitativa del “corte” que se produjo entre el proceso de industrialización y la posterior destrucción de la estructura de la etapa sustitutiva. La desindustrialización argentina es extremadamente significativa, lo que se puede comprobar en la magnitud de los indicadores, en lo prolongado de su duración y en las transformaciones sociales y culturales que trajo como consecuencia. Sin embargo, el ejercicio de analizar las series de datos con la base conceptual de las leyes de Kaldor y la ayuda de la econometría de series de tiempo brinda conclusiones útiles y nuevos elementos para posteriores análisis. En este sentido y en términos generales, las leyes parecen cumplirse, porque las variables cointegran en el largo período analizado. La singular heterogeneidad de escenarios y políticas atravesadas por Argentina no han conseguido alterar las causalidades que Kaldor proponía como hechos estilizados característicos de un escenario de crecimiento. Esta evidencia autoriza a continuar buscando causalidades que se repiten aún en realidades tan disímiles como las privatizaciones con convertibilidad y el desarrollismo de las décadas del sesenta y setenta. En cuanto a la forma específica en que las leyes K-V se expresan en el caso bajo estudio, las conclusiones parecen confirmar los postulados de una industrialización incompleta y dependiente hasta mitad de los setenta y el fracaso de la experiencia de los noventa en la consolidación de un nuevo modelo más “privatista” y “aperturista”. El impacto del sector industrial sobre el resto de la economía dista de ser el esperado para la conformación de un círculo virtuoso de la economía con base en incrementos de productividad y crecimiento manufactureros. En la etapa ISI caracterizada por una tendencia creciente, el estudio no ha captado ningún efecto multiplicador claro sobre las actividades externas a la industrial; sin embargo, en


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

269

la etapa de desindustrialización la economía extra industrial asumió la misma tendencia y este impacto negativo incluso asumió un guarismo mayor en términos relativos. Puede concluirse que la industria sustitutiva no logró, por sus propias imperfecciones, constituirse en el motor del crecimiento; pero su caída impactó en toda la economía. A pesar de que la simple observación de las elasticidades no tiene la complejidad del análisis de las series de tiempo, merece la pena incluir los comentarios que de ella surgen: pareciera que la conclusión general referida a la insuficiente difusión de la ISI se aplica más al período de incorporación de capital y tecnología extranjeros que a la etapa “mercadointernista”. Complementariamente en esta etapa surge más claramente el efecto productividad de la ley II. El desafío que se presenta en consecuencia es profundizar el análisis al interior del proceso sustitutivo y sus distintas fases. Como párrafo final vinculado a la primera ley podría aseverarse que el valor elevado de la elasticidad en la fase de crecimiento de los noventa se asocia más a una orientación de la economía hacia los servicios que a un impacto con origen en la industria. Esta afirmación se sustenta, básicamente, en la profunda reestructuración regresiva de la industria en esta década. En lo que respecta a la relación producto-productividad dentro de la manufactura, núcleo teórico del crecimiento endógeno, la ley se cumple “al alza” y “a la baja” si se considera por separado los períodos antes y después de 1976. Aunque cuantitativamente poco significativo, hubo en la sustitución de importaciones un efecto multiplicador del crecimiento industrial sobre la productividad. A la inversa, la transformación regresiva de la industria puede verse como un continuo de expulsión de ocupaciones asalariadas con una caída más que proporcional en la producción. Se podría decir que la ley K-V definitivamente se ha cumplido. La observación de las elasticidades permite ser más contundente, porque el aumento en el producto es más que el doble del crecimiento en la cantidad de asalariados en las dos fases del período industrial. En la fase expansiva de los noventa la realidad es muy diferente: la elasticidad negativa cercana a dos confirmaría que la dinámica de reestructuración regresiva se caracterizó por aumentos de productividad por reducción del empleo, más que en incrementos generales de eficiencia a partir de la expansión del sector. El ejercicio desarrollado con base en la tercera ley deja como resultado otra confirmación del carácter trunco y dependiente de la experiencia ISI. Aunque en su fase más compleja y profunda coincide con un incremento de la eficiencia general de la economía y la “brecha producto-asalariados” crece en los sectores no manufactureros, el impacto al interior de la industria fue proporcionalmente mucho mayor que el efecto multiplicador hacia afuera.


270

Cuadernos de Economía, 30(55), julio - diciembre de 2011

REFERENCIAS BIBLIOGRÁFICAS

1. Arrow, K. (1962). The Economic Implications of Learning by Doing. Review of Economic Studies, 29 (3), 155-173. 2. Azpiazu, D.; Basualdo, E. y Schorr, M. (2001). La industria argentina durante los años noventa: profundización y consolidación de los rasgos centrales de la dinámica sectorial post-sustitutiva. Buenos Aires: FLACSO, Área Economía y Tecnología. 3. Basualdo, E. (2003). Las reformas estructurales y el Plan de Convertibilidad durante la década de los noventa. El auge y la crisis de la valorización financiera. Realidad Económica, 200, 42-83. 4. Basualdo, E. (2006a). Estudios de historia económica argentina. Desde mediados del siglo XX a la actualidad. Buenos Aires: Siglo XXI Editores. 5. Basualdo, E. (2006b). La reestructuración de la economía argentina durante las últimas décadas. De la sustitución de importaciones a la valorización financiera. En E. Basualdo y E. Arceo (Eds.). Neoliberalismo y sectores dominantes. Tendencias globales y experiencias nacionales (pp. 123-177). Buenos Aires: CLACSO. 6. Bianchi, C. (2001). A Reappraisal of Verdoon’s Law for the Italian Economy: 19511997. Pavia: Università di Pavia. 7. Bisang, R.; Burachick, G. y Katz, J. (ed.). (1995). Hacia un nuevo modelo de organización industrial, el sector manufacturero argentino en los años noventa. Santiago de Chile: Cepal. 8. Braun, O. y Joy, L. (1968). A model of economic stagnation. A case study of the Argentina economy. The Economic Journal, 78 312, 868-887. 9. Cánfora Argandoña, E. (2006). Lauchlin Currie: Intérprete y actor de su tiempo. Economía Colombiana, 313-314, 176-185. 10. Carton Madura, C. (2009). Mecanismos kaldorianos del crecimiento regional: Aplicación empírica al caso del ALADI (1980-2007). Economic Analysis Working Papers (EAWP), 8, 1-24. 11. Castellacc, F. y Álvarez, I. (2006). Innovation, diffusion and cumulative causation: changes in the Spanish growth regime, 1960-2001. International Review of Applied Economics, 20, 2, 223-241. 12. Diamand, M. (1973). Doctrinas económicas, Desarrollo e Independencia. Buenos Aires: Paidós 13. Diamand, M. (1999). Productividad, eficiencia, competitividad y ventajas comparativas. En M. Diamand y H. Nochteff (ed.) La economía argentina actual. Problemas y lineamientos de políticas para superarlos (pp. 134-147). Buenos Aires: Consejo Académico de la Fundación Unión Industrial Argentina, Grupo Editorial Norma. 14. Domar, E.D. (1947). Expansión y empleo. The American Economic Review, 37, 34-55. 15. Freitas, F. (2002). Un análisis crítico del modelo kaldoriano de crecimiento exportled. Tesis de Doctorado no publicada. Universidad Federal de Río de Janeiro UFRJ, Instituto de Economia, Instituto de Economía: Rio de Janeiro. 16. Ferrer, A. (1974). La economía argentina. Buenos Aires: FCE. 17. Freeman, C. (1987). Technology policy and economic performance: lessons from Japan. Londres: Pinter.


Industrialización y desindustrialización

Sergio Cabezas, Patricia Laría y Verónica Rama

271

18. Fujita, N. (2004). Gunnar Myrdal’s theory of Cumulative Causation revisted. Economic Research Center Discussion Paper, 147. Nagoya: Nagoya University. 19. Gerschenkron, A. (1962). Economic backwardness in historical perspective. Cambridge: Harvard University Press. 20. Guerrero de Lizardi, C. (2004). Determinantes del crecimiento económico en México 1929-2003: una perspectiva poskeynesiana. Investigación Económica, 65(255), 127-158. 21. Habakkuk, J. (1962). American and British technology in the nineteenth century. Cambridge: Cambridge University Press. 22. Hicks, J.R. (1950). Contribution to the Theory of the Trade Cycle. Oxford: Clarendon Press. 23. Harrod, R. (1959). Domar and Dynamic Economics. Economic Journal, 69, 451464. 24. Kaldor, N. (1970). The Case for Regional Policies. Scottish Journal of Political Economy, 17, 337-348 25. Kaldor, N. (1971). Conflicts in national economic objectives. Economic Journal, 81(321), 1-16. 26. Kaldor, N. (1978). Further Essays on Economic Theory. New Cork: Holmes & Meier. 27. León Ledesma, M. (1998). Economic growth and Verdoorn’s law in the spanish regions 1962-1991. Working Paper 9801. Canterbury: Departament of Economics University of Kent. 28. Lewis, W.A. (1954). Economic Development with Unlimited Supplies of Labor. The Manchester School, 22, 139-191. 29. Liquitaya Briceño, J.D. (2008). La relación entre el Producto y el Empleo en la industria manufacturera mexicana. Revista Denarius, 17(1), 81-102. 30. Llach, J.J. y Sánchez, C.E. (1984). Los determinantes del salario en argentina. Un diagnóstico de largo plazo y propuestas de políticas. Estudios IIERAL, 7(29), 3-47. 31. Mamgain, V. (1999). ¿Are the Kaldor-Verdoorn laws applicable in the newly industrializing countries? Review of development economics, 3(3), 295-309. 32. Moreno Rivas, Á.M. (2008). Las leyes del crecimiento económico endógeno de Kaldor: el caso colombiano. Revista de Economía Institucional, 10(18), 129-147. 33. Myrdal, G. (1957). Economic theory and underdeveloped regions. Londres: Duckworth. 34. Palazuelos, E. (2000). Contenido y método de la economía. Madrid: Akal. 35. Perrotini, I. (2002). La ley de Thirlwall y la economía global: Enfoque crítico del debate. Revista Venezolana de Análisis de Coyuntura, 8(2), 117-141. 36. Pieper, U. (2003). Sectoral regularities of productivity growth in developing countries A Kaldorian interpretation. Cambridge Journal of Economics, 27(6), 831-850. 37. Pini, P. (1996). An integrated model of cumulative causation: empirical evidence for nine OECD countries, 1960-1990. Labor, 10(1), 93-150. 38. Rojas Ulo, R.E. (2010). Industria manufacturera y crecimiento económico: consideraciones teóricas para comprender el caso Boliviano. Umbrales, 13, 243-260. Recuperado de http://bibliotecavirtual.clacso.org.ar/ar/libros/bolivia/cides/umbrales/ umbrales13.pdf


272

Cuadernos de Economía, 30(55), julio - diciembre de 2011

39. Rowthorn, R.E. (1975). ¿What Remains of Kaldor’s Law? Economic Journal, 85(337), 10-19. 40. Sandilands, R. (2009). Solovian and New Growth Theory from the Perspective of Allyn Young on Macroeconomic Increasing Returns. Discussion Papers in Economics No 09-07. Glasgow: University of Strathclyde Business School, Department of Economics. 41. Schorr, M. (2005). La industria argentina: trayectoria reciente y desafíos futuros. Ponencia presentada en las Jornadas Hacia el Plan Fénix II. En vísperas del segundo centenario. Facultad de Ciencias Económicas (UBA). 2-5, agosto. Buenos Aires: Universidad de Buenos Aires. 42. Smith, A. (1958). Investigación sobre la naturaleza y causa de la riqueza de las naciones. México: FCE. 43. Thomas, J.J. (2003). Economies of Scale, Technical Progress and Regional Growth Disparities: Indian Industry, 1959-98. Conference on Economics for the Future, organized by the Cambridge Journal of Economics. Cambridge, U.K., September. Disponible en: http://profile.nus.edu.sg/fass/cnmtjj/cambridge_30Nov03_jayan.pdf. 44. Verdoorn, P.J. (1949). Fattori che Regoleno lo Sviluppo della Produttivita del Lavoro. L’Industria de Bruxelles, 5, 49-69. 45. Verdoorn, P.J. (1951). One empirical law governing the productivity of labour. Econometrica, 19, 209-210. 46. Whorle Guimaraes, P. (2002). A lei Kaldor-Verdoorn. Tesis de maestría no publicada. Sao Paulo: Universidad de San Pablo. 47. Young, A. (1928). Increasing Returns and Economic Progress. Economic Journal, 38, 527-542.


RESEÑAS Y DEBATES Cuadernos de Economía ha retomado un espacio de discusión de textos académicos (Reseñas y Debates), su objetivo es incentivar la discusión y difusión de la producción académica relevante en Economía a través de reseñas críticas. En este escenario se invita a las editoriales y a los autores a remitir libros de reciente aparición, con el fin de solicitar a académicos reconocidos realizar su reseña analítica. También se aceptarán reseñas voluntarias que se someterán a proceso de evaluación y selección por parte del Consejo Editorial de la revista. Cuadernos de Economía toma en consideración reseñas que contengan como mínimo: un breve resumen general del contenido de la obra, una evaluación del texto basada en una interpretación original empleando una argumentación académica y algunas sugerencias para los lectores potenciales de la obra. Los documentos propuestos para este espacio deben tener una extensión máxima de 10 páginas en letra Garamond 13 con interlineado de 1.5. Mayores informes en el correo electrónico revcuaeco_bog@unal.edu.co.


274

Cuadernos de EconomĂ­a, 30(55), julio - diciembre de 2011


UN RESUMEN COMPLETO DE EL CAPITAL DE MARX de Diego Guerrero

Ian J. Seda-Irizarry1 En momentos en los cuales la crisis socio-económica que arropa al mundo es innegable, aun cuando se siguen ofreciendo cifras tratando de demostrar lo contrario, el resurgimiento y actualidad del pensamiento de Karl Marx no es nada sorprendente. Datos como el divorcio entre el salario real y la productividad del trabajo, y el aumento en las ganancias –que en varios países es explicado en parte por este desacople–, han hecho que en algunos casos se retome el discurso de la explotación, opresión y enajenación, que muchos asocian con el arsenal teórico y político de Marx. Sin embargo, el asociar a Marx con ciertos discursos o conceptos no es suficiente para dar una explicación marxista de la realidad2 . La cosa se complica más cuando se reconoce que existen muchos marxismos, todos ellos anclados de una manera u otra en el trabajo de Marx y condicionados por toda una gama de circunstancias 1 Estudiante

de Doctorado e Instructor en el Departamento de Economía de la Universidad de Massachusetts en Amherst. Dirección de correspondencia: Department of Economics, 818 Thompson Hall, University of Massachusetts-Amherst (Amherst, Estados Unidos). E-Mail: isedairi@gmail.com. Esta reseña fue recibida el 21 de octubre de 2011 y su publicación aprobada el 4 de noviembre de 2011. 2 Por ejemplo, el desacople entre la productividad del obrero y su salario puede ser entendido a través del concepto de “explotación”, formulado por el economista inglés Arthur Pigou, según el cual la explotación se da cuando el salario no es igual al producto marginal del trabajo. Desde la perspectiva marxista, el caso de Pigou sólo que podría señalar cambios en la tasa de explotación del trabajo asalariado. Una discusión de esta teoría y la extensión de la misma puede consultarse en el trabajo de Joan Robinson (1933) y Flatau (2001).

275


276

Cuadernos de Economía, 30(55), julio - diciembre de 2011

que en muchas ocasiones llevan a posiciones diametralmente opuestas en torno a los mismos temas. En su libro “Un resumen completo de El Capital de Marx” (RCCM de aquí en adelante), Diego Guerrero invita al lector a ir de regreso a Marx mismo y, específicamente, a lo que es considerada como su obra fundamental, “El Capital: Crítica a la Economía Política”. Guerrero, economista de la Universidad Complutense de Madrid, se hecha sobre sus hombros lo que es “una novedad absoluta en la lengua española” (Gerrero, 2010, 12, énfasis en el original). Y es que el autor resume y conecta los 3 volúmenes de El Capital en lo que en efecto es un ambicioso trabajo que debe ser celebrado y detenidamente estudiado. En su introducción, Guerrero problematiza el uso de caracterizaciones de Marx con acentos de exclusividad mutua (que si es economista, que si es filósofo, que si es revolucionario, etcétera), para anunciar que “la filosofía de Marx y su economía son una misma cosa (y ambas son, como veremos, su teoría de valor)” (Guerrero, 2010, 13, énfasis en el original). Esta aseveración del autor es reforzada con su duda compartida sobre las celebradas “libertades falsas” que el mundo moderno proclama como sus grandes logros y que Marx pone bajo la mirilla de su análisis. Guerrero pregunta: ¿[C]ómo se puede ser libre en una sociedad donde uno mismo se ha convertido en una mercancía, donde nuestra (de todos) capacidad vital y humana para trabajar e intervenir en el mundo, de expresarnos como hombres activos, se ha vuelto algo condicionado, sólo una posibilidad limitada y determinada por las condiciones del mercado, y donde incluso la minoritaria ‘voluntad’ de quienes buscan su propio interés en forma de beneficio monetario está tan sometida a las leyes del sistema como la general ‘ausencia de voluntad’ a la que la primera condena a las demás personas? (Guerrero, 2010, 13, énfasis en el original).

Con este dictamen Guerrero se ubica junto a Marx en total oposición a la visión liberal que permea la práctica económica en el presente, sea en su versión keynesiana o neoclásica, en la cual el mercado y la propiedad privada son vistos como el andamiaje fundamental para lograr una sociedad libre3 . Este reconocimiento de la visión antiliberal de Marx es muy importante a la hora de comprender el orden de presentación del primer volumen de El Capital. Cuando Marx comienza su exposición diciendo que “[l]a riqueza de las sociedades en las que domina el modo de producción capitalista se presenta como un ‘enorme cúmulo de mercancías’, y la mercancía individual como la forma elemental de esa riqueza” (Marx, 1990, 125), se tiene una primera aproximación a una “ontología 3 Una

diferencia general entre ambos enfoques es la manera como visualizan el papel que desempeñan el mercado y el Estado dentro de sus respectivas visiones de la economía. Por un lado, la escuela neoclásica ve a la economía como algo natural con lo que es mejor no meterse. Por otro lado, los keynesianos la perciben como un sistema mecánico, en el cual se pueden oprimir botones y halar palancas para obtener los resultados deseados.


Reseñas y Debates

Ian J. Seda-Irizarry 277

de la sociedad moderna” (Guerrero, 2010, 13). El punto de partida de Marx es una observación poco cuestionable. Parte de lo que entonces hay que explicar es ¿qué relación tiene esa observación con la producción capitalista? y ¿cómo se llega al punto en el cual la mayor parte de la riqueza toma una forma específica de mercancía4 ? Tras teorizar sobre la mercancía en general en términos de su valor y la relación con el proceso de intercambio, Marx apunta su mirada al mercado laboral y aplica “dicha teoría de valor a la mercancía humana [. . .] [y obtiene] [. . .] [n]ada menos que la teoría de explotación” (Guerrero, 2010, 18). Puesto de forma sencilla, Marx penetra el mercado, el dinero y la división del trabajo y se encuentra con que la riqueza de la sociedad está basada en la explotación de un grupo social por otro. El valor que crea el asalariado en la producción capitalista es mayor que lo que recibe como salario. En otras palabras, desde la perspectiva del productor asalariado, existe un excedente que es producido por él mismo, pero apropiado por el capitalista. Ese excedente, al que Marx llama plusvalor, es un trabajo que realizó el productor directo y asalariado, y por el cual no fue remunerado. Y es que desde la perspectiva del capitalista, no tiene sentido pagarle a un trabajador el valor del mercado de lo que produce y será vendido, porque simplemente no quedaría nada para que el capitalista pueda sostenerse. ¿Para qué organizar todo el proceso de producción y pasar el trabajo de combinar medios de producción con una fuerza laboral si no se le va a sacar un beneficio5 ? El plusvalor que Marx (1992, 2000) identificó en la circulación de mercancías como capital (D-M-D’) bajo el supuesto de intercambio de iguales (ningún vendedor le vende la mercancía al comprador a un precio por encima de su valor) ahora tiene una explicación –no en la esfera de la circulación, sino en la de producción–, específicamente con la explotación del trabajo por el capital. Como dice Guerrero “Marx arranca de la afirmación de que la circulación de mercancías es el punto de partida del capital, pero el capital es algo más que la simple circulación de mercancías” (Guerrero, 2010, 73). Para Marx el capital es una relación social y en el caso del capital industrial se manifiesta en la auto-expansión del valor a base de la explotación de una clase por otra. Esta definición contrasta con la definición económica tradicional de que el capital es una cosa, sea medios de producción (ej. maquinaria) o dinero. En esa teoría no existe la sutileza, complejidad y responsabilidad teórica para diferenciar, por ejemplo, entre el uso de medios de producción 4 En Marx (1991,

442) hay el reconocimiento de que se pueden crear mercancías fuera de la producción capitalista. 5 Cabe resaltar la distinción entre reconocer que alguien produjo la riqueza frente a argumentar que alguien merece un corte de la misma. Para una discusión sobre cómo Thorstein Veblen analiza el tema de la apropiación del plustrabajo por el capital como una forma de “robo” en el trabajo de Marx, ver O’Hara (2000, 50). En cuanto al debate general sobre “ética” y las definiciones alternativas de “comunismo” con respecto a la apropiación del excedente, ver a Madra (2006).


278

Cuadernos de Economía, 30(55), julio - diciembre de 2011

en términos generales y el poner los medios de producción a trabajar como capital. Simplemente no hay historia. Peor aún, esa teoría trata las cosas como “factores de producción”, es decir, elementos que crean valor (trabajan) y que por ende merecen ser recompensados. Como menciona Guerrero en su resumen, “Marx se burla del dogma cuasirreligioso de la ‘trinidad’ de factores creadores de valor” (Guerrero, 2010, 217)6 . Estas observaciones y ejemplos citados arriba de pasada son una milésima parte del material que se encuentra contenido en esos tres volúmenes y que Guerrero metódicamente va cubriendo en su resumen. Pero la contribución de Guerrero en su RCCM no termina con una síntesis como tal. La última sección del libro contiene una serie de anexos muy útiles para el lector que quiera meterse de lleno en la literatura desarrollada con base en la contribución de Marx. Específicamente se incluye: 1. 2. 3. 4.

Un recuento del recorrido de Marx hasta “el inacabado capital”. Resúmenes previos de El Capital. Bibliografía sobre Marx y el marxismo. Una compilación de revistas marxistas y recursos localizados en el internet.

Todos estos materiales no sólo facilitan parte del recorrido que puede tomarse luego de ver todas las puertas que abren los escritos del propio Marx, sino que demuestran la familiaridad y experiencia del autor con el tema. Sin embargo, en el libro todavía hay espacio, en futuras ediciones, para sumar a la excelente guía del autor. Específicamente me refiero a que se le dedique unas páginas a cuales han sido las manifestaciones de no leer El Capital como un todo. Para muchos, el leer El Capital se ha vuelto un ejercicio centrado en el primer volumen, único que Marx pudo completar y publicar7 . Como bien dice Guerrero “esto es un motivo más que suficiente para prestar una especial atención al volumen 1, que él mismo pudo revisar, corregir y pulir para la imprenta, y del que pudo ver varias ediciones publicadas” (Guerrero, 2010, 11). El autor de inmediato advierte “que el lector tendrá una idea más completa del significado de la obra de Marx si profundiza en la multitud de borradores inacabados que se publicaron [. . .] empezando por los libros II y III de El Capital” (Guerrero, 2010, 12). Es sobre la lectura y la relación entre los distintos volúmenes, y que es parte de la introducción del RCCM, que el autor debió haber gastado un poco más de su 6 Por

“trinidad” Marx se refiere al esquema productivo/distributivo del capital-ganancia, suelo-renta de la tierra y trabajo-salario que dominó, no sólo la economía clásica que le precedió sino la neoclásica que le siguió y que domina hoy en día. 7 Tanto el volumen 2 como el 3 fueron editados y publicados por Engels en 1885 y 1894 respectivamente, mientras que Karl Kautsky se ocupó de las Teorías del Plusvalor. Ese llamado volumen 4 de El Capital está constituido a su vez de 3 volúmenes a partir de las notas que Marx dejó, en lo que para muchos es el primer libro comprensivo de la historia del pensamiento económico hasta ese momento.


Reseñas y Debates

Ian J. Seda-Irizarry 279

magnífica tinta. Y es que si bien el objeto de estudio del primer volumen es el modo de producción capitalista (Marx, 1990, 90), las conclusiones allí derivadas son en muchos casos función de los supuestos con los que Marx trabaja para iluminar ciertas dimensiones de la operación del capital cuando penetra en el sector productivo, especialmente el reconocimiento de que las ganancias del capital industrial están atadas a la explotación de todo un sector de la sociedad8 . Marx está consciente de que el modo de producción “[d]e ninguna manera es la totalidad (ni siquiera abstracta) del capital o del sistema capitalista” (Dussel, 1988, 95, énfasis en el original), reconocimiento que poco a poco va apareciendo en el horizonte cuando se va avanzando a través de los tres volúmenes de El Capital. Como ejemplo puede tomarse el caso de la conclusión aceptada por muchos marxistas de que la lógica del capital está asociada a la acumulación y la necesidad que tiene el capital de reinvertir el plusvalor en capacidad productiva y así obtener aún más plusvalía. Esta conclusión sale para muchos directamente del volumen 1 y ha sido repetida en innumerables ocasiones con la famosa expresión “Acumular, acumular! Ese es Moisés y los profetas”. Si bien el capital por definición implica una expansión de valor que es captada por el circuito general M − C − M ′ , que comienza con una cantidad de dinero para terminar con otra cantidad mayor (M ′ > M ), a medida que se avanza en las páginas de los 3 volúmenes se van añadiendo determinantes que poco a poco van haciendo del argumento uno más concreto y rico. En otras palabras, muchas de las conclusiones pueden evaluarse como provisionales, dependiendo del nivel de abstracción. En el caso del “imperativo de acumular” se puede argumentar que es un “supuesto condicional” del desarrollo teórico de esa sección (Crotty, 1993)9 . En términos generales, el plusvalor se puede utilizar, no sólo para expandir la producción, sino para sostener las condiciones de existencia de esas relaciones capitalistas; allí radica parte de la importancia del volumen 3. Aparecen en escena todos estos actores y procesos, incluidos otros tipos de capital, a los cuales Marx pone en movimiento con respecto al capital productivo, que es el que crea nuevo plusvalor. Marx apunta de manera dialéctica/constitutiva a establecer que sin esas distribuciones no hay plusvalor y que sin plusvalor no hay esas distribuciones. Esto dentro de un capitalismo anárquico que no garantiza ningún tipo de estabilidad a los capitales individuales, aún cuando se hacen distribuciones de plusvalor apropiado. 8 Parafraseando

a Robert Heillbronner (1999), parte del plan de Marx en este volumen es demostrar cómo el capital, aún en condiciones consideradas como perfectas (oferta igual a demanda, mercancías que se venden a sus valores, entre otros), es inestable, lo cual está relacionado con la explotación del trabajo. 9 Norton (1994) tiene una mirada algo diferente sobre la lógica del capital definida con base en la acumulación, al hacer una lectura textual de las secciones del volumen 1 de El Capital referidas al tema. Concluye que esa llamada lógica de acumular es precisamente parte de la crítica que hace Marx a la economía clásica.


280

Cuadernos de Economía, 30(55), julio - diciembre de 2011

En fin, este ejemplo sólo se ofrece para complementar la tarea de estudio y reflexión que Guerrero ha logrado de manera formidable con su libro. Sea como complemento a la lectura simultanea de El Capital o como texto para dar los primeros pasos, el autor y su obra deben ser celebradas por su intención pedagógica, teórica y política en momentos cuando el sistema capitalista tambalea y hay masa hambrientas por un conocimiento alternativo que les ayude a explicar su entorno y a la vez los mueva a transformarlo.

REFERENCIAS BIBLIOGRÁFICAS 1. Crotty, J. (1993). Rethinking Marxian Investment Theory: Keynes- Minsky Instability, Competitive Regime Shifts and Coerced Investment. Review of Radical Political Economics, 25(1), 1-26. 2. Dussel, E. (1988). Hacia un Marx Desconocido: Un Comentario de los Manuscritos del 61-63. México: Siglo XXI. 3. Flatau, P. (2001). Some reflections on the ’Pigou-Robinson’ theory of exploitation. History of Economics Review, 33, 1-16. 4. Guerrero, D. (2010). Un resumen completo de El Capital de Marx. Madrid: Maia Ediciones. 5. Heillbroner, R. (1999). The Wordly Philosophers. New York: Simon & Schuster. 6. Madra, Y. (2006). Questions of Communism: Ethics, ontology, subjectivity. Rethinking Marxism, 18(2), 205-24. 7. Marx, K. (1990). Capital, Volume 1. Londres: Penguin. 8. Marx, K. (1991). Capital, Volume 3. Londres: Penguin. 9. Marx, K. (1992). Capital, Volume 2. Londres: Penguin. 10. Marx, K. (2000). Theories of Surplus Value: Books I, II, and III. Nueva York: Promertheus Books. 11. Norton, B. (1994). Moses and the Prophets! Radical Economics and the Search for a Foundation (In Marx’s Analysis of Accumulation in Volume One of Capital). Review of Radical Political Economics, 26(3), 111-118. 12. O’Hara, P.P. (2000). Marx, Veblen, and contemporary institutional political economy: Principles and unstable dynamics of capitalism. Cheltenham, UK: Edward Elgar. 13. Robinson, J. (1933). The Economics of Imperfect Competition. Londres: Macmillan.


281

Resúmenes

RESÚMENES

TEORÍA ECONÓMICA Matallana, Hernando (2011). Mercantilismo, acumulación de capital y desarrollo económico en la economía monetaria de producción (nacional). Cuadernos de Economía, 30(55), 1-29. La tesis central de este trabajo es que un proceso exitoso de desarrollo capitalista nacional, en el contexto de un mercado mundial caracterizado por la existencia de múltiples monedas nacionales y dividido en países desarrollados hegemónicos del Primer Mundo y países subdesarrollados dependientes del Tercer Mundo (y el Segundo Mundo), exige una estrategia mercantilista de desarrollo económico en función de la lógica monetaria del capitalismo. La tesis se fundamenta en la concepción heterodoxa keynesiano-monetaria del capitalismo, en tanto que economía monetaria de producción. Palabras clave: acumulación, capitalismo, dependencia, desarrollo económico, dinero, Keynes, keynesianismo monetario, mercado mundial, mercantilismo, Riese, subvaluación cambiaria, ventaja absoluta. JEL: E12, E22, E50, E60, F43, F54. Castañeda Rodríguez, Víctor Mauricio (2011). Reflexión acerca de la representación del agente en la teoría económica evolutiva: controversia entre las perspectivas ortodoxa y heterodoxa. Cuadernos de Economía, 30(55), 31-53. En este documento se hace un análisis de la visión neoclásica, con respecto al modo en que los agentes deciden, enfatizando en que los supuestos premian la formalización en detrimento del poder de representación del modelo. Siguiendo los estudios de Kahneman y Tversky (1973, 1979, 1984), Simon (1955, 1991), Hodgson (1988, 2000), Holland (2004), Lara (2007, 2009), entre otros, se encuentra que la evidencia empírica y el marco teórico de la economía evolucionista sugieren que el hombre se podría entender como un agente complejo adaptable, que aunque se equivoca cuenta con la capacidad de aprender y perfeccionar sus esquemas mentales. Igualmente, se presenta a la firma como forma organizacional, que si bien es presa de problemas como el oportunismo, permite a los individuos afrontar dificultades conexas a su racionalidad limitada y al contexto de decisión. Palabras clave: economía evolucionista, agente complejo adaptable, esquemas mentales, racionalidad limitada, decisión. JEL: B13, B52, H31, H32. Rivera-Sotelo, Aída-Sofía (2011). El utilitarismo de Jeremy Bentham ¿fundamento de la teoría de Leon Walras? Cuadernos de Economía, 30(55), 55-76. El presente texto cuestiona el utilitarismo de Jeremy Bentham como fundamento de la teoría marginalista walrasiana. La problemática se aborda a través de un análisis comparativo del pensamiento de Jeremy Bentham y de Leon Walras en


282

Cuadernos de Economía, 30(55), julio - diciembre de 2011

tres áreas centrales: sus visiones de la sociedad y el objetivo social, sus aproximaciones teóricas y metodológicas en relación directa con sus respectivas teorías de la sociedad, y el lugar del principio de utilidad en el marco de las teorías generales de sociedad. El escrito contribuye a un debate vigente sobre los fundamentos filosóficos de la teoría de la elección racional y a deshomogenizar el pensamiento de los padres del marginalismo. Palabras clave: principio de utilidad, felicidad, cálculo maximizador, criterio de justicia, satisfacción de necesidades, Bentham, Walras. JEL: B00, B13, B30, B41.

MACROECONOMÍA INTERNACIONAL De Gregorio, José (2011). Acumulación de reservas internacionales en economías emergentes. Cuadernos de Economía, 30(55), 77-89. Este documento analiza la racionalidad de mantener reservas internacionales, las cuales se usan como un tipo de seguro ante problemas de financiamiento externo y para intervenir en el tipo de cambio. Aquí se argumenta que no es posible separar ambos objetivos. Esto explica por qué el empleo de otras formas de seguro, aunque potencialmente más baratos, no son generalizadas. Por otra parte, el hecho de que en la práctica la utilización de las reservas internacionales sea muy baja, incluso en períodos de crisis, es evidencia de que tienen un rol disuasivo –el solo hecho de mantenerlas reduce la vulnerabilidad financiera. La evidencia para la crisis subprime se estudia, encontrando que las tensiones financieras fueron menores en economías con altos niveles de reservas. Finalmente, se discuten diversas formas de medir el nivel adecuado de reservas y se examinan las variaciones de reservas y del tipo de cambio durante las crisis asiática y subprime en economías emergentes. Palabras clave: reservas internacionales, tipo de cambio, vulnerabilidad financiera, crisis asiática, crisis subprime. JEL: E32, E58, F41, E44, O11. Coronado Ramírez, Semei y Gatica Arreola, Leonardo (2011). Identificación de episodios de dependencia no lineal en el peso mexicano. Cuadernos de Economía, 30(55), 91-104. El siguiente documento identifica episodios de dependencia no-lineal en el tipo de cambio mexicano (peso mexicano/dólar norteamericano), entre enero de 1995 y septiembre de 2010. Para ello se utiliza la metodología Hinich Portmanteau, la cual emplea una prueba de alta frecuencia para detectar episodios de dependencia no lineal, por medio de funciones ventana. Se proporciona una explicación de los sucesos económicos y políticos que pudieron haber provocado que el tipo de cambio tuviera un comportamiento no lineal. La detección de episodios no lineales puede ayudar a explicar la dificultad para pronosticar este tipo de series. Palabras clave: tipo de cambio, no linealidad, bicorrelación, estadístico Hinich Portmanteau, México. JEL: C22, G17, 054, O11.


Resúmenes

283

Contreras-Reyes, Javier y Idrovo, Byron (2011). En busca de un modelo Benchmark univariado para predecir la tasa de desempleo. Cuadernos de Economía, 30(55), 105-125. En este trabajo se analiza la precisión y la estabilidad de las predicciones de la tasa de desempleo de Chile, obtenidas de una familia de modelos SARIMA, entre febrero de 1986 y febrero de 2010. Las proyecciones SARIMA son comparadas con las provenientes de modelos univariados, incluyendo los benchmarks predictivos. Simultáneamente, se ajustó un modelo ARFIMA (Autorregresive Fractionary Integrated Moving Average), debido a los signos de persistencia que muestra el indicador de desempleo en su comportamiento; sin embargo, a partir de los métodos de estimación de Reisen (1994), Geweke et al. (1983) y Whittle (1962) se obtuvieron parámetros de integración mayores que 0.5, lo que empíricamente sustenta el tratamiento de la tasa de desempleo como una serie no estacionaria. La evaluación de la capacidad predictiva de los modelos se centra en las proyecciones fuera de muestra de 1, 6 y 12 meses hacia adelante. Los resultados indican que el RECM fuera de muestra de las proyecciones SARIMA es menor que el de los métodos univariados considerados. Palabras clave: tasa de desempleo, SARIMA, ARFIMA, benchmarks predictivos, Chile. JEL: E24, J21, E27, C15, C20.

ECONOMÍA FINANCIERA Uribe Gil, Jorge Mario y Ulloa Villegas, Inés María (2011). Revisando la hipótesis de los mercados eficientes: nuevos datos, nuevas crisis y nuevas estimaciones. Cuadernos de Economía, 30(55), 127-154. En este documento se revisa la relación teórica entre eficiencia informacional y eficiencia en la asignación. Igualmente, se proponen dos mejoras a la metodología empírica tradicional para medir la eficiencia en el sentido débil. La primera consiste en calcular el estadístico de eficiencia dinámicamente, lo cual enriquece el análisis y permite definir intervalos con distintos grados de eficiencia en el mismo mercado. La segunda pretende evaluar la eficiencia a través de cópulas, las cuales son robustas ante la no normalidad y la no linealidad que exhiben las series de tiempo financieras. Palabras clave: eficiencia financiera, razones de varianza, cópulas, independencia. JEL: G14, D53, C15, C18, C58. Castro Fernández, Juan Carlos (2011). Fragilidad financiera y tasa de cambio. Cuadernos de Economía, 30(55), 155-177. En las siguientes páginas se presenta un modelo elaborado a partir del propuesto por Foley (2003), en el que se introducen la tasa de cambio y la deuda denominada en moneda extranjera para examinar la influencia de estas dos variables sobre la fragilidad financiera, considerando la hipótesis de inestabilidad financiera de


284

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Minsky (1982, 1987) con tipo de cambio flexible. Las posiciones financieras de las firmas (cubierta, especulativa y Ponzi) dependen de la tasa de cambio y de la tasa de interés. El modelo prueba que la depreciación nominal tiene efectos reales y puede causar crisis financieras y económicas, porque encarece el crédito y los bienes de capital, lo que produce una caída en las tasas de ganancia e inversión. Palabras clave: crisis financiera, modelos macroeconómicos post-keynesianos, tasa de cambio, endeudamiento privado externo. JEL: E120, E320, F410, G010.

VIOLENCIA Y ECONOMÍA Muñoz Conde, Manuel y Pachón García, Nelson (2011). La calidad de vida y la situación de pobreza de la población desplazada (2008-2010). Cuadernos de Economía, 30(55), 179-216. Este artículo toma información de la segunda y la tercera Encuesta Nacional de Verificación de los Derechos de la Población Desplazada, realizadas por la Comisión de Seguimiento, el CODHES y el CID, y estudia diferentes indicadores de pobreza y calidad de vida para la población desplazada, entre 2008 y 2010. Así mismo, se elabora una metodología para medir el Goce Efectivo de Derechos. El grado de goce de derechos se analiza con respecto a la pobreza y a otros indicadores de bienestar. Palabras clave: indicadores de pobreza, indicadores de calidad de vida, población desplazada, Goce Efectivo de Derechos, Colombia. JEL: I00, I30, I32, I38, O15.

ECONOMÍA Y MEDIO AMBIENTE Jaime Torres, Mónica Marcela y Tudela, Alejandro M. (2011). Valuing a water recreation facility using semi parametric estimators in the travel cost method. Cuadernos de Economía, 30(55), 217-234. El objetivo de esta investigación es estimar, usando técnicas semi-paramétricas (SNP), los beneficios recreativos relacionados con un ecosistema estratégico de páramo alto en Colombia. Esta técnica fue usada para la valoración de costos de viaje debido a su flexibilidad. La técnica SNP elegida correspondió a la forma flexible de Fourier y fue ajustada a un modelo de Poisson, de manera que el truncamiento y las tendencias de estratificación endógenas de la base de datos pudieran ser considerados. El excedente del consumidor para el modelo estimado representa el 47,1 % del excedente obtenido usando modelos paramétricos para la misma muestra. Las diferencias obtenidas comparando estas estimaciones sugieren que las técnicas SNP deberían ser consideradas durante el proceso de toma de decisiones cuando se trata de sitios recreativos. Palabras clave: estimadores semi-paramétricos, modelos de truncamiento, series de Fourier, método de costos de viaje. JEL: C14, C15, C24, Q26.


Resúmenes

285

DESARROLLO ECONÓMICO Cabezas, Sergio Raúl; Laría, Patricia Inés y Rama, Verónica (2011). Industrialización y desindustrialización de Argentina en la segunda mitad del siglo XX. La paradójica validez de las leyes de Kaldor-Verdoorn. Cuadernos de Economía, 30(55), 235-272. Este artículo aplica las leyes de Kaldor-Verdoorn a la industria argentina en el período 1945-2002, observando su capacidad de “liderar la economía”, los rendimientos crecientes y las ganancias de productividad. El marco conceptual y metodológico es el tratamiento econométrico de abordaje causación acumulativa. Se procesaron series de producto, productividad y ocupación para aplicar el método de cointegración de Engle y Granger. Los resultados indican que el cumplimiento de las leyes confirma el carácter trunco de la sustitución de importaciones y la reestructuración regresiva derivada de la experiencia “privatista” y “aperturista”. Palabras clave: industria, leyes de Kaldor -Verdoorn, causación acumulativa, cointegración, productividad, Argentina. JEL: L60, L16, L52, C54, C82.


286

Cuadernos de Economía,30(55), julio - diciembre de 2011

ABSTRACTS

ECONOMIC THEORY Matallana, Hernando (2011). Mercantilism, capital accumulation, and economic development in the (national) monetary production economy. Cuadernos de Economía, 30(55), 1-29. The central thesis of the essay is that a successful process of national capitalist development in a world market characterized by the existence of multiple national currencies and divided in the hegemonic developed countries of the First World and the underdeveloped dependent countries of the Third World (and the Second World) requires a mercantilist strategy of economic development in conformity with the monetary logic of capitalism. The thesis rests on the context of the heterodox monetary-keynesian conception of capitalism in so far as a monetary production economy. Key words: Absolute advantage, accumulation, capitalism, dependency, economic development, Keynes, mercantilism, money, monetary keynesianism, Riese, currency undervaluation, world market. JEL: E12, E22, E50, E60, F43, F54. Castañeda Rodríguez, Víctor Mauricio (2011). Reflection about the agent representation en in evolutional economic theory: controversy between the orthodox and heterodox perspectives. Cuadernos de Economía, 30(55), 31-53. This document makes an analysis of the neoclassical framework in relation to the way how the agents choose, emphasizing that the assumptions reward the formalization, despising its power of representation of the model. According to studies made by authors like Kahneman & Tversky (1973, 1979, 1984), Simon (1955, 1991), Hodgson (1988, 2000), Holland (2004), Lara (2007, 2009), among others, it was found that the empirical evidence and theoretical framework of evolutionary economics suggests that, in fact, man could be studied as a complex adaptive agent, who although can blunder, likewise is able to learn and to improve his mental models. Likewise, this work presents the firm as an organizational structure that although is affected by problems such opportunism, helps individuals to address difficulties related to bounded rationality and the decision context. Key words: evolutionary economics, complex adaptive agent, mental models, bounded rationality, decision. JEL: B13, B52, H31, H32. Rivera-Sotelo, Aída-Sofía (2011). Jeremy Bentham’s utilitarianism. Foundation of the theory of Leon Walras? Cuadernos de Economía, 30(55), 55-76. This text challenges assumptions about the foundations of the Leon Walras’ marginalist theory in the utilitarianism of Jeremy Bentham. The problematic is approached through a comparative study between Bentham’s and Walras’ ideas on


Abstracts

287

three focus areas: 1. their views of society and the social objective; 2. their theoretical and methodological approaches in direct relation to their particular social theory; 3. the location of a principle of utility within the general theories of society. This study contributes to an ongoing debate about the philosophical foundations of rational choice theory and is an attempt to complicate presumptions of homogeneity in the work of the founders of marginalism. Key words: principle of utility, happiness, maximization, criterion of justice, needs satisfaction, Bentham, Walras. JEL: B00, B13, B30, B41.

INTERNATIONAL MACROECONOMICS De Gregorio, José (2011). International reserve accumulation in emerging economies. Cuadernos de Economía, 30(55), 77-89. This document analyzes the rationality of keeping international reserves, which are used as a type of insurance in the event of external financing problems and to mediate in the type of exchange rate. Here it is argued that it is not possible to separate both objectives. This explains why the use of other forms of insurance, although potentially cheaper, is note generalized. On the other hand, the fact that in practice the use of the international reserves is very low, even during the crisis periods, is evidence of the dissuasive role they have - just the fact of keeping them reduces financial vulnerability. The evidence for the subprime crisis is studied, finding that the financial strains were fewer in economies with high reserve level. Finally, diverse forms of measuring the adequate reserve level are discussed and the variation of the reserves and the type of exchange rate are examined during the Asian and subprime Crisis in emerging economies. Key words: international reserves, exchange rate, financial vulnerability, Asian crisis, subprime crisis. JEL: E32, E58, F41, E44, O11. Coronado Ramírez, Semei and Gatica Arreola, Leonardo (2011). Identification of non linear dependence episodes in the Mexican peso. Cuadernos de Economía, 30(55), 91-104. This document identifies non linear dependence events in the Mexican exchange rate (Mexican peso/U.S. Dollar.), between January 1995 and September 2010. For this purpose the Hinich Portmanteau test, which uses a high frequency test to detect nonlinear episodes through small window functions, is used. An explanation of events that could lead the nonlinear behavior and the non linear dependency of the exchange rate series is provided. The detection of such non-linear episodes may help to explain the difficulty in forecasting this type of series. Key words: Mexican exchange rate, non-linear, bicorrelation, Hinich Portmanteau test, Mexico. JEL: C22, G17, 054, O11.


288

Cuadernos de Economía,30(55), julio - diciembre de 2011

Contreras-Reyes, Javier and Idrovo, Byron (2011). In the search of a univariate Benchmark model to forecast the unemployment rate. Cuadernos de Economía, 30(55), 105-125. In this work the precision and stability of the forecasts of Chile’s unemployment rates are analyzed. Said models were obtained by a family of SARIMA (Seasonal Autoregressive Integrated Moving Average) models, between February 1986 and February 2010. The SARIMA projections are compared with the ones originating from univariate models, including the benchmark predictive ones. Simultaneously and ARFIMA (Autoregressive Fractionally Integrated Moving Average) model was adjusted, owing to the signs of persistence that the unemployment indicator shows in its behavior; nevertheless, starting from the estimation methods developed by Reisen (1994), Geweke et al. (1983), and Whittle (1962) integration parameters greater than 0.5 were obtained, which empirically upholds the proposal of addressing the unemployment rate as a non stationary series. The evaluation of the predictive capacity of the models is centered in the forecasts out of the sample of 1, 6, and 12 months from then on. The results indicate that the RECM out of the sample of the SARIMA projections is less than the one from the considered univariate methods. Key words: unemployment rate, SARIMA, ARFIMA, Benchmark, forecast, Chile. JEL: E24, J21, E27, C15, C20.

FINANCIAL ECONOMICS Uribe Gil, Jorge Mario and Ulloa Villegas, Inés María (2011). Reviewing the efficient markets´ hypothesis : new data, new crises, and new estimations. Cuadernos de Economía, 30(55), 127-154. The theoretical relationship between informational efficiency and efficiency in the assignment is reviewed in this document. Two improvements are proposed with respect to the traditional empirical methodology that is currently used to test market efficiency in the weak form. The first one is to calculate the statistic to measure efficiency dynamically. This strategy enriches the analysis and allows the reader to define intervals with different degrees of efficiency in the same market. The second one is an efficiency measure based upon copulas, which are robust in accommodating both non normality and non linearity (common features observed in financial data). Key words: financial efficiency, variance rates, copulas, independence. JEL: G14, D53, C15, C18, C58. Castro Fernández, Juan Carlos (2011). Financial fragility and exchange rate. Cuadernos de Economía, 30(55), 155-177. A modification to the Foley (2003) model is presented here introducing the role of exchange rate and foreign currency denominated debt in order to determine their


Abstracts

289

influence on financial fragility, using the financial instability hypothesis of Hyman Minsky under flexible exchange rate regime. Firms’ financial positions (hedge, speculative, and Ponzi) are affected by the movements of the exchange rate and of the interest rate. The model proves that nominal depreciation has real effects and may cause financial and economic crises, because a sudden depreciation causes a fall in profit and investment rates through credit cost and capital goods supply prices increase. Key words: financial crisis, post-keynesian macroeconomic models, exchange rate, private sector foreign debt. JEL: E12, E32, F41, G01.

VIOLENCE AND ECONOMY Muñoz Conde, Manuel and Pachón García, Nelson (2011). Quality of life and the poverty situation of the displaced population (2008-2010). Cuadernos de Economía, 30(55), 179-216. This paper takes information of the second and third surveys in order to verify the displaced people’s rights conducted by the Comisión de Seguimiento, the consultantship for human rights and displacement CODHES for its initials in Spanish, and the Investigation Center for Development CID for is initial in Spanish, and studies some poverty and quality of life indicators for the displaced population between 2008 and 2010. In the same manner a methodology is developed in order to measure enjoyment of rights of displaced people. The degree of right enjoyment is analyzed with regard to poverty and other welfare indicators. Key words: poverty indicators, quality of life indicators, displaced population, right effective enjoyment, Colombia. JEL: I00, I30, I32, I38, O15.

ECONOMY AND ENVIRONMENT Jaime Torres, Mónica Marcela and Tudela, Alejandro M. (2011). Valuing a water recreation facility using semi parametric estimators in the travel cost method. Cuadernos de Economía, 30(55), 217-234. The goal of this research is to estimate, using semi parametric (SNP) techniques, the recreational benefits related to one strategic ecosystem of high moors in Colombia. This technique was used during the travel cost method estimation process due to its flexibility. The chosen SNP technique corresponded to the Fourier flexible form, adjusting a Poisson model, such that the truncation and endogenous stratification biases in the data base could be taken into account. Consumer surplus for the estimated model represents just 47.1 % of the surplus obtained using parametric models, for the same sample. Differences obtained when comparing these estimates suggest that SNP techniques should be considered during the decision making process when dealing with recreational sites.


290

Cuadernos de Economía,30(55), julio - diciembre de 2011

Key words: semi parametric estimators, bootstrap, truncate models, fourier series, travel cost method JEL: C14, C15, C24, Q26.

ECONOMIC DEVELOPMENT Cabezas, Sergio Raúl; Laría, Patricia Inés and Rama, Verónica (2011). Argentinean industrialization and de-industrialization in the second half of the twentieth century. The paradoxical validity of the Kaldro-Verdoorn laws. Cuadernos de Economía, 30(55), 235-272. This article appeals to Kaldor-Verdoorn’s laws to observe the evolution of industry in Argentina from 1945 to 2002. It observes the industries’ ability to be the “engine of the economy”, the increasing return rate, and the productivity gains. The “cumulative causation” model was chosen as conceptual and methodological framework. Series of product, productivity, and occupation were processed using the cointegration theory from Engle and Granger. The results indicate that eh fulfillment of the laws confirms the cut short character of the import substitution and the regressive restructuring derived from the “private oriented” and “open oriented” experience. Key words: industry, Kaldor-Verdoorn’s laws, cumulative causation, cointegration, productivity, Argentina. JEL: L60, L16, L52, C54, C82.


291

Résumés

RÉSUMÉS

THÉORIE ÉCONOMIQUE Matallana, Hernando (2011). Mercantilisme, accumulation de capitale et développement économique dans une économie monétaire de production (nationale). Cuadernos de Economía, 30(55), 1-29. La thèse centrale développée dans ce travail est : qu’un processus réussi de développement capitaliste national, dans le contexte d’un marché mondial caractérisé par l’existence de multiples monnaies nationales et partagé entre les pays développés hégémoniques du Premier Monde et les pays sous-développés dépendants du Troisième Monde (et du Deuxième Monde), exige une stratégie mercantiliste de développement économique en fonction de la logique monétaire du capitalisme. Cette thèse se fonde dans la conception hétérodoxe keynésien-monétaire du capitalisme, en tant qu’économie monétaire de production. Mots clés : accumulation, capitalisme, dépendance, développement économique, monnaie, Keynes, keynesianisme monétaire, marché mondial, mercantilisme, Riese, sous-évaluation du taux d´échange, avantage absolu. JEL: E12, E22, E50, E60, F43, F54. Castañeda Rodríguez, Víctor Mauricio (2011). Réflexion sur la représentation de l’agent dans la théorie économique évolutive : la controverse entre les perspectives orthodoxes et hétérodoxes. Cuadernos de Economía, 30(55), 31-53. Dans ce document on propose une analyse de la vision néoclassique à l’égard de la manière dans laquelle les agents prennent leurs décisions, en soulignant que les hypothèses de base de cette école privilégient la formalisation au détriment du pouvoir de représentation du modèle. En suivant les études de Kahneman et Tversky (1973, 1979, 1984), Simon (1955, 1991), Hodgson (1988, 2000), Holland (2004), Lara (2007, 2009), entre autres, on trouve que l’évidence empirique et le cadre théorique de l’économie évolutionniste suggèrent que l’homme pourrait mieux se comprendre comme un agent complexe adaptable, que même si s’il se trompe, compte sur la capacité d’apprentissage et de perfectionnement ses schémas mentaux. Également, on présente la firme comme une forme d’organisation qui a de problèmes comme l’opportunisme, mais permet aux individus d’affronter des difficultés connexes à sa rationalité limitée et au contexte de décision. Mots clés : économie évolutionniste, agent complexe adaptable, schémas mentaux, rationalité limitée, décision. JEL: B13, B52, H31, H32.


292

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Rivera-Sotelo, Aída-Sofía (2011). L’utilitarisme de Jeremy Bentham : fondement de la théorie de Léon Walras ? Cuadernos de Economía, 30(55), 55-76. Ce texte met en question l’utilitarisme de Jeremy Bentham comme fondement de la théorie marginaliste de L. Walras. La problématique est abordée à travers une analyse comparative de la pensée de Jeremy Bentham et celle de L. Walras dans trois aspects centraux : leurs visions de la société et de l’objectif social, leurs approches théoriques et méthodologiques en rapport directe avec leurs théories respectives de la société, et le lieu du principe d’utilité dans le cadre des théories générales de la société. L’écrit contribue à un débat en vigueur sur les fondements philosophiques de la théorie de l’élection rationnelle et permet de deshomogénéiser la pensée des pères fondateurs du marginalisme. Mots clés : principe d’utilité, bonheur, calcul de maximisation, critère de justice, satisfaction de nécessités, Bentham, Walras. JEL: B00, B13, B30, B41.

MACROÉCONOMIE INTERNATIONALE De Gregorio, José (2011). L’accumulation de réserves internationales dans les économies émergentes. Cuadernos de Economía, 30(55), 77-89. Ce document analyse la logique derrière l’accumulation de réserves internationales, lesquelles sont utilisés comme une sorte d´assurance face aux problèmes de financement externe et dans le but d’intervenir sur le niveau du taux de change. On soutient qu’il n’est pas possible de séparer les deux objectifs. Cela explique pourquoi l’usage d’autres formes d´assurance, bien que potentiellement moins chères, n´est pas répandu. D’autre part, le fait que dans la pratique l’utilisation des réserves internationales soit très peu fréquente, même en périodes de crise, évidence que leur rôle est plutôt dissuasif -les avoir permet de réduire la vulnérabilité financière. On examine l’évidence pour la crise des subprimes et on trouve que les tensions financières ont été plus faibles dans les économies avec de hauts niveaux de réserves. Finalement, on discute les diverses formes de mesurer le niveau adéquat de réserves et on analyse les changements de réserves et du taux de change pendant les crises asiatique et des subprimes dans les économies émergentes. Mots clés : réserves internationales, taux de change, vulnérabilité financière, crise asiatique, crise subprimes. JEL: E32, E58, F41, E44, O11. Coronado Ramírez, Semei et Gatica Arreola, Leonardo (2011). Identification d’épisodes de dépendance non-linéaire dans le peso mexicain. Cuadernos de Economía, 30(55), 91-104. Ce document identifie des épisodes de dépendance non-linéaire dans le taux de change mexicain (peso Mexicain / dollar), entre janvier 1995 et septembre 2010. Pour cela on utilise la méthodologie de Hinich-Portmanteau, qui fait usage d’un test de haute fréquence pour détecter des épisodes de dépendance non-linéaire à


Résumés

293

partir de fonctions fenêtre. On offre ainsi une explication aux événements économiques et politiques qui ont pu avoir provoqué la non-linéarité du comportement du taux de change. La détection d’épisodes non-linéaires peut aider à expliquer les difficultés dans la prédiction de ce type de séries. Mots clés : taux de change, non-linéarité, bicorrélation, Hinich Portmanteau, Mexique. JEL: C22, G17, 054, O11. Contreras-Reyes, Javier et Idrovo, Byron (2011). À la recherche d’un modèle univarié de référence pour prédire le taux de chômage au Chili. Cuadernos de Economía, 30(55), 105-125. Dans ce travail on évalue la précision et la stabilité des prédictions du taux de chômage au Chili, obtenues à travers une famille de modèles SARIMA, entre février 1986 et février 2010. Les projections SARIMA sont comparées avec celles des modèles univariés, en incluant les benchmarks prédictifs. Simultanément, on a adapté un modèle ARFIMA (Autorregresive Fractionary Integrated Moving Average), grâce aux signes de persistance qui montre le taux de chômage dans son comportement. Cependant, à partir des méthodes d’estimation de Reisen (1994), Geweke et al. (1983) et Whittle (1962) on a obtenu des paramètres d’intégration supérieurs à 0,5, ce qui permet de supporter empiriquement le traitement du taux de chômage en tant que série non stationnaire. L’évaluation de la capacité de prédiction des modèles se concentre sur les projections hors -échantillon le long des durées de 1, 6 et 12 mois. Les résultats indiquent que le RECM hors-échantillon des projections SARIMA est plus petit que celui des méthodes univariées considérées. Mots clés : taxe de chômage, SARIMA, ARFIMA, benchmarks prédictifs, Chili. JEL: E24, J21, E27, C15, C20.

ÉCONOMIE FINANCIÈRE Uribe Gil, Jorge Mario et Ulloa Villegas, Inés María (2011). Une révision de l’hypothèse des marchés efficients : nouvelles données, nouvelles crises et nouvelles estimations. Cuadernos de Economía, 30(55), 127-154. Dans ce document on revisite la relation théorique entre l´efficacité informationnelle et l’efficience dans l’allocation des ressources. Également, on propose deux améliorations à la méthodologie empirique traditionnelle pour mesurer l’efficience dans le sens faible. La première consiste à calculer la valeur statistique d’efficience dynamiquement, ce qui enrichit l’analyse et permet de définir des intervalles avec des degrés distincts d’efficience dans le même marché. La deuxième a pour but d´évaluer l’efficience à travers de couples qui sont stables et robustes face à la non normalité et la non linéarité des séries temporelles financières. Mots clés : efficience financière, taux de variabilité, couples. JEL: G14, D53, C15, C18, C58.


294

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Castro Fernández, Juan Carlos (2011). Fragilité financière et taux de change. Cuadernos de Economía, 30(55), 155-177. On présente un modèle élaboré à partir de celui proposé par Foley (2003), auquel on incorpore le taux de change et la dette libellé en monnaie étrangère pour examiner l’influence de ces deux variables sur la fragilité financière, en tenant compte de l’hypothèse d’instabilité financière de Minsky (1982, 1987) avec un taux de change flexible. Les positions financières des entreprises (couverte, spéculative et Ponzi) dépendent du taux de change et du taux d’intérêt. Le modèle montre que la dépréciation nominale du change a des effets réels et peut causer des crises financières et économiques, parce qu’elle augmente le prix du crédit et des biens de capitale. Ce qui produit une chute dans les taxes de revenu et d’investissement. Mots clés : crise financière, modèles macroéconomiques post-keynésiens, taux de change, endettement privé externe. JEL: E12, E32, F41, G10.

VIOLENCE ET ÉCONOMIE Muñoz Conde, Manuel et Pachón García, Nelson (2011). La qualité de vie et la situation de pauvreté de la population déplacée (2008-2010). Cuadernos de Economía, 30(55), 179-216. Cet article utilise les données des deuxième et troisième Sondage National de Vérification des Droits de la Population Déplacée, réalisés par la Comisión de Seguimiento, le CODHES et le CID, afin d’étudier les différents mesures de la pauvreté et de la qualité de vie pour la population déplacée, entre 2008 et 2010. De même, on élabore une méthodologie pour mesurer la Jouissance Effective de Droits. Le degré de jouissance de droits est analysé à l’égard de la pauvreté et d’autres indicateurs de bienêtre. Mots clés : mesures de pauvreté, indicateurs de qualité de vie, population déplacée, Jouissance Effective de Droits, Colombie. JEL: I00, I30, I32, I38, O15.

ÉCONOMIE ET ENVIRONNEMENT Jaime Torres, Mónica Marcela et Tudela, Alejandro M. (2011). Évaluation d’un système de plaisance eco-aquatique utilisant des estimateurs semiparamétriques et la méthode de coût de voyage. Cuadernos de Economía, 30(55), 217-234. L’objectif de cette recherche est d’estimer, en utilisant des techniques semiparamétriques (SNP), les effets de bienêtre récréatif relatif à un écosystème stratégique de haute montagne en Colombie. Cette technique a été utilisée pour l’évaluation de coûts de voyage dû à sa flexibilité. La technique SNP choisi correspond à la forme flexible de Fourier et elle a été adaptée à travers un modèle de Poisson, de manière que la troncature et les tendances endogènes de stratification


Résumés

295

de la base de données puissent être prises en compte. L’excédent du consommateur pour le modèle estimé représente 47,1 % de l’excédent obtenu à travers des modèles paramétriques pour le même échantillon. Les différences obtenues dans les deux estimations suggèrent que les techniques SNP devraient être considérées lors des processus de prise de décisions quand il s’agit des lieux de plaisance. Mots clés : estimateur semi-paramétriques, modèles de troncature, séries de Fourier, méthode de coûts de voyage. JEL: C14, C15, C24, Q26.

DÉVELOPPEMENT ÉCONOMIQUE Cabezas, Sergio Raúl; Laría, Patricia Inés et Rama, Verónica (2011). Industrialisation et desindustrialización de l’Argentine dans la seconde moitié du XXème siècle. La validité paradoxale des lois de Kaldor-Verdoorn. Cuadernos de Economía, 30(55), 235-272. Cet article évalue l’application des lois de Kaldor-Verdoorn à l’industrie argentine pendant la période 1945-2002, en observant sa capacité “d’être à la tête de l’économie”, les rendements croissants et les revenus en productivité. Le cadre conceptuel et méthodologique est le traitement économétrique d’abordage causation cumulative. On utilise des séries de données de production, de productivité et d’occupation pour appliquer la méthode de cointégration d’Engle et de Granger. Les résultats indiquent que la vérification des lois de Kaldor-Verdoorn et confirme le caractère tronqué de la substitution d’importations et la restructuration régressive dérivée de l’expérience “privatiste” et “d’ouverture”. Mots clés : industrie, lois de Kaldor-Verdoorn, causation cumulative, cointégration, productivité, Argentine. JEL: L60, L16, L52, C54, C82.


296

Cuadernos de Economía, 30(55), julio - diciembre de 2011

ÍNDICE ALFABÉTICO POR AUTORES Cuadernos de Economía Vol. XXX Nos. 54 y 55

Barrientos Marín, Jorge y Lotero Contreras, Jorge (2011). Evolución y determinantes de las exportaciones industriales regionales: evidencia empírica para Colombia (1977-2002). Cuadernos de Economía, 30(54), 21-48. Benítez Sánchez, Alberto (2011). Distribution, exploitation and profit rates. Cuadernos de Economía, 30(54), 1-20. Cabezas, Sergio Raúl; Laría, Patricia Inés y Rama, Verónica (2011). Industrialización y desindustrialización de Argentina en la segunda mitad del siglo XX. La paradójica validez de las leyes de Kaldor-Verdoorn. Cuadernos de Economía, 30(55), 235-272. Caicedo Marulanda, Carolina y Mora Rodríguez, Jhon James (2011). Comercio intraindustrial Colombia-Estados Unidos. El caso de los bienes altamente tecnológicos (1995-2005). Cuadernos de Economía, 30(54), 83-106. Cante, Freddy y Ramírez, Verónica (2011). Hacia un cambio radical en la lógica del desarrollo. Cuadernos de Economía, 30(54), 253-280. Castañeda Rodríguez, Víctor Mauricio (2011). Reflexión acerca de la representación del agente en la teoría económica evolutiva: controversia entre las perspectivas ortodoxa y heterodoxa. Cuadernos de Economía, 30(55), 31-53. Castro Fernández, Juan Carlos (2011). Fragilidad financiera y tasa de cambio. Cuadernos de Economía, 30(55), 155-177. Cendales, Andrés (2011). Pensando con Bourdieu contra Bourdieu: una crítica metodológica del mercado lingüístico. Cuadernos de Economía, 30(54), 193-226. Ciarreta, Aitor; Lagullón, Mónica y Zarraga, Ainhoa (2011). Modelación de los precios en el mercado eléctrico español. Cuadernos de Economía, 30(54), 227-250. Contreras-Reyes, Javier y Idrovo, Byron (2011). En busca de un modelo Benchmark univariado para predecir la tasa de desempleo. Cuadernos de Economía, 30(55), 105-125. Cortés Aguilar, Alexandra; Palacio García, Luis Alejandro y Rueda Sarmiento, Ronald Javier (2011). Actividades religiosas en Bucaramanga: una aproximación desde la economía. Cuadernos de Economía, 30(54), 151-170. Coronado Ramírez, Semei y Gatica Arreola, Leonardo (2011). Identificación de episodios de dependencia no lineal en el peso mexicano. Cuadernos de Economía, 30(55), 91-104. De Gregorio, José (2011). Acumulación de reservas internacionales en economías emergentes. Cuadernos de Economía, 30(55), 77-89.


Índices

297

Ferre, Zuleika (2011). Capital social y redes. Evidencia uruguaya del apoyo inter-hogares. Cuadernos de Economía, 30(54), 171-192. Jaime Torres, Mónica Marcela y Tudela, Alejandro M. (2011). Valuing a water recreation facility using semi parametric estimators in the travel cost method. Cuadernos de Economía, 30(55), 217-234. Lozano, Luis Ignacio (2011). Caracterización macro de la política fiscal en Colombia y postura frente a la crisis global (2008-2009). Cuadernos de Economía, 30(54), 49-82. Matallana, Hernando (2011). Mercantilismo, acumulación de capital y desarrollo económico en la economía monetaria de producción (nacional). Cuadernos de Economía, 30(55), 1-29. Mesa Salamanca, Camilo Andrés y Junca Rodríguez, Gustavo Adolfo (2011). Análisis de reducción de la fecundidad en Colombia. Modelo de determinantes próximos. Cuadernos de Economía, 30(54), 127-150. Muñoz Conde, Manuel y Pachón García, Nelson (2011). La calidad de vida y la situación de pobreza de la población desplazada (2008-2010). Cuadernos de Economía, 30(55), 179216. Ravier, Adrián (2011). Socialismo, cálculo económico y función empresarial. Cuadernos de Economía, 30(54), 281-297. Rivera-Sotelo, Aída-Sofía (2011). El utilitarismo de Jeremy Bentham ¿fundamento de la teoría de Leon Walras? Cuadernos de Economía, 30(55), 55-76. Sáenz Rovner, Eduardo (2011). Entre Carlos Lehder y los vaqueros de la cocaína. La consolidación de las redes de narcotraficantes colombianos en Miami en los años 70. Cuadernos de Economía, 30(54), 107-126. Seda-Irizarry, Ian J. (2011). Reseña del libro “Un resumen completo de El Capital de Marx”, de Diego Guerrero. Cuadernos de Economía, 30(55), 275-280. Uribe Gil, Jorge Mario y Ulloa Villegas, Inés María (2011). Revisando la hipótesis de los mercados eficientes: nuevos datos, nuevas crisis y nuevas estimaciones. Cuadernos de Economía, 30(55), 127-154.


298

Cuadernos de Economía, 30(55), julio - diciembre de 2011

ÍNDICE TEMÁTICO

Cuadernos de Economía Vol. XXX Nos. 54 y 55 ECONOMÍA COLOMBIANA Barrientos Marín, Jorge y Lotero Contreras, Jorge (2011). Evolución y determinantes de las exportaciones industriales regionales: evidencia empírica para Colombia (1977-2002). Cuadernos de Economía, 30(54), 21-48. Caicedo Marulanda, Carolina y Mora Rodríguez, Jhon James (2011). Comercio intraindustrial Colombia-Estados Unidos. El caso de los bienes altamente tecnológicos (1995-2005). Cuadernos de Economía, 30(54), 83-106. Lozano, Luis Ignacio (2011). Caracterización macro de la política fiscal en Colombia y postura frente a la crisis global (2008-2009). Cuadernos de Economía, 30(54), 49-82. Sáenz Rovner, Eduardo (2011). Entre Carlos Lehder y los vaqueros de la cocaína. La consolidación de las redes de narcotraficantes colombianos en Miami en los años 70. Cuadernos de Economía, 30(54), 107-126.

ECONOMÍA DE LA ENERGÍA Ciarreta, Aitor; Lagullón, Mónica y Zarraga, Ainhoa (2011). Modelación de los precios en el mercado eléctrico español. Cuadernos de Economía, 30(54), 227-250.

ECONOMÍA FINANCIERA Castro Fernández, Juan Carlos (2011). Fragilidad financiera y tasa de cambio. Cuadernos de Economía, 30(55), 155-177. Uribe Gil, Jorge Mario y Ulloa Villegas, Inés María (2011). Revisando la hipótesis de los mercados eficientes: nuevos datos, nuevas crisis y nuevas estimaciones. Cuadernos de Economía, 30(55), 127-154.

ECONOMÍA Y MEDIO AMBIENTE Jaime Torres, Mónica Marcela y Tudela, Alejandro M. (2011). Valuing a water recreation facility using semi parametric estimators in the travel cost method. Cuadernos de Economía, 30(55), 217-234.

ECONOMÍA Y OTRAS CIENCIAS Cendales, Andrés (2011). Pensando con Bourdieu contra Bourdieu: una crítica metodológica del mercado lingüístico. Cuadernos de Economía, 30(54), 193-226. Cortés Aguilar, Alexandra; Palacio García, Luis Alejandro y Rueda Sarmiento, Ronald Javier (2011). Actividades religiosas en Bucaramanga: una aproximación desde la economía. Cuadernos de Economía, 30(54), 151-170. Ferre, Zuleika (2011). Capital social y redes. Evidencia uruguaya del apoyo inter-hogares. Cuadernos de Economía, 30(54), 171-192.


Índices

299

Mesa Salamanca, Camilo Andrés y Junca Rodríguez, Gustavo Adolfo (2011). Análisis de reducción de la fecundidad en Colombia. Modelo de determinantes próximos. Cuadernos de Economía, 30(54), 127-150.

DESARROLLO ECONÓMICO Cabezas, Sergio Raúl; Laría, Patricia Inés y Rama, Verónica (2011). Industrialización y desindustrialización de Argentina en la segunda mitad del siglo XX. La paradójica validez de las leyes de Kaldor-Verdoorn. Cuadernos de Economía, 30(55), 235-272.

MACROECONOMÍA INTERNACIONAL Contreras-Reyes, Javier y Idrovo, Byron (2011). En busca de un modelo Benchmark univariado para predecir la tasa de desempleo. Cuadernos de Economía, 30(55), 105-125. Coronado Ramírez, Semei y Gatica Arreola, Leonardo (2011). Identificación de episodios de dependencia no lineal en el peso mexicano. Cuadernos de Economía, 30(55), 91-104. De Gregorio, José (2011). Acumulación de reservas internacionales en economías emergentes. Cuadernos de Economía, 30(55), 77-89.

TEORÍA ECONÓMICA Benítez Sánchez, Alberto (2011). Distribution, exploitation and profit rates. Cuadernos de Economía, 30(54), 1-20. Castañeda Rodríguez, Víctor Mauricio (2011). Reflexión acerca de la representación del agente en la teoría económica evolutiva: controversia entre las perspectivas ortodoxa y heterodoxa. Cuadernos de Economía, 30(55), 31-53. Matallana, Hernando (2011). Mercantilismo, acumulación de capital y desarrollo económico en la economía monetaria de producción (nacional). Cuadernos de Economía, 30(55), 1-29. Rivera-Sotelo, Aída-Sofía (2011). El utilitarismo de Jeremy Bentham ¿fundamento de la teoría de Leon Walras? Cuadernos de Economía, 30(55), 55-76.

RESEÑAS Y DEBATES Cante, Freddy y Ramírez, Verónica (2011). Hacia un cambio radical en la lógica del desarrollo. Cuadernos de Economía, 30(54), 253-280. Ravier, Adrián (2011). Socialismo, cálculo económico y función empresarial. Cuadernos de Economía, 30(54), 281-297. Seda-Irizarry, Ian J. (2011). Reseña del libro “Un resumen completo de El Capital de Marx”, de Diego Guerrero. Cuadernos de Economía, 30(55), 275-280.

VIOLENCIA Y ECONOMÍA Muñoz Conde, Manuel y Pachón García, Nelson (2011). La calidad de vida y la situación de pobreza de la población desplazada (2008-2010). Cuadernos de Economía, 30(55), 179216.


300

Cuadernos de Economía, 30(55), julio - diciembre de 2011

PARES ACADÉMICOS Para las ediciones 50 a 54, la revista Cuadernos de Economía ha contado con la colaboración de 188 docentes e investigadores como evaluadores anónimos de los artículos propuestos para publicación, de los cuales 24 (12, 77 %) hacen parte de la Universidad Nacional de Colombia, 93 (49, 47 %) participaron como evaluadores externos nacionales y 71 (37, 77 %) son evaluadores externos internacionales. EVALUADORES LOCALES (Universidad Nacional de Colombia) Álvaro Moreno Álvaro Zerda Sarmiento Carlos Martínez Becerra Claudia Nelcy Jiménez Fabio Humberto Nieto Francisco Javier Lozano Gustavo Junca Héctor Cárdenas Iván Alonso Montoya Iván Darío Hernández Jorge Iván Bula Jesús Alberto Delgado Juan Manuel Santiago Leonardo Duarte Liliana Chicaiza Mario García Mercedes Castillo Milena Hoyos Nohra León Rodríguez Oscar Arturo Benavides Raul Chamorro Santiago Medina H. Sergio Monsalve Gómez Víctor Manuel Gómez

Mg. en Economía Ph.D. en C. Económicas Ph.D. en Economía Ph.D. en C. Económicas Ph.D. en Estadística Mg. en Economía Mg. en Economía Mg. en Economía Agraria Mg. en Administración Ph.D. en Economía Ph.D. en Sociología Doctor en Cibernética Ph.D.(c) en C. Económicas Mg. en Estadística y Economía Ph.D. en Economía y Gestión de la Salud Ph.D. en Economía Ph.D.(c) en Urbanismo Mg. en Estadística Ph.D. en C. Económicas Ph.D. en Ciencias Económicas Ph.D. en Economía Ph.D. en Ciencias Económicas y Administrativas Ph.D. en Economía Ph.D. en Educación

ammorenor@unal.edu.co azerdas@unal.edu.co cmartinb@hotmail.com cnjimenezh@unal.edu.co fhnietos@unal.edu.co fjlozanog@unal.edu.co gajuncar@unal.edu.co hwcardenasm@unal.edu.co iamontoyar@unal.edu.co idhernandezu@unal.edu.co jibulae@unal.edu.co jadelgador@unal.edu.co jmsantiagop@bt.unal.edu.co serranias2002@yahoo.com lachicaizab@unal.edu.co mgarciamo@unal.edu.co mercedescastilloherrera@yahoo.es

nmhoyosg@unal.edu.co nleonr@unal.edu.co oabenavidesg@unal.edu.co rachamorro@yahoo.com smedina@unalmed.edu.co smonsalveg@unal.edu.co vmgomezc@unal.edu.co


301

Evaluadores

EVALUADORES EXTERNOS NACIONALES Adriana María Serrano Universidad del Rosario Adriana Camacho Universidad de los Andes Alejadro Arregoces Universidad de los Andes Alejadro Gaviria Universidad de los Andes Alejandro Vivas Universidad Javeriana Alex Smith Araque Escuela Colombiana de Ingeniería Alexander Cotte Poveda Universidad de la Salle Alexander Tobón Universidad de Antioquia Alexandra Cortés UIS Álvaro Riascos Villegas Universidad de los Andes Andrés Álvarez Universidad de los Andes Andrés Felipe García Universidad del Rosario Andrés Gómez León Universidad Jorge Tadeo Lozano Angela Cadena Universidad de los Andes Carlos Alberto Jaimes Universidad Jorge Tadeo Lozano Carlos Arturo Meza Carvajalino Universidad de la Salle Carlos Esteban Posada Banco de la República de Colombia Carlos Humberto Ortiz Universidad del Valle Carlos Julio Martínez Universidad Santo Tomás Carmen Astrid Romero Escuela Colombiana de Ingeniería Carmen Elisa Flórez Universidad de los Andes Catalina Granda Universidad de Antioquia Christian Jaramillo H. Universidad de los Andes Daniel Salinas Universidad de Antioquia Dario Maldonado Universidad del Rosario Darwin Cortés Universidad del Rosario David Bardey Universidad del Rosario

Mg. en Estudios del Desarrollo adserran@urosario.edu.co Ph.D. en Economía adcamach@uniandes.edu.co Mg. en Economía aarregoces@buengobierno.com Ph.D. en Economía agaviria@uniandes.edu.co Ph.D. en Economía avivas@javeriana.edu.co Mg. en Ciencias Económicas aaraque@gmail Mg. en Economía acotte@lasalle.edu.co Ph.D. en Ciencias Económicas atobon@economicas.udea.edu.co Ph.D.(c) en Economía alexacor@uis.edu.co Ph.D. en Economía Matemática ariascos@uniandes.edu.co Ph.D. en Economía ca.alvarez967@uniandes.edu.co Mg. en Economía andres.garcia66@urosario.edu.co Mg. en Ciencias Económicas andres.gomez@utadeo.edu.co Mg. en Ingeniería Eléctrica y Electrónica acadena@uniandes.edu.co Mg. en Ciencias Económicas carlos.jaimes@utadeo.edu.co Mg. en Economía cmeza@jupiter.lasalle.edu.co Mg. en Economía cposadpo@banrep.gov.co Ph.D. en Economía ortizc@univalle.edu.co Ph.D. en Economía y Sociedad cmartinb@hotmail.com Ph.D. en Economía carmen.romero@escuelaing.edu.co Ph.D. en Economía cflorez@uniandes.edu.co Mg. en Ciencias Económicas catalina.granda_carvajal@uconn.edu Ph.D. en Economía chjarami@uniandes.edu.co Mg. en Economía jdsalinas@udea.edu.co Ph.D. en Economía dario.maldonadoca@urosario.edu.co Ph.D. en Economía darwin.cortes52@urosario.edu.co Ph.D. en Economía david.bardey@gmail.com


302

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Edgar David Serrano Universidad de Caldas Edwin López Universidad Jorge Tadeo Lozano Eduardo Sánchez Universidad Sergio Arboleda Eliana Rocío González Molano Banco de la República Elkin Argemiro Castaño Univ. Nacional de Colombia (Sede Medellín) Enrique López Enciso Banco de la República Enrique Montes U. Banco de la República Ernesto Cárdenas Universidad Externado Fabio Alberto Arias Universidad del Valle Fabio Giraldo UN HABITAT Colombia Fabio Sánchez Universidad de los Andes Fernando Jaramillo Mejía Universidad de los Andes Fernando Mesa Departamento Nacional de Planeación Francisco Thoumi Universidad del Rosario Freddy Cante Universidad del Rosario Gabriel Duque Min. de Indus., Comer. y Turismo Germán Nova Universidad Jorge Tadeo Lozano Germán Chaparro Universidad Central Hernando Zuleta González Universidad del Rosario Hernando Matallana Universidad de los Andes Jaime Sarmiento Espinel Universidad Militar Nueva Granada Jairo Guillermo Isaza University of Sussex Jairo Santander Universidad Central Jimena Hurtado Universidad de los Andes Jorge Alberto Restrepo Universidad Javeriana Jorge Andrés Rivera Pabón Universidad de Caldas Jorge Higinio Maldonado Universidad de los Andes Jorge Restrepo CERAC

Ph.D. en Ciencias Económicas edserrano@epm.net.co Mg. en Historia elopezri@gmail.com Mg. en Ciencias Económicas esanchez4@gmail.com Mg. en Finanzas y Econometría egonzamo@banrep.gov.co Mg. en Estadística elkincv@gmail.com Mg. en Economía elopezen@banrep.gov.co Mg. en Economía emonteur@banrep.gov.co Ph.D. en Economía ernycardenas@hotmail.com Mg. en Economia Ambiental y Recursos Naturales fa-arias@univalle.edu.co Mg. en Economía fabio.giraldo@undpaffiliates.org Ph.D. en Economía fasanche@uniandes.edu.co Ph.D. en Economía fjaramil@uniandes.edu.co Mg. en Economía fmesaparra@gmail.com Ph.D. en Economía fthoumi@urosario.edu.co Ph.D. en Economía fredy.cantema@urosario.edu.co Mg. en Economía gduque@mincomercio.gov.co Ph.D. en Economía german.nova@utadeo.edu.co Mg. en Ciencias Económicas gchaparroc@ucentral.edu.co Doctor en Economía y Empresa hernando.zuleta84@urosario.edu.co Mg. en Economía hmatalla@uniandes.edu.co Mg. en Economía jaime.sarmiento@umng.edu.co Mg. en Población y Desarrollo jgi21@sussex.ac.uk Ph.D.(c) en Política Públicas jsantandera@ucentral.edu.co Ph.D. en Ciencias Económicas jihurtad@uniandes.edu.co Ph.D. en Economía jarestrepo@javeriana.edu.co Ph.D.(c) en Geografía Aplicada e Investigación Avanzada jorgeandres.rivera@ucaldas.edu.co Ph.D. en Economía Agrícola Ambiental y del Desarrollo jmaldona@uniandes.edu.co Ph.D. en Economía jorge.restrepo@cerac.org.co


303

Evaluadores Jorge Villalobos Universidad de los Andes Jorge Barrientos Universidad de Antioquia José Félix Cataño Universidad de los Andes José Ignacio Uribe Universidad del Valle José Reyes Bernal Universidad de la Salle Juan Camilo Cárdenas Universidad de los Andes Juan Carlos Guataqui Universidad del Rosario Juan Daniel Oviedo Universidad del Rosario Juan Pablo Herrera Saavedra Universidad Javeriana Julián Francisco Bautista Universidad Central Juan Mauricio Ramírez Cortés Departamento Nacional de Planeación Juan Ricardo Perilla Departamento Nacional de Planeación Juan Tomás Sayago Gómez Universidad Central Luis Eduardo Girón Cruz Universidad Javeriana Luis Eduardo Arango Banco de la República de Colombia Luis Fernando Melo Velandia Banco de la República de Colombia Luis Hernando Gutiérrez Universidad del Rosario Luis Guillermo Vélez Universidad EAFIT María Luisa Eschenhagen UPB María del Pilar Castillo Universidad del Valle María Mercedes Arias Valencia Universidad de Antioquia Martha Baquero Universidad de los Andes Martha Misas Banco de la República Marta Juanita Villaveces Niño Universidad del Rosario Mauricio López González Universidad de Antioquia Miguel Urrutia Montoya Universidad de los Andes Miguel Espinosa Farfán Universidad de los Andes Mónica Roa Rodríguez Departamento Nacional de Planeación Nelson Lammoglia Universidad de los Andes

Ph.D. en Informática jvillalo@uniandes.edu.co Ph.D. en Economía jbarr@economicas.udea.edu.co Ph.D. en Ciencias Económicas jcatano@uniandes.edu.co Ph.D. en Ciencias Económicas josuribe@univalle.edu.co Ph.D. en Ciencias Económicas JRBERNALB@unal.edu.co Ph.D. Environmental and Resource Economics jccarden@uniandes.edu.co Ph.D. en Sociología jguataqu@urosario.edu.co Ph.D. en Economía jdoviedo@urosario.edu.co Magíster en Ciencias Economicas jpherrera@javeriana.edu.co Ph.D.(c) en Ciencias Sociales jbautistar@ucentral.edu.co Mg. en Economía aplicada jramirez@compite.ws Mg. en Ciencias Económicas jperilla@dnp.gov.co Mg. en Sistemas Complejos jsayagog@ucentral.edu.co Mg. en Economía Aplicada legiron@puj.edu.co Ph.D. en Economía Aplicada larangth@banrep.gov.co Mg. en Estadística lmelovel@banrep.gov.co Ph.D. en Economía lgutierr@urosario.edu.co Ph.D. en Economía Institucional lveleza2@eafit.edu.co Ph.D. en Estudios Latinoamericanos meschenhagend@ucentral.edu.co Ph.D.(c) en Economía macastil@univalle.edu.co Ph.D.en Salud Pública mariamav@tone.udea.edu.co Mg. en Economía mbaquero@uniandes.edu.co Mg. en Estadística Aplicada mmisasar@banrep.gov.co Mg. en Política Comparada mvillave@urosario.edu.co Mg. en Administración y Políticas Públicas malopez@economicas.udea.edu.co Ph.D. en Economía murrutia@uniandes.edu.co Mg. en Economía miguesp@uniandes.edu.co Doctora en Ciencias Matemáticas mroa@dnp.gov.co Ph.D.(c) en Ingeniería n-lammog@uniandes.edu.co


304

Cuadernos de Economía, 30(55), julio - diciembre de 2011 Néstor Garza Universidad del Norte Norman Maldonado Universidad Sergio Arboleda Oscar Alfonso Universidad Externado Orlando Gracia Fedesarrollo Rubén Darío Sepúlveda Universidad Pontificia Bolivariana Salomón Kalmanovitz Universidad Jorge Tadeo Lozano Santiago Gallón Universidad de Antioquia Samuel Jaramillo Universidad de los Andes Ximena Peña Universidad de los Andes

Mg. en Ciencias Económicas ngarza@uninorte.edu.co Mg. en Economía normanmva@gmail.com Ph.D. en Economía oscaruex@hotmail.com Mg. en Economía ogracia@fedesarrollo.org.co Mg. en Economía ruben.sepulveda@upbmonteria.edu.co Mg. en Economía salomon.kalmanovitz@utadeo.edu.co Ph.D.(c) en Matemáticas santiagog@udea.edu.co Mg. en Planificación y Administración del Desarrollo ejaramil@uniandes.edu.co Ph.D. en Economía xpena@uniandes.edu.co


305

Evaluadores

EVALUADORES EXTERNOS INTERNACIONALES Adrián Osvaldo Ravier (Argentina) Fundación Friedrich A. von Hayek Ainhoa Zárraga Alonso (España) Universidad del País Vasco Alejandro Fiorito (Argentina) Universidad Nacional de Lujan Alejandro Palafox Muñoz (México) Universidad de Quintana Roo Álvaro Hidalgo (Brasil) Universidade Federal de Pernambuco Andrea Vigorito (Uruguay) Universidad de la República Antonio M. Jaime Castillo (España) Universidad de Granada Antonio Rafael Peña Sánchez (España) Universidad de Cádiz Ariel Coremberg (Argentina) Universidad Nacional de la Plata Bárbara Díaz (USA) Universidad de California Benjamín García Páez (México) Universidad Nacional Autónoma de México Carlos Fonseca Hernández (México) Universidad Autónoma del Estado de México Carlos Moslares (España) Universidad Ramon Llull Carlos Eduardo Suprinyak (Brasil) Universidade Federal de Minas Gerais Cecilio R. Tamarit (España) Universitat de València David Harvie (Inglaterra) Universidad de Leicester David Khoudour-Castreras (Francia) OCDE David Nettleton (España) Universitat Pompeu Fabra Diego Saravia T (Chile) Banco Central de Chile Edith Klimovsky (México) UAM Elizabeth Bucacos (Uruguay) Banco Central de Uruguay Emilio Soria (España) Universitat de València Fábio Waltenberg (Brasil) Instituto de Estudos de Trabalho e Sociedade Fernando Borraz (Uruguay) Universidad de Montevideo Fernando Rodríguez López (España) Universidad de Salamanca Florencia López Boo (Estados Unidos) Inter-American Development Bank

Ph.D. en Economía Aplicada a_ravier@hayek.org.ar Ph.D. en Economía Aplicada ainhoa.zarraga@ehu.es Mg. En Economía alejandrofiorito@yahoo.com Maestro en Estudios Turísticos palafox@correo.uqroo.mx Mg. en Economía hidalgo@ufpe.br Ph.D. en Economía andrea@iecon.ccee.edu.uy Ph. D. en Economía amjaime@ugr.es Ph. D. en Economía rafael.pena@uca.es Ph. D. en Economía acorem@fibertel.com.ar Ph. D. en Economía bdiaz@eecs.berkeley.edu Ph. D. en Economía garpaez@servidor.unam.mx Ph.D. en Ciencias Sociales carlosfonsecahernandez@hotmail.com Ph. D. en Economía carles.moslares@iqs.edu Ph.D. en Economía suprinyak@cedeplar.ufmg.br Ph.D. en Economía Cecilio.Tamarit@uv.es Ph.D. en Economia d.harvie@le.ac.uk Ph.D. en Economia david.khoudourcasteras@sciences-po.org Ph.D. en Economia dnettlet@terra.es Ph.D. en Economia dsaravia@bcentral.cl Ph.D. en Ciencias Económicas ekb@correo.azc.uam.mx Ph.D. en Economia ebucacos@bcu.gub.uy PD. en Electricidad, Electrónica e Informática emilio.soria@uv.es Ph.D. en Economia waltenberg@iets.org.br Ph.D. en Economia fborraz@um.edu.uy Ph.D. en Economía Aplicada frodriguez@usal.es Ph.D. en Economia florencial@iadb.org


306

Cuadernos de Economía, 30(55), julio - diciembre de 2011

Francisco Javier Ortega Rossell (España) Ph.D. en Ciencias Económicas y Empresariales Universidad de Extremadura jortega@unex.es Gregorio Vidal (México) Ph.D. en Estudios Latinoamericanos Universidad Autónoma Metropolitana-Iztapalapa gvb@xanum.uam.mx Héctor Schargorodsky (Argentina) Mg. en Políticas culturales Universidad de Buenos Aires obscult@econ.uba.ar Heinz Kurz (Austria) Ph.D. en Economia University of Graz heinz.kurz@uni-graz.at Henry Mora Jiménez (Costa Rica) Ph.D. en Ciencias Económicas y Empresariales Universidad Nacional mde@una.ac.cr Ian J. Seda (USA) Ph.D.(c) en Economía Aplicada University of Massachusetts isedairi@econs.umass.edu J. Samuel Baixauli Soler (España) Ph.D. en Ciencias Económicas Universidad de Murcia sbaixaul@um.es Jaime Alonso-Carrera (España) Ph.D. en Ciencias Económicas Universidade de Vigo jalonso@uvigo.es Jonathan Molinet (México) Mg. en Políticas Públicas. Flacso molinet@flacso.edu.mx Jorge Miguel Streb (Argentina) Ph.D. en Economia Universidad del CEMA jms@cema.edu.ar José Aixalá Pastó (España) Ph.D. en Ciencias Económicas y Empresariales Universidad de Zaragoza jaixala@posta.unizar.es José Franciso Bellod Redondo (España) Ph.D. en Economía Universidad Politécnica de Cartagena bellodredondo@yahoo.com José Luis Molina (España) Ph.D. en Economia Universidad Autónoma de Barcelona joseluis.molina@uab.es José Gutiérrez Pérez (España) Ph.D. en Pedagogía Universidad de Granada jguti@ugr.es José Mourelle (Uruguay) Ph.D. en Economia Université catholique de Louvain mourellejose@yahoo.es Juan Manuel López Zafra (España) Ph.D. en Estadística Universidad Complutense de Madrid juanma-lz@ccee.ucm.es Juan Pablo Mateo Tomé (España) Ph.D. en Economia Universidad Complutense de Madrid jpmateotome@hotmail.com Juan Rafael Vargas (Costa Rica) Ph.D. en Economia Universidad de Costa Rica jrvargas@cariari.ucr.ac.cr Julio Andujar Scheker (R. Dominicana) Ph.D. en Economia Banco Central de la República Dominicana j.andujar@bancentral.gov.do Julio Herrera Revuelta (España) Ph.D. en Economia Universidad de Valladolid jherrera@eco.uva.es Laura Muñoz Garatachea (España) Ph.D. en Ciencias Matemáticas Universidad de Zaragoza lmunoz@unizar.es Leticia Hachuel (Argentina) Mg. en Estadística Aplicada Universidad de Zaragoza lhachuel@fcecon.unr.edu.ar Mario Herrera Ramos (México) Ph.D. en Economia Flacso mherrera@flacso.edu.mx Maritza Liliana Sotomayor Yalán (USA) Ph.D. en Economia Utah Valley University maritza.sotomayor@uvu.edu Matilde Mas (España) Ph.D. en Ciencias Económicas Universitat de València Matilde.Mas@uv.es


307

Evaluadores Matías Fontenla (México) University of New Mexico Marcelo Bucheli (USA) University of Illinois Mauricio Olavarria Gambi (Chile) Universidad de Chile Mariana Gerstenblüth (Urugauy) Universidad de la República Máximo Rossi (Uruguay) Universidad de la República Oral Williams (USA) FMI Pablo Abitbol (Alemania) Private Universität Witten/Herdecke Pablo Brañas (España) Universidad de Granada Pablo Ignacio Chena (España) Universidad Autónoma de Madrid Patricia Inés Laría (Argentina) Universidad Nacional del Comahue Paulo Jorge Reis Mourão (Portugal) Universidad de Minho Pedro Caldas Chadarevian (Brasil) Universidade Federal De São Carlos Pedro Rey Biel (España) Universitat Autònoma de Barcelona Rafael Boix Domenech (España) Universidad Autónoma de Barcelona Raúl Sánchez Fernandez-Bernal (España) Compañía Española de Financiación del Desarrollo (Cofides) Ricard Meneu (España) Fundación Instituto de Investigación en Servicios de Salud Ricardo Flores-Fillol (España) Universitat Rovira i Virgili Sandra Viviana Polania (Italia) Universidad de Siena Verónica Amarante (Uruguay) Universidad de la República Vicent Aragó Manzana (España) Universitat Jaume I Víctor Manuel Silva Echeto (Chile) Universidad de Playa Ancha Zuleika Ferre (Urugay) Universidad de la República

Ph.D. en Economía fontenla@unm.edu Ph.D. en Historia mbucheli@illinois.edu Ph.D. en Políticas Públicas molavarr@uchile.cl Ph.D. en Políticas Públicas mariana@decon.edu.uy Mg. en Economía Internacional mito@decon.edu.uy Ph.D. en Economia OWilliams2@imf.org Ph.D. (c) en Economia pablo.abitbol@uni-wh.de Ph.D. en Economia pbg@ugr.es Ph.D. Ciencias Económicas y Empresariales pablo.urbano@uam.es Mg. en Economia patricar@arnet.com.ar Ph.D. en Economia paulom@eeg.uminho.pt Ph.D. en Economia pedro-chadarevian@ufscar.br Ph.D. en Economia Pedro.Rey@uab.es Ph.D. en Economía rafael.boix@uab.es Ph.D. en Economía Internacional y Desarrollo raulsan1998@yahoo.es Ph.D. en Economía ricardme@tiscali.es Ph.D. en Economía ricardo.flores@urv.cat Ph.D. en Economia spolaniareyes@unisi.it Ph.D. (c) en Economia vero@iecon.ccee.edu.uy Ph.D. en Economía arago@cofin.uji.es Ph.D. en Estudios Culturales vsilva@upla.cl Mg. en Demografía y Estudios de Población zuleika@decon.edu.uy


ACERCA DE LA REVISTA CUADERNOS DE ECONOMÍA La revista Cuadernos de Economía es publicada semestralmente por la Escuela de Economía de la Facultad de Ciencias Económicas (Universidad Nacional de Colombia). Es una de las más antiguas del país en el área económica. Su primera edición se realizó durante el primer semestre de 1979. La revista tiene como objetivo divulgar, en el ámbito académico nacional e internacional, los avances intelectuales en teorías, metodologías y aplicaciones económicas, así como los resultados de investigaciones y trabajos especializados. Su público está integrado por académicos (investigadores, docentes y estudiantes universitarios), miembros de instituciones gubernamentales y de entidades privadas, que se ocupen del estudio de la teoría económica, la política económica, el desarrollo socioeconómico y otros temas de interés para la disciplina. Nuestra publicación emplea el sistema de evaluadores pares aplicando las normas de un arbitraje ciego, es decir, que tanto los evaluadores como los autores permanecen anónimos. Lo anterior, con el fin de garantizar la imparcialidad del concepto emitido. En caso de que exista una evaluación que recomiende la publicación del trabajo y otra que no, se recurrirá a un tercer árbitro. Los evaluadores son seleccionados de acuerdo con sus conocimientos en los tópicos cubiertos por cada artículo. La evaluación toma en cuenta aspectos como: la originalidad del contenido, el rigor conceptual, los aspectos metodológicos, la claridad y la coherencia, tanto en la argumentación como en la exposición, y la pertinencia de las conclusiones. El contenido de los artículos es responsabilidad de los autores y no compromete, de ninguna manera, a la revista o a la institución. El autor interesado en someter a evaluación una contribución, debe hacerla llegar a la revista, conforme a las especificaciones contempladas en las pautas para autores. Esta información se encuentra disponible al final de cada número y en el sitio web: http://www.ceconomia.unal.edu.co. La versión en pdf de los artículos puede ser consultada y descargada en el sitio http://www.ceconomia.unal.edu.co. Para la adquisición en formato físico de números anteriores, el interesado puede comunicarse con la dirección de la revista: Facultad de Ciencias Económicas, Edificio 310, primer piso, Universidad Nacional de Colombia; al correo electrónico revcuaeco_bog@unal.edu.co o al teléfono 3165000 extensión 12308.


PAUTAS PARA AUTORES La revista Cuadernos de Economía toma en consideración, para su publicación, contribuciones académicas inéditas, artículos de investigación, reportes y estudios de caso, ensayos, revisiones bibliográficas, críticas y reseñas analíticas de libros, en español, inglés, francés o portugués, que no hayan sido propuestos en otras revistas académicas. En caso de que se hayan presentado como documentos de trabajo, se debe incluir la referencia completa. Los textos deben ser un aporte al avance del conocimiento en las áreas económica, política, social, administrativa y demográfica. El (los) autor(es) debe(n) diligenciar un formato de recepción de artículos (que puede ser solicitado por correo electrónico o en la oficina de la revista) y enviarlo junto con el material a publicar y la(s) hoja(s) de vida actualizada(s) del autor (los autores), al siguiente correo electrónico: revcuaeco_bog@unal.edu.co. En el caso de los artículos publicables, se enviarán las evaluaciones al(los) autor(es) con el fin de que realice(n) los respectivos ajustes, si hay exigencia de ellos, en un período máximo de 1 mes. El Editor y el Consejo Editorial de Cuadernos de Economía son las instancias que deciden la publicación de las contribuciones. Es importante aclarar que el envío de material no obliga a realizar su publicación y que la tasa de rechazo de materiales sometidos a evaluación durante 2011 fue 42,5 %. El equipo de trabajo de la revista se compromete a mantener informado al (los) autor(es) durante las diferentes etapas del proceso editorial. La recepción de artículos se realiza durante todo el año.

NORMAS EDITORIALES 1. Los trabajos se enviarán en Latex o archivo de texto (Word para Windows o Ritch Text Formart) y deben cumplir con los siguientes requerimientos: una extensión entre 10.000 y 11.000 palabras incluyendo notas y referencias bibliográficas; espacio sencillo; letra Garamond tamaño 13; papel tamaño carta y márgenes de 3 cm. 2. Los datos sobre el autor se indicarán en nota al pie de página con asterisco: nombre del autor, profesión u oficio, nivel de estudios, empleo actual, lugar de trabajo y, obligatoriamente, su correo electrónico y dirección de correspondencia. 3. Debe incluirse un resumen en español y en inglés con una extensión de 100 palabras como máximo. Éste debe ser claro y proporcionar la información suficiente para que los lectores puedan identificar el tema del artículo. 4. Es necesario especificar cuatro o cinco palabras clave en español y en inglés, y cuatro o cinco códigos de clasificación de la nomenclatura JEL, la cual puede ser consultada en la siguiente dirección web: http://www.aeaweb.org/journal/jel_class_system.php. 5. El título del artículo debe ser explicativo y recoger la esencia del trabajo. 6. Se requiere que los cuadros, gráficas o mapas sean legibles, con las convenciones muy definidas, que se cite su fuente de información en la parte inferior y que se en-


7.

8. 9. 10.

11. 12. 13.

14.

15.

16.

17.

víen los archivos en los programas empleados para su elaboración (hoja de cálculo para cuadros, tablas y gráficos, e imagen para figuras o mapas). Se debe indicar la página en la que deben ser insertados o si se incluyen como anexos. Si se utiliza material protegido por copyright, los autores se hacen responsables de obtener la autorización escrita de quienes poseen los derechos. Los encabezamientos de cada sección se escribirán en negritas, alineados a la izquierda y en mayúscula sostenida. Los títulos de segundo nivel se escribirán en negritas, alineados a la izquierda, y combinando mayúsculas y minúsculas. Los títulos de tercer nivel irán en itálica, alineados a la izquierda, y combinando mayúsculas y minúsculas. Las ecuaciones deben estar numeradas de manera consecutiva y entre corchetes ([1], [2], [3] . . . ). Esta numeración debe estar alineada a la derecha de la página. Los símbolos matemáticos deben ser muy claros y legibles. Los subíndices y superíndices deben estar correctamente ubicados. Si el documento propuesto incluye citas textuales, es necesario seguir las siguientes indicaciones: si posee cinco líneas o menos irá precedida de dos puntos y entre comillas; si poseen más de cinco líneas se ubicará en un párrafo aparte, a 1 centímetro del borde izquierdo de la hoja, con letra Garamond tamaño 12 y alineado a la derecha. Las notas de pie de página serán, exclusivamente, de carácter aclaratorio o explicativo, no deben incluir referencias bibliográficas. Para emplear una sigla o una abreviatura se indicará su equivalencia completa y a continuación, entre paréntesis, el término que será utilizado en el resto del texto. Las referencias al interior del texto deben conservar el estilo autor-fecha (López, 1998). Cuando la referencia se hace textualmente, el número de la página de donde se tomó debe ir después de la fecha, separado por coma (López, 1998, 52), si incluye varias páginas (López 1998, 52-53) y en caso de varios autores (López et al., 1998). La bibliografía debe enlistar solamente las fuentes citadas en el trabajo, por lo tanto, la sección se titula Referencias bibliográficas y debe siguer estrictamente el estilo APA (American Psychological Association) (http://flash1r. apa.org/apastyle/basics/index.htm). El autor cede los derechos de publicación a la Escuela de Economía de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia. Cuadernos de Economía se reserva el derecho de publicación impresa, electrónica y de cualquier otra clase, en todos los idiomas. La revista puede realizar los cambios editoriales que considere pertinentes para dar al artículo la mayor claridad posible. Por lo tanto, se recomienda a los autores escribir con el mayor rigor, verificando la ortografía, empleando párrafos cortos y homogéneos, y utilizando, adecuadamente, los signos de puntuación. Excepcionalmente, es posible proponer la reproducción de textos difundidos en otros medios o que requieran traducción, siempre y cuando, no impliquen costos adicionales para la publicación.


CONCERNING CUADERNOS DE ECONOMÍA “Cuadernos de Economía” is published every six months by the Universidad Nacional de Colombia’s School of Economics (Economics’ Faculty). It is one of the oldest journals in Colombia in the area of economics; its first edition appeared during the first semester of 1979. The journal’s objective is to broadcast (within a national and international academic setting) intellectual advances regarding economic theory, methodology and applications, as well as the results of research and specialised work. We aim at contributing to the academic debate among national and regional scholars allowing a wide spectrum of competing theoretical approaches. Its public consists of academics (researchers, teachers and university students), members of government institutions and private entities interested in studying economic theory, economic policy, socioeconomic development and other topics of interest for the discipline. Our publication uses the system of peer evaluation, applying the norms regarding blind arbitration (i.e. both the evaluators and the authors remain anonymous). The foregoing guarantees the impartiality of the concept being put forward. The evaluators are selected according to their knowledge of the topics being covered by each article. Evaluation takes into account such aspects as: the originality of the content, conceptual rigor, methodological aspects, clarity and coherence in both the argument and how it is expressed and the pertinence of the conclusions. The content of an article is an author’s responsibility and does not commit the journal or the institution in any way. Any author interested in submitting a contribution to be evaluated must ensure that it reaches the journal conforming to the specifications laid down in the author guidelines. This information can be found at the end of each issue and on the journal’s web site: http://www.ceconomia.unal.edu.co. A PDF version of the journal’s articles can be consulted and downloaded from web site http://www.ceconomia.unal.edu.co. If one is interested in acquiring back numbers in physical format then one can get in touch with the journal directly at the following address: Facultad de Ciencias Económicas, Edificio 310,Universidad Nacional de Colombia; at the following e-mail address: revcuaeco_bog@unal.edu.co, or on telephone 3165000, extension 12308.


AUTHOR GUIDELINES Cuadernos de Economía takes into consideration, for possibly being published, unedited academic contributions, research articles, reports and case studies, essays, bibliographic reviews, criticism and analytical reports of books written in Spanish, English, French or Portuguese which have not been proposed for publication in other academic journals. If such material has been presented as a working document, then the complete reference must be included. The texts must make a contribution towards advancing knowledge in economic, political, social, administrative and demographic areas. Authors must fill in an article receipt form (which can be requested by e-mail or from the journal’s office) and sent together with the material to be considered for publication, plus their updated curriculum vitae, to the following e-mail address: revcuaeco_bog@unal.edu.co In case it is decided that an article is publishable, then the peer evaluations will be sent to the authors so that they can make the respective adjustments (if so requested) within a maximum period of 30 days. Cuadernos de Economía’s editorial committee is the final body deciding on whether contributions should be published. It should be stressed that simply sending material does not oblige the journal to publish it. The journal’s publication-team is committed to keeping authors informed during the different stages of the publishing process. Articles will be received throughout the whole year.

EDITORIAL NORMS 1. Work must be sent in a Latex or text file (Word for Windows (.doc) or Rich Text Format (.RTF)) and must comply with the following requirements: material must contain 10,000 to 11,000 words including notes and bibliographic references, be written in single space, Garamond font size 13, on letter-sized pages having 3 cm margins. 2. Data concerning the authors must be indicated in footnotes by an asterisk: author’s names, profession or job, level of studies, actual post held, place of work and (obligatorily) their e-mails and their address. 3. A summary in written in Spanish and English must be included, containing a maximum of 100 words. The summary must be clear and provide sufficient information for the readers to be able to easily identify the article’s subject. 4. Four or five key words must be given in Spanish and English and four or five classification codes using JEL nomenclature which can be consulted at the following web site: http://www.aeaweb.org/journal/jel_class_system.php. 5. The article’s title must be explanatory and illustrate the essence of the work. 6. Tables, graphs, plots and/or maps must be legible, having very clearly defined conventions; source information must be cited in the lower part of them and the files must be sent in the programmes used for drawing them (spreadsheet for tables, plots


7.

8.

9. 10.

11. 12.

13.

14.

15.

16.

17.

and graphs, and image for figures or maps). The page on which they must be inserted or whether they should be included as appendices must be clearly indicated. If material which is protected by copyright is to be used, then the authors are solely responsible for obtaining written authorisation from those who hold the rights. The headings for each section must be written in bold, aligned to the left and in sustained capitals. Second level titles must be written in bold, aligned to the left and combine capital and small case letters. Third level titles must be written in italics, aligned to the left and combine capital and small case letters. Equations must be numbered in a consecutive manner and be placed within square brackets ([1], [2], [3] . . . ). Such numbering must be aligned with the right-hand side of the page. Mathematical symbols must be clear and legible. Subscript and superscript must be correctly used. If the proposed document should include textual citation, then the following indications should be followed: if the quotation has five lines or less then it must be preceded by a colon and be placed within inverted commas; if the quotation runs for more than five lines then it must be placed in a separate paragraph, 1 centimetres from the left-hand edge of the page, in Garamond font size 12 and aligned to the right. Footnotes will be exclusively explanatory or explicative; they must not include bibliographic references. If an abbreviation or acronym is to be used then it must indicate its complete equivalent and the term (placed within brackets) which will be used from that point on in the rest of the document. Bibliographic references must retain the author-date style, inserted within the text (López, 1998). When a reference is given textually then the number of the page from which it was taken must be given after the date, separated by a comma (López, 1998, 52), if it includes several pages (López, 1998, 52-53) and in the case of several authors (López et al., 1998). The bibliography must only list the sources cited in the work; the section is thus entitled Bibliographic References. Examples of the norms for citing other work as used by the journal are the rules of APA Style: (http://flash1r. apa.org/apastyle/basics/index.htm). All authors cede their publication rights to the Universidad Nacional de Colombia’s School of Economics (Economics’ Faculty). Cuadernos de Economía reserves printed and electronic publication rights and any other type of rights, in all languages. The journal reserves the right to make any editorial changes which it considers pertinent for providing an article with the greatest clarity possible. It is thus recommended that authors write with the greatest rigor, verifying their spelling, use short, homogeneous paragraphs and use punctuation marks correctly. Exceptionally, it may be proposed that texts be reproduced which have been broadcast in other media or which require translation, always assuming that this does not imply any additional publication costs.


À PROPOS DE LA REVUE CUADERNOS DE ECONOMÍA La revue Cuadernos de Economía est semestriellement publiée par l’École d’Économie de la Faculté de Sciences Économiques (Université Nationale de Colombie). C’est l’une des plus anciennes du pays dans le domaine économique. Sa première édition a été réalisée pendant le premier semestre de 1979. La revue a l’objectif de divulguer, dans l’enceinte académique nationale et internationale, les avances intellectuelles dans des théories, des méthodologies et des applications économiques, ainsi que les résultats de recherches et de travaux spécialisés. Son public est composé par les académiciens (chercheurs, enseignants et étudiants universitaires), les membres d’institutions gouvernementales et d’entités privées qui s’occupent de l’étude de la théorie économique, de la politique économique, du développement socioéconomique et d’autres sujets d’intérêt pour la discipline. Notre publication emploie le système de paires évaluateurs en appliquant les normes d’un arbitrage aveugle, c’est-à-dire, que tant les évaluateurs comme les auteurs restent anonymes. Le précédent, afin de garantir l’impartialité du concept émis. Les évaluateurs sont choisis conformément à leurs connaissances dans les sujets couverts par chaque article. L’évaluation prend en compte des aspects comme : l’originalité du contenu, la rigueur conceptuelle, les aspects méthodologiques, la clarté et la cohérence, tant dans l’argumentation comme dans l’exposé, et la pertinence des conclusions. Le contenu des articles est responsabilité des auteurs et il ne compromet, d’aucune manière, à la revue ou à institution. L’auteur intéressé à soumettre à évaluation une contribution, doit la faire arriver à la revue, conforme aux spécifications contemplées dans les paramètres pour les auteurs. Cette information est disponible à la fin de chaque numéro et dans le site web http ://www.ceconomia.unal.edu.co. La version en pdf des articles peut être consultée et être déchargée dans le site web : http ://www.ceconomia.unal.edu.co. Pour l’acquisition dans un format physique de numéros précédents, l’intéressé peut s’adresser à la revue : Facultad de Ciencias Económicas, Edificio 310, Universidad Nacional de Colombia ; ou à la boîte mail : revcuaeco_bog@unal.edu.co ou au téléphone 3165000 extension 12308.


PARAMETRES POUR LES AUTEURS La revue Cuadernos de Economía prend en considération, pour sa publication, de contributions académiques inédites, d’articles d’investigation, de rapports et études de cas, d’essais, de révisions bibliographiques, de critiques et des descriptions analytiques de livres, en Espagnol, en Anglais, en Français ou en portugais, qui n´aient pas été proposés dans d´autres revues académiques. Au cas où ils se sont présentés comme documents de travail, il faut inclure la référence complète. Les textes doivent contribuer à l´avancée de la connaissance dans les domaines économique, politique, social, administratif et démographique. L´auteur doit remplir un formulaire de réception d’articles (qui peut être demandé par courrier électronique ou dans le bureau de la revue) et l’envoyer avec le matériel à publier et le son CV mise à jour, au courrier électronique suivant : revcuaeco_bog@ unal.edu.co. Dans le cas des articles à publier, les évaluations seront envoyées aux auteurs pour qu´ils puissent réaliser les ajustements respectifs, s’il y a exigence de d’eux, dans un délai maximum de 30 jours. L´Editor et le Conseil d’Edition de Cuadernos de Economía sont les instances qui prend la décision de publier les contributions. Il est important de clarifier que l’envoie de matériel n’oblige pas à effectuer son publication. L’équipe de travail de la revue se engage à maintenir informé au (aux) auteur (s) pendant les différentes étapes du processus éditorial. La réception des articles se fait tout au long de l´année.

NORMES ÉDITORIALES 1. Les travaux seront envoyés en fichiers Latex ou de texte (Word pour Windows ou Ritch Text Formart) et doivent remplir les demandes suivantes : une dimension entre 10.000 et 11.000 mots en incluant des notes et des références bibliographiques ; l’interligne simple ; lettre Garamond taille 13 ; papier lettre et marges de 3 cm. 2. Les données sur l’auteur seront indiquées en note de bas de page avec un astérisque : nom de l’auteur, son occupation ou office, le niveau d’études, l’emploi actuel, le lieu de travail et, obligatoirement, son courrier électronique. 3. On doit inclure un résumé en Espagnol et en Anglais de 100 mots au maximum. Celui-ci doit être clair et fournir l’information suffisante pour que les lecteurs puissent identifier le sujet de l’article. 4. Trois ou quatre mots clés en Espagnol et en Anglais, et trois ou quatre codes de classification de la nomenclature JEL, laquelle peut être consultée dans le site web : http ://www.aeaweb.org/journal/jel_class_system.php. 5. Le titre de l´article doit être explicite et recouvrir l´essentiel du travail. 6. On requiert que les tableaux, les graphiques ou les cartes soient lisibles, avec les conventions très définies, qu’on cite sa source dans la partie inférieure et que soient envoyés dans les programmes employés pour leur élaboration (feuille de calcul pour


7.

8. 9. 10.

11. 12. 13.

14.

15.

16.

17.

les tableaux et les graphiques, et d’image pour les figures ou les cartes). On doit indiquer la page dans laquelle ils doivent être insérés ou s’ils sont inclus comme annexes. Si on utilise du matériel protégé par copyright, les auteurs seront les responsables d’obtenir l’autorisation écrite de ceux qui possèdent les droits. Les entêtes de chaque section seront écrits dans des caractères gras, alignés à gauche et en lettres capitales. Les titres de second niveau seront écrits dans des caractères gras, alignés à gauche, et en combinant de lettres capitales et minuscules. Les titres de troisième niveau iront dans itálica, alignés à gauche, et en combinant de lettres capitales et minuscules. Les équations doivent être numérotées de manière consécutive et dans des crochets ([1], [2], [3] . . . ). Cette numération doit être alignée à droite. Les symboles mathématiques doivent être très clairs et lisibles. Les indices doivent être correctement placés. Si le document proposé inclut de cites textuelles, il est nécessaire de suivre les indications suivantes : s’il possède cinq lignes ou moins il sera précédée de deux points et ira entre des guillemets ; s’ils possèdent plus de cinq lignes se placera dans un paragraphe à part, à 1 centimètres du bord gauche de la feuille, avec lettre Garamond taille 13 et aligné à la droite. Les notes de bas de page seront, exclusivement, de caractère explicatif, elles ne doivent pas inclure des références bibliographiques. Pour employer un sigle ou une abréviation on indiquera son équivalence complète et ensuite, entre parenthèses, le terme qui sera utilisé dans le reste du document. Les références bibliographiques doivent conserver le style auteur-date, insérées dans le texte (López, 1998). Quand la référence est faite de façon textuelle, le numéro de la page d´où est tiré l´extrait doit être mentionné après la date, séparé par une virgule (López, 1998, 52), si elle comprend plusieurs pages (López, 1998, 52-53), et dans le cas où il y aurait plusieurs auteurs (López et al., 1998). La bibliographie ne doit mentionner que les sources citées dans le texte, pour cette raison la section s´intitule Références bibliographiques. Les normes de citation employées par la revue sont celles de l’American Psychological Association (APA) : (http ://flash1r.apa.org/apastyle/basics/index.htm). L’auteur cède les droits de publication à la Escuela de Economía de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia. Cuadernos de Economía se réserve le droit de publication en papier, électronique et de tout autre classe, dans toutes les langues. La revue peut effectuer les changements éditoriaux qu’elle considère pertinents pour donner à l’article la plus grande clarté possible. Par conséquent, on recommande aux auteurs d’écrire avec la plus grande rigidité, vérifiant l’orthographie, employant de paragraphes courts et homogènes, et utilisant, adéquatement, les signes de ponctuation. Exceptionnellement, il est possible de proposer la reproduction de textes diffusés dans d’autres moyens ou qui requièrent d’une traduction, pourvu qu’ils n’impliquent pas de coûts additionnels pour la publication.


ASESORES EXTERNOS COMITÉ CIENTÍFICO Edith Klimovsky Ph. D. en Ciencias Económicas Universidad Autónoma Metropolitana de México Marla Ripoll Ph. D. en Economía Universidad de Pittsburgh José Manuel Menudo Ph. D. en Economía Universidad Pablo de Olavide Fábio Waltenberg Ph. D. en Economía Universidade Federal Fluminense de Rio de Janeiro Philippe De Lombaerde Ph. D. en Economía y Economía aplicada Instituto de la Universidad de la Naciones Unidas para los Estudios Comparados sobre Integración Regional (UNU-CRIS) Mauricio Pérez Salazar Economista Universidad Externado de Colombia Equipo Editorial Jenny Paola Lis Gutiérrez Editora asociada Corrección de estilo en español Diagramación en LaTeX Juan Carlos García Sáenz Coordinador Editorial Andrea Kratzer M. Diseño de carátula Nathalie Jiménez Millán Desarrollo de plantilla en Latex Carlos Andrés Páez Corrección de estilo en inglés Traducción resúmenes en inglés Andrés Álvarez Traducción resúmenes en francés Impresión y acabados Proceditor LTDA Tel. 2204275, Bogotá D. C. Indexación, resúmenes o referencias en SCOPUS EBSCO Publindex - Categoría A2 - Colciencias SciELO - Scientific Electronic Library Online - Colombia SciELO Social Sciences - Brasil RePEc - Research Papers in Economics SSRN - Social Sciences Research Network EconLit - Journal of Economic Literature IBSS - International Bibliography of the Social Sciences PAIS International - CSA Public Affairs Information Service CLASE - Citas Latinoamericanas en Ciencias Sociales y Humanidades Latindex - Sistema regional de información en línea HLAS - Handbook of Latin American Studies DOAJ - Directory of Open Access Journals CAPES - Portal Brasilero de Información Científica CIBERA - Biblioteca Virtual Iberoamericana España / Portugal DIALNET - Hemeroteca Virtual Ulrich's Directory DOTEC - Documentos Técnicos en Economía - Colombia LatAm-Studies - Estudios Latinoamericanos Cuadernos de Economía vol. XXX No. 55 (Junio - Diciembre de 2011) Universidad Nacional de Colombia Carrera 30 No. 45-03, Edificio 310, primer piso E-mail: revcuaeco_bog@unal.edu.co Página web: www.ceconomia.unal.edu.co Teléfono. (571)3165000 ext. 12308, AA. 055051, Bogotá D.C., Colombia El material de esta revista puede ser reproducido citando la fuente. El contenido de los artículos es responsabilidad de sus autores y no compromete de ninguna manera a la Escuela de Economía, ni a la Facultad de Ciencias Económicas, ni a la Universidad Nacional de Colombia.


55

CUADERNOS DE ECONOMÍA

CONTENIDO

HERNANDO MATALLANA Mercantilismo, acumulación de capital y desarrollo económico en la economía monetaria de producción (nacional) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 VÍCTOR MANUEL CASTAÑEDA RODRÍGUEZ Reflexión acerca de la representación del agente en la teoría económica evolutiva: controversia entre las perspectivas ortodoxa y heterodoxa . . . . . . . . . . . . . . . . . . . . . . . . . 31 AÍDA-SOFÍA RIVERA-SOTELO El utilitarismo de Jeremy Bentham ¿fundamento de la teoría de Leon Walras? . . . . . . . . . . . 55 JOSÉ DE GREGORIO Acumulación de reservas internacionales en economías emergentes . . . . . . . . . . . . . . . . . . . 77 SEMEI CORONADO RAMÍREZ Y LEONARDO GATICA ARREOLA Identificación de episodios de dependencia no lineal en el peso mexicano. . . . . . . . . . . . . . . 91 JAVIER CONTRERAS-REYES Y BYRON IDROVO En busca de un modelo Benchmark Univariado para predecir la tasa de desempleo de Chile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 JAVIER CONTRERAS-REYES Y BYRON IDROVO Revisando la hipótesis de los mercados eficientes: nuevos datos, nuevas crisis y nuevas estimaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 JUAN CARLOS CASTRO FERNÁNDEZ Fragilidad financiera y tasa de cambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 MANUEL MUÑOZ CONDE Y NELSON PACHÓN GARCÍA La calidad de vida y la situación de pobreza de la población desplazada (2008-2010) . . . . 179 MÓNICA MARCELA JAIME TORRES Y ALEJANDRO M. TUDELA ROMÁN Valuing a water recreation facility using semi parametric estimators in the travel cost method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. 217 SERGIO RAÚL CABEZAS, PATRICIA INÉS LARÍA Y VERÓNICA RAMA Industrialización y desindustrialización de Argentina en la segunda mitad del siglo XX. La paradójica validez de las leyes de Kaldor-Verdoorn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 RESEÑAS Y DEBATES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 ISSN 0121-4772

E-ISSN 2248-4337


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.