Page 1

7 Nación

Colombia sin normatividad de patrimonio paleontológico

14 Ciencia

Nuevo indicador para conocer edad del feto

17 Investigación

El bocachico, la corvina y la dorada están desapareciendo.

23 Cultura

Archivos ciudadanos de América Latina

http://www.unperiodico.unal.edu.co • un_periodico@unal.edu.co Bogotá D.C. No. 120, domingo 8 de marzo de 2009

Primer radar láser hecho por colombianos La Universidad Nacional de Colombia en Medellín presentó el primer radar láser hecho por colombianos. Se trata de una tecnología de última generación con múltiples campos de aplicación, en particular, el estudio de la atmósfera terrestre. Con este avance, los científicos de la UN realizarán un

modelo de evaluación de la calidad del aire en 3D, y contribuirán al entendimiento de la dinámica de partículas atmosféricas respecto a los complejos procesos de generación, transporte y destrucción de ozono en esta zona tropical.

Pág. 12

PÉRDIDA DE CALCIO EN LOS HUESOS

BOGOTÁ SUFRE DE OSCURECIMIENTO

Un grupo de investigadores descubrió una manera rápida y de bajo costo, útil para estudiar cómo se pierde calcio en los huesos. La técnica será de gran utilidad para múltiples investigaciones en temas como la calidad de los nuevos materiales que se vienen utilizando para reemplazar hueso, entre otros.

Puente Aranda, Chapinero y Fontibón son las zonas más afectadas en Bogotá por el llamado oscurecimiento global que está causando una variación en el comportamiento del clima, representada en altas temperaturas.

11

21

Unimedios

Publicación de la Universidad Nacional de Colombia • ISSN 1657-0987


 Economía Ramón Javier Mesa Callejas, Docente de Cátedra, Universidad Nacional de Colombia en Medellín Director Centro de Investigaciones y Consultorías Económicas Universidad de Antioquia

Domingo 8 de marzo de 2009

Las reservas internacionales netas a diciembre de 2008 habían crecido US$ 3.088 millones con respecto al mismo periodo de 2007; el sistema financiero siguió obteniendo un importante nivel de utilidades (10.8 billones en el 2008); las exportaciones mantuvieron un ritmo creciente excepto en noviembre cuando se frenó su tendencia y comenzaron a caer; las remesas siguieron en aumento aunque a un menor ritmo que en los años anteriores (en el 2008 crecieron US$ 332 millones mientras que en el 2007 aumentaron US$ 603 millones); los términos de intercambio se mantuvieron en niveles altos en momentos en que la demanda externa todavía no se había afectado por la crisis internacional y por último, la Inversión Extranjera Directa en Colombia –IED– en 2008 había crecido en US1.637 millones con respecto al 2007. Ante lo anterior, los datos nos ayudan a comprender que las razones por las cuales se viene desacelerando la actividad económica en Colombia no provienen de manera directa de la crisis externa, básicamente, son el resultado de factores internos asociados con el debilitamiento del ciclo expansivo de la construcción, la inflación combinada de costos y de demanda y la menor disposición de gasto por parte de los hogares y de las firmas que afectó negativamente a sectores claves como la industria y el comercio (la Andi anunció recientemente que la industria colombiana en 2008 entró en una recesión técnica). En el caso de los hogares, la caída en el consumo es el resultado del deterioro del mercado laboral como consecuencia de la pérdida de empleos en los sectores productivos tradicionales, especialmente, por la fuerte contracción del empleo industrial que presentó una caída de 4,1 por ciento en el 2008 y que contribuyó significativamente al crecimiento de la tasa de desempleo nacional con un promedio de 11,3 por ciento. Otro hecho que viene marcando la disminución

Crisis externa y desaceleración

de la

economía colombiana

Algunos analistas en el país sostienen la hipótesis de que el proceso de desaceleración económica que se viene observando desde el año pasado en Colombia es consecuencia directa de la crisis económica mundial promovida por EE.UU. desde mediados de 2007 y potencializada por la crisis del mercado financiero en ese país.Sin embargo, a juzgar por el desempeño de algunos indicadores líderes asociados con los fundamentales de la economía colombiana en el 2008, todavía no habíamos comenzado a sentir el peso devastador de esta crisis.

del consumo y el menor crecimiento de la inversión productiva corresponde al impacto negativo de la inflación sobre la capacidad adquisitiva de las familias y las ventas de las empresas. Al cierre de 2008, la tasa de inflación registró un nivel de 7,7 por ciento, más de 3 puntos por encima de la meta establecida por el Banco de la República, que por segundo año consecutivo no logró cumplir con sus objetivos antiinflacionarios.

La crisis de 2009 En términos generales, podría señalarse que los impactos significativos de la crisis externa ya comenzaron a sentirse en este arranque de 2009 y se podrán acrecentar durante el resto del año. Una prueba es la manera vertiginosa como se viene depreciando el peso, que en lo que va del año ya acumula una devaluación nominal del 14 por ciento. Las causas de esto se

concentran en tres hechos importantes: la incertidumbre generada en el plan de rescate de la economía norteamericana, la profunda recesión que viven los países industrializados y la fuerte caída de los precios de las materias primas, de manera especial, el petróleo. Los costos de esta mayor devaluación se van a sentir en varios frentes: (1) la presión sobre la tasa de inflación por el lado de una mayor inflación de costos

debido al aumento en pesos de las importaciones de insumos y bienes de capital; (2) el efecto asociado con los mayores costos financieros que aumenta la deuda como porcentaje del PIB y (3) las menores perspectivas de mantener bajas tasas de interés. De otra parte, el efecto positivo de la devaluación de aumentar las exportaciones, probablemente se va a diluir a raíz de la fuerte contracción de la demanda externa.

Director: Luis Alberto Restrepo

Editor general: Carlos Alberto Patiño Villa Editor de contenido: Luz Adriana Pico Maffiold Comité editorial: Jorge Echavarría Carvajal � Egberto Bermúdez � Paul Bromberg � Alexis de Greiff � Fabián Sanabria Coordinación gráfica y diagramación: Ricardo González Angulo Corrección de estilo: Diana Sánchez Saray Fotografía: Víctor Manuel Holguín � Andrés Felipe Castaño Diseño e impresión: CEET, Casa Editorial El Tiempo Las opiniones expresadas por los autores y sus fuentes no comprometen los principios de la Universidad Nacional ni las políticas de UN Periódico

Página web: http://www.unperiodico.unal.edu.co Versión Internet: UNDigital Correo electrónico: un_periodico@unal.edu.co Teléfonos: 316 5348 - 316 5000 extensión: 18384 / Fax: 316 5232 Edificio Uriel Gutiérrez Carrera 45 Nº 26-85, piso 5º. ISNN1657-0987


la que se espera en el resto de países de la región que sufrirán un bajonazo más fuerte, de todos modos, la menor IED limitará el desempeño de la actividad económica doméstica que en los últimos años fue importante como dinamizadora de la producción.

Anunciada desaceleración A manera de conclusión, las perspectivas de la economía colombiana en el 2009 parecen confirmar que la desaceleración seguirá de acuerdo con la evolución esperada del PIB (probablemente estaría por debajo del 2,5 por ciento). Sin duda, esta tasa es muy baja y preocupante si se tiene en cuenta que hace apenas dos años la economía estaba creciendo a un nivel cercano al 8 por ciento. Los factores que explican este pobre desempeño van de la mano de la recesión generalizada de la economía mundial y del fuerte descenso del precio de las materias primas. De igual forma, el debilitamiento de la demanda interna seguirá en la medida que se profundice la recesión en la industria y se acentúen los riesgos inflacionarios (a pesar de que el mercado percibe unas menores expectativas de inflación en

el mediano plazo). Si a lo anterior le sumamos la incertidumbre laboral y el deterioro del mercado de trabajo, esto se convierte en un freno a la recuperación del consumo y la inversión, no solo porque se acrecienta la restricción de crédito, sino también por la mayor carga financiera que enfrentan los hogares y las empresas.

Retos Frente a este panorama, el papel de las autoridades económicas y el gobierno será clave para

transmisión de costos que termine por comprometer los objetivos inflacionarios en el 2009. El Banco de la República insiste como el año anterior en una meta de inflación concentrada en un rango entre 4,5 y 5,5 por ciento. De la misma manera, la política monetaria será importante para mantener las condiciones de liquidez de la economía y con ello evitar un rápido descenso de la inversión productiva. Y en el caso del gobierno, a pesar del desempeñó aceptable de las finanzas públicas en el 2008, asocia-

ta a un crecimiento del déficit del gobierno central (3 por ciento del PIB) por la caída en los ingresos tributarios y el incremento en los gastos. De esta forma, los grados de libertad de la política fiscal para enfrentar la crisis y contrarrestar la desaceleración, al parecer estarán bastante limitados por el efecto expansivo que sobre el gasto del gobierno pueden producir las medidas económicas que se implementen. Sin embargo, así se imponga la estrategia de mantener la prudencia fiscal, el plan de inversión pública

Los costos de esta mayor devaluación se van a sentir en varios frentes: (1) la presión sobre la tasa de inflación por el lado de una mayor inflación de costos debido al aumento en pesos de las importaciones de insumos y bienes de capital; (2) el efecto asociado con los mayores costos financieros que aumenta la deuda como porcentaje del PIB y (3) las menores perspectivas de mantener bajas tasas de interés. De otra parte, el efecto positivo de la devaluación de aumentar las exportaciones, probablemente se va a diluir a raíz de la fuerte contracción de la demanda externa. tratar de moderar los impactos negativos de la crisis y la desaceleración. Por ejemplo, del lado del Emisor, este deberá estar pendiente de lo que siga sucediendo con la tasa de cambio, evitando que de la devaluación del peso se genere una excesiva

do con el comportamiento favorable de los recaudos tributarios por el lado de los elevados ingresos petroleros, la situación para el 2009 no será fácil por lo que se espera suceda con la inflación, el PIB, la tasa de cambio y el precio del crudo. Ante esto, todo apun-

a través del aumento del gasto en infraestructura ($55,0 billones en el 2009 que representan el 10,7 por ciento del PIB), aumentará los desequilibrios fiscales, a menos que se vea acompañada de una estrategia diferente a los mecanismos de financiación tradicional.

Domingo 8 de marzo de 2009

En suma, la magnitud de la crisis externa que ya sobrepasó todo tipo de estimaciones y que dejó de estar relacionada solo con la recesión en los Estados Unidos, corresponde a la mayor debilidad de la economía mundial desde la depresión de los años 30. Hoy, las últimas proyecciones del FMI sobre el comportamiento de la economía global señalan un crecimiento esperado en el 2009 del producto mundial de apenas 0,5 por ciento, frente a una tasa de 3,4 por ciento que se pudo alcanzar en el 2008. De acuerdo con esto, una manera sencilla de entender los impactos de la crisis sobre la economía colombiana parte por comprender los mecanismos de transmisión que nos hacen vulnerables ante tal situación. En este sentido, el contagio a nuestra economía en el 2009 se podrá observar a partir de dos mecanismos importantes, uno asociado con el desempeño del comercio internacional y las remesas, y el otro, derivado de la dinámica de los mercados financieros. Con respecto al primero, se estima un debilitamiento de las exportaciones hacia mercados importantes como Estados Unidos y Venezuela, lo cual podría aumentar el déficit en la balanza comercial en 2,6 por ciento del PIB (en el 2008 se alcanzó un superávit de 0,7 por ciento del PIB). Por su parte, el Banco de la República estima un decrecimiento entre el 6 y 10 por ciento para el 2009 de las remesas, en vista del deterioro que vienen presentando los indicadores laborales en los Estados Unidos y en España, por la reducción sistemática en la creación neta de empleos y el aumento significativo de la tasa de desempleo que está afectando a los trabajadores colombianos residentes en estos países. Por su parte, por la vía financiera, la inestabilidad de los flujos de capitales hace probable que se presente una reducción de los montos de IED, se estima que para el 2009 ésta alcance una cifra cercana a los US$7.000 millones, frente a los US$ 9.500 millones de 2008. Si bien esta reducción es menor a



Fotos AFP

Economía


Julie Massal,

Domingo 8 de marzo de 2009

Profesora Asistente Instituto de Estudios Políticos y Relaciones Internacionales, IEPRI Universidad Nacional de Colombia

En la nueva Constitución boliviana se promueve un Estado plurinacional unitario y social y el socialismo comunitario. Según el gobierno, la nueva Constitución debe “refundar la nación”. Sin embargo, esta ha sido objeto de fuertes críticas por parte de la oposición, haciendo dudoso que el conflicto político y las divisiones regionales se resuelvan. Al contrario, las fuertes reacciones que ha generado la Constitución en la oposición demuestran que esta sí altera las bases sociales y culturales de la nación boliviana sin resolver los viejos sesgos étnicos, regionales y económicos. En efecto, el tema de la autonomía permea el debate político sobre la Constitución: si bien el “sí” ganó en cinco de los nueve departamentos de Bolivia, el “no” predominó en los cuatro departamentos autonomistas de la “media luna” (Pando, Beni, Santa Cruz y Tarija), donde existe una fuerte oposición al gobierno de Morales. Estos departamentos son los mejor dotados en recursos estratégicos como el gas. Por ende, es determinante ver cómo se organizarán concretamente los cuatro niveles de autonomía establecidos por la Constitución: municipal, regional, departamental e indígena. Es de destacar la poca claridad del texto constitucional al respecto, lo que hace imprescindible la aprobación de textos complementarios tales como: la Ley Marco para las Autonomías y la Descentralización, que serán elaborados por la Asamblea Legislativa Plurinacional, a elegirse el próximo mes de diciembre. Mientras tanto, queda postergada la solución al tema de las autonomías. En lo referente al cambio político que se vislumbra a raíz de la nueva Constitución, en los tres o cuatro próximos años, se podrá evaluar si Bolivia está construyendo un Estado plurinacional “descolonizado”. Este propósito ha sido proclamado por Evo Morales, para terminar la época colonial que había permeado la organización política y social de Bolivia, puesta de manifiesto por la fuerte discriminación y el racismo hacia los indígenas. Sin embargo, las constituciones por sí mismas no fomentan un cambio tan amplio y profundo, siendo estas tan solo una herramienta del cambio político, social y cultural. Por ende, la expectativa alrededor de las constituciones puede generar frustraciones, en ausencia de un cambio real en las prácticas sociales y políticas.

Pugnas internas En un contexto en el que se avecinan elecciones legislativas y presidenciales (previstas en diciembre de 2009), Bolivia enfrentará fuertes retos que pueden debilitar al

Bolivia: una nueva Constitución ante un viejo conflicto político

Bolivia ha sido, desde varios años, el teatro de fuertes divisiones sociales, regionales y culturales que reflejan la fragilidad de la Nación. Desde la llegada de Evo

Morales a la Presidencia hace tres años, los procesos de redefinición y redistribución del poder han culminado en una nueva Constitución, elaborada por la Asamblea Constituyente, aprobada por referendo el 25 de enero y promulgada el 7 de febrero de 2009.

AFP

 Internacional

gobierno. En primer lugar, Morales deberá encarar las contradicciones que genera su propia Constitución. Los cambios introducidos son contundentes, aunque carece de una definición clara la organización del sistema político, judicial, electoral y el manejo de los cuatro niveles de autonomía. Otros aspectos fundamentales muy cuestionados del texto constitucional son las diferencias introducidas en el sistema electoral, y en distintos órganos decisorios a favor de los ciudadanos indígenas, lo cual refleja un fuerte conflicto político, social y cultural en torno al espacio político otorgado a los grupos originarios. Por esto, de nuevo son indispensables los futuros textos (la Ley sobre el Órgano Electoral Plurinacional, la Ley de Régimen Electoral y la Ley del Tribunal Constitucional Plurinacional) que per-

mitirán organizar de manera más clara tanto el sistema electoral como el judicial. Pero además de poner en marcha un conjunto de cambios sociopolíticos que no generan consenso. Evo Morales debe enfrentar, durante el último año de su mandato, nuevos desafíos en el plano económico, debido al impacto de la crisis financiera mundial. En particular, la caída del precio de materias primas y minerales (estaño y zinc), y la de las remesas, podrían golpear fuertemente la economía boliviana, en particular al sector minero. Esto conlleva el riesgo de debilitar al gobierno al quitarle uno de sus principales aliados. Otra causa de fragilidad es la corrupción que ha tocado algunos miembros del gobierno como el controvertido Juan Quintana, ministro de la presidencia que fue confirmado en su puesto luego de

la renovación del gabinete, el pasado 8 de febrero. Pero otros funcionarios han sido inculpados y destituidos, como Santos Ramírez, presidente de la compañía petrolera nacional, Yacimientos Petrolíferos Fiscales Bolivianos (YPFB), que había sido diputado y presidente del Senado y es uno de los principales dirigentes del partido presidencial Movimiento al Socialismo (MAS). Para evitar una desacreditación del gobierno y tal vez del proceso de nacionalización de los hidrocarburos, Evo Morales aprovechó la renovación del gabinete, para crear el Ministerio de la transparencia institucional y la lucha contra la corrupción.

¿Imitando al vecino? Bolivia está acercándose al modelo venezolano en el manejo de los recursos na-

turales estratégicos, compartiendo este objetivo con el proyecto boliviariano1. A su juicio, estos deben ser públicos, y se debe evitar su privatización por multinacionales extranjeras, según lo recalcó Evo Morales durante su conferencia en el Instituto de Estudios Políticos de Paris, el 17 de febrero2. Un ejemplo plasmado en la nueva Constitución, es el derecho al agua que “constituye un derecho fundamentalísimo para la vida en el marco de la soberanía del pueblo. El Estado promoverá el uso y acceso al agua sobre la base de principios de solidaridad, complementariedad, reciprocidad, equidad, diversidad y sustentabilidad” (art. 373). Las herramientas políticas que usa Morales para llevar a cabo su proyecto político también son parecidas a las del mandatario venezolano. Tal es el caso de la reelección del presidente por un mandato: esta reforma ha sido introducida en la nueva Constitución y confirma el afianzamiento del presidencialismo durante el mandato de Morales3. Esto demuestra una clara tendencia a concentrar la decisión en manos del poder ejecutivo, aún cuando el gobierno actual procede de movimientos sociales que promueven una repartición más democrática del poder, siendo tal vez esta la mayor contradicción del gobierno. La división de Bolivia en torno a su modelo de desarrollo económico atraviesa los antiguos sesgos regionales y étnicos, evidenciando lo conflictiva que se torna la redistribución del poder político cuando se trastocan los fundamentos de la construcción de la Nación. Entrevista a TV5Monde, Martes 17 de febrero, edición nocturna (después de su etapa en Paris, Francia). 2 Le Monde, 17 de febrero de 2009. 3 Ver Monasterios Karin, Stefanoni Pablo, Do Alto Hervé, reinventando la Nación en Bolivia, Movimientos sociales estado y poscolonialidad”, La Paz, CLACSO, 2007. 1


Internacional



Andrés Molano-Rojas,

Ni lo uno, ni lo otro El origen de esta intuición es la constatación de que el fin de la Guerra Fría y de la bipolaridad de base ideológica articulada alrededor de los Estados Unidos y la Unión Soviética que la caracterizaba, no ha conducido a la postre ni a un orden internacional unipolar (basado en una benévola hegemonía norteamericana, asentada sobre la globalización

Un

mundo

en pleno deshielo

La Posguerra Fría supuso, antes que nada, el relajamiento del orden mundial. Estamos ante un deshielo geopo-

lítico que se ha venido produciendo desde entonces y el advenimiento —quizá puramente transicional, eventualmente reversible, pero tan innegable como el calentamiento climático— de un mundo sin polos. de los valores liberales y democráticos, como quizá alcanzó a vislumbrarla Fukuyama), ni a uno multipolar (ya fuera homogéneo y relativamente estable, como aquel que surgió de las sesiones del Congreso de Viena en el siglo XIX, o heterogéneo y turbulento como el del periodo de entreguerras, aunque tal vez marcado por clivajes esencialmente “civilizacionales”, a la manera de Huntington). Ni lo uno ni lo otro. Ni el “momento unipolar” de una superpotencia solitaria, ni una “edad dorada” de la multilateralidad y la cooperación. Pero tampoco una simple y llana multipolaridad, caracterizada por la existencia de unas pocas grandes potencias competitivas pero con relaciones relativamente simétricas de poderío, recursos e influencia, capaces de determinar –entre ellas solas– las condiciones de equilibrio (o desequilibrio) del sistema internacional. La Posguerra Fría supuso, antes que nada, el relajamiento del orden mundial: es decir, en palabras del profesor Zaki Laïdi, el desacoplamiento entre la capacidad de producir sentido (enviar un mensaje universal) y la capacidad de generar poder (económico y militar). Ello explica quizá el deshielo geopolítico que

se ha venido produciendo desde entonces, y el advenimiento –quizá puramente transicional, eventualmente reversible, pero tan innegable como el calentamiento climático– de un mundo sin polos.

Un mundo sin polos En un artículo publicado hace unos meses en la revista Foreign Affairs, el presidente del Council on Foreign Relations de los Estados Unidos, Richard Haass, advertía que este mundo sin polos será “un mundo dominado no por uno o dos, ni por algunos Estados, sino por docenas de actores (de diversa naturaleza) que poseen y ejercen diversas clases de poder”. Varias grandes potencias (altamente asimétricas), potencias medias regionales y poderes emergentes e intermitentes, organizaciones internacionales, corporaciones, ONG’s, redes macrocriminales, e incluso individuos –como Osama bin Laden– intervendrán cada vez más competitivamente en la determinación de las dinámicas internacionales, con base en su control de formas alternativas y diversificadas de poder, en un juego que antaño parecía estar reservado a los Estados, y sobre todo, a los más capaces de acumular y concentrar volúmenes elevados (y relativamente simétricos

y análogos) de poder político, económico y militar simultáneamente. La creciente multiplicación e innovación de factores de poder, su desagregación tanto espacial como funcional, la desconexión entre poder e influencia efectiva resultante de ello, y la proliferación, concurrencia y solapamiento de centros de poder, que, en consecuencia, caracterizarán el orden mundial apolar, dejarán su impronta en las dinámicas internacionales en más de una forma. En efecto, la apolaridad dificultará significativamente la profundización del proceso de organización internacional, y por lo tanto, afectará el funcionamiento eficaz y eficiente de las instituciones internacionales (desde las alianzas hasta la ya bastante baldada Organización de las Naciones Unidas). Por otro lado, supondrá el incremento de los riesgos y las vulnerabilidades que podrían afectar la estabilidad del sistema internacional en su conjunto (desde el terrorismo, cada vez más complejo y difuso hasta los Estados canallas y los Estados fallidos); y hará que las dinámicas internacionales (desde el alineamiento hasta los dilemas de seguridad) sean mucho menos coherentes, transparentes y predecibles.

Si hubiera acaso necesidad de representarse una imagen de este mundo sin polos, entonces esa imagen sería seguramente barroca. A fin de cuentas, como señaló alguna vez Erwin Panofsky, ese gran historiador del arte, la esencia del barroco es “un alboroto magnífico: movimiento incesante, riqueza imponente del color y la composición, efectos teatrales producidos por el juego libre de la luz y la sombra, mezcla indiscriminada de materias y técnicas”. Eso fue, precisamente, lo que vivió el mundo durante el caluroso verano de 2008, mientras China se coronaba vencedora olímpica en el “Nido de Pájaro” y las tropas rusas avanzaban por los caminos de Osetia del Sur: agitación, desbordamiento, incontinencia, teatralidad, sincretismo y paradoja. Falta ver si al cabo del tiempo esta apolaridad, tan marcadamente barroca en su configuración, conduce a alguna forma de happy end, tal como sucede con su equivalente artístico. Pero por ahora resulta difícil prever cuál pueda ser esa “salida placentera a un conflicto doloroso”, como el que forzosamente habrá de acompañar a este deshielo geopolítico, a esta transición entre un orden mundial hace tiempo ya muerto y otro aún incapaz de nacer.

Domingo 8 de marzo de 2009

Durante el verano de 2008, por primera vez en la historia, los barcos lograron pasar del Atlántico al Pacífico simultáneamente por el norte de Canadá y el de Rusia. Y también, por primera vez en 125 mil años, el Polo Norte se convirtió en una isla, sin ningún brazo helado que lo conectara a la plataforma continental, ni por el este ni por el oeste. Una situación que en su momento el secretario general de la Organización Meteorológica Mundial calificó de “totalmente excepcional y preocupante”; a pesar de las ventajas que podrían derivarse del hecho de que la apertura de los pasos del noroeste y el nordeste reduzca en 4.200 kilómetros la distancia entre Nueva York y Tokio, y en 8.600 la que separa a esta ciudad del puerto de Hamburgo: algo que no consuela en absoluto a los habitantes de Tuvalu, para los que cada centímetro de aumento en el nivel del mar es una verdadera amenaza. Los polos se están derritiendo, y a una velocidad que sorprende a los expertos. Eso es ya, de por sí, es bastante angustiante, y no sólo en términos puramente ecológicos. Los internacionalistas sospechan, y con razón, que al lado de las nuevas rutas y las nuevas fuentes de recursos (un 25 por ciento de las reservas mundiales de petróleo estarían bajo las aguas del Ártico), aparecerán nuevas reivindicaciones y nuevos conflictos (por lo menos 5 Estados tendrán que acordar, en los próximos años, un régimen internacional para el Ártico: Dinamarca –¿o acaso Groenlandia?–, Estados Unidos, Noruega, Canadá y Rusia). Y por si fuera poco, algunos de ellos empiezan a intuir que al lado del deshielo de los polos geográficos se ha venido produciendo, desde el fin de la Guerra fría, otro tipo de deshielo, de naturaleza geopolítica, que podría afectar sustancialmente la configuración del sistema internacional durante las próximas décadas, y cuya consecuencia sería el advenimiento –por primera vez en la historia– de un orden internacional apolar.

AFP

Analista y profesor de Relaciones Internacionales Universidad del Rosario


 Nación

Farc en el 2009: ¿renacimiento político “inducido” como oportunidad para la resolución del conflicto?

Las recientes liberaciones unilaterales de tres policías, un soldado y los últimos dos civiles “canjeables” que todavía quedaban en cautiverio de las Farc no se explican fácilmente. ¿A qué estaría apuntando la guerrilla a principios de 2009 y cómo se podría interpretar la liberación incondicional de los rehenes?, ¿Cómo debería el gobierno de Álvaro Uribe responder a esta iniciativa y qué clase de ventana de oportunidad podría abrirse para avanzar hacia el fin del conflicto armado? Markus Schultze-Kraft, Ph.D.

Domingo 8 de marzo de 2009

Una década ha pasado desde que se iniciaron las negociaciones en San Vicente del Caguán entre el gobierno de Andrés Pastrana y las Farc; y hace exactamente siete años el “proceso de paz” con esa guerrilla que terminó en estado de pleno fracaso. Desde entonces el conflicto armado en Colombia ha visto grandes cambios. La estrategia del gobierno de Álvaro Uribe se ha enfocado en golpear a las Farc militarmente, buscar una negociación proforma y por tanto infructuosa con el Ejército de Liberación Nacional (ELN) y desmovilizar a los paramilitares organizados bajo el paraguas de las Autodefensas Unidas de Colombia (AUC), con base en una controvertida legislación de justicia transicional, la Ley de Justicia y Paz. El espacio de maniobra y la correlación de fuerza tanto militar como política hoy no le es para nada favorable a la guerrilla. Se constata el progresivo alejamiento de las Farc del ámbito político nacional y su profunda soledad ideológica, y el hecho que están enfrentados al peligro real del fraccionamiento de su organización como consecuencia de la “política de seguridad democrática” del gobierno. Internacionalmente la guerrilla colombiana está aislada y no cuenta con interlocutores de importancia afuera del país. En el período 2007–2008 los gobiernos de Francia, Suiza, Venezuela y de manera poco comprometida, España, todavía intentaban contribuir a lograr “soluciones humanitarias” en Colombia que hubieran permitido la liberación de rehenes (París poniendo énfasis exclusivo en el caso de Ingrid Betancourt y Caracas intentando de avanzar sus propias metas geopolíticas en la región). Un año más tarde y después de la muerte de tres miembros del secretariado de las Farc –incluida

AFP

Director para América Latina y el Caribe International Crisis Group

la de Manuel Marulanda, su líder histórico y emblemático– y la Operación Jaque, cualquier semblanza de reconocimiento político internacional de las Farc, incluso por parte del presidente venezolano Hugo Chávez, se ha esfumado.

Metas de las Farc en el 2009 A principios de 2009 las Farc buscan sobrevivir como organización armada clandestina en un ambiente que les debe parecer eminentemente hostil. Para lograr esta meta fundamental están haciendo gala de su conocida capacidad de adaptación a las circunstancias cambiantes del conflicto armado. Bajo el nuevo mando de Alfonso Cano, pareciera que la cúpula guerrillera se ha dado cuenta que el afianzamiento de la cohesión interna de la organización es crucial para evitar su fraccionamiento promovido por Uribe. Ello quedó en evidencia en el mensaje de fin de año de Cano, donde el jefe guerrillero reconoce los duros golpes que las Farc han recibido en los últimos tiempos. A la vez, resalta la importancia de poner

más énfasis de nuevo en el trabajo político de la organización, planteando este asunto, sin embargo, más bien desde la perspectiva de su fortalecimiento interno, y no tanto en los términos de una novedosa proyección hacia el escenario político colombiano o la búsqueda de incidir en las elecciones en el 2010 (como algunos observadores lo han planteado). Según esta interpretación, con la liberación unilateral e incondicional de seis rehenes la cúpula de la guerrilla estaría sobre todo tratando de demostrar a sus propios miembros que todavía tiene la capacidad de tomar decisiones importantes e implementarlas exitosamente. Como se menciona arriba, ello sería hoy mucho más difícil, y tal vez imposible, en el plano estratégico-militar. Por tanto, Cano podría estar buscando fortalecer su liderazgo y elevar de nuevo la moral de sus comandantes y tropas por medio de acciones “político-humanitarias” (que también incluyen la activa participación de las Farc en el “intercambio epistolar” empezado por un grupo de ciudadanos colombianos en el 2008).

Retos para el gobierno y la sociedad A estas alturas y considerando los cada vez más evidentes problemas asociados con la forma como se desmovilizó a las AUC, no puede ser el interés del gobierno y Estado colombianos seguir con la política de buscar el fraccionamiento de las FARC y desmovilizar bloques o frentes individualmente, esquivando de esa manera el desafío de una verdadera negociación política de paz con la guerrilla. Hoy por hoy, existen indicios muy preocupantes de que la actual estrategia contrainsurgente está fomentando la creación de vínculos y formas de cooperación entre diferentes grupos armados ilegales a nivel local y regional. Ello es muy peligroso y en el futuro podría resultar en la formación de nuevos grupos insurgentes al estilo de los emergentes, grupos armados ilegales, como Organización Nueva Generación o Águilas Negras. Éstas nacieron después de la desmovilización de las AUC y según el caso deben ser considerados sucesores de los grupos paramilitares desmovilizados o embriones de futuros ejércitos irregulares con fuertes vínculos con el

crimen organizado y el narcotráfico. Por tanto, el gobierno debería dar prioridad a asumir su responsabilidad y buscar junto con la sociedad colombiana la manera de cómo se podría plantear una negociación de paz seria con una guerrilla debilitada, pero con una estructura organizacional y un liderazgo todavía más o menos intactos. El hecho que las FARC estén buscando afianzar su cohesión interna y prevenir el fraccionamiento de su organización por medio de acciones “político-humanitarias” podría ser una ventaja aquí. A la vez, se debe tener claridad que no son las Farc que tienen la capacidad de plantear solos una salida política al conflicto. No tienen poder real de convocatoria política en Colombia (ni en otros países), no han puesto atención a la elaboración de un programa político incluyente, democrático y viable en el pasado, y nada indica que podrían hacerlo en el futuro, incluso bajo el liderazgo de Cano. Esa tarea fundamental le corresponde al gobierno y a la sociedad colombiana; son ellos quienes deben tomar la iniciativa. En la coyuntura actual, la meta no debería ser incrementar los esfuerzos de la “política de seguridad democrática” sino responder al peculiar renacimiento político “inducido” de las FARC con una propuesta que logre inclinar la balanza del conflicto de manera duradera y estructurada hacia las soluciones políticas. Todavía le queda un año pleno al gobierno de Uribe para coronar de la mano de la sociedad civil y política colombiana lo que han sido ingentes y a lo largo de los años demasiadas veces infructuosos esfuerzos de “normalizar” a Colombia por medio de la consolidación de su institucionalidad democrática y de la reducción de los niveles de violencia e irrespeto a los derechos del hombre. Los amigos latinoamericanos de Colombia, entre ellos Brasil y Chile, con seguridad no dudarían en dar una mano a los colombianos en esta tarea trascendental.


Nación Unimedios

El pasado 4 de febrero Colombia figuró en los grandes titulares de la prensa mundial. Todo por cuenta del fósil prehistórico de la serpiente Titanoboa, encontrado en una mina de carbón en el Cerrejón. El hallazgo despertó el interés de muchos, especialmente de los expertos de la Paleontología en Colombia que en un abrir y cerrar de ojos vieron cómo los restos de la serpiente salieron del país para ser estudiados en Estados Unidos. ¿Cómo salió la serpiente, por qué no se estudia aquí?, son algunos de los interrogantes que pusieron en evidencia la falta de una normatividad específica para el manejo del patrimonio paleontológico en Colombia. “Existen unas reglas generales que abarcan todo el Patrimonio Cultural Nacional, contempladas en la Ley 397 de 1997, llamada Ley de la Cultura, y su más reciente modificación la Ley 1185 de 2008, en la que mencionan el patrimonio paleontológico, pero el manejo de los fósiles no está explícito”, explica María Euridice Páramo Fonseca, profesora asociada del departamento de Geociencias de la Universidad Nacional de Colombia. José Enrique Arenas, geólogo de la UN y Director del Museo Geológico Nacional de Ingeominas, explica que la actual normatividad deja vacíos legales respecto al manejo y custodia del patrimonio paleontológico. Arenas también explica que éste no debe recibir el mismo tratamiento que el patrimonio arqueológico. La concepción del Patrimonio Paleontológico como un bien cultural de la Nación, es sencillamente una concepción artificial de lo que realmente –en materia patrimonial– son los fósiles. Los restos paleontológicos son parte de los recursos naturales no renovables del país, son patrimonio natural de la Nación. Por esta razón las actividades adelantadas en materia de custodia y salvaguarda del patrimonio paleontológico por Ingeominas son completamente legítimas, puesto que se encuentran en completa concordancia con la administración y regulación de los recursos naturales no renovables que el Estado ha confiado al Ministerio de Minas y Energía. Los descubrimientos paleontológicos deben informarse a Ingeominas, que ejecutará acciones para prospectar y evaluar el hallazgo determinando su valor científico y, para rescatar, curar, preservar y custodiar de los restos, ya sea que éstos se alberguen en el Museo Geológico Nacional o en una colección reconocida oficialmente. En determinadas circunstancias autorizará a personas naturales a conservarlos, previo registro de su existencia. La ausencia de una normatividad legal no ha permitido un registro nacional oficial de fósiles.

Tras el hallazgo de la serpiente más grande del mundo, que vivió en territorio colombiano hace más de 60 millones de años, muchos se preguntan cómo, por qué y con el permiso de quién salió este espécimen del país. Estos interrogantes revivieron el tema de la inexistencia de una normatividad específica para el manejo del patrimonio paleontológico en Colombia.

Colombia sin normatividad

de patrimonio paleontológico

Labores de prospección paleontológica, foto

¿Dónde está Titanoboa cerrejonensis? Los restos de Titanoboa cerrejonensis fueron llevados al Instituto Smithsonian de Investigaciones Tropicales, con sede en Panamá y a la Universidad Internacional de La Florida, Estados Unidos. “Todos los años vamos a Colombia, hacemos colecciones, sacamos material y la mayoría han sido estudiados acá por colombianos que han pasado por el Instituto en los últimos seis años, porque hacer esos estudios cuesta mucho dinero y en Colombia los recursos para hacer paleontología son escasos”, aseguró Carlos Jaramillo, egresado de la Universidad Nacional de Colombia y quien se desempeña como Director de Paleontología del Instituto Smithsonian de Investigaciones Tropicales, en Panamá. Cuenta el colombiano que se llevó los fósiles porque es más fácil estudiarlos allá, pues hay que hacer comparaciones con otros especímenes, estar transportándolos implica costos muy altos y también se debe evitar moverlos porque se deterioran. El Instituto Smithsonian fabricará unos moldes de cada pieza de la serpiente, para

cortesía Ingeominas.

conservar una copia idéntica del fósil para estudio y el original regresará a Ingeominas en tres años.

Colombia cruda en curación El geólogo Jaramillo dice que muchos fósiles del Cerrejón tienen microfracturas, están llenos de piritas las cuales se van oxidando y las fracturas pequeñas se van aumentando, lo cual desintegra el fósil. Es por eso que se necesita un proceso de curación. “Este proceso debe hacerlo personal experto. Los curadores son profesionales que tienen PhD en Paleontología y llevan haciéndolo por años. En Colombia no existe la tecnología ni el personal con esa experiencia”. Comentó el experto que hay dos opciones para realizar el proceso de curación y una es proceder a empacar al vacío para que seque completamente el oxígeno que hay dentro de los fósiles y la otra es inyectar una serie de resinas que lo mantendrían por mucho tiempo, porque la idea es que los fósiles perduren por cien o doscientos años. La profesora Páramo coincide en que en Colombia

no es fácil limpiar los fósiles, el proceso exige técnicas muy especiales. Es un reto que se propuso en avanzar en un doctorado en vertebrados y crear el Instituto Paleontológico en la Universidad.

Otros paraísos colombianos En Colombia existen verdaderos paraísos paleontológicos pero que no han sido explorados porque se necesitan muchos expertos. El profesor Jaramillo dice que “es un trabajo y esfuerzo de mucha gente colectando”. La profesora Páramo comenta que existen varios yacimientos. En la Floresta, Boyacá, existen rocas muy ricas en fósiles de invertebrados, flora y algunos vertebrados. Villa de Leyva es reconocido por el hallazgo de grandes reptiles marinos de gran tamaño (también hallados en las capas extendidas por toda la cordillera oriental). Los profesores Páramo y Jaramillo concuerdan en que el Desierto de La Tatacoa, en el departamento del Huila, posee una riqueza excepcional en vertebrados terrestres y pantanosos. La profesora Páramo comentó que cronológicamente, antes del Desierto

de La Tatacoa aparece el Cerrejón, con restos de fauna de pantano como cocodrilos, tortugas y la gran boa. “El Cerrejón es la mina más grande abierta del mundo, es un hueco gigantesco en la tierra donde existen estos fósiles, donde se han realizado unas 10 a 15 tesis de doctorado en los últimos 100 años, la diferencia en el esfuerzo de colección es gigantesca. Colombia está prácticamente inexplorada en términos paleontológicos, hay mucho fósil y poca gente que los estudie”, concluyó Jaramillo.

¿Cómo salen los fósiles del país? Todo resto paleontológico que sale del país debe hacerlo con autorización explícita de Ingeominas, previo el cumplimiento de varios requisitos y la formalización del compromiso de retornar las piezas a Colombia. Para el caso de la serpiente Titanoboa, el profesor Jaramillo presentó una solicitud al Instituto que contiene la catalogación de los fósiles, la cantidad a sacar, las etiquetas de cada una de las piezas, el tiempo que va a permanecer por fuera así como el compromiso de devolución y dar crédito a Ingeominas frente a las publicaciones que se generen de estos fósiles. Ante la preocupación por parte de algunos especialistas colombianos, el geólogo Arenas explica que hay que reconocer que falta trabajar mucho para incentivar y promover el trabajo de expertos colombianos en el estudio de fósiles. Aclara, que no solo los extranjeros trabajan en Paleontología, también hay científicos colombianos que realizan sus estudios de postgrado, donde estas piezas constituyen su material de trabajo.

Proyecto de Ley La Universidad Nacional e Ingeominas tienen especialistas en Paleontología que trabajan en la formulación de un texto de ley para manejar este patrimonio. La Sociedad Colombiana de Geología también se encuentra adelantando una propuesta judicial. “La aprobación de leyes debe seguir su camino por instancias políticas, pero nosotros como especialistas estamos comprometidos no solo con nuestra conciencia profesional, sino inclusive documentalmente”, aseguró la profesora Nadejda Tchegliakova, docente del Departamento de Geociencias y Directora de la Oficina de Relaciones Internacionales e Interinstitucionales de la Universidad Nacional de Colombia. El objetivo principal de esta norma, que ya tiene un texto básico, es custodiar y salvaguardar específicamente el patrimonio paleontológico del país, definir las acciones, la regulación, los códigos de ética y las sanciones disciplinarias. “Nuestro ideal es que la ley se promulgue este año”, concluyó Páramo.

Domingo 8 de marzo de 2009

Elizabeth Vera Martínez,




 Ciencia y tecnología Que el desarrollo y la consolidación de la investigación logre darle valor agregado a los productos y servicios de Colombia y se pueda construir, en el caso del sector empresarial, una nueva industria de base tecnológica que repercuta en un crecimiento sostenible de la economía, con la posibilidad de una mayor competitividad, es lo que busca la nueva Ley 1286 de Ciencia, Tecnología e Innovación. Félix Enrique Blanco,

Unimedios

Colciencias, ahora

con rango ministerial técnico que, según el parlamentario, lo protege de los vaivenes políticos y confía en que con el desarrollo de la Ley 1286, “Colombia logrará un modelo más sistémico, que fortalece la regionalización de la ciencia y que fortalece la relación con el sector productivo nacional”. Por su parte el Jefe de Estado destacó que es necesario que el organismo rector de la política de ciencia y tecnología, esté al nivel del gabinete pues “se trata de un asunto de estatus, que debe repercutir en una gran capacidad de influir sobre todas las agencias del Estado, para que en cada una haya mayor compromiso con los programas de ciencia y tecnología” afirmó durante la ceremonia de sanción de la nueva Ley.

¿Cómo funcionaría Colciencias? De manera inmediata, el nuevo Departamento Administrativo de Ciencia, Tecnología e Innovación debe enfrentar el reto de realizar la rápida

y eficaz transformación de Colciencias para que con sus nuevas responsabilidades e instrumentos desempeñe el liderazgo en el sector “que hagan realidad las expectativas que se tienen y abra un camino en el cual, parafraseando a lo propuesto por Gabriel García Márquez en el prologo del informe: en el filo de la oportunidad, la investigación y la innovación sean parte de la canasta familiar”, anunció Francisco Miranda, director de Colciencias. Recientemente bajo el liderazgo del Departamento Nacional de Planeación y Colciencias, y con la participación de algunos ministerios, institutos descentralizados y aportes del sector privado, se elaboró un documento: Conpes, que detalla los alcances y las responsabilidades de las diferentes agencias del gobierno para fomentar el desarrollo de la ciencia, la tecnología y la innovación. “Una vez sea aprobado, el país tendrá una Política de ciencia, tecnología e innovación que define retos, responsabilidades

y compromisos para los actores gubernamentales en los próximos años, a la vez que es una invitación y una guía para la academia y el sector productivo” agregó Miranda. Colombia en la actualidad destina el 0,5 por ciento de su Producto Interno Bruto (PIB), para programas de ciencia y tecnología, con el desarrollo de la Ley sobre Ciencia, Tecnología e Innovación. Se espera que para el año 2010 dedique un 1 por ciento, más de 3,5 billones de pesos para este rubro, con lo que se daría un salto enorme para los diferentes programas de investigación. “Estos recursos serían, primero parte del presupuesto normal de Colciencias, luego de los presupuestos que las universidades utilizan para investigación, los centros de desarrollo tecnológico y lo que los ministerios emplean para investigación. El Ministerio de Agricultura por ejemplo invirtió el año pasado 100 mil millones de pesos en investigación, el SENA está invirtiendo en la actualidad unos 60 mil mi-

Resultados De acuerdo con el representante Restrepo Cuartas, lo que se pretende es que con el desarrollo y la consolidación de la investigación, se de valor agregado a los productos y servicios que ofrece Colombia, y se pueda construir en el caso del sector empresarial “una nueva industria de base tecnológica que repercuta en un crecimiento sostenible de la economía a largo plazo, con la posibilidad de que haya una mayor competitividad”, indicó. Solo así, se podrán tener recursos para combatir la desigualdad social y dar a los colombianos un empleo más estable ofrecido por la industria nacional, concluyó el congresista.

Cortesía Presidencia de la República.

Domingo 8 de marzo de 2009

Colciencias, al convertirse en Departamento Administrativo del orden nacional, eleva su estatus, pues entra a ser parte del Consejo de Ministros, ocupará un sitio en el Consejo de Política Económica y Social, CONPES, y será la institución a la cabeza del sector de ciencia y tecnología en Colombia. Según la Ley 1286 recientemente sancionada por el presidente Álvaro Uribe y entre los objetivos del nuevo Departamento está en crear una cultura basada en la generación, apropiación y divulgación del conocimiento y la investigación científica; la innovación y el aprendizaje permanentes, y definir las bases para formular anualmente un Plan Nacional de Ciencia, Tecnología e Innovación. El “nuevo Colciencias” se encargará de formular, orientar, dirigir, coordinar, ejecutar e implementar la política de Estado en la materia, en concordancia con los planes y programas de desarrollo. Para el representante a la cámara Jaime Restrepo Cuartas, uno de los autores de la Ley, una de las ventajas de que Colciencias se transforme en un Departamento Administrativo, es su carácter

llones de pesos al año para innovación”, dijo Restrepo Cuartas. Esos recursos se manejarían por el Fondo Nacional de Financiamiento para la Ciencia, la Tecnología y la Innovación, creado en la Ley 1286, como patrimonio autónomo y que se manejará como una entidad con carácter privado para el manejo rápido de los recursos, pero con respeto de las autonomías de las instituciones, públicas y privadas, que coloquen ahí los dineros para ser usados en investigación.

El presidente Uribe presidió el acto en el que se oficializó la transformación de Colciencias en departamento administrativo. En

la foto el director de la entidad, Juan Francisco Miranda; el representante a la Cámara Jaime Restrepo Cuartas; la senadora Martha Lucía Ramírez; la directora de planeación, Carolina Rentería y la Ministra de Comunicaciones, María del Rosario Guerra.


Ciencia y tecnología

El presupuesto y los mecanismos de financiación son los puntos que más preocupan a los rectores y académicos de las universidades más importantes del país tras la aprobación de la ley de ciencia, tecnología e innovación. Por eso, se está trabajando en la reglamentación y la búsqueda de mecanismos que garanticen la sostenibilidad de los proyectos. Rafael Molina, vicerrector de Investigación de la Universidad Nacional de Colombia aseguró que “la Universidad está preparando una nueva propuesta que abarca los cinco temas relacionados con la reglamentación de la ley; reorganización de Colciencias; política de apoyo a doctorados; interacción con los sectores productivos y difusión de la ley, que son los pilares para sostener la nueva normatividad”. Carlos Angulo, rector de la Universidad de los Andes planteó que “mediante el fortalecimiento de los posgrados, articulados con la industria, se logra una investigación continua. Eso se necesita en Colombia y la ley apunta a esa dirección, pero hay que buscar recursos para su cumplimiento. Lo ideal hubiese sido una ley con más recursos, sin embargo, el hecho que ahora Colciencias esté en las altas esferas de gobierno facilitará la consecución de estos”. Para Jaime Alberto Camacho, rector de la Universidad Industrial de Santander, UIS, una fuente de financiación es el sector productivo e industrial del país. “Son procesos simultáneos, creo que hay que atender a las empresas tradicionales, pero también a la pequeña y mediana empresa que son las mayores generadoras de empleo en el país, y estos sectores no tienen mayor vinculación con la ciencia y la tecnología. Por ello se debe ir pensando en un sector estratégico que genere recursos a las nuevas empresas” Fernando Chaparro director del Centro de Gestión del Conocimiento y la Innovación de la Universidad del Rosario y ex director de Colciencias, consideró que “se debe concretar el incremento de los niveles de inversión. Con la ley se avanzó en esta materia y es muy interesante escuchar al presidente Uribe afirmar que se deben fortalecer los mecanismos financieros no incluidos”. Para Francisco Miranda, director de Colciencias “lo que está sucediendo es muy positivo, porque en el 2008 el presupuesto de la institución fue duplicado respecto a 2007 y este año se volvió a duplicar. Con la ley se prevé que se den mecanismos poderosos para aumentar la asignación de recursos. Uno de ellos es hacer explícita la ciencia y tecnología en el proyecto de presupuesto Nacional. Ahora es un rubro contemplado por el gobierno”. Miranda añadió “se tiene un instrumento para convo-

Nueva ley de ciencia

busca modificar modelo productivo Impulsar la formación de Doctores, incrementar los recursos financieros para la sostenibilidad de los proyectos y promover la gestión regional de la ciencia, involucrando a los gobiernos y al sector productivo de cada región, son los desafíos que aparecen tras la aprobación de la Ley de Ciencia, Tecnología e Innovación. ¿Cómo se va a financiar el nuevo departamento administrativo?

miembro del Consejo Superior de la Universidad Nacional consideró que en esta aprobación hay elementos y avances importantes. Aunque reconoce las deficiencias en el tema de presupuesto, evidencia la falta del trabajo en la construcción de una cultura de la ciencia y tecnología, que involucre también al sector empresarial”.

El camino a seguir

car y asignar recursos, ya se pueden usar fondos de las regalías en ciencia y tecnología. Además se está revisando la planeación de cada área, para presentarlo ante el consejo de ministros en pro de asignación de recursos en el presupuesto nacional para el 2010”. En cuanto a los reparos que se han presentado sobre las formas de financiación de la ley, Paulo Orozco, miembro del Consejo Superior de la Universidad Nacional de Colombia apuntó: “Con la norma hay una oportunidad en la gestión de los recursos; sin embargo en la institucionalidad regional existe todavía mucha resistencia”.

Universidad – Empresa - Estado: ejes promotores Desde hace más de 10 años en el país se están generando proyectos entre el Estado, la universidad y la empresa. Siendo Antioquia la región líder en este proceso.

No obstante, falta mucho para fortalecer estas políticas pues en las regiones aun no es visible esta relación. Alfonso Monsalve, ex vicerrector de Investigación y candidato a rector de la Universidad de Antioquia sostuvo que “es importante que el sector productivo se empiece a ver desde la regionalización y sus aportes. También es primordial que el sector productivo entienda la importancia de la ciencia y tecnología para su propio desarrollo. Se tiene que invertir para sobrevivir en la competencia global”. El rector de la Universidad de los Andes sostuvo que “en muchos países del mundo hay un progreso gracias a la articulación de la investigación con la productividad. En este sentido se convierte en un reto para Colombia, en el cual tenemos que trabajar todos, especialmente desde las ciencias básicas y la ingeniería”. Desde la Universidad de los Andes se ha trabajado en tres direcciones: un estu-

dio cuidadoso de la ley que aporte a la reglamentación de la misma; el desarrollo de maestrías y doctorados, comenzando con los 15 programas doctorales actuales; y la formación de los docentes que trabajan en la institución, contando con una planta de profesores con posgrados cercana al 90 por ciento. El director del Centro de Gestión del Conocimiento y la Innovación de la Universidad del Rosario y ex director de Colciencias consideró que la implementación de la ley es un desafío de la comunidad académica y de la sociedad para llevarla a la práctica. “Es erróneo pensar que la guerra se ganó con la aprobación, hay que ver la ley como una nueva oportunidad. Teniendo esto en cuenta, se debe impulsar el fomento de las investigaciones y su aplicación a los sistemas de producción, complementándolas. Esto, facilitará el movimiento del país hacia las comunidades del conocimiento”. El físico Paulo Orozco,

Aunque la comunidad académica se mostró optimista con la promulgación de esta ley, aun queda mucho trabajo por realizar debido a que falta establecer la reglamentación para llevar la norma a la práctica. El director del Centro de Gestión del Conocimiento y la Innovación de la Universidad del Rosario y ex director de Colciencias, Fernando Chaparro agregó que uno de los retos que enfrenta la ley de ciencia y tecnología es la creación de conciencia dentro de la sociedad colombiana, lo cual redundará en el aumento de los niveles de inversión en ciencia, tecnología e innovación. Chaparro además agregó que este trabajo mancomunado debe apuntar al logro de un desarrollo equitativo para el país. Para el Vicerrector de Investigaciones de la Universidad Nacional de Colombia, Rafael Molina, la financiación de la ciencia y la tecnología, de la forma en la que se contempló en la ley, dependerá de la voluntad política del momento. Lo cual implicará un gran esfuerzo en la gestión pública de la cabeza de Departamento Administrativo de Ciencia y Tecnología del país. Por esta razón, las distintas Universidades están realizando un estudio juicioso de la ley, que permita realizar la transición administrativa entre el actual Colciencias y futuro Departamento Administrativo. Con la creación de este Departamento Administrativo de Ciencia y Tecnología e Innovación, Francisco Miranda, actual Director de Colciencias indicó que “el cambio más importante es que va a ser el organismo del Estado encargado de la política nacional de ciencia y tecnología. Con esto, se logra consolidar un liderazgo de esta área para la gestión pública”.

Domingo 8 de marzo de 2009

Unimedios

Archivo Unimedios

Equipo periodístico UN Análisis,




10 Ciencia y tecnología Carlos Alberto Patiño Villa,

El resultado de la llamada tercera revolución industrial se dio en varios pasos, empezando por el hecho de que la electrónica en sus diversas aplicaciones y desarrollos se convirtió en una nueva área de producción, arrastrando mano de obra calificada, hasta el hecho de que en esta nueva revolución la pieza clave, más que el capital mismo, fue la generación permanente de conocimientos y desarrollos tecnológicos, que pronto alcanzaron prácticamente todas las áreas de actividad humana. Para las décadas de 1980 y 1990 esta nueva condición tenía sus centros de desarrollo sensibles y vitales en las universidades de competencia científica y tecnológica avanzadas, en los laboratorios de investigación especializados, tanto públicos como privados, y en la generación de circuitos virtuosos de creatividad, intercambio de información y difusión de los hallazgos científicos y de las aplicaciones tecnológicas.

Domingo 8 de marzo de 2009

Mundo virtual La gran vía que ha consolidado y simbolizado la difusión de la llamada tercera revolución industrial ha sido, desde su apertura pública en enero de 1994, el internet, que ha permitido la mayor ola de interacción humana, por encima de barreras culturales, económicas, políticas e incluso de seguridad. Internet es hoy el vehículo irrenunciable de información, transacciones económicas inimaginables y de intercambio de conocimientos, tecnologías y productos del ocio que solo unos años antes eran impensables. Una prueba de ello son los esfuerzos que los regímenes autoritarios hacen para evitar que sus ciudadanos tengan un uso abierto y libre de internet, como en el caso de China, o incluso que tengan acceso al mismo, como en el caso de Corea del Norte o de Birmania. El centro geográfico en el que se inició este proceso fue los EE.UU, y de allí se ha ido difundiendo por el mundo de forma acelerada, diversas olas tecnológicas, industriales y científicas. Pero no fue gratuito que este proceso se iniciara allí, pues los presupuestos para investigación científica, desarrollo tecnológico y educación superior, han sido los más altos del mundo, sostenidos de forma permanente desde la Segunda Guerra mundial, aunque en el gobierno de George Bush hubiesen entrado en crisis por falta de comprensión guberna-

Competencia global por liderazgo en ciencia y tecnología

Desde la década de 1970 se ha venido presenciando una tercera revolución industrial, que Manuel Castells definió como una de carácter global, por la red de nodos con la que se desarrolla, y basada en tecnologías informacionales. Esta revolución industrial se

ha expandido desde los avances en la comunicación que permitieron la estandarización de los computadores, hasta la aplicación de la informática y los controles electrónicos a la totalidad de la producción en la economía real. mental del papel de la C + T (ciencia y tecnología) en el desarrollo de este país. En esta dirección es importante anotar que no sorprendió a la opinión especializada, desde cuando hace unos años se empezaron a publicar índices de clasificación de las universidades más importantes del mundo, que los centros de educación superior norteamericanos estuvieran entre los más importantes de forma abrumadora, superando con creces a viejas universidades europeas, pero estando seguidas muchas universidades asiáticas, especialmente japonesas. Una forma más precisa de ver esta competencia entre universidades y centros de investigación se puede observar en los procesos de registrar desarrollos y resultados a través de la obtención de patentes para la aplicación industrial y productiva; la formación de doctores, especialmente en áreas consideradas estratégicas en el desarrollo de cada país; el gasto público en I + D (innovación y desarrollo), aspecto que es determinante en la velocidad y estructuración institucional para que una sociedad

ingrese plenamente en la tercera revolución industrial; y en la consolidación de programas públicos de C + T, que en muchos países se ha realizado a través de la creación de ministerios de Ciencia y Tecnología1.

Universidades líderes Actualmente las universidades líderes en desarrollos de C + T e I + D están en una estrecha competencia en lo que se refiere al desarrollo definitivo de diversas tecnologías, entre las que se encuentran aspectos como la aplicación de energía solar barata, comunicaciones inalámbricas rurales, acceso a la información en cualquier parte, cultivos genéticamente modificados, ensayos biológicos rápidos, técnicas avanzadas para filtrar y purificar el agua, drogas de acción específica, vivienda barata y autosostenible, producción limpia en la industria, identificación por radiofrecuencia de mercancías y personas, vehículos híbridos, sensores generalizados para vigilancia, ingeniería de tejidos, métodos sofisticados de diagnóstico y ci-

rugía, computadores para llevar puestos en la ropa, criptografía cuántica2. Pero con la llegada del nuevo gobierno de los Estados Unidos, en medio de la crisis financiera mundial, la competencia entre universidades y centros de investigación se ha acentuado, tanto dentro de ese país como en los que luchan por liderar diversos aspectos de la revolución industrial. Esta renovada competencia tiene tres aspectos importantes: uno, el gobierno de Obama que está invirtiendo de forma acelerada una de las cifras más grandes de la historia en áreas que considera estratégicas: energías alternativas, recuperación del medio ambiente y desarrollo de nuevos estándares tecnológicos para la industria norteamericana; dos, los presupuestos no están amarrados a instituciones específicas, sino que serán entregados en competencias abiertas entre los mejores proyectos de investigación; y tres, este gasto va atado a la renovación del sistema educativo, tanto desde el aspecto tecnológico hasta el viejo y problemático problema del permanente déficit de

profesores de educación básica y secundaria. Este contexto ha traído como consecuencia que las universidades y los centros de investigación de los países desarrollados y de los países emergentes, especialmente China, India, Brasil, Corea, Singapur y Sudáfrica, se estén evaluando muy detenidamente el establecimiento de áreas prioritarias de investigación, el fortalecimiento del gasto público en C + T e I + D, y la modernización de sus sistemas y programas de educación, principalmente en lo que tiene que ver con la formación de doctores, con criterios de calidad y rigor internacional, en el contexto de una creciente sociedad científica abierta, crítica e intercomunicada.

Léase documento Claves para el Debate Público # 15, titulado TENDENCIAS Y ESTÁNDARESINTERNACIONALES Producción de conocimiento en Ciencia y Tecnología. 2 Al respecto de las tendencias en desarrollos tecnológicos véase documento Claves para el Debate Público # 9, titulado CIENCIA, TECNOLOGÍA E INNOVACIÓN La autopista del siglo XXI. 1

JUPITERIMAGES

Profesor asociado Instituto de Estudios Urbanos Universidad Nacional de Colombia


Ciencia y tecnología

11

Crean técnica para estudiar pérdida del calcio en los huesos

Un grupo de investigadores descubrió una manera rápida y de bajo costo, útil para estudiar cómo se pierde calcio en los huesos.

La técnica descubierta será de gran utilidad para múltiples investigaciones en temas como la calidad de los nuevos materiales que se vienen utilizando para remplazar hueso y la evaluación de fármacos para enfermedades como osteoporosis, entre otros.

La pérdida de calcio es un proceso fisiológico que se conoce como resorción ósea. Actualmente no existe en el mundo un modelo sencillo para analizar las células con actividad resortiva, denominadas Osteoclastos, lo que dificulta el estudio básico sobre la resorción ósea de fármacos con potencial uso en pacientes o hace que el diagnóstico oportuno en la pérdida de calcio en los huesos sea muy limitado. En la actualidad si se quiere analizar las células humanas que se comen el calcio de los huesos, tienen que retirarlas de la médula ósea con un examen que es muy doloroso para los pacientes. Estas células procedentes de la médula ósea hay que someterlas a un proceso largo y mezclarlas con hormonas que tienen un alto costo y con otra muestra de sangre periférica (de las venas), para luego si poderlas utilizar en el análisis. De allí la trascendencia de esta nueva técnica descubierta, que ahorra tiempo, dinero y no desgasta a los pacientes. “Con este modelo descubierto se trabaja con células de sangre periférica solamente, que se obtienen en un examen de sangre habitual, sin ningún equipo sofisticado y se fusionan con un químico, un proceso que dura media hora, las siembro y ya al otro día puedo entrar a probar con la sustancia que necesite dependiendo de la investigación”, asegura el investigador Carlos Guerrero, director del grupo de investigación responsable de este descubrimiento.

Sistema óseo El hueso es un tejido mineralizado que cumple varias funciones dentro del organismo como brindar soporte a los músculos y tejidos blandos, y sirve como reserva de algunos minerales como fósforo y calcio que son liberados al sistema circulatorio en respuesta principalmente a estímulos hormonales. Durante el crecimiento del niño hay mayor actividad formadora de hueso, realizada por los osteoblastos que son células que depositan calcio y otras proteínas necesarias para desarrollo del sistema óseo. En la menopausia, de-

Fotos archivo particular

Unimedios

Hueso sin resorción (arriba), hueso

con resorción, (abajo) realizada por células mononucleares de sangre perisférica, fusionadas con Polietilenglicol (PEG). bido a la disminución de los niveles hormonales (estrógenos) se disminuye la actividad de los osteoblastos y aumenta la de los osteoclastos. Los Osteoclastos son células gigantes multinucleares de la clase denominada: monocito macrófago, entran en la circulación de la sangre como células de un solo núcleo y a través de la fusión espontánea, producen células con 10 a 12 núcleos. Una alta actividad resortiva lleva a fragilidad del hueso con un riesgo elevado de fracturas como se presenta en ciertas enfermedades: la osteoporosis, la osteogénesis imperfecta, la enfermedad periodontal y artritis reumatoidea, entre otras. En el laboratorio de Biología Celular y Molecular de la Facultad de Medicina de la Universidad Nacional bajo la dirección del doctor Carlos Arturo Guerrero se desarrolló un modelo in vitro para la obtención de células similares a osteoclastos, que puede ser usado en el diagnóstico oportuno de las patologías asociadas con alteraciones en la resorción ósea.

En el camino hacia el descubrimiento “Para desarrollar este modelo, inicialmente exploramos la hipótesis de que al fusionar las células químicamente con Polietilenglicol (PEG), se inducía a dicha célula para que se convirtiera en multinucleada (con muchos núcleos dentro de una sola membrana), y con actividad osteoclástica, es decir, que extrajeran calcio de hueso”, relata el investigador. El PEG ha sido utilizado por varias décadas en la producción de hibridomas, y consiste en fusionar células cancerosas y células de bazo de un ratón al cual se le inoculó una sustancia contra la cual se desea generar anticuerpos. Se conocen como anticuerpos monoclonales, de costo alto en el mercado y de uso variado incluyendo en los humanos. Hasta ahora no se ha utilizado el PEG como fusionador de macrófagos con el fin de obtener células similares a osteoclastos, en este aspecto este trabajo es pionero. Los investigadores tomaron una muestra de sangre, retiraron los glóbulos

rojos y recuperaron las células blancas que luego seccionaron en dos porciones: una porción sin fusionar, la pusieron sobre un hueso y la otra porción se fusionó con PGE, la cual colocaron sobre otro hueso durante 7 días. Pasado este tiempo se pudo detectar que la muestra donde se pusieron las células sin fusionar estaba intacta y el hueso no tenía cambio alguno. En la otra muestra se observó que el hueso se había poroseado y cuando se analizaron las células que quedaron adheridas en el hueso se pudo ver que se habían agrupado o fusionado unas con otras y habían pasado a constituirse en células multinuecleadas. Lo sorprendente es que así son los Osteoclastos que se encontrarían en cualquier humano si se le cortara un hueso y se analizara microscópicamente. Lo anterior quiere decir que la tesis inicial de los investigadores resultó positiva y que el PEG provocó que las células se fusionaran y comenzaran a formar núcleos. “Nosotros tomamos células que no están confluen-

tes (multinucléicas) sino separadas, las fusionamos químicamente con PEG y no le pusimos hormonas y a pesar de que no estaban en confluencia ni les pusimos hormonas, ellas presentaron actividad Osteoclástica” sostuvo Guerrero. Transcurridos 7 días se analizaron las células y se pudo determinar que sí tenían características propias de células osteoclastogénicas tales como: expresión de enzimas y proteínas de membrana, conformación celular y se evidenció la actividad resortiva. Esta técnica o modelo ha sido materia de investigación, por parte de los investigadores: Andrea Murillo G, Carmen Alicia Cardozo, Edwin Manrique P, Luz Marina Castillo, Lucia Acosta y Orlando Acosta L. De estos 4 investigadores en sus respectivas tesis de maestría han validado y corroborado la técnica de muchas maneras y los resultados obtenidos siempre han sido los mismos, lo cual permite asegurar que funciona.

¿Cuál es la utilidad de esta técnica? Esta nueva técnica descrita, permitirá estudiar medicamentos que sean positivos o negativos con respecto a la resorción, lo que a futuro permitirá el monitoreo del fármaco ideal para cada persona dependiendo del comportamiento de sus células. “Todo lo que se ha estudiado antes se puede estudiar en este modelo y es mucho más económico, así que se puede aplicar a gran escala. Además se abre campo para estudiar resorción en otras células diferentes a los monocitos macrófagos, y mirar si al fusionar células distintas a esas también hacen resorción. Podría resultar útil en campos como la odontología, la reumatología, ortopedia, osteoporosis, farmacología, o la histología”, concluye el Profesor Guerrero. Este año se realizará la publicación científica de los dos primeros artículos en relación a este tema, y el interés y el objetivo es que otros laboratorios e investigadores de esta Universidad o cualquier otra puedan entrenarse. El grupo está abierto a compartir este hallazgo con cualquier investigador que desee aprenderlo y reproducir esta técnica para aplicarla en sus propios proyectos.

Domingo 8 de marzo de 2009

Patricia Barrera Silva,


12 Ciencia y tecnología Elizabeth Cañas, Unimedios

Una luz que recorre los cielos y que puede revolucionar los métodos utilizados en los procesos de medición de la contaminación en Colombia, atraviesa verticalmente la atmósfera. Se trata de un radar de haz láser desarrollado de modo pionero en Colombia desde 2007 en el marco del proyecto Diseño y construcción de un sistema óptico de monitoreo atmosférico aplicado a la determinación de la capa límite atmosférica en la ciudad de Medellín, financiado parcialmente por el programa Jóvenes Investigadores de Colciencias y orientado por Álvaro Bastidas Gustín, coordinador del Grupo de Láseres y Espectroscopia, y profesor asociado de la UN en Medellín. El objetivo del radar láser o Lidar (Light detection and ranging, o detección de luz y medición de distancia) es medir los contaminantes suspendidos en la atmósfera como material particulado (polvo, humo y hollín), con el

uso del haz de luz láser a través del método denominado retroesparcimiento. Esta técnica permite que la señal láser retorne al punto emisor tras encontrar una partícula o un objetivo cualquiera. El sistema Lidar construido en la Universidad Nacional en Medellín, tiene varias funciones: permite obtener datos sobre las propiedades ópticas de partículas atmosféricas en suspensión y advierte sobre la adopción de acciones de emergencia en períodos de paralización atmosférica, bajo singulares condiciones de presión y temperatura. Precisamente, en este tipo de situaciones es cuando los niveles de contaminantes revisten riesgos para la salud pública, lo que puede hacerlo decisivo para una solución más eficiente de las cuestiones ambientales en los grandes centros urbanos. Generalmente, las empresas que monitorean la contaminación funcionan con estaciones de calidad del aire que están equipadas básicamente de filtros

para colectar datos varias veces al día y los cuales son usados en la elaboración de boletines sobre el ambiente atmosférico.

Breve historia El radar láser se basa en aplicaciones directas de la óptica y electrónica cuánticas. Su ensamble experimental se fundamenta en dos grandes inventos de la humanidad: el Telescopio y el Láser. El primero, inventado por el fabricante de lentes holandés, Hans Lippershey, (1608) y perfeccionado por el astrónomo italiano Galileo Galilei, cuando registró la construcción del primer telescopio refractor en el año de 1609. Trescientos cincuenta años más tarde, el matemático escocés James Gregory describió por primera vez un telescopio con un espejo reflector, y en 1968 el físico y matemático inglés, Isaac Newton construyó el primer telescopio con esa característica óptica. El láser (Light Amplification by Stimulated Emission of Radiation) es

Del “lente espía” al poderoso radar láser

Un proyecto de Tesis de Maestría en Física de los estudiantes de la UN en Medellín Daniel José Nisperuza y Gabriel Felipe Botero, dirigi-

Fotos archivo particular

Domingo 8 de marzo de 2009

do por el científico Álvaro Bastidas, elaboró el primer radar láser hecho en Colombia. Esta nueva tecnología contribuirá significativamente al diagnóstico del cambio climático.


Ciencia y tecnología

Monitoreo de la troposfera Los procesos que rigen los fenómenos naturales, tanto en el mundo animal como en el inanimado, se deben a la interacción entre las especies existentes en la superficie terrestre y la atmósfera que la rodea. Esta interacción se basa en los ciclos naturales de los elementos químicos básicos para el desarrollo de la vida y de los procesos geológicos, como son el carbono, el oxígeno, el nitrógeno y el azufre, así como también el balance energético que se establece entre la superficie terrestre y la atmósfera. La interacción entre la superficie de nuestro planeta y la atmósfera define una parte común, denominada la biosfera, en la cual se desarrolla la vida. Los procesos químicos que ocurren en ella dependen también de los que se producen en las partes más altas de la atmósfera, teniendo en cuenta que entre las distintas capas atmosféricas, existe un intercambio de materia y de energía, que en principio se mantiene en equilibrio. La atmósfera terrestre es una entidad compleja,

su composición química y la meteorología dominante depende de la altitud. Parámetros como la atracción gravitacional terrestre, procesos biogeoquímicos que ocurren en la superficie terrestre y la incidencia de la luz solar, son los que, básicamente, conforman la distinta naturaleza fisicoquímica de la atmósfera a diferentes altitudes. La zona más baja de la atmósfera o la tropósfera, se extiende desde la superficie terrestre hasta una altura de unos 12 kilómetros y debido a un declive negativo de temperatura, presenta movimientos conectivos de masas de aire verticales y horizontales, y tiene como protagonistas a las partículas que se encuentran en el aire cuando se empiezan a mover. En esta capa atmosférica se concentrará su labor investigativa la UN en Medellín. Usando el radar láser se busca determinar la capa límite planetaria, considerada como la más turbulenta y en donde se forman y transportan las partículas contaminantes típicas de una determinada región. “Para lograrlo, en la Universidad Nacional en Medellín, se ha construido un Observatorio Atmosférico con especificaciones técnicas y de seguridad, dotado de una ventana corrediza en el techo que permite dirigir directamente la potente luz láser hacia la atmósfera y recibir el retorno de la misma mediante un telescopio reflector adaptado y modificado para tal función. Este Observatorio se constituye en el tercero de este género en Sur América, después de Argentina y Brasil” explicó el profesor Bastidas. Esta primera etapa de investigación, se concen-

trará en la sede de la UN. A futuro, se prevé la posibilidad de extender las aplicaciones del equipo de monitoreo e incluso su desplazamiento hacia fuera del laboratorio, adaptando un vehículo utilitario para su transporte, cosa que no figura en el presente proyecto.

Especificaciones del equipo de medida El radar láser construido en la Universidad funciona con un láser Quanta System tipo Nd: YAG, donado por el Grupo Lidar del doctor Máximo Del Gusta del Instituto de Física Aplicada de Florencia, Italia. Este tipo de láser tiene un medio activo conformado por el elemento químico neodimio (Nd) y un cristal sintético

llamado YAG y constituido por óxido de itrio y óxido de aluminio. Ese conjunto emite luz láser al ser accionado por un tipo particular de lámpara. La luz láser es enviada en forma de pulsos ultracortos a la atmósfera, mediante un telescopio reflector importado desde Bélgica, que ha sido adaptado también para recibir la luz láser que retorna al observatorio. Los componentes de detección, conversión, registro, y procesamiento de señales Lidar, son de última generación, en su orden: filtros de interferencia, divisores dicroicos de amplitud, tubos fotomultiplicadores de alta eficiencia cuántica y sensitividad, electrónica de amplificación, discriminación, y de escalamiento de gran ve-

locidad y con blindaje antirruido, digitalizadores y software de procesamiento e inversión. “Cada paso en la construcción de este equipo, (diseños, construcciones, acoples, sincronía de señales, etc.), ha sido sometido a un test de rigor, cuyos resultados indican que estamos en el camino correcto”, afirma Bastidas, quien agrega que, con la conclusión del trabajo, se podrán efectuar mediciones en períodos mayores y con mayor frecuencia. “La idea es hacer pruebas que duren cerca de ocho horas, para obtener evaluaciones más amplias sobre el comportamiento de los contaminantes en la región”. El tiempo que falta para la conclusión del proyecto, prevista para diciembre de 2009, será utilizado en medidas tiempos de vuelo, acople de foto multiplicadores y fotodiodos en avalancha, registros espectrofotométricos, ajustes, calibración, y validación de resultados. Se planea realizar las tareas de unificación y validación de protocolos necesarios para la interpretación de las medidas, conjuntamente con importantes grupos internacionales de estudios atmosféricos que utilizan la técnica LIDAR, que tienen gran trayectoria y reconocimiento internacional, entre ellos: Grupo Lidar del Instituto de Florencia, Italia, Grupo Lidar del Instituto de Investigaciones Nucleares, Universidad de Sao Paulo, Brasil, Instituto de Metodología para Análisis Ambientales de Potenza, Italia, y el Grupo Raymetrics de Atenas, Grecia, con los cuales el grupo de científicos colombianos vienen interactuando y estableciendo nexos de trabajo.

Más economía e investigación • Del alcance en recorrido que tiene el radar que se encuentra en la UN en Medellín, por ahora, se aprovechará un recorrido de tres kilómetros. El objetivo inicial es comenzar estudios de la toprósfera. • Analizando la toprósfera, los investigadores de la UN en Medellín avanzarán en estudios estratégicos no sólo para la capital antioqueña. Los conocimientos que se adquieran serán de gran utilidad para la comunidad científica mundial porque hasta ahora no existe información de apoyo al entendimiento de los procesos atmosféricos en la ubicación geográfica que se encuentra Colombia. • Principalmente, porque en el país no existe aún un observatorio atmosférico con las características que tiene el de la UN en Medellín. En un futuro, se espera extender sus aplicaciones porque la Universidad ya tiene entre sus metas, abrir las posibilidades de exploración de las de las múltiples funciones de un láser de ese tipo. Potencialmente el sistema Lidar se puede adaptar a funciones de monitoreo y control de cultivos, de levantamiento topográfico, estudio de aguas, etc., cuando se hace la exploración desde alturas al ser instalado adecuadamente en aeronaves. • Los investigadores de la UN en Medellín, consideran que con el desarrollo del radar láser, la investigación deja atrás muchos métodos costosos, lentos y poco eficaces para el análisis de lo que sucede en el ambiente. • Los métodos convencionales para análisis ambiental se fundamentan en procesos relacionados con determinación química de contaminantes, en los cuales eventualmente se apoyan en algunos procedimientos de la óptica tradicional, resaltando el uso de lo que se conoce como óptica refractiva. Históricamente, el soporte de este campo de la óptica lo hizo en 1609 Galileo Galilei, al inventar el primer telescopio astronómico. • El descubrimiento del científico italiano, llamado en su época, “el lente espía”, se convierte en el principio del radar láser junto con los grandes avances de la óptica y la electrónica cuántica, respecto a láser y detectores.

Domingo 8 de marzo de 2009

un dispositivo que utiliza un efecto de la mecánica cuántica, cuyos fundamentos para su desarrollo los estableció Albert Einstein en 1916. Solo hasta 1960, los científicos estadounidenses Charles H. Tornes, (premio Nobel de Física, 1964), y Arthur Leonard Schawlow, registran la patente del primer láser. La primera propuesta de usar la luz para determinar la densidad atmosférica detectando su dispersión en la atmósfera la hizo el científico irlandés E. H. Synge, en 1930. Un buscador luminoso antiaéreo puede ser usado como una fuente generadora del haz y un gran telescopio como un receptor. En 1936, Hulbert, usa este método y obtiene resultados fotografiando un haz de luz en la atmósfera a una altura de 28 kilómetros, y realizó los cálculos de los perfiles de la densidad atmosférica a partir de sus medidas. En 1956, Friedland y otros, reportaron el primer Lidar que usa luz pulsada, para medidas de densidad atmosférica. La ventaja de usar pulsos de luz consiste en que por cada pulso puede registrarse un perfil de dispersión atmosférica completo. Luego de la invención del láser, los desarrollos en Lidar, han sido estrechamente ligados a los avances en la tecnología del láser. El uso del primer láser en un sistema Lidar fue reportado en 1962 por el científico estadounidense Smullin e italiano Giorgio Fiocco, detectando luz láser dispersada por la superficie lunar.

13


14 Ciencia y tecnología Unimedios

La edad es desde el momento del nacimiento un factor clave en la vida humana, no solo como un referente matemático que permite prever la vejez o proyectar el futuro, sino como un indicador del que muchas veces dependen factores de riesgo que afectan la salud y el pronóstico, sobre todo de los neonatos. Por tal razón, como respuesta a algunas enfermedades que sufren los bebés en el momento del nacimiento, relacionadas con su tiempo de vida, investigadores de la Universidad Nacional de Colombia, validaron un nuevo indicador de edad gestacional al nacer, llamado Talla (en centímetros) menos 10. Éste, al permitir un cálculo rápido de la edad gestacional al nacer, facilita calificar riesgos y tratar a tiempo problemas de salud en los recién nacidos. En el mundo de la medicina se cuenta con varios métodos de este tipo, como la ecografía, las tablas y el cálculo a partir de la última menstruación. Sin embargo, como lo afirmó el director de la investigación, Santiago Currea, son imprecisos o complejos y, en ciertos casos, requieren de intervención de personal muy capacitado para su aplicación. “Este método que nosotros describimos es susceptible de ser aplicado por personal de formación básica. Además va a permitir en áreas periféricas, obtener un cálculo muy aproximado de la edad gestacional, útil en la calificación de riesgos de los niños, para emprender un tratamiento o llevarlos a centros de mayor complejidad”, sostuvo el docente. En el estudio participaron los estudiantes de posgrado en Pediatría Adriana Cuenca, Juan Carlos Herrera, Edna Catherine Guzmán, Karen Ruiz y la interna especial Angélica Chantré.

Nuevo indicador

para conocer edad gestacional

Un novedoso y sencillo método de valoración de la edad gestacional al nacer, no descrito antes en la literatura, fue desarrollado por investigadores de la Universidad Nacional de Colombia. El trabajo mereció el primer premio en el Quinto Congreso Latinoamericano de Neonatología.

Víctor Manuel Holguín/Unimedios

Magda Páez Torres,

El estudio se adelantó con 848 niños del Instituto Materno Infantil de Bogotá. El resultado fue muy coincidente. Cuando

a la talla se le restaba 10 y se graficaba junto a la edad gestacional, había una correlación fortísima. Cuando hay un nacimiento pretérmino, aumentan los riesgos de los recién nacidos. Por ejemplo, si alguien nace con 32 semanas de edad gestacional es más propenso a padecer una enfermedad llamada membrana dialina, que es insuficiencia pulmo-

ros –los que van más allá de la semana 42– también tienen complicaciones. Por ejemplo, comparten con el prematuro el riesgo de hipoglicemia. “Todo esto hace que el cálculo de la edad gestacional al nacer sea importantísimo”, aseveró el docente de la UN. La última menstrua-

El nuevo indicador gestacional –premiado en el Quinto Congreso Latinoamericano de neonatología, por sus aportes en el área– es muy sencillo: consiste en tomar la medida al bebé, expresada en centímetros y restarle 10. Es decir, si el recién nacido mide 52 centímetros, al aplicar el indicador daría 42 que sería el tiempo en semanas de la gestación.

Domingo 8 de marzo de 2009

Menos 10 El nuevo indicador gestacional –premiado en el Quinto Congreso Latinoamericano de neonatología, por sus aportes en el área– es muy sencillo: consiste en tomar la medida al bebé, expresada en centímetros y restarle 10. Es decir, si el recién nacido mide 52 centímetros, al aplicar el indicador daría 42 que sería el tiempo en semanas de la gestación. La edad gestacional normal es de 40 semanas.

nar por inmadurez y puede tener necesidad de ser asistido por ventilación mecánica. También tiene riesgos metabólicos, circulatorios y de adaptación a la vida extrauterina. Por tanto, un niño con esas características debe ser rápidamente remitido a un sitio donde pueda recibir la asistencia integral con toda la profundidad posible para el caso concreto de la deficiencia respiratoria y, en general, de todos sus riesgos. Los niños posmadu-

ción, explicó, es el método más antiguo y reconocido para calcular la edad gestacional, pero tiene factores de error, por ejemplo, un mal conteo de la madre que puede llevar a creer que cuenta con más semanas de las que en realidad tiene. “En ocasiones, también se presenta un sangrado de implantación, que genera la falsa impresión de una regla que ocurre 4 semanas después de la fecundación”, explicó el profesor Currea. De igual forma, agre-

gó, la ecografía es muy útil, pero necesita ser practicada de manera seriada desde el comienzo de la gestación. “Esta no cubre en general a las madres, porque es un recurso costoso, no asequible para todos”, aclaró. Otro de los métodos existentes son las tablas para calcular la edad gestacional, entre ellas la de Ballard y la de Capurro, que, según el investigador, presentan complejidad, requieren de entrenamiento especial, son dispendiosas y tienen algún rango de imprecisión.

Bases del trabajo El estudio se adelantó con 848 niños del Instituto Materno Infantil de Bogotá. Con base en una publicación alemana llamada Tratado de patología perinatal, el investigador estudió las tablas de la doctora Lula Lubchenco, consideradas un hito histórico en cálculo de edad gestacional y de riesgo, a partir de esta estimación. “El libro cae en nuestras manos y al examinar la tabla de los datos de ella identifiqué un intervalo que se mantenía entre lo

que se llama el percentil 50 de talla y la edad gestacional. Medí ese intervalo y encontré que era 10. Entonces, lo graficamos y al restarle 10 a la cifra de la talla coincidía casi con superposición absoluta con la edad gestacional”, explicó el profesor Currea. Es así como empieza la etapa de prueba en niños colombianos. El resultado fue muy coincidente. Cuando a la talla se le restaba 10 y se graficaba junto a la edad gestacional, había una correlación fortísima. Se hizo, así mismo un índice de correlación con una prueba estadística llamada Test de Pearson, que da valores de menos 1 a más 1. “Nuestro estudio dio un valor de correlación de +0.72. Es decir, tenemos 7 octavos de correlación, que se estima muy fuerte”, dijo el investigador de la UN. Es así, como basado en los resultados de estas pruebas, nace un nuevo indicador de valoración de la edad gestacional, para la ciencia médica, no descrito antes en la literatura. La idea es que se empiece a extender su uso para prestar atención oportuna a los neonatos.


Ciencia y tecnología

Un novedoso Software, principal herramienta que utilizarán los médicos, les permitirá a los beneficiarios de Unisalud estimar de manera individual y bajo resultados cuantitativos, los factores de riesgo que conllevan a las enfermedades prevalentes. La Unidad de Servicios de Salud –Unisalud–, en convenio con el Instituto de Investigaciones Clínicas y el Departamento de Salud Pública de la Facultad de Medicina de la UN, desarrolló el Proyecto para la Estimación de Riesgos en Salud –Peres–. “Esta investigación es un estudio que caracteriza la dinámica epidemiológica de un conjunto de problemas de salud relevantes para los diferentes grupos de la población de Unisalud, permitiendo obtener: información sobre la carga de la enfermedad, distribución de los factores de riesgo, intervenciones costo–efectivas y la construcción del software Conoce tu riesgo en Salud”, sostuvo Marqueza Bozón, Gerente Nacional de Unisalud. Como primera medida se utilizó la base de datos de los pacientes usuarios de Unisalud durante los años 2004 y 2005, para estimar la carga de enfermedad en los mismos. La pirámide poblacional muestra cómo cerca del 70% de la misma tiene más de 44 años, o sea adulta y adulta mayor, con una expectativa de vida de 79 años. Estos comportamientos en relación con la distribución etárea y la expectativa de vida a nivel nacional, distan de manera significativa. Se estimó que durante el período estudiado, el número de años perdidos prematuramente o vividos con discapacidad (Disability Adjusted Life Years –DALYs-, en español AVISAS) fue de 174,82 por cada 1.000 mujeres, y 178,17 por cada 1.000 hombres, para un promedio de 176,4 DALYs por cada 1.000 usuarios. Esto significa que de la población existente a la fecha (13.004 individuos) en Unisalud, se estima que anualmente se pierden 176 años de vida potencial por cada 1.000 individuos. La distribución demográfica en Unisalud, junto con la cifra de carga de enfermedad precitada, ubica a la población en un nivel similar al de países europeos de bajos ingresos, que dista con los referentes propios del país y de la región. El siguiente paso del proyecto se enfocó en conocer el tipo de enfermedades o condiciones que estaba sufriendo el grueso de la población de Unisalud. “Como ha venido sucediendo en el mundo, incluso en países del tercer mundo, los resultados mostraron que casi el 90

existencia de determinados factores de riesgo líderes, mediciones antropométricas (peso, talla, circunferencia de la cintura), tensión arterial, colesterol, trigliceridos, glicemia, en el paciente. En este caso, los resultados se obtendrán de forma cuantitativa y el Software generará recomendaciones para lograr la disminución de los factores de riesgo así como su remisión a programas de prevención. “Estamos en la fase de entrenamiento a los miembros del personal sanitario de Unisalud. Una vez haya entendimiento de su funcionamiento e interpretación se pasará a la fase de entrenamiento a usuarios. Por el momento va a ser una herramienta que les permitirá a los clínicos, en el consultorio, estimar el riesgo de alguno de las condiciones o enfermedades prevalentes en Unisalud de manera individualizada. Si se detecta un riesgo elevado, más allá de los umbrales que ya hemos establecido, se remitirá al programa respectivo”, confirmó el profesor Echeverry.

Los pacientes de la Unidad de Servicios de Salud, Unisalud, podrán ahora realizar su consulta médica personalizada a través de un novedoso Software que arroja

resultados cuantitativos y estima los factores de riesgo de padecer enfermedades para atenuar y mitigar su impacto. Más de 13.000 personas serán las beneficiadas.

Consulta médica

Políticas para atenuar los factores de riesgo

en línea

por ciento de la carga de enfermedad, estuvo concentrada en enfermedades no transmisibles (ENT) o crónicas. En ese orden de ideas aparecen como principales condiciones generales, en su orden, las enfermedades neuropsiquiátricas (incluido el abuso de alcohol y sustancias), las del sistema músculo–esquelético y las cardio–cerebro–vasculares”, remarcó el Dr. Jairo Echeverry Raad, director del proyecto quien es además Director Nacional de Programas de Pregrado de la UN. Tratándose de enfermedades o condiciones específicas, la osteoartritis, la depresión mayor, la artritis reumatoidea, la Enfermedad Pulmonar Obstuctiva Crónica (EPOC) y la enfermedad hipertensiva son las primeras en las mujeres, mientras que en los hombres lideran la lista

la osteoartritis, el consumo de sustancias, la depresión mayor, la enfermedad cardíaca isquémica y la hipertrofia prostática benigna. Tras una búsqueda sistemática de información a fin de construir una encuesta, y la realización de la misma a cerca de 1.300 usuarios, se pudo establecer la lista de factores de riesgo líderes asociados a la carga de enfermedad prevalente sobre los cuales, de manera prioritaria, se deberían enfocar los esfuerzos preventivos en Unisalud. Los resultados fueron: hipertensión arterial, sobrepeso u obesidad, inactividad física o sedentarismo, dieta inadecuada con escasa ingesta diaria de frutas o verduras, tabaquismo, colesterol y glicemia elevados, abuso de alcohol y sustancias psicoactivas. La identificación y prio-

rización de los factores así como sus pesos, permitió la construcción de modelos matemáticos que permiten y permitirán estimar de manera muy aproximada la probabilidad de desarrollar alguno de los principales eventos, enfermedades o condiciones prevalecientes. Con la interfase gráfica adecuada estos modelos se transforman en un Software que permitirá estimar los riesgos y las probabilidades en los consultorios de Unisalud.

Implementación del Software A través del Software ‘Conoce tu riesgo en salud’, los clínicos realizarán una encuesta individual a los pacientes, al mismo tiempo que digitarán los datos en el aplicativo. Estos datos incluyen aspectos generales, antecedentes,

“La población de Unisalud, con longevidad significativa en relación con el promedio nacional, se afectará cada vez más, y casi exclusivamente, de Enfermedades Crónicas (ENT), y por tanto con Factores de Riesgo comunes, diseminados, sinérgicos y algunos de ellos modificables”, declaró el Dr. Echeverry. Partiendo de esto, con la ayuda del software referido, y con la organización y administración correspondientes, se planea introducir progresivamente programas preventivos de enfermedades en el siguiente orden: Cardio–cerebro–vasculares (dieta–actividad física–cesación tabáquica–manejo farmacológico), Enfermedad Pulmonar Obstructiva Crónica (EPOC), Neuro–psiquiátricas, incluyendo el abuso de alcohol y sustancias psicoactivas, Oseoarticulares, y Cáncer. “Se estima que, a largo plazo, la afectación sinérgica de los principales factores de riesgo en Unisalud, a través de programas y acciones graduales, conducirá a una reducción de cerca del 60% de la carga de enfermedad. Sin embargo, lo que se busca a través de este proyecto a corto y mediano plazo, es impactar los factores de riesgo (e irlos midiendo) para disminuir la probabilidad de que, en esa longevidad, aparezcan las enfermedades crónicas que se han llamado de alto costo, determinadas por dichos factores”, concluyó el Director del Proyecto.

Domingo 8 de marzo de 2009

Unimedios

Fotos archivo Unimedios

Nicolás Congote Gutiérrez,

15


Carlos Andrey Patiño,

Unimedios

“¿Por qué me gusta el tema de la evolución? Nosotros somos producto de una historia, y es en el entendimiento de esa historia que podemos dilucidar las relaciones con las demás especies, con el espacio en donde se habita y con el tiempo en el que se está. Me parece que no hay manera de entender todas estas relaciones simultáneamente sino es desde el punto de vista evolutivo”. La apreciación es de la joven magister y estudiante de doctorado María José Sanín, que se unió al Grupo de investigación en palmas silvestres neotropicales, del Instituto de Ciencias Naturales de la Universidad Nacional de Colombia, para trabajar un proyecto que permitió, entre otros aspectos, postular una teoría sobre el proceso evolutivo de las palmas de cera (Ceroxylon Bonpl.) en la región andina sudamericana. La diversidad de las palmas de cera es mucho más alta de lo que se conoce. En Colombia la más popular, por ser el Árbol Nacional, es Ceroxylon quindiunese, que se halla en las tres cordilleras, siendo su sitio más conocido el Valle del Cocora (Quindío). En América Latina el género, con doce especies, se encuentra en ecosistemas montanos desde el sur de Bolivia hasta los Andes de Venezuela. Si bien, hacia 1929 se hizo la primera revisión científica del género –en ese entonces se identificaron 19 especies– solo hasta ahora se cuenta con un estudio pormenorizado que hace una descripción morfológica, una aclaración de la nomenclatura de cada una de las especies y una hipótesis evolutiva sobre el grupo.

Tras la evolución de la palma de cera En peligro Sanín, quien es oriunda de Medellín, explica que todas las especies de Ceroxylon están amenazadas. Por ejemplo, en el caso de la Palma de Cera del Quindío el problema es crítico, porque los terrenos en donde se asienta son utilizados para la ganadería extensiva. “El ganado se come las plántulas y las semillas. Esto no le permite a la especie regenerarse completamente. Por eso, lo que la gente ve en sitios como el Valle del Cocora son árboles del pasado, debido a que son ejemplares de hasta 300 años de edad. Es escaso encontrar plantas jóvenes”. El trabajo de Sanín le entrega al país datos relevantes, no solo desde el punto de vista filogenético y de la sistemática del género, sino desde la parte biológica. “Lo ideal es que los entes territoriales tomen medidas de conservación. Las palmas son importantes a nivel ecológico porque son lugar de nidación y alimentación de varias especies de aves”. Es el caso de la especie Ceroxylon ceriferum, que crece en la Sierra Nevada de Santa Marta y le sirve de nido a una especie de perico endémico de la región. Allí, la Fundación Proaves protege este tipo de palma para conservar la relación ecológica entre el perico y la palma. Otro caso que amerita la atención de las autoridades ambientales es el de un tipo de palma de cera de la que solo sobreviven unos 100 individuos adultos en los municipios de San Francisco y Sasaima (Cundinamarca). Según la estudiante de doctorado, de esta planta no se conoce bien su origen, cuál era su distribución original y cómo era su condición silvestre, pues hoy solo se encuentra cultivada en fincas y entre cultivos de café.

Ceroxylon quindiuense, Tolima

La Ceja.

Una palma con records • La palma de cera del Quindío es la especie más alta del mundo, alcanza hasta los 55 metros. • El género Ceroxylon es el tipo de palma que crece a mayor altitud del mundo. Estas se encuentran hasta en los 3.500 metros de altura sobre el nivel del mar. • Es una de las plantas más longevas, puede vivir entre 200 y 350 años de edad. • Tucanes, pericos, guacamayas, loras y pavas son los tipos de aves que anidan o se alimentan de las diversas especies de palma de cera. • Colombia, Bolivia, Ecuador, Perú y Venezuela son los países que cuentan con especies de Ceroxylon. • Este género pertenece a un grupo de palmas, distribuidas en Madagascar, las Islas de Comores y Juan Fernández, Australia y Sur América.

Origen del género Quizás el aspecto que más emociona a María José es el que tiene que ver con las relaciones de parentesco entre las especies del género Ceroxylon en toda la región andina y su comprensión desde el punto de vista biogeográfico en los Andes. “Darwin nos dejó una teoría a partir de las cual, con la ayuda de técnicas moder-

nas, podemos generar esta clase de proyectos, como el que desarrollé en mi tesis de maestría, en la que utilice la sistémica filogenética para entender esas relaciones entre las especies”. Ahora, en su doctorado, podrá estudiar la evolución desde la genética de las poblaciones, que

Domingo 8 de marzo de 2009

La palma de cera del Quindío (Ceroxylon quindiuense), emblema nacional de Colombia, es la más reconocida de este género de palmas que tiene una diversidad amplia. Un proyecto del

Instituto de Ciencias Naturales de la UN nos recuerda que los postulados darwinianos están más vivos que nunca. El estudio de la evolución también permite tener herramientas para la conservación de especies en peligro de extinción, en este caso para las Ceroxylon de la región Andina sudamericana.

Fotos cortesía Gloria Galeano Garcés

16 Investigación

se enmarca en un proyecto internacional de gran envergadura, apoyado por la Unión Europea, en el que también participará el grupo de investigación en palmas silvestres neotropicales. Desde la perspectiva filogenética, con base en caracteres morfológicos, el proyecto de Sanín generó la hipótesis de que el género Ceroxylon, de la región andina, tiene como origen el sur de los Andes centrales, en Bolivia. Desde allí comenzó su dispersión hacia el norte de los Andes, con repetidos eventos de especiación. “El origen del género Ceroxylon lo ubicamos en el sur porque su género hermano está distribuido solo en las Islas de Juan Fernández (Chile), a 30 grados de latitud sur y eso nos da un indicador de origen. Es posible que la palma de cera estuvo limitada en su extensión por la glaciaciones del pleistoceno, favoreciendo expansiones de rango de distribución de las especies que crecen más alto y contracciones de rango de distribución en las de zonas más bajas, como por algunas barreras geográficas como las depresiones de Huancabamba, Táchira y de Cesar-Magdalena”, explicó la bióloga. Trabajos de este tipo nos recuerdan que los postulados de Darwin están más vigentes que nunca; que así como la historia humana tiene que ser registrada para que podamos responder mejor en el presente, así mismo se debe conocer esa compleja historia biológica para comprender la naturaleza actual, apreciarla y conservarla.

Ceroxylon sclerophyllum

Norte de Santander Páramo Tamá.


Investigación

17

El bocachico, la corvina y la dorada, entre otros peces, están desapareciendo. Un estudio de la UN estableció que debido a fallidos programas de repoblamiento, a la sobrepesca, a la contaminación estas especies ícticas nativas del río San Jorge, en el departamento de Córdoba, se están extinguiendo. Carlos Andrey Patiño,

Unimedios

Varias especies de uno de los ríos más importantes del departamento de Córdoba, el San Jorge, están amenazadas. La sobrepesca, programas de repoblamiento fallidos, los tipos de trasmallos utilizados, la contaminación y factores ambientales disminuyen, drásticamente poblaciones de peces vitales para el consumo de las poblaciones rivereñas y para el equilibrio ecológico del río. Tanto es así, que un proyecto de caracterización genética de seis especies ícticas del río San Jorge, realizado por la profesora María del Consuelo Burbano, del Departamento de Biología de la Universidad Nacional de Colombia en Bogotá, pudo establecer que especies nativas del río como el bocachico, la corvina y la dorada están demasiado mermadas. Una clave de conservación es la diversidad genética. Entre más individuos haya de cada espécimen, más posibilidades de supervivencia. En el río San Jorge ocurre lo contrario. Los pocos peces que quedan, por ejemplo, de bocachico, se cruzan entre sí, lo que provoca endogamia. Esto los hace más vulnerables a los cambios.

Peces del río San Jorge,

en cuello de botella

producción masiva y hacer repoblamientos grandes, como se ha hecho en el río Sinú. También se puede esperar a ver si la poca población de peces entra en un efecto fundador, y así poder restablecerla con un estudio dirigido de aquí a cinco años”, dijo la experta del Grupo de Conservación Genética, del Departamento de Biología, de la UN. El efecto fundador, al que se refiere Burbano, es el que sucede cuando las especies entran en un cuello de botella poblacional, pero las condiciones ambientales permiten que los animales se vuelvan a reproducir satisfactoria-

mente. Para esto, se requieren ciertos requisitos, como que no haya sobrepesca y que los ejemplares sean agarrados cuando tengan la talla adecuada para que garantice su reproducción. Dado el caso de que no haya condiciones para el efecto fundador, se recurriría al método de repoblamiento con peces de otras cuencas. La bióloga de la UN sostiene que en este caso hay que tener mucho cuidado, porque un mal programa de repoblamiento puede agravar la situación del río o simplemente, no alcanzar los objetivos deseados. “Lo preferible es to-

Reducción La profesora Burbano explica que uno de los casos más preocupantes es el de la población del pez dorada. En el estudio, que se hizo en convenio con la Corporación Regional para los ríos Sinú y San Jorge (CVS) y Fonade, ni siquiera se halló animales suficientes para hacer un análisis estadístico de la especie. “En este caso es imposible que se pueda hacer un reconocimiento del acervo genético. Lo que se puede plantear es desarrollar programas de re-

mar peces de la misma cuenca. Los otros ríos tienen condiciones ambientales específicas que moldean los genes de sus peces. Cuando uno traslada peces de un río a otro, muchas veces se incluyen genes no muy aptos a las nuevas condiciones ambientales, y en vez de mejorar la situación, se empeora. Incluso, se puede llegar a eliminar una población nativa en un momento dado”, aclara la docente.

Programas dirigidos La introducción de peces nuevos para el repoblamiento de un río se

puede hacer, pero analizando los aspectos genéticos de los animales elegidos. Burbano manifiesta que los genes deben ser bien estudiados, así como las características del ambiente del que proviene el ejemplar. Por ejemplo, no es lo mismo un bocachico del río Magdalena, que uno del río Sinú. “El del Magdalena tiene que nadar muchos más kilómetros para desovar, está condicionado genéticamente para ese fin. Si se toma este pez y se lo introduce en un río corto, tendrá problemas para su adaptación, pues no reconocerá su nuevo ambiente. Es por eso que muchos programas de repoblamiento no dan los frutos esperados. La gente piensa que por ser de la misma especie responderá igual”, anota la investigadora. Dice Burbano que antes había entidades oficiales que patrocinaban relocalizaciones de peces sin mayores estudios ni restricciones, porque no se conocía el tema de la variabilidad genética. Ahora se entiende el por qué fallaron esos programas. En la actualidad hay herramientas científicas para aplicar buenos procedimientos. Según la investigación, no todos los peces están en crisis. Es el caso del bagre rayado, cuya población todavía es alta por lo que cuenta con una alta variabilidad genética, a pesar de que son animales que se están pescando por debajo de la talla legal. “Esta es una especie que tiene una respuesta genética muy buena y se puede seguir explotando. Claro está que se deben hacer algunos análisis y aplicar algunas políticas de veda corta”. La recomendación general del estudio es utilizar los hallazgos genéticos poblacionales para crear estrategias de reproducción y políticas para establecer vedas.

Domingo 8 de marzo de 2009

Son varios los factores que llevan a la disminución de las especies nativas de los ríos colombianos. Uno de los más graves es la introducción de especies foráneas. Es el caso de la tilapia, un pez originario de África que fue traído al país para el repoblamiento de los causes y para aumentar la producción de peces para el consumo. Según la profesora María del Consuelo Burbano, del Departamento de Biología de la UN, la introducción de la tilapia hace que las especies nativas se arrinconen. “La tilapia utiliza los nichos en los que se reproducen otros peces. Si bien es una especie exitosa, utilizada por las casas piscícolas, sus explosiones demográficas son un gran riesgo para los especímenes locales, ya que son más lentas en reproducirse. En varios ríos hoy se encuentra, mayoritariamente, tilapia”.

Fotos archivo particular

Tilapia, una amenaza foránea


18 Medio ambiente

Técnicas para prevenir derrumbes

Año tras año Colombia se ve afectada por derrumbes y deslizamientos, registrados principalmente en épocas invernales. Para

contrarrestar esta situación un investigador de la UN en Palmira diseñó una técnica con base en investigaciones científicas de más de 60 años que utiliza estructuras biológicas para el control de la erosión y movimientos masales, conocida como Bioingeniería. Esta ya ha sido ampliamente comprobada en el país y permite la recuperación ecológica de áreas afectadas. Laura Marcela Fuertes Sánchez,

Domingo 8 de marzo de 2009

Las pérdidas humanas y materiales no fueron las únicas consecuencias del terremoto del eje cafetero, registrado el pasado 25 de enero de 1999, día en que murieron miles de personas a causa del movimiento telúrico de 6,2 grados en la escala de Richter. “A partir de ese día, en muchas de las ciudades, municipios y corregimientos donde se sintió el movimiento sísmico, la erosión y los movimientos masales se convirtieron en uno de los problemas que más aquejaban a estas comunidades”, narró Rafael Castaño, Presidente de la Corporación Ecoambientes del municipio de Argelia. Precisamente una de las mesas de concertación dedicadas a planificar las obras de reconstrucción estuvo dirigida a mitigar los daños ocasionados en los suelos, y Villa Rosa, vereda del municipio de Argelia, Valle del Cauca, fue uno de los lugares que más apoyo necesitó. En esta población se ejecutaron proyectos financiados por la Corporación Autónoma Regional del Valle del Cauca, CVC y el Centro para la Investigación en Sistemas Sostenibles de Producción Agropecuaria, CIPAV, como entidades financiadoras del proyecto. Sin embargo, aseguró Rafael Castaño, las labores de restauración ecológica fueron realizadas por las organizaciones base del Municipio: Corporación Ecoambientes y la Cooperativa de Parceleros de Villa Rosa, Copavi, ambas sin ánimo de lucro; con la asesoría del profesor José Horacio Rivera, quien ingreso al proyecto como parte del convenio. El docente Rivera fue el encargado de introducir al proyecto las técnicas de Bioingeniería para la prevención y control de la erosión, y la protección y estabilización de taludes que es la inclinación de un terreno. Técnica que se convirtió en una alternativa ambiental y financiera que permite recuperar en poco tiempo los terrenos afectados, que de ser intervenidos mediante obras mecánicas de ingeniería convencional resultarían en un 85 a 98 por ciento más costosas, sumándole el impacto ambiental negativo y sin asegurar un éxito a futuro. La Bioingeniería consiste en imitar a la naturaleza, utilizando los recursos vegetales propios de

Fotos cortesía José Horacio Rivera

Unimedios

Balmoral fase final: Después de seis meses esta región del país no sufre de deslizamientos, derrumbes y la vegetación volvío a florecer, gracias a este proyecto que fue financiado por Corpocaldas y liderado por el profesor

José Horacio Rivera.

Balmoral fase inicial: En la Vereda Balmoral, municipio de Filadelfía - Caldas, se adelantó otro de los proyectos basado en técnicas de Bioingeniería. En esta ocasión se utilizaron trinchos vivos para estabilización superficial, re-

forzados con estacas vivas de nacedero (Trichanthera gigantea) y maní forrajero (Arachis pintoi) para evitar la erosión.


Medio ambiente

Con la aplicación de la Bioingeniería se recuperaron en

en encontrar la relación causa – efecto. Esto, mediante un buen inventario y diagnóstico a la luz de las interrelaciones roca, suelo, clima, vegetación, animal, infraestructura y hombre, y sin la necesidad de realizar estudios costosos, dar soluciones inmediatas, eficientes y eficaces, tanto a nivel preventivo como de control de estos problemas que tanto aquejan a la población civil en los períodos invernales, y que traen consigo pérdidas de vidas humanas, viviendas, cultivos y todo tipo de infraestructura”, expresó Rivera. Basados en el diagnóstico y en diversas ecuaciones que permiten determinar la susceptibilidad de los suelos a la erosión y la susceptibilidad de éstos a los deslizamientos, los integrantes del proyecto aislaron el área del problema y atacaron directamente el foco de erosión y de los movimientos masales. En el caso de Villa Rosa se utilizaron técnicas como: disipadores simples de energía, cubrimiento con maní forrajero (Arachis pintoi), construcción de trinchos vivos escalonados en la estabilización de drenajes naturales, establecimiento de filtros vivos, entre otras medidas de control y prevención. Los disipadores simples de energía consisten en estructuras en guadua ubicadas en pleno caudal, y reforzadas en cada uno de sus extremos con estacas vivas del mismo material. “Estas estructuras que se sitúan cada dos o tres metros dependiendo de la pendiente, estabilizan el cauce y favorecen el crecimiento de vegetación, para que las aguas no afecten el talud y produzcan a futuro una cárcava”,

Villa Rosa áreas caracterizadas por erosión severa y cárcavas remontantes (zanjas profundas originadas por el aumento de los caudales en un solo sitio en tiempo invernal, que desestabilizan y hacen colapsar los taludes laterales). Dicho problema generalmente se presenta en zonas situadas cerca a nacimientos, afectando el paisaje, la economía y las vías cercanas. En este proceso el profesor José Horacio Rivera transfirió la tecnología a la comunidad y capacitó a las personas. “El trabajo que se adelantó en Argelia y en otras zonas del país donde se ha realizado intervención basada en Bioingeniería, consistió

explicó Rafael Castaño. Los trinchos se utilizaron como estructuras totalmente vivas construidas en guadua verde (Guadua angustifolia), enterradas unos 0,5 metros por debajo del cauce de la quebrada y empotradas en los taludes laterales, para disminuir la velocidad del agua de escorrentía1, y conducir a la estabilización del fondo de cauces. Adicionalmente se elaboraron filtros vivos que consiste en la construcción de zanjas en sentido de la pendiente con dimensiones de 0,5 metros de ancho aproximadamente y una profundidad entre 0,5 a 2 metros, que permite aliviar la presión de

Experiencia en Villa Rosa

poros del terreno y aumentar la cohesión del mismo. Sobre las zanjas, se colocaron entre 4 – 6 tendidos de guadua joven menor de dos años, para que rebroten fácilmente. “Con ello se logró controlar la saturación del terreno por agua y mantener así una condición ideal de humedad que impida los movimientos masales y posteriores taponamientos del cauce de la quebrada, y formación de represamientos y avalanchas”, argumentó Castaño.

Más sobre la Bioingeniería Sobre el tema, el profesor Rivera añadió que los trabajos realizados en Cenicafé al comparar un terreno desprovisto de todo tipo de vegetación y otro con coberturas vegetales, se encontró que en el terreno sin coberturas se pierde hasta 500 toneladas por hectáreas de suelo al año, en relación con el suelo cubierto por éstas. En ese contexto, “la Bioingeniería cobra un papel de real

importancia debido a que los problemas de erosión o movimientos masales catalogados como demasiado complejos y no controlables económicamente por otras ciencias y tecnologías, desde el punto de vista de la Bioingeniería las soluciones se vuelven sencillas y realizables a costos muy bajos, ya que se atacan las causas en forma integral, precisa y de raíz, dando lugar a soluciones inmediatas, eficientes y eficaces”, aseguró el investigador. Para Rafael Castaño, la Bioingeniería les dio la oportunidad de disfrutar de la restauración ecológica, “en las zonas intervenidas creció nuevamente vegetación, se detuvo la erosión progresiva, mejoraron las vías, y desde el punto de vista social, los campesinos ya no tienen que pensar en que sus tierras se desvalorizaran”.

Aguas que caen y corren sobre los techos de los edificios, en calles, aceras y en cualquier otra superficie impermeable durante un evento de lluvia. 1

Domingo 8 de marzo de 2009

cada región del país, con el objetivo de reestablecer el equilibrio natural preexistente. Utilizar la Bioingeniería es, en palabras del profesor Rivera “construir estructuras totalmente vivas ambientalmente amigables, usando diferentes partes de las plantas, principalmente raíces y tallos; que a través del tiempo se convierten en obras vivas cada vez más fuertes, que sirven de refuerzo, como drenajes hidráulicos y barreras para contener la erosión y los movimientos masales”. Según el profesor Rivera, Doctor en Ingeniería en el área de Aprovechamiento de Recursos Hidráulicos con énfasis en Erosión, de la UN en Medellín, la técnica se viene aplicando en forma continúa desde 1990, con base en el proyecto ‘Prevención y Control de Problemas de Erosión y movimientos masales a nivel de Finca Cafetera’ que él mismo lideró en la Federación Nacional de Cafeteros de Colombia. “Este trabajo permitió orientar a diferentes granjas experimentales de Cenicafé ubicadas en cada departamento cafetero del país y a aquellos agricultores con problemas de erosión y deslizamientos en sus fincas. No obstante, también se han adelantado trabajos de investigación con el ICA, el Centro Internacional de Agricultura Tropical –CIAT, la Universidad Nacional de Colombia y Corporación Autónoma Regional de Caldas, CorpoCaldas, entre otros”, manifestó el investigador.

19


20 Medio ambiente

¿Cómo está la meteorología en Colombia?

José Daniel Pabón Caicedo

Cada año la celebración del Día Meteorológico Mundial se dedica a un tema especial y para el 2009 se planteó el lema: “El tiempo, el clima y el aire que respiramos”. Este tema invita a reflexionar acerca de que la mayor parte de la actividad humana y el funcionamiento de todos los ecosistemas continentales ocurren sobre la superficie de La Tierra, inmersos en la capa de la atmósfera más cercana a la superficie terrestre. Los ecosistemas y la sociedad se han adaptado a una composición más o menos estable de los gases que componen el aire, han establecido diferentes formas de relación con los procesos y fenómenos atmosféricos que ocurren continuamente (lo que se denomina tiempo atmosférico) y se han “acomodado” a unas condiciones predominantes que llamamos clima. Cualquier alteración de estos elementos ambientales o alguna expresión extrema de sus procesos (léase fenómenos extremos), incide en el funcionamiento o desarrollo y, en muchos casos, en la existencia de los ecosistemas y de los sistemas sociales. En estos últimos, las anomalías y fenómenos extremos generan impactos socioeconómicos de consideración, como las anomalías climáticas asociadas al fenómeno El Niño o los daños, tal vez más evidentes por lo inmediatos, causados por los huracanes, para mencionar solo dos de una larga serie de ejemplos que se podrían presentar.

Domingo 8 de marzo de 2009

Historia de la meteorología en Colombia El conocimiento acerca de los procesos atmosféricos y el clima que ocurren sobre el actual territorio colombiano, data de épocas precolombinas. Para su avance por este territorio, los primeros europeos debieron apoyarse en el saber de los indígenas establecidos en las diferentes regiones. Este conocimiento empírico fue transmitido de forma oral de una generación otra y, en el encuentro de dos mundos, de una cultura a otra. De este encuentro y de observaciones propias de los cronistas como Cieza de León, Hernández de Oviedo, Pedro Aguado, Pedro Simón y José Gumilla, entre los más destacados, se construyeron las descripciones del clima de la Nueva Granada entre el siglo XVI y XVIII. Las primeras observa-

AFP

Profesor Asociado Departamento de Geografía Líder Grupo de Investigación Tiempo, clima y sociedad Facultad de Ciencias Humanas Universidad Nacional de Colombia

El 23 de marzo se celebra el Día Meteorológico Mundial como un recordatorio del día de 1950 en el que se dio inicio a la Organización Meteorológica Mundial (OMM), organismo intergubernamental que reemplazó a la Organización Meteorológica Internacional (OMI) creada en 1873. Un experto de la UN hace un balance sobre el estado en esta materia en Colombia. ciones y mediciones instrumentales de variables meteorológicas registradas de que se tiene conocimiento1 se realizaron en Cartagena en 1735 por Jorge Juan y Antonio Ullóa, quienes formaron parte de una comisión que viajó a explorar la América meridional. Posteriormente, se destacan las mediciones y las investigaciones realizadas desde finales del siglo XVII y en el XIX en la expedición Botánica, los estudios de Caldas, de Boussingoult, de viajeros ingleses a la Nueva Granada, la Comisión corográfica, Eliseo Reclús y Vergara y Velasco2. En la segunda mitad del siglo XIX comenzaron a establecerse las mediciones regulares en sitios como Medellín y Bogotá y, a comienzos del XX en el Valle del Cauca. Pero solo entre los años 20 y 50 de siglo anterior empezaron a organizarse redes de medición por diversas entidades para suplir sus necesidades de información hidrometeorológica. El Servicio Colombiano de Meteorología e Hidrología (SCMH), que inició por recomendación y asesoría de la OMM en 1969, integró lo existente en la época en una red nacional con estándares de mediciones y observaciones regulares, de procesamiento y dio co-

mienzo al archivo nacional de la información hidrológica y meteorológica. Posteriormente, esta red ha sido operada por instituciones como el Himat (1978–1994) y el Ideam (desde 1995) como parte importante del Sistema de Información Ambiental del país. A finales del siglo XX comenzaron a establecerse las redes de seguimiento de la calidad del aire en las principales ciudades del país y en la actualidad son responsabilidad de las autoridades ambientales locales. La información generada a través de esta historia ha servido no solo para atender a su debido tiempo las necesidades de los diferentes sectores socioeconómicos del país y para la prevención de desastres, sino que también ha sido valiosa para mejorar el conocimiento sobre el tiempo y el clima en del territorio colombiano.

Clima e investigación Se ha estimulado la investigación en diferentes instituciones: en las mismas productoras de la información (Ideam, Corporaciones Autónomas Regionales, instituciones privadas), en universidades (Universidad Nacional de Colombia en

Bogotá y Medellín, principalmente), Universidad del Valle, Universidad Tecnológica del Chocó) y en centros de investigación especializados (Cenicafé, Cenicaña). El producto de la investigación ha permitido construir e ir mejorando los esquemas de pronóstico del tiempo y de predicción climática que deben difundir que han traído un beneficio social y económico evidente para el país. Esta mutua retroalimentación se puede ilustrar con las experiencias del país ante el fenómeno El Niño. El impacto del evento de 1991–1992 produjo pérdidas cercanas a los 3000 millones de dólares; en el evento de 1997–1998, que fue más intenso, las pérdidas se han estimado en cerca de 580 millones de dólares. Esto se debió a que por la investigación efectuada en diferentes instituciones se pudo, por un lado, mejorar la predicción sobre su efecto climático con lo que se orientó al país sobre las condiciones que se presentarían y, por otro, reducir la vulnerabilidad de diversos sectores. En términos generales se podría plantear que en Colombia en materia de meteorología se han establecido cuatro partes interrelacionadas: las institucio-

nes generadoras y difusoras operativas de información (histórica, actual y de pronóstico), la comunidad de investigadores (Universidades, centros e institutos de investigación), la comunidad que comunica o divulga información y conocimiento en la sociedad (unidades especializadas de comunicación en instituciones públicas y privadas, medios de comunicación, centros de enseñanza) y la comunidad de aplicación (grupos especializados en instituciones públicas o privadas, consultores, asesores). Todos ellos cumplen funciones específicas, que en muchos aspectos se entrelazan porque son interdependientes. Sin información de buena calidad no es posible mejorar el conocimiento y sin conocimiento no es posible generar información con calidad adecuada. Este análisis de la situación colombiana, conlleva a concluir que para suministrar información meteorológica con la calidad y oportunidad necesarias para garantizar a la comunidad nacional los aspectos de seguridad ya mencionados, corresponde al Estado colombiano desarrollar políticas e invertir en programas integrados que, sin confundir roles y funciones, fortalezcan tanto las instituciones que gestionan la información como la comunidad productora del conocimiento y estimule la incorporación y aplicación del conocimiento en diversos niveles de la sociedad. Esto indudablemente traerá notables beneficios económicos y sociales al país. Pabón J.D., 2006: El clima de Colombia durante los siglos XVI-XIX a partir de material histórico. Parte I: inventario de fuentes de información. Cuadernos de Geografía. V. 15, pp.75-92. 2 Ibídem 1


Medio ambiente

Bogotá, dicen los cachacos natos, no es la misma de antes. Y es verdad: hoy se cuenta con nueva infraestructura, nuevas normas y hasta con nuevo clima. El frac, los abullonados abrigos y las infaltables botas, los han reemplazado las camisetas, los jeans y los zapatos suecos, incitados, en parte, por el popular “bochorno”, que alterna con el frío mañanero y nocturno. Lo más extraño es que las altas temperaturas, a veces, se hacen latentes sin que los rayos del sol asomen en el ambiente, es más, con el cielo cubierto de nubes. Al hacer un análisis espacial de medición de contaminantes, con base en imágenes satelitales, Ricardo Castro, geógrafo, estudiante de la Maestría en Geomática de la Universidad Nacional, encontró que esta variación del clima en Bogotá, se debe al “oscurecimiento global”. Este fue un estudio piloto, con una nueva metodología, que podría validarse en otras ciudades del país. El oscurecimiento global se presenta porque la polución, producto de la combustión de gases por el transporte, la quema de petróleo y la actividad industrial, provoca menor cantidad de luz y un aumento significativo de la temperatura, reflejado hasta en una variación de 6 grados centígrados. Ahí actúan grandes concentraciones de ozono troposférico (nocivo), derivado de la contaminación industrial. Los rayos ultravioleta se quedan en gran parte en la capa alta de la tierra, mientras los infrarrojo, logran pasar, pero se concentran en un punto, causando el aumento de la temperatura. “Se contaminan todas las nubes que hay sobre la sabana de Bogotá o la atmósfera baja y esto hace que no llegue tanta luz. No obstante, la onda electromagnética, que es la infrarroja térmica, sí continúa el paso, se mantiene debajo del suelo y rebota por el mismo efecto invernadero”, dijo Castro. Esa es la explicación del calor asfixiante, pese a que no haya luz solar evidente. A esto le llama el autor de la investigación, un doble efecto invernadero, que se empeora, debido a los materiales usados en las ciudades, como el cemento, que retiene más el calor.

Las zonas más afectadas Algunas áreas del distrito sufren un mayor impacto del oscurecimiento global, como Puente Aranda, que es la más afectada, seguida de Chapinero y Fontibón. Estos sectores, según Castro, son los más vulnerables, porque hay muchas industrias, sobre todo, en Puente Aranda, y un mayor número de carros circulando, lo que origina polución en grandes cantidades. En estas zonas se presen-

Puente Aranda, Chapinero y Fontibón son las zonas más afectadas en Bogotá por el llamado oscurecimiento global que está causando una variación en el comportamiento del clima, representada en altas temperaturas. Así lo reveló un estudio

tes puntos de la ciudad, que miden el grado de polución. La observación climática se llevó a cabo durante todo el mes de febrero de 2007. “El acierto radica en que esta nueva metodología cubre todo Bogotá y, por tanto, ofrece una información más concisa, mientras si los datos de las 4 estaciones se extrapolaran a toda la ciudad, se incurriría en un error, por su poca cobertura”, dijo Ernesto Bastidas, profesor de la UN y director del estudio. Sin embargo, el profesor, aclaró que la escasez de estaciones, también podría ser una barrera en el uso de la metodología, pues sería necesario contar con más estaciones, para corroborar la información. Por ende, instó a las instituciones distritales encargadas del tema, para que trabajen en este tipo de tecnología, ya que el uso del nuevo método, podría ser un gran aporte a futuro, no solo en el caso de Bogotá, sino de las demás ciudades del país. “Este es un trabajo de solo dos meses, por lo cual sería necesario desarrollarlo en otros tiempos y espacios. En esta primera etapa se dieron resultados muy interesantes, pero tendríamos que aplicar la metodología en diferente situación temporal y espacial”, señaló Bastidas. En este momento, la Secretaría Distrital de Ambiente cuenta con una propuesta para el uso de la metodología, que le presentó el autor de la investigación, con miras a empezar a usarla con mayores instrumentos tecnológicos, que permitan una mejor comparación de datos e información más exacta. “El uso de sensores remotos permite, en la medida en que se vaya trabajando, validar un método para no hacer tantos muestreos. Así mismo, detectar en qué zonas están faltando estaciones de control”, comentó Luisa Fernando Pinzón, Ingeniera Ambiental, estudiante de la Maestría en Geomática de la UN, quien colaboró en el estudio.

del geógrafo de la UN, Ricardo Castro, quien usó una nueva metodología, basada en imágenes satelitales.

Bogotá ta un aumento de la temperatura entre 4 y 6 grados. La hora más, crítica, de acuerdo con los resultados del estudio, es alrededor de la 1 de la tarde. La única consecuencia del oscurecimiento no es el intenso calor. Hay otras, aún más graves, como las afecciones a la salud humana y del planeta. Según el profesor de ingeniería de la UN, Héctor García, candidato a doctor en Salud Pública, el peligro de estos cambios constantes de temperatura durante el día, radica en que pueden alterarse los ciclos transmisores de enfermedades. Por ejemplo, mosquitos como los portadores del dengue y la malaria pueden migrar a zonas como Bogotá, si el calor se incrementa. Es más, en abril del 2008, la Organización Mundial de la Salud, OMS, advirtió sobre los peligros que el cambio climático representaría para la seguridad sanitaria en el mundo y alertó sobre la presencia de vectores como el de la malaria, en climas más frescos. La salud psicológica, de acuerdo con García, sería otra víctima de la variación de la temperatura. “Puede alterar el comportamiento de las personas, su conducta y su temperamento. Incluso, las puede volver más agresivas”, dijo. Así mismo, en las plantas reduce la capacidad vegetativa y afecta la producción de la fotosíntesis, ya que las satura de ozono y no permite que entre el dióxido de carbono. “Especies adaptadas a estos pisos térmicos se verían afectadas y podrían desaparecer. Por ejemplo, las de condiciones muy extremas, como los frailejones y las espeletias”, explicó el biólogo, profesor de la UN, Enrique Zerda.

Urgen medidas

Los animales serían otras de las víctimas del cambio climático, pues como indicó el biólogo, aquellos acostumbrados a vivir en temperaturas bajas, migrarían y llegarían especies de clima cálido. “Tenemos casos como el de los toches y azulejos, propios de zonas calurosas, que ya se encuentran en la Sabana de Bogotá”, aseveró. De igual manera, enfatizó en el riesgo de que insectos portadores de enfermedades, terminen llegando a la zona.

Nueva metodología El estudio, además de los resultados en cuanto al estado climático de la capital, aporta una nueva metodología, basada en imágenes satelitales, capturadas mediante sensores remotos. Estos permiten adquirir información de la superficie terrestre, a través de la energía que reflejan diferentes elementos. No obstante, la información se corroboró con las estaciones, ubicadas en diferen-

Lo que dejó claro la investigación es que Bogotá refleja el cambio climático que se está viviendo, en especial, debido a la influencia de los contaminantes. Por ello, es apremiante tomar medidas que apacigüen el efecto de éstos. “Necesitamos controles más severos, por parte de las autoridades, en cuanto a las industrias y el parque automotor. La chatarrización debe ser un hecho y la tecnología de los equipos industriales debe cambiar, en pro de una menor contaminación ambiental”, afirmó Pinzón. Ahora, la decisión depende de los gobiernos, que pueden llamarle oscurecimiento global o darle otro nombre al fenómeno, pero no, cegarse frente a la realidad de una variación climática, que reclama acciones.

Domingo 8 de marzo de 2009

Unimedios

Fotos Víctor Manuel Holguín/Unimedios

Magda Páez Torres,

21


22 Cultura Patricia Barrera Silva,

Bogotá no es un escenario desconocido, esta es la quinta vez que el maestro Lior Shambadal visita la ciudad y en esta oportunidad viene para quedarse. Desde inicios de 2007 la Orquesta Filarmónica de Bogotá ha trabajado bajo la batuta de varios directores invitados, pero hacia mediados de 2008 se inició un proceso en el que participaron todos los músicos y el Comité Artístico para escoger a un Director Titular. Lo primero que se hizo fue elegir nueve nombres de entre los directores que ya habían tocado con la Orquesta. A todos ellos se les pidió que presentaran un proyecto cultural para la Orquesta, con el repertorio y el programa que desearía tener con el cuerpo orquestal. Por su parte los 97 músicos de la OFB evaluaron la hoja de vida de los 9 aspirantes, y expusieron cómo sentían que sonaba la orquesta bajo la batuta de cada director en particular. Esa evaluación arrojó un empate técnico entre el italiano Francesco Belli y el israelí Lior Shambadal. El comité artístico realizó una entrevista con ambos, y finalmente con el respaldo de la Secretaría de Cultura, Recreación y Deporte, se tomó una decisión. La experiencia y la proyección de este director y compositor israelí que estudió viola y trombón y que fue aprendiz de aclamados directores como Hans Swarowsky, terminó por convencer a las directivas y a los 97 músicos de la OFB. “Para los músicos es muy importante tener la presencia del maestro no solo por la hoja de vida tan impresionante que tiene y por la calidad de músico que es, sino porque es una persona muy creativa a la hora de proponer una programación para la orquesta”, asegura la directora general de la OFB, María Claudia Parias.

“La OFB es la más grande que existe en toda América, en tamaño, solo se compara con la de Alemania.

Domingo 8 de marzo de 2009

Una pasión llamada trabajo Este hombre de 58 años de edad, oriundo de Tel Aviv, asumió desde el pasado 2 de febrero, con una fuerza y seriedad que se impusieron por encima de las dificultades, “estar aquí es un tremendo sacrificio, pues debo estar separado de mis tres hijas, por lo menos por 14 semanas seguidas mientras vienen algunos días de

La pasión israelí

se toma la Filarmónica de Bogotá El fuego por la música lo llevó a cruzar el Mediterráneo y un océano, a dejar a sus 3 hijas, su hogar y su cultura. Lior Shambadal viene desde Israel para vivir una nueva aventura: dirigir la Orquesta Filarmónica de Bogotá. descanso y yo puedo ir a verlas, pero esa es la vida de un Director, a veces es una profesión solitaria”. Su palabra favorita es trabajo, un trabajo apasionado que no sabe de horarios, y que sugiere un gran reto, porque ya no está más como un invitado, ahora está a la cabeza como titular. “Por supuesto que es diferente estar aquí como director oficial, porque estás dirigiendo cada semana de cada año excepto por algunos días de vacaciones; cuando eres Director ocasional es diferente porque simplemente vienes, conoces la gente, comienzas a trabajar, das el concierto por el que viniste y luego te vas. Ahora el trabajo aquí como Director titular no será solo dirigir, aquí es hacer que todo funcione, los músicos, pero también el programa, toda la envergadura alrededor de la orquesta cuando toque afuera… es una responsabilidad muchísimo mayor”, asegura. Cuando se le pregunta por qué se interesó en venir a trabajar con la OFB se emociona describiendo el potencial y las aptitudes que ve en los músicos. “Cuando tu vas a trabajar con orquestas en Alemania, Berlín o Italia, allá todo es tradicional, es

Europa y toda la música proviene de allá, todo es muy común, cuando vienes acá, este es un nuevo país del que no sabes casi nada, y puedes decir, bueno, vamos a construir una Orquesta Filarmónica y a hacer algo nuevo. Lo otro que me motiva es que en Europa, para la mayoría, la imagen de Colombia no es buena y eso lo sabemos, pero hay algo que no me canso de repetir que el único camino para revertir esta imagen es a través de la cultura, si hay una buena orquesta aquí, la gente comenzará a escucharlo, y dirá: ¡oh Colombia!, allá hay una Orquesta Famosa que toca bastante bien, y tienen un buen director y buenos solistas… y no lo sabíamos”. Su mayor reto tiene que ver con atraer a la gente a la música sinfónica, y por eso durante su primer concierto, con el que dio inicio a la temporada 2009 el pasado sábado 6 de febrero, en el auditorio León de Greiff de la Universidad Nacional de Colombia, presentó un programa con varias piezas españolas y colombianas que lograron una velada muy animada para el público. “El objetivo aquí es que la gente venga a un concierto y queden contentos porque así segura-

mente volverán a los siguientes. La actividad educativa está precisamente, en que los padres puedan venir con los hijos porque muy posiblemente los niños se encariñarán con algún instrumento como el Corno, y esto seguramente será un problema para los papás porque sus hijos pueden pedirles aprender este instrumento y puede salir costoso, pero de esa manera lograremos atraer a la gente a la música”, explica Shambadal.

“Estoy aquí porque el nivel de esta Orquesta es muy bueno, sino yo no habría aceptado.” Las metas del Maestro El sueño de este israelí con el público bogotano es que en una ciudad de 9 millones de habitantes como esta, se pueda tocar cada noche el mismo programa al menos 5 veces con un auditorio como el León de Greiff que tiene capacidad para 1.660 personas, totalmente lleno; “en Tel Aviv, la ciudad no tiene más de 2 millones de personas y cada concierto se repite 7 veces, porque la

audiencia sobrepasa las 3 mil personas”, cuenta. Shambadal trae una propuesta concreta que buscará vincular a los músicos de la Orquesta con los procesos de formación y sensibilización musical de los colegios distritales. Además espera fortalecer la presencia de la Orquesta en los diferentes parques de la capital en todas las localidades. La propuesta musical para la Orquesta será direccionarla a construir un sonido y un estilo específico en cada presentación, “si un programa es clásico, será clásico en todas sus piezas, será una sola dirección para cada programa, porque técnicamente es muy diferente tocar música romántica, o clásica o moderna, cada una tiene un color y un lenguaje diferentes, y lo que yo quiero es que la Orquesta agarre más el sentido estilístico de cada corriente y de cada época”. La magia de este director consiste en lograr que 97 músicos hablen un mismo idioma, con una unidad que se cuenta milimétricamente, y eso solo es posible, según relata él mismo, cuando el director logra influenciar a los músicos que tiene al frente y a la gente que lo ve desde el escenario al mismo tiempo y sin decirles una sola palabra.

Víctor Manuel Holguín/Unimedios

Unimedios


Nuria Enguita Mayo, Jorge Blasco Gallardo,

Normalmente nos referimos al “archivo” como un lugar físico o virtual donde los documentos y registros entran para cumplir las normas de una estricta organización, y que por necesidades obvias, se mantiene inamovible para facilitar el acceso al contenido. Si cambiamos el sustantivo “archivo” por el infinitivo “archivar”, la cosa cambia. Entonces la conjugación “archivo, archivas, archiva, archivamos, etcétera” se convierte en un concepto del que todos participamos de manera más o menos consciente. Todos generamos documentos, todos registramos, todos organizamos esos registros según nos convenga. El proyecto de Armando Silva participa de esa apasionante actividad que es el archivar ciudadano. Ese constante archivar puede detenerse en múltiples formalizaciones, categorías y ubicaciones en el espacio en el momento en que se decide hacer público. Es el momento en que el archivar se constituye en “archivo temporal”, en lugar, y se presenta en una forma en que puede ser consultado, criticado o incluso intervenido. Lo que se presenta en este montaje es precisamente eso, un archivo temporal, con una forma y una interface temporal que no aspiran a ser definitivos. Todo el material procede del constante “archivar” del proyecto de Armando Silva. Esa es su generosa aportación: lejos de producir un corpus temático de registros o textos inamovibles, los mantiene en un archivar de nadie, un ocurrir sin jerarquizar, sin categorizar hasta que se decide el modo en que se consulta y la poética y política de ese acto de mostrar. La cuestión de la ciudad y lo urbano, la manera en que son practicados, la forma en que son representados y la medida en que esas representaciones construyen nuestra relación con las urbes son temas que han ocupado el trabajo de diferentes especialistas, estudiosos e investigadores a lo largo del tiempo. La antropología, la sociología y las artes, aunque también la semiótica y la psicología, no han sido ajenas a esa preocupación y han planteado interrogantes y respuestas diversas, siempre como

Montevideo (sin título, grafiti urbano)

Oscar Bonilla para Montevideo Imaginado.

Archivos ciudadanos de América Latina El proyecto Imaginarios Urbanos de Armando Silva propone un acercamiento a una de las formas en las que se ha querido entender cómo los ciudadanos representan sus ciudades a la vez que construyen nuevas relaciones con ellas. consecuencia de una forma de habitar o de querer habitar las ciudades. Archivos ciudadanos de América LaHelcio tina. Proyecto ImaMagalhaes, ginarios urbanos para Sao de Armando Silva, propone un acerPaulo camiento a una de Imaginado. las formas en las que se ha querido entender cómo los ciudadanos representan sus ciudades a la vez que construyen nuevas relaciones con Lima “Modernismo e indigente” ellas. Este espacio de (2006) Compilación de Carlos consulta –configuCastro para Lima Imaginada. rado inicialmente para la Fundación Antoni Tàpies, Barcelona, y que ahora se reformula acondicionándose a su nuevo contexto– da acceso al conjunto de intuiciones, registros, escritos, libros y análisis que componen y materializan el proyecto, con la intención de mostrar y debatir lo que sobre imaginarios urbanos se ha 03) 0 2 dicho, y utilizando una ( e Chil go de práctica concreta geoia t n a S ulo, gráficamente localizada. (sin tít s nocturnas a Dirigido por Arescen ciudad) o r t n a r mando Silva y llevado ce a p z ázuri a cabo por un gran núJosé Er r Imaginado. o mero de colaboradores Santiag en las diversas ciudades estudiadas, el proyecto cuenta ya con una larga andadura y una gran cantidad de material recopilado en sus distintas fases, un material que en su diversidad y heterogeneidad ya Sao Paulo “Lavando en la calle de la Plaza de la República” (2005)

Fotos archivo particular

Curadores Proyecto Imaginarios urbanos de Armando Silva

da una idea cabal de los retos y dificultades de la tarea acometida. La estructura de los grupos documentales que el proyecto ofrece es sintomática de la complejidad del mismo. No se trata de series ordenadas y categorizadas de material, y por ello está lejos de lo que habitualmente llamamos archivo, en su sentido de depósito de información, con todo lo que de positivista tiene el término. Tampoco tiene que ver con el archivo artístico que unifica y da sentido a series eclécticas de materiales de acuerdo con un programa estético. Este grueso documental es el rastro de una serie de reflexiones nacidas a partir del método de trabajo propuesto por su director, que desde la semiótica, la lógica y la psicología principalmente, y en colaboración con sectores académicos y grupos de investigación afines de buena parte del continente, plantea un corpus heterogéneo, con múltiples entradas, que a su vez define un marco teórico en proceso y en continuo desarrollo. Reflexionar sobre los imaginarios urbanos a través del análisis pero también de la producción del registro fotográfico, cinematográfico, estadístico, sonoro, etcétera, permite que cada fragmento del archivo se convierta en una intuición crítica y compleja de lo que esos imaginarios son. Como algo en sí mismo inmaterial e irrepresentable, los imaginarios pueden rastrearse en los objetos, las arquitecturas y las formas urbanas, pueden sedimentarse en el habla o en los rituales ciudadanos, y aparecer en los grafitos, en las fotografías domésticas y familiares, en los escaparates o a través de los media, pero difícilmente se les puede asignar una imagen única, se resisten a ella y se modelan escapando a cualquier representación única y concluyente de sí mismos. Frente a los relatos hegemónicos ofrecidos por los diversos gestores de lo urbano, que suelen materializarse en imágenes acabadas, maquetas de cartón piedra y cifras cerradas, este proyecto plantea la posibilidad de construir microrrelatos, a menudo conflictivos, a partir de residuos, rastros y restos, tanto físicos como virtuales, dejados por la vida intensa de la que se nutren los diversos modos de ser urbano. Porque los imaginarios, como base de un urbanismo de los ciudadanos, permiten estudiar los registros de la participación ciudadana en la construcción simbólica de la ciudad, con el fin de entender sus usos y definir otras formas posibles de habitar.

23

Domingo 8 de marzo de 2009

Cultura


24 Reseñas Ética en Investigación, una responsabilidad social Dentro del convenio interadministrativo suscrito entre la Universidad Nacional de Colombia y la Pontificia Universidad Javeriana, la Red de Bioética han promovido espacios de participación y reflexión alrededor la ética y de la bioética, particularmente en la investigación. En esos encuentros en los que se revisaron conceptos que dan soporte a las acciones relacionadas con la regulación social de la investigación, se recogieron experiencias, reflexiones y propuestas que llevaron a conformar un seminario permanente de ética en investigación que se reúne de forma sistemática desde hace cuatro años, coordinado por la Vicerrectoría de Investigación de la UN. En esa temática se realizó el Primer Seminario Nacional de Ética en Investigación. Una responsabilidad social, con la participación y mirada interdisciplinaria de expertos que manejan el tema desde sus saberes. El libro recoge las memorias de ese seminario y las conferencias de

cada uno de los ponentes, cuyo producto es la edición que ofrecen conjuntamente los editores Afife Mrad de Osorio y Carmen Alicia Cardozo de Martínez, coordinadoras de la Red de Bioética de la Universidad Nacional de Colombia; Olga Maldonado Gómez, docente investigadora del Instituto de Bioética y el padre Gilberto Cely Galindo, Director del Instituto de Bioética, juntos de la Pontificia Universidad Javeriana. Este trabajo es una reflexión alrededor de temas considerados críticos frente a la regulación en la investigación. Temas como los conceptos relacionados con la investigación en animales, el problema de sensibilidad y de reconocimiento por los seres vivos, la responsabilidad de los investigadores en lo qué están haciendo, en cómo lo están haciendo, los dilemas morales que se generan cuando se formula una investigación, constituyen los elementos para reflexionar en la responsabilidad social frente a la investigación.

Domingo 8 de marzo de 2009

Poéticas visuales del Caribe colombiano Esta obra de investigación gira en torno a la consolidación del movimiento contemporáneo en el campo de las artes plásticas. Álvaro Medina, autor del estudio, ha ligado el acontecimiento al desenvolvimiento literario, político y social de la región, describiendo con prosa amena sucesos históricos que tuvieron lugar en la costa del Caribe colombiano, sucesos que él rememora como testigo que fue de algunos de ellos. El autor afirma que “las particularidades de lo que hoy se reconoce como un arte que refleja la idiosincrasia del Caribe colombiano tuvieron sus manifestaciones inaugurales al concluir los años treinta”. Luego precisa que estas se iniciaron “con los aportes primerizos de Leo Matiz y de Enrique Grau, de alcances nacionales ambos –ya que el país entero pudo tener conocimiento de ellos a través de los medios impresos capitalinos–”, consideración que lo lleva a agregar que fue así como “el arte de la costa Caribe colombiana empezó a forjar su personalidad multifacética”. Con documentos citados rigu-

rosamente el autor ratifica y enfoca en su justo valor la obra plástica de estos vanguardistas, cuyos criterios y conceptos revisa. Enriquece así la bibliografía sobre el tema, en cuyo contenido descubre, muestra y corrobora facetas desconocidas del arte contemporáneo colombiano, movimiento que trascendió ampliamente las fronteras del país. Con la información de primera mano que maneja Medina como testigo de algunas de las iniciativas culturales del círculo de “La Cueva”, nos recuerda que lo sucedido en la Barranquilla de los años cincuenta, “estudiado hasta ahora como una cofradía literaria que tuvo, entre sus miembros, a un futuro premio Nobel”, contó en el sitio de reunión con una dinámica galería de “arte contemporáneo”. Allí, al calor de sifones de cerveza, whisky y ron, se congregaba cada noche la tertulia de unos amigos con intereses heterogéneos y diversos que con el tiempo se denominaría “El grupo de Barranquilla”. El libro es, por la manera de contar los sucesos acaecidos allí, un justo homenaje a la creatividad del Caribe colombiano.

Matices. Historias detrás de la investigación La cuarta edición de Matices. Historias detrás de la investigación, revela los detalles ocultos del megaproyecto Alta Guajira, una experiencia científica desarrollada por geólogos de la Universidad Nacional que le dejó a este territorio fronterizo la carta de navegación con la que el Estado podría emprender proyectos de desarrollo que alivien los problemas de miseria presentes en la zona. El proyecto costó cerca de 4.000 millones de pesos. Fue cofinanciado por Ingeominas, y les implicó a los científicos recorrer cerca de 7.000 kilómetros cuadrados de esta agreste y desértica península, en donde solo se entienden los que hablan wayuunaiki, y el agua potable no es más que una ilusión. Así es, en la Alta Guajira no hay agua ni para beber ni para bañarse. Tampoco hay electricidad, se duerme a la intemperie, al mediodía el sol ardiente debilita hasta al más aguantador y las frutas, verduras o cualquier

plato de la gastronomía criolla no son más que un espejismo en medio del desierto. Bajo estas circunstancias, ¿cómo la pasarían los geólogos de la Universidad Nacional? ¿Será que, al igual que los wayúu, dominaron este territorio? La respuesta está en esta nueva edición de Matices. Historias detrás de la investigación. Un relato del drama que vivieron los cerca de quince geólogos que participaron en la expedición al enfrentarse a un mundo exótico pero con condiciones extremas. El resultado final del proyecto Alta Guajira fueron siete mapas geológicos a escala 1:100.000 (planchas bien detalladas) y trece estudios sobre el origen, la edad y los ambientes en que se desarrollaron los suelos y las rocas en esta zona del país. Así queda al descubierto su riqueza mineral, representada en fósiles y piedras de importancia comercial como la barita, de amplio uso en la exploración petrolera.

UN Periodico No. 120  
UN Periodico No. 120  

UN Periodico No. 120

Advertisement