Page 1

6 Ciencia

Sistemas híbridos como alternativa energética

17 Investigación

Aumentarán los deslizamientos en el Valle de Aburrá

18 Medioambiente 23 Innovación Inundaciones en Colombia, un desastre que no es natural

La panela más limpia de Colombia

http://www.unperiodico.unal.edu.co • un_periodico@unal.edu.co Bogotá D.C. No. 121, domingo 12 de abril de 2009

AFP

Publicación de la Universidad Nacional de Colombia • ISSN 1657-0987

El Gran Colisionador de Hadrones es una de las máximas manifestaciones del ingenio humano, siempre inquieto por conocer los secretos más profundos de su existencia.

Este acelerador es, además, sinónimo de la colaboración mundial.

Aporte colombiano

para el Gran Colisionador de Hadrones La Organización Europea para la Investigación Nuclear (CERN), creadora del Gran Colisionador de Hadrones, que busca encontrar “la partícula de Dios”,

fijó sus ojos en un método, creado por un grupo de científicos de la Universidad Nacional de Colombia, que permite evaluar, localizar, medir y corregir los errores que se puedan presentar en los imanes del inmenso acelerador, en el momento en que las partículas de hadrones se dirijan hacia la gran colisión.

PÁg. 11

AÑO DE LA ASTRONOMÍA

TERAPIA CONTRA EL CÁNCER

El 2009 ha sido declarado el Año Internacional de la Astronomía para celebrar los 400 años de la primera observación astronómica efectuada con telescopio por Galileo Galilei. UN Periódico destaca el legado de la más antigua y al tiempo la más moderna de todas las ciencias.

Una nueva investigación de las Universidades Nacional de Colombia en Medellín, y la de Antioquia, encontró en las macroalgas marinas una potente actividad antimitótica, que permite detener la actividad de las células cancerígenas en la fase de la mitosis.

14

13


 Internacional Jesús Rodríguez Zepeda,

Domingo 12 de abril de 2009

En la edición 2009 de la famosa, aunque siempre un poco frívola, revista Forbes, el narcotraficante mexicano Joaquín “El Chapo” Guzmán Loera aparece como el millonario número 701, con una fortuna de 1.000 millones de dólares (en el mismo rango por cierto que Emilio Azcárraga, dueño del imperio de comunicaciones Televisa). En una reciente declaración ante el Congreso norteamericano, David Johnson, subsecretario de Estado para Asuntos de Narcotráfico Internacional, declaró que en el negocio de las drogas en México participan directamente unas 150 mil personas como traficantes o sicarios, aunque estimó que otras 300 mil intervienen en el cultivo de drogas como marihuana y opio, lo que suma a unas 450 mil personas trabajando para el narcotráfico en México. Fuentes legislativas mexicanas han asegurado que diariamente ingresan a México unas 2.000 armas, entre cortas y largas, la mayor parte desde Estados Unidos. La Secretaría de Relaciones Exteriores de México reconoció que seis estados (Baja California, Chihuahua, Sinaloa, Durango, Michoacán y Guerrero) registran graves problemas de criminalidad y violencia debidos al narcotráfico, aunque defendió que solo esos seis. El diario español El país reporta, el viernes 13 de marzo de 2009, que en los primeros 51 días de este año, se produjo en México un millar de asesinatos relacionados con el narcotráfico, cifra que, en 2008, tardó 113 días para ser alcanzada. Y así… El caso es que la guerra del narcotráfico es, entre otras cosas, una guerra de cifras. Números que tratan de precisar las dimensiones del impacto económico del tráfico ilegal de drogas, el nivel de ilegalidad que esta actividad ha disparado incluso en los Estados Unidos o lo mortal que está resultando la guerra entre el Estado mexicano y las bandas criminales y luego entre estas bandas. Las cifras tratan de satisfacer la necesidad social de dimensionar este grave problema, pero hoy por hoy expresan un nuevo problema: son en general especulativas y a veces manifiestamente inventadas. ¿Cómo pudo saber

México y su guerra El crítico panorama de seguridad que experimenta México por cuenta del enfrentamiento entre carteles del narcotráfico se ha convertido en una “guerra de cifras”. Pero más allá de los datos efectistas y de las categorías

fallidas para el análisis, la nueva guerra mexicana exige una estrategia renovada. Forbes el número de dólares que enriquecen al Chapo Guzmán? ¿Qué investigación avala ese promedio diario de armas traficadas de Norte a Sur? ¿Cómo se determinó que el 0.4 por ciento de la población mexicana trabaja para los cárteles de las drogas? ¿Cómo sabemos que todos esos muertos son del narcotráfico, si de manera inercial, en general, no se investigan los homicidios que tienen el estilo de las ejecuciones de éste? ¿Por qué no se suman los estados de Veracruz, Tabasco o Quintana Roo, con fuerte presencia de los famosos Zetas, a la lista de las seis entidades donde los cárteles se enseñorean? Lo único cierto es que carecemos de cifras precisas acerca de este fenómeno que estalla ante nuestras narices. Y no podía ser de otra manera porque se trata de actividades ilícitas, cuyos registros son imprecisos y difusos, y porque la generación de cifras por

las autoridades ayuda a dar la impresión de que se tiene más control sobre el problema que el que en realidad existe. Pero otras cifras necesarias se nos escabullen: ¿Qué número y porcentaje de empresas tanto en México como en Estados Unidos están infiltradas por dinero del narcotráfico? ¿Cómo entran y salen del circuito de la economía financiera y la economía real las ingentes cantidades de dinero sobre las que ahora solo especulamos? ¿Qué instituciones públicas y privadas hacen posible esta capilaridad? ¿Cuántas investigaciones judiciales hay en curso, cuántas se han cerrado y cuáles son los resultados acerca de los asesinatos vinculados a la guerra de las drogas, incluidos los muertos a manos de las fuerzas de seguridad mexicanas?, e incluso, para ponernos a tono con Forbes, ¿cuántas camionetas Ford Lobo, propias de la estética

narco mexicana, se venden en el país y a quiénes? La guerra contra el narcotráfico no está adecuadamente documentada. Las cifras son vagas y a veces mentirosas. La idea del presidente Calderón de que si se ve salir polvo por las ventanas es porque se está poniendo la casa en orden es solo una metáfora y no una explicación de nada, porque podría ser, pero esto es también solo especulación y alegoría, que el polvo de las ventanas nos avisa de que algo se derrumba. Por ello es necesaria la información precisa, la documentación detallada de este momento extremadamente delicado de la vida nacional; porque en una guerra (la definición es del propio mandatario mexicano) el juego de la información y la contrainformación es parte de la estrategia de los contendientes. Y cuando la información es laxa e imprecisa, el ambiente de incertidumbre que se

crea hace verosímil cualquier hipótesis… como la del Estado fallido.

México: ¿Estado fallido? La de Estado fallido es una categoría que empezó a circular hace años en el lenguaje diplomático, particularmente el de las Naciones Unidas, y en los análisis estratégicos. Se utilizó para tratar de dar otro nombre a la ingobernabilidad pero, a la vez, fijarle una suerte de caducidad. Los Estados fallidos, como serían Somalia o Haití, no solo serían ingobernables o mal gobernados de manera indeterminada sino que estarían en la inminencia de convertirse en otra cosa. Bien vista, la categoría de Estado fallido es muy parecida a aquella hipótesis clásica de la filosofía política moderna, la del Estado de naturaleza, es decir, esa situación de caos que aparecería si

Director: Luis Alberto Restrepo

Editor general: Carlos Alberto Patiño Villa Editor de contenido: Luz Adriana Pico Maffiold Comité editorial: Jorge Echavarría Carvajal � Egberto Bermúdez � Paul Bromberg � Alexis de Greiff � Fabián Sanabria Coordinación gráfica y diagramación: Ricardo González Angulo Corrección de estilo: Diana Sánchez Saray Fotografía: Víctor Manuel Holguín � Andrés Felipe Castaño Diseño e impresión: CEET, Casa Editorial El Tiempo Las opiniones expresadas por los autores y sus fuentes no comprometen los principios de la Universidad Nacional ni las políticas de UN Periódico

Página web: http://www.unperiodico.unal.edu.co Versión Internet: UNDigital Correo electrónico: un_periodico@unal.edu.co Teléfonos: 316 5348 - 316 5000 extensión: 18384 / Fax: 316 5232 Edificio Uriel Gutiérrez Carrera 45 Nº 26-85, piso 5º. ISNN1657-0987

AFP

Profesor Investigador Universidad Autónoma Metropolitana de México


Internacional Pública en lugares como Ciudad Juárez, Chihuahua. Pero ello no muestra, en mi opinión, que esa capacidad de despliegue equivalga al antiguo precepto sociológico del “monopolio de la autoridad o la violencia legítima”. Territorialidad y autoridad son cosas distintas. El monopolio del despliegue territorial es, otra vez, solo una imagen, y mala, de la gobernabilidad. En México, las autoridades federales pueden llegar en cualquier momento a cualquier lugar del país (y con ellas, llevar a sus posibles invitados, sean o no turistas), pero no pueden garantizar que la autoridad legal (policial o judicial, pero también administrativa e incluso política) en esos lugares no esté controlada a través de la corrupción y/o la intimidación por las bandas del crimen organizado. De hecho, el gran problema del narcotráfico en México deriva, no de la

litar y al Ejército y Fuerza Aérea. Buena parte (solo se puede decir eso porque, insisto, no hay datos fiables) de las policías locales, las estatales y de las federales han estado y están infiltradas por el narcotráfico. Y esta infiltración tiene una peculiaridad: se ha dado comenzando por los

cias de autoridad como las judiciales y las políticas. Buena parte del derrotero de la guerra se definirá en la capacidad del Estado mexicano de depurar esos cuerpos. Acaso para ello se tenga que desarticularlos y construir unos nuevos (un poco al modo de Colombia, donde el Estado

le debe pedir que asuma la responsabilidad que le toca, y que ese pálido interés en el tema, reflejado por ejemplo en el desdén presupuestal para la Iniciativa Mérida, se convierta en plena corresponsabilidad (que se manifieste, por ejemplo, en la aplicación de su propia legislación en

La guerra del narcotráfico es, entre otras cosas, una guerra de cifras. Números que tratan de precisar las dimensiones del impacto económico del tráfico ilegal de drogas, el nivel de ilegalidad que esta actividad ha disparado incluso en los Estados Unidos o lo mortal que está resultando la guerra entre el Estado mexicano y las bandas criminales y luego entre estas mismas. niveles superiores de decisión, por los altos mandos. En las fuerzas armadas también se han dado infiltraciones de este tipo, aunque ahora mismo, depositado en ellas el grueso de la responsabilidad de la guerra contra el narcotráfico, se sabe cada vez

se rehízo en materia de cuerpos de seguridad en la última década) mientras el ejército toma en sus manos la lucha frontal contra el crimen organizado. Nada de esto se podrá hacer sin la coordinación con el gobierno norteamericano. En éste, la costum-

materia de exportación de armas). También en lo exterior, México debe aprender de experiencias como la de Colombia, donde la reestructuración de sus cuerpos de seguridad fue clave para hacer de la criminalidad del narcotráfico algo parecido a una

Notimex

La Secretaría de Relaciones Exteriores de México reconoció que seis estados (Baja California, Chihuahua, Sinaloa, Durango, Michoacán y Guerrero) registran graves problemas de criminalidad y violencia debidos al narcotráfico.

debilidad en el despliegue territorial de la autoridad pública, sino de la debilidad en el monopolio de la fuerza legítima. El uso de la categoría de Estado fallido para México es abusivo. El Estado con fallas no es lo mismo que el Estado fallido, según lo aclaró el analista Ricardo Raphael. La continuidad previsible de buena parte de las rutinas institucionales y sociales del país bajo la dirección de las autoridades públicas democráticamente electas, desaconseja el uso de categorías diseñadas para dar cuenta de otras problemáticas. Sin embargo, esto no reduce la gravedad del problema de la guerra mexicana contra el narcotráfico. En México hay unos 1.600 cuerpos policiales, entre federales, estatales y municipales, a los que hay que sumar a la Marina mi-

El uso de la categoría de Estado fallido para México es abusivo. El Estado con fallas no es lo mismo que el Estado fallido, según lo aclaró el analista Ricardo Raphael. menos de esta influencia corruptora de los carteles en ellas. México no es un Estado fallido, pero experimenta una crisis de su Estado de derecho y una correlativa crisis de seguridad por la enorme influencia de las bandas criminales en los cuerpos de seguridad y, presumiblemente, en otras instan-

bre ha sido minimizar su responsabilidad y echar la culpa a los productores y traficantes externos de drogas ilegales. Sin embargo, Estados Unidos constituye el principal mercado de las drogas traficadas por los carteles mexicanos, así como es el principal abastecedor de armamento a estos grupos criminales. La propia circulación de las drogas en el finísimo y funcional mercado interno norteamericano supone, exige, altas cuotas de corrupción y contubernio gubernamentales, pero no está correlacionada con un baño de sangre constante, lo que reduce las posibilidades del escándalo interno. Más allá de los datos efectistas y de las categorías fallidas para el análisis, la nueva guerra mexicana exige una estrategia renovada. A Estados Unidos se

criminalidad regular y no más una amenaza para la viabilidad del Estado. En el plano interno, debería atender las recomendaciones de expertos como el propio expresidente Ernesto Zedillo que aboga por la legalización de drogas blandas y la prioridad de la prevención y la rehabilitación; no porque con ello se solucione el problema, sino porque se le desagrega y se le puede enfrentar mejor. Y, de manera señalada, debe reformar sus cuerpos de seguridad y rutinas judiciales para que, en el marco de una guerra tan difícil y dramática y bajo la tentación autoritaria de disparar primero y averiguar después, no se nos olvide jamás que la única manera de saber si esta guerra se gana, es la construcción de un genuino Estado de derecho.

Domingo 12 de abril de 2009

los gobiernos no lograran mantener cohesionada a la sociedad. Puesta en boca de los analistas de seguridad norteamericanos, y en especial de los del Departamento de Defensa, que parecen haber reciclado varias veces un informe de hace un par de años que alertaba sobre el riesgo de la violencia en México para la seguridad de los Estados Unidos, la categoría fue inmediatamente asociada al problema del narcotráfico. Si hay desorden en México, conjeturaron los sesudos militares, México está en vías de fracasar como Estado. El principal dato no fue la cantidad de homicidios del narcotráfico –unos 5000 solo el año pasado– (cosa que sería impropia de un analista de Estados Unidos, donde en 2006 se cometió un asesinato cada treinta minutos) sino la dificultad del gobierno mexicano de mantener el control directo sobre todo su territorio. Las respuestas oficiales del gobierno mexicano no se hicieron esperar, destacando en los últimos días la del propio Presidente Calderón, quien invitó a los analistas y funcionarios de seguridad de marras a venir a México para comprobar, in situ, el absoluto control territorial del gobierno mexicano, precisando, eso sí, que no deberían venir como turistas. Más allá de esta respuesta obligada, y hasta cierto punto pintoresca (por la distinción entre turistas y analistas), del gobierno mexicano, es necesario hacer algunas precisiones sobre la hipótesis del Estado fallido para el caso mexicano. En primer lugar, resulta claro que es un exceso asociar cualquier omisión en el monopolio del despliegue territorial de un poder político con la ingobernabilidad, por lo que se impone introducir un criterio relativo a las dimensiones del control territorial. ¿Será que el territorio de 6 Estados entre 31 equivaldrá al listón después del cual un Estado ya es fallido? Y luego ¿basta con que haya problemas graves de violencia y de otro tipo de criminalidad en esos lugares o el Estado debe haber desaparecido por completo, como sucede en países con guerrillas opositoras desplegadas territorialmente? Porque una cosa es que los sicarios y líderes del narcotráfico, como todo cuerpo físico, ocupen un lugar en el espacio, y otra cosa es que esto signifique un control territorial definido y estable. En cierta medida, tiene razón el presidente Calderón cuando dice que el gobierno puede llegar enseguida a cualquier lugar del territorio del país. De hecho, ese es, por ejemplo, el sentido de llevar a cabo las reuniones del Consejo Nacional de Seguridad




 Análisis Miguel Silva,

Domingo 12 de abril de 2009

Bajo la tutela de la corona Británica, y tras la firma de un acuerdo tripartita entre Turquía, Grecia y Gran Bretaña, el 19 de febrero de 1959, la comunidad internacional reconoció la creación del Estado de Chipre como una República autónoma que garantizaba la unidad de las comunidades turcas y griegas, que durante siglos se han disputado el control de la pequeña isla mediterránea. Como garantía para que la República de Chipre se mantuviera unida y consiguiera representar de igual manera a ‘turcochipriotas’ y ‘grecochipriotas’ se instauró un modelo de Estado occidental, secular y laico, bajo la vigilancia permanente de los británicos que exigieron mantener su presencia militar en el territorio chipriota a través de las bases de Dhekelia y Akrotiri. Sin embargo, quince años y medio después de la firma del tratado del 59, bien entrada la Guerra Fría, las tensiones étnicas, la inestabilidad política y el complejo juego geopolítico en mar Mediterráneo, se expresaron mediante una guerra de baja intensidad que el mundo observó en silencio. Turquía inició el 20 de julio de 1974 la ‘Operación Atila’, con un bombardeo al aeropuerto de Nicosia y tras casi dos años de confrontación armada, logró controlar militarmente el tercio norte de la isla, estableció un Estado de facto, agenciando la representación de la minoría turcochipriota, lo que hizo que la población ‘grecochipriota’ se concentrara al sur de la isla. A partir de la invasión turca, Nicosia, la capital de Chipre desde 1960, se mantuvo dividida por un muro al mejor estilo de la Guerra Fría, que solo logró echarse abajo el 3 de Abril del 2008. Esta división del territorio chipriota, sobre la base de la diferenciación étnica promovida desde Grecia y Turquía, se tradujo en la pretensión turca por establecer un Estado títere en el territorio controlado luego de la invasión del 74, al cual denominó República Turca del Norte de Chipre (RTNC), apoyando la declaración de independencia de noviembre de 1983. Desde entonces, los únicos que han reconocido la legitimidad del Estado ‘turcochipriota’ son Turquía y la Organización de la Conferencia Islámica, que lo reconoce como Estado Miembro. La Organización de las Naciones Unidas, solo ha reconocido la legitimidad del Estado chipriota construido sobre la base del acuerdo del 59 y de la misma manera ha actuado el resto de Europa que permitió su adhesión en el 2004 a la Unión Eu-

Chipre:

¿medio siglo? La historia de Chipre como Estado Moderno puede contarse como uno de los casos más recientes de la descolonización europea durante la Guerra Fría, pero también como uno de los escenarios poco conocidos, de los conflictos de la antigüedad que aún se mantienen vigentes. Próxima a cumplir medio siglo de existencia la inestabilidad de esta diminuta1 isla mediterránea, aún es un reto para la comunidad internacional y la geopolítica europea. También uno de los símbolos del fracaso de la ONU. ropea, pasando por alto la voluntad de Turquía.

Determinismo geoestratégico La ubicación geográfica de la isla, al extremo oriental del mar Mediterráneo y al sur de Turquía, a unos pocos kilómetros de la región de Oriente Medio, le confiere una gran importancia estratégica que ha sido entendida incluso desde el año 1500 a.C. (aprox.), cuando el faraón Tutmosis III de Egipto sometió las pequeñas colonias fenicias que habitaban la isla. Desde entonces Chipre ha estado en los planes de aquellos proyectos imperiales que han querido dominar el centro del mundo antiguo, un punto de paso de las rutas hacia el norte de África y la puerta de entra-

da desde los Balcanes hacia el subcontinente indio. El más reciente de ellos fue el del Imperio Británico que mantuvo posesión de la isla desde 1878 hasta 1960. En este marco se entiende el reciente periodo de disputa entre turcos y griegos que comenzó con la cruzada emprendida por Ricardo I Corazón de León (siglo XII) y se profundizó con la invasión por parte del Imperio Otomano en el siglo XVI. Estos procesos históricos, definitivos en la historia del mundo, crearon una Chipre dividida por la identidad de sus habitantes y marcada por el conflicto. La comunidad internacional contemporánea ante la imposibilidad de establecer una identidad y a partir de ella un Estado–Nación propiamente

chipriota, por encima de las diferencias tradicionales, pretendió establecer un modelo de cogobierno greco-turco en el que favoreció claramente a la mayoría griega sobre la minoría turca. En términos concretos, la importancia geoestratégica de Chipre, que se ha mantenido como una constante histórica podría resumirse de la siguiente manera: Quien controle Chipre, obtiene una proyección estratégica importante sobre el oriente del mar Mediterráneo y de esta manera a través de la aplicación del poder marítimo puede ejercer una importante influencia sobre las costas de Turquía, Siria, Líbano, Israel, Egipto y Grecia, así como un importante potencial de control del canal del Suez y por esta vía las comuni-

AFP

Unimedios

caciones de Europa con la península arábiga y el subcontinente indio. Esta proyección estratégica ha sido empleada incluso en términos humanitarios durante las últimas décadas para llevar diferentes tipos de ayudas a la Franja de Gaza. La condición geográfica ha sido un factor determinante en la historia de Chipre: la influencia de otras naciones y los resultados de las pugnas geopolíticas de las mismas, en principio de carácter regional y más recientemente global, han marcado el ‘destino’ y la identidad de la isla. Un asunto que va más allá del concepto de la “autodeterminación de los pueblos” y que nos recuerda en pleno siglo XXI que la geopolítica sigue siendo prioridad en Europa y en el mundo contemporáneo. Lejos del optimismo que se respira luego de la elección del presidente Dimitris Christofias (2008), de la caída del muro de Nicosia y los anuncios de proceso de paz promulgados por líderes ‘grecochipriotas’ y ‘turcochipriotas’, la historia pareciera ser la espada de Damocles que pende sobre la utopía de una Nación chipriota construida por encima de las diferencias etno–religiosas. Una situación que se complica mucho más en nuestro tiempo, en el que los conflictos entre el mundo cristiano e islámico se profundizan, y en el que la ONU ha demostrado reiterativamente su incapacidad por mantener un orden internacional, ya que la historia ha ubicado a Chipre en la frontera de los dos mundos. El territorio de Chipre tiene un área de 9.240 km2, es decir, un 1.2% del territorio colombiano, o lo que igual, casi cuatro veces el área urbana de Bogotá. La población se acerca a los 800 mil habitantes (2008). 1


Análisis

En los últimos meses, miles de analistas en todo el mundo han dedicado la mayor parte de su tiempo a explicar las causas de la crisis financiera internacional y a proponer fórmulas mágicas para enfrentarla. Sin embargo, la mayoría se centra en dos explicaciones principales: por un lado, que la culpa es de unos banqueros ‘sinvergüenzas’ que escondieron la información adecuada e hicieron creer falsamente a los inversionistas que los valores, que tenían en acciones o en bonos, eran altísimos; cuando en realidad se trataba de ‘títulos basura’ sin el respaldo suficiente. De otra parte, expertos como el Nobel de Economía 2001, Joseph Stiglitz, insisten en que las políticas fallaron y que hubo mucha desregulación, lo que debilitó los controles al sistema financiero, de tal manera que con el escaso control no pudieron alertar a tiempo que las entidades estaban malsanas, y continuaban captando recursos privados y públicos a un hueco sin fondo. La falta de regulación y la ola de privatizaciones a ultranza, principalmente en la década de 1990, llevaron a dejar en manos de las empresas privadas una gran cantidad de funciones y de procedimientos del Estado sin control del mismo. Es decir, que el exceso de privatización y de desregulación llevaron al debilitamiento del Estado. Ahora bien, sin negar las anteriores explicaciones, Darío Indalecio Restrepo, profesor de la Facultad de Ciencias Económicas de la Universidad Nacional, considera necesario hacer un análisis más profundo y buscar las causas estructurales de la crisis en lo que algunos economistas han denominado la financiarización de la economía. Los orígenes de dicho fenómeno se remontan a 1971 cuando el presidente de Estados Unidos, Richard Nixon decidió desvincular el dólar del oro. Hasta ese momento, un banco nacional no podía emitir moneda sin tener algún bien productivo que lo respaldara, era como un ancla que ligaba la producción de moneda a la riqueza de las naciones. Con la medida de Nixon, asegura el profesor Restrepo, el ancla se desprendió y los Estados empezaron a emitir moneda sin respaldo de sus aparatos productivos (industria, comercio, infraestructura, máquinas, etc.) y se consolidó al dólar como el patrón de cambio internacional. Eso puso a Estados Unidos en una situación de privilegio frente a los demás países, ya que quienes deseaban acceder a créditos debían tener reservas en dólares. Fue tan favorable la medida para Estados Unidos

Aunque las autoridades económicas son culpables por la poca regulación, y los operadores de los mercados

financieros, por su codicia, es necesario remontarse a la década de 1970 cuando se modificó la arquitectura económica internacional.

Financiarización,

origen de la crisis económica mundial

que, a pesar de incrementar la emisión de dólares, no sufrió problemas inflacionarios. Según el profesor Restrepo, EE.UU. exportó la inflación, ya que los países petroleros, China, India, entre otros, captaron toda esa cantidad de dólares e hicieron grandes reservas en fondos soberanos. De la misma forma, exportó su déficit fiscal, ya que el mundo entero ‘invirtió’ sus ahorros en EE.UU. En la década de 1990, por ejemplo, buena parte del ahorro del sistema productivo latinoamericano no se tradujo en inversión nacional, sino en exportaciones de ese ahorro para vincularlo al sistema financiero internacional, por las rentas que eso generaba, las que además eran seguras, crecientes y no pagaban impuestos. Por lo tanto, por la vía del monopolio del dólar y del desarrollo de su sistema financiero, el más sofisticado en el mundo, EE.UU. fue exportando su inflación y haciéndole pagar al mundo entero, en cierta medida, su deuda, agregó el profesor Restrepo. Sin embargo, eso no quedó impune, pues creó una distancia vertiginosa entre bienes financieros y la economía real, y con base en eso se creó una sobrevaloración de las cosas que llevó, como consecuencia, a que los precios de las acciones en la bolsa subieran más que la rentabilidad efecti-

va de los negocios. Esto, a juicio del profesor Restrepo, es una exhuberancia de la subjetividad de lo que en el futuro pueden llegar a valer las cosas, que se generan por el exceso del circulante financiero, respecto de la economía real, advierten los economistas que comparten esta teoría.

La ruta es quebrar el patrón oro Cuando de dar soluciones se trata, aparecen tesis de todo tipo; algunos recomiendan proteger el mercado nacional, invertir en infraestructura, tratar de mantener la demanda, bajar las tasas de interés para que haya más créditos, ocuparse de los más pobres, emprender procesos de industria-

lización, apoyar a ciertos sectores de la economía, aumentar el gasto público, entre otras medidas. Sin embargo, para el profesor Restrepo la clave está en quebrar el ciclo de lo que se produjo, ya que enfrenta una efervescencia muy similar a la que se vivió en 1929: el sector inmobiliario y las acciones estaban disparados, y en tres años el 90 por ciento del comercio internacional se había deprimido (bajó al 10 por ciento) y el crédito internacional bajó 70 por ciento. Es decir una depresión general y una desvalorización de las cosas. Hasta hace pocos meses se registró un exceso de moneda respecto de los bienes reales; se disparó el precio del petróleo; el valor de las casas se triplicó; se encare-

Palos de ciego • Las medidas que se han tomado en EE.UU. en el corto plazo obedecen a los patrones convencionales, porque no hay otra alternativa. Sin embargo, las bolsas de valores caen cada vez que se sienten amenazadas con la nacionalización de bancos. • Según el profesor Restrepo, los bancos quieren recibir el dinero de emisión, de impuestos, de deuda con plena libertad de utilización. Sin embargo, con ese dinero han pagado sus ‘bonos basura’ o comprado otros bancos que están en peor situación. • No obstante, los banqueros no deberían recibir el dinero ya que la economía financiera se la puede succionar, sino los inversionistas y los consumidores, porque son los que sostienen la economía real.

cieron los precios de los alimentos, los metales y demás materias. Sin embargo, luego de los excesos de moneda y de valor, hoy se registra una depreciación general de los valores, del capital y de los activos. Es la más grande estafa que se le ha hecho al mundo entero, ya que el valor de esas acciones era la succión que se capturó de muchos fondos de pensiones; de ahorros de ciudades, pueblos y departamentos; de grupos económicos; de empresas grandes, pequeñas y medianas, etc., asegura el profesor Restrepo. Por cerca de cuatro décadas EE.UU. ha tenido el monopolio para subordinar el conjunto de las economías nacionales y la economía internacional al manejo de su política monetaria, por lo tanto hay que superar el patrón dólar, agrega el profesor Restrepo. Por ejemplo, semanas atrás, el presidente de Brasil, Luiz Inácio Lula da Silva, le propuso al presidente Álvaro Uribe Vélez realizar los intercambios comerciales en sus monedas nacionales. Y, aunque no hay una solución única, parece que el camino es abrirse a otras posibilidades: intercambios en monedas nacionales y monedas regionales (asiática, europea, latinoamericana, africana, etc.)

Domingo 12 de abril de 2009

Centro de Investigaciones para el Desarrollo, CID Facultad de Ciencias Económicas Universidad Nacional de Colombia

Notimex

Julio Solano Jiménez, Catalina Cárdenas Piedrahita,




 Ciencia

Los sistemas híbridos

como alternativa energética El aprovisionamiento de energía es hoy en día una de las mayores preocupaciones de la comunidad internacional, las fuentes convencionales y en especial las energías fósiles, se están convirtiendo rápidamente en recursos escasos. En un futuro cercano, algunas

de estas fuentes ya no estarán disponibles y es indispensable considerar nuevas estrategias para la generación y consumo de energía. Desde hace algún tiempo se habla de las energías alternativas como la solución a dicho problema; sin embargo, la pregunta lógica que surge es si estas energías son la solución ¿por qué no se han utilizado? Andres Hernandez,

Domingo 12 de abril de 2009

Las fuentes de energías convencionales tales como los combustibles fósiles, nucleares, o la energía hidráulica son fuentes fáciles y baratas de explotar, su densidad energética es importante, son fáciles de almacenar y transportar, en resumen son el tipo de energía ideal para una sociedad que desea consumir grandes cantidades de energía en poco tiempo. Por el contrario, las que consideramos energías alternativas o no convencionales son fuentes de energía difusa, que se encuentran en bajas concentraciones, son difíciles de almacenar y de transportar y presentan costos elevados para su explotación. En conclusión, nuestro consumo de energía está guiado esencialmente por criterios económicos, y de disponibilidad. Visto desde un punto de vista puramente práctico, es fácil ver las limitaciones de las energías alternativas. Por ejemplo, un panel fotovoltaico en Colombia generaría del orden de solo 1,3 kw/hora/m2 por día. Estos paneles son adecuados para suministrar energía a sistemas estables con bajas variaciones de consumo, pero inadecuados para absorber variaciones fuertes y rápidas de consumo. Adicionalmente, en aplicaciones domésticas la mayor parte del consumo es nocturno, lo que obliga el uso de acumuladores. Un panel solar térmico genera del orden de 3 kw/hora/m2, con los mismos inconvenientes que el anterior, siendo la energía térmica menos costosa de almacenar que la energía eléctrica. El viento es discontinuo e impredecible, lo que hace al suministro por energía eólica poco confiable, y el biocombustible tiene las cualidades energéticas de los combustibles tradicionales pero necesita de superficies de cultivo muy grandes para una poca energía neta producida. El hidrógeno utilizado por pilas de combustible tiene un proceso de producción, transporte y almacenamiento costoso, los volantes

Notimex

Dr. de l’Université de Technologie Belfort Montbeliard, (École Doctorale de Besançon) Centro de Estudios en Energías Escuela Colombiana de Ingeniería

Sección de una inmensa placa voltaica que mide 10 mil 500 metros cuadrados, mayor que el campo de fútbol del estadio español Santiago Bernabeu, que permitirá transformar la ener-

gía solar en eléctrica con una capacidad suficiente como para dotar a 3 mil 500 hogares de luz. de inercia solo pueden almacenar pequeñas cantidades de energía y son voluminosos, los supercondensadores permiten almacenar y liberar energía rápidamente, pero su capacidad es limitada. Ninguna de estas alternativas es por sí misma una solución viable en las condiciones actuales. Sin embargo, la asociación de dos o más de estas fuentes de energía, puede presentar características interesantes que hagan viable su utilización. Para clarificar este punto, demos algunos ejemplos concretos. Un vehículo requiere energía para desplazamiento y para confort. Aunque se tendería a pensar que un banco de baterías sería adecuado para alimentar un vehículo eléctrico, podemos observar que la energía con-

sumida en su desplazamiento es irregular; acelera y frena con diferentes intensidades o mantiene diferentes velocidades de crucero. Bajo estas condiciones, la vida útil de la batería es corta y su uso ineficiente. Las baterías soportan mal los picos de corrientes producidos por aceleraciones bruscas o por la recuperación de energía durante el frenado, pero son adecuadas para mantener una velocidad de crucero estable. Por otro lado, los supercondensadores tienen características complementarias, son capaces de absorber y liberar energía rápidamente y con gran eficiencia, permitiéndoles absorber las variaciones bruscas de corriente; protegiendo así la batería y aumentando la eficiencia y autonomía del sistema. En

sistemas como este, el costo puede optimizarse al aumentar la vida útil de baterías y disminuir el número de ellas necesario para obtener la autonomía deseada. En un segundo ejemplo analizaremos el consumo energético de una casa de campo. Su consumo básico está concentrado en la iluminación nocturna, la regulación de temperatura, calentamiento de agua, el uso de electrodomésticos y cocina. El primer impulso cuando nos hablan de proveer energía a una habitación aislada es la utilización de paneles fotovoltaicos. Pero una vez más, esta no es la solución óptima y un sistema híbrido es más eficiente en costo y energía. La superficie disponible para localizar paneles solares es limitada y como

dijimos anteriormente la densidad energética solar es baja. Los criterios a optimizar son entonces: área y energía. Los paneles solares térmicos son más eficientes y menos costosos que los fotovoltaicos y su uso debería preferirse en lo posible. En nuestro caso, la mayor parte de las necesidades de calentamiento de agua y de regulación de temperatura deberían provenir de paneles solares térmicos, y solamente el consumo eléctrico debería provenir del sistema fotovoltaico. Otra fuente de energía que es poco utilizada pero que es de gran utilidad en aplicaciones como esta, es la energía geotérmica. En nuestro caso, no se trata de una fuente de calor sino de un sistema a temperatura casi constante. En efecto la temperatura del suelo a pocos centímetros de la superficie es poco sensible a las variaciones diarias de temperatura. Esta característica del suelo, permite utilizarlo como elemento de intercambio térmico, aumentando la eficiencia de sistemas tales como calefactores o aires acondicionados y neveras. El ahorro de energía introducido por este medio, permitiría a fuentes de baja densidad energética de proveer la energía suficiente para un sistema determinado. Teniendo cubiertas las necesidades térmicas, concentrémonos en los demás rubros del consumo. El consumo eléctrico para iluminación y electrodomésticos puede ser provisto por una combinación de paneles fotovoltaicos para el promedio del consumo, con un apoyo de supercondensadores para el arranque de los electrodomésticos y un generador alimentado por biodiesel para cubrir los excesos eventuales de la demanda y que permita limitar la superficie de paneles. El sistema resultante es energéticamente eficiente y de costo razonable. En conclusión, la hibridación de sistemas energéticos, adaptada a cada aplicación representa una alternativa para hacer que las energías no convencionales sean una opción técnica y económicamente viable.


Ciencia



Carlos Andrey Patiño,

América Latina,

mirada fresca a la teoría evolutiva

Desde la filosofía, la biología embrionaria, el comportamiento, la historia natural, entre otros ámbitos, América Latina sigue redescubriendo los postulados darwinianos, para entregarle al mundo una mirada novedosa y fresca de la teoría evolutiva. Esa es la impresión que tienen científicos y académicos del continente, unidos por el Grupo internacional Bogotá, dedicado al pensamiento evolucionista, de los cuales varios estuvieron en la UN, en el pasado “Simposio Darwin, 200 años”. el origen y la evolución química de la vida, con publicaciones en revistas científicas tan importantes como Nature. Fue olvidado, pero hoy estamos revisando su legado”, relata López.

Exploración La investigadora, Alba Leticia Pérez Ruiz, bióloga del Centro de Estudios Filosóficos, Políticos y Sociales, Vicente Lombardo de la Universidad Nacional Autónoma de México, sostiene que el debate y las colaboraciones en América Latina son fuertes en la actualidad y que el Grupo Bogotá es clave. “Lo interesante es que somos un grupo pequeño que cuando se reúne, hace una discusión enriquecedora y se intercambian cosas concretas. Hoy en México hay muchas investigaciones en el área de evolución. Por ejemplo, mi trabajo se centra en el comportamiento social de los primates, mirando la evolución de estados como la agresión y la resolución de conflictos”, explica la mexicana. Su objetivo es extrapolar sus hallazgos en primates y determinar las

aplicaciones humanas en el tema de la reconciliación. “Los estudios que se han hecho en animales, que son sistemáticos y científicos, sirven para probar que la agresión entre los niños tiene los mismos mecanismos de agresividad que en los primates. Algo similar sucede con los mecanismos de conciliación”. Entre tanto, Charbel Niño El–Hani, investigador de Instituto de Biología de la Universidad Federal de Bahía (Brasil), está convencido de que la comunidad científica de América Latina sí está dando respuestas concretas a problemas globales. Para el caso brasilero, hay una apuesta grande, desde hace 15 años, por estudiar temas como la biología del desarrollo, tanto desde lo teórico como desde lo experimental. El aduce que esta proliferación de investigaciones en el campo evolutivo se da por el interés del Estado de apoyar, como nunca antes, el desarrollo de la ciencia y la tecnología. “Desde hace ocho años se comenzó a invertir lo que en todo el siglo pasado no se había invertido en el campo científico. Esto está dando re-

sultados muy positivos en Brasil. Aquí, en Colombia, destacó la apuesta que se le está dando al tema evolutivo desde la filosofía, que no es un área común que abarque la comunidad de biólogos”, manifestó El–Hani.

Nueva visión Precisamente el tema filosófico es el que le interesa al argentino Gustavo Caponi, Doctor en Lógica y Filosofía de la Ciencia y actual docente de la Universidad Santa Catarina, de Brasil. Él considera que el excesivo foco de atención en la selección natural llevó a que se eclipsase la importancia que ya en el siglo XIX se había visto sobre los estudios embriológicos para la evolución. “Estos estudios recobraron importancia en la última parte del siglo XX y mucho más ahora en el siglo XXI. Se está produciendo una reformulación del modo de entender la biología evolutiva, pero no en relación a Darwin, no se trata de refutarlo, sino en particular del neodarwinismo que se articula a partir de la década de 1940. Hoy se está revisado y suplementado los nue-

vos estudios de la biología evolucionaría del desarrollo”, manifiesta Caponi. Esta clase de perspectivas investigativas son, según el profesor Joao Muñoz Durán, biólogo de la UN en Bogotá, muestra de que en Colombia y en otros países de la región hay una mirada renovada sobre lo que es la evolución. “Miramos con muchas curiosidad el proceso evolutivo y sus teorías. Tenemos muchas ganas de trabajar porque no tenemos la trayectoria de Europa y Norteamérica. Somos muy críticos y desarrollamos una visión algo diferente en términos de teoría. Por ejemplo, entre los años 70 y 80 en el mundo se discutió muy fuerte sobre los niveles en los que trabaja la selección natural, pero el tema se abandonó. Hoy los latinoamericanos estamos avanzando en esa área”, anota Muñoz. Como lo enfatiza el Director del Instituto de Genética de la UN, Luis Fernando Cadavid: “el tema evolutivo apenas comienza a ser comprendido en su totalidad y queda todo por investigar”. Es cuestión de que los jóvenes investigadores latinoamericanos abran su imaginación y sigan descubriendo posibilidades.

Domingo 12 de abril de 2009

Estar alejados, durante varias décadas, de las corrientes mundiales del pensamiento formal evolucionista, fue algo común para la mayor parte de la comunidad científica y académica de América Latina. En Colombia por ejemplo, incluso en los años 80, el tema evolutivo era poco o nada abordado en las aulas de clase universitarias. Hoy es un tema fundamental. En el caso de los colombianos, una nueva generación de biólogos, preparados con estudios de doctorado en países pioneros en la materia, le permitió al país contar con una mirada fresca y novedosa alrededor de los postulados darwinianos. Algo similar sucedió en el resto del continente. Hoy América Latina es una fuente rica en investigaciones y visiones sobre la evolución desde distintas áreas del conocimiento. Un claro ejemplo fue el pasado “Simposio Darwin 200 años”, realizado en la Universidad Nacional de Colombia, en donde investigadores del denominado Grupo Bogotá de pensamiento evolutivo, se reencontraron y fortalecieron sus lazos de cooperación. Carlos López Beltrán, biólogo experimental de la Universidad Autónoma Metropolitana Iztapalapa, en México, sostiene que se vive un periodo de reconocimiento del quehacer científico en evolución en nuestro continente, en el que se evidencia que no solo los 10 o 15 científicos más reconocidos de los países desarrollados son los que están generando avances. “Somos una comunidad muy basta de pensadores, con una actitud crítica y creativa, que abarca, además de biólogos, a geólogos, paleontólogos, arqueólogos, antropólogos, filósofos e historiadores de altísima calidad”, sostuvo López, quien es experto en herencia biológica. Cuenta el investigador que en México, por ejemplo, existe un grupo que estudia el origen de la vida, cuyo principal investigador lleva cerca de 30 años aportando al conocimiento, tanto teórico como experimental, sobre los primeros momentos de la evolución química prebiótica. Este estudio ha permitido obtener información tanto para el trabajo en el laboratorio como para el ámbito de la astronomía. “Yo sí creo que el tema de la evolución estuvo presente entre los científicos latinoamericanos de principios del siglo pasado, lo que sucedió es que pasaron desapercibidos. Eso le sucedió al biólogo mexicano Alonso Herrera, pionero en el mundo de la conceptualización sobre

Andrés Felipe Castaño/Unimedios

Unimedios


Moisés Wasserman,

Profesor Titular e Investigador Científico Rector Universidad Nacional de Colombia

Charles Darwin no era un luchador. Sus biógrafos Adrian Desmond y James Moore lo llaman “un evolucionista torturado”1. Durante 20 años no se decidió a hacer públicas sus conclusiones, entre otras cosas por temor a la reacción que iban a producir. En la autobiografía que escribió para sus hijos se describe metódico, tranquilo, débil y evasor de problemas: “Mi mala salud, aunque ha aniquilado varios años de mi vida, me salvó de las distracciones de la sociedad”2. Su esposa lo acompañaba incluso en las horas de descanso y lo protegía de cualquier hecho que lo disturbara, lo irritara o le produjera cansancio excesivo. Continúa en su autobiografía: “Mi principal placer y mi única ocupación a lo largo de mi vida ha sido el trabajo científico. La excitación que se deriva de él me hace olvidar el malestar diario. Por consiguiente no tengo nada que anotar sobre el resto de mi vida, excepto tal vez la publicación de algunos libros”. De esto se desprende mi afirmación de que Darwin no era un luchador. Sin embargo, ha estado después de la publicación de “El Origen de las Especies” en el centro de las más grandes e intensas controversias.

Domingo 12 de abril de 2009

Polémicas sobre su originalidad y sus aciertos Periódicamente surge alguien que pretende que la teoría de la evolución no es de Darwin sino de Wallace (o incluso de otros antecesores más o menos remotos incluido su abuelo), y que él recibió un mérito inmerecido. Algunos le reconocen originalidad pero plantean que su teoría está tan plagada de errores que lo que se conoce hoy en día como evolución es algo diferente a lo que él planteó en su momento. La verdad es que los defensores a ultranza de Wallace lo hacen en contra de lo que él mismo pensaba. Estaban dadas las condiciones para que los dos se pelearan. Ambos hubieran podido reclamar la paternidad de una teoría de inmensa importancia. Los dos podían haber tenido resentimientos; Darwin por el hecho de que un muchacho joven hubiera llegado en poco tiempo a una teoría que él estuvo rumiando y perfeccionando durante 20 años. Wallace porque esa persona mayor, con influencia y poder se llevaba los méritos sobre algo que él había deducido en forma independiente. Los defensores de uno y otro han hecho todo lo posible para dividirlos en vida y después de ella; sin embargo los dos fueron amigos, se respetaban y querían. Wallace admiraba a Darwin por el gran científico que era, Darwin apreciaba el genio y la modestia de Wallace. Eso no quiere decir que estuvieran de acuerdo en todo. Casi cada detalle fue motivo de controversia entre ellos. Un ejemplo conocido es su desacuerdo sobre la explicación del fenómeno de dimorfismo sexual: las diferencias en la apariencia entre machos y hembras en la misma especie. Por qué los hombres tienen barba y las mujeres no, por qué los pavos reales machos tienen colas tan vistosas y por qué los cuernos de los ciervos. Darwin ponía el énfasis en el macho y su necesidad de exhibir fortaleza y salud para ser escogido,

Darwin, el hombre

de los conflictos

AFP

 Ciencia

Darwin, como pocos hombres en la Historia, ha generado discusiones y conflictos. Ha tenido los más duros contradictores y los más apasionados defensores. Para unos, Charles Darwin fue el investigador ideal que mantuvo la verdad científica como valor fundamental de su actividad, generoso con sus conocimientos e ideas y buen amigo. Para otros, era un representante de la clase alta victoriana, capitalista, sexista, incluso racista que se tropezó con una buena idea. Su teoría y su legado científico e intelectual despiertan aún más controversia que su persona. Se le han opuesto con furia desde la derecha reaccionaria americana hasta la izquierda estalinista soviética. Wallace lo ponía en la hembra y su necesidad de pasar desapercibida para proteger mejor su progenie. Eso lleva a la segunda pregunta: ¿Cuánto se equivocó Darwin? Acá hay que distinguir tres dimensiones de su teoría. La primera es la fáctica, la existencia misma de la evolución. ¿Son los seres vivos de hoy descendientes de ancestros con características diferentes? La segunda dimensión es la filogenética. ¿Cuál fue el camino que siguieron las especies que conocemos hoy a través de unos fósiles para llegar a las actuales? ¿Cómo están relacionadas las actuales especies entre sí? La tercera dimensión es la causal y explicativa. ¿Cuál es el mecanismo que gobierna la evolución, cuál la fuerza que la mueve? Las respuestas a la pregunta de cuánto se equivocó son diferentes para cada dimensión y nos ayudan a comprender mejor las implicaciones de su trabajo. Que la evolución es un hecho real es algo que muy pocos discuten hoy en día. Como toda teoría científica nunca será comprobada en forma absoluta, pero ha pasado con éxi-

to tantas pruebas y tan rigurosas, que las dudas sobre la evolución son débiles como lo son aquellas sobre el sistema heliocéntrico de Copérnico frente al geocéntrico de Ptolomeo. Sobre las vías de la evolución o la filogenia, tuvo aciertos y se equivocó muchas veces. No hubiera sido posible acertar cuando los records biológicos eran incompletos y los registros fósiles incipientes, no había aún una teoría genética y no existía ni la más mínima sospecha sobre la estructura química de los genes, ni sobre los mecanismos moleculares de la herencia. Era totalmente imposible que acertara en los detalles. La tercera dimensión es la que muestra la gran genialidad de Darwin. El fundamento de la teoría es de una extraordinaria simplicidad. De manera espontánea se generan en las poblaciones individuos variantes. Algunos pueden responder mejor a un reto que les impone el ambiente. Esa característica variante que les da a los individuos una ventaja relativa para procrear, en muchas generaciones será predominante en la población

y finalmente se establecerá como una característica común de la especie. En esa explicación simple está su grandeza. Ya se conocía entre los granjeros ingleses el mejoramiento por selección de razas de ganado. Darwin mostró que la naturaleza hacía lo mismo: una selección natural. Han surgido muchas teorías que complementan o que pretenden explicar la evolución de otra forma. La primera de ellas la de Lamarck3. No podré en estas breves palabras profundizar en ninguna. Me atrevo solo a adelantar mi opinión de qué o no han podido resistir las pruebas a que han sido sometidas, es decir no son verdaderas, o que su capacidad explicativa está limitada a casos especiales sobre los cuales no hay absoluta claridad, o que pueden ser incluidas dentro de la teoría general como casos particulares. No quiero con esto descalificar los esfuerzos intelectuales que se han hecho. Creo que nos han llevado a comprender mejor la realidad. Algunos de los que más recientemente cuestionan aspectos fundamentales de la teoría


Ciencia

Darwin era un inglés, aristócrata victoriano. Leyó a Malthus en el año 1838 pero, en el mismo párrafo en que reconoce la claridad que le surgió de su lectura, manifiesta su voluntad de no dejarse influir por él. Se podrá discutir en qué medida lo logró, pero es indudable su tenacidad para construir una teoría científica y no hacer una construcción intelectual para justificar posiciones a priori. Esa pertinaz voluntad de acercarse a una verdad no ideologizada hizo que su teoría fuera el foco de ataques fundamentalistas. Hasta hoy en día hay centros de la más oscura y retardataria reacción, en los cuales está prohibido enseñar la evolución y la atacan como uno de los grandes males del mundo. Otros con un perfil más moderado pretenden que se enseñe, en paralelo con ella, un creacionismo llamado con el eufemismo de “Diseño inteligente”. En su propia casa encontró esa contradicción. De la primera edición de su autobiografía, su esposa pidió excluir los fragmentos donde reconocía ser ateo. La religión estuvo detrás de los más fieros ataques que sufrió. Por otro lado, a pesar de que Marx y Engels manifestaron simpatía personal por su teoría, en la Rusia Soviética de Stalin fue proscrita con argumentos que hoy parecen infantiles. Durante años el desarrollo de la biología soviética se estancó con la visión torpe de Trofim Lysenko, quien defendía al Lamarckismo como progresista porque planteaba “el triunfo de los esforzados”, en contra del Darwinismo que supuestamente apoyaba una guerra de corte capitalista en la que los débiles salían derrotados. La argumentación científica fue falseada y los experimentos forzados a soportar la ideología. Algo debía estar bien si tanta furia despertaba en enemigos de otra manera irreconciliables. La afirmación que hice sobre el carácter científico de su teoría tampoco ha estado libre de controversia. El gran epistemólogo del siglo XX Karl R. Popper la llamó un “programa metafísico de investigación”8, no una verdadera teoría científica confrontable experimentalmente. Más tarde cambió esta visión9. Pero posiblemente lo más interesante en esta controversia fue que el Darwinismo mismo fue

Evolución, comportamiento social y sistemas morales El último gran conflicto que quiero mencionar es el generado por Darwin, y algunos seguidores al tratar de “biologizar” la moral y proponer que elementos del comportamiento social son también consecuencia de la evolución. En su libro “El Origen del Hombre y Selección en Relación con la Raza11” hace afirmaciones nada ambiguas. Repetiré unas de ellas en sus propias palabras: “El sentido moral o la conciencia es la diferencia más importante entre el hombre y los animales… Pero cualquier animal, inevitablemente adquiriría un sentido moral si sus facultades intelectuales se hubieran desarrollado tanto como las de un hombre”. Algunas de sus afirmaciones han sido tildadas de racistas. Otros biólogos como Edward O. Wilson el conocido experto en insectos sociales (quien acuñó el término de Sociobiología12) han sido duramente atacados por sus ideas. Se han hecho propuestas muy osadas; han surgido explicaciones desde la teoría de juegos (John Maynard Smith13), se han construido hipótesis sobre la manera cómo actitudes altruistas pueden haber surgido por selección natural (Hamilton, Trivers y otros) y cómo distintos hábitos de conocimiento humano no difieren mucho de los instintos básicos de otros animales. La influencia de la biología y la evolución en la construcción de sistemas morales es un tema que tiene grandes dificultades filosóficas pero así mismo ha producido desarrollos importantes. Son ya 150 años de la publicación de “El Origen de las Especies” y 200 del nacimiento de Darwin. Todavía se escribe y se habla de él. Su teoría sigue siendo el más poderoso motor para el progreso de la biología. Por eso el mundo celebra el nacimiento de un gran hombre y el de una teoría excepcional. Adrian Desmond and James Moore (1992) Darwin: The Life of a Tormented Evolutionist. Ed. WW Norton & Co. New York. 2 Charles Darwin (2005) The autobiography of Charles Darwin. Barnes & Noble Publishing Inc USA 3 Jean-Baptiste Lamarck (1809). Philosophie zoologique, ou Exposition des considérations relatives à l’ histoire naturelle des animaux..., Paris. 4 Eldredge, N. y Gould, S,J. (1972): Punctuated equilibria: an alternative to phyletic gradualism. En: Schopf, Th.J.M. (Ed.) Models in paleobiology. Freeman Cooper and Co.: 82-115 5 Kimura, Motoo (1983). The Neutral Theory of Molecular Evolution. Cambridge University Press. 6 Dobzhansky, Th. (1970). Genetics of the Evolutionary Process. Columbia University Press, New York. 7 Richard Dawkins (1976) The Selfish Gene. Oxford University Press. Oxford and New York. 8 Karl R. Popper (1976). Unended quest. Open Court ed., La Salle Illinois. USA. 9 Karl R. Popper ((1994) The myth of the framework. Routledge ed.. London and New York.

Richard Dawkins (1999) The Extended Phenotype. Oxford University Press. Oxford and New York. 11 Charles Darwin (1883)The Descent of Man and Selection in Relation to Sex . Appleton and Co New York 12 Edward O. Wilson (1975) Sociobiology: The New Synthesis. Harvard University Press 13 Maynard Smith, J. (1968). Mathematical Ideas in Biology. Cambridge University Press 10

Las iguanas terrestres son una de las especies endémicas de Galápagos, ubicada 1.000 km frente a las costas de Ecuador. El archipiélago

le sirvió de laboratorio natural al científico inglés Charles Darwin para que concibiera su teoría sobre la evolución de las especies.

1

Domingo 12 de abril de 2009

La teoría científica y las ideologías

propuesto como una teoría epistemológica per sé, que coincide con el mecanismo propuesto en “Conjeturas y Refutaciones” de Popper para llegar al conocimiento. Dawkins10 llega a un extremo proponiendo que las ideas son unidades de evolución, a las que llama memes, que sufren un proceso de selección natural en la “población general de ideas”, en una forma similar a como lo hacen los genes. Así la evolución cultural del hombre no sería sino una continuación de su evolución biológica.

AFP

han recibido mucha publicidad. Las hipótesis de evolución de grupos y de equilibrio puntuado de Stephen Jay Gould4, las teorías de deriva molecular y de la jerarquía de Kimura5, la teoría sintética de Dobzhansky6 y otras han tenido poco éxito para refutar y reemplazar al Darwinismo clásico. Por otro lado la genética moderna, la química del DNA y la forma como éste se duplica, el desarrollo de sistemas evolutivos in vitro e in–silico, la elucidación de secuencias de múltiples genomas y otros descubrimientos la han fortalecido. Incluso teorías que han propuesto que la unidad de evolución es el gen y no el individuo (como Dawkins en el “Gen Egoísta”7) no han sido más que un soporte adicional a la de Darwin. Es decir, la respuesta a la pregunta en su tercera dimensión es que Darwin fundamentalmente acertó en sus hipótesis sobre las causas, los mecanismos y las fuerzas que impulsan a la evolución.




10 Ciencia Magda Páez Torres,

Unimedios

Domingo 12 de abril de 2009

En qué consiste El modelo se trabajó basado en el análisis de crecimiento y desarrollo de la remolacha, con relación al comportamiento del clima. Está hecho en un programa con lenguaje estructurado de modelación, a través de formas matemáticas y ecuaciones diferenciales. No obstante, su uso es muy sencillo. El campesino solo tiene que ingresar los datos de la temperatura, cada día, y éste le predice la influencia que tendría el factor climático sobre el desarrollo de su cultivo. A partir de ahí continúa todo un seguimiento a través del programa para saber el tiempo estimado que se demorará el producto en estar listo.

Remolacha con tecnología

Un modelo de grados día para el cultivo de remolacha azucarera, una de las opciones para la obtención de biocombustible, fue desarrollado por un estudiante de la Maestría en Ciencias Agrarias de la Universidad

Nacional de Colombia. Con solo ingresar la temperatura diaria, el productor podrá anticipar el éxito de su cultivo o prever las pérdidas a las que se expone. “La temperatura es un factor variable, pero hay una acumulación de unidades de calor que recoge esa propiedad. El programa toma el pico de temperatura más alto, se promedia con el más bajo, y al resultado se le resta la temperatura base”, comentó Infante. Un punto crítico para ciertas variedades de este cultivo, según el investigador, es de 2.800 unidades de calor. Si en el semestre se acumulan más de 3 mil, como puede ser común en algunas zonas, se estaría excediendo de manera considerable el umbral de calor para la calidad óptima, lo que provocaría pérdidas. Por ejemplo al ingresar datos simulados de temperaturas tan bajas como las de la Calera, el programa indica que no se puede cosechar en el semestre. Y es que, dependiendo de la temperatura, puede ser más rápido o lento el cultivo. Allí entra a cumplir un papel fundamental el modelo, porque el hecho de que un campesino obtenga su producto una o dos semanas antes, le representa ahorro en costos de producción, como menos consumo de agua e insumos. El tiempo cronológico deja de ser importante y empieza a tener relevancia el tiempo térmico. Según pruebas en cámara de crecimiento, cuando mejoran las con-

Fotos cortesía Pedro Alexánder Infante

Al campo colombiano le llegó la tecnología. El éxito en un cultivo ya no depende solo de la buena suerte del campesino, sino que ahora hay nuevas herramientas informáticas para predecir los resultados de la cosecha. Uno de los productos que se beneficiaría de estos avances es la remolacha azucarera (Beta vulgaris L.), una variedad de la hortaliza usada para obtener biocombustible. Pedro Alexánder Infante, estudiante del área de Fisiología de Cultivos, de la Maestría en Ciencias Agrarias, desarrolló un modelo sistematizado sobre su producción. Con éste, se pueden precisar el instante y el clima aptos para la siembra, así como pronosticar el momento que tardaría en obtenerse la cosecha. Así, se ahorra dinero en el manejo del cultivo, se gana en resultados y se obtienen mayores rendimientos. Esto es lo que se conoce como agricultura de precisión. “Nuestro trabajo apunta a la calidad del producto, más allá de la cantidad, que se asegura con mayor facilidad. La idea es predecir en qué puede verse afectado o favorecido el cultivo, así como el contenido de azúcar”, dijo el profesor de la UN y director de la investigación, Jairo Clavijo. En Europa, la apuesta por este cultivo es clara, aunque con fines variados, entre ellos la extracción de azúcar. En Colombia, a pesar de que su incursión es muy reciente, hay buenos intentos por afianzar su producción, con miras a extraer biocombustible. El avance reviste gran importancia para el país donde, a veces, por ser una zona tropical, las condiciones climáticas son adversas o demasiado cambiantes para la remolacha azucarera. Hasta ahora, la región donde mejor se ha comportado es Boyacá.

diciones climáticas, es decir, se mantienen cercanas a los 18 grados centígrados, los resultados son mejores. La remolacha azucarera es un cultivo muy sensible frente al clima. “Se estresa en temperaturas demasiado altas, pues gasta energía extra en la fotorrespiración, un proceso útil para eliminar radicales libres (moléculas nocivas) en plantas como la remolacha, cuando se exponen a altas radiaciones”, explicó Infante.

Opción de biocombustible Las primeras opciones para la producción de biocombustible fueron la caña, la yuca y el maíz, alimentos casi sagrados, de una tradición que da-

ta desde los indígenas. Después, llegó la remolacha azucarera, con poco misticismo, pero con una ventaja sobre los demás: no es un producto comestible básico. Por tanto, en la actualidad, se le está apostando a este cultivo, con fines energéticos. Países europeos lo usan, además, para extraer azúcar, aunque como lo sostuvo el profesor Clavijo, lo mejor en condiciones tropicales es seguir extrayendo el dulce de la caña y el biocombustible de la remolacha. “Nosotros tenemos la caña para el azúcar, a diferencia de los países europeos. Por tanto, sería mejor extraer el etanol de la remolacha, que se demora menos tiempo y es menos complicada su producción”, aseveró el docente.

Mientras la caña toma cerca de 5 años para su cultivo, la hortaliza se da entre 5 y 6 meses. Por ende, sería menos complejo responder a la demanda de energía. Así mismo, como lo destacaron Infante y Clavijo, esta variedad de remolacha no es un alimento, como sí lo son la caña, la yuca y el maíz. “Allí radica la gran ventaja”, expresaron. Hace cerca de 6 años empezaron los estudios en Colombia para el cultivo de la remolacha azucarera. Ya se ha hecho extracción de energía con ésta, incluso se están adelantando pruebas para ver cómo funciona mezclada con productos como la caña. Hoy, el reto no es solo el estudio en campo, sino también la capacitación a los campesinos en su cultivo. Es más, con el nuevo modelo, la idea es que ellos reciban orientación sobre su uso y aprovechen las utilidades que les brinda. “Unos la absorberán, la entenderán y llegarán primero. Otros, los seguirán”, dijo el profesor Clavijo. Así mismo, enfatizó en que el modelo será benéfico para los agricultores del país, pues se va a predecir cuánto ganará o perderá con el cultivo. De ahí, se desprenderían unas prácticas agronómicas que impidan las pérdidas proyectadas.


Ciencia Unimedios

El LHC, (Large Hadron Collider) el Gran Colisionador de Hadrones, va tras la esencia de la materia, va a poner a prueba a la física contemporánea y va a permitirles experimentar, teorizar y plantear nuevos desarrollos a científicos de todo el mundo. Javier Cardona, Director del Grupo de Física de Aceleradores de la Universidad Nacional de Colombia, es uno de los miles de investigadores que quiere abrirse paso en el que es considerado uno de los experimentos más grandes e importantes emprendidos por el hombre. La puerta comienza a abrírsele. La Organización europea para la Investigación Nuclear (CERN), creadora del LHC, fijó sus ojos en un método, creado por el Grupo de la UN, que permite evaluar, localizar, medir y corregir los errores que se puedan presentar en los imanes del inmenso acelerador, en el momento en que las partículas de hadrones se dirigen hacia la gran colisión.

Aporte colombiano para el Gran Colisionador de Hadrones

Todo el sector científico del planeta tiene sus ojos puestos sobre el Gran Colisionador de Hadrones, catalogado como el experimento más importante de la historia. En Colombia, el Grupo de Aceleradores de la Universi-

dad Nacional en Bogotá, creó un modelo para detectar errores en los imanes del LHC. El reconocido físico John Ellis, en su paso por el país, aseguró que hay grandes posibilidades de que este aporte sea utilizado por la Organización Europea para la Investigación Nuclear (CERN).

En los 27 kilómetros de circunferencia del LHC hay miles de imanes que impulsan y dan energía a las diminutas partículas (haces) que se quieren hacer chocar. Se diseñaron de tal manera que los campos magnéticos no generen cambios en el curso de los haces. Según explica el profesor Cardona, la evidencia en otros aceleradores muestra que, a pesar del extremo cuidado a la hora de diseñar los imanes, hay pequeñísimas diferencias entre uno y otro, que acumulan efectos negativos sobre el haz. Esto hace que se afecte su intensidad y tamaño, que son las mayores preocupaciones de los físicos de partículas. “Lo que se quiere es un haz extremadamente pequeño para que haya el mayor número de colisiones posibles. Si los imanes no están bien, se afecta la órbita de las partículas y se reducen las probabilidades de obtener la información deseada, pues se produce interferencia con la instrumentación de diagnóstico del haz”, indica Cardona. En el Colisionador relativista de iones pesados, ubicado en Brookhaven National Laboratory (Nueva York, EE.UU.), el Grupo de

AFP

El aporte

El acelerador de hadrones sigue recibiendo aportes científicos de todo el mundo.

Es así que se podrán obtener los resultados que se esperan, como es el hallazgo del infinitamente diminuto Bosón de Higgs. Física de Aceleradores de la UN puso a prueba su método. En 2003, pudieron recuperar valiosa información sobre errores inducidos en este acelerador. “El potencial de recuperación de errores, en ese entonces, era muy bueno para lo que existía en el momento, pero hoy, 2009, luego de desarrollar varias técnicas para reducir los errores sistemáticos, tenemos una precisión casi exacta; muy pocos métodos tienen este nivel”, asegura el profesor del Departamento de Física.

Colaboración John Ellis, el contacto más directo entre el LHC, el CERN y los físicos de América Latina, sostiene, sin pretensiones de quedar bien, que en Colombia hay mentes brillantes. Esto lo ha podido constatar en Europa, en donde los científicos destacan la laboriosidad y disciplina

de los colombianos que han llegado en intercambios. Este británico sostiene que, si bien, el objetivo central del Gran Colisionador es estudiar la estructura de la materia y así comprender mejor la evolución del universo desde el big bang, la misión es también promover la colaboración científica mundial. En las instalaciones del CERN, dice, hay desde indios y pakistaníes, hasta israelíes y palestinos. Como buenos colombianos, que llegan a todas partes, allá hay varios de los nuestros y se despeja el camino para que lleguen más, con proyectos concretos como el de la UN. En su paso por el país, Ellis visitó al director de Colciencias y se contactó con físicos de las principales universidades. Se comprometió e hizo crear alianzas. “Fuera del interés central, hay varias aplicaciones de todo este sistema de investigación desarrollado

Un acelerador de partículas para comprender el origen del universo El Gran Colisionador de Hadrones intentará reproducir las condiciones físicas que dieron lugar a la formación del mundo Dos de los cuatro colisionadores (ATLAS y CMS) competirán para encontrar el bosón de Higgs, la llamada "partícula Dios" Búsqueda de materia y antimateria LHC-B

ATLAS

Recrea ALICE las condiciones del Big Bang

Los protones entran en colisión a 99,9999% de la velocidad de la luz

Cámara de colisión

alrededor del LHC. Quizás el más importante es el Grid, una superestructura de transmisión de datos que está disponible para la comunidad científica del mundo”, manifiesta el físico de partículas. La World Wide Web es, sin duda, la contribución del CERN más visible y utilizada en el mundo, que recién en marzo cumplió 20 años. El Grid, una red más poderosa y creada para contener la inmensa cantidad de datos que genera y generará el LHC, se alza como otro aporte vital para el intercambio de conocimiento en el planeta, más allá de la física misma.

“Lo beneficios son múltiples. Por ejemplo, con el Grid se estudia el clima mundial. Los datos que generen las colisiones en los aceleradores les servirán, también, a los físicos médicos. Desde aquí en Colombia se están haciendo análisis conjuntos con el CERN, etc. Es por eso que ustedes deben aprovechar al máximo estas posibilidades. Las puertas están abiertas para todos los investigadores”, enfatiza el científico europeo. En su caso personal, John Ellis sí se interesa por esa física pura, por saber si existe o no la incógnita partícula elemental llamada Bosón de Higg, que explicaría la esencia de la materia, esa que está, allá metida, en lo más profundo del átomo. “El modelo estándar de la física moderna ofrece una descripción muy precisa de la materia visible en el universo, pero sabemos que existe la materia oscura, que es tal vez el 80 ó 90 por ciento de la materia en el universo. El LHC nos podría dar respuestas sobre la naturaleza de esa materia oscura, así como sobre el origen de la materia misma en el universo”. Si todo sale bien, el aporte del Grupo de Física de Aceleradores de la UN se convertirá, en corto plazo, en pieza clave para permitir descifrar los más elementales secretos del universo.

Datos, de pura física • El mundo subatómico es un universo completo en sí mismo. Hace poco más de un siglo, el átomo era la partícula más diminuta de la materia, pero los avances de la física nuclear dejaron en evidencia un mundo de partículas supremamente diminutas, dentro y fuera del núcleo del átomo, fundamentales para la descripción de la materia. • El Físico británico John Ellis explica que aún falta conocer la esencia misma de la materia, esa partícula que explicaría el por qué otras partículas subatómicas, como los protones, tienen masa. Se trata del Bosón de Higgs. El LHC es la esperanza para descubrir esta partícula teórica.

CMS

Paz Pizarro

Profundidad: 100 m

Túnel: 27 km, -271°

Las partículas forman dos haces que viajan en direcciones opuestas a una velocidad cercana a la de la luz y chocan en cuatro puntos de intersección 211008

Fuente: CERN

Partículas subatómicas (componentes fundamentales del universo)

• “¿Para qué servirá el Bosón de Higgs? No sé qué desarrollos podría tener en el futuro, pero los tendrá. Einstein no pudo haber predicho que su teoría de la relatividad sería clave para la tecnología del GPS, de posicionamiento global. De lo que sí estamos seguros es que los científicos del futuro sabrán darle aplicación, claro está, si en realidad existe esa partícula”, sostiene Ellis.

Domingo 12 de abril de 2009

Carlos Andrey Patiño,

11


Patricia Barrera Silva,

Unimedios

Desde la década de los sesenta cuando comenzó la era mundial de la microcirugía reconstructiva, Colombia ha estado al tanto de este avance, que en 1962, permitió por primera vez en el mundo, reimplantar un brazo en la ciudad de Boston a un joven que había sufrido su amputación en un accidente ferroviario. Solo setenta días después se realizó con éxito en Bogotá la revascularización de un miembro inferior de un paciente atropellado por un vehículo. El procedimiento se llevó a cabo en el Hospital de San Juan de Dios, por las manos del cirujano de la Universidad Nacional de Colombia Fernando Gómez Rivas, el mismo que dos años después practicara en el mismo centro el primer trasplante renal en Colombia. En aquella época, con el San Juan de Dios como centro de operaciones, se comenzó a avanzar en la práctica y perfeccionamiento de los reimplantes y trasplantes, pero el doctor Gómez Rivas se trasladó a los Estados Unidos y con su partida, el liderazgo de estos sofisticados procedimientos se trasladó al Hospital San Vicente de Paúl en Medellín de la mano de la Universidad de Antioquia.

Domingo 12 de abril de 2009

Cirugía a través del microscopio La microcirugía va un paso más allá de una operación habitual porque utiliza la magnificación óptica. Específicamente esta técnica reconstructiva emplea el microscopio para trasplantar tejidos de una parte del cuerpo a otra, mejorando así la capacidad visual del médico. Esta estrategia la iniciaron los cirujanos de oído en 1926, después la aplicaron los oftalmólogos y hacia 1960 se utilizó para reparar venas y arterias de pequeño calibre, dando origen a la microcirugía vascular. Las guerras mundiales fueron el doloroso escenario donde se desarrollaron múltiples técnicas quirúrgicas y sus sobrevivientes, víctimas de amputaciones de miembros y deformidades faciales conformaron un grupo de pacientes carentes de una especialidad médica que los acogiera y se encargara de su cuidado. Se impuso así, el desarrollo de la cirugía plástica reconstructiva. En Inglaterra Sir Harold Guillies, un cirujano militar perfeccionó la práctica de los “colgajos a distancia”, que consiste en reconstruir una herida con piel de un área distante del sitio lesionado. Para ello es indispensable mantener en contacto la parte traumatizada con el área sana donante por espacio de veinte días. Por ejemplo, la extremidad superior lesionada era introducida en un bolsillo de piel abdominal hasta que ésta se integrara a la mano (Fig.1). Después de tres semanas, en una segunda operación, la mano cubierta con la piel proveniente del

Microcirugía, para reconstruir vidas

Quienes a causa de accidentes o luego de la extirpación de un tumor se enfrentan a la deformidad de una parte de su cuerpo, cuentan con una esperanza en la microcirugía reconstructiva. El Instituto Nacional de Cancerología

y Cirujanos Plásticos de la Universidad Nacional de Colombia llevan más de una década uniendo sus fortalezas para practicar reconstrucciones quirúrgicas en enfermos de las zonas más vulnerables del país, afectados por cánceres avanzados. vientre era separada. Después de superar el reto de los reimplantes de extremidades en Estados Unidos y Europa se aplicó la microcirugía vascular, para trasplantar segmentos de piel en un solo tiempo, obviando así las prolongadas técnicas de Guillies. Esto originó el capítulo de los “colgajos libres”.

Oscurantismo en pleno siglo XX Aunque parezca increíble hacia la década de los ochenta cuando empezó a tener auge este procedimiento, muchos cirujanos de la época afirmaban que la microcirugía vascular no era viable para Colombia, porque era muy costosa y tenía un alto índice de fracaso. En 1978 se hizo el primer colgajo libre (autotrasplante) de piel en el Hospital San José de Bogotá y en el San Juan de Dios la doctora Yolanda Restrepo, formada en Francia, hizo los primeros en 1984. La labor pionera del doctor Gómez Rivas con extremidades amputadas fue retomada veinte años después por el doctor Raúl Sastre Cifuentes, en aquel momento residente de Cirugía Plástica de la Universidad Nacional. Este reinicio se hizo en condiciones de gran adversidad, pues no se contaba con un laboratorio experimental y la utilización de los microscopios estaba prohibida para los residentes de Cirugía Plástica de la época, razón

con piel del antebrazo del mismo paciente luego de la resección de carcinoma. Lengua reconstruida

por la cual, las primeras prácticas las hacía a media noche cubriendo todas las ventanas de la sala de cirugía para no ser descubierto. Para facilitar su tarea montó un modesto laboratorio de microcirugía y para ello contó con la ayuda del doctor Tito Tulio Roa quien aportó un pequeño microscopio y el instrumental básico. No obstante, la utilización de los microscopios en las salas de urgencia nocturna no era bien recibida, pues los tiempos quirúrgicos eran prolongados, implicaba pasar de una intervención de 20 minutos (es lo que dura un cirujano en amputar y luego coser un muñón), a una intervención de 14 horas para poder revascularizar un miembro.

El primer intento de reimplantar una mano amputada se abortó, pero el segundo se logró en 1986 de forma satisfactoria, lo cual constituyó un gran estímulo para los jóvenes cirujanos que prosiguieron su labor reimplantando dedos, que por su menor tamaño constituyen un reto mayor. De los reimplantes se pasó a los auto–trasplantes o colgajos libres en pacientes afectados por traumas.

Manos unidas contra el cáncer Después de una década de trabajo en microcirugía del trauma, el equipo de la unidad de cirugía plástica del Hospital de San Juan de Dios–Universidad Nacional,

dirigido por el profesor Raúl Sastre Cifuentes, recibió una invitación del Instituto Nacional de Cancerología, para implementar estas técnicas en el tratamiento de pacientes afectados por grandes tumores de la cara, que anteriormente se consideraban inoperables o no se les brindaba el beneficio de la reconstrucción. “En esta situación, un paciente no podía volver a comer después de la resección de un tumor en la boca, o debía convivir con una gran deformidad facial. Actualmente hacemos reconstrucciones de la mandíbula, de la lengua, del esófago cervical, del paladar, o cubrimos grandes defectos craneales que dejan expuesto el cerebro. También reconstruimos manos, o defectos en el tórax”, expresó el cirujano plástico. Otra labor destacada es el tratamiento de la parálisis facial secundaria a la resección de tumores intracraneanos o de la glándula parótida. “Un rostro paralizado pierde la capacidad de expresar sentimientos, de sonreir, se altera el parpadeo y la continencia de la saliva. Gracias a la microcirugía se pueden reparar los nervios afectados por medio de injertos o transferencias nerviosas o auto-trasplantes musculares que devuelven en mayor o menor grado los movimientos faciales”, concluye el doctor Sastre Cifuentes. La labor en el Instituto de Cancerología se logra con el concurso de cirujanos oncólogos, y de intensivistas. Se debe destacar el apoyo del anestesiólogo del grupo, Eduardo Betancourt y de las instrumentadoras. El principal aporte de este equipo es haber logrado en nuestro medio que la microcirugía pasara de ser una práctica esporádica y de dudosa seguridad, a un procedimiento rutinario con un éxito superior al 95 por ciento, que relegó al rincón de las anécdotas, las prácticas a escondidas de 1985. Varios cirujanos plásticos se han formado en esta escuela y hoy ejercen el arte en diferentes hospitales bogotanos y en otras ciudades del país. La tradición y el conocimiento de los médicos del Instituto de Cancerología y la experiencia y destreza de los microcirujanos de la Universidad Nacional, han permitido que más de trescientos pacientes se hayan beneficiado de este complejo quehacer médico.

Fotos Cortesía Doctor Raúl Sastre Cifuentes

12 Ciencia

Pulgar reconstruido por trasplante de dedo del pie luego de la resección de carcinoma. Se

dedo pulgar del pie del mismo paciente.

reconstruyó utilizando el


Ciencia

En Colombia, se han identificado 472 especies de algas marinas en la Costa Atlántica y 133

en la Costa Pacífica, muchas de ellas de carácter endémico o exclusivo de nuestra región.

Los componentes hallados en las macroalgas pueden servir como fármacos alternativos

ó como moléculas modelo para la terapia contra el cáncer.

13

sería posible crear un producto natural que actuaría preferencialmente sobre las células cancerígenas y no sobre todos los tejidos y células benignas. De resultar exitosa esta investigación,

Una nueva investigación de las Universidades Nacional de Colombia en Medellín, y la de Antioquia, encontró en las macroalgas marinas una potente actividad antimitótica, que permite detener el

avance de las células cancerígenas en la fase de la mitosis. Este hallazgo puede ser determinante en la creación de fármacos naturales para el tratamiento del cáncer.

Macroalgas: materia prima Unimedios

La riqueza de vida presente en la megadiversidad de los paisajes colombianos, contrasta con el número de muertes que año a año ocurre por una de las enfermedades más malignas del siglo XXI. De acuerdo con la Sociedad Americana del Cáncer, 7 millones 600 mil personas murieron en el mundo por este mal en el año 2007. Una investigación de los Grupos de Investigación en Biotecnología Animal de la Universidad Nacional de Colombia en Medellín, y de Productos Naturales Marinos de la Universidad de Antioquia, toma como materia prima las macroalgas, fuente natural que podrá ser utilizada para la generación de drogas anticancerosas. Según el profesor de la UN en Medellín, Juan Bautista López, “durante el año 2002, realizamos una evaluación del efecto del extracto metanólico de macroalgas marinas colectadas en la Costa Caribe colombiana. En el diagnóstico final, encontramos que estas plantas marinas tienen una valiosa capacidad antimitótica, es decir, detienen la actividad celular en la fase de la mitosis, efecto similar generado por drogas anticancerosas ampliamente utilizadas en el tratamiento del cáncer como la vinblastina, la vincristina, el colchisina y el taxol”. Estos promisorios resultados condujeron al grupo de investigadores a plantear un nuevo problema: explicar la naturaleza

química de las sustancias responsables de esta actividad, presente en los extractos alcohólicos de las macroalgas marinas. Para ello, se procedió a aislar, purificar y caracterizar cada una de las sustancias responsables de la actividad antimitótica y posteriormente, postular con plena certeza a las macroalgas como un potencial fármaco en la terapia contra el cáncer, el cual se puede administrar con fines curativos o paliativos.

Un privilegio natural Más allá del lugar común, Colombia es uno de los países más megabiodiversos del mundo, lo cual le permite tener una gran riqueza de ecosistemas terrestres y marinos, con una gran variedad de especies de flora y fauna. A nivel mundial, existen alrededor de 150 mil productos naturales de origen terrestre, en comparación con otros 10 mil asentados en la zona marina. En ellos, se han reconocido actividades biológicas que producen efectos antivíricos, antimicóticos, antiparasitarios y particularmente antitumorales. Según el profesor López, “en el país, se han identificado 472 especies de algas marinas en la Costa Atlántica y 133 en la Costa Pacífica, incluyendo en estos grupos algunas especies que son de carácter

endémico o exclusivo de nuestra región”. Para el profesor, pese a que es conocido nuestro potencial diverso y la riqueza botánica, en Colombia, “las zonas naturales están prácticamente inexploradas en lo que se refiere a programas tendientes a poder convertirlas en fuentes de futuros componentes de fármacos”. Este trabajo desarrollado con las macroalgas apuesta a generar medicamentos naturales que puedan utilizarse en el tratamiento del cáncer. En la última década, grupos de investigadores japoneses han publicado varios hallazgos donde se muestra la actividad antitumoral, en distintas líneas celulares malignas y que relacionan en este proceso el extracto alcohólico encontrado en estas plantas marinas. “Lo sorprendente es que este tipo de algas crecen de

una manera abundante en la Costa Caribe colombiana en el primer trimestre del año”.

Un mal que mata a miles

Fotos archivo particular

Equipo periodístico,

Según el Instituto Nacional de Cancerología, después del cáncer de piel, es frecuente el de estómago, con 9.088 casos nuevos por año. En los hombres, los más recurrentes son los de próstata, pulmón, colon y recto. En Colombia, también se estima que entre las mujeres, cada año se presentan 6 mil 815 casos nuevos de cáncer de cuello uterino y 5 mil 526 de cáncer de mama. Esta enfermedad mortal puede afectar a todas las edades y causa cerca del 13 por ciento de todas las muertes. El cáncer, después de los traumas cardíacos, es la segunda causa principal de muerte en el mundo. Aunque el diagnóstico del cáncer es aún desconocido, se reconocen factores de riesgo en la edad, el tabaquismo, el sedentarismo, la exposición solar y otros estilos de vida. De acuerdo con el docente e investigador de la Universidad de Antioquia, Alejandro Martínez, “nuestros resultados demuestran que en las macroalgas existen compuestos que pueden servir, bien sea como fármacos alternativos o como moléculas modelo para la terapia contra el cáncer”. Así mismo, con el desarrollo de los estudios de bioprospección se evidenció que los organismos marinos son más frecuen-

temente portadores de sustancias con potencial farmacológico que los organismos de origen terrestre. En las macroalgas marinas se detectaron sustancias químicamente particulares, “producto, quizás, de su sistema de defensa que está basado en sustancias químicas y que deben actuar en dosis muy pequeñas dado su ambiente marino acuoso. Este hecho, las convierte en una rica fuente de compuestos potencialmente útiles en futuros blancos terapéuticos”, enfatizó el profesor Martínez. Ambos grupos de investigación presentaron un proyecto a Colciencias con el cual se pretende preparar derivados de semisíntesis, con base en las estructuras químicas determinadas en la fracción bioactiva de las macroalgas. Con ello, se contará no solo con cantidades suficientes de moléculas extractadas de las macroalgas para su evaluación contra células cancerosas, sino que también se determinará su acción potencial para estipular si es posible o no maximizar su acción biológica en la terapia contra el cáncer. De resultar exitosa esta posterior fase de la investigación, sería posible crear un producto natural que actuaría preferencialmente sobre las células cancerígenas y no sobre todos los tejidos y células benignas, efecto que producen los tratamientos farmacéuticos actuales contra esta enfermedad mortal.

Domingo 12 de abril de 2009

para terapia contra el cáncer


14 Ciencia Gonzalo Duque-Escobar,

Profesor de la Universidad Nacional de Colombia Director del Observatorio Astronómico de Manizales, OAM

La astronomía está en la base de la civilización; de la regularidad del movimiento de los astros en el cielo surgen los calendarios. Con ellos aparecen las primeras leyes físicas, y por lo tanto los cimientos de la ciencia. Gracias a los calendarios llega la agricultura y gracias a la agricultura, surgen los poblados. Con los grupos humanos ya establecidos, se inventa la escritura, y gracias a la escritura más tarde aparecen los imperios. Los primeros poblados datan de hace unos 10 mil años. Como prueba de ese proceso en América donde el maíz facilitó el surgimiento de las primeras civilizaciones, está el imperio Maya que por su calendario basado en la Luna tuvo similitud con el babilónico y el imperio Inca con el egipcio, al basar su calendario en el ciclo anual del Sol. Hoy los astrónomos, entre otros asuntos que se ubican en la frontera del conocimiento, intentan conocer la geometría del espacio, la naturaleza de la materia oscura y los misterios del tiempo. Los nuevos instrumentos para la astronomía observacional de hoy, superan el limitado alcance de la luz visible de los telescopios ópticos y persiguen en otras ventanas del espectro electromagnético la cuantificación y caracterización de los procesos más dramáticos de la materia y la energía. También buscan una teoría que unifique tres de las cuatro fuerzas fundamentales de la naturaleza –la fuerza nuclear débil, la fuerza nuclear fuerte y la fuerza electromagnética– mediante la teoría de la Gran Unificación en la que la fuerza de gravedad no está considerada, salvo en una eventual Teoría del Todo que consideraría incluir esta cuarta fuerza fundamental.

Descubrir el universo

desde Colombia

Dado que el 2009 ha sido declarado Año Internacional de la Astronomía por la Unesco para celebrar los 400 años de la primera observación astronómica efectuada con telescopio por el padre de la ciencia moderna Galileo Galilei (1564-1642), veamos algo sobre su legado desde las pretéritas civilizaciones hasta los recientes descubrimientos y desafíos de hoy, que la muestran como la más antigua y al tiempo la más moderna de todas las ciencias.

país por la Universidad de Antioquia, para iniciar labores en 2009. Igualmente, la Universidad Nacional de Colombia en Bogotá ha venido ofreciendo desde años atrás su programa de Maestría en Astronomía, con el objetivo principal de formar y profundizar en las líneas estructurales de la astronomía, la astrofísica, la cosmología y las ciencias del espacio, además de contribuir al desarrollo científico y tecnológico del país.

Lecciones y desafíos para el país

Domingo 12 de abril de 2009

A finales del siglo XVIII el reverendo José Domingo Duquesne de la Madrid, describió el calendario Muisca a partir de relatos de descendientes indígenas del altiplano cundiboyacense, y al respecto señaló la existencia de uno lunisolar al describir el año civil “Zocam” conformado por veinte lunas, de utilidad para estas, que fue la más evolucionada de las comunidades indígenas del sector más septentrional de los Andes. En la Colonia, el hecho más sobresaliente lo constituye la construcción del Observatorio Astronómico de la Expedición Botánica de la Nueva Granada, por haber sido el primer observatorio astronómico de América, y cuya dirección se le encomendó al naturista y prócer Francisco José de Caldas, quien toma posesión del mismo en 1805 gracias a una recomendación previa y sustentada de Alexander von Humboldt

Notimex

La astronomía en Colombia Los nuevos instrumentos para la astronomía observacional de hoy, superan

alcance de la luz visible de los telescopios ópticos. hecha a Mutis, después de conocer las observaciones del payanés en su paso por estas tierras. En la República, sobresalen dos astrónomos sin par: José María González Benito (1843-1903), científico de tan vasta formación a modo de “hombre del renacimiento” y quien fuera miembro acreditado de la Royal Astronomical Society; y el célebre Matemático e Ingeniero Civil Julio Garavito Armero (1865–1920) cuya obra más importante fue “Fórmulas Definitivas para el Movimiento de la Luna”, en la que incursiona por los terrenos de la astronomía dinámica, agotando el estado del arte de una de las herramientas más prodigiosas de la mente humana. Hoy día en Colombia so-

bresalen varios astrónomos y astrónomas con oficio en reconocidos proyectos de varios observatorios y centros de investigación de las naciones más desarrolladas del planeta, y otros más que conforman grupos académicos debidamente acreditados en Colciencias, acometiendo labores que ponen en alto al país o que aportan a la construcción de la Nación. Por mencionar algunos: la geóloga planetaria Adriana C. Ocampo del Jet Propulsion Laboratory de Nasa, el astrofísico David Ardila, vinculado como investigador del telescopio espacial Spitzer, y el cosmólogo Juan Manuel Tejeiro, profesor del Observatorio Astronómico Nacional de la Universidad Nacional de Colombia.

el limitado

Para la organización de la astronomía del país, la Red de Astronomía de Colombia, RAC, propuesta en 1992 en Pereira y creada en 1993 en Barranquilla, congrega a cerca de medio centenar de grupos de astrónomos aficionados y profesionales de todo el país. También desde julio de 2006 Colombia ha creado la Comisión Colombiana del Espacio, CCE, con el objeto de fortalecer el conocimiento sobre la Tierra y el espacio ultraterrestre mediante la utilización de tecnologías modernas que pretenden invertir en conocimiento geoespacial, y con la aspiración de lograr un satélite colombiano en 2011. Para formar los astrónomos en Colombia, recientemente se ha creado el primer pregrado en Astronomía de

No parece equivocado señalar que los dos hechos científicos más relevantes en la corta historia de Colombia, son la Real Expedición Botánica del Nuevo Reino de Granada encomendada al sabio y eclesiástico español José Celestino Mutis (1732–1808), y la Misión Corográfica para la naciente República encomendada al militar y geógrafo italiano Agustín Codazzi. En el primer caso, si bien Mutis logró con su equipo plasmar un valioso registro escrito y gráfico, de alta calidad, inventariando variados recursos naturales como la biota andina, entre otros, como desafío, también hoy requerimos avanzar en una tarea similar que se ocupe de extender ese conocimiento estratégico, el que podríamos denominar de la “economía verde”, investigando el potencial de nuestra biodiversidad para asegurar la soberanía de la Nación en la propiedad de patentes y hacer frente a la amenaza que traen la apertura de los mercados y la “reprimarización” de nuestra economía. Y en cuanto al fundamental legado geográfico del emblemático Codazzi, responsable de la elaboración de las cartas de nuestro territorio y de la identificación de las grandes regiones culturales de la Patria, debe añadirse que hoy urge resolver el retrazo en nuestra cartografía temática, tanto analítica como sintética, y de detalle, para no mencionar los profundos vacíos existentes en la definición y caracterización de las variantes regionales de esta Colombia, pluricultural y ambientalmente diversa.


Ciencia

15

Arturo Romero M. Sc.

Profesional Especializado Instituto de Ciencia y Tecnología de Alimentos, ICTA Universidad Nacional de Colombia

Seguridad alimentaria

Archivo particular

desde

la ciencia y la tecnología El problema del hambre en Colombia y el mundo tiene solución a corto plazo, es cuestión de actitud política y compromiso social. No se puede someter al hombre a

consumir alimentos de difícil digestibilidad, a costa de un mayor gasto energético para aprovechar un mínimo de nutrientes y ocasionar mayores pérdidas por desechos orgánicos, reduciendo la disponibilidad de alimentos y aumentando la contaminación del medioambiente. presentes en el desayuno, las onces, el almuerzo y la comida), en donde juega un papel importante la ciencia y la tecnología de los alimentos para el desarrollo de alimentos de buen valor nutritivo y buena aceptabilidad. Es así como el enfoque para afrontar el hambre en el mundo desde la ciencia y la tecnología, constituye una alternativa viable y adecuada para ahondar en el conocimiento de los alimentos a través de toda la cadena alimentaria (producción, transformación, comercialización, consumo y utilización biológica) y potenciar sus bondades nutricionales y funcionales o de uso culinario.

Utilización biológica de los alimentos Dados los desarrollos actuales de la ciencia y la tecnología, no se debe suministrar a un organismo humano o animal alimentos que no faciliten su mayor utilización biológica, es decir, que luego de consumirlos, la cantidad de éstos que se almacena en el cuerpo en forma de tejido (proteínas) o acumulados como grasa en las cantidades normales requeridas por el organismo para una buena salud y nutrición, sean mayores que los desechos, o lo que es igual a que se reduzcan mayormente la presencia

de nutrientes en las heces fecales ocasionados por una difícil digestión o utilización biológica. Este proceso biológico además, ocasiona en el organismo un gasto energético, agravado aún por la pérdida de nutrientes que podrían ser utilizados en el desarrollo de productos alimenticios y aumentar la disponibilidad de estos, como también reducir la cantidad de ingesta diaria y, además, reducir los desechos y la contaminación del medio ambiente. Es por ello que la alternativa de la ciencia y la tecnología en la reducción del hambre en el mundo debe ser compartida con visión de futuro, con solidaridad, de compromiso social, de respeto y reconocimiento de las personas; lo cual facilitaría la integración de saberes para la solución del problema del hambre y atraer los diferentes actores de la sociedad a tomar conciencia de la responsabilidad de todos en la construcción de un mundo mejor y más humano, a través del cumplimiento de uno de los derechos humanos más álgidos, según la FAO, como lo es el de garantizar a todas las personas una alimentación, sana, continua, suficiente y de buena calidad. Para tal efecto, es necesario fortalecer el traba-

jo en equipo con visión holística; es decir, en donde participen diferentes disciplinas del conocimiento y cuyo hilo conductor sea el fortalecimiento de la seguridad alimentaria a través de un cambio de actitud en el manejo de la cadena alimentaria, con base preferentemente en recursos alimenticios de producción local o regional o a través de convenios que busquen brindar recursos genéticos a las poblaciones humanas. Es así como se debe comenzar por reconocer que la Agronomía y la Zootecnia, entre otras profesiones, aportan los conocimientos necesarios para la producción de alimentos de excelente calidad. Así mismo, que los especialistas en el desarrollo de nuevos productos alimenticios y procesos (Científicos y Tecnólogos de Alimentos, Ingenieros de Alimentos, Diseñadores Industriales, Publicistas, Sociólogos, Médicos, Bioquímicos, Nutricionistas, entre otros), trabajando conjuntamente pueden desarrollar nuevos alimentos que satisfagan las necesidades nutricionales, las expectativas y los nuevos estilos de vida de los consumidores.

Ciencia y tecnología de alimentos La biodiversidad de productos vegetales y ani-

males en nuestro país y la región, son sorprendentes. Sin embargo, seguimos utilizamos unos pocos en la alimentación humana y animal y lo que es más critico aún, dejamos de ahondar insistentemente acerca del potencial nutricional y tecnológico de dichos recursos, desperdiciando de ésta manera los conocimientos y avances de la ciencia. La sociedad del siglo XXI no se pude dar el lujo de continuar aislada a la solución del problema del hambre, cuando existen científicos e investigadores de los recursos alimentitos, en ciencia y tecnología de alimentos, en los requerimientos nutricionales de los seres humanos y animales y también sociales, entre otros. Para tal efecto, es necesario un cambio de actitud hacia la interdisciplinariedad y el compromiso social. Es así como la voluntad política, el compromiso social y la ciencia y la tecnología, diseñadas e implementadas con visión de estado facilitarán la participación de todos en la disponibilidad de alimentos que contribuyan a un desarrollo biológico y social del hombre, acorde con el país y la construcción de un mundo más humano y en donde la fuerza de trabajo sea más productiva y creativa.

Domingo 12 de abril de 2009

Ante las alarmantes necesidades alimentarias por disponibilidad y acceso de alimentos, es necesario que desde los gobiernos, el sector privado, la academia y la sociedad en general se propenda por la búsqueda de alternativas tecnológicas y culturales hábilmente concertadas, con el propósito de contribuir al fortalecimiento de la seguridad alimentaría y calidad de vida de la población. El problema alimentario ha sido un tema social recurrente en la historia de la humanidad y crítico en el presente siglo. Sin embargo, la reciente coyuntura estructural en el mundo acerca de la toma de conciencia sobre el valor social que representa el consumo de recursos no renovables, el calentamiento global, la contaminación del planeta y la desigualdad social, ha propiciado la orientación de esfuerzos hacia los biocombustibles, considerados como la salvación a corto plazo para la reducción de la dependencia del petróleo. A pesar de ello, aún no se ha profundizado acerca del impacto de dicha política sobre el problema del hambre en el mundo ante la escasez de alimentos y sus altos costos; principalmente de recursos alimenticios ricos en almidón como el trigo, el arroz, el maíz, el sorgo, la papa, la yuca, el plátano y el ñame, entre otros; los cuales constituyen la mayor fuente de energía que el organismo humano requiere para los procesos de crecimiento, desarrollo, reproducción y mantenimiento. Es tan importante el consumo de almidón para los humanos que, según estudios de la FAO, la humanidad en el mundo no se muere de hambre por falta de consumo de proteínas de origen animal como la carne, la leche, huevo o el pescado; sino por deficiencia de alimentos ricos en almidón. Es por ello que la limitación en la disponibilidad de alimentos ricos en almidón por su utilización actualmente en la producción de etanol, agudiza la problemática del hambre en los países con bajos índices de desarrollo y con alta pobreza. Cabe indicar además, que la naturaleza en su sabio quehacer nos brinda los diferentes alimentos en donde se encuentran todos los nutrientes que requiere el ser humano para garantizar una buena salud. Sin embargo, dado que ningún alimento es nutricionalmente completo, es necesario recurrir al diseño de una dieta (cantidad total de nutrientes


16 Investigación

Soluciones de movilidad Nicolás Congote Gutiérrez,

Domingo 12 de abril de 2009

Unimedios

El Plan Maestro de Movilidad –PMM– adoptado mediante el Decreto 319 de 2006 establece programas, proyectos y metas, a corto, mediano y largo plazo, con un horizonte a 20 años. Este da respuesta a las necesidades de movilidad y al uso racional y eficiente de los 15.348 km de carril que componen la malla vial de Bogotá. En este marco, Gustavo Martínez desarrolló su tesis de Maestría en Diseño Urbano de la Universidad Nacional de Colombia abordando uno de los puntos que contiene el PMM: la construcción de Intercambiadores Modales. Estos se definen como equipamientos o infraestructuras que permiten combinar el uso de diferentes modos o medios de transporte para que los pasajeros cubran la distancia de su origen a un destino. El propósito del Distrito es crear Complejos de Integración Modal –CIM– en las bocas de la ciudad, es decir: Norte (próximo a la calle 245); Occidente (calle 13 y otro en la calle 80); Sur (Bosa), y Suroriente (Usme), además de CIM al interior, según indica el informe de la Consultoría para la estrategia técnica, financiera y legal, para la implementación de intercambiadores modales de pasajeros en Bogotá y su entorno regional, de la Secretaría de Movilidad Distrital 2007. “El CIM es una instalación donde confluyen varios intercambiadores modales. La idea es generar un proceso de integración entre la ciudad y la región, y se cree que es muy importante tener estos Complejos en la periferia, donde confluyan todos los modos. Pero la intención no es solo en la periferia, hay otras etapas que buscan implementarlos al interior de la ciudad y que contemplan alternativas como estacionamiento gratis o servicios adicionales para que el usuario sienta más práctico el usar otro modo distinto al vehículo particular”, resaltó Esperanza Hurtado, directora de Transporte e Infraestructura de la Secretaría de Movilidad de Bogotá. Como resultado final, Martínez elaboró una Guía para la implementación de dichos intercambiadores, que se ocupa del desarrollo del CIM en la Calle 80. “La tesis plantea el desarrollo urbano alrede-

El Plan Maestro de Movilidad incluye en su propuesta la construcción de intercambiadores modales que permitan a los habitantes de Bogotá y la región llegar a sus lugares de destino, complementando su viaje con diferentes modos de transporte como la bicicleta, TransMilenio, vehículo particular, taxi, bus, o sencillamente caminando. Un investigador de la UN desarrolló una ‘Guía para la implantación de intercambiadores modales de pasajeros’, que aborda el caso particular del CIM de la Calle 80, punto en el que se estima atender a cerca de 230 mil pasajeros por día. dor del intercambiador. Me baso en la teoría del Transit Oriented Development (TOD), el Desarrollo Urbano orientado hacia el Transporte Público, que perfectamente encaja a nuestro modelo de movilidad. Actúo con seis estrategias: el uso del suelo; la forma construida; el espacio público; la movilidad; el estacionamiento, y la inversión. Con estos lineamientos el objetivo es que ese Complejo sea una centralidad”, describió Martínez, Ingeniero Civil y especialista en Diseño Urbano.

Articulación de movilidad, vivienda y comercio El predio se ubica entre las calles 80 y 78B y las carreras 116 y 119. Su área bruta es de 125.228 m2, con una afectación vial de 8.078 m2 y cesiones sobre la construcción de la calle 79 de 10.018 m2. El área útil es de 107.131 m2. La construcción del CIM de la Calle 80 contempla un edificio de tres plantas y dos sótanos, de características propias de una terminal de transporte, que incluye plataformas de embarque y desembarque de pasajeros, salas de espera, taquillas

y baños. En el separador de la calle 80, una estación sencilla conectada por un puente peatonal a la estación intermodal. Los alimentadores del sistema TransMilenio, buses intermunicipales de larga y corta distancia, tendrán sus respectivas plataformas de ascenso y descenso de pasajeros y se contará con dos bahías-circuito de taxis y tres áreas de parqueo de larga duración para vehículos particulares. En estas zonas de parqueo, denominadas Park & Ride, el usuario podrá dejar su vehículo y tomar otro modo de transporte. Lo ideal de esta alternativa es lograr una tarifa atractiva, en la que se incluya el tiquete de ida y regreso en cualquiera de los modos y así desestimar el uso del vehículo particular. El sistema vial girará en torno a la estación y nutrirá el área mediante la red principal –avenida calle 80–. Tendrá una red secundaria conformada por la calle Boulevard de la 78, la carrera Boulevard de la 116 y la vía Alameda del humedal Juan Amarillo. “La estación poseerá áreas para la operación de los dos modos de transporte (motorizados y no motorizados) y dará importancia a la movilidad

peatonal tanto en superficie como en desplazamiento vertical por medio de rampas, escaleras y ascensores para garantizar así la movilidad de los peatones y en especial aquellos con movilidad reducida”, puntualizó Martínez, quien por su condición de discapacidad afirma que el funcionamiento del Complejo contempla las características para la movilización de esta población. Para los usuarios no motorizados, la estación estará articulada por dos espacios abiertos: uno, la plazoleta que bordea la calle 80 en su lado sur y recibe el puente peatonal, que en su extremo norte (al otro lado de la calle 80) se conecta con el sistema de ciclorrutas de la ciudad. En su costado sur, la gran plaza limitará con la vía Boulevard de la calle 78. La estación contará con dos ciclo-parqueos dotados con áreas de depósito de equipaje y servicios de baño con ducha. Entre la estación y la calle 80 se desarrollará la gran plaza, que en sus extremos (sentido oriente occidente) aloja dos edificios ancla de equipamiento metropolitano: el SuperCade y la Cámara de Comercio. Adicionalmente, la propuesta incluye un

hotel pensando en las personas que vienen de fuera de la ciudad. La mezcla de usos es otro factor determinante en la propuesta. En un radio de influencia de 400 a 800 metros, se plantea un tejido urbano con desarrollo de vivienda, con una variada oferta para diversos estratos socio–económicos, que sea de uso mixto (comercio–vivienda) y que tenga comercio local especializado. “El proyecto contempla un desarrollo urbano ambiental a lo largo de la alameda del Juan Amarillo con beneficios reflejados en salud pública, generados por la promoción de medios alternos de movilidad como el uso de la bicicleta y los desplazamientos a pie”, concluyó Martínez. De acuerdo con cifras del informe de la Consultoría de la Secretaría de Movilidad Distrital, el costo del CIM de la calle 80 sería de 107 mil 914 millones de pesos. Se trata entonces de una alternativa que le permitiría a Bogotá apuntar hacia el desarrollo de movilidad de las grandes capitales del mundo, donde el transporte público es el principal medio de movilización dentro de la ciudad.


Investigación

En el Valle de Aburrá, de cada diez personas que mueren por un desastre, ocho de ellas fallecieron debido a lesiones producidas por movimientos en masa. Es decir, su muerte es consecuencia de derrumbes o deslizamientos. Edier Aristizábal, coordinador de los proyectos de gestión de riesgo del Área Metropolitana Valle de Aburrá, explicó que estos eventos en su mayoría tiene como causas, las lluvias, el uso del suelo y la urbanización en altas laderas. Las inundaciones o ‘avenidas torrenciales’ como son llamadas por los expertos, son las de mayor ocurrencia. Sin embargo, son los movimientos en masa los que ocasionan más pérdidas humanas, que en el caso del Valle de Aburrá representan el 80 por ciento de las víctimas. Según datos del Área Metropolitana del Valle de Aburrá, en los últimos 100 años se ha detectado que casi 1400 personas han muerto por esta causa. Ante este panorama, investigadores de la UN en Medellín, con el apoyo del Área Metropolitana, Corantioquia y los municipios de Medellín y Envigado, realizaron los mapas de amenaza de movimientos en masa. Para lograrlo, se adoptó una metodología probabilística muy detallada, cuidadosa e innovadora que relaciona en escala 1 en 10.000 para el Área Metropolitana y el municipio de Envigado y 1 en 50.00 para el municipio de Medellín, los movimientos en masa con la información geológica, geomorfológica, topográfica, de usos de suelo, de coberturas vegetales y lluvias, levantada por las autoridades ambientales y universidades de la región. Los mapas tienen unos niveles de amenaza, clasificados por los investigadores en cinco tipos. En cada una de éstas la probabilidad de ocurrencia de los fenómenos varía; en las de rango de criticidad 5 por ejemplo, la probabilidad de ocurrencia de un movimiento en masa es del orden del 17 por ciento al año. En nivel 1, la probabilidad de ocurrencia es de muy baja o prácticamente inexistente, al fijarse en menos del 1 por ciento. Lo contrario sucede con los niveles 4, y 5. Sin embargo, el profesor Hernán Martínez, docente de la Escuela de Ingeniería Civil de la UN en Medellín, considera que la probabilidad de ocurrencia de estos movimientos en masa y de pérdidas de vidas y bienes depende, además de la amenaza calculada, de la vulnerabilidad particular de las diferentes zonas de la región metropolitana y de las condiciones de riesgo en que se encuentran los habitantes. Por ejemplo, aunque la comuna de El Poblado presenta igual o similares

Aumentarán los deslizamientos

en el Valle de Aburrá Los movimientos en masa en el Valle de Aburrá serán más frecuentes y fuertes, así concluyeron investigadores de la UN en Medellín tras varios estudios sobre el tema. Las laderas de las zonas nororiental, occidental, la comuna de El Poblado y algunas partes altas de Envigado y Comuna 13 están entre las más amenazadas. Cien kilómetros presentan peligros preocupantes.

El Valle de Aburrá tiene mil kilómetros cuadrados, de los cuales unos 100 presentan amenazas preocupantes.

De acuerdo con los estudios, se trata de las zonas de la parte nororiental, comuna 13, algunas de la noroccidental, sector Pajarito, las partes altas de San Antonio de Prado y algunas laderas de El Poblado y Envigado. amenazas que la de la zona nororiental de Medellín, ésta es menos vulnerable, porque en las construcciones de edificios se han realizado estudios de suelos y tomado medidas de mitigación como drenajes, entre otros. El Valle de Aburrá tiene mil kilómetros cuadrados, de los cuales aproximadamente 100 presentan amenazas preocupantes. De acuerdo con los estudios, esas zonas se encuentran en la parte nororiental, comuna 13, algunas del noroccidental, sector Pajarito, las partes altas de San Antonio de Prado y algunas laderas de El Poblado y Envigado.

Son causas diversas Humberto Caballero, docente UN, explicó que el Valle de Aburrá tiene probabilidades altas de sufrir movimientos en masa e inundaciones por avenidas torrenciales, porque es un valle profundo en el que hay condiciones de altas pendientes y llueve mucho. “Estamos en la probabilidad alta de que ocurran los deslizamientos y tenemos una vulnerabilidad cada vez mayor porque hay más gente ubicada en esas zonas. La tendencia es que en el futuro vamos a tener

más accidentes por movimientos en masa, es decir más frecuentes y con daños más grandes”, expresó. Medellín, por ejemplo es una ciudad donde, curiosamente, son los más pobres y los más ricos los que están ocupando las laderas, lugares que son más propensos a los deslizamientos. De hecho, los más recientes casos ocurrieron en El Poblado, en una de ellas 45 mil metros cúbicos de tierra cayeron sobre una exclusiva urbanización que dejó un saldo de 12 muertos. En otra, en el kilómetro 13 más 800 metros de la doble calzada Las Palmas, se calcula que el volumen de tierra que taponó completamente la vía, fue de 1.200 metros cúbicos. Para los expertos, la principal causa es clara: el uso del suelo. “Aunque la lluvia es la principal detonante de los derrumbes, a medida que la ciudad va ganando terreno hacia las laderas, y empiezan los problemas de movimientos en masa. Algo que no solo ocurre en la zona nororiental sino en el Poblado, porque la forma de urbanizar en las laderas es muy agresiva, arrogante y con exceso”, resaltó Hernán Martínez. En concordancia, opi-

na el profesor Caballero: “lo que tenemos que hacer es cambiar la exposición o vulnerabilidad. Si nosotros reglamentamos el uso del suelo de una manera más estricta, ponemos límites, se puede construir hasta determinadas pendientes, alturas, condiciones, o hay áreas que definitivamente no se pueden usar para la construcción de vivienda. Es en fijar las condiciones donde está la solución”.

Propuesta UN Para los docentes investigadores de la UN, otra conclusión es clara: hay un nivel de saturación en cuanto a la urbanización se refiere y se deben buscar zonas más adecuadas para la construcción. “La ciudad necesita de una institución independiente de los interesados en los procesos de urbanización, que sea capaz de investigar el problema de las laderas y a la vez, de directrices para la urbanización; que tenga autonomía y credibilidad”, resaltó Caballero. Para Hernán Martínez, casos exitosos como Hong Kong o Río de Janeiro, que tienen condiciones similares al Valle de Aburrá, son manejados por institucio-

nes autónomas que incluso cuentan con tecnología moderna y tienen como aliados a los medios de comunicación para alertar sobre posibles deslizamientos o tormentas fuertes. Los mapas, por ejemplo, serán la principal herramienta con las que las administraciones municipales tracen sus planes de ordenamiento territorial e investigaciones. En especial, en intervenciones que se realizan en las zonas con mayor amenaza o riesgo de ocurrencia de movimientos en masa. “El Área Metropolitana como entidad ambiental tiene un papel importante al brindar una herramienta a los municipios para que reconozcan las zonas de mayor amenaza, puedan construir o no, o con restricciones y también gestionar o administrar su territorio”, dijo Edier Aristizabal. Para los docentes más que definir las zonas con mayor o menor riesgo de movimientos en masa de Medellín y sus municipios circundantes, se hace necesario que se tomen decisiones, porque si bien estos fenómenos son naturales, se pueden mitigar con acciones que los ciudadanos deben reclamar de sus líderes.

Domingo 12 de abril de 2009

Unimedios

Fotos cortesía Periódico El Mundo

David Calle,

17


18 Medioambiente

Inundaciones en Colombia: un desastre que no es natural

La calamidad que provocó la creciente del río Mira en Tumaco y que destruyó 1.200 viviendas, afectó a 6 mil familias y dejó más de 45 mil damnificados en la costa Pacífica, no solo puede ser vista como una catástrofe natural. Los expertos hacen un llamado sobre la necesidad

de una política de Estado que contemple la gestión del riesgo, la inversión en desarrollo y la prevención, y que permita reducir este tipo de desastres que se repiten cada año. Omar Agudelo,

Director Centro de Estudios para la Prevención de Desastres, Profesor Asociado Facultad de Medicina Universidad Nacional de Colombia,

Carlos Suárez,

Domingo 12 de abril de 2009

Las situaciones de desastre en el mundo, causadas por eventos de origen natural (geológicos, hidrometeorológicos, ambientales, astrofísicos) o de origen antrópico (fenómenos que tienen su origen en la intervención humana por acción u omisión), están generando un impacto creciente evidenciado en el número de personas afectadas; las pérdidas de salud, las dramáticas cifras de muertos e, inocultables efectos negativos en lo social, lo económico, la infraestructura, el medio ambiente, los bienes, la organización de los sistemas, la gobernabilidad, la sustentabilidad y el progreso de las sociedades. Quiere esto decir que, tales eventos se manifiestan como una amenaza para la estabilidad o la dinámica de esas sociedades y conglomerados humanos. Pero los efectos de los desastres han mostrado diferencias en su impacto dependiendo de la magnitud y naturaleza del evento y de las características y susceptibilidad de las comunidades y elementos expuestos. En los países en desarrollo, históricamente, este impacto de los desastres ha sido mayor, la mortalidad es del 96 por ciento mientras en los países desarrollados es apenas del 4 por ciento y, ante el mismo evento, el bajo nivel de desarrollo, la ausencia de planificación y la limitación para asimilar o resistir a dichos eventos o para recuperarse de ellos, en comparación con los países desarrollados, es lo que hace que una comunidad sea vulnerable ante cualquier amenaza. Las condiciones de vulnerabilidad ante la presencia de una amenaza, aumentan las posibilidades del riesgo y, ese riesgo evidenciado en la súbita alteración de los patrones

AFP

Investigador Ceprevé

La actual intensificación de lluvias en marzo de 2009, ya

de vida y normalidad, en la pérdida de vidas, en la destrucción de construcciones y bienes de una comunidad, y en los daños severos sobre el medio ambiente, es el desastre. Así, el riesgo será, entonces, una condición potencial existente, un proceso dinámico social, económico, político, ambiental que, materializado en el hecho destructivo por la confluencia de una amenaza sobre una comunidad vulnerable, se constituirá en el desastre como un hecho cumplido, como un resultado: un momento de crisis en el proceso del riesgo. Es esta la esencia del nuevo concepto de la Gestión del Riesgo, que asume el proceso desde la previsión hasta la recuperación post–desastre.

Impacto de inundaciones en el mundo En los 414 desastres causados por eventos naturales y reportados en el año 2007, murieron 16.487 personas, fueron afectados más de 211 millones de habitantes, y se generaron pérdidas superiores a 75.000 millones de dólares. Se percibe una tendencia

creciente en el número de desastres por evento natural, especialmente, por los hidrometeorológicos y, entre ellos, las inundaciones que, en los últimos 10 años, han ido aumentando un 7,4 por ciento anual, en promedio (CRED, Catholic University of Louvain, Belgium). En ese año 2007, causaron 8.859 de las muertes y de los 211 millones de afectados, 177 millones lo fueron por inundaciones. Del total de muertes por todos los desastres en los últimos 30 años en el mundo, el 55 por ciento corresponden a eventos catastróficos por inundaciones.

Efectos en Colombia Recientemente, los efectos del invierno se han manifestado con gran intensidad en el sur de Colombia y en la región sub– ecuatorial, especialmente en Perú. Los departamentos de Nariño y Cauca han sufrido los embates del incremento de eventos hidrometeorológicos, los cuales tuvieron su máxima expresión el día lunes 16 de febrero del presente año con el desbordamiento de los ríos Mira, Patía

afecta a 19 Departamentos y al Distrito Capital. y Telembí, afectando con severidad a los municipios de Tumaco, Barbacoas, Roberto Payán, Ricaurte, Mallana, entre otros. En Tumaco, la creciente súbita del río Mira que superó la cota de desbordamiento en 4 metros, afectó a 100 veredas y arrasó otras 62, destruyó 1.200 viviendas, averió 1.400 y 104 establecimientos educativos, afectó a 6.000 familias, los damnificados llegan a 45.900 en la costa Pacífica y a 6.000 en la zona andina y, 12.000 de estos son niños y niñas de la región; hay ocho personas muertas y han desaparecido 22 más; el evento destruyó un área de 20.000 hectáreas de cultivos, ahogó 5.000 semovientes y, aisló a la población por múltiples derrumbes en la carretera que comunica con Pasto. Tumaco ha sido declarada zona de desastre y los demás municipios fueron declarados zona de calamidad pública. El recurrente desbordamiento de los ríos Sinú y San Jorge, la gravedad de los desbordamientos de los ríos Magdalena y Cauca y la saturación hídrica de las zonas de ciénaga y humedales, hicieron crisis en la zona geológica de

la depresión Momposina y la región de La Mojana, afectando 41 municipios de Córdoba, Sucre, Bolívar, Antioquia, a más de los departamentos de Santander, Cundinamarca y Risaralda, entre otros. Estas inundaciones iniciadas desde mayo de 2007, han sido consideradas como un evento máximo, dado el nivel alcanzado por las aguas desbordadas, la numerosa migración que generaron y las inmensas pérdidas materiales y económicas que se acumularon. El número de afectados por el invierno en ese año llegó a la preocupante cifra de 2’387.000 personas. Pero, en el año 2008, la intensidad del invierno continuó y, solamente la segunda temporada invernal, afectó a 18 Departamentos, siendo de nuevo los más afectados: Córdoba, Sucre, Atlántico, Bolívar, Santander, Cundinamarca, Caldas, Nariño. La actual intensificación de lluvias en marzo de 2009, ya afecta a 19 Departamentos y al Distrito Capital. El Fenómeno de La Niña. La continuación del enfriamiento en las aguas del océano Pacífico, iniciado desde agosto de


Medioambiente

La crisis humanitaria. En el mismo departamento de Nariño, recientemente, han sido asesinados por grupos armados, según lo informado por las comunidades indígenas, 27 miembros de la comunidad Awá. Este genocidio, en consecuencia, también ha agravado el importante desplazamiento a El Diviso y otros municipios y, ha requerido de la atención de las mismas instituciones que están asumiendo el manejo del desastre por el evento natural. Pero, a más de esto, allí continúa una preocupante alteración del orden público por la presencia y reactivación de grupos armados, y una

en la frecuencia de manifestaciones de alteración en salud, relacionadas con el tipo de enfermedades que regularmente afectan a la comunidad de la región (enfermedades endémicas) y, no se espera encontrar la aparición de epidemias ni de enfermedades exóticas o desconocidas en la región.

Construyendo nuestro propio riesgo En un país como Colombia, donde la población que vive por debajo de la línea de pobreza nacional alcanza el 64 por

guramente podría salvar la vida de todo el núcleo familiar. Así, muchas familias se ven abocadas a tener su vivienda en terrenos anegables, en rondas de ríos y quebradas, en pendientes de suelos inestables, deforestados y en áreas con una amenaza muy alta de inundación y deslizamiento. Esta vulnerabilidad se agrava cuando analizamos las cifras del Censo General 2005 en Colombia (DANE) y encontramos que el 27,7 por ciento de la población vive en hogares con dos o más Necesidades Básicas Insatisfechas (NBI) y que el departamento de Nari-

a evitar que se vuelva a presentar. El Plan Estratégico de Desarrollo del Departamento 2007 – 2017, expedido por la Gobernación y el Crepad, antes de la crisis, ya contempla necesidades identificadas y espera desarrollar programas y proyectos para la zona. Pero el Estado tiene que ofrecer mucho más. No solo para la región afectada. La gestión del riesgo, la prevención y reducción de desastres, debe asumirse como política de Estado construida desde la base con las comunidades y no como programa guber-

Vista del municipio de Nechí, Antioquia, afectado

servicio del 40 por ciento de la red vial secundaria del departamento, consecuencias que han limitado la atención adecuada, la evacuación de muchas familias y la respuesta de las instituciones de socorro, rescate y recuperación postdesastre.

El impacto en la salud pública Las inundaciones en Tumaco en 2009 al igual que las de La Mojana en los años 2007 y 2008, afectaron la infraestructura sanitaria con inundación de varias instalaciones de Salud, un incremento en la demanda de atención médica y el registro de los principales motivos de consulta aumentado por la exposición de muchos habitantes a la intemperie, y centrados en enfermedades diarreicas, infecciones respiratorias leves/moderadas, hipertensión arterial, gastritis, dermatitis, conjuntivitis, picaduras de insectos, mordeduras por ofidios, desequilibrio bioemocional. Este comportamiento en salud, corresponde al esperado en este tipo de eventos: un incremento en la demanda de atención y

por las inundaciones producidas por el desbordamiento del río Cauca.

ciento, la que vive con menos de US$ 2,00/día llega al 26,3 por ciento y la que subsiste con menos de US$ 1,25/día es del 15,4 por ciento (Human Development Report 2007/2008, ONU), donde la desigualdad social llega al índice de 58,6 (OpCit); el porcentaje de indigencia metropolitana es de 12 por ciento y el de indigencia rural es de 25,6 por ciento (CEPAL, Anuario Estadístico 2008), donde la Corrupción Gubernamental también aumenta, según los datos de Transparency International 2007, obteniendo el nada respetable valor de 3.8, en donde 10 es total transparencia y cero completa corrupción, es natural que la vulnerabilidad de la población colombiana aumente a pasos agigantados, pues entre otros, este panorama provoca el dilema cotidiano entre realizar mejoras a la estructura de la vivienda, buscar una mejor ubicación o darle de comer a la familia, sin siquiera pensar en la reclamación de otros derechos. Pues bien, normalmente habrá que elegir la tercera opción, dejando de lado aquello que se-

ño tiene el 43,6 por ciento en esa condición, Córdoba el 59,1 por ciento, Sucre el 54,9 por ciento; como referente, Bogotá tiene el 9,2 por ciento y Chocó el 79,2 por ciento.

Nueva oportunidad para la mitigación La subregión Pacífico del departamento de Nariño, está conformada por 10 municipios, abarca el 47 por ciento del territorio departamental, con 90 por ciento en territorio térmico cálido y el 22 ciento de su población; el Índice de NBI es del 78,6 por ciento. Podemos decir que tiene la más alta vulnerabilidad después del Chocó. He ahí la gran oportunidad para mitigar: para generar acciones que disminuyan los distintos factores de vulnerabilidad. Ya enunciamos su amplio perfil de amenazas naturales, sin contar con el alto riesgo de tsunamis que ya se han presentado a consecuencia de maremotos generados en la zona de subducción en el océano Pacífico, en frente a Tumaco (años 1906, 1979), y si tenemos una alta vulnerabilidad: ahí está el riesgo de desastre. Ya se presentó, vamos

namental y cumplirá su cometido cuando asumamos que aquellos son el resultado de los problemas no resueltos por los modelos actuales de desarrollo, cuando aceptemos que un dólar invertido en prevención, economiza diez dólares invertidos en atención, cuando asumamos la prevención como un elemento estructural en nuestra cultura, cuando los suelos aptos para vivienda y agricultura se les garanticen a los ciudadanos y no solo a los semovientes, cuando tanta “consultoría” individual tenga control social e institucional, cuando la protección y la seguridad ciudadanas no se confundan ni se “falseen” dentro del conflicto armado, cuando el análisis del riesgo sea una herramienta transversal en la planificación del desarrollo, cuando podamos financiar la mitigación y no solo la reconstrucción, cuando el conocimiento se asuma como una garantía de análisis y prospectiva, cuando la prevención no sea un costo sino una inversión. Ese día seremos menos vulnerables y los desastres dejarán de ser naturales.

Domingo 12 de abril de 2009

Perfiles de amenaza antrópica

disputa territorial producto de las dinámicas económicas y socio–organizativas en la región. Otros Riesgos Antrópicos. Además de los riesgos antrópicos socio–organizativos, pueden presentarse uno o más de los riesgos antrópicos ambientales, biosanitarios, tecnológicos o normativos que, como se sabe, contribuyen a la amplificación del impacto por eventos naturales y, en este caso, agravados por la destrucción de la infraestructura de servicios, entre ellos, 5 acueductos, 8 puestos de salud; la incomunicación y el deterioro grave y sin

Notimex

2007, ha prorrogado este fenómeno y, dado que por su extensión este océano es fundamental en la regulación del clima en el mundo, se han desdibujado las diferencias entre las temporadas de invierno y verano y parece prolongarse aún más el Fenómeno Húmedo del Océano Pacífico y, por tanto, la temporada “invernal”, dado el desplazamiento de nubes y frentes húmedos fríos desde Argentina, Brasil, Perú y Ecuador hacia la zona Andina del norte suramericano y las persistentes bajas temperaturas en las aguas superficiales del océano Pacífico ecuatorial. Cambio Climático. Las lluvias que se han presentado en una época de verano para la zona andina, han generado una alerta para toda la región. El calentamiento global es una progresiva evidencia y ha mostrado alteraciones evidentes en la plataforma glacial de la Antártica, específicamente con el desprendimiento y fraccionamiento en un 25 por ciento de la plataforma Wilkins, la cual tiene una extensión de 16.000 kilómetros cuadrados, y un evidente incremento de la temperatura de las aguas marinas al oeste de la Antártica. Pero, a más de esto, es evidente que las alteraciones climáticas y estacionales se están presentando en todo el planeta, al igual que la presencia de eventos extremos e inesperados en nuestro país (tornados en Pasto en agosto de 2007 y en Bogotá en septiembre del mismo año, la granizada de noviembre de 2007, la pérdida progresiva de páramos y nevados). Además, el deshielo en los polos y su derretimiento está ya comenzando a afectar las costas colombianas aumentando la erosión costera y elevando el nivel del mar y, según el Instituto de Investigaciones Marítimas – Invemar, las poblaciones de Tumaco, Cartagena y San Andrés, pueden ser, tempranamente, las más afectadas.

19


20 Medioambiente Unimedios

Con el fin de crear e implementar el Comparendo Ambiental como instrumento de cultura ciudadana, sobre el adecuado manejo de residuos sólidos y escombros, previendo la afectación del medio ambiente y la salud pública, mediante sanciones pedagógicas y económicas a todas aquellas personas naturales o jurídicas que infrinjan la normatividad existente en materia de residuos sólidos; así como propiciar el fomento de estímulos a las buenas prácticas ambientalistas, el Gobierno Nacional aprobó la Ley 1259 de 2008. “Hay que cambiar de actitud y para esto es el Comparendo Ambiental. No es inventar algo nuevo, todo lo que comprende el Comparendo son situaciones ya conocidas”, explicó el Representante a la Cámara Juan Carlos Valencia, ponente de la citada Ley. Con esta normativa, quien saque basura en horarios no autorizados; no use recipientes dispuestos para depositar desechos; disponga residuos sólidos y escombros en sitios públicos; arroje basura a fuentes de agua y bosques; disponga de manera inadecuada animales muertos dentro de los residuos domésticos; dificulte el barrido y la recolección de basuras; realice quema de basura sin las medidas de seguridad; lave cualquier objeto en vías públicas; no recoja el excremento que deja la mascota; arroje basura desde un vehículo, y disponga desechos industriales sin las medidas de seguridad y en lugares no autorizados, será sancionado. Los infractores, personas naturales, serán obligados a asistir a cursos de aseo de cuatro horas y a pagar una multa de dos salarios mínimos mensuales, es decir 993.800 pesos. Si es reincidente, deberá prestar un día de servicio social. Para la persona jurídica, la multa será de hasta 20 salarios mínimos mensuales por infracción, lo que equivale 9 millones 938 mil pesos. Si reincide más de dos veces, sellamiento del establecimiento o cancelación de la licencia de funcionamiento. Como última medida, el arresto.

Domingo 12 de abril de 2009

Los recicladores en ‘jaque’ Sin embargo, tres aspectos puntuales que incluye la Ley representan una amenaza para la labor recicladora de unas 300 mil familias que viven de esta actividad en el país. Uno, destapar y extraer parcial o totalmente, sin autorización alguna, el contenido de las bolsas y recipientes para la basura, una vez colocadas para su recolección, en concordancia con el decreto 1713 de 2002. Dos, darle mal manejo a sitios donde se clasifica, comercializa, recicla o se transforman residuos sólidos. Y tres, fomentar el trasteo de basura y escom-

Ley del Comparendo

favor de los recicladores de Bogotá, cuando se trate de la contratación de servicios públicos de aseo, debido a que la actividad que ellos desarrollan está ligada con dicho servicio, a fin de lograr condiciones reales de igualdad y de dar cumplimiento a los deberes sociales del Estado(…)”. Sin embargo, el Representante Valencia aclaró que “esta Ley no va contra los recicladores, lo que propone es un reciclaje más respetuoso y responsable. Obviamente hay grandes recicladores, responsables y serios y con ellos podemos trabajar desde la fuente o en el sitio final”. Para Stefania Gallini, profesora del Departamento de Historia e integrante de Línea de Historia Ambiental–Grupo Historia Ambiente Política, de la UN, “la mencionada ley continúa una larga tradición sancionatoria particularmente ineficaz, si el registro histórico muestra la necesidad de reiterar prohibiciones y sanciones del mismo tipo”. En 1872 un acuerdo del Consejo de Bogotá encargaba la vigilancia sobre el respeto de las normas de aseo a “celadores del aseo, uno por manzana, nombrados por el jefe municipal de entre los vecinos”. Aún si las prácticas han cambiado, el hecho de que se produzca una Ley al respecto representa que el problema no es solo de ahora.

Ambiental:

¿Fin de los recicladores?

El Gobierno Nacional aprobó la ley 1259 de 2008, que reglamenta el Comparendo Ambiental a quienes infrinjan la normatividad existente en materia de residuos sólidos. Destapar o extraer par-

cial o totalmente el contenido de basuras; fomentar el trasteo de basura y escombros en medios no adecuados, y darle mal manejo a los sitios donde se clasifica, comercializa o se transforman residuos, son algunas de las infracciones.

Recicladores piden inclusión

Andrés Felipe Castaño/Unimedios

Nicolás Congote Gutiérrez,

Destapar y extraer parcial o totalmente, sin autorización alguna, el contenido de las bolsas y recipientes para la basura, una vez colocadas para su recolección es una de las

infracciones que castiga la Ley del Comparendo Ambiental. bros en medios no aptos ni adecuados. Se cita precisamente el decreto 1713 de 2002, que en su Artículo 28, por demás derogado por el artículo 10 del Decreto 1505 de 2003, establecía que todo usuario del servicio público de aseo, cede la propiedad de los residuos presentados al Municipio o Distrito, según sea el caso, en el momento de ubicarlos en el sitio público establecido para hacer la recolección. Tomando en cuenta esto, ¿quién es el encargado de autorizar la extracción de basura de las bolsas si ya no hay poder de propiedad sobre esta? Cuestionamientos similares surgen en torno a

puntualizar ¿qué es darle mal manejo a los sitios donde se recicla? así como, ¿cuáles serían los medios aptos para trastear residuos? Estas ambigüedades, junto con la función que se le delega a la Policía Nacional, los Agentes de Tránsito, los Inspectores de Policía y Corregidores, quienes serán los encargados de imponer directamente el Comparendo, suponen que la autoridad conoce de manera precisa las infracciones. Con referencia a la interpretación que se le puede dar a ciertos puntos de la Ley, Juan Lozano, aún como Ministro de Ambiente, publicó una nota en la página Web de dicha entidad. “Este Ministerio entiende que la

ley recientemente expedida busca generar una cultura ciudadana de mayor responsabilidad frente al manejo de los residuos sólidos y escombros. Insistimos en la necesidad de aplicar todos los instrumentos legales para proteger desde la fraternidad social y la recuperación ambiental, a los hombres y mujeres que trabajan en la actividad del reciclaje (…)”. Como complemento cabe citar también la Sentencia T-724 de 2003, que resuelve “prevenir a la Unidad Ejecutiva de Servicios Públicos del Distrito Capital de Bogotá o a la entidad del Distrito que haga sus veces, para que en futuras ocasiones incluya acciones afirmativas a

Como es de esperarse, la postura de quienes, en diversos modos, trabajan el tema del reciclaje es contraria a la norma. “Desde hace unos 25 años que estamos organizados hemos buscado el reconocimiento de la sociedad y del Estado. Un reconocimiento que se traduzca en contratación directa. Nosotros hemos ensayado con muy malos ejemplos, dos o tres alianzas con los operadores de aseo y no nos ha ido bien”, explicó Silvio Ruiz, coordinador gremial de la Asociación de Recicladores de Bogotá, quien además adelantó que presentarán una demanda en contra de la Ley. Por su parte, Federico Parra, coordinador de proyectos de ENDA América Latina y estudiante de Doctorado en Ciencia Política de la UN, asegura que se ha tratado de sacar en muchos medios la revisión de la Ley y no cala, porque se opone falsamente el dilema de: la población recicladora o el hábitat urbano. No se trata de oponer estos dos factores, se trata de reconocerlos como parte de la solución, que si se quiere transformar, requiere una transición gradual y no por decreto”. La normativa le otorga un plazo de seis meses al Gobierno Nacional para reglamentar el Comparendo, así como para incorporar el mismo en materia de tránsito. Igual plazo tendrán las empresas que prestan el servicio de aseo para cumplir con las disposiciones.


Medioambiente Unimedios

Pterygoplichthys weberi es la especie de peces que fue hallada en la región de Caquetá en agosto de 2004 por investigadores de la Universidad Nacional de Colombia y descrita recientemente como una nueva especie perteneciente al orden Siluriformes, familia Loricariidae por Jonathan W. Armbruster y Lawrence M. Ésta como otras colectadas desde los años treinta del siglo pasado, reposa en el Instituto de Ciencias Naturales de la UN, que es reconocido nacional e internacionalmente como líder en el área de la Ictiología. El grupo de investigación de peces del ICN de la Universidad Nacional en Bogotá, integrado por estudiantes y liderado por docentes del área de Ictiología, va a campo, recoge el material, lo trae al laboratorio y realiza todo el proceso para su conservación que, incluye lavado, limpieza, separación en frascos y conservación en alcohol. “De unos años para acá hemos procurado describir nuestras especies”, explicó el curador de la colección José Iván Mojica Corzo. Por norma internacional el ejemplar debe quedar como referencia del que describe la especie. En este caso, el pez que reposa en el Instituto es el holotipo o el material que describe el espécimen, material de referencia. Cuando se describe una nueva especie se debe generar una publicación científica en la que se registran las características de la misma y que permiten distinguirla de las demás descritas. Sin embargo, dada la gran cantidad de especímenes que reposan en la Colección de Peces del Instituto de Ciencias Naturales, colectados a lo largo de la geografía nacional, pueden aparecer especies nuevas que nunca han sido descritas para la ciencia. Para llegar a describir una especie como nueva, es necesario tener gran experiencia y conocimiento de taxonómicos, que es lo que ofrecen los profesores del Laboratorio de Ictiología, quienes asumen con compromiso la tarea de acompañar a los estudiantes desde su inicio y empezar a trabajar con ellos.

Nueva especie de pez engrosa patrimonio natural de la UN El hallazgo y reciente catalogación de una nueva especie de peces colectada en la cuenca del río Caquetá, laguna ‘El Vaticano’, alimenta la colección más grande, más antigua y completa del país que se encuentra en el Instituto de Ciencias Naturales de la Universidad Nacional de Colombia.

monado, llamado así porque a diferencia de los demás, respira por los pulmones. También se pueden apreciar especies colectadas desde 1930 en los ríos Chapinero y Tunjuelito y por eso se tiene autoridad para hablar de las especies que habitaban en dichas zonas. Las colecciones más importantes de peces en Colombia se hicieron a finales del siglo XIX y comienzos del XX, cuando investigadores americanos y europeos vinieron, prácticamente muestrearon toda la parte de la cuenca de los Ríos Magdalena, Cauca, San Juán, Atrato y Baudó y todos esos ejemplares quedaron depositados en colecciones de museos del extranjero. Los profesionales de la Universidad Nacional de Colombia y de otras universidades, pueden venir a analizar y examinar el material, en virtud de las actividades inherentes a sus programas de maestría o doctorado. Los estudiantes de escuelas y colegios pueden

también venir al Instituto, previo permiso, pero solo a observar la colección. “ Te n e m o s peces que consideramos extintos. El pez graso del agua de Tota, los únicos ejemplares que hay en el mundo son seis: dos que están aquí en el ICN y cuatro en la Universidad de Harvard”, comentó el profesor Mojica.

Y es que la política del laboratorio no es solamente tener los ejemplares guardados como trofeos para mostrar a los invitados. El trabajo de estos científicos es brindar herramientas a los estudiantes de maestría y doctorado para que puedan hacer las comparaciones del material que encuentren de una zona a otra. El laboratorio tiene organizado y catalogado el material, bajo estándares de clasificación universal, por eso es fácil saber qué y cuántas especies hay por ejemplo, en la cuenca del Orinoco, del Amazonas o del Río Caquetá. Es por eso que el Instituto de Ciencias Naturales es referencia para entidades nacionales como el Ministerio del Medio Ambiente e institutos de investigación nacionales e internacionales. Recientemente ha contribuido al conocimiento de la diversidad de peces del país con importantes publicaciones como el Catálogo regional de los peces del Amazonas, Rio Catatumbo, peces ornamentales de la Orinoquia, peces de la Amazonía colombiana y del Libro Rojo de especies dulceacuícolas amenazadas del país.

Referente nacional La colección de peces más grande y más antigua del país la tiene la Universidad Nacional de Colombia. Según el profesor Mojica, existen colecciones a nivel regional como en la Universidad de Antioquia, la Universidad del Valle, la del Tolima y el Instituto Humboltd que se han ido generando por la dinámica de los estudiantes que han pasado por el Instituto de Ciencias Naturales y han salido a repicar a diferentes regiones e instituciones.

Para mostrar

Acciones prioritarias

Fotos Andrés Felipe Castaño/Unimedios

En el Instituto reposan ejemplares de peces de la mayoría del país, aunque su trabajo se ha centrado en los peces de agua dulce, también se tienen peces marinos del Caribe y del Pacífico. Actualmente preserva la colección de unos 16 mil lotes de peces de diferentes partes del país, que corresponde a aproximadamente unas 1.300 especies de peces colombianos. Quien vaya al Laboratorio encontrará desde los peces más antiguos en la evolución, como el pez pul-

16 mil lotes de peces reposan en

el laboratorio de ictiología del Instituto de Ciencias Naturales de la UN.

Para el profesor José Iván Mojica y su equipo de investigación, reconocido por Colciencias como Grupo de Conservación y Biodiversidad en Peces Neotropicales, la prioridad es realizar el inventario completo de las especies del país, así como la formulación de iniciativas de protección y conservación de los peces de las aguas continentales del país.

“Por ejemplo, es prioritario generar políticas y alternativas de conservación en cuencas como la del río Magdalena, en donde existen especies únicas en el mundo y que deben ser preservadas, como el bagre rayado, actualmente incluida como en la lista de especies amenazadas como en ‘peligro crítico’ por efecto de la sobrepesca y el deterioro ambiental de la cuenca”. Así mismo, Mojica explicó que es necesario llegar a zonas inexploradas donde no se ha podido ingresar, ni trabajar, como el Río Mitú, Vaupés, Inírida, Piedemonte Amazónico y ríos de la vertiente del Pacífico. “No obstante que la Colección de Peces del ICN es reconocida nacional e internacionalmente como la más grande e importante del país, tenemos el reto y compromiso institucional de avanzar rápidamente en el conocimiento de las especies nacionales, ante el avance de los procesos de alteración a que están siendo sometidos los ecosistemas acuáticos del país. Muchas especies de nuestro patrimonio natural nacional, pueden desaparecer sin que ni siquiera lleguemos a conocerlas”, explicó el investigador. El mantener colecciones biológicas como las del ICN de la Universidad Nacional, es lo que permite a investigadores nacionales y extranjeros profundizar en el conocimiento científico de la biodiversidad y describir especies nuevas como la Pterygoplichthys weberi.

Domingo 12 de abril de 2009

Elizabeth Vera Martínez,

21


22 Innovación Laura Marcela Fuertes Sánchez,

ha abierto las puertas a varios egresados del programa, que en la actualidad prestan sus servicios a instituciones como la CDP y empresas del sector”, aseguró el diseñador Industrial, Víctor Díaz.

Domingo 12 de abril de 2009

Unimedios

Productos finales

El Valle en cueros

Gracias al aporte en creatividad, asistencia tecnológica y consultoría en diseño de un grupo de profesores de la UN en Palmira, el sector del calzado, cuero y

marroquinería del Valle del Cauca ha logrado unificar los criterios de producción e interpretación de tendencias de la moda que consolidan la identidad del producto vallecaucano.

Fotos archivo particular

Para Humberto Romero, presidente de la Asociación de Industriales Vallecaucanos del Calzado, Univac y gerente general de la empresa Hurom Cuero Ltda., dedicada a los procesos de acabados al cuero para su posterior uso en diversas manufacturas, el principal problema que tenía que afrontar era la falta de concertación entre los empresarios y fabricantes de calzado. “El sector de calzado, cuero y marroquinería en nuestro departamento se ha caracterizado por no compartir la información que se genera, por consiguiente cada uno escogía su línea basándose en la información que lograba obtener por su cuenta”, describió. Ahora, después de la participación y aportes de los profesores del Departamento de Diseño de la Universidad Nacional en Palmira, afirma Romero “tengo la posibilidad de tener criterios unificados con mis clientes que son en últimas los fabricantes de calzado y marroquinería. Esto me permite hablar un idioma mucho más próximo a la realidad y mercadear mejor mis productos”. Los alcances obtenidos en la investigación aplicada por investigadores de la UN en Palmira se materializaron en un convenio interinstitucional firmado desde el año 2007 entre la Universidad y la Corporación de Desarrollo Productivo del Cuero, Calzado y Marroquinería, CDP. Al respecto, el profesor Víctor Manuel Díaz, Diseñador Industrial y líder del proyecto explicó que para lograr impactar directamente al sector se establecieron estrategias como los foros de concertación, talleres de creatividad y asistencia en diseño en los cuales participan empresarios, fabricantes, estudiantes y profesores, con miras a lograr consensos sobre colores, formas, brillos, texturas y demás tendencias que marcarán las distintas temporadas. “Lo importante del ejercicio es que no solo sirve para que ellos conozcan el producto que va a venir, sino que sean capaces de desarrollar los propios”, puntualizó el profesor Díaz. Para Gustavo Vivas, Director de la CDP, “lo interesante del proyecto es que ha sido un trabajo concertado con los empresarios del sector, orientado a todo el tema de investigación sobre tendencias de la moda, interpretación, análisis y adecuación de la información que lanza sobre todo Europa, Brasil y México. Los consensos logrados en los foros y talleres son trasmitidos a los empresarios del sector, permitiendo que ellos empiecen a decidir sobre los modelos que desean desarrollar. Desde este punto de vista es una gran ventaja contar con el apoyo de conocedores en el tema de diseño”, argumentó.

Foros, talleres e intervención en diseño Con los foros de concertación que se vienen realizando desde el 2007 los docentes buscan, desde la universidad, servir como un medio para desarrollar el sector del diseño, contribuyendo con la información y entregándola a disposición de todos los interesados. “Durante esta actividad les mostramos cuáles son las tendencias, para que ellos tengan acceso de carácter anticipatorio a la información y cuenten con las herramientas necesarias que les de una ventaja significativa en el mercado”, manifestó el profesor Díaz. La idea tanto de profesores como de los miembros del gremio en los foros es llegar a acuerdos sobre qué se va a utilizar y a qué se va a comprometer el Valle del Cauca, para que el departamento sea un foco de diseño y producción de calzado, cuero y marroquinería. Para Gustavo Vivas lo que se ha logrado es concertar entre los empresarios que asisten y participan en los foros una interpretación común que le da identidad y diferenciación al producto vallecaucano. Por su parte Elisabeth Herreño, diseñadora Industrial, profesora de la UN en Palmira e integrante del grupo de investigación del Departamento de Diseño,

realizó conjuntamente con sus estudiantes un análisis de los puestos de trabajo en el Taller Escuela de la CDP, donde se realiza la formación de técnicos para las empresas del sector. “Los estudiantes hicieron un diagnóstico de todo el proceso, desde la recepción, el corte, el alistamiento del material, del puesto de costura, de finizaje y el puesto de empaque. Como resultado desarrollaron alternativas de puestos de trabajo

y herramientas que mejoran las condiciones laborales, aumentan la productividad y la competitividad”, dijo la profesora Herreño. Adicionalmente en los talleres de creatividad donde los asistentes se reúnen y desarrollan su propio material, se destaca la formación de Diseñadores Industriales. “Hoy podemos decir que el proyecto ha servido para dar a conocer el trabajo que los profesionales del Diseño pueden aportar, a la vez que

La herramienta que recoge las conclusiones del consenso en foros y talleres atiende al nombre de Cuadernos de Tendencias. “Este producto se publica cada seis meses y contiene información sobre los colores, texturas, brillos, materiales, combinaciones y aplicaciones en calzado y marroquinería, explicó el profesor Díaz. Hasta el momento se han publicado tres cuadernos que están a disposición de la CDP, y de toda persona que esté interesada en acceder a su contenido. No obstante también se distribuye entre la Asociación de Industriales Vallecaucanos del Calzado. Otro trabajo interesante, destacó Humberto Romero, es la realización de la Feria Pacific Leather, evento internacional organizado por la Univac, donde en el mes de enero y agosto se han registrado ventas entre los dos mil y cuatro mil millones de pesos, respectivamente. Según manifestó Romero el trabajo desarrollado con la universidad fue fundamental en la motivación de los empresarios. En términos de Humberto Romero “les ha quitado el miedo a los empresarios de participar en eventos comerciales y los ha puesto en otro escenario donde pueden proyectar aún más sus empresas”. Sobre el mismo tema el Director de la CDP añadió que: “el trabajo que se desarrolla con la interpretación de las tendencias ha contribuido a que los compradores gusten más de los zapatos que exhiben los expositores. Por ello ahora la misión es conformar un centro de diseño en la CDP y Univac que quede al servicio de las empresas”.


Innovación

Tradicionalmente, los cañicultores y paneleros del país, han tenido que utilizar una almadena o martillo para machacar el balso, materia prima que sirve para separar los residuos sólidos de la caña de azúcar y dejar libre el jugo de impurezas, en un proceso llamado clarificación. Hoy, esta práctica está en el olvido, o por lo menos así ocurre en Gómez Plata, municipio ubicado en el norte de Antioquia. Allí, nueve trapiches, localizados en la zona rural, funcionan con varias máquinas que hacen que la producción sea más limpia y rápida de lo que era antes. Se trata de una innovación que fue creada por el Grupo de Investigación en Panela de la Universidad Nacional de Colombia, Gipun, y que hizo parte de una serie de subproyectos que apoyó el Centro de Ciencia y Tecnología de Antioquia, el cual contó con recursos de Colciencias y la Gobernación Departamental. El Gipun, construyó a mediados del año pasado, nueve prototipos de la máquina, que resultó luego de varios ensayos en los que participaron estudiantes de Ingeniería Mecánica de la UN en Medellín. Orlando de Jesús Barrientos Posada, gerente y representante legal de la Asociación de Paneleros y Cañicultores de Gómez Plata, marca Biopanela GP, califica como exitoso el proceso y la producción desde que trabajan con las máquinas. “Ha tenido un avance muy significativo porque anteriormente en el proceso de la elaboración de la panela utilizamos el balso y el cadillo como aglutinantes que se machacan en el piso. Ya con estas máquinas se ha mejorado enormemente la calidad de la panela y ha contribuido al progreso de las buenas prácticas de manufactura. Nos estamos ahorrando entre un 30 y un 40 por ciento en tiempo”. En este municipio hay unas 22 fábricas de alimentos o trapiches paneleros, de los cuales se benefician alrededor de unas 350 familias. De acuerdo con datos proporcionados por Biopanela GP, anualmente se producen unas 960 toneladas de panela, con una producción mensual de 80 toneladas. “De la producción salen varias presentaciones, aquí hemos diversificado mucho lo que es el sector panelero. En cuanto a las panelas, tenemos la redonda, la huevito, la coquito. También distintas presentaciones: pulverizada, cubitos y sobres”.

Con sello UN Durante el proceso de la fabricación de este prototipo, el Gipun y la Asociación de Paneleros de Gómez Plata recibieron un reconocimiento en ‘Antioquia, territorio de innovación’ evento realizado en diciembre de 2007 en Medellín, que reunió ideas de

La panela más limpia

de Colombia

Gómez Plata, Antioquia, es el primer municipio en el país en el que los productores de la panela se benefician de una sencilla máquina que permite limpiar más efectivamente los jugos de la caña de azúcar, aminora los tiempos de producción y es más ecológica. La innovación está en proceso de patente, a nombre de la Universidad Nacional de Colombia. ocho de las nueve subregiones antioqueñas. Allí se mostraron los trabajos que los empresarios ejecutaron con el apoyo de Colciencias, la Gobernación de Antioquia bajo la coordinación del Centro de Ciencia y Tecnología de Antioquia y con el compromiso de varias universidades que apoyaron la ejecución de los diferentes proyectos. Esta máquina, permite que en la corteza del balso se forme el mucílago (emulsión), el cual se le echa a los jugos para quitarle sus impurezas más pequeñas. Después de que pasan los jugos por unos filtros, se forma la cachaza donde las impurezas de la panela salen a flote y se separan. Hoy, el ‘desmuciligador’, como lo llama el docente Jorge Iván Álvarez, está en proceso de patente a nombre de la Universidad Nacional. La idea, es que esta máquina también la puedan utilizar otros entables paneleros en Antioquia. De acuerdo a los estudios de Gipun, para hacer la preparación de la caña, lo menos

práctico es machacar, como se ha hecho tradicionalmente. Lo mejor es hacer cortes longitudinales, así suelta tres veces más la cantidad de mucílago que suelta ahora. María Eugenia Muñoz, docente e investigadora, explicó que “esto tiene un impacto positivo en el medio ambiente. En Gómez Plata, por ejemplo, solían quitarle toda la corteza a un árbol de balso. Ahora, en lugar de tomar esa cantidad tan grande, solo utilizan la tercera parte de la corteza y alcanza para toda la producción, que ellos realizan dos veces al mes”. Y eso es algo que Orlando Barrientos también reconoce, además porque ya el cansancio que producía en los trabajadores golpear con almadena cambió simplemente a un movimiento con el pie, en un proceso simple que incluso no afecta la rodilla, de acuerdo los ensayos del grupo. “Como estamos hablando para toda una producción de 12 toneladas de caña procesada, le vamos a echar 4 kilos, estamos hablando de

trabajar 10 minutos con la máquina”, clarificó Muñoz. De acuerdo con el profesor Jorge Iván Álvarez, es una tecnología sencilla que tiene

piezas que se pueden encontrar en cualquier pueblo. “Por eso su inserción fue fácil y rápida, porque además es muy fácil de manejar”, resaltó.

La panela se diversifica • En la actualidad, el agua de panela ha dejado de ser el principal producto de la panela. • “Tenemos un proceso de desplazamiento de la panela consumo como bebida, porque surgen otras nuevas como son los productos energizantes, pero no deja de ser un producto que sigue anidado en estratos 3 hacia abajo”, explicó Álvarez. • El docente precisó que frente a ese decrecimiento del consumo, han emergido nuevas estrategias, la más importante de ellas es considerar a la panela ya no como producto, sino como materia prima para elaborar productos de valor agregado. • Para el representante de los paneleros en Gómez Plata, a nivel nacional falta mucho apoyo al gremio. “Ahora tenemos un mecanismo muy importante que es la resolución 779 del Ministerio de Protección Social para que estas se vuelvan verdaderas fábricas de alimentos”. • A partir de julio de 2009, los paneleros deben adecuar la infraestructura de su producción, para esto tendrá dos años. • Actualmente en el país, según datos de Fedepanela, se produce un millón y medio de toneladas al año. De los 13 departamentos productores, Santander, Boyacá, Cundinamarca y Antioquia son los líderes.

Domingo 12 de abril de 2009

Unimedios

Fotos archivo particular

David Calle,

23


24 Reseñas Fernando Martínez Sanabria

Al iniciar esta centuria es necesario dejar testimonio del significado de la arquitectura en nuestro medio, mostrar las ideologías –atmósferas influyentes– derivadas de disciplinas trabajadas por pioneros de la arquitectura desde el pasado siglo que forjaron y dejaron herencia urbana y arquitectónica, aquella emprendida por ingenieros y posteriormente por aparejadores, la creación de la sociedad que los aglutinó, y la fundación de la escuela de Arquitectura de la Universidad Nacional, la primera en el país. Es por esto la importancia de plasmar su inicio y desarrollo, la utilización de materiales vernáculos que, rescatados por creadores del espacio en los primeros ejemplos del “modernismo” surgido a mediados del siglo pasado, han marcado un lenguaje propio en el desarrollo del país que nos conduce a mirar detenidamente

este proceso a nivel nacional e internacional. Al afirmarse que la arquitectura es una permanente reelaboración de tipos y de elementos preexistentes, que mediante un proceso sintáctico de selección, ordenamiento, distribución y proporción llega a conformar el hábitat, destinado a las di–versas actividades humanas, bajo inescapables condiciones naturales, culturales y económicas, nos llama como editores a contribuir y testimoniar, en esta ardua, paciente y apasionada labor investigativa, el legado arquitectónico del país. Con el propósito de continuar la búsqueda, el estudio, y el rescate de nuestro acervo cultural con que se conforma nuestro patrimonio, iniciamos con Fernando Martínez Sanabria (1925–1991), arquitecto egresado a los 22 años de edad, en 1947 de la Universidad Nacional y quien por ese tiempo ya se contaba como uno de los arquitectos de más ambiciosos proyectos; el inicio de su carrera docente en la facultad de Arquitectura como profesor de tesis, su intervención con el grupo conformado por José Luís Sert y Paúl Lester Wiener en el diseño del Plan Piloto para la nueva ciudad de Tumaco y el trabajo con el célebre Le Corbusier, para el Plan Piloto de Bogotá.

Domingo 12 de abril de 2009

Estudios sobre homicidios El estudio de los homicidios ha sido objeto de diversas disciplinas y de variados modos de aproximación metodológica, sin embargo no se ha logrado responder a los múltiples interrogantes emergentes. Los sistemas de control social y la comunidad científica despliegan esfuerzos para disminuir la violencia homicida, pero, el fenómeno continúa persistiendo en todas las sociedades y a través de las diferentes épocas. El texto dirigido por los Profesores, Dr. (PhD) Jorge Oscar Folino de la Universidad Nacional de La Plata y Dr. (PhD) Franklin Escobar–Córdoba de Universidad Nacional de Colombia, revisa el tópico desde la perspectiva de los expertos en salud mental y lo amplia con aportes de la criminología. El contenido refleja el conocimiento actualizado de múltiples facetas del fenómeno; combinando la teoría, las investigaciones y la aplicación práctica con una bibliografía actualizada. El texto expone el homicidio desde la perspectiva jurídico, normativo y procesal penal, hasta el problema de salud y seguridad pública, que significa enfocar su aplicación desde las ciencias de la conducta humana y su intrínseco componente social, constituyéndose así en un texto latinoamericano único que propone cubrir una amplísima área de vacancia en la bibliografía en español.

El estudio del homicidio no se agota en la motivación de la conducta y de los factores de riesgo; trasciende el campo de lo personal para abarcar también el impacto en el sistema social. La psiquiatría forense brinda una perspectiva privilegiada sobre los homicidas. Entre tanto la disciplina de integración, aborda el caso multidimensional e ideográficamente, brindando al juzgador información acerca del sujeto en particular y contribuye al conocimiento general desde una perspectiva nomotética en un circuito que, finalmente, enriquece la capacidad de aplicación de la ciencia con una mejor aproximación al caso individual.

Exclusión, discriminación y abuso de poder en EL TIEMPO del Frente Nacional

Esta publicación del profesor de la Universidad Nacional de Colombia, Cesar Ayala muestra de manera detallada las estrategias discursivas diseñadas por el diario El Tiempo para representar la oposición como una amenaza inminente para la democracia y el estado ideal de cosas alcanzado por el Frente Nacional (1958–1974). El análisis presenta el trabajo lingüístico, retórico y semiótico del periódico en su propósito de configurar las maneras de pensar y de actuar de la opinión pública en contra de la oposición. El conocimiento histórico de los acontecimientos y sus protagonistas, le permite al autor trascender el corpus textual y profundizar, además, en el análisis de la problemática política y social que se vivía a principios de la década de los sesenta en Colombia. Así, se examinan las coyunturas políticas, las alianzas, las traiciones y las historias de vida de los personajes públicos, para demostrar que la estrategia del periódico fue crear un imaginario donde el bien supremo y los ideales nobles estuvieran del lado

de los ideólogos y políticos del Frente Nacional, mientras que el mal y la anarquía estuvieran del lado de los ideólogos y políticos de la oposición. Este análisis cobra inusitada actualidad por los recientes acontecimientos mediáticos en la vida política. Se evidencia hoy, como ayer, la capacidad inmensa que tienen los medios de comunicación para constituir y fabricar ciertos hechos como realidades evidentes. El libro devela las estrategias discursivas que utilizaron los medios para beneficiar los intereses del Frente Nacional en detrimento de la oposición, representada principalmente en la Alianza Nacional Popular (Anapo) y el Movimiento Revolucionario Liberal (MRL). Esta obra puede ser de gran interés para investigadores de distintas disciplinas: lingüistas, historiadores, politólogos, sociólogos, etc. Cualquier estudioso que se interese por los fenómenos políticos desde una perspectiva discursiva encontrará en este libro un análisis informado, exhaustivo y novedoso.

Claves para el debate público Bajo el título Encuentros de Excelencia Académica: La Universidad Nacional de Colombia construye futuro con sus estudiantes, la Unidad de Medios de Comunicación, Unimedios, de la Universidad Nacional de Colombia, editó y publicó el número 23 de la serie Claves para el debate público. En la presente edición, el documento hace un balance de los encuentros programados por la Universidad en el segundo semestre del año anterior, en los que las directivas y los estudiantes con mejores promedios académicos de pregrado y posgrado, plantearon y discutieron vías para promover un salto cuantitativo que le permita a la Institución ser referente mundial de la educación superior mundial en el campo investigativo en un plazo de 10 años. En un ejercicio que puede calificarse de inédito en la historia reciente de la Universidad, estos encuentros permitieron conocer la percepción de dos estamentos de la Institución en torno a lo que se debe hacer para alcanzar este propósito. Además, asentaron las bases para construir una

propuesta en el corto plazo que encamine a la Universidad a estos elevados horizontes. Unimedios, editor de la serie, señala que Claves para el debate público está abierto a todas las discusiones que construyan caminos de desarrollo para el país, partiendo de una temática central: la educación, en toda su dimensión, dada su valía por ser el instrumento más eficaz para lograr el progreso.

UN Periodico No. 121  
UN Periodico No. 121  

UN Periodico No. 121, Publicación Universidad Nacional de Colombia

Advertisement