Page 1

hipótesis • Núm. 13 • Noviembre del 2012 • Universidad de los Andes

Entrevista con Douglas Osheroff, Premio Nobel de Física, 1996 Obtuvo su grado de físico en 1967 de la Universidad de Caltech. Continuó sus estudios en la Universidad de Cornell donde obtuvo su doctorado en 1973, después de colaborar en las investigaciones en bajas temperaturas del Laboratorio de Física Atómica y del Estado Sólido con sus asesores de tesis, Robert C. Richardson y David Lee. Entre los tres descubrieron efectos inesperados del helio-3 a temperaturas cercanas al cero absoluto por lo que fueron galardonados con el Premio Nobel de Física en 1996. Luego de trabajar por 15 años para los Laboratorios Bell, en 1987, Oshreroff ingresó como profesor de física y física aplicada a la Universidad de Stanford, donde actualmente es profesor emérito.

CONTENIDO

ISSN 1692-729X • Núm. 13 • Noviembre del 2012 • Universidad de los Andes • Facultad de Ciencias

Apuntes científicos uniandinos

4

5

10

11

12

16

17

18

3

2

1

3 Editorial Colciencias, regalías y la política nacional en Ciencias Básicas 5 Notas 20 Problemas y rompecabezas 24 El maravilloso mundo de los policládidos Diana Marcela Bolaños Rodríguez, Edna Carolina Bonilla León y Federico David Brown

6

7

8

13

14

15

9

32 Biotecnología turquesa

Virginia Helena Albarracín y María Eugenia Farías

40 Genética y ambiente en la susceptibilidad a desórdenes afectivos

Katherine Peña, Yvonne Gómez y María Claudia Lattig

50 El mundo fascinante de las metaloenzimas

James F. Weston y Óscar G. García

58 Perdón, profesor Goddard

Sergio de Régules

19

20

21

22

X

Y

64 Viajes en el tiempo

Germán Puerta Restrepo

72 El Sol y el fin del mundo

Santiago Vargas Domínguez

80 Entrevista con Douglas Osheroff 82 Noticias 85 Concurso de fotografías e imágenes Precio de venta $12.000

88 Graduandos de Posgrado 92 Política editorial

Genética y ambiente

en la susceptibilidad a desordenes afectivos


Núm. 13, noviembre del 2012 / 3000 ejemplares ISSN 1962-729X ISSN ONLINE 1794-354X © Universidad de los Andes Para la reproducción total o parcial de esta obra solicitar la autorización de la Revista.

Comité editorial Carlos Hernando Montenegro Decano Facultad de Ciencias Mirtza Liliana Arroyo Secretaria General Adriana Rosillo Coordinadora de Investigaciones

Editor Profesor asociado, Departamento de Matemáticas Coordinadora editorial

Carolina Hernández Universidad de los Andes Facultad de Ciencias Carrera 1.a núm. 18A-10 / Apartado aéreo: 4976, Bogotá, D. C., Colombia Teléfonos: (571) 332 4533, 339 4949, 339 4999, ext. 2700 hipotesis@uniandes.edu.co Ediciones Uniandes Carrera 1.a núm. 19-27, edificio AU 6, Bogotá, D. C., Colombia Teléfonos: (571) 339 4949, 339 4999, ext. 2181, 2071, 2099 infeduni@uniandes.edu.co Precio de venta: $12.000

Catalina González Profesora asistente, Departamento de Ciencias Biológicas James Weston Profesor asociado, Departamento de Química Alexander Cardona Profesor asociado, Departamento de Matemáticas Manu Forero Profesor asistente, Departamento de Física Carlos Andrés Díaz Estudiante de Posgrado Fotografías

Juan Gabriel Sutachán Corrección de estilo

Fredy Javier Ordóñez Arboleda Diagramación

Andrés Leonardo Cuéllar V. Foto de la portada: Los veintitrés pares de cromosomas humanos http://www.mun.ca/biology/scarr/FISH_chromosomes_300dpi.jpg

SDO (NASA) y el consorcio AIA.

Foto de la contraportada: Laura Ardila

NASA

Hernando Echeverri Dávila


3 Editorial Colciencias, regalías y la política nacional en Ciencias Básicas

Notas. quÍmica / física / ciencias biológicas

5 7 8 13 17 19

El grafeno: un material versátil Hacia una revolución industrial molecular El bosón de Higgs Imágenes biomédicas con Medipix Develando los secretos del genoma humano Aplicaciones biotecnológicas de los hongos

20 Problemas y rompecabezas

24 EL MARAVILLOSO MUNDO DE LOS POLICLÁDIDOS ¿Cuántas veces hemos levantado rocas en playas rocosas? Los más aventureros, que seguramente lo han hecho varias veces, no habrán dejado de percibir la riqueza de animales que viven en estos ambientes. Diana Marcela Bolaños Rodríguez, Edna Carolina Bonilla León y Federico David Brown

32 BIOTECNOLOGÍA TURQUESA Los ecosistemas de Lagunas de Altura de la Puna Andina (LAPA) son sistemas de lagunas de escasa profundidad casi inexploradas que están distribuidas en la ecorregión de la Puna y Altos Andes en Sudamérica a altitudes de 3.000 a 6.000 msnm. Virginia Helena Albarracín y María Eugenia Farías

40 GENÉTICA Y AMBIENTE EN LA SUSCEPTIBILIDAD A DESÓRDENES AFECTIVOS El modelo de enfermedad compleja o multifactorial ha sido propuesto para explicar la etiología de enfermedades psiquiátricas como la depresión y la ansiedad. Descubrir la forma en que interactúan los diferentes factores genéticos y ambientales fue el propósito de este estudio. Katherine Peña, Yvonne Gómez y María Claudia Lattig


50 EL MUNDO FASCINANTE DE LAS METALOENZIMAS Las metaloenzimas catalizan procesos bioquímicos difíciles o aun imposibles de realizar en el laboratorio, con velocidades increíbles y bajo condiciones ambientales. El interés de los químicos en las metaloenzimas suele ser evidente pues queremos ser capaces de sintetizar catalizadores similares en nuestros laboratorios. James F. Weston y Óscar G. García

58 PERDÓN, PROFESOR GODDARD Hacia el final de la Segunda Guerra Mundial los nazis empezaron a utilizar un arma nueva y mortífera para golpear al enemigo desde lejos: cohetes a reacción que llevaban explosivos. Sergio de Régules

64 VIAJES EN EL TIEMPO El tiempo es sin duda el más incomprensible y engañoso de los fenómenos. El sentido común hace que el tiempo nos parezca obvio: lo medimos y lo delimitamos en pasado, presente y futuro. Pero, por otra parte, nada hay tan complejo y contradictorio como intentar abordar su naturaleza. Germán Puerta Restrepo

72 EL SOL Y EL FIN DEL MUNDO Varios siglos atrás, mientras contemplaban a Kinich Ahau, Señor del rostro solar y Dios del Sol en la mitología maya, esta extraordinaria cultura de nuestra América precolombina jamás se hubiera imaginado el revuelo que causaría una de sus principales deidades en pleno siglo XXI. SANTIAGO VARGAS DOMÍNGUEZ

80 Entrevista con Douglas Osheroff 82 Noticias 85 Concurso de fotografías e imágenes 88 Graduandos de Posgrado 92 Política editorial


EDITORIAL

Colciencias, regalías y la política nacional en Ciencias Básicas Durante su visita a nuestra universidad, hace apenas unas semanas, recordaba Douglas Osheroff –premio Nobel de Física en 1996– que, a pesar de que el avance de la ciencia a menudo conduce a invenciones y tecnologías que benefician directamente a la humanidad, es imposible saber cuándo y de dónde vendrá un desarrollo científico que desemboque en una solución a un problema puntual. Sus reflexiones acerca del avance de la ciencia, y su impacto inmediato en nuestra forma de vida, contrastan radicalmente con el modelo que el país parece empecinado en implementar para alcanzar un desarrollo tecnológico que tenga repercusión inmediata en su aparato productivo, y que se pueda medir en beneficios económicos. “Los avances en ciencia –dice Osheroff– rara vez los hacen individuos solos. Son el resultado del progreso de la comunidad científica, que hace preguntas, que desarrolla nuevas tecnologías para responder a esas preguntas y que comparte los resultados y las ideas con los demás. Para avanzar en corto tiempo hay que apoyar la investigación científica en general, y alentar a los científicos a interactuar entre sí y a usar una parte de su tiempo explorando sus propias curiosidades. Así es como se logran los avances en la ciencia”. En los últimos meses el país ha sido testigo de una aguda metamorfosis en su política de ciencia y desarrollo, y no todos entendemos igualmente sus alcances, sus riesgos y sus oportunidades. En este momento, en el que tantos procesos están por cambiar la cara del país, vale la pena detenerse a revisar en qué van nuestras políticas en ciencia, tecnología y desarrollo y, en particular, cuál es el espacio que la política actual le brinda al desarrollo y a la consolidación de las ciencias básicas en el país. La Ley 1286 de 2009 hizo de Colciencias el Departamento Administrativo de Ciencia, Tecnología e Innovación (Ct+I), el cual depende directamente de la Presidencia de la República, y que el actual gobierno ha querido convertir en uno de los mecanismos que alimente la locomotora de la productividad, la innovación y la generación de empleo. Desde la promulgación de la Ley 1286 parece que vamos, por fin, a salir del raquítico 0,18% del PIB que representa el interés del país en CT+I. La meta es, en una primera etapa, dar un salto al 0,5% del PIB e ir subiendo hasta el 1%, lejos aún de lo que hacen algunos vecinos y mucho más de lo que hacen países cuyo desarrollo social y económico está apuntalado en su desarrollo científico y tecnológico. En cualquier caso, tal meta es un verdadero cambio de estatus para la ciencia en un país como Colombia, en el que, por mucho tiempo, más que apoyada la ciencia ha sido graciosamente tolerada, tanto por la institucionalidad como por una empresa privada acostumbrada a ser compradora y usuaria de tecnologías y conocimiento científico, sin mayor interés en

promoverlo y hacerlo germinar entre nosotros. La fuente presupuestal que encontró el actual gobierno para sostener tal proyecto no pudo ser mejor: un 10% de las regalías por explotación de recursos naturales no renovables sostendrían este esfuerzo tan esperado para sacar al país del atraso y la ceguera; parte de la riqueza de nuestro suelo a cambio de parte del bienestar proyectado en nuestro futuro suena bien. Pareciera entonces que los científicos colombianos deberíamos ser presos de la euforia, que estas políticas de apoyo decidido traerían por fin una gran explosión de resultados científicos en todas las áreas: de la genética de enfermedades tropicales a la teoría de información cuántica, del análisis de señales en el cerebro al de la sociología del conflicto armado, de la antropología de poblaciones prehispánicas a las estructuras algebraicas en teorías de campos cuánticos. Deberíamos estar contentos todos y, sin embargo, lo que pasa en Colciencias no entusiasma. Para entender por qué tenemos la moral tan baja –a pesar de tan buenas noticias–, hay que tratar de comprender el cómo, y no solamente el qué, de esta revolución planteada para las políticas de CT+I. Según la Ley 1286 de 2009, cuyo cuerpo se debe en gran medida al esfuerzo sostenido del cirujano Jaime Restrepo Cuartas, es Colciencias quien formula, orienta, dirige, coordina, ejecuta e implementa tales políticas. Se esperaría entonces que si la inversión en CT+I se multiplica en más de cinco veces, entonces la entidad encargada de implementar y ejecutar tal inversión, que verá su labor multiplicada, debería crecer en forma pertinente. Sin embargo nos dicen que Colciencias no crece y que, al contrario, sigue pareciendo el minidespacho dependiente del Departamento Nacional de Planeación de los años noventa. Y no crece porque no tiene necesidad de hacerlo en la implementación de esta ley; porque, en realidad, no es Colciencias quien va a disponer del presupuesto milagroso para llevarnos al progreso en CT+I o, por lo menos, asomarnos un poquito a él. El Fondo para CT+I en el Sistema General de Regalías, que ha implementado el gobierno, no depende de Colciencias, sino que hace parte de un “nuevo esquema en el que las decisiones son acordadas entre los gobiernos territoriales, los representantes de [algunas] universidades y el gobierno nacional a través del OCAD (Órgano Colegiado de Administración y Decisión)”. La distribución de los millonarios recursos para CT+I se hace “sobre la base de los indicadores de necesidades básicas insatisfechas, de población y de desempleo” de cada departamento. Los recursos del Fondo “permanecen en una cuenta administrada por el Ministerio de Hacienda y Crédito Público y, una vez que el OCAD aprueba un programa o proyecto, son transferidos al

Universidad de los Andes, Facultad de Ciencias 3


ejecutor designado por el OCAD”. Colciencias queda entonces relegada a ser una simple secretaría técnica del Fondo de CT+I, y le corresponde poco más que jugar el papel de verificador. La implementación de la ley ha sido como un ventarrón repentino que amenaza con convertir esta oportunidad en un portazo en la nariz de los que creían ver la luz al final del túnel. El 10% de las regalías generosamente depositadas en el futuro del desarrollo científico y tecnológico del país estará en manos de aquellos que puedan convencer a un comité de que su trabajo dará un “impulso al sector productivo” generando empleos, recursos y “valor agregado”. En otras palabras, los recursos asociados a las regalías serán destinados a programas de investigación aplicada e inmediata, enfocados en aquellos que puedan garantizar un impacto en el sector productivo, todo esto a través de un filtro que de lejos se presta a suspicacias: el de funcionarios de escasa formación científica y técnica que tomarán las decisiones que más convengan a sus regiones. El grueso de la ciencia en Colombia no solamente estará regido por criterios de uso inmediato, sino que vendrá parcelada según intereses que distan mucho de los que podríamos calificar como puramente científicos. Imposible ignorar que programas como Agro Ingreso Seguro, durante el gobierno anterior, pasaron como “actividades para el desarrollo y para la implementación de ciencia y tecnología en el campo”. Nótese que, de un tajo, se excluye cualquier apoyo a las ciencias básicas del impulso que supone el uso del fondo para CT+I del Sistema Nacional de Regalías, lo que en sí mismo se puede considerar una contradicción. Hablar de un impulso decidido a la innovación en el país, sin un refuerzo estructural a las políticas de apoyo a las ciencias básicas, es desconocer dos realidades al mismo tiempo. Primero, desconocer una realidad global: el papel que juegan las ciencias “duras” como soporte a cualquier desarrollo científico y tecnológico. Segundo, que las condiciones actuales en Colombia no permiten diagnosticar la suficiente madurez científica para que una inversión consecuente, como la que se plantea en ciencias aplicadas y tecnología, traiga efectos inmediatos en el sector productivo del país. Aun en el caso de países altamente industrializados, las políticas de innovación vienen soportadas por un esfuerzo, paralelo y sostenido, en ciencias básicas. En el último discurso de Barack Obama sobre el estado de la unión, dedicado en gran parte a señalar caminos para estimular la innovación en Estados Unidos, las matemáticas y las ciencias básicas constituían el fundamento de cualquier salto cuantitativo en esta dirección. Igual lo entienden las grandes potencias industriales en Europa, y así lo hicieron las que ahora surgen en Asia; es difícil que sepamos aplicar exitosamente algo que no conocemos con suficiente profundidad. Atomizar el gran esfuerzo financiero que implica la aplicación de la Ley 1286, y parcelar tales recursos sin un refuerzo paralelo en las destrezas

en ciencias básicas, a nivel nacional, no solo implica condenar a la frustración los procesos de desarrollo de las regiones, sino que desconoce el potencial ya existente en algunos de los polos de excelencia del país. Durante muchos años algunas universidades, públicas y privadas, han hecho un esfuerzo solitario por hacer de la investigación científica una realidad cuantificable que, apenas ahora, comienza a ser visible más allá del mundo abstracto de las publicaciones especializadas. Es sorprendente que, cuando el país finalmente dispone de un marco legal apropiado para potenciar estos esfuerzos, se pretenda ignorar la experiencia que la comunidad científica existente puede aportar en el actual proceso de desarrollo en CT+I. Colciencias, a pesar de las fallas y limitaciones que se han señalado desde sus orígenes, es el escenario natural donde se deben articular los esfuerzos anteriores con las estrategias futuras y nuestros logros presentes con el futuro en tecnología e innovación que señalan las políticas actuales. Es urgente acompañar el esfuerzo que Colciencias ha hecho por aumentar rápidamente el número de doctores en el país, no solamente desempeñándose en el sector académico, sino también en el sector empresarial. Es lamentable que tal objetivo no haya sido contemplado como suyo por el gobierno nacional en su política de regalías, lo que podría absorber gran parte de la inversión destinada por la entidad a la formación en investigación de colombianos de todas las regiones a través de programas doctorales. Si Colciencias debe destinar más de la mitad de su presupuesto a sostener la meta de los mil doctores cada año, estará obligada a limitar al máximo, ya no solo el presupuesto necesario para su funcionamiento, sino lo poco que puede asignar al apoyo de las ciencias básicas. También es difícil pretender el surgimiento espontáneo de una ciencia aplicada nacional, y de una vez un impulso instantáneo de un desarrollo tecnológico consecuente y su efecto en el sector productivo, sin un refuerzo previo de la calidad de la educación media y superior en el país. El problema no es solamente que no hay masa crítica de investigadores en áreas fundamentales de la ciencia –como la física, la química, las matemáticas, la biología y la geología–, sino que no hay masa crítica de buenas instituciones de educación media que formen estudiantes con un nivel alto en materias clave, los que a la larga se convertirán en buenos bachilleres, buenos profesionales, buenos científicos y, a su vez, en buenos innovadores. La formación de una adecuada capacidad innovadora en el país no es ajena a la formación de una buena capacidad científica; además, es urgente enfocarse en la formación de capital humano, capacitado para estas tareas, desde las etapas más básicas de la formación escolar. Los grandes avances en la ciencia aplicada y la innovación nacen de una visión global de los problemas y las oportunidades, y no hay duda de que estos logros no son posibles sin una base fuerte en la formación básica, la cual ahora no se está apoyando lo suficiente. •

Alexander Cardona Profesor Asociado del Departamento de Matemáticas de la Universidad de los Andes, acardona@uniandes.edu.co.

4 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


[ notas. quÍmica ] El grafeno: un material versátil Carlos Andrés Díaz López Estudiante de Maestría en Química de la Universidad de los Andes, ca.diaz960@uniandes.edu.co.

El grafeno es un material bidimensional compuesto únicamente de átomos de carbono con hibridación sp2. En este material cada átomo de carbono se enlaza a otros tres vecinos, formando una estructura laminar altamente compacta de arreglos hexagonales similar a un panal de abejas. Considerado por muchos como un hito en la ciencia de los materiales, el grafeno es una de las formas alotrópicas más interesantes del carbono. Dadas sus características electrónicas y magnéticas únicas, lo han convertido en un potencial reemplazo del silicio en la fabricación de dispositivos electrónicos. Particularmente, la posibilidad de que el grafeno se pueda usar en la fabricación de nuevos transistores y computadores que operen en el rango de los cientos de gigahertz o terahertz ha generado gran expectativa en los últimos años y ha motivado una gran cantidad de inversión y desarrollo en este campo. Adicionalmente, numerosos estudios han revelado sorprendentes posibles aplicaciones de este material en otras áreas como la medicina, la química ambiental y analítica; entre estas se encuentran: La desalinización del agua. Investigadores del MIT han demostrado la efectividad de láminas de grafeno con poros de tamaño controlado en la purificación de agua. El grado de la desalinización depende del tamaño de los poros, y su funcionalización, por ejemplo, con la inclusión de grupos hidroxilo en sus bordes, puede mejorar significativamente la separación y el flujo. En general, los resultados del estudio muestran que este material tiene el potencial de superar con creces la eficiencia de los métodos de purificación de agua convencionales, todavía bastante costosos, como la ósmosis inversa [1]. La obtención de alcohol absoluto. En otro ejemplo de separación a escala molecular, investigadores de la Universidad de Manchester mostraron que membranas de óxido de grafeno de grosor micrométrico son completamente impermeables a líquidos y gases, incluido el helio, cuyo radio covalente de 0,28 Å, pero resultan prácticamente transparentes al paso de vapor de agua. Los autores atribuyen este curioso efecto al flujo de una monocapa de agua a través de capilares formados entre las distintas láminas del óxido de grafeno que, a la vez, impide la difusión de otras moléculas. En un experimento poco convencional, los autores de este artículo relatan haber sellado una botella de vodka con una de estas membranas y haber

Universidad de los Andes, Facultad de Ciencias 5


Translocación del ADN a través de un nanoporo en la superficie del grafeno [6].

descubierto, posteriormente, que con el tiempo el licor se hacía más y más fuerte. Si bien todavía falta mucho para la generalización de su uso en destilerías, estas membranas resultan muy interesantes para aplicaciones que exploten la remoción selectiva de agua [2, 3]. La secuenciación de ADN. Reportada por primera vez en el año 2010, esta es quizás una de las aplicaciones más promisorias y relevantes del grafeno en la ciencia médica. Debido a la extrema delgadez –de apenas un átomo de carbono– y altísima conductividad de este material, es posible usarlo a manera de membrana modificada con la presencia de un nanoporo que resulta extremadamente sensible al paso de distintas secuencias de nucleótidos en una hebra de ADN. Este sistema tiene un gran potencial de aplicación en la secuenciación ultrarrápida y barata de ácidos nucleicos. Sin embargo, todavía hacen falta mejoras significativas en estos prototipos antes de que puedan ser usados de manera confiable y reproducible para este propósito [4]. Un nuevo agente antibacterial. En un artículo del 2010, publicado por la Academia China de las Ciencias, se demuestra la actividad de láminas modificadas de grafeno –particularmente óxido de grafeno y óxido de grafeno reducido– en la inhibición del crecimiento de bacterias E. Coli, con una baja citotoxicidad en células de mamíferos. Este nuevo material altamente biocompatible se presenta como una alternativa de bajo costo para el desarrollo de nuevos materiales antibacteriales para aplicaciones ambientales y clínicas [5]. En síntesis, el grafeno es un material altamente versátil que, gracias a sus propiedades únicas, ofrece soluciones alternativas a los proble-

6 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

mas y necesidades de muchas industrias, aunque, probablemente, se requieran todavía varios años para ver a alguna de sus aplicaciones completamente realizada. El estudio de este material ofrece oportunidades únicas para investigar estas nuevas posibilidades y expandir los horizontes de la ciencia de materiales. •

Referencias [1] Cohen-Tanugui D, Grossman JC. Water desalination across nanoporous graphene. Nano Letters 2012; 12: 3602-3608. [2] Nair RR, Wu HA, Jayaram PN, Grigorieva IV, Geim AK. Unimpeded permeation of water through helium-leak-tight graphenebased membranes. Science 2012; 335(6067): 442-444. [3] TG Daily. Team uses graphene film to distil vodka. http://www. tgdaily.com/general-sciences-features/61058-team-usesgraphene-film-to-distil-vodka. [4] Garaj S, Hubbard W, Reina A, Kong J, Branton D, Golovchenko J. Graphene as a sub-nanometer trans-electrode membrane. Nature 2010; 467(7312): 190-193. [5] Hu W, Peng C, Luo W, Lv M, Li X, Li D, Huang Q, Fan C. Graphene-based antibacterial paper. ACS Nano 2010; 4(7): 43174323. [6] Phys.org. First Step Toward Electronic DNA Sequencing: Translocation Through Graphene Nanopores. http://phys.org/ news199365879.html#nRlv.


[ notas. quÍmica ] Hacia una revolución industrial molecular Nicolás Moreno G. MSc. Asistente graduado del Departamento de Química de la Universidad de los Andes, nic-more@uniandes.edu.co

Entre el siglo XVIII y XIX, con la Revolución Industrial, fue posible el desarrollo de motores con capacidad de transformar la energía de una reacción química, la combustión, en movimiento mecánico. Sin embargo, la naturaleza ya hacía esto a nivel nanomolecular, millones de años antes, con una efectividad que aún estamos lejos de alcanzar. Pero el camino ya se está trazando. El primer paso ha sido entender cómo funcionan los biomotores, motores moleculares que orquestan de una manera muy precisa tres procesos fundamentales: producción de energía, traducción de energía a movimiento y dirección del movimiento. No obstante, para poder emularlos, es importante tener en cuenta su ambiente. Los motores en ambientes líquidos pueden utilizar la energía almacenada en los enlaces de otras moléculas o en la energía generada por el flujo de iones entre dos medios con diferentes concentraciones. En procesos que se lleven en fase sólida, una mejor alternativa puede ser el estímulo externo del movimiento de la molécula, usando un impulso eléctrico o un haz de luz con una longitud de onda específica. Estas ideas ya han sido implementadas [1-3].

Ilustración: José A. Arboleda [contacto@josearboleda.com].

Dada la naturaleza aleatoria de los procesos a esta escala, es importante controlar la direccionalidad del movimiento. En el caso de los motores en fase sólida, la asimetría en la estructura puede ser suficiente, de lo contrario el movimiento podría ser descontrolado. Sin embargo, para los procesos en solución, que dependen del movimiento aleatorio de las moléculas, el control es aun más complicado. No obstante, en los procesos naturales se utiliza la energía disipada por el movimiento del medio fluido para favorecer la direccionalidad del motor. •

Referencias La conversión de energía en movimiento es más difícil. Si se utiliza energía química, el motor debe tener una estructura capaz de atraparla y liberarla controladamente, como en los carros, donde los pistones están diseñados para controlar la energía liberada en la combustión. Pero para hacer esto a nivel molecular, se requiere un dominio preciso de varias áreas de la química: síntesis para diseñar la estructura que va a cambiar su conformación, catálisis para llevar a cabo una efectiva ruptura del enlace y reconocimiento molecular para garantizar la selectividad del motor por la molécula apropiada. Por otro lado, si se utiliza una fuente externa de energía, son necesarias moléculas capaces de traducir esta señal externa en movimiento. Una alternativa es utilizar sensores o interruptores moleculares [4].

[1] Feringa B. Molecular motors: Fuelling movement at the nanoscale. Nature Chemistry 2011; 3: 915-916. [2] De Feyter S. Molecular motors: Powered by electrons. Nature Nanotechnology 2011; 6: 610-611. [3] Ruangsupapichat N, Pollard MM., Harutyunyan SR Feringa B. Reversing the direction in a light-driven rotary molecular motor. Nature Chemistry 2011; 3: 53-60. [4] Feringa B. In control of motion: From molecular switches to molecular motors. Accounts of Chemical Research 2001; 34: 504-513.

Universidad de los Andes, Facultad de Ciencias 7


[ notas. FÍSICA ] El bosón de Higgs El pasado 4 de julio, en el Laboratorio CERN, en Ginebra, Suiza, los voceros de los experimentos CMS y ATLAS anunciaron en rueda de prensa haber observado un bosón neutro con una masa de 125 GeV/c2; una partícula consistente en sus propiedades con lo que se espera para el bosón de Higgs, la última pieza y la más importante por descubrir en el modelo estándar de partículas e interacciones fundamentales. Para ser una noticia científica, tuvo un cubrimiento mediático inusitado porque el bosón de Higgs es la piedra angular del modelo estándar y porque el campo cuántico asociado a esta partícula, el campo de Higgs, se supone que provee de masa a las demás partículas elementales. En este modelo teórico, que describe las leyes de la naturaleza al nivel más fundamental, sin el bosón de Higgs no solo todas las demás partículas elementales no tendrían masa, sino que el modelo mismo tendría problemas matemáticos catastróficos, que en el lenguaje técnico de la teoría cuántica de campos se conocen como “irrenormalizabilidad” de la teoría. Por tanto, dada la importancia crucial del bosón de Higgs para entender las leyes que gobiernan nuestro universo, esta partícula había sido buscada intensamente, pero sin éxito, desde 1984 en diversos experimentos en varios aceleradores colisionadores de partículas alrededor del mundo. Su descubrimiento pone fin a toda una era en la historia de la física y de la ciencia y abre la puerta a la búsqueda de cualquier tipo de física más allá del modelo estándar.

El modelo estándar es el resultado de los grandes logros de la física del siglo XX. Su fundamento teórico, la teoría cuántica de campos, es el resultado del “matrimonio” entre las dos grandes revoluciones de la física moderna: la relatividad y la mecánica cuántica. Este modelo describe en forma muy precisa tres de las cuatro interacciones o fuerzas fundamentales de la naturaleza: la interacción electromagnética y las interacciones nucleares fuerte y débil. En esta versión de las leyes fundamentales, tanto materia como interacciones son campos cuánticos interactuantes, que evolucionan en el espacio y el tiempo en forma ondulatoria, pero manifiestan un carácter corpuscular o de partícula elemental al interactuar con otros campos. Las tres interacciones elementales, que se propagan ondulatoriamente, poseen partículas mediadoras asociadas llamadas bosones y, a su vez, las partículas materiales poseen campos cuánticos asociados que se propagan ondulatoriamente. Las partículas materiales están divididas en quarks y leptones. Los quarks son los constituyentes fundamentales de hadrones, como los protones y neutrones, que conforman los núcleos atómicos. Los leptones son el electrón, el muón, el tauón y los neutrinos. Los electrones orbitan alrededor de los núcleos, conformando los átomos, de los cuales está hecha toda la materia que conocemos.Todas estas partículas están sujetas a la acción de las interacciones fundamentales que dictan su comportamiento. Para finales de la década de 1970 se consolidó la descripción de este mundo microscópico y de su dinámica a partir del modelo estándar. Este modelo teórico ha descrito algunos procesos microscópicos con una precisión de hasta nueve cifras decimales, la mayor precisión de cualquier teoría en la historia de la ciencia. Sin importar las virtudes del modelo estándar, la ausencia del bosón de Higgs dejaba a la teoría en una situación inaceptable, tanto matemática como experimentalmente. Su descubrimiento cierra un capítulo glorioso en la historia de la física de partículas, que comenzó en 1897 cuando J. J. Thomson descubrió el electrón.

8 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

Juan Carlos Sanabria Ph.D. Profesor Asociado del Departamento de Física de la Universidad de los Andes, jsanabri@uniandes.edu.co

Bernardo Gómez Moreno Dr. rer. nat. Profesor Emérito del Departamento de Física de la Universidad de los Andes, bgomez@uniandes.edu.co.

Carlos Ávila Ph.D. Profesor Titular del Departamento de Física de la Universidad de los Andes, cavila@uniandes.edu.co.


Figura 1. Gran Colisionador de Hadrones (LHC) del Laboratorio CERN. Fuente: http://www.olecommunity.com/wp-content/uploads/2012/08/LHCSize.jpg

¿Cómo descubrir el bosón de Higgs? Primero hay que producirlo en condiciones que permitan su observación y luego, para verlo y registrarlo, saber dónde mirar y qué mirar en medio de un panorama lleno de partículas que dejan huellas parecidas a las del bosón de Higgs. Para producirlo se disparan dos haces de protones en direcciones opuestas para que colisionen frontalmente a las más altas energías alcanzables en el laboratorio, que en la actualidad son ocho tera-electronvoltios. Esto se logra con el mayor acelerador de protones del mundo, el Gran Colisionador de Hadrones del Laboratorio CERN. Allí, a 100 metros bajo tierra, en un anillo de 27 km de circunferencia en la frontera franco-suiza, circulan en direcciones opuestas pequeños “paquetes” de protones, que llevan cada uno 100 mil millones de protones; campos magnéticos guían a los protones en el anillo, y campos eléctricos los aceleran. Por el punto de colisión en el anillo, donde se tienen los grandes detectores de partículas, se cruzan cada 50 nanosegundos un par de paquetes en direcciones opuestas, resultando unas 20 colisiones protón sobre protón por cada encuentro, unas 400 millones de colisiones por segundo. Se requieren muchas colisiones, pues la probabilidad de producción del bosón de Higgs es de apenas uno por cada diez mil millones de colisiones protón-protón.

Los protones están compuestos por tres quarks, dos quarks up y un quark down, que están intercambiando permanentemente gluones, las partículas mediadoras de la interacción fuerte, que liga así, por este intercambio, a los quarks en el protón. Se tiene dentro del protón un mar de partículas, los gluones de intercambio, que en su recorrido de un quark a otro dan lugar a la producción de pares quark-antiquark, que muy rápidamente se aniquilan, quedando nuevamente un gluón que sigue su camino dentro del protón hacia otro quark. Así, el interior del protón es muy dinámico. Y en las colisiones frontales protón sobre protón, a las muy altas energías de tera-electronvoltios (TeV1) del colisionador de CERN, son en realidad estos componentes del protón –los partones– los que colisionan y de allí resultan, entre otros muchísimos procesos, los que producen el bosón de Higgs. En estos procesos de colisión de los partones, los que involucren el quark top son los que, con mayor probabilidad, llevan a la producción de Higgs. Como el bosón de Higgs es el cuanto del campo de Higgs que da masa a las partículas, cuanto mayor sea la masa de la partícula, mayor su interacción con el campo de Higgs. El quark top, la partícula de mayor masa del modelo estándar, es entonces el de mayor acople al Higgs. Siguen, por su masa, los bosones intermediarios de la interacción 1 Un tera-electronvoltio o TeV = 1012eV.

Universidad de los Andes, Facultad de Ciencias 9


débil, W +, W - y Z 0, y luego el quark bottom. Colisiones de partones donde resulten estas partículas pueden llevar a la producción del Higgs.

EL Experimento CMS y la detección de un nuevo bosón

¿Y producido el Higgs, cómo observarlo?

Los experimentos ATLAS y CMS del laboratorio CERN tienen como uno de sus objetivos científicos la búsqueda del bosón de Higgs. El grupo de Física Experimental de Altas Energías de la Universidad de los Andes viene participando desde el 2006 en el experimento CMS. El nombre de este experimento se debe a sus siglas en inglés (Compact Muon Solenoid) que describen sus características fundamentales: tener un solenoide compacto que proporciona un campo magnético muy alto –del orden de 100 mil veces el campo magnético terrestre– y ser muy eficiente en la detección de muones.

El bosón de Higgs tiene una vida muy corta, del orden de 10-18 segundos, tan corta que solo podemos observar sus productos de decaimiento, las partículas que resultan cuando decae. Para esto, medimos momento lineal y energía y aplicamos las leyes de conservación de estas cantidades físicas para obtener la masa de la partícula padre, el Higgs. Además, como su momento angular intrínseco, su espín, es cero, la suma de espines de los productos de decaimiento también debe dar cero. El Higgs decae prioritariamente en un par bottom-antibottom, donde cada quark, o antiquark, lleva a un chorro o jet de hadrones que son registradas en los detectores. También puede decaer en pares virtuales de top-antitop en un bucle que lleva a la emisión de dos gluones o de dos fotones. Otra posibilidad del Higgs es decaer en pares de bosones W ±, o de bosones Z 0, que llevan luego a pares de quark-antiquark, o a pares de leptones. Los canales más importantes donde se ha encontrado evidencia de un bosón consistente con el buscado son el Higgs decayendo en dos fotones (H → γγ) y el Higgs decayendo a dos bosones Z 0, que a su vez decaen en electrones o muones (H → Z 0Z 0 → 4 leptones). La figura 2 muestra un evento consistente con el decaimiento de un bosón de Higgs en dos fotones.

La figura 3 muestra una fotografía del detector CMS que rodea uno de los puntos de colisión del acelerador LHC y estudia los productos que salen después de la colisión de protones con protones. El detector consiste en varias capas de subdetectores, la capa más interna corresponde al rastreador de silicio que tiene como objetivo medir las trazas de las partículas con carga eléctrica, determinar el vértice de la colisión protón-protón y los vértices donde decaen otras partículas. Debido al campo magnético las partículas cargadas tienen trayectorias curvadas, su radio de curvatura permite determinar la velocidad que llevan estas partículas. Rodeando el rastreador de silicio se encuentra el calorímetro electromagnético, el cual tiene como objetivo medir la energía de los electrones, positrones y fotones que son producidos en cada colisión. La energía de los protones y neutrones –y cualquier otro hadrón– que salen de la colisión es medida con el calorímetro hadrónico que se encuentra en la capa posterior al calorímetro electromagnético y que consta de varias capas de bloques centelladores alternadas con bloques de bronce. El solenoide del detector CMS rodea al calorímetro hadrónico y proporciona un campo magnético axial de 3,8 tesla. Los muones tienen una baja interacción con las capas internas del detector y, por eso, se necesitan detectores adicionales (cámaras de muones) que están fuera del solenoide para su detección, alternadas con un núcleo de hierro que sirve para proporcionar el retorno de las líneas de campo magnético producidas en el solenoide. La información de cada uno de los subdetectores se combina para proporcionar una lista de partículas identificadas; las que tienen tiempo de vida muy corta son identificadas a través de sus productos de decaimiento.

Figura 2. Visualización de un evento registrado por el detector CMS y candidato a mostrar el decaimiento de Higgs en dos fotones representados por los rayos verdes. Los demás rayos corresponden al ruido de procesos de trasfondo. Fuente: CERN, http://cdsweb.cern.ch/record/1463580

10 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

Como ocurren colisiones protón-protón cada 50 nanosegundos y debido al alto número de canales de detección se requieren sistemas de cómputo sofisticado para hacer todo el procesamiento de reconstrucción de partículas y el almacenamiento del evento. Se utiliza un sistema de computación GRID para procesar la información de manera paralela


1

2

3

4

Figura 3. Foto del Detector CMS. 1. Cámaras de muones; 2. Solenoide; 3. Calorímetros electromagnético y hadrónico; 4. Rastreador de silicio Fuente: http://cdsweb.cern.ch/record/1275108/files/20071215_729.JPG

Universidad de los Andes, Facultad de Ciencias 11


en los 180 institutos –entre ellos la Universidad de los Andes– de 40 países diferentes que actualmente participan en el experimento. El experimento CMS realizó su primera toma de datos en el 2010 y acumuló una baja estadística que le sirvió para verificar su correcto funcionamiento. En 2011 y 2012 se acumuló suficiente estadística para comprobar la existencia del bosón de Higgs predicho por el modelo estándar. En el análisis de datos se debe tener en cuenta que puede haber otros procesos del modelo estándar que producen los mismos estados finales y que pueden conducir a la identificación errónea de un Higgs; estos eventos se conocen como eventos de trasfondo o backgrounds. Separar estos eventos de la verdadera señal física que se busca es uno de los principales retos en todo experimento de partículas, y para esto es necesario aplicar filtros sobre todas las variables que puedan diferenciar la señal física del trasfondo para lo cual se recurre a herramientas sofisticadas de análisis de datos.

2000

La figura 4 muestra una clara evidencia de la producción de un nuevo bosón en el canal de dos fotones. Las variables de energía y velocidad de los dos fotones se pueden usar para determinar la masa de la partícula, que en su decaimiento produce los dos fotones. En la gráfica el supuesto bosón de Higgs se identifica como un pico, centrado alrededor de la masa de la partícula, por encima de una función que decae exponencialmente y que corresponde al ruido generado por los procesos de trasfondo. El valor de la masa que se ha encontrado es de 125,3 GeV con una incertidumbre del 0,5%, 133 veces la masa de un protón. Aún falta tener confirmación independiente de cada canal de decaimiento del bosón de Higgs y medir las probabilidades de decaimiento en cada canal para verificar si el bosón descubierto corresponde efectivamente al bosón de Higgs predicho por el modelo estándar. Actualmente, el acelerador LHC sigue produciendo colisiones y en pocos meses tendremos la confirmación definitiva. •

CMS preliminar

1800

1600

Datos Fit total

Número de eventos/energía (GeV)

1400

Fit a background ± 1σ

1200

± 2σ 1000

800

600

400

200

0 120

140 160

mHIGGS (GeV) Figura 4: Evidencia del descubrimiento de un nuevo bosón consistente con el bosón de Higgs por el experimento CMS. Fuente: https://cdsweb.cern.ch/record/1459463/files/Fig3-MassFactSoBWeightedMass.png

12 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


[ notas. FÍSICA ] Imágenes biomédicas con Medipix Iván D. Caicedo Sierra Estudiante de Maestría en Física de la Universidad de los Andes, id.caicedo135@uniandes.edu.co.

Bernardo Gómez Moreno Dr. rer. nat. Profesor Emérito del Departamento de Física de la Universidad de los Andes, bgomez@uniandes.edu.co.

La investigación en física de partículas –tan ajena como pueda parecer a muchos– ha proporcionado a lo largo de su desarrollo importantes herramientas a otras áreas de la ciencia y la industria. Cámaras de ionización que a partir de su interacción con núcleos de helio han sido acondicionadas como detectores de humo. Aceleradores de partículas que son utilizados para tratamientos radiológicos contra el cáncer. Redes de comunicaciones que terminarían siendo lo que hoy conocemos como Internet y detectores de partículas para la adquisición de imágenes médicas, por mencionar algunas. Por detector de partículas se hace referencia a cualquier arreglo de materiales que genera alguna traza o señal al paso de partículas subatómicas. Estas partículas pueden ser masivas y cargadas eléctricamente, como electrones, muones, taus y sus antipartículas, además de mesones y bariones cargados, masivas sin carga, como neutrinos, mesones y bariones neutros, o partículas sin masa ni carga pero que interactúan electromagnéticamente como los fotones. Los detectores semiconductores Medipix1 son dispositivos derivados de los experimentos del Gran Colisionador de Hadrones (LHC) en el Centro Europeo para la Investigación Nuclear (CERN), donde han sido utilizados para reconstruir las trayectorias y energías de partículas. Sin embargo, la calidad del desempeño de estos instrumentos propició el inicio de una colaboración entre varias instituciones a nivel mundial, cuyo propósito ha sido la búsqueda y optimización de aplicaciones utilizando Medipix en otras áreas de la ciencia. Desde 2008, el Grupo de Altas Energías del Departamento de Física de la Universidad de los Andes hace parte de esta colaboración, y su trabajo se enfoca en la aplicación para imágenes biomédicas, fluorescencia de rayos-X y dosimetría de radiaciones.

Figura 1: Izquierda: Montaje de adquisición de microrradiografías en el Laboratorio de Altas Energías: Fuente de rayos-X de microfoco, soporte para muestras y detector Medipix. Derecha: Área sensible del detector. Fotografías de los autores. 1 http://medipix.web.cern.ch.

Universidad de los Andes, Facultad de Ciencias 13


Figura 2: Radiografías de material inerte y vivo obtenidas con Medipix. De izquierda a derecha: estructura interna de un reloj, vistas frontal y lateral de un coleóptero, bivalvos dentro de un trozo de madera. Fotografías de los autores.

Los rayos-X son fotones, mediadores de radiación electromagnética –como la luz visible, ondas de radio o microondas–, pero en un mayor rango de energías. La adquisición de imágenes por transmisión que usan como fuente este tipo de radiación es análoga a la generación de la sombra de un objeto en una pared utilizando una linterna: la fuente irradia la muestra de interés y en el costado opuesto se ubica un detector –como el área sensible de Medipix– que logre medir la intensidad de los fotones luego de ser frenados por los materiales constitutivos del objeto estudiado.

baja atenuación­– utilizando un instrumento que no es más grande que una libreta de bolsillo.

La versión más general de detectores Medipix consiste en una película cuadrada de silicio de 2 cm2 dividida en 65.500 segmentos iguales (pixeles) que funcionan como sensor. Estos, a su vez, están conectados de forma independiente a un chip con la electrónica de lectura y una interfaz que digitaliza las señales detectadas vía puerto USB, para poder observarlas en tiempo real en un ordenador personal. La portabilidad, lectura rápida, alta sensibilidad y resolución espacial los hacen muy deseables a comparación de otros detectores utilizados en arreglos convencionales –como películas radiográficas–, pues es posible obtener radiografías con tiempos de exposición muy pequeños y dosis de radiación menores a las habituales –­ incluso para materiales con muy

Pero, ¿el tamaño de los pixeles del detector es suficiente para obtener la máxima resolución espacial posible? La respuesta es no. Retomemos el ejemplo de la sombra en la pared: si la linterna es más pequeña que las dimensiones del objeto que genera la sombra y, este último, se empieza a acercar hacia la linterna mientras se aleja de la pared, se obtendrá una magnificación de la sombra proyectada. Este efecto no se puede lograr si la fuente de luz es tanta o más grande que el objeto. En el caso de Medipix, la altura y ancho de cada “pared” es de 55 micrómetros, por lo que, si la salida (o foco) de la fuente de rayos-X es de menor tamaño, se pueden lograr magnificaciones por pixel (y, por ende, para toda la imagen) del orden del cociente entre el tamaño de pixel y del foco.

Otra de las facultades interesantes del diseño de Medipix es la capacidad de establecer umbrales de energía. Estos valores delimitan el rango de energías desde o dentro del cual el detector cuenta fotones incidentes, con lo que se puede enfocar la detección hacia ciertos materiales de interés específico y que atenúen la radiación incidente hasta energías incluidas dentro de esos límites.

Figura 3: Ampliación a 4X de la pared de una arteria carótida utilizando una fuente de rayos-X de microfoco. Fotografías de los autores.

14 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


Figura 4: TomografĂ­a de la concha de un molusco. FotografĂ­as de los autores.

Universidad de los Andes, Facultad de Ciencias 15


El laboratorio de Altas Energías cuenta con fuentes de rayos-X con salidas focales de varios milímetros y una de microfoco de 5µm y voltajes de 10 a 90 kV, tres detectores tipo Medipix y un blindaje plomado dispuesto para realizar experimentos con estos instrumentos en un espacio seguro y adecuado. En este lugar se han llevado a cabo los procesos de adquisición y correcciones necesarias para obtener radiografías y tomografías computarizadas de muestras biológicas e inertes con resolución micrométrica. Es importante resaltar que los procedimientos, hasta ahora, no solo han contado con la participación de físicos interesados en detección de radiación, como los profesores de pregrado y posgrado, sino también de miembros de grupos de la Facultad de Ingeniería, Ciencias Biológicas e incluso Ciencias Sociales, involucrados en proyectos que requieren imágenes de rayos-X de alta resolución. Por otro lado, también se han logrado enlaces importantes con centros de investigación de reconocimiento internacional como el CERN, el Centro de Investigación para el Cáncer (DKFZ) en Alemania, o el Instituto de Física Experimental y Aplicada (IEAP) de la Universidad Técnica Checa. De esta forma, la experiencia y contribuciones de físicos a los detectores sirven como retroalimentación para el diseño de nuevos dispositivos, y el enfoque multidisciplinario de la Colaboración Medipix sigue enriqueciéndose con los aportes de otras áreas del conocimiento. •

Figura 5: Microtomografía de un fantoma de pared de un canal vascular con varias capas de materiales de atenuación similar. Fotografías de los autores.

16 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


[ notas. ciencias biológicas ] Develando los secretos del genoma humano María del Pilar Delgado MS.c. Profesora Asociada del Departamento de Ciencias Biológicas de la Universidad de los Andes, mdelgado@uniandes.edu.co.

Carlos A. Jaramillo H. MS.c. Profesor Titular del Departamento de Ciencias Biológicas de la Universidad de los Andes, cjaramil@uniandes.edu.co.

Para los interesados en el ADN, la molécula donde residen los misterios de la vida, hacer una exploración al interior del núcleo de una célula sería el comienzo de un apasionante viaje para develar los secretos del genoma y, en este caso, los secretos del genoma humano. Durante el recorrido, seguramente, se harían evidentes los nucleosomas, aquellas unidades fundamentales en las que se encuentra organizado el ADN y después, tras una mirada más detallada, estaría presente la estructura de doble hélice de este biopolímero, descrito por James Watson y Francis Crick en 1953. Llevados por la curiosidad, estaríamos interesados en conocer el acontecimiento descrito por algunos científicos entre 2001 y 2003, y así “se descubriría ante nuestros ojos la secuencia del genoma humano”: cerca de 3.000 millones de pares de nucleótidos donde se encuentra el mensaje genético que, acogiendo ciertas variaciones, es transmitido de generación en generación. Partiendo del mapa genético humano, resultado de un minucioso proceso de secuenciación de cada uno de los nucleótidos que forman parte de nuestros cromosomas, nos hallaríamos ante un conjunto de piezas que en un orden determinado definen, por una parte, lo que somos, nuestro fenotipo y genotipo, y, por otra, determinan un conjunto de interruptores genéticos switches en los que reside la capacidad de control de las funciones que realizamos, regiones descritas tiempo atrás como ADN basura o Junk DNA. Aunque en cualquiera de nuestras células corporales tendríamos el mismo panorama o mapa genético, la forma como cada interruptor actúa hace que las señales que regulan la expresión de un gen dado puedan cambiar. Entonces si consideramos que se tiene un conjunto de instrucciones de partida prácticamente fijas en los genes, estos pueden expresarse de diversas maneras, dando lugar a resultados distintos bajo ciertas condiciones diferenciales según el tipo de tejido, según el órgano y según el individuo, incluso entre gemelos. Esta información debe ser transcrita y, en algunos casos, traducida a proteínas, moléculas encargadas de llevar a cabo las acciones que permiten los procesos biológicos de la vida. Hasta hace muy poco se sabía que el genoma humano comprendía cerca de 25.000 genes y, gracias a las investigaciones realizadas, se había atribuido una función específica solo al 3% de la secuencia. Actualmente, nos encontramos con nuevos hallazgos gracias a ENCODE, un proyecto producto de un consorcio de investigación pública creado para identificar aquellas partes del ADN que pueden constituir elementos funcionales y que están dando lugar a la Enciclopedia de Elementos del ADN (Encyclopedia of DNA Elements). Hoy, tras correr parte del velo, se tiene acceso directo a nueva información y aparecen otros integrantes de la orquesta. Estando tan cerca, las interacciones ADN-proteína y proteína-proteína son obvias: al

Universidad de los Andes, Facultad de Ciencias 17


Las proteínas interactúan con el ADN genómico, desenrollando un cromosoma. Fuente: http://images.nigms.nih.gov/imageRepository/2330/GDB--DNA_unwinding_recolored_medium_resolution_.jpg.

observarlas semejan una danza de moléculas que participan al unísono de manera coordinada, precisa y eficiente, cada una con el fin último de cumplir una función biológica particular. En el presente y con los métodos disponibles, se tiene una amplia evidencia de que al menos el 80% del genoma, incluido el que se denominaba erróneamente ADN basura, cumple una función. Hace un tiempo intrigaba el hecho de que, luego de diversos estudios sobre el genoma, parecía haber una asociación entre algunas regiones no-codificantes del genoma y algunas enfermedades. Actualmente, de acuerdo con la información obtenida de ENCODE, esto no solo se considera factible, sino que parece lo más probable. En esta etapa, prácticamente se toca el ADN y, de cara a los nuevos hallazgos, se abre un mundo de posibilidades en diferentes campos, entre ellos la biotecnología y la biomedicina. Con estos nuevos conocimientos, esta molécula misteriosa ha empezado a dejar de serlo y se conoce la funcionalidad asociada al 80% del ADN. Con ENCODE, algunas de esas secuencias que parecían no tener sentido aparecen como interruptores, algunos encargados de prender y otros encargados de apagar genes,

18 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

otro tipo de secuencias reguladoras no necesariamente cercanas a los genes estructurales como se creía. Dentro de la célula, en una ubicación nuclear estratégica, se podría confrontar qué es lo que realmente puede pasar cuando una o más modificaciones de los patrones de los interruptores del ADN se dan. Transitando lentamente por allí, y observando detenidamente los procesos en los que se encuentra involucrado el ADN, se conocerían los factores por los cuales dichos cambios ocurren y se podría entender cómo regular el sistema. Entonces se tendría la posibilidad de lograr diagnósticos anticipados y nuevas alternativas terapéuticas, basadas en perfiles genéticos individuales con todos los beneficios sociales y económicos que eso implica. •

Referencias [1] Nature Encode. http://www.nature.com/encode/#/threads. [2] The ENCODE Project Consortium. An integrated encyclopedia of DNA elements in the human genome. Nature 2012; 489: 57-74.


[ notas. ciencias biológicas ] Aplicaciones biotecnológicas de los hongos Los hongos son organismos eucariotas heterótrofos que se destacan por su multiplicidad de hábitos de vida, Estudiante de Maestría así como por la variedad de ambienen Ciencias Biológicas de la tes y condiciones en que se pueden Universidad de los Andes, desarrollar, debido a su diversidad d.osorio23@uniandes.edu.co metabólica. Se pueden clasificar, de acuerdo a su morfología, en dos tipos principales: los hongos filamentosos, como los mohos y las setas, y las levaduras, que son unicelulares y han sido aprovechadas para la producción de múltiples compuestos de importancia industrial y biotecnológica.

Daniela Osorio Rodríguez

Debido a su mecanismo de toma de nutrientes, que se lleva a cabo por absorción, los hongos producen un amplio arsenal de enzimas que, al ser secretadas, les permiten descomponer polímeros en moléculas más simples. Esta característica les ha conferido en gran medida la habilidad de comportarse como parásitos, simbiontes o saprótrofos. Entre las enzimas que producen, se incluyen las proteasas, amilasas, xylanasas, pectinasas y glucosa isomerasas que son empleadas en la industria alimentaria, principalmente para el mejoramiento de sabores, texturas, aromas y propiedades nutricionales. Adicionalmente, las peroxidasas, monooxidasas, lacasas y oxidasas son utilizadas en procesos de descontaminación. Otras como las alfa-galactosidasas, glutatión transferasas, lactasas y oxigenasas son aprovechadas en la industria farmacéutica, y las lipasas son de gran provecho para la industria de manufactura de productos como papel, cuero y detergentes. Algunas levaduras tienen la capacidad de fermentar azúcares en condiciones anóxicas, lo que hace posible la producción de alcohol etílico. Esta propiedad ha sido aprovechada desde la antigüedad para la fabricación de productos como el pan, la cerveza, el queso y el vino. Actualmente, esta característica de las levaduras se utiliza, además, para la generación de biocombustibles a partir de sustratos ricos en almidón. Estos microrganismos también son aprovechados para la producción de suplementos nutricionales y probióticos y tienen potencial para degradar compuestos hidrocarbonados y explosivos, y para fijar metales pesados. Los hongos también llaman la atención por su capacidad para sintetizar diferentes metabolitos secundarios, moléculas que no son fundamentales para la supervivencia o para su desarrollo, pero que les pueden con-

Fotografía de Natalia Vargas.

ferir una ventaja en su medio ambiente particular. Su producción está condicionada por la presencia de determinadas fuentes de carbono, nitrógeno, fósforo y otros minerales, y también se pueden dar efectos estimuladores o inhibidores de acuerdo con la proporción de sustratos y productos. Entre estas, encontramos antibióticos, agentes inmunosupresivos y antitumorales, micotoxinas y ácidos grasos. Al producir sustancias que pueden limitar el crecimiento de otros organismos, los hongos se han utilizado como agentes biocontroladores de insectos que disminuyen la contaminación generada por el uso de agentes químicos en el ambiente. Las innovaciones tecnológicas e industriales y los avances en biología molecular han permitido potencializar el aprovechamiento de los metabolitos que se pueden producir a partir de los hongos. La manipulación genética de las levaduras ha favorecido la producción de proteínas de interés terapéutico. Asimismo, se están produciendo enzimas con características mejoradas a partir de hongos recombinantes. La ingeniería metabólica también ha permitido alterar las características de las cepas empleadas, para incrementar la producción o adaptarla a las condiciones deseadas. •

Universidad de los Andes, Facultad de Ciencias 19


Problemas y rompecabezas Sandor Ortegón Profesor de cátedra del Departamento de Matemáticas de la Universidad de los Andes, sj.ortegon@uniandes.edu.co.

En esta ocasión, nuestro primer problema nos demuestra cuán interesante y difícil puede ser practicar un juego correctamente, aun si es ejecutado sobre un dominio “relativamente pequeño” como es un tablero de 4 por 4. En segundo lugar, presentamos un problema muy sencillo, pero que nos demuestra que aun dentro de las matemáticas elementales, extraer la información matemática de un enunciado es un verdadero arte y para algunos un verdadero rompecabezas. Y finalmente tenemos un ejercicio de probabilidad, en el cual queremos ver si podemos formalizar lo que nuestra intuición nos dice, o si es posible que nuestra intuición nos engañe. En el próximo número veremos las soluciones de estos problemas, así como referencias precisas de su origen y temas para investigación futura con base en los enunciados que siguen.

Problema 1 Describimos a continuación las reglas de un juego que se realiza en un tablero cuadriculado de 4x4 entre dos jugadores que llamaremos A y B. • •

Los dos jugadores se alternan escogiendo casillas que aún no han sido eliminadas del tablero. El jugador A es quien comienza el juego. En cada jugada, cuando un jugador escoge una casilla, se elimina del tablero la casilla escogida y, adicionalmente, todas las casillas que no se encuentren debajo ni a la izquierda de la casilla escogida.

Los siguientes diagramas ilustran el efecto que produce realizar dos jugadas sucesivas: en rojo se indica la casilla marcada en cada jugada y en negro se indican las casillas eliminadas.

20 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


Pierde el jugador que se vea obligado a marcar la casilla ubicada en la esquina inferior izquierda del tablero; el otro es el ganador del juego.

¿Es posible demostrar que en este juego, el jugador A tiene estrategia ganadora? Es decir, ¿es posible demostrar que dicho jugador tiene un método para decidir qué jugada realizar en cada turno, de manera que garantice que no perderá, sin importar las jugadas que realice su oponente? ¿Qué jugada (o jugadas) puede realizar A en su primer turno como parte de su estrategia para asegurar la victoria en el juego? ¿Qué sucedería si el juego se realizara sobre un tablero cuadriculado inicial de 5x5 o aún más grande? Sugerimos que busque otra persona para practicar el juego y comprenderlo mejor y, desde luego, si usted desea resolver el problema, póngase en el lugar del jugador B.

Problema 2 La suma de las edades de un barco y su capitán es igual a 70. ¿Cuál es la edad del capitán, si se sabe que el barco actualmente tiene el doble de la edad que el capitán tenía cuando el barco tenía la misma edad que tiene el capitán actualmente?

Problema 3 Ana, Bernardo y Carlos organizan un torneo de tenis de mesa entre ellos siguiendo las siguientes reglas: a) b)

c)

El jugador más débil escoge las dos personas que juegan de primero. El ganador de un juego se queda en la mesa y juega a continuación con la persona que no jugó en el turno anterior. La primera persona que gane dos juegos es considerada vencedora del torneo.

Suponga que Ana es la jugadora más fuerte y Carlos es el jugador más débil (hablamos aquí en términos de la probabilidad de ganar un enfrentamiento con otro del grupo) y supongamos que la probabilidad que tiene un jugador de ganar un juego contra un jugador específico no cambia durante el torneo. ¿Qué personas debe escoger Carlos para el primer juego del torneo para maximizar sus posibilidades de ganar el campeonato? ¿Habría alguna diferencia si la última regla dijera “la primera persona que gana N juegos es considerada vencedora del torneo”, donde N es mayor que 2?

An English Sloop Becalmed near the Shore – Francis Swaine Fuente: http://commons.wikimedia.org/wiki/File:Francis_Swaine_-_An_English_Sloop_Becalmed_near_the_Shore_-_Google_Art_Project.jpg

Universidad de los Andes, Facultad de Ciencias 21


Soluciones del número 11 Problema 1 El ciego, el tuerto y el vidente. Hay tres personas, una es ciega, otra es tuerta y la tercera es vidente. Les informan que hay dos sombreros rojos y tres blancos. Le pondrán a cada uno un sombrero en la cabeza sin que lo pueda ver y los dos restantes serán escondidos. El reto para cada uno es decir el color del sombrero que tiene sobre su cabeza. Le preguntan al que ve bien, pero obervando los sombreros del tuerto y del ciego dice que no sabe cuál es el color de su sombrero. Hacen la misma pregunta al tuerto que observa los respectivos sombreros del ciego y del vidente, y contesta igualmente que no sabe el color de su sombrero. Por el contrario, en su turno, el ciego inmediatamente dice el color de su sombrero. ¿Qué color era?

mayor que el del ecuador– menos 2πR, la longitud del ecuador; es decir, 2π(R + 1) − 2πR = 2π. Nótese que el mismo razonamiento aplica al balón; si suponemos que el balón tiene radio r, la cantidad de metros de cinta que se deben agregar es 2π(r + 1) − 2πr = 2π. En otras palabras, a pesar de la diferencia de tamaño entre la tierra y el balón, la respuesta a la pregunta sería la misma; es decir, no depende del radio de la esfera original, contrario a lo que algunas personas podrían suponer a simple vista.

Problema 3

Solución

Supongamos lo contrario, que dicho sombrero era rojo. Si el vidente vio los sombreros de sus dos compañeros y no pudo determinar el color de su sombrero, es porque vio un sombrero rojo y uno blanco –si hubiera visto dos sombreros rojos, sabría inmediatamente que su sombrero era blanco–; es decir, vio que el tuerto tenía un sombrero blanco. Pero entonces el tuerto, al ver el sombrero rojo del ciego y comprender por qué el vidente no pudo saber el color de su sombrero, hubiera llegado a la conclusión de que su sombrero era blanco; es decir, el tuerto sí hubiera sabido cuál era el color de su sombrero, llegando así a una contradicción con el enunciado del problema.

Los 40 ladrones. Una banda de 40 ladrones ha sido arrestada en la ciudad de Bagdad y cada uno de ellos tiene un grillete que lleva el número de la celda que ocupa, es decir un número entre 1 y 40. Entre ellos está el hijo del sultán. En vista de las circunstancias, el sultán anuncia al jefe de los ladrones que ha decidido tomar una medida de clemencia: “Mañana en la mañana se reunirán en el patio de la prisión dispuestos en un círculo en el orden que tú mismo elijas. En primer lugar, voy a liberar a mi hijo que es el número 1. Después contaré los espacios entre hombres girando en el sentido del Sol: primero uno, correspondiente al número 1, y liberaré al hombre siguiente a mi hijo; luego contaré un número de espacios igual al número inscrito sobre el grillete del recién liberado y salvaré al hombre siguiente, y así sucesivamente. Como contaré el número de los espacios y no de los hombres, llegaré en un momento dado al lugar de un ladrón ya liberado. Entonces los que quedan serán ejecutados. En tu caso, que llevas el número 2, exijo que no seas liberado antes de la mitad de tus cómplices”. El jefe de los ladrones tuvo la noche para pensar y organizó a sus hombres de tal manera que, en la mañana siguiente, todos los ladrones lograron sobrevivir. ¿Cómo lo hizo?

En conclusión, el sombrero del ciego era blanco.

Solución

Pregunta sencilla: ¿Es posible determinar el color de los sombreros del tuerto y del vidente? ¿O existe más de una posibilidad en este caso?

Hay muchas soluciones a este problema; una de ellas consiste en ubicar a los prisioneros en el círculo en el siguiente orden, según la celda que ocupan:

El color del sombrero que tenía la persona ciega era blanco. Observemos que si las tres personas tenían puestos sombreros blancos, sucede justo lo mencionado en el enunciado del problema –que el vidente y el tuerto no tienen información suficiente para determinar el color de sus sombreros–. Ahora, vamos a justificar por qué el sombrero que llevaba la persona ciega necesariamente era blanco.

Problema 2 Las dos cintas. Tome una cinta y pongala a lo largo del ecuador de un balón, e imagínese otra cinta alrededor del ecuador de la Tierra que consideramos completamente esférica. Ahora, si quiere levantar cada cinta un metro por encima de su esfera respectiva, ¿cuántos metros más de cinta habrá que agregarles a la de la Tierra y a la del balón?

1,38,36,34,32,30,28,26,24,22,20,18,16,14,12,10,8,6,4,2, 40,39,37,35,33,31,29,27,25,23,21,19,17,15,13,11,9,7,5,3 Para facilitar la comprensión de la solución, identificaremos a cada prisionero con el número de la celda que ocupa. Además, suponiendo que todos serán liberados, para cada i con 1 ≤ i ≤ 40, denotamos por ai al prisionero que será liberado en el i-ésimo turno.

Solución Si el ecuador de la tierra fuera una circunferencia de radio R, medido en metros, bajo la suposición hecha en el enunciado del problema, la cantidad de metros de cinta que se debería agregar a la cinta original sería de 2π(R + 1) –la longitud de la circunferencia de radio un metro

22 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

Vamos a traducir a términos matemáticos las condiciones dadas en el enunciado del problema. a)

Es claro que el orden de liberación no es el mismo orden de las posiciones ocupadas por los prisioneros en el círculo. La relación


b) c)

d)

entre los dos órdenes se obtiene de la siguiente manera. Tomamos como posición inicial en la circunferencia la del prisionero 1, el hijo del sultán, que es además el prisionero a1 pues será el primero en ser liberado. Entonces, la posición en el círculo que i−1 ocupa el prisionero ai, siendo i ≥ 2, es igual a 1 +k ∑= 1ak (módulo 40). La condición sobre el prisionero que lleva el número 2 se puede traducir así: ai ≠ 2 si i < 40/2 = 20. La condición para que todos los prisioneros sean liberados se puede traducir así: para i, j cualesquiera, con 1 ≤ i ≤ j < 40, se j cumple que k ∑= i ak ≠ 0 (módulo 40). Los números de las celdas son precisamente los números enteros entre 1 y 40, lo que se puede traducir así: (a1, a2,…, a40) es una permutación de (1, 2,…, 40).

Así que el problema en cuestión consiste en encontrar números a1, a2,…, a40, que cumplan las condiciones (b), (c) y (d). Una vez encontrados estos números, podemos determinar la posición que ocupan los prisioneros en el círculo usando la condición (a). Si cambiamos el número 40 en el enunciado del problema –y en lo que va escrito de la solución– por un entero positivo N > 2, podemos establecer de una vez las siguientes conclusiones generales: •

aN = N. La razón es que si ai = N para algún entero positivo i < N, al ser N = 0 (módulo N), la condición (c) no se cumpliría si se toma j = i.

N debe ser un número par. La razón es que si remplazamos en N−1 la condición (c) i = 1, j = N − 1, se cumple que k ∑= 1ak no debe ser múltiplo de N. Pero como aN = N, por la condición (d), se sigue que N−1 N−1 N (N − 1) y éste sería un múltiplo de N, si N − 1 fuera par ∑ ak =k ∑= 1k = k=1 2 y N impar. En otras palabras, el problema no se podría resolver si hubiera un número impar de ladrones.

Ahora, continuando en la situación general con N ladrones, siendo N un número par mayor que 4, se puede demostrar que si definimos aN = N y ai = i(−1)i − 1, módulo N, para cada i < N , las condiciones (b), (c) y (d) se cumplen. Este es un ejercicio mecánico pero interesante que se puede dejar para la verificación del lector. Usando esta solución general, en el caso particular de N = 40, la secuencia de los números ai corresponde a los números 1, 38, 3, 36,…, 37, 2, 39, 40, donde los puntos suspensivos denotan que se comprende la mecánica, y el prisionero número 2 será el antepenúltimo en ser liberado. Usando la condición (a), podemos encontrar una disposición de los prisioneros en el círculo que satisface lo pedido en el problema: 1,38,36,34,32,30,28,26,24,22,20,18,16,14,12,10,8,6,4,2, 40,39,37,35,33,31,29,27,25,23,21,19,17,15,13,11,9,7,5,3 Existen otras formas de ubicar a los prisioneros para asegurar que todos logren sobrevivir, pero sabemos que existe al menos una con la cual el jefe de los ladrones pudo garantizar el beneficio de sus cómplices. •

Ali Baba y los cuarenta ladrones – Laurence Housman Fuente: http://commons.wikimedia.org/wiki/File:Their_chief_in_a_low_but_distinct_voice_uttered_the_two_words.jpg

Universidad de los Andes, Facultad de Ciencias 23


David R. Burdick. http://www.guamreeflife.com


EL MARAVILLOSO MUNDO DE LOS

POLICLテ.IDOS Diana Marcela Bolaテアos Rodrテュguez Edna Carolina Bonilla Leテウn Federico David Brown


El maravilloso mundo de los policládidos

Diana Marcela Bolaños Rodríguez Ph.D. Profesora Auxiliar de la Universidad de Cartagena, dbolanosr@unicartagena.edu.co.

Edna Carolina Bonilla León MSc. de la Universidad de los Andes, ec.bonilla61@uniandes.edu.co.

Federico David Brown Ph.D. Profesor del Departamento de Ciencias Biológicas de la Universidad de los Andes, fd.brown46@uniandes.edu.co.

¿Cuántas veces hemos levantado rocas en playas rocosas? Los más aventureros, que seguramente lo han hecho varias veces, no habrán dejado de percibir la riqueza de animales que viven en estos ambientes que superficialmente parecen estar completamente desolados. Invitamos a los menos aventureros a levantar piedras en su próxima visita al mar. En estos ambientes podrán encontrar una diversidad de animales muy simpáticos como erizos y estrellas de mar y también se encontrarán con muchos tipos de gusanos, todos muy diferentes. ¡Pero sin duda alguna los que llegarían a ganar concursos de belleza serían los policládidos! Los policládidos son gusanos relacionados con las planarias de agua dulce del filo Platyhelminthes. El filo contiene más de 20.000 especies de gusanos planos y es considerado uno de los más grandes del reino animal. Dentro de sus representantes se encuentran ejemplares de hábitos parasíticos, como la tenia, y organismos de vida libre, como los policládidos, que han colonizado un amplio rango de ambientes, marinos, terrestres y agua dulce. Es difícil creer que las especies parasíticas que causan enfermedades tan terribles a humanos y animales puedan estar agrupadas con los policládidos, que incluyen algunos de los animales más hermosos del mundo. Sin embargo, todos los gusanos planos están construidos de forma similar y comparten características comunes que los unen en un solo grupo. Por ejemplo, tienen un cuerpo aplanado –de donde se deriva su nombre–, que puede llegar a ser tan delgado como una hoja de papel. Por esta particularidad, se pueden deslizar rápidamente entre las grietas de las rocas donde generalmente se esconden. Estos movimientos de deslizamiento se dan por la combinación de contracciones musculares y oleadas regulares de movimiento de microvellosidades en la superficie de la piel que toca el suelo junto con una secreción permanente de moco que sirve como lubricante. Los policládidos son representantes marinos del grupo de los gusanos planos, más conocidos como planarias, generalmente de agua dulce. Dentro del grupo de los policládidos hay una increíble diversidad en aguas tropicales y se encuentran en regiones rocosas del litoral [1], asociados a los arrecifes de coral, en mar abierto y hasta en zonas muy profundas [2, 3]. Las especies asociadas al litoral rocoso y a las zonas profundas presentan coloraciones crípticas como el café, crema o gris, que les permiten camuflarse de los depredadores. Por su lado, las que habitan en los arrecifes son extremadamente coloridas y brillantes, con una variedad de patrones de coloración. Pueden presentar colores muy intensos y llamativos como rojo, azul, verde, púrpura, amarillo, rosado y naranja y pueden mostrar diferentes patrones como líneas, rayas, puntos, parches, pecas, entre otros [4].

26 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


© Leslie Newman Fotografías de los autores

Arriba: Coloraciones brillantes de policládidos arrecifales Abajo: Coloraciones crípticas abundantes en litoral rocoso

El cuerpo de los policládidos, además de ser llamativo, es suave y delicado, y los convierte en presa fácil, sobre todo, de algunos peces y crustáceos. Sin embargo, han desarrollado diferentes estrategias de supervivencia y defensa como la presencia de toxinas y mimetismo que hacen que los policládidos no tengan muchos depredadores. Además, para camuflarse en su medio, tienen hábitos nocturnos y la capacidad de tomar la textura y el color del sustrato en el que se encuentran. Estos gusanos normalmente habitan sobre otros animales que les pueden servir de alimento, como corales, esponjas o ascidias [5]. Por otra parte, una coloración conspicua de los policládidos está frecuentemente asociada a la presencia de toxinas o sustancias de defensa no palatables que advierten a los posibles predadores sobre el riesgo de acercarse. Esta estrategia de defensa y advertencia es conocida como coloración aposemática y está muy bien expresada en los policládidos que habitan en el arrecife. Al mismo tiempo, los policládidos son comúnmente confundidos con los nudibranquios: hermosas babosas marinas que también presentan coloraciones conspicuas muy similares. Aunque se sabe que existen nudibranquios tóxicos, aún no se conoce si su estrategia de defensa se trata de un mimetismo batesiano o muleriano1. 1 El mimetismo batesiano se da en una especie que toma los colores o el patrón de coloración de otra especie de mal sabor o tóxica para engañar a sus predadores. Toma el nombre del famoso explorador inglés Henry Walter Bates, quien describió este mimetismo por primera vez en un estudio sobre mariposas en la Amazonía del Brasil en 1848. En cambio, el mimetismo mülleriano se da cuando dos especies no palatables comparten un mismo

Reproducción y desarrollo La reproducción y el desarrollo de los policládidos son poco convencionales. Todos son hermafroditas, es decir, poseen órganos reproductores masculinos y femeninos completamente funcionales en un solo cuerpo. Ser macho y hembra al mismo tiempo puede ser conflictivo; sin embargo, los policládidos resuelven este dilema fácilmente de acuerdo con su desempeño y dominancia sexual dada por etapas. La mayoría de los gusanos son protándricos; es decir, sus estructuras reproductivas masculinas se desarrollan primero [6]. Después de haber intentado dispersar sus genes como machos, tienen la oportunidad de hacerlo de nuevo como hembras. Al momento de la cópula, la transferencia de esperma puede ocurrir por fertilización cruzada mutua uniendo las colas y depositando el esperma dentro del sistema reproductor femenino por medio de los gonoporos. Sin embargo, los policládidos han desarrollado otra forma menos convencional y mucho más cruel de copular. Para asegurar una transferencia de esperma exitosa, los policládidos entran en una batalla campal conocida como “esgrima de penes”. Durante la batalla dos animales sexualmente maduros buscan penetrar la piel de su pareja a través de una inseminación hipodérmica del pene para inyectar el esperma en su pareja. En esta práctica, los gusanos se aproximan, se deslizan uno sobre predador y tienden a adoptar colores similares entre sí. Se denomina así en reconocimiento del naturalista alemán Fritz Müller, quien definió este mimetismo en mariposas en 1878.

Universidad de los Andes, Facultad de Ciencias 27


Huevos mono y multiembrionarios Fotografías de los autores.

otro y elevan la parte anterior del cuerpo, mientras levantan su pene en forma de estilete e inician una lucha repetida por depositar el esperma en cualquier lugar del cuerpo. Una vez que el gusano logra penetrar la epidermis del otro, mantiene su estilete dentro de la piel de su pareja por algunos minutos y deposita el esperma formando manchas blancas en el cuerpo de la que será la hembra. Estos movimientos se pueden repetir varias veces hasta lograr múltiples penetraciones que causan daños considerables en los gusanos. Sin embargo, las heridas sanan en un periodo de 24 horas. La razón de este ritual salvaje no es del todo comprensible, pero una posible explicación es que, en términos de gasto energético, es más conveniente ser padre que madre pues no invierten energía en la producción de huevos, en la puesta de las masas o en el cuidado parental [7]. Los policládidos no son los únicos en el reino animal que presentan inseminación hipodérmica; otros invertebrados hermafroditas, como las sanguijuelas, nudibranquios o insectos no hermafroditas, como algunos heterópteros, también utilizan este método de reproducción. Sin embargo, el ritual de los policládidos es el más atractivo y salvaje de todos.

Después de la cópula o de la inseminación hipodérmica, los oocitos son fecundados y depositados en masas compuestas de cientos de huevos encapsulados en una cubierta protectora secretada por las paredes de los oviductos. Estas masas pueden tener diferentes formas y organizaciones y cada cápsula puede contener uno o varios huevos. Los huevos deben ser depositados en sustratos seguros para que no se los lleve la corriente y no caigan como presas de predadores de huevos. El desarrollo embrionario puede ser directo o indirecto. En el directo, los juveniles eclosionan directamente como un adulto en miniatura y se dirigen inmediatamente al fondo marino para empezar su alimentación. Por su lado, en el indirecto eclosionan en forma de larva y nadan en la columna de agua por un tiempo antes de empezar los hábitos bentónicos. La larva de Müller2 es una larva identificada para los policládidos y está caracterizada por la presencia de tres ocelos y ocho lóbulos alrededor del cuerpo. Sin embargo, se han reportado dos tipos de larvas diferentes en algunas especies como la larva de Götte3, que tiene cuatro lóbulos y un ocelo, y la larva de Kato [8], que es aplanada dorsoventralmente y posee ocho lóbulos y doce ojos. Posiblemente estas dos últimas sean aberraciones o modificaciones de una larva de Müller, pero hasta el momento no ha sido comprobado y se clasifican como tipos de larvas diferentes. Las larvas son altamente ciliadas con un penacho apical y una banda ciliar central alrededor del cuerpo y de los lóbulos que sirve para la natación durante la fase planctónica. La larva completa su metamorfosis reabsorbiendo los lóbulos y elongando el cuerpo, convirtiéndose en un juvenil similar al de las especies de desarrollo directo. Hasta el momento no se conoce la naturaleza 2 La larva de Müller fue descrita por el naturalista alemán Fritz Müller (ver nota anterior).

Larvas de Müller en sus cápsulas Fotografías de los autores.

28 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

3 Llamada así en honor al zoólogo alemán Alexander Wilhelm von Götte (1840-1922), quien estudió el desarrollo de varios invertebrados marinos.


de los factores que desencadenan la metamorfosis en las larvas de los policládidos, pero la metamorfosis de la larva puede ser inducida por factores ambientales favorables para el desarrollo del juvenil, como por ejemplo la presencia de su alimento favorito. Este mecanismo aseguraría que los juveniles inicien su vida bentónica en un ambiente donde tendrán una buena oferta de comida para su crecimiento y, por tanto, una mayor probabilidad de sobrevivir. Regeneración La regeneración es la habilidad que tienen ciertos organismos de reemplazar o restaurar tejidos dañados o partes del cuerpo perdidas; característica que se distribuye ampliamente en muchos grupos de animales en la naturaleza. Dentro de estos, los gusanos planos, especialmente las planarias de agua dulce, son reconocidos por sus altos poderes de regeneración, pues poseen una población de células madre llamadas neoblastos, que se diferencian de cualquier tipo de célula que el cuerpo necesite. En comparación con otros platelmintos, incluyendo las planarias, las habilidades de regeneración de los policládidos son limitadas. Hasta la fecha, se ha pensado que el sistema nervioso juega un papel fundamental en la regeneración de los policládidos pues los pocos estudios han mostrado que algunas especies solo son capaces de regenerar las partes amputadas si el cerebro del animal, o al menos una porción de este, permanece intacto [9]. Así mismo, los estudios comportamentales en policládidos demuestran que después de cortar o remover el cerebro, las habilidades motrices y sensoriales de los gusanos son prácticamente nulas [10]. Cuando se separan los ganglios cerebrales en estos animales, las mitades del cerebro se pueden fusionar, pero cuando se extirpa el cerebro completo, la parte posterior no puede regenerar el cerebro y solo los cordones laterales nerviosos se pueden fusionar [9, 10, 11].

Policládido hermafrodita Fotografías de los autores.

Es difícil creer que los policládidos, aunque son parientes cercanos de las planarias de agua dulce y poseen el mismo sistema de células madre, no poseen las mismas habilidades para regenerar nuevos individuos a partir de un diminuto fragmento del cuerpo. Es así como el Laboratorio de Biología Evolutiva del Desarrollo (EvoDevo) de la Universidad de los Andes inició una investigación en regeneración con un policládido de la costa colombiana conocido como Boninia divae, con el fin de buscar nuevas pistas que ayuden a clarificar aspectos fundamentales de la biología celular y molecular de la regeneración en esta especie. Hasta la fecha, no existe ninguna publicación relacionada con el estudio de la regeneración de los policládidos a nivel molecular o celular, por lo que esta investigación es pionera en el tema. Las principales preguntas del estudio son: ¿es la organización del sistema nervioso en policládidos similar a la organización neural de las planarias? ¿Existe una dependencia neural para la

Universidad de los Andes, Facultad de Ciencias 29


Larvas de Müller Fotografías de los autores.

regeneración en B. divae? ¿Pueden recuperar su función completa las poblaciones neurales y el sistema nervioso después de la regeneración? Para contestar estas preguntas, primero se realizaron cortes y amputaciones en distintas partes del cuerpo para observar diferencias en las capacidades de regeneración a lo largo del tiempo. Se realizaron observaciones detalladas de la regeneración y se utilizaron tinciones del sistema nervioso para localizar las diferentes poblaciones de células neurales durante la regeneración. Posteriormente, se hicieron pruebas de comportamiento, específicamente de movimiento y sensibilidad a la luz, para evaluar la recuperación de la función del sistema nervioso durante la regeneración. Se encontró que los policládidos presentan cuatro tipos de células nerviosas, localizadas en diferentes partes del cuerpo como cerebro, cordones nerviosos, faringe, algunos músculos y el disco suctor4. Como se esperaba, la regeneración de la región anterior y posterior del cuerpo solo fue posible en presencia total o parcial del cerebro. En caso de daño parcial, la parte amputada fue regenerada, pero en caso de amputación total no se regeneró el cerebro. Sin embargo, los cortes en serie de las diferentes partes del cuerpo del gusano arrojaron datos inesperados. Al cortar la cabeza y la cola de los gusanos simultáneamente, dejando únicamente la porción del medio del cuerpo, se pudo observar la regeneración de estructuras posteriores como la faringe y el disco suctor en ausencia total del cerebro. ¿Por qué regenerar la cola antes que la cabeza? ¡Para sobrevivir, estos gusanos favorecen a su cola, más que a su cerebro! Se logró confirmar que 4 El disco suctor o ventosa es una estructura muscular a manera de anillo que permite a los animales anclarse o adherirse al sustrato para no ser arrastrados por la marea. Esta estructura tiene gran valor taxonómico para la clasificación inicial de las especies pues, de acuerdo a la ausencia o presencia del disco suctor, las especies se pueden clasificar en Acotylea y Cotylea, respectivamente.

30 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

estos gusanos no pueden regenerar su cerebro original. Pero la historia no termina allí. En los gusanos decapitados, pasado casi un mes en este estado, sin que se vea afectada su supervivencia y sin ningún cambio aparente a simple vista, se pudo observar la formación de un agrupamiento concéntrico de nervios en la región anterior, el cual difiere completamente de la disposición nerviosa anterior en gusanos intactos. Gracias a los estudios de comportamiento en estos gusanos, se ha empezado a esclarecer si esta nueva conformación nerviosa podría estar actuando como un nuevo órgano cerebral. Se ha demostrado que, con el paso del tiempo, los gusanos decapitados recuperan la movilidad, aunque no en su totalidad. Sin embargo, la recuperación parcial del movimiento sugiere que el nuevo órgano nervioso cumple funciones locomotoras. En gusanos con daño parcial del cerebro, la regeneración de la parte del cerebro amputada ocurre paralelamente a la recuperación de la función locomotora. ¡Imagínense lo que nos pueden enseñar estos animales! Si los humanos hubieramos mantenido estas habilidades, María Antonieta de Austria hubiese regenerado un pseudocerebro después de ser ejecutada en la guillotina y ¡Francia continuaría con la monarquía! Trabajar con un modelo no tradicional permite aportar datos adicionales para estudiar sus mecanismos de regulación en un contexto comparativo, desde organismos bilaterales simples a nivel corporal como los policládidos hasta vertebrados complejos como los humanos. Así mismo, esta investigación en el tema de las células madre ofrece una perspectiva general de la naturaleza, mantenimiento y función de estas células, para que en el futuro se puedan aplicar estos conocimientos en la medicina regenerativa y la bioingeniería. •


A. Sección histológica de región anterior B. Distribución de células nerviosas en Boninia divae intacto C. Regeneración de sistema nervioso luego de amputación anterior y posterior Fotografías de los autores.

Cerebro

A

Anterior

Faringe

Referencias Cordones nerviosos

B Suctor Posterior

C Anterior Agrupamiento concéntrico de nervios

Cordones nerviosos

Plexo submuscular

Posterior

Suctor

[1] Bolaños DM, Quiroga SY, Litvaitis MK. Five new species of cotylean flatworms (Platyhelminthes: Polycladida) from the wider Caribbean. Zootaxa 2007; 1650: 1-23. [2] Quiroga SY, Bolaños DM, Litvaitis MK. First description of deepsea polyclad flatworms from the North Pacific: Anocellidus n. gen. profundus n. sp. (Anocelidae, n. fam.) and Oligocladus voightae n. sp. (Euryleptidae). Zootaxa 2006; 1317: 1-19. [3] Quiroga SY, Bolaños DM, Litvaitis MK. Two new species of flatworms (Platyhelminthes: Polycladida) from the Gulf of Mexico. Journal of the Marine Biological Association of the United Kingdom 2008; 88(7): 1363-1370. [4] Newman LJ, Cannon LRG. Colour pattern variation in the tropical flatworm, Pseudoceros (Platyhelminthes: Polycladida), with descriptions of three new species. The Raffles Bulletin of Zoology 1995; 43(2): 435-446. [5] Rawlinson KA, Stella JS. Discovery of the Corallivorous Polyclad Flatworm, Amakusaplana acroporae, on the Great Barrier Reef, Australia: the First Report from the Wild. PLOS ONE 2012; 7(8): e42240. [6] Hyman LH. The Invertebrates: vol. II. Platyhelminthes and Rhynchocoela; the acelomate Bilateria. New York: McGrawHill; 1951. [7] Rawlinson KA, Bolaños DM, Liana MK, Litvaitis MK. Reproduction, development and parental care in two direct-developing flatworms (Platyhelminthes: Polycladida: Acotylea). Journal of Natural History 2008; 42: 2173-2192. [8] Martin-Duran J, Egger B. Developmental diversity in free-living flatworms. EvoDevo 2012; 3: 7. [9] Olmsted JMD. The role of the nervous system in the regeneration of polyclad Turbellaria. Journal of Experimental Zoology 1922; 36: 49-56. [10] Koopowitz H, Silver D, Rose G. Neuronal plasticity and recovery of function in a polyclad flatworm. Nature 1975; 256: 737738. [11] Faisst J, Keenan CL, Loopowitz H. Neuronal repair and avoidance behavior in the flatworm Notoplana acticola. Journal of Neurobiology 1980; 11:483-496.

Universidad de los Andes, Facultad de Ciencias 31


BIOTECNOLOGÍA

TURQUESA Virginia Helena Albarracín, María Eugenia Farías


FotografĂ­a de las autoras


Biotecnología turquesa

María Eugenia Farías Ph.D. Investigadora del Laboratorio de Investigaciones Microbiológicas de Lagunas Andinas (LIMLA), Argentina, mefarias@proimi.org.ar.

Poco estudiadas y en ambientes de difícil acceso, las LAPA (v. figura 1) han ido revelando sus secretos que incluyen una microbiota altamente diversa, asombrosa y resistente a condiciones extremas. Las LAPA: ambientes extremos ¡pero habitables! Las Lagunas de Altura de la Puna Andina se encuentran localizadas en un ambiente desértico, continental y volcánico a bajas latitudes y altas altitudes en Sudamérica, entre el noroeste de Argentina, Bolivia y el norte de Chile, en las zonas denominadas Puna y Altos Andes. En conjunto, estas cualidades geográficas exponen a las LAPA a condiciones hostiles cuyo principal protagonista es una irradiación solar muy intensa –la más alta del mundo–. De hecho, constituye el principal factor ecológico, el cual limita la vida en este ecosistema. Por la intensa evaporación imperante, el suelo se torna salino y las lagunas resultan verdaderas salmueras más saladas que el mar. Asimismo, las temperaturas promedio son bajas, incluso en verano, aunque el rasgo distintivo del clima es la gran amplitud térmica, con diferencias de temperatura entre el día y la noche que alcanzan los 25 ˚C. Además, muchos elementos minerales tóxicos abundan en el agua y el suelo; el arsénico, por ejemplo, alcanza en muchos lagos concentraciones venenosas. Bolivia

Acinetobacter sp. Ver3

Pa ran a

Ph.D. Investigadora del Laboratorio de Investigaciones Microbiológicas de Lagunas Andinas (LIMLA), Argentina, virginia@proimi.org.ar.

Los ecosistemas de Lagunas de Altura de la Puna Andina (LAPA) son sistemas de lagunas de escasa profundidad casi inexploradas que están distribuidas en la ecorregión de la Puna y Altos Andes en Sudamérica a altitudes de 3.000 a 6.000 msnm.

Rio

Virginia Helena Albarracín

Paraguay Rio Pa ragu

Rio

Pil co

ay

ma yo

Brazil

Asuncion

Rio

Alt o

Pa ra

na

Laguna Verde (4400 msnm) Catamarca, Argentina Rio

Uruguay

Sa lad Rio

Rio De

Para

na

o Laguna Mar Chiquita

Stenotrophomonas sp. N50

dero sgua gro Rio Ne

Santiago

Laguna Negra (4400 msnm) Catamarca, Argentina

Buenos Aires

Chile

Argentina Rio

Sa

la

do

Rio

Rio

Negr

o

Co lo

rad

o

Pseudomonas sp. V1

Rio

Ch ic

o

but Rio Chu

Laguna Vilama (4600 msnm) Jujuy, Argentina

Rio Deseado

Rio

Ch

ico

Stanley

Figura 1. Ejemplos de lagos de altura muestreados por el LIMLA y algunos microorganismos poliextremófilos aislados de las mismas. Fotografías de las autoras.

34 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

Uruguay Motevideo


Figura 2. Modelo tridimensional de una fotoliasa presente en un microorganismo poliextremófilo de las LAPA, Acinetobacter sp. Fotografías de las autoras.

Como se puede imaginar, no es fácil vivir en las LAPA y se observa una baja diversidad en términos de eucariotas superiores: plantas y animales. Sin embargo, en los últimos años se ha evidenciado que esta área y, especialmente, las lagunas presentan una espectacular diversidad de microorganismos: bacterias, algas y hongos microscópicos. Esta microbiota constituye el pilar trófico de este ecosistema tan extremo. En términos sencillos se puede decir que los microorganismos que viven en el agua superficial –fitoplancton– son como “el pasto” de una pradera de donde se alimentan las distintas especies de niveles tróficos superiores. Un ejemplo típico de cadena trófica en las LAPA es el fitoplancton-flamenco-zorro-águila. Por esta razón, estudiar y conservar los recursos microbianos no es trivial: ¡constituye la base de toda la vida en las alturas! La incomparable microbiota encontrada, aunque minúscula y aparentemente indefensa, soporta condiciones muy adversas que normalmente ningún ser humano puede soportar. Así, los extremófilos constituyen invaluables recursos para la creación de nuevos procesos biotecnológicos y son asimismo modelos para investigar cómo determinadas biomoléculas reaccionan cuando son sometidas a esta clase de condiciones. Entre los factores físico-ambientales, cuya escasez o abundancia induce a considerar extremófilo a un ser viviente, así como

algunas denominaciones que se derivan de ellos, se cuentan: la temperatura (termófilos o psicrófilos), la radiación (resistentes a rayos ultravioletas, X, gamma u otros), la presión (barófilos), la sequedad (xerófilos), la salinidad (halófilos), el pH (alcalófilos, acidófilos), el oxígeno, etc. Los organismos expuestos a más de una condición extrema, como sucede con los microbios de las LAPA, son considerados poliextremófilos –de la palabra extremo y la palabra griega φιλíα, que significa amor, es decir, “amante de condiciones extremas”–, pues al mismo tiempo están sobreviviendo a diversas tensiones: hipersalinidad, alta irradiación UV, concentraciones venenosas de arsénico, entre otras. Biotecnología turquesa: importancia de los poliextremófilos de las LAPA El estudio de los extremófilos está muy difundido en la comunidad científica actual. Y esto sucede por muchas razones: por un lado, el estudio de organismos que pueden vivir en condiciones distintas o adversas, con respecto a lo que se conoce como facilitadores de vida, está generando herramientas para ampliar la idea de habitabilidad, es decir, la idea de que la vida puede existir en condiciones muy extremas, como por ejemplo en otros planetas con condiciones distintas a las de la Tierra.

Universidad de los Andes, Facultad de Ciencias 35


Además, los científicos han descubierto que los extremófilos, en general, y los poliextremófilos de las LAPA, en particular, pueden ser una fuente prolífera de productos para mejorar la calidad de vida humana y con fines comerciales, médicos e industriales. Entre los productos explotables de los extremófilos se pueden nombrar las extremoenzimas. Las enzimas son los catalizadores biológicos que, en todos los organismos vivos, catalizan las transformaciones metabólicas. Lo fabuloso de las enzimas es que se pueden extraer de sus organismos de origen y ser usadas en un tubo de ensayo o en un reactor industrial para catalizar una determinada reacción química y generar algún producto de interés. De hecho, el uso de enzimas en procesos industriales es casi tan antiguo como las propias industrias. No obstante, las enzimas usuales acostumbran a funcionar bien solo en condiciones moderadas de pH, temperatura o salinidad, y se alteran en condiciones más extremas. Las extremoenzimas, por su parte, se pueden usar, según su origen, en diversas condiciones como en altas temperaturas; un ejemplo de estas son las enzimas resistentes al calor, derivadas

de organismos termófilos. Por esto, se pueden usar para mejorar reacciones químicas que se llevan a cabo a temperaturas más altas, en procesos industriales como la obtención de ciclodextrinas a partir del maíz. Las ciclodextrinas son estructuras muy útiles para dispensar ciertos fármacos y estabilizar ciertos componentes aromáticos alimentarios, entre otros. En el otro extremo, las enzimas procedentes de microorganismos psicrófilos son de interés para desarrollar procesos industriales –alimentarios, de aromas y perfumes– que necesitan refrigeración. Más interesante resulta el gran potencial de algunos de estos extremófilos para el desarrollo de la “biominería” con la que se pueden extraer minerales de forma más sencilla, económica y, a la vez, menos contaminante. En el caso de las LAPA, los científicos del Laboratorio de Investigaciones Microbiológicas de Lagunas Andinas (LIMLA) han recolectado bacterias altamente resistentes a radiación UV, mucho más resistentes que sus semejantes en otras partes del mundo. De hecho, en el laboratorio, algunos crecen mejor en presencia de UV que en presencia de luz blanca. Por lo tanto, se puede

Figura 3. Rhodococcus sp. A5, una actinobacteria uveófila cuyos pigmentos pueden tener interés biotecnólógico (lupa estereoscópica, 4x). Fotografía de Virginia Albarracín.

36 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


llamar uveófilos a los microorganismos que resisten estas condiciones. Sus extremoenzimas son particularmente resistentes al daño UV y algunas son capaces de utilizar la tan dañina radiación UV como fuente de energía para llevar a cabo reacciones enzimáticas beneficiosas para la célula. Estas enzimas se denominan fotoliasas y utilizan la luz azul o UV-A para reparar fotoproductos, daños en el ADN causados por la misma radiación UV allí imperante (v. figura 2). Si bien las fotoliasas fueron estudiadas ampliamente en otros organismos, especialmente en el microorganismo modelo Escherichia coli, esta es la primera vez que se describen fotoliasas funcionales en organismos tan extremos y tan eficientes en su capacidad de reparación de fotoproductos. Por otra parte, las fotoliasas tienen un valor agregado en la industria cosmética e incluso en tratamientos médicos oncológicos. Existen en el mercado comercial cremas con fotoliasas asociadas a mecanismos de transporte de gran eficacia como los liposomas para que sean capaces de atravesar la piel y llegar a las estructuras celulares más profundas. Estas formulaciones permiten prevenir el daño celular y el envejecimiento o fotoenvejecimiento, debido a un mecanismo reparador del daño al ADN. Estas estrategias constituyen parte de la ahora denominada fotoprotección inteligente. Otras sustancias que se pueden extraer de la amplia colección de extremófilos de la Puna curada por el LIMLA, con aproximadamente 400 microbios, son los pigmentos y compuestos antioxidantes (v. figura 3). Los pigmentos son sustancias coloridas sintetizadas, acumuladas o excretadas a partir de células, que, en el organismo original, cumplen funciones tan diversas como importantes: absorción de luz con fines fotosintéticos, efecto protector antioxidante frente a la luz y la radiación UV, captación de hierro, actividad antibiótica o citotóxica. Biotecnológicamente pueden ser empleados en campos muy diversos, como para colorear alimentos y darles un valor nutritivo agregado en los llamados alimentos funcionales, evitando las desventajas toxicológicas de los pigmentos sintetizados químicamente. Ejemplos como el de las fotoliasas y los pigmentos son algunos de los muchos ejemplos de aplicación que pueden tener las extremoenzimas y compuestos extraíbles de los poliextremófilos de las LAPA. Así como la biotecnología azul se relaciona con los productos marinos, la amarilla con los insectos, la roja con los animales y la medicina, la verde con las plantas y la agricultura, proponemos como un nuevo término a la “biotecnología turquesa” para todos los productos y procesos biotecnológicos derivados de las LAPA. El color turquesa representa el color de la fusión de las condiciones extremas dominantes en estos ecosistemas: el Sol, la sal y el arsénico. De hecho, el color turquesa es el color de muchos cuerpos de agua hipersalinos y alcalinos como los ojos de mar en Tolar Grande (v. figura 4) que se funden en un paisaje dominante

Figura 4. Ojos de mar en Tolar Grande (3.500 m), Salta, Argentina. Fotografías de María Eugenia Farías.

de un cielo azul brillante y sol penetrante, en el medio de un desierto salino blanco tan inmenso como inexplorado y, aún así, tan rebosante de vida microbiana y de posibles soluciones para mejorar la calidad de vida humana. En síntesis, una gran farmacia y almacén espera a ser explorado de forma sustentable en las alturas desérticas de la Puna. Estromatolitos en las LAPA: una fuente inesperada de nuevas biomoléculas Con base en todas las exploraciones realizadas en las LAPA por el LIMLA, desde el 2002 se ha puesto de manifiesto que en muchos lagos y salares los microorganismos forman estructuras “comunitarias” que se desarrollan en la interfase entre el agua y sustratos sólidos denominadas en general como tapetes microbianos. Probablemente, la asociación de microorganismos para formar estas “verdaderas alfombras” pueda tener un valor adaptativo, ya que permitiría diversificar funciones y optimizar el trabajo y la disponibilidad de energía y nutrientes, al mismo tiempo que generaría mayor protección y estabilidad a los microorganismos individuales constituyentes.

Universidad de los Andes, Facultad de Ciencias 37


A

B

Figura 5. Estromatolitos de la laguna Socompa (3.650 msnm), Salta, Argentina. A. Parte del estromatolito donde se observa claramente su laminación. B. Microfotografía electrónicas de barrido que muestra el interior del estromatolito en detalle como un conjunto de minerales, algas y bacterias íntimamente relacionados. Barra: 1 μm. Fotografías de las autoras.

Algunos tapetes se llegan a mineralizar por la misma actividad microbiana, se constituyen en verdaderas “rocas vivas” y pasan a denominarse microbialitas. Dentro de las microbialitas, los estromatolitos se destacan por su importancia y valor ecológico. Estas estructuras sedimentarias macroscópicas laminadas forman parte de los registros fósiles más antiguos de la Tierra y por lo tanto proporcionan una fuente potencialmente importante de información acerca de los inicios de la vida. Los ejemplos preservados más antiguos de estas formaciones datan de más de tres mil millones de años de antigüedad y se encuentran principalmente en Australia Occidental y Sudáfrica. No obstante, los estromatolitos modernos han sido registrados hasta ahora en pocos lugares: en Bahía Tiburón, en Australia occidental; la Laguna Salada, en el estado de Río Grande del Norte, en Brasil, o en los cayos de Exuma, en las Bahamas. En aguas interiores están en Cuatro Ciénagas, en el desierto del estado mexicano de Coahuila, y en los Estados Unidos, en géiseres del parque nacional Yellowstone, en el estado de Wyoming, y ahora también en las LAPA donde fueron descubiertos en 2009. Los estromatolitos de la laguna Socompa (3.650 msnm) proliferan en la orilla oriental de este cuerpo de agua y son el primer hallazgo de estromatolitos a tal altitud, sometidos a alta radiación ultravioleta, baja presión de oxígeno en la atmósfera, grandes cambios de temperatura y un ambiente volcánico. Un análisis más profundo de los estromatolitos de Socompa (v. figura 5) demostró que ellos están constituidos por una especial combinación de minerales –carbonatos cálcicos–, bacterias y algas, tanto procariotas (cianobacterias) como eucariotas (diatomeas). Por su condición extrema, ofrece una gran oportunidad para avanzar nuestro conocimiento del origen de la vida, la biodiversidad y la bioprospección de compuestos de interés biotecnológico. Entre las moléculas de estromatolitos con potenciales aplicaciones, podemos incluir a los exopolisacáridos (EPS), especie de gelatina que se encuentra cubriendo las células y que mantiene

38 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

a todos los microbios juntos. Los EPS se aplican actualmente en alimentación, industria, productos farmacéuticos y medio ambiente. Como ejemplos de su uso, mencionamos que en la industria se los usa como viscosificantes para facilitar la recuperación de petróleo, mientras que si se los agrega a los alimentos actúan como agentes estabilizantes, texturizantes y gelificantes. Otro interesante aspecto del estudio de microorganismos que normalmente viven en estrecha asociación con minerales es que ellos son potenciales generadores de nuevos materiales, especialmente de nanomateriales, campo de investigación de punta por el boom actual de la nanotecnología. De hecho, en estromatolitos recogidos en el lago Alchichica en México, los científicos descubrieron una nueva especie de cianobacteria, que, mediante un mecanismo de biomineralización especial, forma nanopartículas de carbonato de calcio intracelular de alrededor de 270 nanómetros (270 millonésimas de un metro). Mientras que en algunas cianobacterias de los estromatolitos se conoce la formación de carbonato de calcio extracelular, la formación de estos materiales dentro de la propia célula no había sido descrita anteriormente. Debido a que los estromatolitos de Socompa soportan condiciones de extrema irradiación UV, esperamos encontrar en los mismos muchos compuestos o biominerales capaces de reflejar y proteger de esta radiación dañina, es decir aplicaciones en el ya mencionado campo de la fotoprotección inteligente. Conclusiones Las LAPA han demostrado ser un ambiente extremo con una gran diversidad de organismos diminutos en relación con su tamaño pero de gran porte en relación con su importancia ecológica en el propio ecosistema. Los microorganismos han desarrollado estrategias especiales para sobrevivir ante las hostiles condiciones imperantes en las LAPA; por lo tanto, conocer sus mecanismos y moléculas implicadas en esta capacidad puede a llevar a


desarrollar nuevas aplicaciones para el mejoramiento de la calidad de vida humana, sobre todo en lo que se refiere a temas actuales que exigen soluciones estratégicas como los campos de la energía, la alimentación, los medicamentos, la industria y el medio ambiente. Apenas ahora estamos empezando a comprender el potencial de los productos extraíbles de estos “súperbichos”, por lo cual resulta de capital importancia tanto su estudio exhaustivo, como su protección frente a las amenazas de explotación minera de la región. La Puna y sus fascinantes microbios son un legado para toda la humanidad: los científicos son los encargados de ayudar a comprender mejor su importancia, mientras que la sociedad toda es responsable de su cuidado y preservación.

Agradecimientos Las autoras agradecen el apoyo financiero para sus proyectos de investigación de instituciones de ciencia y tecnología de Argentina y Europa (MINCyT, ANPICyT, CONICET, CIUNT, DAAD, Sociedad Max-Planck, Marie Curie Actions). Agradecemos también a los becarios e investigadores que hicieron parte de las expediciones a las LAPA. Los créditos de las fotos corresponden a las autoras y a Diego Toneatti y la Dra. Albarracín. Las fotos de microscopía electrónica fueron tomadas en el Laboratorio de Microscopía Electrónica de la Universidad Nacional de Tucumán del Noroeste Argentino (Lamenoa). •

Referencias [1] Albarracín VH, Alonso-Vega P, Trujillo ME, Amoroso MJ, Abate CM. Amycolatopsis tucumanensis sp nov., a copper-resistant actinobacterium isolated from polluted sediments. International Journal of Systematic and Evolutionary Microbiology 2010; 60: 397-401. [2] Albarracín VH, Dib JR, Ordóñez OF, Farías ME. A harsh life to indigenous proteobacteria at the andean mountains: Microbial diversity and resistance mechanisms towards extreme conditions. En: Proteobacteria: Phylogeny, metabolic diversity and ecological effects. Sezenna ML (ed.) Book series: Microbiology research advances. Nova Science Publishers, pp. 91-131; 2011. [3] Albarracín VH, Pathak, G Douki T, Cadet J, Borsarelli C, Gärtner W, Farías ME. Extremophilic Acinetobacter strains from high-altitude lakes in Argentinean Puna: Remarkable UV-B resistance and efficient DNA damage repair. Origin of Life and Evolution of Biospheres 2012; 42: 201-221. [4] Belluscio, A. High window on the past. Nature Digest 2009; 6: 34-36. [5] Belluscio, A. Hostile volcanic lake teems with life. Nature 2010; doi:10.1038/news.2010.161. [6] Cabrol NA, Grin EA, Kiss KT, Ács E, Grigorszky I, Szabò K, et al. Signatures of habitats and life in earth’s high-altitude lakes: clues to noachian aqueous environments on Mars. En: The geology of Mars. Chapman M. (ed.). Cambridge: Cambridge University Press, pp. 349-370; 2007. [7] Cavicchioli, R. Extremophiles and the search for extraterrestrial life. Astrobiology 2002; 2: 281-292. [8] Couradeau E, Benzerara K, Gerard E, et al. An early-branching microbialite cyanobacterium forms intracellular carbonates. Science 2012; 336: 459-462. [9] Di Capua C, Bortolotti A, Farías ME, Cortez N. UV-resistant Acinetobacter sp. isolates from Andean wetlands display high catalase activity. FEMS Microbiology Letters 2011; 317: 181-189. [10] Dib J, Motok J, Zenoff VF, Ordóñez O, Farías ME. Occurrence of resistance to antibiotics, UV-B, and arsenic in bacteria isolated from extreme environments in high-altitude (above 4400 m) andean wetlands. Current Microbiology 2008; 56: 510-517.

[11] Dib JR, Weiss A, Neumann A, Ordóñez O, Estévez MC, Farías ME. Isolation of bacteria from remote high altitude Andean lakes able to grow in the presence of antibiotics. Recent Patents on Anti-Infective Drug Discovery 2009; 4: 66-76. [12] Farías ME, Poire DG, Arroiu J, Albarracín VH. Modern stromatolite ecosystems at alkaline and hipersalyne high-altitude lakes at the Argentinean Puna. En: Tewari V. y J. Seckbach (eds.) Stromatolites: interaction of microbes with sediments. Cellular origin, life in extreme habitats and astrobiology book series 2011; 18: 427-441, Springer. [13] Fernandez-Zenoff V, Sineriz F, Farías ME. Diverse responses to uv-b radiation and repair mechanisms of bacteria isolated from high-altitude aquatic environments. Applied and Environmental Microbiology 2006; 72: 7857-7863. [14] Flores MR, Ordóñez OF, Farías ME. Isolation of UV-B resistant bacteria from two high altitude Andean lakes (4,400 m) with saline and non saline conditions. Journal of General and Applied Microbiology 2009; 55: 447-458. [15] Ordóñez OF, Flores MR, Dib JR, Paz A, Farías ME. Extremophile Culture Collection from Andean Lakes: Extreme Pristine Environments that Host a Wide Diversity of Microorganisms with Tolerance to UV Radiation. Microbial Ecology 2009; 58: 461-473. [16] Rothschild LJ, Mancinelli RL. Life in extreme environments. Nature 2001; 409(6823): 1092-101. [17] Sánchez LA, Gómez FF, Delgado OD. Cold-adapted microorganisms as a source of new antimicrobials. Extremophiles 2009; 13: 111-120. [18] Seufferheld MJ, Álvarez HM, Farías ME. Role of Polyphosphates in Microbial Adaptation to Extreme Environments. Applied and Environmental Microbiology 2008: 74: 5867-5874. [19] Weber S. Light-driven enzymatic catalysis of DNA repair: a review of recent biophysical studies on photolyase. Biochimica et Biophysica Acta 2005; 1707: 1-23. [20] Zenoff V, Heredia J, Ferrero M, Sineriz F, Farías ME. Diverse UV-B resistance of culturable bacterial community from high-altitude wetland water. Current Microbiology 2006; 52: 359-362.

Universidad de los Andes, Facultad de Ciencias 39


GENÉTICA Y AMBIENTE EN LA SUSCEPTIBILIDAD A

DESÓRDENES AFECTIVOS

Katherine Peña, Yvonne Gómez, María Claudia Lattig


Skrik (El grito). Edvard Munch, 1893. TĂŠmpera. 83,5 x 66 cm. Museo Munch, Oslo. Se publica con permiso del Nasjonalmuseet.


Genética y ambiente en la susceptibilidad a desórdenes afectivos*

Katherine Peña Estudiante de Maestría en Ciencias Biológicas de la Universidad de los Andes, kp.pena53@uniandes.edu.co.

Yvonne Gómez Dr. phil. Profesora Asociada del Departamento de Psicología de la Universidad de los Andes, yvgomez@uniandes.edu.co.

María Claudia Lattig Ph.D. Profesora Asistente del Deparatamento de Ciencias Biológicas de la Universidad de los Andes, mlattig@uniandes.edu.co

Las enfermedades y su origen Algunas enfermedades tienen un origen genético como la hemofilia –la deficiencia en el proceso de coagulación de la sangre– o la fenilcetonuria (PKU) –una incapacidad para metabolizar correctamente el aminoácido tirosina en el hígado–. Se sabe que estas dos enfermedades se producen por mutaciones o daños en regiones específicas del ADN. También se conoce su modo de herencia y cómo se transmiten de padres a hijos, pues siguen los modelos genéticos propuestos por Gregorio Mendel. Estas enfermedades se llaman “enfermedades mendelianas”. En algunos casos, para que una persona desarrolle una enfermedad mendeliana, basta con que uno de sus padres aporte el alelo dañado de un gen1; este patrón de herencia se llama “autosómico dominante”. En otros casos, para manifestar la enfermedad es necesario que los hijos hereden ambos alelos dañados del padre y de la madre, en un patrón de herencia “autosómica recesiva”. En general, las enfermedades mendelianas son poco frecuentes en la población y son conocidas como “enfermedades raras”. Existen otras enfermedades en las que la genética no juega ningún papel. Su desarrollo depende únicamente de la exposición de un individuo a determinados ambientes o agentes: intoxicaciones con sustancias químicas, sarampión o accidentes automovilísticos, por ejemplo. En medio de estos dos extremos, existe un amplio espectro de enfermedades en los que los factores genéticos y ambientales juegan un papel importante en su desarrollo. En este espectro se encuentran la mayoría de enfermedades humanas, denominadas “enfermedades complejas o multifactoriales”, porque dependen de la interacción entre la composición genética de una persona y su genotipo, y el ambiente al que ha estado expuesta. En algunos casos, para que se desarrolle una enfermedad multifactorial o compleja, debe intervenir una gran cantidad de genes e incluso más de un factor ambiental. De igual forma, la importancia que puede tener la genética o el ambiente en cada una de estas enfermedades puede ser diferente. Por esta razón, es difícil determinar la causa o etiología de estas enfermedades y sus patrones de herencia. Un ejemplo típico de enfermedad en la que interactúan los factores ambiental y genético es la diabetes. Tiene un carácter hereditario: si una persona tiene familiares que han sido

* Este documento es complementario al artículo “Negative affectivity moderated by BDNF and stress response”, publicado Perea CS, Paternina AC, Gomez Y, Lattig MC. Journal of Affective Disorders 2012; 136(3): 767-774. 1 Alelo: a pesar de que todos tenemos los mismos genes, éstos no son idénticos en todas las personas. Existen diferentes formas de un mismo gen y a estas formas se les conoce como alelos.

42 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


diabéticos, su probabilidad de desarrollar esta enfermedad aumenta. Sin embargo, su aparición también depende de la dieta, es decir, del ambiente al que haya estado expuesta. De esta forma, para que se desarrolle la diabetes, se necesita tener un componente genético determinado y una dieta alimenticia particular. El modelo de enfermedad compleja también ha sido empleado para explicar la aparición de enfermedades como: Alzheimer, Parkinson, algunos tipos de cáncer, hipertensión y trastornos psiquiátricos o psicológicos. La depresión y la ansiedad como enfermedades multifactoriales El modelo de enfermedad compleja o multifactorial ha sido propuesto para explicar la etiología de enfermedades psiquiátricas como la depresión y la ansiedad. Descubrir la forma en que interactúan los diferentes factores genéticos y ambientales fue el propósito de este estudio, que se centró en dos desórdenes afectivos: la depresión y la ansiedad, cuyos factores psicosociales y genéticos pasamos a enunciar. El contexto social es determinante en el desarrollo de desórdenes afectivos, y los psicólogos han demostrado que eventos traumáticos en la infancia, como el abuso físico, emocional y sexual, y otros eventos estresores menores son factores de riesgo importantes en su desarrollo [1]. Se sugiere que los eventos Hiperactivación fisiológica Bajo afecto positivo

traumáticos en la infancia tienen más relevancia debido a que en esta etapa el individuo está formando las redes neuronales críticas para las funciones cognitivas y comportamentales de la etapa adulta [2, 3]. Por su parte, los factores estresores menores –acontecimientos de menor impacto pero más frecuentes en la vida cotidiana– pueden incluir problemas familiares, económicos, académicos y cotidianos, como romper o perder algo, o estar en una congestión de tráfico [4]. Sin embargo, algo que inquieta a los científicos es que no todos los individuos expuestos a estos eventos desarrollan desórdenes afectivos, y sugieren que hay individuos más susceptibles a los efectos de dichos eventos. Entonces, una de las grandes preguntas es: ¿por qué algunos individuos desarrollan desórdenes afectivos frente a esos eventos traumáticos o estresores menores mientras que otros no? La hipótesis propuesta por la comunidad científica es que los desórdenes afectivos se podrían explicar por medio de una interacción genética-ambiente, como ocurre con las enfermedades complejas. En esta hipótesis, alelos riesgosos presentes en nuestro genoma podrían explicar esta “sensibilidad diferencial” entre las personas [5]. Genes implicados en la vía serotoninérgica y neurotrófica fueron los primeros candidatos en ser estudiados. El primer estudio que trató de demostrar una interacción genambiente fue el de Caspi y sus colaboradores [6], en 2003, quienes pusieron en evidencia una interacción entre variaciones genéticas del transportador de serotonina y la cantidad de eventos estresores vividos por una persona. Los investigadores encontraron que los individuos que tenían alelos riesgosos, y que además habían tenido una cantidad importante de eventos estresores, eran más susceptibles a desarrollar desórdenes afectivos. Aunque la hipótesis de Caspi y sus colaboradores llamó mucho la atención, la replicación de estos estudios ha dado resultados contradictorios. Esto llevó a nuestro grupo de investigación a cambiar un poco esta hipótesis, y a pensar que probablemente no era simplemente la cantidad de eventos estresores la que interactuaba con las variaciones genéticas, sino la intensidad de la respuesta del individuo frente a estos eventos y el período de la vida en que sucedieron.

Ansiedad

Depresión

Afectividad negativa Fig. 1. Modelo tripartito. Explica los componentes de la depresión y la ansiedad. Elaboración de las autoras.

Por lo tanto, quisimos evaluar si el desarrollo de un desorden afectivo como la depresión o la ansiedad puede estar relacionado con una interacción entre el genotipo del individuo y su vulnerabilidad al estrés, académico y personal, diferenciando, además, si el evento estresor fue vivido en la infancia, la etapa escolar o la etapa universitaria. Partimos de la siguiente hipótesis: si un individuo presenta un alelo riesgoso y percibe eventos estresores con mayor intensidad y durante épocas específicas de la vida, tiene una mayor probabilidad de desarrollar un desorden afectivo.

Universidad de los Andes, Facultad de Ciencias 43


Qué son y cómo se midieron la depresión y la ansiedad El modelo tripartito de Watson y Clark [7] ha sido utilizado para diferenciar la ansiedad de la depresión, basándose en factores de personalidad como la afectividad positiva (AP), la afectividad negativa (AN) y la hiperactivación fisiológica (HAF). La afectividad positiva se relaciona con el sentirse entusiasta, activo, alerta y con energía. Las personas con alta afectividad positiva se caracterizan por experimentar sentimientos de satisfacción, gusto, entusiasmo, energía, afirmación y confianza. La afectividad negativa representa una dimensión general de malestar subjetivo (distress). Se relaciona con una variedad de estados emocionales negativos, tales como disgusto, ira, culpa, miedo, nerviosismo y tristeza. La hiperactivación fisiológica se refiere a una mayor activación del sistema nervioso simpático por la cual la persona experimenta un mayor ritmo de frecuencia cardiaca, mayores niveles de hiperventilación, alta sudoración, entre otras sensaciones involuntarias. En este modelo tripartito, la depresión es un estado que se compone de niveles altos de AN y niveles bajos de AP, mientras que la ansiedad es un estado compuesto también por niveles altos de AN, pero con niveles altos de HAF. Por consiguiente, la depresión y la ansiedad son desórdenes afectivos que comparten una predisposición constante a experimentar emociones negativas. Por un lado, la depresión se caracteriza por la presencia de sentimientos de tristeza y melancolía permanentes y por una pérdida del interés en cualquier tipo de actividad lúdica o que antes resultaba placentera. Por otro lado, la ansiedad se caracA

teriza por la presencia constante de sentimientos de temor, sin que exista algún peligro o riesgo inmediato. De esta forma, la afectividad negativa resulta ser el cimiento común para ambos desórdenes, y se define como una predisposición constante a experimentar emociones negativas. En nuestro estudio no se evaluó directamente la depresión o la ansiedad sino la afectividad negativa, que es un factor básico de los dos desórdenes y que además puede ser medido con encuestas o “inventarios” estandarizados y utilizados ampliamente por psicólogos. Por esta razón, de ahora en adelante nos referimos a la afectividad negativa en los resultados en lugar de mencionar desórdenes afectivos como depresión o ansiedad. Nuestra población: los estudiantes Un total de 375 estudiantes participaron voluntariamente en el estudio. De estos, 303 cumplieron con los criterios de inclusión establecidos, es decir: diligenciar el consentimiento informado, previamente aprobado por el comité de ética de la Universidad de los Andes, llenar completamente todos los cuestionarios psicológicos y donar una muestra de sangre para los estudios genéticos. La edad media de la población fue de 18 años, concentrada entre los 17 y los 19 años, y, como se muestra en la figura 2A, la proporción hombre: mujer fue casi 1:1. Los estudiantes que participaron en el estudio pertenecían a los diferentes programas de pregrado que se ofrecen, sin que esto refleje necesariamente las proporciones en que se reparten en la universidad (figura 2B). B

100 Ciencias Sociales 12 %

90

Otras 11 %

80 70

Porcentaje

60 50

Mujeres 51,2 % Hombres 48,8 %

40 30 20 10 0 Fig. 2. Porcentaje de participación de los estudiantes: A. Por sexo. B. Por facultad. Elaboración de las autoras.

44 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

Ingeniería 46 %

Medicina 13 % Ciencias 18 %


Medición de la afectividad negativa

36 35

Como ya se ha afirmado, los diferentes tipos de afectividad negativa son las variables dependientes del estudio que se midieron con los siguientes cuestionarios:

30 28 27 26

Puntajes del cuestionario IDER

25 24 23 22 21 20 19

18 17 16 15 14 13

12 11 10 0 10 20 30 40 Frecuencia Fig. 3. Distribución de puntajes del cuestionario IDER en la muestra poblacional. En rojo los estudiantes que obtuvieron puntajes por encima del punto de corte. Elaboración de las autoras.

En cuanto a los resultados del cuestionario IDER, encontramos que un 20,8% de los estudiantes participantes presentan afectividad negativa relacionada con la depresión (figura 3). La media de la población (17,59) estuvo por debajo del valor de corte, resultado que esperábamos dado que el estudio se realizó en una población sana. Para el cuestionario STAI, un 27,3% de los participantes presentan afectividad negativa asociada con la ansiedad (figura 4). La media de la población para el STAI (22,18) también estuvo por debajo del punto de corte. Adicionalmente, el 14,5% de la población estudiantil presenta ambos tipos de afectividad negativa, ansioso y depresivo, mientras que el 66,4% no presentó puntajes críticos en ninguno de los dos cuestionarios.

52 48 45 43 41 39 37 35 Puntajes del cuestionario STAI

Inventario de Depresión Estado-Rasgo (IDER): permite medir la afectividad negativa característica de la depresión en una escala que va desde 0 hasta 40. Según la usanza de este cuestionario, se consideró que una persona presentaba afectividad negativa relacionada con depresión, si el puntaje en el cuestionario era de 21 o más; de lo contrario, no la presentaba. Inventario de Ansiedad Estado-Rasgo (STAI): permite medir la afectividad negativa relacionada con sintomatología ansiosa, y va desde 0 hasta 60. En este cuestionario se consideró que una persona presentaba afectividad negativa relacionada con ansiedad, si el puntaje en el cuestionario era de 27 o más; de lo contrario, no la presentaba. Se consideró otra variable que se desprende de las dos anteriores, considerando que la persona presentaba ambos tipos de afectividad negativa si su puntaje en el cuestionario IDER era de 21 o más y su puntaje en el cuestionario STAI era de 27 o más. Esta variable que denominamos “comórbida”, también tiene dos valores, según existan o no los dos tipos de afectividad negativa.

33 31 29 27 25 23

Factores genéticos

21 19 17 15 13 11 9 7 5 0 2 4 6 8 10 12 14 16 18 Frecuencia

Fig. 4. Distribución de puntajes del cuestionario STAI en la muestra poblacional. En rojo los puntajes por encima del punto de corte. Elaboración de las autoras.

Se ha reportado en diversos estudios realizados tanto en humanos como en animales que la alteración en la función serotoninérgica cerebral está asociada a estados depresivos, siendo la concentración del neurotransmisor serotonina (5-HT) en el cerebro de individuos depresivos mucho más baja que la encontrada en individuos control [8]. El gen del transportador de serotonina (SLC6A4) codifica para una proteína que se encarga de regular el transporte del neurotransmisor conocido como serotonina, con el fin de controlar la señalización neuronal. Juega un papel crucial en la regulación de la concentración de serotonina, actuando como un recaptador de esta molécula en la neurona

Universidad de los Andes, Facultad de Ciencias 45


Fig. 5. Frecuencias genotípicas en la población de estudio. Nota: Los genotipos con alelos Stin2.9 tuvieron porcentajes nulos o cercanos a cero en la población estudiada. Elaboración de las autoras.

5-HTTLPR S/L 50 % S/S 30 % L/L 20 %

STin2 12/12 45 % 10/12 42 % 10/10 13 %

presináptica y regulando la intensidad y duración de la señalización serotoninérgica en la sinapsis. Además, esta proteína es el sitio de acción de varias drogas psiquiátricas, como los Selective Serotonin Reuptake Inhibitor (SSRI), utilizadas comúnmente en el tratamiento de la depresión [9]. El gen SLC6A4 tiene dos regiones que pueden tener diferentes formas en una misma población. La primera, llamada 5-HTTLPR, se encuentra al principio del gen, en el sector conocido como promotor. En algunas personas la región 5-HTTLPR es más corta, y en estos casos el alelo se conoce como short (S); en otras personas es una región más larga: long (L). La segunda es una región variable, denominada STin2, que está ubicada en el segundo intrón, región no codificante del gen. En esta región se han identificado tres alelos: Stin2.9, Stin2.10 y Stin2.12 que también difieren en su tamaño. Otra proteína involucrada en la vía serotoninérgica es el receptor de serotonina 1A, que recibe las señales de serotonina y permite desencadenar una respuesta por parte de la neurona a la que pertenece. Esta proteína es codificada por el gen 5-HTR1A en donde también existe una variación genética en la región promotora que se conoce como C(-1019)G. Algunas personas portan alelos que en esta posición del gen llevan el nucleótido citocina (C), mientras otras llevan el nucleótido guanina (G). Por otra parte, el gen BDNF codifica para una proteína llamada factor neurotrófico derivado de cerebro que es sumamente importante para el crecimiento, desarrollo y supervivencia de las neuronas. En el gen BDNF también existe una variación genética denominada Val66Met. Los alelos diferentes se denominan Val y Met, puesto que las proteínas codificadas se diferencian en el cambio de un aminoácido valina por un aminoácido metiona. La distribución de los genotipos en nuestra población Al analizar el genotipo de los estudiantes, hay que tener en cuenta que cada individuo tiene un alelo que proviene del padre y otro de la madre. Encontramos que el genotipo más común para la variación 5-HTTLPR fue la combinación de un alelo S y el otro L con una proporción del 50,3%; a este genotipo lo denomi-

46 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

HTR1A C/G 51 % C/C 27 % G/G 22 %

BDNF Val/Val 74 % Val/Met 24 % Met/Met 2 %

namos S/L . Para la variación STin2, el genotipo más frecuente fue el Stin2.12/Stin2.12 –que abreviamos 12/12– con 44,7%, y, en el caso del 5-HTR1A, el genotipo más común fue el G/C, con 50,7%. Finalmente, la mayoría de estudiantes, el 73,8%, portaba el genotipo Val/Val para la variación Val66Met. La figura 5 muestra las proporciones de los demás genotipos para cada variación. Factores ambientales y su medición Para evaluar si existía una relación entre el desarrollo de afectividad negativa y algunas vivencias traumáticas en la infancia, les pedimos a los estudiantes que contestaran un tercer cuestionario en donde se les preguntaron datos acerca de su historia personal y familiar. Siguiendo lo reportado en la literatura, la pregunta más importante de este cuestionario indagaba acerca de posibles abusos psicológicos o físicos u otras vivencias traumáticas sufridas durante la infancia. Asimismo se preguntó si tenían historia previa de depresión. Por último, los estudiantes llenaron un cuarto cuestionario, de 83 preguntas, basado en el Undergraduate Stress Questionnaire (USQ) [10], pero más adaptado a la población específica. Este cuestionario evaluó el grado de estrés que eventos académicos y personales, ocurridos durante la infancia, la etapa escolar y la universidad, pudieron generar en cada estudiante. Esto se midió en una escala de 0 a 3, donde 0 significaba que el individuo no había experimentado tal evento, 1 significaba que el individuo había experimentado el evento pero no había generado estrés, 2 significaba que el evento había generado un estrés bajo que no afectó el funcionamiento diario del estudiante y 3 que el evento había generado un alto estrés, el cual afectó el desempeño diario del estudiante. Finalmente, se consideró que el nivel de estrés era “alto” si la cantidad de respuestas "3" estaba en cuartil superior. Resultados estadísticos Para los análisis estadísticos se utilizaron regresiones logísticas con interacciones2. Primero porque las variables dependientes 2 Se usó el paquete estadístico R.


–tener un alto o bajo nivel de afectividad negativa en los cuestionarios IDER, STAI o en ambos– eran categóricas o dicotómicas, para lo cual es recomendable la regresión logística. Segundo porque desde un principio se quiso encontrar si había interacción entre las variables independientes, por ejemplo entre los factores genéticos y los ambientales. Maltrato en la infancia y afectividad negativa Al analizar los datos, observamos que aquellos individuos que dicen haber experimentado vivencias traumáticas, como abuso psicológico o físico, tienden a obtener puntajes más altos en los cuestionarios IDER, STAI y en ambos (tabla 1). Al igual que la gran mayoría de estudios encontrados en la bibliografía, aquí observamos una asociación entre maltrato infantil y la afectividad negativa, relacionada tanto con la ansiedad como con la depresión. Sin embargo, debemos tener mucho cuidado al interpretar estos resultados, pues los datos acerca del maltrato fueron derivados de un cuestionario que cada individuo llenó de forma privada, y no de una entrevista personalizada con un psicólogo. Por otro lado, se debe tener en cuenta que los datos recogidos son de tipo retrospectivo y pueden crear un sesgo en el momento de contestar. Otros grupos de investigación en el mundo también han encontrado esta asociación entre maltrato y depresión o ansiedad [11,

12]; además, algunos investigadores han propuesto que patrones de pensamiento negativo pueden empezar a formarse en las personas a partir de la vivencia de eventos traumáticos ocurridos en la infancia [13]. En el aspecto neurobiológico, algunos investigadores han sugerido que los eventos ambientales negativos en la niñez pueden interferir en la regulación y la maduración de las estructuras cerebrales que se relacionan con las emociones [14]. Por lo tanto, nuestros datos podrían indicar que los eventos traumáticos evaluados pudieron propiciar el desarrollo de desórdenes afectivos en los estudiantes. Intensidad del estrés y afectividad negativa Como se puede observar en la tabla 2, encontramos una asociación entre el grado de estrés que generaron los eventos evaluados y la afectividad negativa; en general los estudiantes que sufrieron un mayor grado de estrés obtuvieron puntajes altos de afectividad negativa. Este es el primer estudio que busca relacionar el grado de intensidad de estrés percibido frente a eventos estresores (ocurridos durante la niñez, la etapa escolar y la universidad) con la afectividad negativa. En conclusión, para desarrollar afectividad negativa parece que no solo es importante vivir eventos traumáticos o estresores, sino que también es importante el grado de estrés que estos eventos generan en el individuo.

Tabla 1. Asociación entre vivencias traumáticas y afectividad negativa a partir de regresión logística. IDER

Maltrato en la infancia: Físico o psicológico

STAI

Comorbilidad

N (%)

OR Ajustado (I.C. 95%)

Valor p

OR Ajustado (I.C. 95%)

Valor p

OR Ajustadoc (I.C. 95%)

Valor p

68 (22,4)

1,97 (1,023-3,79)

0,042

2,19(1,17-4,10)

0,019

2,37 (1,14-4,91)

0,021

a

b

Tabla 2. Asociación entre intensidad del estrés y afectividad negativa analizada con regresión logística. IDER

STAI

N (%)

OR Ajustadoa (I.C. 95%)

Valor p

Infancia

59 (19,.5)

2,43 (1,24-4,75)

0,014

Colegio

85 (28,1)

2,07 (1,11-3,83)

0,026

Universidad

94 (31,0)

3,11 (1,69-5,70)

0,000

OR Ajustadob (I.C. 95%)

Comorbilidad Valor p

OR

Valor p

2,01 (1,04-3,86)

0,038

2,57 (1,20-5,47)

0,015

4,15 (2,30-7,49)

0,000

2,75 (1,36-5,55)

0,005

7,50 (4,10-13,7)

0,000

5,93 (2,85-12,35)

0,000

Alto estrés académico

Alto estrés personal Infancia

81 (26,7)

1,98 (1,06-3,67)

0,035

2,53 (1,40-4,57)

0,003

2,31 (1,15-4,67)

0,019

Colegio

86 (28,4)

2,62 (1,43-4,82)

0,003

3,83 (2,13-6,87)

0,000

3,5 (1,74-7,06)

0,000

Universidad

84 (27,8)

2,58 (1,40-4,76)

0,003

6,01 (3,28-10,98)

0,000

3,92 (1,94-7,9)

0,000

Explicación tablas 1 y 2: Es semejante a la de la tabla 1. La primera columna muestra el número de estudiantes y, entre paréntesis, el porcentaje. El estadístico de prueba en la regresión logística es OR (odds ratio o razón de momios), para lo cual se da su valor y un intervalo de confianza (I.C.) de 95%. En todas las pruebas estadísticas, el valor p < 5% muestra que la relación entre las variables es significativa. Los valores de OR han sido ajustados para tomar en cuenta efectos de otras variables en el estudio: a Uso de drogas psicoactivas e historia previa de depresión, para el cuestionario IDER; b Sexo e historia previa de depresión, en el caso del cuestionario STAI; c Historia previa de depresión en el caso de la comorbilidad.

Universidad de los Andes, Facultad de Ciencias 47


Hábitos y afectividad negativa Probabilidad de obtener un puntaje alto en el IDER

En el tercer cuestionario también se les preguntó a los estudiantes acerca de su actividad física, hábitos alimenticios, tabaquismo, uso de alcohol y de sustancias psicoactivas, con el fin de determinar si existía una asociación entre estos factores y la afectividad negativa. Encontramos que el uso de sustancias psicoactivas está asociado con la afectividad negativa depresiva (p = 0,04), mientras que la ausencia de actividad física se asoció con afectividad negativa de tipo ansiosa (p = 0,045).

0,8

Estudios previos de otros investigadores encontraron algo similar a nuestros resultados: una interacción entre el gen BDNF y eventos estresores, que aumentaba el riesgo a desarrollar rasgos relacionados con depresión y ansiedad [15]. ¿Cómo podríamos explicar este resultado? Se sabe que los niveles de BDNF y la función de esta proteína cambian a lo largo de la vida. Se cree que en etapas tempranas del desarrollo la función del BNDF se relaciona con el desarrollo de esquemas de comportamiento, así que un mal funcionamiento de esta proteína en estas etapas puede generar desórdenes afectivos como la depresión o la ansiedad. Se ha visto que el alelo Met causa deficiencias en el transporte, secreción y actividad de la proteína BDNF, y que además los eventos estresores también pueden disminuir esta provisión de factores neurotróficos en ciertas áreas del cerebro [16]. Estas dos condiciones, sumadas a la suscep-

48 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

Val/Val Val/Met o Met/Met

Probabilidad de obtener un puntaje alto en el STAI

0,6

0,4

0,2

0,0

Val/Val Val/Met o Met/Met

0,8 Probabilidad de obtener un puntaje alto conjunto de AN

El resultado del análisis estadístico nos mostró una interacción gen-ambiente. En este caso, los individuos que poseen la variación genética Met del gen BDNF y que además respondieron con alto grado de estrés tienen mayor probabilidad de padecer de afectividad negativa. Ahora bien, es importante detenernos y analizar en detalle esta interacción; primero enfoquémonos en la respuesta al estrés en la niñez. Como nos muestra la figura 6, podemos observar que los individuos que respondieron alto estrés en la infancia (marcado por las barras en color rojo) tuvieron una mayor probabilidad de desarrollar afectividad negativa ansiosa, depresiva y conjunta solo cuando portaban el alelo Met.

0,2

0,8

0,6

0,4

0,2

0,0

Val/Val Val/Met o Met/Met

Bajo estrés

Alto estrés

Fig. 6. Interacción gen-ambiente en la afectividad negativa. Probabilidad de desarrollar afectividad negativa –medida por las variables IDER, STAI y comorbilidad– versus las variables genéticas Val y Met del gen BDNF, y la variable ambiental “estrés en la niñez”. Elaboración de las autoras.

0,5 Probabilidad de obtener un puntaje alto conjunto de AN

Afectividad negativa e interacción entre percepción del estrés y la genética

0,4

0,0

Interacción gen-ambiente en la afectividad negativa Finalmente, como la teoría acerca de las enfermedades complejas supone que el desarrollo de este tipo de enfermedades depende de la interacción entre el factor ambiental y el genético, realizamos los siguientes dos análisis: por un lado evaluamos la interacción entre percepción del estrés y la genética como predictores de afectividad negativa, y por otro lado, la interacción entre la vivencia de eventos traumáticos y la genética como predictores de afectividad negativa.

0,6

0,4 0,3 0,2 0,1 0,0

C/C No maltrato

C/G o G/G Maltrato

Fig. 7. Interacción gen-ambiente en la afectividad negativa. Probabilidad de desarrollar afectividad negativa –medida por las variable comorbilidad– versus las variables genéticas C y G del gen HTR1A, y la variable ambiental “maltrato en la niñez”. Elaboración de las autoras.


tibilidad al estrés, podrían afectar estas etapas críticas para la formación de los patrones de comportamiento, lo que generaría una alta susceptibilidad a desarrollar desórdenes afectivos.

Referencias [1] Brown J, Cohen P, Johnson JG, Smailes EM. Childhood abuse and neglect: Specificity of effects on adolescent and young adult depression and suicidali-

Afectividad negativa e interacción entre la genética y maltrato en la infancia

ty. Journal of the American Academy of Child & Adolescent Psychiatry 1999; 38(12): 1490-1496. [2] Gunnar M, Quevedo K. The neurobiology of stress and development. Annual

Asimismo, al analizar si existía una interacción entre alguno de los alelos estudiados y la vivencia de eventos traumáticos en la infancia (maltrato físico y psicológico), que podría relacionarse con el desarrollo de afectividad negativa, encontramos que la variación en el gen HTR1A puede ser parte de esta interacción. Los datos nos mostraron que la probabilidad de desarrollar altos niveles de afectividad negativa conjunta aumenta significativamente cuando se han vivido experiencias traumáticas en la infancia y, además, se porta el alelo G de esta variación (figura 7).

Review of Psychology 2007; 58: 145-173. [3] Irish L, Kobayashi I, Delahanty DL. Long-term physical health consequences of childhood sexual abuse: A meta-analytic review. Journal of Pediatric Psychology 2010; 35: 450-461. [4] Sandin B. El estrés. Manual de psicopatología, vol. 2. Madrid: McGraw-Hill; 1995. [5] Kendler KS, Prescott CA, Myers J, Neale MC. The structure of genetic and environmental risk factors for common psychiatric and substance use disorders in men and women. Archives of General Psychiatry 2003; 60(9): 929-937. [6] Caspi A, Sugden K, Moffitt TE, Taylor A, Craig IW, Harrington H, et al. Influence

Conclusiones

of life stress on depression: Moderation by a polymorphism in the 5-HTT gene. Science 2003; 301(5631): 386-389.

Prevalencia: la prevalencia de afectividad negativa en estudiantes de la Universidad de los Andes es de 20,8% y 27,3%, basados en los cuestionarios IDER (afectividad negativa relacionada con la depresión) y STAI (afectividad negativa relacionada con la ansiedad), respectivamente. Estos resultados son similares a los reportados en otras universidades colombianas y son más altos a los reportados en la población general. Aunque la mayoría de estudiantes no supera un puntaje clínicamente significativo, estos datos podrían indicar cierto nivel de riesgo en esta población a desarrollar, eventualmente, un trastorno psicológico.

[7] Watson D, Clark LA, Carey G. Positive and negative affectivity and their relation to anxiety and depressive disorders. Journal of Abnormal Psychology 1988; 97(3): 346-353. [8] Lesch KP, Bengel D, Heils A, Sabol SZ, Greenberg B, Petri S, et al. Association of anxiety related traits with a polymorphism in the serotonin transporter gene regulatory region. Science 1996; 274: 1527-1531. [9] D’Souza UM, Craig IW. Functional genetic polymorphisms in serotonin and dopamine gene systems and their significance in behavioural disorders. Progress in Brain Research 2008; 172: 73-98. [10] Crandall CS, Preisler JJ, Aussprung J. Measuring life event stress in the lives of college students: the Undergraduate Stress Questionnaire (USQ). Journal

Interacción gen por ambiente: de acuerdo con los resultados, encontramos que al igual que en otras enfermedades multifactoriales, en enfermedades psiquiátricas la genética y el ambiente (eventos estresores o traumáticos) juegan un papel importante en el desarrollo de enfermedades psiquiátricas. Dentro de los resultados más importantes cabe resaltar que el ambiente por sí solo tiene un rol significativo en el desarrollo de estas condiciones. Sin embargo, no es la única explicación, dado que no todos los individuos que han experimentado alguno de los eventos estresores o traumáticos llegan a desarrollar un trastorno psiquiátrico. Es así como variaciones genéticas, junto con experiencias vividas, interactúan para generar un fenotipo en particular. Nosotros encontramos que el efecto del alelo Met en el gen BDNF se hace más evidente cuando se reportan eventos estresores en la etapa de la infancia, mientras que en las otras etapas estudiadas las variantes genéticas no juegan un papel tan importante. Este resultado apoya la hipótesis de que el BDNF tiene un rol mayor en la niñez cuando, además de la presencia de bajos niveles de BDNF [17], las redes neuronales [18] y los esquemas adaptativos se están formando y son muy sensibles al efecto del ambiente. •

of Behavioral Medicine 1992; 15(6): 627-662. [11] Valentino K, Cicchetti D, Toth SL, Rogosch FA. Mother-child play and emerging social behaviors among infants from maltreating families. Developmental Psychology 2006; 42(3): 474-485. [12] Widom CS, White HR, Czaja SJ, Marmorstein NR. Long-term effects of child abuse and neglect on alcohol use and excessive drinking in middle adulthood. Journal of Studies on Alcohol and Drugs 2007; 68(3): 317-326. [13] Young J, Klosko J, Weishaar M. Schema therapy: A practitioner’s guide. New York: Guilford Publications; 2006. [14] Cirulli F, Laviola G, Ricceri L. Risk factors for mental health: Translational models from behavioural neuroscience. Neuroscience & Biobehavioral Reviews 2009; 33(4): 493-497. [15] Kim JM, Stewart R, Kim SW, Yang SJ, Shin IS, Kim YH, Yoon JS. Interactions between life stressors and susceptibility genes (5-HTTLPR and BDNF) on depression in Korean elders. Biological Psychiatry 2007; 62(5): 423-428. [16] Murakami S, Imbe H, Morikawa Y, Kubo C, Senba E. Chronic stress, as well as acute stress, reduces BDNF mRNA expression in the rat hippocampus but less robustly. Neuroscience Research 2005; 53(2): 129-139. [17] Casey BJ, Glatt CE, Tottenham N, Soliman F, Bath K, Amso D, et al. Brain-derived neurotrophic factor as a model system for examining gene by environment interactions across development. Neuroscience 2009; 164(1): 108-120. [18] Angelucci F, Brene S, Mathe AA. BDNF in schizophrenia, depression and corresponding animal models. Molecular Psychiatry 2005; 10(4): 345-352.

Universidad de los Andes, Facultad de Ciencias 49


http://genewikiplus.org/wiki/Superoxide_dismutase


EL MUNDO FASCINANTE DE LAS

METALOENZIMAS

James F. Weston, Óscar G. García


El mundo fascinante de las metaloenzimas

James F. Weston Dr. rer. nat. Profesor del Departmento de Química de la Universidad de los Andes, jweston@uniandes.edu.co

Óscar G. García Asistente graduado del Departamento de Química de la Universidad de los Andes, og.garcia33@uniandes.edu.co

Con la creciente disminución de los recursos fósiles, nos acercamos rápidamente a un dilema global: ¿de dónde vamos a obtener la energía que necesitamos en el futuro? Junto con este dilema, hay otro asociado directamente: los depósitos naturales de nitratos para fertilizantes también se están acabando rápidamente. ¿Cómo asegurar el sustento diario si la población mundial sigue creciendo? Afortunadamente, tenemos una solución parcial en el caso de los alimentos, pues somos capaces de producir fertilizantes usando el proceso industrial de Haber-Bosch1, que convierte el nitrógeno del aire en amoniaco, el cual, a su vez, se puede convertir fácilmente en fertilizante. No obstante, esta solución es extremadamente ineficiente debido al altísimo gasto de energía. Por ejemplo, en el 2008, el 40% de la población mundial se alimentó con base en fertilizantes producidos mediante el proceso Haber-Bosch y este proceso consumió el 2% de la energía mundial total en dicho año [1, 2]. En el aspecto bioquímico, la naturaleza ya ha solucionado ambos problemas de una manera muy elegante. El proceso de la fotosintesís garantiza que se obtenga toda la energía que necesita directamente del Sol y que las plantas obtengan el nitrógeno (fertilizante) mediante el proceso de “fijación de nitrógeno”. Ambos procesos fundamentales funcionan con la ayuda de una clase especial de catalizadores naturales: las metaloenzimas. Las metaloenzimas catalizan procesos bioquímicos difíciles o aun imposibles de realizar en el laboratorio, con velocidades increíbles y bajo condiciones ambientales (25° C y presión atmosférica). Los dos procesos anteriores son solamente dos ejemplos naturales (vide infra). El interés de los químicos en las metaloenzimas suele ser evidente pues queremos ser capaces de sintetizar catalizadores similares en nuestros laboratorios. A primera vista, las metaloenzimas son sistemas simples: la mayoría contienen un sitio activo con un ion metálico, que es el responsable de llevar a cabo la catálisis. Las estructuras de estos sitios activos nos recuerdan las de los complejos inorgánicos de metales de transición y “sabemos” cómo sintetizar 1 El proceso de Haber-Bosch fue patentado por el alemán Fritz Haber y comercializado en 1910 por Carl Bosch. Haber y Bosch recibieron el Premio Nobel de Química en 1918 y 1931, respectivamente, por sus trabajos y desarrollos en la aplicación de la tecnología de altas presiones y temperaturas.

52 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


Proceso industrial de Haber Bosch

Fijación enzimática del nitrógeno Fertilizante

25 °C Presión normal

400 °C 300 bar N2, H2 N2, H2

N2 + 3H2 Fe 2NH3

8H+ + 8e- + N2 2NH3 + H2

NH3 (I) Nitrogenasa

Imagen de los autores.

pequeños compuestos de este tipo. En este contexto muchos grupos de investigación en todo el mundo se han dedicado a duplicar la estructura enzimática de la vecindad del ion métalico con base en pequeños compuestos artificiales o biomiméticos. Pero el progreso en este campo no ha tenido mucho éxito. Grupo tras grupo ha logrado la síntesis de un biomimético potencial que duplica perfectamente la estructura alrededor del ion metálico del sitio activo de la enzima, ¡pero que generalmente no realiza la catálisis! Una relación simple entre estructura y función no se da para la mayoría de las metaloenzimas.

ha optimizado cada sistema por sí mismo, introduciendo modificaciones individuales.

Es evidente que nos falta comprender los mecanismos naturales de la catálisis metaloenzimática. Por suerte, los progresos en este campo han sido enormes y nuevos conocimientos surgen casi a diario; no obstante, estamos ahogados en un mar de detalles específicos sin una visión general.

Emil Fischer propuso en 1894 un modelo muy simple para la acción de una enzima: el modelo “llave-cerradura”2. Este modelo, que fue modificado por la teoría de la estructura de transición de Michael Polanyi en 19213 y las contribuciones de Linus Pauling en 19464, resultó un modelo básico que aún se usa para explicar la capacidad catalítica de enzimas.

La naturaleza no tiene una única estrategia, sino varias estrategias sumamente diversas. Según el profesor Truhlar “[…] each enzyme has its unique characteristics and enzymes use all possible means to achieve the ultimate objective of reducing the free energy of activation…” [3]. Si se extrapola esta observación, hay que considerar cada metaloenzima por separado (¡ya existen miles!) y, en consecuencia, no habría la posibilidad de obtener principios generales. En contravía a esta observación, la mayor parte del desarrollo en este campo se basa en un único modelo simplista de catálisis enzimática. La realidad se encuentra probablemente en el medio. En nuestra opinión, la naturaleza emplea una serie de estrategias generales para asegurar la capacidad básica de sus metaloenzimas y además, la evolución

Para un químico que está tratando de sintetizar un biomimético debe ser suficiente saber con cuál estrategia general está trabajando el sistema natural. Pero en este aspecto, falta literatura. No existen modelos generales para catalogar y comparar los distintos mecanismos de las metaloenzimas. El modelo básico

2 Hermann Emil Fischer (1852-1919), alemán, fue uno de los pioneros en el campo de la bioquímica molecular. Encontró que las proteínas están compuestas por aminoácidos, determinó las primeras estructuras moleculares de azucares simples y descubrió que la acción de las enzimas es específica. Por sus trabajos recibió el Premio Nobel de Química en 1902. 3 Michael Polanyi (1891-1976), fisicoquímico húngaro, desarrolló la teoría de estructuras de transición. Cuando una reacción química transforma un compuesto A en otro B, esta ocurre a través de una especie transitoria (T) que tiene una estructura intermedia entre la de A y la de B. 4 Linus Pauling (1901-1994), químico estadounidense, fue uno de los primeros químicos cuánticos y recibió el Premio Nobel de Química en 1954 por su trabajo sobre la naturaleza de los enlaces químicos. Es una de las pocas personas que ha recibido el Premio Nobel en más de una ocasión: también recibió el Premio Nobel de la Paz en 1962 por su campaña contra las pruebas nucleares terrestres. Fue un científico muy prólifico y contribuyó significantemente al desarrollo de varios campos, entre estos la biología molecular, en la cual hizo importantes descubrimientos sobre el funcionamiento de los catalizadores naturales: las enzimas.

Universidad de los Andes, Facultad de Ciencias 53


Sustrato

Producto Sitio activo

De hecho, se han identificado por lo menos cuatro estrategias generales y muy heterogénas bajo las cuales trabajan las metaloenzimas. Metaloenzimas de plantilla

Complejo enzima-sustrato

Complejo enzima-producto

Este modelo considera que una enzima –una macromólecula– tiene un pequeño sitio localizado en su superficie llamado “sitio activo” y propone que toda la actividad catalítica proviene de este sitio. Si la topología de este sitio –la cerradura– permite el paso del sustrato –la llave–, la enzima lo acepta. Se asume que la alta selectividad de las enzimas proviene de esta preselección topológica. Cuando el sustrato entra en el sitio activo se genera un intermediario enzima-sustrato [ES]. En este, la topología y características electrónicas del sitio activo ejercen una fuerza sobre el sustrato que lo polariza, desestabiliza y lo prepara para la reacción química. De este intermediario [ES] la reacción química alcanza el estado de transición [ET†]. El sitio activo interactúa directamente con el estado de transición disminuyendo, de esta forma, la energía de activación, ∆G†cat. [ET†]† ∆G cat †

∆G†enz

[EP] ∆Gdebind

∆G

E (+ P) E (+ S)

∆Gbind

∆Ggrad

[ES] Reacción

La estabilización del estado de transición y la destabilización del sustrato que provienen de interacciones específicas entre el sustrato y el sitio activo se consideran los dos factores más importantes que contribuyen a disminuir la energía de activación, ∆G†cat. La reacción química termina con la formación de un complejo enzima-producto [EP]. La evolución ha optimizado el sitio activo para tener poca afinidad con el producto, que puede fácilmente disociarse y salir del sitio activo. Este modelo básico sigue la cinética de Michaelis-Menten5 y describe una visión extremadamente simplificada de la actividad enzimática:

E+S

k1

[ES]

[ET†]† k [EP] 2 kcat

E+P

El comportamiento metaloenzimático más simple que se encuentra en la naturaleza, y que corresponde mejor a nuestro módelo básico, es el conocido como “metaloenzima de plantilla”. Su característica intrínseca es que el ion metálico está enlazado de manera permanente e irreversible a un pequeño sitio activo definido y localizado en la superficie de la enzima. La reacción química tiene lugar en este sitio. La tarea del ion metálico es la de reconocer al sustrato, interactuar con él para efectuar la reacción química y, finalmente, liberar el producto. En esta categoría, el ion metálico funciona como un verdadero catalizador y su acción es modificada solamente por la estructura del sitio activo en la vecindad inmediata. El resto de la enzima se puede considerar como balastro desde el punto de vista de la reacción química. Las características de las metaloenzimas de plantilla las hacen más accesibles para la síntesis de biomiméticos pequeños. Parece simple diseñar un compuesto pequeño artificial donde se duplica el ion metálico y sus alrededores inmediatos con base en un complejo de coordinación. Más del 90% de los trabajos publicados en este campo han sintetizado biomiméticas potenciales de acuerdo con este principio. El problema nuevamente es que: ¡la mayoría de estos compuestos no muestra ninguna actividad catalítica! Las razones para esto pueden ser varias. Una de ellas es que la enzima en la que se basa la biomimética no tiene una actividad “de plantilla”, sino un tipo de actividad mucho más compleja. En este caso, no se puede esperar una relación simple entre estructura y función. Por otra parte, enzimas del tipo plantilla suelen ser relativamente raras: muy pocas metaloenzimas funcionan de esta manera. Por ejemplo, se puede mencionar la niquel superóxido dismutasa6. Una corta sequencia artifical de 6 a 9 aminoácidos replica exactamente el sitio activo de la niquel superóxido dismutasa y muestra una alta actividad catalítica [4]. Otro problema grande con las biomiméticas a base de complejos de coordinación es que hay una diferencia esencial entre la estrategia plantilla de la naturaleza y la estrategia plantilla de la síntesis de complejos de coordinación, y esta diferencia es tan grande como la diferencia entre el modelo de Platón y el modelo de Copérnico y Galileo del sistema solar.

Hoy en día, sabemos que la mayoría de las metaloenzimas muestran desviaciones considerables a este comportamiento.

La naturaleza emplea la estructura peptídica de la enzima como un molde que acepta el ion metálico. El ion metálico es

5 El alemán Leonor Michaelis (1875-1949) y la canadiense Maude Menten (1879-1960) son conocidos por su trabajo en la cinética enzimática y concretamente por la formulación del modelo cinético de Michaelis-Menten.

6 Las superóxido dismutasas son una familia de enzimas capaces de destoxificar el anion radical superóxido (O2‑.). Una concentración celular elevada de esté radical anión en seres humanos es relacionada con muchas enfermedades patólogicas y parece ser uno de los factores significativos en el proceso del envejecimiento.

54 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


Sitio activo de la níquel superóxido dismutasa

Imagen de los autores.

solamente una pequeña parte de un sistema completo, la macromolécula. Si se quita el ion metálico, la enzima pierde su actividad, pero no se destruye el sistema. Normalmente, se puede reintroducir el ion metálico y la metaloenzima recupera su actividad catalítica. Cuando sintetizamos un complejo de coordinación, usamos el ion metálico como molde para organizar su alrededor que consta de ligandos orgánicos. El punto central del sistema, el ion metálico, fija estos ligandos a su alrededor mediante interacciones directas. Si se quita este centro metálico, se destruye completamente el compuesto artificial. Quizas es este uno de los factores determinantes para el no-funcionamiento de muchas biomiméticas artificiales. Sistemas secuenciales Otras metaloenzimas, particularmente las que están involucradas en metabolismos complejos como el ciclo de Krebs7, muestran una actividad catalítica totalmente diferente a la de una enzima de plantilla y se emplea el concepto de “secuencial” para describir el comportamiento de estos sistemas. Como las metaloenzimas de plantilla, las metaloenzimas secuenciales tienen un sitio activo localizado. Sin embargo, las características comunes terminan ahí, pues el ion metálico ahora forma parte intrínseca del círculo catalítico, interactuando con el sitio activo de manera reversible, entrando y saliendo como el 7 El ciclo de Krebs, descubierto por el alemán Hans Adolf Krebs (1900-1981) en 1937 (Premio Nobel de Medicina en 1953), es la ruta metabólica central de todos seres vivos aeróbicos (inclusive seres humanos) en la cual se degrada acetato (en forma de acetylCoA), que proviene de los carbohidratos, proteínas y grasas del alimento, para producir energía y precursores bioquímicos importantes para el funcionamiento y mantenimiento del organismo.

sustrato y el producto. Los sistemas secuenciales tienen varios estados distintos: al menos un estado inactivo y un estado activo. En el estado de inactividad E, el sitio activo está vacío, no contiene el ion metálico y la enzima en esta forma no reconoce el sustrato S.

M

M E

[EM]

[EM]

S

P

S [EMP]

[EMT]

[EMS]

El círculo catalítico inicia cuando el estado inactivo E acepta un ion metálico M para generar un intermediario enzima-ion metálico [EM]. Este activa la capacidad de la enzima de reconocer y fijar el sustrato, de lo que resulta un intermedario enzima-ionmetálico-sustrato [EMS]. En un sistema secuencial que depende de un ion metálico solamente, este representa el estado “activo”. A partir del [EMS] intermediario, la reacción química progresa hasta una estructura de transición [EMT†] y continúa a un intermediario enzima-ion metálico-producto [EMP]. El sitio activo no tiene una buena afinidad para el producto P, el cual se disocia fácilmente y deja un [EM]-intermediario que puede aceptar otro sustrato o perder su ion metálico, regresando de esta manera al estado inactivo E. Aunque existen enzimas secuenciales que dependen de un único ion metálico, son más comúnes las que involucran dos. En esta situación, el intermediario [EM1S] representa un estado adicional de preactivación. Ahora se requiere un ion metálico adicional M2,

Universidad de los Andes, Facultad de Ciencias 55


para llegar al estado activo [EM1SM2]. Solamente en la presencia de este segundo ion metálico se puede convertir el sustrato en el producto mediante la generación de un [EM1PM2] intermediario.

M1

M1 E [EM1] −P

[EM1]

S1

[EM1 P]

[EM1 S]

−M2 [EM1PM2]

Hemoglobina

+S +M2

[EM1TM2]

[EM1SM2]

El orden cinético de entrada y salida de los iones metálicos, el sustrato y el producto, es muy importante y da origen a la asignación “secuencial” de este tipo de actividad enzimática. El tamaño del sitio activo normalmente es un poco más grande respecto a una enzima de plantilla. Además, frecuemente se encuentran cambios dinámicos locales en la estructura del sitio activo. La actividad catalítica de esta categoría depende naturalmente de la biodisponibilidad del ion metálico. Los organismos pueden reporcionar una regulación a los procesos metábolicos que dependen de enzimas secuenciales en que simplemente se regula la concentración local de los iones metálicos. Seguramente, esta es una de las ventajas evolutivas que condujeron a la alta frecuencia de encontrar sistemas secuenciales en procesos metabólicos y redes de transducción de señales. En la actualidad no existe una estrategia sintética para llegar a compuestos artificiales capaces de duplicar una acción enzimática secuencial. Apenas estamos llegando a la capacidad de investigar esos sistemas de manera teórica con la ayuda de la química computacional. Los pocos sistemas secuenciales artificiales que tenemos fueron descubiertos más o menos por casualidad, sin que los químicos reconocieran sus características mecanísticas especiales. Pero, bajo éstos se encuentran algunos de los catalizadores artificiales más poderosos de la química que normalmente no se asocian con sistemas biomiméticos o con la bioquímica. El ejemplo más importante, tal vez, es la reducción de Noyori, un método excelente para obtener un alcohol asimétrico usando un catalizador quiral8. Esta reacción depende de la presencia de dos iones de zinc y se desarrolla sobre un mecanismo secuencial.

8 Los catalizadores quirales son tan importantes en la química sintética que las contribuciones del japones Royji Novori y los estadounidenses William S. Knowles y K. Barry Sharpless al campo de la catálisis asimétrica les mereció el Premio Nobel de Química en 2001.

56 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

Mecanismo alostérico de adsorción de oxigeno

Imagen de los autores.

Enzimas alostéricas Si aumentamos la complejidad, tenemos que mencionar los sistemas alostéricos descritos por Jefferies Wyman en 1965 [5]. En este caso, es imposible considerar la catálisis confinada a una región localizada de la enzima y no se puede hablar de un sitio activo aislado. Es cierto que la enzima fija el sustrato en un lugar definido llamado sitio activo o sitio alostérico, pero la fijación del sustrato induce un cambio de conformación espacial de la enzima por completo, de lo que resultan modificaciones críticas en otras ubicaciones que pueden ser muy lejanas del sitio alostérico. La hemoglobina, en los glóbulos rojos de la sangre, constituye un ejemplo importante de un sistema alostérico, aunque no sea una enzima en el sentido estricto, sino más bien una molécula de transporte encargada de transportar oxígeno de los pulmones hasta las células individuales que lo requieren. La hemoglobina se compone de cuatro subunidades, más o menos esféricas, que se unen en forma tetraédrica, una esfera encima de otras tres. Cada subunidad es un transportador por sí mismo y contiene un grupo hemo como sitio alostérico capaz de fijar reversiblemente una molécula de oxígeno. Es bastante particular que la fijación de una molécula tan pequeña como el oxígeno (peso molecular 32 gmol‑1) en uno de los cuatro sitios alostéricos induzca un cambio estructural en la proteína (peso molecular 64.000 gmol‑1).


La fijación del primer oxígeno aumenta la afinidad de la segunda subunidad por O2; la fijación del segundo O2 aumenta la afinidad para el tercero, etc. Este fenómeno llamado “cooperación positiva” asegura que la hemoglobina esté plenamente cargada al salir de los pulmones. Cuando la hemoglobina llega a una célula que necesita O2, este mecanismo cooperativo se revierte y la liberación del primer O2 facilita la sucesiva liberación de O2 de las otras subunidades. El comportamiento cooperativo de la hemoglobina es indispensable para el transporte eficiente del oxígeno dentro del cuerpo. Motores moleculares El comportamiento más complejo de una enzima individual es el de un motor molecular. Esta es una enzima o proteína capaz de transformar la energía química en movimiento físico –por ejemplo, las proteínas de los músculos– o de usar movimiento físico para generar energía química. Esta última estrategia emplea células para la síntesis del combustible celular esencial, el ATP (adenosín trifosfato), y ocurre en las membranas de la mitocondria con la ayuda de un motor molecular, la enzima ATP-sintasa, la cual está encargada de reciclar ADP, y un grupo fosfato:

energía + ADP + Pi → ATP Esta enzima se compone de un motor molecular llamado F0 que está anclado a la membrana mitocondrial y una cabeza móvil llamada F1.

El motor F0 está impulsado por un gradiente de protones (H+) y rota la cabeza móvil F1 en sentido horario. Esta cabeza es una proteína hexámerica compuesta de tres unidades α constructoras y tres unidades β catalíticas. Las tres subunidades β presentan una conformación diferente. Una adopta la conformación L (loose o semiabierta), otra la conformación T (tight o tensa) y la tercera la conformación O (open o abierta). La cabeza exhibe un mecanismo alostérico: las conformaciones de las tres subunidades cambian con una rotación de 120° del rotor F0. Una rotación completa de 360° de la cabeza provoca que cada subunidad β se cicle a través de sus tres conformaciones posibles:

L →T → O La síntesis de ATP se inicia en el estado L con la unión de ADP y Pi. Una rotación de 120°C cambia la conformación a T, que tapa el sitio activo y cataliza la formación del ATP. La siguiente rotación de 120° cambia la conformación a O, la cual abre nuevamente el sitio activo y deja libre el ATP. La siguiente rotación vuelve nuevamente al estado L, iniciando la siguiente ronda de síntesis. Por lo tanto, una rotación completa de la cabeza provoca la sintesís y liberación de tres moléculas de ATP. Conocido como binding change mechanism9, este mecanismo impulsado por un rotor mecánico permite una producción continua de ATP. Naturalmente existen sistemas celulares aun más complejos que los motores moleculares, pero en estos la naturaleza empieza a juntar sistemas individuales en la construcción de una “biofábrica”. • Referencias

F1 ATP

ADP + P

Rotor H

+

Fo

H+ Fuente: http://www.depts.ttu.edu/chemistry/Faculty/weber/.

[1] Erisman JW, Sutton MA, Galloway J, Klimont Z, Winiwarter W. How a century of ammonia synthesis changed the world. Nature Geoscience 2008; 1: 636-639. [2] Ritter, S. K. Calling all chemists. Chemical & Engineering News 2008; 86(33): 59-68. [3] Gao J, Ma S, Major DT, Nam K, Pu J, Truhlar DG. Mechanism and free energies of enzymatic reactions. Chemical Reviews 2006; 106: 3188-3209. [4] Schmidt M, Zahn S, Carella M, Schmidt A, Öhlenschläger O, Görlach M, Kothe E, Weston J. Solution structure of a functional biomimetic and mechanistic implications for nickel superoxide dismutases. ChemBioChem 2008; 9(13): 2135-2146. [5] Monod J, Wyman J, Changeux JP. On the nature of allosteric transitions: A plausible model. Journal of Molecular Biology 1965; 12(1): 88-118.

9 El estadounidense Paul D. Boyer y el inglese John E. Walker fueron galardonados en 1997 con el Premio Nobel de Química por “el descubrimiento de la síntesis de la molécula de al adenosina trifosfato”.

Universidad de los Andes, Facultad de Ciencias 57


PERDÓN, PROFESOR GODDARD Sergio de Régules

Ilustarción del amartizaje del módulo Curiosity, agosto 2012 Fuente: NASA, http://www.nasa.gov/mission_pages/msl/multimedia/gallery/pia14841.html


Perdón, profesor Goddard

Hacia el final de la Segunda Guerra Mundial los nazis empezaron a utilizar un arma nueva y mortífera para golpear al enemigo desde lejos: cohetes a reacción que llevaban explosivos. Las huestes de Hitler dirigieron una lluvia de misiles contra varias ciudades, pero principalmente contra Londres. Tras la invasión de los Aliados, el ejército de Estados Unidos se agenció uno de los artefactos. Con el aparato en un laboratorio, las autoridades llamaron al máximo experto en propulsión a chorro de Norteamérica, el profesor Robert Goddard, de Worcester, Massachusetts.

Sergio de Régules Físico de la Universidad Nacional Autónoma de México, sregules@universum.unam.mx

El científico se presentó con su ayudante, el cual, al ver el cohete, miró a su patrón y le dijo: —¿No es este uno de sus cohetes, profesor? Con una mezcla de asombro y tristeza, Goddard contestó: —Parece que sí. Un límpido atardecer de otoño, en 1899, Robert Goddard, de 17 años, se subió en un cerezo del huerto de su tía Czarina, en Massachusetts. El muchacho se puso a contemplar la puesta de sol, o quizá la salida de la luna llena. En eso, tuvo una visión que lo dejó sin aliento: ¡viajar al espacio! Tenía que haber una manera de lanzarse más allá de la atmósfera e ir a la Luna o incluso a Marte. Con los últimos resplandores del atardecer y bajo las primeras estrellas, Robert decidió dedicar el resto de su vida a desarrollar la tecnología que fuera necesaria para desprenderse del vínculo gravitacional de la Tierra y salir al espacio. “Cuando bajé del árbol”, escribió en su diario, “me pareció que mi vida por fin tenía un propósito”. Era el 19 de octubre, fecha que Robert Goddard celebró el resto de su vida como una especie de renacimiento personal. Unos 10 años después Goddard estaba haciendo experimentos en el Instituto Politécnico de Worcester. Empezó en un sótano probando tubos fijos con cámaras de combustión en las que ponía distintos tipos de pólvora. Los gases de la combustión salían expulsados por una tobera que los comprimía para sacarles más

60 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

Goddard con cohete de combustible líquido Fuente: NASA, http://www.nasa.gov/multimedia/imagegallery/image_feature_781.html.


energía. Robert Goddard medía el empuje y otros parámetros. Al poco tiempo las autoridades del instituto le pidieron que abandonara sus investigaciones: el ruido y el humo estaban alterando la paz del lugar.

cerezo. El Método no dice ni una palabra de la fantasía de ir a Marte que impulsaba secretamente a su autor; pero al parecer incluso la simple idea de llegar al espacio era demasiado fantasiosa para los contemporáneos de Goddard.

Antes de que los nazis desplegaran cohetes para atacar blancos de los Aliados casi nadie en Estados Unidos se había interesado en las investigaciones de Robert Goddard. Solo el Clark College, de Worcester, donde Goddard era catedrático de física, y la Institución Smithsoniana le habían dado algo de apoyo. En los años treinta el investigador empezó a recibir correspondencia de científicos alemanes que, al parecer, estaban muy interesados en la física de los cohetes. Para entonces Goddard se había vuelto más discreto de lo que era como resultado de un par de roces muy desagradables con la prensa.

El 13 de enero de 1920, en una reseña del librito, un editorialista del periódico New York Times se mofaba del científico de Worcester. ¿Cómo podía un cohete impulsarse en el espacio vacío, si no había atmósfera contra la cual reaccionar?, preguntaba el autor de la reseña. Luego se asombraba de que la Clark College y la Institución Smithsoniana cobijaran a una persona ignorante, que no tenía siquiera “los conocimientos que se imparten diariamente en las secundarias”.

El más desagradable ocurrió en enero de 1920. Unos meses antes, Robert Goddard había publicado un librito titulado Método para alcanzar altitudes extremas. En el libro explicaba sobriamente la termodinámica de la combustión y la mecánica del vuelo espacial, y sugería que los aparatos cuyos fundamentos quedaban establecidos en ese libro se podían usar para enviar instrumentos de medición a las regiones superiores de la atmósfera con el fin de zanjar enigmas meteorológicos y astronómicos. En la obra Goddard mantiene un tono mesurado que no delata al soñador juvenil cuya vida adquirió sentido luego de tener una visión beatífica mientras contemplaba el atardecer subido en un

Por supuesto, el que no poseía los conocimientos elementales de física era el editorialista del periódico, aunque no se lo reprocharía demasiado. Las leyes de Newton se enseñan muy mal en las escuelas de todos los países y todos los tiempos. Aunque sea conocimiento que se imparte en secundaria, se imparte mal y es natural que nadie lo entienda si no es físico o ingeniero. Dicho esto, tampoco es muy difícil convencerse de que los cohetes de Goddard sí funcionarían en el vacío. Cuando uno dispara un rifle –experiencia que no he tenido, pero que me puedo imaginar–, la culata le da una buena sacudida en el hombro. Este “culatazo” o “patada” es la reacción del rifle al impulsar la bala en la dirección opuesta. El rifle se impulsa contra la propia bala, que a su vez se impulsa contra el rifle. No hace falta atmósfera ni

Cohete V2 alemán de la Segunda Guerra Mundial Fuente: Exploracation 9.21.2012 http://exploracation.blogspot.com/.

Universidad de los Andes, Facultad de Ciencias 61


hicieron caso. Una década después empezaron a llover misiles alemanes sobre Londres, Amberes y otras ciudades europeas. Eso sí despertó el interés no solo de Estados Unidos, sino del Reino Unido y la Unión Soviética, que montaron operaciones militares para secuestrar a los científicos alemanes que desarrollaron la tecnología de los cohetes. Robert Goddard pudo haberse dado el gusto de clamar a los cuatro vientos “¡Se lo dije!”, pero no lo hizo y pronto veremos por qué. Para 1969, cuando el Apolo 11 llegó a la luna impulsado por un cohete de linaje goddardiano, ya nadie dudaba de lo importantes que habían sido los experimentos del joven soñador del cerezo. Al día siguiente del aterrizaje en la luna, el New York Times publicó una extraña disculpa. “En un editorial titulado ‘Temas del Momento’ del 13 de enero de 1920 descartamos la idea de que un cohete pudiera operar en el vacío”, dice la nota. Luego recuerda la mofa que hizo de Goddard el autor de esa nota y añade: “Con más investigaciones y experimentos se han podido confirmar los descubrimientos que hizo Isaac Newton en el siglo XVII y hoy está bien establecido que los cohetes pueden funcionar tanto en el vacío como en la atmósfera. Lamentamos el error”.

Apollo 11 lanzado por cohete Saturn V. Fuente: NASA, http://history.nasa.gov/ap11ann/kippsphotos/KSC-69PC-442.jpg.

pared sólida para que el hombro sienta un fuerte impacto en la dirección opuesta a la de la bala y está claro que si disparamos en el vacío sentiremos lo mismo. Si me pongo patines y disparo, el culatazo me impulsará hacia atrás y empezaré a moverme, aunque quizá muy despacio. Podría entonces disparar otra bala y otra y otra… y a cada disparo se me añadiría un poco de impulso en la dirección opuesta. Poco a poco adquiriría más y más velocidad, siempre y cuando siguiera disparando. El cohete de Goddard funciona igual, pero en vez de balas disparadas por un rifle, lo que expulsa son los gases de la combustión. Las partículas de estos gases son más pequeñas que las balas, pero al mismo tiempo son más veloces y numerosas. El impulso contrario que le imprimen al cohete puede ser mucho más grande que el de los disparos sucesivos con rifle. La propulsión a reacción no solo funciona perfectamente en el vacío: expulsar masa en la dirección contraria es la única manera de acelerarse en ese medio. Hasta Newton, en el siglo XVII, habría podido decírnoslo, aunque él no se haya imaginado nunca un cohete. Cuando en los años treinta los alemanes de pronto se interesaron mucho en los cohetes, Goddard reaccionó con recelo. No les reveló nada acerca de sus investigaciones y sin demora ofreció sus resultados a Washington, pero los militares de su país no le

62 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

Ofrecer disculpas por un insulto inmerecido es de mínima decencia y el New York Times hizo bien en publicar esta nota. Lo malo es que Goddard no pudo aceptar la disculpa porque había muerto en 1945, lo que le resta un poco de impacto al gesto. Más impacto le resta aún la forma en que está redactada la nota. En una buena disculpa uno reconoce sus errores, no trata de justificarlos, y mucho menos trata de justificarlos volcando la responsabilidad sobre el destinatario de la disculpa. Y sin embargo, fíjense en el último párrafo. Así como está redactado da a entender que cuando Goddard hizo sus experimentos no había razón para confiar en “los descubrimientos que hizo Isaac Newton en el siglo XVII”, los cuales solo habrían adquirido credibilidad tras investigaciones y experimentos que se llevaron a cabo después de los de Goddard. El pobre hombre sigue quedando como un loco temerario que desperdició tiempo y dinero en perseguir una quimera basada en ideas sin fundamento. La disculpa se puede leer como un nuevo insulto y, desde luego, como una nueva pifia del New York Times, donde al parecer ignoran que la mecánica de Newton ya estaba muy bien establecida más de 200 años antes y que los viajes espaciales eran apenas el más reciente de la larga lista de éxitos que Newton llevaba acumulados desde hacía casi tres siglos. Los “descubrimientos” de Isaac Newton estaban plenamente asimilados por lo menos desde el siglo XVIII, cuando Edmond Halley los usó para predecir el regreso de un cometa que se presentó puntual a la cita. A fines de ese siglo Pierre Simon de Laplace erigió una monumental teoría de los movimientos de todos los planetas conocidos fundada sobre la mecánica newtoniana, y unas décadas después esta mecánica celeste sirvió para deducir la existencia del planeta Neptuno a partir de su efecto gravitacional sobre los otros planetas. Y, desde luego, durante el siglo XIX y principios del XX la física de


Apollo 11, módulo lunar. Fuente: NASA, http://history.nasa.gov/ap11ann/kippsphotos/6642.jpg.

Newton, ya añeja, había servido para erigir los rascacielos de Nueva York. “Lamentamos el error”, dice el periódico. Pero no lo suficiente para reconocer plenamente la ignorancia del autor de la nota de 1920. La noche del 5 al 6 de agosto de 2012 Robert Goddard se vio plenamente reivindicado una vez más, no solo en lo tocante a sus investigaciones con motores a reacción –o de propulsión a chorro–, sino en sus ensoñaciones marcianas en el cerezo. En esa fecha aterrizó en Marte el vehículo explorador Curiosity. La NASA ha puesto tres laboratorios y cuatro vehículos de exploración en la superficie del planeta rojo desde 1976, pero el amartizaje más difícil desde el punto de vista técnico ha sido el

más reciente. Para posarse en Marte el Curiosity, envuelto en una cápsula protectora, tuvo que ingresar en la atmósfera a un ángulo preciso, ir corrigiendo durante el turbulento descenso su trayectoria por medio de varios cohetes distribuidos en la corona de la cápsula, desplegar un paracaídas y expulsar el escudo térmico en el momento exacto, desprenderse de la cápsula junto con su grúa aérea a reacción y maniobrar hasta quedar suspendido a pocos metros de la superficie para finalmente descender suspendido de cables. La complicada maniobra exigía total precisión en cada etapa. Todas las etapas se programaron según las leyes de Newton y en particular la física de la propulsión a reacción. Creo que Robert Goddard hubiera disfrutado mucho la transmisión del aterrizaje del Curiosity. •

Universidad de los Andes, Facultad de Ciencias 63


Reloj astron贸mico de Praga http://www.wallpaperpimper.com/wallpaper/Places/Europe/Europe-Prague-Czech-Republic-Astronomical-Clock-Old-Town-Square-1-1600x1200.jpg


VIAJES EN EL TIEMPO Germรกn Puerta Restrepo


Viajes en el tiempo

Germán Puerta Restrepo Director del Plantetario de Bogotá, gpuerta@astropuerta.com.co.

El tiempo es sin duda el más incomprensible y engañoso de los fenómenos. El sentido común hace que el tiempo nos parezca obvio: lo medimos y lo delimitamos en pasado, presente y futuro. Pero, por otra parte, nada hay tan complejo y contradictorio como intentar abordar su naturaleza, pues nos enfrentamos a toda clase de paradojas. “¿Qué es, pues, el tiempo?… Si nadie me lo pregunta, lo sé; pero si quiero explicárselo al que me lo pregunta, no lo sé”, reconoció san Agustín (en sus Confesiones), padre de la concepción cristiana del tiempo. La reflexión acerca del tiempo constituye uno de los hilos conductores de la historia de la filosofía. En la antigüedad, fueron los griegos quienes primero intentaron resolver los problemas del tiempo y el espacio partiendo de la observación de los ciclos de la naturaleza. Hay tres obvios, naturales y periódicos intervalos de tiempo comunes para nuestras vidas: el ciclo estacional, el año, el ciclo de las fases lunares, el mes y el ciclo día-noche, que llevaron al desarrollo de uno de los más antiguos inventos de la humanidad: los calendarios. Además, los movimientos del Sol, la Luna, los planetas y hasta el de las estrellas, se pueden predecir con gran precisión. Hay muchos otros eventos naturales que no se pueden anticipar, pero unos y otros revelan que la naturaleza no tiene un carácter estable, sino que está en constante cambio. Entonces se puede entender que el tiempo se presenta siempre como algo ligado al devenir de los acontecimientos. El tiempo en la filosofía antigua En el siglo VI a. C., Anaximandro relaciona la existencia con el tiempo y, de esta manera, ya desde los inicios de la filosofía la pregunta por el sentido del mundo y del ser remite al tiempo. Platón concibió el tiempo como una imagen móvil de la eternidad e introdujo la concepción cíclica del tiempo al afirmar que se desarrolla en círculo ligado a los números. Considera que el tiempo nace con el cielo y el movimiento de los astros mide el tiempo. La eternidad constituye un tiempo total existente de antemano y su desarrollo da lugar a la apariencia sensible del tiempo. En el Timeo, su obra de cosmología, escribe: “[…] cuando el padre y creador puso el universo en orden, hizo esta imagen eterna pero en movimiento de acuerdo con el número, mientras que la eternidad misma descansa en la unidad; y a esta imagen la llamamos tiempo”. Aristóteles establece que el tiempo es algo que pertenece al movimiento. No es un movimiento pero no existiría sin él ya que solamente existe cuando el movimiento comporta un número, una medida. Ahora bien, si no existe quien verifique la operación de numerar, no

66 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


habría ni número ni tiempo. De esta manera no puede haber tiempo sin alma, no puede existir el tiempo sin la conciencia. El tiempo es un movimiento total, infinito y eterno, y los acontecimientos particulares finitos son sus partes. En estas concepciones se evidencia que Aristóteles acomete el análisis del tiempo con muchas precauciones y él mismo declara que es un tema muy difícil. Los hindúes meditaron sobre la naturaleza del tiempo y llegaron a definir sus tres aspectos: pasado, presente y futuro; como el Trimurti de tres rostros, los tres dioses principales de la mitología hindú: Brahma, Visnú y Shivá. Brahma creó el mundo visible en el pasado, Visnú lo conserva en el presente y Shivá lo destruirá en el futuro para crear nuevos mundos sobre los restos del antiguo. Tiempo cíclico Que el tiempo sea cíclico ha sido uno de los conceptos más antiguos y en su simbolismo clásico está representado por una serpiente que se muerde la cola. Sin embargo, entre todos los pueblos antiguos se destacan los mayas de Mesoamérica por su particular asombro por la majestuosa marcha del tiempo. Uno de los más destacados mayistas, Eric S. Thompson, afirma: “El tema supremo por excelencia para los mayas siempre fue el

paso del tiempo, es decir, ese dilatado concepto del misterio de la eternidad. El interminable flujo de los días deslizándose de la eternidad del futuro a esa otra eternidad del pasado los maravillaba” [1]. Según esta concepción, el tiempo no tiene comienzo y no tiene fin. Esta fascinación por su medición llevó a los mayas del llamado período clásico entre el siglo III y el IX a construir rigurosos y precisos calendarios pues el tiempo es una cadena sin fin de acontecimientos eslabonados en donde cada uno es tan real como los que se vienen, y todos se pueden repetir. Con la consolidación del cristianismo hacia el siglo III, la noción de tiempo experimenta un importante cambio al negarse la posibilidad de un tiempo cíclico. La pasión, muerte y resurrección de Jesucristo son hechos únicos, irrepetibles, y dan un sentido a la existencia humana. De esta manera el tiempo aparece como fundamentalmente lineal y orientado hacia el futuro, y el sentido de toda la historia tiene su origen en la creación y culminará con el Juicio Final al final del tiempo. San Agustín señala, además, que la noción de un tiempo antes de la Creación no tiene sentido, ya que sin la Creación no puede haber ningún “antes”. Para él un tiempo cíclico es sinónimo de desesperación y solamente un modelo lineal y progresivo del tiempo puede fundamentar la esperanza.

La serpiente alquímica, símbolo del tiempo cíclico, en un manuscrito griego bizantino atribuido al Sinesio de Cirene. Fuente: http://commons.wikimedia.org/wiki/File:Serpiente_alquimica.jpg?uselang=es.

Universidad de los Andes, Facultad de Ciencias 67


Conceptos modernos del tiempo En el Renacimiento la concepción sobre casi todas las cosas cambia por completo y, por supuesto, la reflexión sobre el tiempo se convierte en uno de los elementos fundamentales de la nueva ciencia. Entonces, con la revolución científica, especialmente a partir de Galileo Galilei, aparece un tiempo abstracto concebido como un parámetro, una variable física. Galileo, al estudiar el problema de la velocidad de un cuerpo en movimiento, propicia la comprensión de la noción de tiempo. El tiempo y el espacio no pueden ser destruidos porque no son cosas sino dimensiones. Este y todos los mundos se pueden acabar pero el tiempo y el espacio seguirán existiendo. Tiempo, espacio y materia serán los tres grandes conceptos de la física moderna clásica, es decir, del mecanicismo. Así, desvinculado para siempre de su relación con el alma, el análisis del tiempo se llevó a cabo desde la perspectiva física. En 1687, sir Isaac Newton dijo que el tiempo es “absoluto, verdadero y matemático, pasa continuamente, fluye sin mirar a cualquier cosa externa, cualquiera que sea”. En su libro Principia Mathematica formula el primer modelo matemático para el tiempo y el espacio, en el que el primero fluye eternamente separado del segundo. Los principios de Newton se aplican en el marco del “espacio y tiempo absolutos”, lo que supone que un metro es igual en cualquier parte, y que cada segundo transcurre de la misma manera para todos en cualquier circunstancia. Viajes en el tiempo El tema de los viajes en el tiempo ha estimulado la imaginación por siglos, pero encuentra su desarrollo más elaborado a fines del siglo XIX. En 1895, Herbert George Wells, en su célebre novela La máquina del tiempo, describe un artefacto semejante a un proyectil que volaba al futuro; el viajero primero se transportaba a la edad de oro y, luego, a un tiempo muy lejano, a un planeta moribundo. El explorador finalmente regresaba al presente. Aquí el concepto esencial es que el tiempo es una dimensión tan real como el ancho, el largo y la altura, y eventualmente podemos deslizarnos a través de él. Otra opción mecánica, propuesta por el filósofo estadounidense Manly Palmer Hall en 1930, es una máquina para ver el tiempo: “Aunque el pasado se hunde en las tinieblas que nuestros sentidos físicos no pueden penetrar, no por eso deja de existir, y si sus vibraciones fueran intensificadas por una amplificación electrónica, las épocas pasadas podrían revivir. Podríamos a voluntad nuestra, dando vuelta a un pequeño disco, contemplar a los constructores de las pirámides amontonando montañas de granito” [2]. Relatividad La fantasía y la ciencia del viaje en el tiempo van a encontrar un inesperado apoyo a principios del siglo XX gracias a las teorías

68 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

El escritor de ciencia ficción Ray Bradbury en 1960 sentado en una réplica de la máquina del tiempo de H.G. Wells. Fuente: http://mydelineatedlife.blogspot.de/2012/06/roaming-eons.html.


Representación dimensional de la distorsión del espacio-tiempo por la masa de la Tierra. Fuente: http://www.nasa.gov/mission_pages/gpb/ gpb_012.html

desarrolladas por Albert Einstein, quien denominó, muy apropiadamente, a la base central de su trabajo el “principio de la relatividad”. Según éste, los observadores, sin importar cómo se muevan, observarán a las leyes de la naturaleza funcionar de la misma forma. En otras palabras, el universo es el mismo para todos. Esto puede parecer trivial, pero tiene consecuencias inesperadas que Einstein desarrolló en dos trabajos. En 1905 publicó el análisis del caso de dos observadores que se mueven a velocidades diferentes pero constantes. A este caso lo llamó “relatividad especial”, en el que establece además que la velocidad de la luz en el vacío es una constante universal, independiente de todo movimiento relativo entre la fuente y el observador. Pero quizás mucho más importante fue la demostración de que la energía y la masa son equivalentes y se relacionan a través de la que es sin duda la ecuación más famosa de la física:

E = m·c2 donde E es la energía, m es la masa y c es la velocidad de la luz en el vacío. La consecuencia más notable de esta teoría es que nada que pueda transportar masa o información se puede mover más rápido que la luz. Cuando un objeto se acerca a la velocidad de la luz, la cantidad de energía requerida para acelerar aumenta rápidamente hacia infinito, haciendo imposible que alcance la velocidad de la luz. Solo partículas sin masa, como los fotones de la luz, pueden tener esta velocidad de aproximadamente 300.000 kilómetros por segundo. Adicionalmente, dos observadores en sistemas inerciales diferentes perciben que la velocidad de la luz es la misma, y la única forma de armonizar las observaciones es admitir que el tiempo, como las distancias, es relativo. De

esta forma, Einstein predijo que los relojes que se mueven con respecto a un observador en reposo correrán más despacio, y este concepto fue denominado “dilatación del tiempo”. Entonces, la velocidad de la luz es independiente del movimiento del observador y tiene el mismo valor en todas las direcciones. Esto exigió abandonar el concepto del tiempo como una magnitud absoluta que todos los relojes pudieran medir. Ahora cada observador tiene su tiempo personal y la diferencia en el tic-tac de cada reloj depende de la velocidad a la que se mueve uno con respecto al otro. Una década más tarde, en 1915, Einstein publica su trabajo sobre la relatividad general, en el cual describe la aceleración y la gravedad como fenómenos equivalentes e introduce la noción de la curvatura del espacio-tiempo. La gravedad es una manifestación de la curvatura del espacio-tiempo ocasionada por la masa de los cuerpos. Einstein predijo que el reloj de un observador que se encuentre en un campo gravitacional correrá más lento que el reloj de otro observador que se encuentre alejado de dicho campo. Este efecto ha sido verificado experimentalmente, por ejemplo, mediante el desplazamiento gravitacional de las líneas espectrales de estrellas densas e incluso comparando la marcha de relojes ubicados a diferentes altitudes sobre nuestro planeta. Por ejemplo, cuando volamos en un avión, la atracción gravitacional de la Tierra es menor en una diferencia muy pequeña, lo que hace que nuestro reloj a bordo se mueva más rápido que los que están en tierra, también con una diferencia muy pequeña. La nueva teoría del espacio-tiempo curvado fue denominada “relatividad general” para distinguirla de la teoría original conocida como relatividad especial, que no consideraba la gravedad. La relatividad general implica que no podemos curvar el espacio sin involucrar al tiempo.

Universidad de los Andes, Facultad de Ciencias 69


Viaje al futuro Las consecuencias de la relatividad para el asunto que nos ocupa son tremendas. En la paradoja de los gemelos, los protagonistas son dos gemelos; el primero hace un largo viaje a una estrella lejana en una nave espacial a velocidades cercanas a la velocidad de la luz, y el otro se queda en la Tierra. A la vuelta, el gemelo viajero es más joven que el gemelo terrestre, que puede ya estar muy viejo porque el tiempo propio del gemelo de la nave espacial va más lento que el tiempo del que permanece en la Tierra. Esta sería, en consecuencia, una forma de viajar en el tiempo. En cuestión de meses o días al regresar a la Tierra nos encontraríamos con el mundo del futuro. El problema es que la relatividad no nos proporciona un viaje de regreso; después de ver el año 2030 no hay manera de volver al 2012. Además surge un problema si pretendemos utilizar esa información del futuro para modificar el presente. Es una variante del caso de viajar al pasado y por accidente matar a nuestros padres antes de nacer nosotros. En esta, decidimos matar a un niño al que vimos en el futuro como un sangriento dictador. El problema que surge es:

¿cuál es el futuro real? ¿El que presenciamos en el viaje por el tiempo o el que acabamos de crear? Pero el centro de la discusión es si efectivamente se puede realizar un viaje en el tiempo, hacia el pasado o hacia el futuro. Se sabe, por la relatividad general, que el espacio y el tiempo se curvan y distorsionan por la acción de la materia y la energía del universo. ¿Existe entonces, al menos en teoría, la posibilidad de que el espacio-tiempo se deforme tanto que una nave espacial pudiera despegar y regresar antes de haber salido? Esta posibilidad se ha estudiado extensamente, teniendo en cuenta la mayor curvatura disponible en el universo: los agujeros negros. Agujeros negros Un agujero negro es una región del espacio con una gran concentración de  masa  en su interior y con enorme aumento de la densidad que genera un campo gravitacional de tal fuerza que ninguna partícula material, ni siquiera los fotones de luz, puede escapar. La curvatura del  espacio-tiempo  en el agujero negro provoca una singularidad rodeada por un horizonte de sucesos. Cualquier objeto que atraviese este horizonte caerá irremedia-

Diagrama de un hipotético agujero de gusano que permitiría exóticos viajes espaciales. Fuente: http://commons.wikimedia.org/wiki/ File:LorentzianWormhole.jpg.

70 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


blemente dentro del agujero negro. Los agujeros negros son reales. Existen en diferentes partes del universo, especialmente en el centro de varias galaxias, incluyendo la nuestra, como agujeros negros supermasivos.

nacimiento. Stephen Hawking, junto con el físico inglés Roger Penrose, demostraron que el tiempo deja de transcurrir en el interior de los agujeros negros, lo que hace obsoletas las leyes conocidas de la física.

Einstein también descubrió que la relatividad general permitiría la existencia de “puentes” en el espacio-tiempo, originalmente llamados “puentes Einstein-Rosen”, rebautizados como “agujeros de gusano” en 1957 por el físico estadounidense John Wheeler. Estos son un tipo de agujeros negros que funcionan como “tuberías” de espacio-tiempo que, en teoría, permitirían el paso a otras regiones del universo o, tal vez, a otros universos. Algunos han especulado que una disposición especial de las entradas de un agujero de gusano posibilitaría el viaje en el tiempo, entrando la nave espacial y su pasajero por una boca del agujero de gusano y saliendo por la otra en un lugar y tiempo diferentes.

Stephen Hawking se convierte entonces en partidario opositor a los viajes en el tiempo y afirma que la naturaleza protege su historia impidiendo la curvatura del espacio-tiempo más allá del límite de su propia realidad. Además concluye: “El hecho de que no nos hayan invadido hordas de turistas provenientes del futuro es una buena prueba de la imposibilidad de viajar en el tiempo” [3].

Si uno de los extremos de tal agujero de gusano es un agujero negro, hay quienes afirman que el extremo opuesto debería ser entonces un “surtidor blanco”. Se trata de una región del espacio-tiempo con una densidad tal que deforma el espacio pero que, a diferencia del agujero negro, permite que la  materia y energía escapen en lugar de absorberla. De hecho, ningún objeto puede entrar en un surtidor blanco, que funcionaría como el reverso de un agujero negro: el agujero negro absorbe la materia y la expulsa por un surtidor blanco que se puede encontrar en otro lugar del universo o en otro universo. El viaje a través de los agujeros negros o de gusano, en caso de ser posible, solucionaría el problema de la enorme cantidad de tiempo que habría que gastar viajando en la galaxia o visitando otras galaxias con una velocidad menor que la de la luz, como lo determina la relatividad. “Por un agujero de gusano podríamos salir por la mañana hasta el otro lado de la galaxia y estar de regreso para la cena”, afirma el físico inglés Stephen Hawking en su libro El universo en una cáscara de nuez [3]. Para saber si realmente el viajero podrá volver al tiempo y lugar de partida, hay que determinar si es posible que existan agujeros negros o de gusano con las curvas del espacio-tiempo cerradas, o sea, que regresen a su comienzo una y otra vez. Aquí Stephen Hawking destapa sus cartas y asegura que la posibilidad de deformar el espacio-tiempo con la curvatura suficiente para que la máquina del tiempo la atraviese es nula. Las leyes de la física conspiran para que los objetos no puedan viajar en el tiempo. Por otra parte, al viajar hacia atrás en el tiempo contaminamos las realidades del presente, lo que provocaría acontecimientos contradictorios y múltiples paradojas. Una manera de eludir este problema está asociada a la existencia de universos paralelos: siempre que alguien viaje atrás en el tiempo llegaría a una línea de tiempo alternativa y no a su propio pasado. Solamente de esta manera le sería del todo imposible evitar su propio

Sin embargo, nuestra comprensión de la gravedad y la mecánica cuántica es todavía muy limitada, para lo que varios teóricos afirman que todavía es muy temprano descartar del todo la posibilidad del viaje a través del tiempo. De hecho, como las leyes de la física y las ecuaciones de la teoría general de la relatividad son inoperantes en el interior de un agujero negro, para comprender lo que ocurre allí hay que inventar “una nueva física”. Esto significa que ahora, o en cualquier momento de la historia pasada, podemos con toda seguridad declarar el viaje en el tiempo imposible; pero afirmar que en el lejano futuro no será factible es algo arriesgado. Una teoría unificada del espacio, el tiempo y todas las interacciones podría abrir la puerta a posibilidades inesperadas. • Referencias [1] Thompson JES. Grandeza y decadencia de los mayas. México: Fondo de Cultura Económica; 2003. [2] Hall MP. The secret teachings of all ages. San Francisco: H. S. Crocker Company; 2003. [3] Hawking SW. El universo en una cáscara de nuez. Barcelona: Editorial Planeta, 136, 152; 2009. [4] Bishop R. Time and time scales. Observer’s handbook. Cambridge: Cambridge University Press; 2012. [5] Grunbaum A. Philosophical problems of space and time. En: Boston Studies in the Philosophy of Science, vol XII. Dordrecht: D. Reidel Publishing; 1974. [6] Halpern P. Una historia de la predicción. México: Océano; 2000. [7] Hawking SW. Historia del tiempo. Del Big Bang a los agujeros negros. Barcelona: Editorial Crítica; 1989. [8] Panek R. Relativity turns 100. Astronomy Magazine 2005; febrero: 34. [9] Talcott R. Is time in our side. Astronomy Review 2006; febrero. [10] Tomas A. La barrera del tiempo. Barcelona: Plaza & Janes S.A; 1971. [11] Trefil J. Relativity’s infinite beauty. Astronomy Magazine 2005; febrero: 50.

Universidad de los Andes, Facultad de Ciencias 71


http://cdn.cnet.com.au/story_media/339341452/cme_fullsize.jpg


SOL

EL Y EL FIN DEL MUNDO SANTIAGO VARGAS DOMÍNGUEZ


El Sol y el fin del mundo

Varios siglos atrás, mientras contemplaban a Kinich Ahau, Señor del rostro solar y Dios del Sol en la mitología maya, esta Ph.D. Investigador postdoctoral extraordinaria cultura de nuestra América precolombina jamás del Departamento de Física de la Universidad de los Andes, se hubiera imaginado el revuelo que causaría una de sus prins.vargas54 uniandes.edu.co. cipales deidades en pleno siglo XXI. Y es que algunos en la actualidad postulan un escenario de fin del mundo según el cual el 21 de diciembre de este año la Tierra estará recibiendo el impacto de una tremenda tormenta solar que aniquilará nuestra civilización y el mundo como lo conocemos. Santiago Vargas Domínguez

@

El Sol sin duda ha regido nuestras vidas desde el comienzo de nuestra historia como civilización o, incluso desde antes, desde el mismo nacimiento de la Tierra y los demás planetas de nuestro Sistema Solar. En la etapa más joven de nuestra estrella, hace unos 4.650 millones de años, la misma Tierra, antes de ser formada, y los demás cuerpos del Sistema Solar giraban como un enorme disco caliente alrededor del Sol. Este disco protoplanetario se fue enfriando y dio lugar a los planetas en las zonas donde se comenzó a agrupar la materia que siguió enfriándose más y más. Millones de años más tarde las condiciones fueron mejorando y el planeta favoreció el desarrollo de la vida. El destino de la Tierra seguramente está ligado al del Sol, y así como de él dependió el surgimiento de nuestro planeta, también será el responsable de su destrucción, pero eso no lo veremos hasta el final de esta historia. Remontémonos una vez más al pasado, pero esta vez a Italia, a los tiempos del gran Galileo Galilei, a principios del siglo XVII. Pocos años después de la invención del telescopio, Galieo hacía las primeras observaciones solares utilizando este maravilloso invento, cuyo potencial era difícil de imaginar. Galileo proyectó la imagen del Sol a través del telescopio y pudo apreciar unas cicatrices oscuras sobre su superficie. Estaba observando las llamadas manchas solares, que, se pensaba, podían ser planetas girando alrededor del Sol en órbitas muy cercanas a la estrella. El descubrimiento de las manchas solares tuvo, además, grandes implicaciones para el pensamiento de la época, no solo científico, sino también religioso, pues mostró la imperfección de los cielos

74 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

y del Sol, que se consideraba divino y, por lo tanto, perfecto. En la época de Galileo aún restaban dos siglos para la invención de la fotografía y se requería de un dispendioso trabajo para dibujar las imágenes registradas por los mismos astrónomos o con los primeros instrumentos ópticos. Hoy se conservan algunos de los detallados dibujos de Galileo donde se aprecia la evolución en el tiempo de las manchas solares sobre la superficie del Sol. Aunque aparentemente estático y con poca actividad, Galileo ya sabía que el Sol era un objeto en movimiento y con estructuras muy dinámicas, y así descubrió la rotación del astro. Cuatro siglos después de los hallazgos de Galileo, las manchas solares siguen siendo objeto de estudio y se sabe que de ellas depende gran parte de la actividad solar, de la cual dependen, a su vez, las condiciones del medio interplanetario conocidas como clima espacial. Hoy se sabe que el Sol está compuesto por plasma a altísima temperatura, aproximadamente 6000 Kelvin en su superficie y hasta 15 millones de Kelvin en el interior, y que las manchas solares son producto del campo magnético que se forma en el interior y que emerge a la superficie solar, llamada fotosfera, interactuando con el plasma incandescente. Las líneas de campo magnético que se generan en su interior están en constante evolución, en gran parte porque el Sol rota más rápido en el Ecuador que en los polos. Esta llamada “rotación diferencial” estira y tuerce las líneas de campo y, eventualmente, genera inestabilidades que terminan emergiendo a la superficie formando las famosas manchas solares o regiones activas.


El Sol es, entonces, como un inmenso imán con sus polos norte y sur; sin embargo, cada 11 años, aproximadamente, ocurre algo inesperado: se invierte su polaridad y los polos magnéticos solares. Precisamente estos 11 años enmarcan lo que se conoce como el ciclo solar, descubierto en 1843 por Samuel Heinrich Schwabe, quien, después de 17 años de observaciones, notó una variación periódica en el número promedio de manchas durante cada año. Durante el ciclo solar también se presentan variaciones en la cantidad de radiación que llega a la Tierra y en la actividad solar, donde hay periodos de poca actividad –mínimos solares– y de máxima actividad –máximos solares–. Cuando ocurre el mínimo solar las manchas solares desaparecen casi por completo de la superficie del Sol mientras que en los periodos de máxima actividad hay gran cantidad de manchas. En la actualidad el Sol se encuentra en su ciclo 24, siendo el primer ciclo el que va de 1755 a 1766. Cuando el campo magnético solar cambia su configuración durante los ciclos solares, se libera energía de forma rápida y violenta en lo que se conoce como eyecciones de masa coronal. Durante estas explosiones el Sol lanza miles de toneladas de gas y partículas cargadas al medio interplanetario. Si esa ráfaga está dirigida a la Tierra, entonces se trata de una tormenta solar que genera una tormenta geomagnética una vez choca contra nuestro planeta. Si no fuera por el campo magnético terrestre, la magnetósfera, que hace las veces de un escudo natural que nos protege, nos veríamos seriamente afectados por la radiación proveniente del Sol. Sin embargo, parte de esas partículas cargadas penetran a la atmósfera en las zonas polares, que son las zonas más sensibles del escudo terrestre y en donde confluyen las líneas de campo magnético, produciendo fenómenos tan asombrosos como las auroras.

Figura 1. Erupción solar del 31 de agosto de 2012, registrada por los telescopios espaciales SOHO (paneles superiores y centrales) y SDO (paneles inferiores). El material es lanzado millones de kilómetros hacia el espacio interplanetario. Fuente: NASA.

Existen también otros efectos que pueden generar las gigantescas explosiones solares que liberan extraordinarias cantidades de energía e impactan a nuestro planeta. En marzo de 1989, unos seis millones de personas en Canadá y Estados Unidos se quedaron sin electricidad después de que una enorme explosión en el Sol afectó una central hidroeléctrica en Quebec al quemar una gran cantidad de transformadores eléctricos. Así mismo, satélites de comunicaciones, aviones y muchos otros instrumentos podrían ser afectados por el bombardeo de partículas energéticas solares, que podría dañar los pequeñísimos circuitos integrados

Universidad de los Andes, Facultad de Ciencias 75


Figura 2. Imagen de la superficie solar y las capas más altas (cromosfera y corona), donde se aprecian los lazos de campo magnético, visibles gracias al plasma caliente y brillante atrapado en ellos. Fuentes: SDO (NASA) y el consorcio AIA.

que son los más expuestos a perturbaciones producidas por el efecto de las radiaciones de alta energía. Incluso a la hora de planear futuras misiones espaciales hay que tener en cuenta los efectos de la radiación que no solo afectan la instrumentación sino también a los propios astronautas. La mayor tormenta solar registrada hasta la fecha ocurrió en 1859 y es conocida como la tormenta perfecta o tormenta Carrington, por el nombre del científico que la detectó. En esa época las consecuencias se vieron en daños en el sistema de telégrafos de Estados Unidos, que tenía 15 años de haber sido inventado y en la observación de auroras en latitudes muy bajas, como la Florida e incluso Cuba. Otras tormentas han afectado sistemas desde servicios móviles y señales de TV hasta sistemas de navegación GPS. Uno de los mayores retos científicos radica en entender y predecir con exactitud el ciclo solar y el efecto de los cambios en la actividad solar sobre el clima en la Tierra, pues hay pruebas que mostrarían una intrincada dependencia. El hecho más famoso lo constituye un periodo de 70 años (1645-1715) en que, conforme a los registros, prácticamente no aparecieron manchas sobre la superficie del Sol; se le suele denominar “mínimo de Maunder”. Otro período de escasez de manchas tiene el nombre

76 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

de “mínimo de Dalton” (1795-1825). Estos intervalos coincidieron con la parte dominante de un período de intenso frío en Europa conocido como la Pequeña Edad de Hielo (1450-1850).

Recuadro 1: ¿Cómo funciona el Sol? En el núcleo se producen las reacciones de fusión nuclear que convierten cuatro núcleos de hidrógeno, el elemento más ligero y abundante en el Universo, en un núcleo de helio, unas 600 millones de toneladas cada segundo. La fusión conlleva también una pérdida de masa que se transforma en energía según la famosa ecuación de Einstein E = mc2, donde c es la velocidad de la luz. De aquí que una pequeña cantidad de masa pueda liberar enormes cantidades de energía. En el caso del Sol, la pérdida de masa es aproximadamente de cuatro millones de toneladas por segundo. El proceso que ocurre en el núcleo es comparable a la explosión controlada de millones de millones de bombas de hidrógeno que estallan ininterrumpidamente.


El anterior ciclo solar, el número 23, que se inició en 1996, fue también anormal y se extendió por un par de años más de lo habitual. A partir de 2009 el Sol despierta de su letargo y las manchas solares comienzan a aparecer nuevamente sobre su superficie, lo que marca el comienzo del ciclo 24. El próximo máximo solar se prevé que ocurra a mediados del 2013 y será el momento en que se espera la mayor cantidad de erupciones solares. Sin embargo el ciclo solar 24 está siendo bastante débil comparado con el comportamiento habitual de los ciclos anteriormente registrados, y

el número de manchas posiblemente no supere las 90, a diferencia de otros ciclos en los que ha llegado hasta 250. Se ha dicho que el magnetismo es el responsable de la mayoría de eventos que ocurren en el Sol y que de estos eventos depende el clima espacial, es decir, el conjunto de fenómenos e interacciones que tienen lugar en el medio interplanetario y que están regulados fundamentalmente por la actividad solar. Recordemos que el Sol constituye casi el 99% de la masa de todo el Sistema

Figura 3. Primera imagen tomada por el Observatorio Dinámico Solar (SDO) del disco solar con longitudes de onda en el ultravioleta extremo, tomada el 30 de marzo de 2010. Los diferentes colores representan diferentes temperaturas del gas.a En rojo temperaturas relativamente frías de unos 60.000 Kelvin, y en azul y verde temperaturas más calientes superiores al millón de Kelvin. Arriba a la izquierda una protuberancia solar, cuyo material es suspendido por el campo magnético de la estrella a miles de kilómetros por encima de la superficie. Fuentes: SDO (NASA) y el consorcio AIA.

Universidad de los Andes, Facultad de Ciencias 77


1600

1650 Mínimo de Maunder 1700

Año

1750

1800

Mínimo de Dalton

1850

1900

Máximo moderno

1950

2000 0 50 100 150 200 250 300 Número de manchas solares Figura 4. Registro del número de manchas solares en la superficie del Sol en los últimos 400 años, asociadas con los ciclos de actividad. El mínimo de Maunder, que corresponde a la casi total desaparición de las manchas solares durante 70 años, coincide con una época de intenso frío en la Tierra conocida como La Pequeña Edad de Hielo. Fuente: Global Warming Art Project. Enero 2000 2001 2002 2003

Solar y que por ello su papel es determinante en nuestra vecindad cósmica y, directamente, sobre la Tierra. Por estas razones, los científicos continúan explorando la compleja actividad solar con el ánimo de entender y poder predecir el comportamiento del Sol. En la actualidad contamos con sofisticados telescopios e instrumentos, muchos de los cuales observan al Sol minuto a minuto desde el espacio, en satélites que orbitan la Tierra. Hoy disponemos de imágenes espectaculares de nuestra estrella y podemos evidenciar su intrincada estructura y gran cantidad de fenómenos explosivos. Con telescopios espaciales como el Observatorio de Relaciones Solar-Terrestres (STEREO), que consta de dos telescopios, uno ubicado en una posición avanzada en la órbita terrestre y el otro en un punto retrasado, podemos observar al Sol de forma estereoscópica desde diferentes ángulos; por ejemplo, vemos la cara oculta del Sol varios días antes de poder observarla desde la Tierra. Recientemente una nueva misión de la NASA lanzó al espacio un nuevo telescopio, el Observatorio Dinámico Solar, que comenzó a enviar imágenes solares con una calidad 10 veces superior a la de un televisor de alta resolución, unos 1,5 terabytes de datos cada día, equivalente a medio millón de canciones en nuestro reproductor de mp3. Novedosas técnicas que utilizan datos provenientes de estas misiones nos permiten incluso poder estudiar el interior del Sol a través de las oscilaciones que se producen en su superficie, generadas por ondas de presión que viajan desde el interior –lo que se conoce como heliosismología–. El estudio del Sol vive una época dorada, dada la gran cantidad de misiones en curso y las planeadas para los próximos años, entre ellas la misión Solar Orbiter, cuyo objetivo es lanzar en el 2017 un satélite que viajará con un telescopio a una distancia del Sol más cercana que la distancia a la que orbita el planeta Mercurio. Todo esto con el fin de escudriñar los misterios de nuesto astro.

2004 2005 2006 2007

Año

2008 2009 2010 2011 2012 2013 2014 2015 2016

Recuadro 2: El largo viaje de los fotones El tamaño del Sol es comparable al volumen ocupado por un millón de Tierras, y se encuentra a una distancia de 150 millones de kilómetros, lo cual hace que la luz que recibimos en la Tierra sea la que ha abandonado el astro unos ocho minutos antes. Pero antes de salir del Sol los fotones (partículas portadoras de la radiación electromagnética) han tenido que viajar varios miles de años desde el interior hasta su superficie debido a la gran densidad presente en el interior solar.

2017 2018 Enero 2019 0 25 50 75 100 125 150 175 Número de manchas solares Valores mensuales suavizados Valores mensuales Predicción Figura 5. Registro de manchas solares observadas en el Sol desde enero de 2000. Se observa el comienzo del actual ciclo solar 24. La linea roja muestra la predicción del comportamiento del este ciclo en el cual no se espera mucha actividad comparado con ciclos anteriores. Fuente NASA.

78 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012

El Sol ha regido nuestras vidas desde el comienzo de la historia humana y de su existencia depende la vida en la Tierra. Ha pasado de ser fuente de adoración a objeto de estudio. Pero llegará un día en que el Sol agote todo su combustible, expandiéndose y convirtiéndose en una estrella gigante roja, cuyo tamaño será tan grande que absorberá a la Tierra. El destino final


del Sol será transformarse en una enana blanca y finalmente en una enana negra, cuando se enfríe completamente. Aún quedan unos cinco mil millones de años para que esto suceda, pero por el momento deberemos prepararnos para que durante cada máximo de actividad solar podamos proteger la tecnología de la cual hoy depende nuestra civilización. No hay que ser catastróficos, pero sí hay que tener en cuenta que una tormenta solar perfecta, como la de 1859, podría tener consecuencias sobre la tecnología satelital, las comunicaciones, las redes de distribución eléctrica y otros, lo que generaría pérdidas millonarias. En la mañana del 22 de diciembre, la predicción del fin del mundo entrará a formar parte del listado de más de 150 predicciones anteriores y el Sol dominará el cielo para que podamos seguir contemplándolo como lo hacemos desde el comienzo de nuestra historia. •

Referencias [1] Lockwood M. Solar change and climate: an update in the light of the current exceptional solar mínimum. Proceedings of the Royal Society 2010; 466(2114): 303-329. [2] Low BC. Solar activity and the Corona. Solar Physics 1996; 167(1-2): 217-265. [3] North G. Astronomy in depth. London: Springer-Verlag; 2003. [4] Whitehouse D. El Sol: una biografía. Madrid: Kalias; 2006. [5] Información y Actualidad Astronómica. Revista del Instituto de Astrofísica de Andalucía. Número 20 de octubre 2006 (pp. 3 y 6) y Número 21 de febrero de 2007 (pp. 3-6). Consejo Superior de Investigaciones Científicas, España. [6] Solar Dynamic Observatory. http://sdo.gsfc.nasa.gov.

Figura 6. Galileo Galilei realizó observaciones solares a comienzos del siglo XVII y pudo detallar la evolución de las manchas solares sobre su superficie; de esta manera descubrió la rotación del Sol. Fuente: Izquierda: http://galileo.rice.edu/images/things/sunspot_drawings/ss623-l.gif. Derecha: http://commons.wikimedia.org/wiki/File:Galileo_by_leoni.jpg.

Universidad de los Andes, Facultad de Ciencias 79


[ Entrevista con Douglas Osheroff ] Los avances en ciencia rara vez los hacen individuos solos. Son el resultado del progreso de la comunidad científica, que hace preguntas, que desarrolla nuevas tecnologías para responder a esas preguntas y que comparte los resultados y las ideas con los demás. Para avanzar en corto tiempo hay que apoyar la investigación científica en general, y alentar a los científicos a interactuar entre sí y a usar una parte de su tiempo explorando sus propias curiosidades. Así es como se logran los avances en la ciencia. Douglas Osheroff El profesor Osheroff obtuvo el Premio Nobel de Física en 1996 por su descubrimiento de la superfluidez del helio-3 y actualmente es profesor emérito de la Universidad de Stanford. El pasado 13 de septiembre visitó la Universidad de los Andes donde dictó la charla “Cómo se hacen avances en la ciencia” para el coloquio divulgativo del Departamento de Física. ¿Qué se necesita para hacer ciencia digna de un premio nobel? En primer lugar, no creo que las personas deban enfocar sus carreras en ganar un Premio Nobel. Esa es una motivación totalmente equivocada. La curiosidad es la motivación, el querer entender el comportamiento en un escenario determinado, o descubrir qué pasa –o qué se espera que pase– con un experimento bajo condiciones determinadas. La mayoría de los experimentos que han sido Premio Nobel son el resultado de la curiosidad pues, por definición, son algo nuevo e inesperado. ¿Cómo se puede relacionar la superfluidez del helio-3 con la vida cotidiana? (Risas) Probablemente no se pueda. Las temperaturas de transición de la superfluidez son de aproximadamente 0,002 K, es decir, temperaturas muy bajas. El del helio-3 fue, tal vez, el primero de los estados BCS no convencionales. BCS se refiere a

Fotografía de Laura Ardila

la teoría desarrollada por Bardeen-Cooper-Schrieffer, tres científicos que explicaron, por primera vez, el origen de la superconductividad. En esta teoría, el helio-3 constituyó el primero de los no convencionales. Ahora existen muchos más estados de superconductividad de alta temperatura pero creo que el helio-3 fue, esencialmente, la introducción a este tipo de física. ¿Ser Premio Nobel implica alguna responsabilidad social? Por supuesto, eso explica por qué estoy aquí (risas). Me encanta ir de un lado a otro para hablar con los estudiantes; primero hablarles acerca de la emoción de realizar descubrimientos y luego hacerles ver que se pueden hacer descubrimientos… que todos podemos hacer pequeños descubrimientos. De esta manera trato de entusiasmar a los estudiantes por la ciencia, porque creo que la ciencia es importante en nuestras vidas cotidianas.

80 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


¿Cuál es su mensaje para todos aquellos que han estado interesados ​​por la ciencia desde muy jóvenes? Yo creo que lo que guía a las personas interesadas en la ciencia es la curiosidad, y la curiosidad es un gran estímulo. Sin duda, usted puede hacerse una pregunta, y si no logra responderla, entonces puede hacer un experimento para averiguarla, sin saber lo que va a obtener. La mayoría de los científicos son personas muy curiosas. Por ejemplo, mi profesor de química en el colegio –su nombre era William Hock– se sentó un día a hablarnos sobre la investigación y nos dijo que cada vez que se hace un experimento se le está haciendo una pregunta a la naturaleza. La naturaleza nos da su respuesta, pero hay que saber interpretar sus respuestas. El profesor, en ese entonces, tenía una caja de leche con algo por dentro, y nos dijo: las respuestas de la naturaleza no son solamente qué hay dentro de la caja de leche, sino que, además, nos dice algo acerca de lo que hay dentro de la caja de leche. Por esa razón, usted debe seguir haciendo experimentos para mejorar su interpretación de las respuestas obtenidas. Todos sabemos que la naturaleza es una mujer y es por eso, que resulta muy complicado entender lo que nos está diciendo (risas). ¿Qué papel juega la divulgación científica en generar interés por la ciencia? Creo que sin la comunicación entre los científicos el progreso en la ciencia sería muy lento. La razón por la que la ciencia avanza es porque se publican nuestros resultados, se comparten nuestras ideas, se comparten las nuevas tecnologías y se establece una comunidad internacional. Creo que la cooperación y el intercambio de ideas y resultados es la razón por la que el conocimiento científico avanza. Entre los científicos, la divulgación de la ciencia funciona bien, pero si hablamos de divulgación para el público general, no creo que se esté haciendo un buen trabajo. Por ejemplo, la NASA pensó que, de alguna manera, enviando personas al espacio estimularía la curiosidad de los jóvenes, pues a todos les gustaría ser astronautas. En cierto sentido esto sucedió, pero ahora no se están enviando personas a Marte, se están enviando robots. Entonces ahora uno imagina que esta es una oportunidad fantástica para que los jóvenes piensen en todos estos pequeños robots corriendo por la superficie de Marte recolectando muestras de suelo. Por esta razón, creo que la NASA es muy buena divulgando ciencia pero, por supuesto, su presupuesto es un poco más grande que el mío.

Recuadro 1: La superfluidez es un estado de la materia en la que un líquido fluye sin viscosidad. A temperaturas muy cercanas al cero absoluto, -273,15° C, el Helio-3, en estado de superfluidez , fluye sin ningún tipo de fricción. En este estado el Helio-3 puede desafiar la gravedad y subir por las paredes del recipiente y derramarse hacia el exterior, un efecto llamado reptación. Por mi parte, desde hace algún tiempo he empezado a ir a los colegios, de primaria y secundaria, a hablar sobre la ciencia con los estudiantes; además les hago demostraciones sobre electricidad y magnetismo. Yo no sé qué tan impactante sea para ellos, pero es algo que me gusta hacer y creo que ese tipo de comunicación directa con los estudiantes es realmente importante. ¿Usted cree que los resultados de la investigación científica llegan al público de forma oportuna? Entre la comunidad científica la divulgación de la ciencia es muy buena. Es decir, se encuentran todo tipo de revistas, y la comunicación es rápida y funciona muy bien. No obstante, creo que solo hay un pequeño número de resultados científicos que captan el interés del publico y que permiten entender por qué son interesantes. El público en general, claramente, tiene muy poca educación científica, incluso en los Estados Unidos. Pienso que lo mejor que puedo hacer es avivar la curiosidad del público general y explicarles qué es la superfluidez del helio-3, pero esto puede ser demasiado complicado para la gente, y no creo que muchos de ellos estén muy interesados en ​​ comprenderlo en su totalidad. Sin embargo, la otra cara de la historia es el relato del descubrimiento, y esto es algo que mucha gente encuentra fascinante y puede entender fácilmente. Usted ha viajado por todo el mundo, ¿cuál es su consejo para los científicos de países en desarrollo donde la inversión en ciencia es escasa? La financiación es un problema difícil. Lo que ha funcionado muy bien para la ciencia es que la gente con doctorado vaya a otro país, como Estados Unidos, y trabaje como investigador para luego volver a su país. El problema es que, a veces, los mejores estudiantes después quieren quedarse. Países como China han tenido este problema en los últimos años, sucedía que menos de la mitad de los estudiantes que se iban al extranjero para perfeccionar su formación regresaban a China. Así que supongo que esto sucede en otros países también. •

Universidad de los Andes, Facultad de Ciencias 81


[ Noticias ]

Premio TWAS en Matemáticas al profesor Bernardo Uribe

Premio ACTA a la profesora María Consuelo Vanegas

El profesor Bernardo Uribe del Departamento de Matemáticas de la Universidad de los Andes recibió el premio TWAS para jóvenes científicos colombianos que otorga la Academia de Ciencias para el Mundo en Desarrollo (TWAS), con sede en Italia. TWAS es una organización internacional autónoma que promueve la capacidad científica y excelencia para el desarrollo sostenible en el Sur, y su premiación rota cada año en las áreas de Biología, Física, Química y Matemáticas.

La profesora María Consuelo Vanegas, del Departamento de Ciencias Biológicas de la Universidad de los Andes, recibió el primer premio ACTA a la contribución personal en inocuidad de alimentos que otorga la Asociación Colombiana de Ciencia y Tecnología de Alimentos (ACTA).

El profesor Bernardo Uribe es Magíster y Doctor de la Universidad de Wisconsin (Estados Unidos), profesor y miembro del Grupo de Geometría de la Universidad de los Andes y editor de la Revista Colombiana de Matemáticas. Sus temas de interés son la topología algebraica y la geometría diferencial; en particular, su investigación se ha centrado en estudiar las propiedades invariantes bajo deformaciones de los espacios topológicos que tienen muchas simetrías. Este premio es un reconocimiento por su aporte y contribución al conocimiento en esta área. El premio fue entregado el pasado 22 de agosto en la ceremonia estatutaria que celebra la Academia Colombiana de Ciencias Exactas, Físicas y Naturales. •

ACTA es una entidad sin ánimo de lucro que busca promover el desarrollo de investigaciones en el sector académico o industrial en las áreas de ciencia y tecnología de alimentos, gestión de calidad e inocuidad de alimentos. La categoría del premio ACTA a la contribución personal en inocuidad de alimentos se creó este año con el objetivo de estimular a la comunidad científica y a los profesionales involucrados en el área de inocuidad de alimentos y reconocer su dedicación y contribución al desarrollo de esta disciplina en Colombia. La profesora María Consuelo Vanegas es Magíster en Microbiología, profesora y directora del Laboratorio de Ecología Microbiana de Alimentos (LEMA), del Departamento de Ciencias Biológicas de la Universidad de los Andes. Sus áreas de investigación se centran en microorganismos transmitidos por alimentos y su impacto en salud pública. Este premio es un reconocimiento a su trabajo y contribución de toda una vida en el área de inocuidad de alimentos. La entrega del premio se realizó en el marco del 11º Congreso Nacional de Ciencia y Tecnología de Alimentos –Conacta– 2012, el pasado 12 de septiembre. •

82 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


El profesor Felipe Guhl recibe reconocimiento como miembro TWAS Felipe Guhl, profesor del Departamento de Ciencias Biológicas de la Universidad de los Andes, recibió su reconocimiento como miembro de la Academia de Ciencias para el Mundo en Desarrollo (TWAS), que tuvo lugar en la vigésima tercera Reunión General de la TWAS en la ciudad de Taijin, China, entre el 18 y el 21 de septiembre. Cada año, la TWAS elige nuevos miembros de países en desarrollo bajo el criterio de la excelencia científica: “[…] solo aquellos científicos que han alcanzado los más altos estándares internacionales y han hecho contribuciones significativas al avance de la ciencia pueden ser nominados”. La TWAS establece diez categorías distintas para sus miembros según el área de investigación y el profesor Guhl fue elegido por la categoría “Sistemas Biológicos y Organismos”. El profesor Guhl es Magíster en Microbiología, profesor emérito y director del Centro de Investigaciones en Microbiología y Parasitología Tropical (Cimpat) de la Universidad de los Andes, y es editor de la revista Acta Tropica (Elsevier). Cuenta con más de un centenar de publicaciones indexadas en revistas de alto nivel científico. Fue elegido como miembro de número de la Academia Colombia de Ciencias Exactas, Físicas y Naturales y ganó el Premio Nacional al Mérito Científico como Investigador de Excelencia de la Asociación Colombiana para el Avance de la Ciencia (ACAC), el Premio a la Vida y Obra de la Asociación de exalumnos de la Gran Bretaña, el Premio de Ciencias Exactas, Físicas y Naturales de la Fundación Alejandro Ángel Escobar, y el Premio John Humphrey de Inmunología de la Sociedad Británica de Inmunología. Esta nueva membresía a la Academia de Ciencias para el Mundo en Desarrollo (TWAS) es un reconocimiento más a su investigación y aporte a la ciencia en Colombia y el mundo. •

Bernardo Gómez Moreno fue designado como Profesor Emérito Por su trayectoria en la docencia y la investigación y por su compromiso con el desarrollo institucional, el profesor Bernardo Gómez Moreno del Departamento de Física de la Facultad de Ciencias de la Universidad de los Andes fue reconocido como Profesor Emérito por el Consejo Académico de la Universidad el pasado 27 de septiembre de 2012.

El profesor Gómez Moreno es Físico, Doctor en Física Nuclear Experimental de la Universidad de Bonn (Alemania). Lleva 33 años como profesor de la Universidad de los Andes, 12 de los cuales ha sido Director del Departamento de Física (1984-1988, 1990-1992 y 2000-2006). Ha sido distinguido con la “Medalla 50 Años de la Universidad de los Andes” y con el Premio de Docencia “Aldona Gabriunas” de la Facultad de Ciencias. Es activo investigador del Grupo de Física Experimental de Altas Energías, codescubridor del quark top en el Laboratorio Fermilab (Estados Unidos) en 1995 y, actualmente, con el Laboratorio CERN (Suiza), hace parte de los investigadores que anunciaron en julio pasado el descubrimiento de la partícula Bosón de Higgs. •

Clara Quijano es designada Asociada emérita de ACTA La profesora Clara Quijano del Departamento de Química de la Universidad de los Andes fue reconocida como asociada emérita de la Asociación Colombiana de Ciencia y Tecnología de Alimentos (ACTA). Este reconocimiento se otorgó por sus investigaciones y aporte científico en el área de los alimentos, así como por el desempeño académico y aporte a la revista científica Alimentos Hoy. La profesora Quijano es Química de la Universidad Nacional de Colombia, Licenciada en Química de la Pontificia Universidad Javeriana, Magíster en Química de la Universidad Nacional y Doctora de la Universidad Politécnica de Valencia donde obtuvo su tesis Magna Cum Laude. Se ha desempeñado como profesora del Departamento de Química de la Universidad de los Andes desde 1984 y es Directora del grupo de investigación en Química de Aromas y Ciencias Agroalimentarias que cuenta con apoyo internacional de las Universidades de Braunschweig y Bonn en Alemania y del Instituto de Investigaciones en la Industria Alimenticia de Cuba y México. Pertenece a la Sociedad Italo-latinoamericano de Etno-medicina, miembro latinoamericano de la AOAC y de la Sociedad de Ciencia y Tecnología de los Alimentos ACTA. La distinción se otorgó por ACTA en el 11º Congreso Nacional de Ciencia y Tecnología de Alimentos, CONACTA 2012, el pasado 12 de septiembre. •

Universidad de los Andes, Facultad de Ciencias 83


PROFESORES NUEVOS

Geociencias

Departamento de Ciencias Biológicas

Idael Francisco Blanco Quintero

Eloisa Lasso De Paulis

Doctor y Magíster en Geología de la Universidad de Granada, España, e Ingeniero Geólogo del Instituto Superior Minero Metalúrgico de Moa, Cuba. Sus áreas de interés o investigación están dirigidas a estudios petrológicos, con especial énfasis en el metamorfismo. Para ello utiliza técnicas analíticas modernas en geoquímica y mineralogía combinadas con cálculos y modelos numéricos, orientadas fundamentalmente a comprender las zonas de subducción. Su curso actual es Geociencias, en el que hace una introducción a las Geociencias desde el Universo y especialmente en La Tierra.

Bióloga de la Universidad de Panamá, Magíster en Ciencias Biológicas de la Universidad de Puerto Rico y Doctora en Ecología, Evolución y Conservación por la Universidad de Illinois, Estados Unidos. Sus temas de interés son la biología reproductiva en plantas, la genética de poblaciones y la ecofisiología. Actualmente se desempeña como profesora asistente de Fisiología Vegetal. Departamento de Física Jaime E. Forero Romero Doctor en Física de la École Normale Supérieure de Lyon y Físico de la École Normale Supérieure de Paris (Ulm). Llega al Departamento de Física después de estancias posdoctorales en el Instituto Leibniz de Astrofísica (Potsdam, Alemania) y el Departamento de Astronomía en la Universidad de California (Berkeley). Sus áreas de interés principales son la formación de galaxias y cosmología, ambas desde un punto de vista computacional. Yenny Hernández

Departamento de Matemáticas Paul Bressler Doctor en Matemática Pura del Massachusetts Institute of Technology, Estados Unidos, y Matemático de la Universidad Brandeis, Estados Unidos. Sus temas de investigación son el análisis algebraico, la teoría del índice, la cuantización por deformación y las clases características. Actualmente imparte los cursos de Cálculo de Variable Compleja y Geometría Diferencial 2. Departamento de Química Roland J. W. Meesters

Postdoctora del Max Planck Institute for Polymer Research, Alemania, Doctora del Trinity College Dublin, Irlanda, y Física de la Universidad Nacional de Colombia. Sus temas de interés e investigación son las nanoestructuras de carbono como nanotubos, grafeno y grafito microestructurado. Actualmente imparte los cursos de Física I y un módulo de Introducción a la Física.

Doctor en Química Bioanalítica de la Erasmus Universiteit Rotterdam, Holanda; Magíster y Licenciado en Ciencias Naturales y Ambientales de la Open Universiteit, Holanda, y Licenciado en Química Analítica de la Zuyd University, Holanda. Sus principales áreas de interés son la aplicación de sofisticadas técnicas analíticas, que incluyen aplicaciones de microanálisis en la investigación clínica, biomédica y ambiental. Actualmente dicta las siguientes asignaturas: Quimiometría, Química Analítica y del Medio Ambiente y Extracción y Separación.

Alejandra Valencia

Diego Camilo Estupiñán Méndez

Doctora en Física Aplicada y Magíster de Ciencias en Física Aplicada de la Universidad de Maryland, Estados Unidos, y Física de la Universidad de los Andes. Sus temas de interés son la generación, caracterización y uso de diversas fuentes de luz que van desde fuentes de fotones individuales hasta fuentes de luz de alta potencia. Actualmente lidera el Grupo de Óptica Cuántica Experimental del Departamento de Física.

Químico y Magíster en Química de la Universidad de los Andes. Sus temas de interés son las síntesis de compuestos heterocíclicos para aplicaciones como nuevos materiales orgánicos o nuevas moléculas bioactivas. Actualmente es investigador del Grupo de Investigación en Compuestos Bio-orgánicos (GICOBIORG) y dicta los cursos de Aplicaciones de Química, Fundamentos de Química Orgánica y Laboratorio de Química Orgánica III.

84 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


La sonrisa de Aurelia La fotografía fue tomada durante un muestreo de peces en los arrecifes rocosos de la bahía de Capurganá. Muestra a una medusa Aurelia sp. bañada por los rayos de luz del ocaso. Autor: Camilo Escobar Sierra, estudiante Universidad de Antioquia, miloes114@gmail.com Lugar: Capurganá-Chocó. Fecha: 17 de julio de 2011


Concurso de fotografías e imágenes Con el propósito de exhibir la belleza manifiesta en los diferentes aspectos de la naturaleza, Hipótesis realiza con cada número un concurso de fotografías e imágenes en ciencias naturales y exactas.

Diego Mauricio Parra Valentina Abril

Sara Estefanía Sayago

María José Leaño

Arturo Larrahondo Avendaño

Reynel Galvis Cruz

Mateo Fernández Lucero

Luis Ponce Muñoz

Rafael Ospino Betancurt

En la versión No. 13 del concurso, el Comité Editorial de Hipótesis seleccionó “La sonrisa de Aurelia” como la ganadora entre las 194 fotografías recibidas. Colaboraron en la escogencia, Annelie Franke de Vergara, profesora del Departamento de Diseño, y Juan Gabriel Sutachán, diseñador de la Facultad de Ciencias.


A continuación se reseñan las fotografías finalistas.

Soñar el bosque

Venus, entre el Sol y la tierra

Fotografía tomada en una salida de campo de medición de la calidad del hábitat y el estado de la población de Osos Andinos. La fotografía se situa en medio de un sendero de Osos Andinos, usado para su desplazamiento dentro del bosque. El dosel de estos bosques nos muestra lo diverso del hábitat andino y nos recuerda su fragilidad en zonas tan agotadas por el mal manejo del suelo. Autor: Nicolás Reyes, estudiante Universidad Industrial de Santander, nicolas.reyes2@gmail.com Lugar: Municipio de Santa Bárbara, Santander-Colombia. Fecha: 24 de marzo del 2010.

Después de las 5:00 p.m. del martes 5 de junio de 2012, Venus se interpuso por varios minutos entre el Sol y la Tierra. Gracias a un acople entre un telescopio Maksutov Carl Zeiss y una cámara réflex digital se lograron varias imágenes para analizar el fenómeno celeste. Autor: Andrés Felipe Castaño Jiménez, fotógrafo de Unimedios, andresfelipe00@gmail.com Lugar: Bogotá. Fecha: 5 de junio de 2012

Mundo efímero

Mezcla asfáltica

Algo efímero y fugaz es el minimundo que se crea en una pompa de jabón pero no por ello menos fascinante. Diversas características físicas como la tensión superficial y la descomposición de la luz tienen lugar en estos pequeños elementos que son diversión para niños y adultos. Autor: Laura Ximena Olejua Mancipe, diseñadora industrial y fotógrafa independiente, lauraolejua@gmail.com Lugar: Bogotá. Fecha: 1 de septiembre de 2012

Fotografía microscópica de mezcla asfáltica a x40 aumentos, tomada en el Laboratorio de Caracterización MEB (microscopio electrónico de barrido) y posteriormente coloreada en Photoshop. Autor: Natalia Ardila Torres, estudiante Universidad de los Andes, n.ardila273@uniandes.edu.co Lugar: Laboratorio de Caracterización MEB, Universidad de los Andes. Fecha: 21 de agosto de 2012

Universidad de los Andes, Facultad de Ciencias 87


Graduandos de posgrado* Facultad de Ciencias / Universidad de los Andes

TÍTULO

TÍTULO DE LA TESIS

DIRECTOR

FECHA DE GRADO

Édgar Yesid Mayorga Lancheros

Doctor en Matemáticas

Acerca de las estimaciones Lp, estabilización y la amplitud límite de la solución del problema de Cauchy para un sistema nohomogéneo que modela fluidos estratificados tridimensionales

Andrei Giniatoulline

agosto de 2012

Mario Andrés Velásquez Méndez

Doctor en Matemáticas

Equivariant connective K-homology and configuration spaces

Bernardo Uribe

agosto de 2012

Diana Carolina Guzmán Caro

Magíster en Ciencias Biológicas Área Biología

Effect of housing conditions and diet on the behavior of captive woolly monkeys (Lagothrix lagothricha)

Pablo R. Stevenson

marzo de 2012

Carolina Ortiz Villa

Magíster en Ciencias Biológicas Área Biología

Impact of late-pleistocene climate change on wet- versus dry-forest frogs: An environmental niche modeling analysis of the “Panamanian X.

Andrew J. Crawford

marzo de 2012

Cecilia Margarita Prada Cordero

Magíster en Ciencias Biológicas Área Biología

Composición vegetal asociada a gradientes ambientales en bosques tropicales de montaña (Parque Nacional Cueva de Los Guacharos, Huila-Colombia)

Pablo R. Stevenson

marzo de 2012

Nicolás Rodríguez Cerón

Magíster en Ciencias Biológicas Área Biología

Ensamble filogenético de comunidades de frailejones de la cordillera Oriental

Santiago Madriñán Restrepo

marzo de 2012

Mayra Amparo Sáenz Oviedo

Magíster en Ciencias Biológicas Área Biología

Evaluación del estatus taxonómico del género Hetaerina en la familia Calopterygidae (Zygoptera: Odonata)

Emilio Realpe Rebolledo

mayo de 2012

Andrea Morales Rozo

Magíster en Ciencias Biológicas Área Biología

Origin and Dynamics of a Hybrid Zone Between Ramphocelus Tanagers (Thraupidae) in Colombia

Matthew D. Carling

junio de 2012

Alexander Flórez Rodríguez

Magíster en Ciencias Biológicas Área Biología

Four pulses of diversification and differential migration rates across the Andes explain the structuring of genetic diversity in an assemblage of lowland Neotropical birds

Carlos Daniel Cadena

julio de 2012

Ángela Aristizabal Botero

Magíster en Ciencias Biológicas Área Biología

Análisis de las secuencias Citocromo Oxidasa I y los Espaciadores Ribosomales Internos Transcritos (ITS I y II) para la identificación de especies de interés forense de la familia Calliphoridae (Diptera)

Manuel Paredes

agosto de 2012

Juan David Beltrán Parra

Magíster en Ciencias Biológicas Área Biología

CAM or not CAM: A study on juveniles of Guzmania lingulata, Guzmania monostachia and Werauhia sanguinolenta (Bromeliaceae)

Santiago Madriñán Restrepo

agosto de 2012

Edna Carolina Bonilla León

Magíster en Ciencias Biológicas Área Biología

Brain Dependent Regeneration in the Marine Polyclad Flatworm Boninia divae

Federico Brown

agosto de 2012

Luz Mery Buitrago Alvarado

Magíster en Ciencias Biológicas Área Biología

Ensayo espectrofotométrico para la cuantificación de cistina y homocistina en muestra de orina espontanea: aplicación a una población de alto riesgo para desordenes del metabolismo

Jesús Alfredo Uribe Ardila

agosto de 2012

Eduwin Antonio Hincapié Peñaloza

Magíster en Ciencias Biológicas Área Biología

Sensibilidad espectral del ojo compuesto de Rhodnius prolixus (Hemiptera: Triatominae): respuestas electrofisiológicas

Jorge Molina

agosto de 2012

Lili Joana Marciales Caro

Magíster en Ciencias Biológicas Área Biología

Diversidad de grupos funcionales basados en la morfología del fitoplancton en humedales de la Orinoquia Colombiana

Santiago Duque R.

agosto de 2012

GRADUANDO

88 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


GRADUANDO

TÍTULO

TÍTULO DE LA TESIS

DIRECTOR

FECHA DE GRADO

Ana María Olivares Veira

Magíster en Ciencias Biológicas Área Biología

Population structure of the black arowana (Osteoglossum ferreirai) in Brazil and Colombia: implications for its management

Susana Caballero

agosto de 2012

Ruth Elizabeth Ortiz Castro

Magíster en Ciencias Biológicas Área Biología

Análisis de la expresión de microRNA 21 en la progresión del carcinoma de próstata

María Mercedes Torres Carvajal

agosto de 2012

Andrea Paz Vélez

Magíster en Ciencias Biológicas Área Biología

Testing the role of ecology and life history in structuring genetic variation across a landscape: A comparative ecophylogeographic approach

Andrew J. Crawford

agosto de 2012

Paula Satizabal Posada

Magíster en Ciencias Biológicas Área Biología

Genetics and acoustics of West Indian and Amazonian manatees

Susana Caballero

agosto de 2012

Ricardo Andrés Téllez Zapata

Magíster en Ciencias Biológicas Área Biología

Seasonal variation fo the dolphinfish (Coryphaena hippurus) in the South Pacific Coast of Colombia

Susana Caballero

agosto de 2012

María Fernanda Torres Jiménez

Magíster en Ciencias Biológicas Área Biología

Cecropia-Ant interaction in Colombia: identification and network structure

Santiago Madriñán Restrepo

agosto de 2012

Carlos Alberto Orozco Castaño

Magíster en Ciencias Biológicas Área Microbiología

Estandarización de una técnica diagnostica basada en los perfiles de expresión de la transcripción ikaros en pacientes con leucemia

Valeriano López Segura

febrero de 2012

Natalia Melisa Peñaranda Fajardo

Magíster en Ciencias Biológicas Área Microbiología

Caracterización del factor de virulencia CagA de Helicobacter pylori

Carlos Jaramillo

febrero de 2012

Francisco Javier Buitrago Flórez

Magíster en Ciencias Biológicas Área Microbiología

Identification of transcription factor genes and their correlation with the high diversity of Stramenopiles

Diego Mauricio Riaño Pachón

marzo de 2012

Mónica Nohemy Numpaque Moreno

Magíster en Ciencias Biológicas Área Microbiología

Presence and expression of the Alkane Monooxigenase gene(alkB) and alkS Regulator by Diesel Degrading Bacteria Isolated from an Open Cast Coal Mine in La Guajira, Colombia

Jenny Dussán

marzo de 2012

Juan José Vásquez Ospina

Magíster en Ciencias Biológicas Área Microbiología

Biochemical characterization of the pyrimidine salvage pathway enzyme uracil phosphoribosyltransferase in Phytophthora infestans

Silvia Restrepo

marzo de 2012

Liliana Edith Vásquez Urbina

Magíster en Ciencias Biológicas Área Microbiología

Subtipos moleculares del cáncer de seno y caracterización de la amplificación y deleción del gen TOP2A

María Mercedes Torres Carvajal

marzo de 2012

Ángela Victoria Holguín Moreno

Magíster en Ciencias Biológicas Área Microbiología

Uso terapéutico de bacteriófagos nativos Colombianos en modelos biológicos para el control de infecciones por Pseudomonas aeruginosa MDR

Martha J. Vives

abril de 2012

Juan David Ramírez González

Magíster en Ciencias Biológicas Área Microbiología

Chagas cardiomyopathy manifestations and Trypanosoma cruzi genotypes circulating in chronic chagasic patients

Felipe Guhl

junio de 2012

Catherine García Serje

Magíster en Ciencias Biológicas Área Microbiología

Detección de Mycoplasma pneumoniae en una población seleccionada de niños con exacerbación de asma, durante el periodo de diciembre 2010 y febrero 2012

María del Pilar Delgado Perafán

julio de 2012

Martha Catalina Álvarez Meneses

Magíster en Ciencias Biológicas Área Microbiología

Análisis de la diversidad genética del gen ROP16 en formas asintomáticas y oculares de toxoplasmosis en Colombia

Felipe Guhl

agosto de 2012

Universidad de los Andes, Facultad de Ciencias 89


GRADUANDO

TÍTULO

TÍTULO DE LA TESIS

DIRECTOR

FECHA DE GRADO

Yulien Amado Medina

Magíster en Ciencias Biológicas Área Microbiología

Multifactorial aspects associated with seborrheic dermatitis in the genus Malassezia and its phylogenetic relationships

Adriana Celis

agosto de 2012

Isidro Arévalo Vargas

Magíster en Ciencias Biológicas Área Microbiología

Leucodistrofia metacromática: estudio de una población de alto riesgo en Colombia

Jesús Alfredo Uribe

agosto de 2012

Camilo Barbosa Porras

Magíster en Ciencias Biológicas Área Microbiología

Bacteriophage V1P2 drives strong directional selection against Vibrio harveyi (CV1) in evolving and co-evolving interactions

Martha J. Vives

agosto de 2012

Camila Clivio Hernández

Magíster en Ciencias Biológicas Área Microbiología

Expresión de genes en un proceso de biorremedación de lodos aceitosos grado API 11.5 por un consorcio de bacterias nativas

Jenny Dussán

agosto de 2012

Rami Imad Jada’a

Magíster en Ciencias Biológicas Área Microbiología

Methane prouction using degraded Pleurotus ostreatus as the substrate

Silvia Restrepo

agosto de 2012

Jorge Alejandro López Tamayo

Magíster en Ciencias Biológicas Área Microbiología

Computational modeling of the defense signaling pathways in Solanum tuberosum during the compatible interaction with Phytophthora infestans

Silvia Restrepo

agosto de 2012

María del Pilar Miranda Vergara

Magíster en Ciencias Biológicas Área Microbiología

Assessment of mitochondrial superoxide production, mitochondrial DNA content and DNA damage in smokers and non-smokers

Helena Groot

agosto de 2012

Manuel Julián Escobar Díaz

Magíster en Ciencias - Física

Reacciones nucleares de interés astrofísico

Neelima Kelkar

febrero de 2012

Sergio Bravo Medina

Magíster en Ciencias - Física

Beyond Einstein’s gravity: motivation, consequences and cosmology

Marek Nowakowski

marzo de 2012

Daniel Felipe Edilberto Noguera Poveda

Magíster en Ciencias - Física

Análisis teóricos y computacionales de sistemas coloidales esféricos anisotrópicos

Gabriel Téllez Acosta

marzo de 2012

Álvaro Javier Vega Vargas

Magíster en Ciencias - Física

Extensions of the Poincaré group

Marek Nowakowski

junio de 2012

Carlos Felipe González Hernández

Magíster en Ciencias - Física

Búsqueda de HSCPs en colisiones protónprotón a una energía de 7 TeV usando la técnica de tiempo de vuelo con los detectores DT del experimento CMS

Juan Carlos Sanabria Arenas

julio de 2012

Giovany Andrés Ruiz Poso

Magíster en Ciencias - Física

Factor de aumento y vibraciones electromecánicas en nanotubos de carbono CNTs

Ángela Stella Camacho Beltrán

julio de 2012

Nelson Ricardo Fino Puerto

Magíster en Ciencias - Física

Estudio de la respuesta diamagnética de estados excitónicos en moléculas asimétricas de puntos cuánticos

Ángela Stella Camacho Beltrán

agosto de 2012

Diego Alejandro Ramírez Díaz

Magíster en Ciencias - Física

Adaptation of the level of lipid chain order and elastic properties of bacterial membranes as a mechanism for inducing resistance to amphiphilic antimicrobial peptides

Chad Leidy

agosto de 2012

Karla Patricia Varela Cardozo

Magíster en Ciencias - Física

High energy neutrinos from choked and successful gamma-ray bursts and their possible detection by IceCube

Juan Carlos Sanabria Arenas

agosto de 2012

Eliana Lucero Barriga Turriago

Magíster en Matemáticas

Cohomología o-minimal de grupos de pequeña dimensión

Alf Onshuus

febrero de 2012

Andrés Felipe Mejía Rodríguez

Magíster en Matemáticas

Estudio de las tasas de disparo neurales utilizando procesos de renovación

Arunachalam Viswanathan

junio de 2012

90 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


GRADUANDO

TÍTULO

TÍTULO DE LA TESIS

DIRECTOR

FECHA DE GRADO

Campo Elías Suárez Villagrán

Magíster en Matemáticas

Acerca de la distribución de los números primos de forma polinomial

Jean Carlos Cortissoz

julio de 2012

Giovanny Andrés Jaramillo Puentes

Magíster en Matemáticas

Uniformización de curvas algebraicas reales

Florent Schaffhauser

agosto de 2012

Ramón Alejandro Urquijo Novella

Magíster en Matemáticas

GIT quotients and symplectic reduction: the Kempf-Ness theorem

Florent Schaffhauser

agosto de 2012

Diego Camilo Estupiñán Méndez

Magíster en Ciencias - Química

Síntesis de nuevos pirazoles y triazoles fusionados π-extendidos con potencial actividad optoelectrónica

Jaime Antonio Portilla

julio de 2012

Jorge Daniel Gamarra García

Magíster en Ciencias - Química

Síntesis electroquímica, caracterización de peliculas de polipirrol dopadas con el anión heptafluorotantalato con potencial alta capacitancia

María Teresa Cortés

julio de 2012

Nicolás Moreno Gómez

Magíster en Ciencias - Química

Volúmenes molales parciales y compresibilidades isentrópicas de bromuros de tetraalquilamonio simétricos y asimétricos, en función de la concentración, en solución acuosa diluida entre 278.15 K y 308.15 K

Édgar Vargas

julio de 2012

María Helena Duran Zambrano

Magíster en Ciencias - Química

Evaluación de la influencia de parámetros de síntesis de membranas de polipirroles en el proceso de remoción de Pb+2 en disolución acuosa mediante EQCM

María Teresa Cortés

agosto de 2012

* Enero a agosto del 2012.

Universidad de los Andes, Facultad de Ciencias 91


[ hipótesis. Política editorial ] La Facultad de Ciencias de la Universidad de los Andes se ha esforzado por ofrecer nuevos espacios para divulgar los avances científicos en las áreas de Ciencias Biológicas, Física, Química, Matemáticas y Geociencias. La Revista Hipótesis nació en 2003 como resultado de este esfuerzo y se ha fortalecido dentro de la comunidad académica como una revista de divulgación que tiene por objetivo comunicar los adelantos científicos en un lenguaje claro y sencillo al alcance tanto de los lectores especializados como de los no especializados.

La extensión de los artículos debe estar entre 1.500 y 3.000 palabras. Las notas no deben superar las 1.000 palabras.

Hipótesis está dirigida a estudiantes, profesores, investigadores e interesados que busquen enriquecer su bagaje intelectual sobre temas de actualidad científica. La Revista se publica semestralmente en los meses de mayo y noviembre y acepta artículos y notas inéditas, de autores nacionales e internacionales. Los artículos recibidos son evaluados por el Comité Editorial, quienes verifican la calidad temática y editorial del contenido. Las notas estarán escritas, preferiblemente, por estudiantes de pregrado y posgrado. Se publican artículos y notas en español, inglés, francés, portugués e italiano y se permite su reproducción para fines académicos, citando la fuente. Para reproducciones con otros fines, se debe solicitar la autorización de la Revista.

Estilo y edición

Hipótesis incluye en cada número un concurso de fotografía e imágenes sobre ciencias naturales y exactas, abierto al público general de la Revista. La fotografía ganadora se publica en la Revista y en la página web, citando al autor. Indicaciones para los autores Hipótesis acepta artículos y notas inéditas, de autores nacionales e internacionales. Los artículos y notas deben tener un estilo de redacción sencillo y claro que lo haga accesible a un público no especializado y tendrán como propósito general el de destacar información de gran interés en las ciencias básicas. En la sección de notas, se dará preferencia a aquellas escritas por estudiantes de pregrado y posgrado.

Para el envío de los archivos, se deben adjuntar los textos y las imágenes en una carpeta comprimida con el nombre del autor seguido por un guion bajo y el título del texto. Se debe incluir la información completa de todos los autores: nombre completo, teléfono, correo electrónico, dirección, último título académico y afiliación y cargo actual.

Se recomienda el uso de notas de pie de página solo en los casos donde se requiera una explicación más detallada. Las citas dentro del texto deben estar numeradas entre corchetes y debidamente relacionadas con las referencias bibliográficas al final. De igual forma, se deben numerar las referencias entre corchetes según el orden en que se citaron en el texto. A continuación se presentan algunos ejemplos para las referencias bibliográficas. Libro [1] Marco D, ed. Metagenomics. Theory, methods and aplications. Norfolk: Caister Academic Press; 2010.

Capítulo de libro [2] Charles T. The potential for investigation of plant-microbe interactions using metagenomics methods. In: Marco D, ed. Metagenomics. Theory, methods and aplications. Norfolk: Caister Academic Press; 2010.

Artículo de revista [3] Viaud M, Pasquier A, Brygoo Y. Diversity of soil fungi studied by PCR-RFLP of ITS. Mycological Research 2000; 104(9): 10271032

Presentación y extensión

Imágenes

Los artículos y notas, junto con las imágenes, deben ser enviados por correo electrónico a hipotesis@uniandes.edu.co, o en línea por el formulario de la página web, en formato Word, espacio sencillo, letra Times New Roman, tamaño 12 pts.

Se recomienda el uso de imágenes para dinamizar el texto. Cada una de las imágenes, cuadros, gráficas o fotografías debe citar su fuente y el autor debe gestionar el permiso de reproducción, si fuera necesario. •

92 Hipótesis, Apuntes científicos uniandinos, núm. 13, noviembre del 2012


Núm. 13, noviembre del 2012 / 3000 ejemplares ISSN 1962-729X ISSN ONLINE 1794-354X © Universidad de los Andes Para la reproducción total o parcial de esta obra solicitar la autorización de la Revista.

Comité editorial Carlos Hernando Montenegro Decano Facultad de Ciencias Mirtza Liliana Arroyo Secretaria General Adriana Rosillo Coordinadora de Investigaciones

Editor Profesor asociado, Departamento de Matemáticas Coordinadora editorial

Carolina Hernández Universidad de los Andes Facultad de Ciencias Carrera 1.a núm. 18A-10 / Apartado aéreo: 4976, Bogotá, D. C., Colombia Teléfonos: (571) 332 4533, 339 4949, 339 4999, ext. 2700 hipotesis@uniandes.edu.co Ediciones Uniandes Carrera 1.a núm. 19-27, edificio AU 6, Bogotá, D. C., Colombia Teléfonos: (571) 339 4949, 339 4999, ext. 2181, 2071, 2099 infeduni@uniandes.edu.co Precio de venta: $12.000

Catalina González Profesora asistente, Departamento de Ciencias Biológicas James Weston Profesor asociado, Departamento de Química Alexander Cardona Profesor asociado, Departamento de Matemáticas Manu Forero Profesor asistente, Departamento de Física Carlos Andrés Díaz Estudiante de Posgrado Fotografías

Juan Gabriel Sutachán Corrección de estilo

Fredy Javier Ordóñez Arboleda Diagramación

Andrés Leonardo Cuéllar V. Foto de la portada: Los veintitrés pares de cromosomas humanos http://www.mun.ca/biology/scarr/FISH_chromosomes_300dpi.jpg

SDO (NASA) y el consorcio AIA.

Foto de la contraportada: Laura Ardila

NASA

Hernando Echeverri Dávila


hipótesis • Núm. 13 • Noviembre del 2012 • Universidad de los Andes

Douglas Osheroff Obtuvo su grado de físico en 1967 de la Universidad de Caltech. Continuó sus estudios en la Universidad de Cornell donde obtuvo su doctorado en 1973, después de colaborar en las investigaciones en bajas temperaturas del Laboratorio de Física Atómica y del Estado Sólido con sus asesores de tesis, Robert C. Richardson y David Lee. Entre los tres descubrieron efectos inesperados del helio-3 a temperaturas cercanas al cero absoluto por lo que fueron galardonados con el Premio Nobel de Física en 1996. Luego de trabajar por 15 años para los Laboratorios Bell, en 1987, Oshreroff ingresó como profesor de física y física aplicada a la Universidad de Stanford, donde actualmente es profesor emérito.

CONTENIDO

ISSN 1692-729X • Núm. 13 • Noviembre del 2012 • Universidad de los Andes • Facultad de Ciencias

Apuntes científicos uniandinos

4

5

10

11

12

16

17

18

3

2

1

3 Editorial Colciencias, regalías y la política nacional en Ciencias Básicas 5 Notas 20 Problemas y rompecabezas 24 El maravilloso mundo de los policládidos Diana Marcela Bolaños Rodríguez, Edna Carolina Bonilla León y Federico David Brown

6

7

8

13

14

15

9

32 Biotecnología turquesa

Virginia Helena Albarracín y María Eugenia Farías

40 Genética y ambiente en la susceptibilidad a desórdenes afectivos

Katherine Peña, Yvonne Gómez y María Claudia Lattig

50 El mundo fascinante de las metaloenzimas

James F. Weston y Óscar G. García

58 Perdón, profesor Goddard

Sergio de Régules

19

20

21

22

X

Y

64 Viajes en el tiempo

Germán Puerta Restrepo

72 El Sol y el fin del mundo

Santiago Vargas Domínguez

80 Entrevista con Douglas Osheroff 82 Noticias 85 Concurso de fotografías e imágenes Precio de venta $12.000

88 Graduandos de Posgrado 92 Política editorial

Genética y ambiente

en la susceptibilidad a desordenes afectivos

hipÓtesis 13  

Hipotesis 13

Read more
Read more
Similar to
Popular now
Just for you