Page 1


TABLA DE CONTENIDOS

BASURA ESPACIAL HUELLAS Y RASTROS FÓSILES LA NUEVA EPIDEMIA LA SINGULARIDAD DE STEPHEN HAWKING LUZ Y SOMBRA EN LOS ANILLOS DE SATURNO VIRUS CONTRA BACTERIAS CHISTES PARA RELAJARSE


Ilustraciones: José Quintero

a a B sur s a e p cI al

Daniel Martín Reina

El espacio inmediato a la Tierra, donde orbitan los satélites artificiales, se está llenando de satélites añejos y restos de choques entre aparatos. La situación se hace cada vez más peligrosa tanto para los satélites activos como para los tripulantes de la Estación Espacial Internacional.


El 10 de septiembre de 2009 a las 15:02, hora universal, se publicó el reporte diario de SOCRATES, servicio informático de localización de objetos que se encuentran en órbita alrededor de nuestro planeta. El informe anunciaba que el Iridium 33, satélite de telecomunicaciones estadounidense en activo, pasaría a 584 metros del satélite militar ruso Kosmos 2251, que estaba fuera de servicio desde 1995. Ambos se movían a unos 790 kilómetros de altitud. Durante la semana anterior, SOCRATES había pronosticado algo similar en diversos reportes, pero no se trataba de situaciones alarmantes. De hecho, en cada uno de esos informes se anunciaban por lo menos otros 10 encuentros cercanos más peligrosos en los que no pasó nada. Sin embargo, ese día ocurrió lo peor: apenas unas horas más tarde, en el momento de la máxima aproximación, los operarios del satélite perdieron contacto con el Iridium 33. Poco después se detectó una nube de fragmentos en las órbitas donde deberían haber estado ambos satélites. La conclusión era evidente: los cálculos habían fallado y los satélites habían chocado de lleno a gran velocidad. Los 690

kilogramos del Iridium 33 y los 900 del Kosmos 2251 se transformaron en más de 2 000 fragmentos de un tamaño superior a 10 centímetros, junto con cientos de miles de piezas más pequeñas.

La otra cara de la exploración espacial El desafortunado accidente de estos dos satélites empeoró notablemente el estado de las órbitas de los satélites artificiales, ya de por sí bastante congestionadas. Desde el 4 de octubre de 1957, cuando la Unión Soviética lanzó al espacio el Sputnik 1, se han puesto en órbita cerca de 7 000 satélites artificiales. La mayoría se destruyeron al reingresar en la atmósfera una vez terminada su vida útil. Pero muchos otros siguen en órbita pese a llevar años sin funcionar. Es el caso del Vanguard I, satélite lanzado por Estados Unidos en 1958 y que operó hasta 1964. Este satélite lleva casi medio siglo sin control, lo que lo convierte en el artefacto inactivo más antiguo que orbita nuestro planeta. Y si nada lo remedia, seguirá ahí al menos otros 200 años. Tanto el Vanguard I como el resto de los satélites inactivos forman lo que se conoce como basura espacial, es decir, objetos artificiales desactivados en órbita alrededor de la Tierra. Además de satélites, la basura espacial también incluye etapas de cohetes que quedaron

en el camino y fragmentos generados por las explosiones o las colisiones entre artefactos. Incluso los astronautas han contribuido a ensuciar el espacio inmediato a nuestro planeta al perder durante sus paseos espaciales objetos como bolígrafos, guantes, cepillos de dientes, bolsas de basura, un par de cámaras y hasta una mochila con herramientas. Estas piezas de basura espacial, que son de lo más variado, se suelen clasificar según su tamaño o, mejor dicho, según nuestra capacidad de detectarlos. Con radares y telescopios podemos localizar de forma bastante precisa fragmentos mayores de 10 centímetros (el tamaño de una pelota de béisbol). Los últimos datos recopilados por la NASA indican a que existen más de 22 000 piezas así. Además, puede haber hasta 500 000 trozos de basura espacial de entre uno y 10 centímetros, los cuales son muy difíciles de rastrear. Y se calcula que el número de esquirlas de menos de un centímetro, completamente invisibles para nosotros, puede ser de varios millones. En total, se estima que todos los fragmentos juntos suman más de 6 000 toneladas de chatarra. El problema de la basura espacial no es sólo una cuestión de cantidad. Toda esta chatarra da vueltas a nuestro planeta a enormes velocidades, cercanas en algunos casos a los 30 000 kilómetros por hora. Si uno de esos fragmentos, por muy pequeño que sea, impacta contra un satélite o una nave, puede dañar su cubierta exterior o


inutilizar los sistemas de comunicación. También puede perforar el traje de un astronauta que esté realizando un paseo espacial, poniendo en peligro su vida. Todo esto supone un serio riesgo para las misiones espaciales, tanto actuales como futuras.

Vecindario congestionado La basura espacial no está distribuida de manera uniforme en torno al planeta, sino que se acumula principalmente en dos bandas de altitud. La primera de ellas es la llamada órbita terrestre baja (LEO, siglas en inglés de Low Earth Orbit), que comprende la zona situada entre 160 y 2 000 kilómetros de altitud. Salvo el programa Apolo, que nos llevó a la Luna, todas las misiones espaciales tripuladas han tenido lugar en la LEO; ahí es donde se encuentra en la actualidad la Estación Espacial Internacional. Esta órbita también es la preferida para los satélites de reconocimiento fotográfico y de los satélites de observación del clima y el medio terrestre. Otro de sus ilustres huéspedes es el telescopio espacial Hubble, que orbita a unos 600 kilómetros de altura. La otra franja saturada es la órbita geoestacionaria (GEO), situada a algo más de 36 000 kilómetros de altura. Los objetos que ocupan esta órbita tardan 24 horas en dar una vuelta a nuestro planeta, por lo que se encuentran siempre sobre un mismo punto de la superficie terrestre. Por ese motivo, en la GEO se ubican la gran mayoría de los satélites meteorológicos y los satélites de telecomunicaciones. (El famoso sistema GPS, formado por 24 satélites, no se encuentra en ninguna de estas dos órbitas, sino en una zona intermedia

e

El 11 de enero de 2007 el ejército de China puso a prueba un nuevo misil balístico lanzándolo contra el satélite meteorológico Fengyun-1C, que orbitaba alrededor de nuestro planeta a una altura de casi 850 kilómetros. La maniobra militar fue un éxito —el misil impactó de lleno contra el satélite—, pero desperdigó por el espacio al menos 150 000 fragmentos de chatarra de más de un centímetro, de los cuales unos 3 000 tenían por lo menos el tamaño de una pelota de golf. El gigante asiático logró así el dudoso honor de provocar el suceso que más basura espacial ha generado en la historia. China no es el primer país que realiza una maniobra parecida. Durante la Guerra Fría, Estados Unidos y la Unión Soviética extendieron su lucha de poder al espacio. De todos los satélites que se lanzaron al espacio en aquella época, la gran mayoría tenía una finalidad militar y algunos contenían una sustancia especialmente contaminante y peligrosa: uranio-235. En efecto, a mediados de la década de 1960, la cúpula militar soviética diseñó una nueva familia de satélites con radar. Como éstos consumían mucha energía

eléctrica, imposible de abastecer con los paneles solares de entonces, decidieron utilizar en su lugar un pequeño reactor nuclear a base de uranio enriquecido. Entre 1970 y 1988, la Unión Soviética puso en órbita 31 de estos satélites, preparados para expulsar su núcleo radiactivo a una órbita superior antes de volver a entrar a la atmósfera. Sin embargo, en 1978 el Kosmos 954 se estrelló en el norte de Canadá después de que los operadores soviéticos perdieran el control sobre su artefacto. El sistema de seguridad falló y los 30 kilogramos de uranio que contenía el satélite dejaron una estela radiactiva que contaminó una zona de 100 kilómetros cuadrados. Cinco años más tarde, el Kosmos 1402 también falló y su reactor nuclear se hundió en el océano Atlántico. A causa del programa soviético de satélites nucleares, se calcula que todavía debe haber en órbita casi una tonelada de combustible nuclear, así como unas 10 toneladas del líquido empleado para refrigerar el reactor, una mezcla de sodio y potasio capaz de provocar una tremenda explosión al entrar en contacto con el aire o el agua.

llamada órbita media, a 20 000 kilómetros de altitud.) Hoy en día hay algo más de 1 000 satélites en activo que están repartidos principalmente entre la LEO y la GEO (489 y 424, respectivamente). Pero si tenemos en cuenta la basura espacial, resulta que la

mayoría está acumulada en la GEO. El motivo es que, cuanto mayor es la altura a la que se encuentra el satélite, menor es el rozamiento con las capas altas de la atmósfera, pues éstas son más tenues. Por tanto, aumenta el tiempo que tarda el satélite en perder


altura y caer a zonas más densas de la atmósfera, donde acaba destruyéndose a causa de la fricción. Por debajo de los 500 kilómetros de altura, los satélites duran unos cuantos años sin maniobras de asistencia. Pero si se encuentran a 800 kilómetros, entonces la vida media aumenta hasta

varias décadas. Por encima de 1 000 kilómetros, un satélite puede permanecer tranquilamente varios siglos en el espacio.

Un problema en cascada Uno de los primeros en alertar del peligro de la basura espacial fue Donald Kessler, científico estadounidense de la NASA. A finales de la década de 1970, Kessler predijo que si la basura espacial seguía creciendo al mismo ritmo, llegaría un punto en el que la densidad sería tan alta que se producirían colisiones continuamente. Estos choques generarían más fragmentos, por lo que el riesgo de nuevas colisiones sería todavía mayor, y así sucesivamente. La basura espacial crecería de forma exponencial aunque dejáramos de producirla. Esta incómoda situación es lo que se conoce en la actualidad como síndrome de Kessler o cascada de ablación. El concepto de cascada de ablación no es nuevo, pues ya se ha utilizado para estudiar fenómenos relacionados con la astrofísica, como el origen del Sistema Solar, la formación de anillos alrededor de planetas y la creación del llamado cinturón de asteroides. Gracias a estas investigaciones hoy sabemos que este tipo de procesos

alarma En la Estación Espacial intErnacional Fruto de la cooperación internacional, la Estación Espacial Internacional (EEI) está considerada uno de los mayores logros de la ingeniería espacial. Como sus predecesoras, la EEI reside en órbita baja, a unos 380 kilómetros de altitud, y cuenta con un blindaje exterior que la protege del impacto de fragmentos de hasta un centímetro. Los problemas surgen cuando el pedazo de basura espacial supera ese tamaño. Entonces no hay más remedio que poner en marcha los motores de la EEI para esquivarlo. Eso fue lo que ocurrió en octubre del año pasado, cuando se detectó un trozo de chatarra de unos 10 centímetros procedente, cómo no, de la colisión entre el Kosmos 2251 y el Iridium 33. Al día siguiente del aviso, la EEI encendió sus motores durante menos de un minuto y se elevó de su órbita unos 300 metros, lo justo para evitar la posibilidad de una colisión. Desde su puesta en órbita en 1998, ha habido que realizar 12 maniobras similares, lo que da una media de una al año. Pero la amenaza no siempre se detecta a tiempo de que la EEI pueda cambiar de altitud. Si la probabilidad de impacto es superior a 0.0001 (una posibilidad entre 10 000 de que haya colisión), se pone en marcha el protocolo de evacuación. Los astronautas se introducen en las dos naves Soyuz acopladas a la EEI

es lento, en general. Esto quiere decir que se necesitarían décadas para producir un cambio significativo en la población actual de basura espacial. Y mucho más tiempo para conseguir cubrir la Tierra con una capa de dicha basura, como ya predicen algunos catastrofistas. Eso no significa que haya que soslayar el problema. Un aumento considerable de la basura espacial podría dejar inservible alguna de las bandas de altitud más usadas hoy en día y causar, por ejemplo, graves problemas de telecomunicaciones. Además, existen otros factores que pueden acelerar el temido síndrome de Kessler. Por ejemplo, la carga de combustible que todavía llevan muchos de los satélites para maniobrar y cambiar de órbita. Cualquier fragmento de chatarra espacial que impacte contra un depósito de combustible puede causar una violenta explosión, provocando una cascada de fragmentos e iniciando una reacción en cadena.

que se encargan habitualmente de traer y llevar a la tripulación y que en estas ocasiones sirven de vehículo de emergencia. Una vez que ha pasado el peligro, se comprueba si la presión en el interior de la EEI permanece estable. De ser así, los astronautas pueden abandonar las Soyuz y regresar a sus tareas habituales. Si hubiera que seguir adelante con la evacuación, la tripulación podría estar en la Tierra en menos de media hora. Aunque nunca se ha llegado a tanto, en los últimos años se han producido un par de situaciones delicadas. En 2009 y 2011, dos pequeños trozos de basura espacial hicieron que la tripulación de la EEI se refugiara durante varios minutos en las naves Soyuz. Afortunadamente todo quedó en el susto. Pero si no frenamos el problema de la basura espacial, es muy probable que este tipo de alarmas ocurra más a menudo en el futuro.

Prevención y limpieza Una primera medida para controlar el problema de la basura espacial pasa por detener su crecimiento, sobre todo en las zonas más saturadas: toda la GEO en general, y la banda de los 800 kilómetros en la LEO. En el caso de la GEO, las principales agencias espaciales ya acordaron hace varios años que los satélites que la usen deben abandonarla una vez terminada su vida útil. Esto se consigue reservando una parte de su combustible para realizar esa maniobra final. Pero resulta que la norma no dice si el artefacto debe ir a una órbita superior o inferior a la GEO. Una órbita inferior acortaría el tiempo que tardará en reingresar en la atmósfera, pero a cambio el satélite necesitaría mucho más combustible. En la práctica, el satélite suele enviarse a una órbita superior, conocida en el argot como “órbita cementerio”. De esta forma se consigue


más información • www.academica.mx/observatorio/

noticias/basura-espacialformación-un-serio-problema

despejar la GEO, aunque a costa de que el satélite se convierta en basura espacial durante siglos. Los satélites de la LEO, en cambio, se conducen a un reingreso controlado en la atmósfera al final de su vida útil. El único inconveniente es que, en muchas ocasiones, para entonces el satélite ha perdido su capacidad de maniobrar y no se puede controlar a distancia. Ya existen algunas ideas para asegurar el éxito de esta maniobra postrera. Una de las más originales propone incluir un globo y la cantidad justa de gas —helio, por ejemplo— para inflarlo cuando haya terminado la vida útil del satélite. El globo incrementa la fricción con las capas superiores de la atmósfera, lo que a su vez lo hace reingresar más pronto. Se calcula que un satélite que podría tardar varias décadas en reingresar lo haría en sólo un año. Estas medidas preventivas también habrá que combinarlas con otras acciones de limpieza de las órbitas satelitales. La Agencia Espacial Japonesa, JAXA, propone retirar la basura espacial utilizando una gigantesca red de varios kilómetros cuadrados. La red estaría hecha de un material muy resistente, pero al mismo tiempo muy ligero. El candidato ideal serían los nanotubos de carbono, el mismo material que podría hacer realidad el sue-

ño del ascensor espacial (ver ¿Cómo ves? No. 152). Tras varias semanas de pesca, la red se dirigiría hacia la Tierra, donde la fricción con la atmósfera remataría el trabajo. Otra opción es disparar un potente láser apuntando a los fragmentos más grandes. La idea no es destruirlos (eso produciría el efecto contrario que se persigue), sino simplemente frenarlos y así reducirles la altitud, lo que aceleraría su reingreso en la atmósfera. Esta tecnología tiene la ventaja de que ya está disponible en la actualidad: países como Estados Unidos y China cuentan con armas antimisiles que se podrían utilizar para este fin mucho más beneficioso.

Peligro para todos Éstas y otras ideas que se han propuesto para acabar con la basura espacial son muy necesarias, pero por el momento superan nuestra capacidad técnica y económica. Mientras se resuelven estos aspectos del problema, es fundamental que la comunidad internacional no se quede de brazos cruzados y tome algunas decisiones importantes. Por un lado, actualmente no hay legislación internacional que controle la limpieza del espacio inmediato a la Tierra. Las principales potencias mundiales (EUA, China o Francia) y agencias espaciales como la ESA y la NASA han establecido algunas leyes nacionales y normativas internas. Pero el pacto no es vinculante, lo que hace que el cumplimiento sea desigual. Al ser cada vez mayor el

número de países que cuentan con satélites propios —hoy en día hay más de 100—, sería conveniente implantar un protocolo básico de obligado cumplimiento para todos ellos. Por otro lado, tampoco hay un seguimiento unificado del tráfico espacial. Aunque las órbitas de todos los satélites aparecen en las bases de datos de objetos orbitales del mundo, los responsables de evitar colisiones entre ellos son, en última instancia, los propios operadores de los satélites, ya sean gobiernos, ejércitos o compañías privadas. Sería importante crear un control internacional de objetos en órbita y mejorar su detección ampliando la red de radares y telescopios en todo el mundo. En la genial película de animación WALL-E, hacia el año 2115 la superficie terrestre se ha convertido en un enorme estercolero y la atmósfera está rodeada de una densa capa de restos de satélites y otros artefactos espaciales. La Tierra se ha quedado sin árboles y plantas, y los humanos se ven obligados a abandonarla, dejándola en manos de un ejército de robots encargados de limpiar y compactar toda esa basura. Todavía estamos a tiempo de evitar que se cumplan estas funestas predicciones.

Daniel Martín Reina, frecuente colaborador de ¿Cómo ves?, egresó de la carrera de Ciencias Físicas de la Universidad de Sevilla, España.


Huellas

y

rastros fósiles Raúl Gío-Argáez, Catalina Gómez Espinosa y Brenda Martínez Villa

Huellas fósiles de la pared, San Juan Raya: superior izquierda, pterosaurio; derecha, lepidosaurio; inferior izquierda, tortuga; derecha, cocodrilo. Foto: Raúl Gío-Argaez

San Juan Raya es una población ubicada en los límites entre Puebla y Oaxaca, en la Reserva de la Biosfera Tehuacán-Cuicatlán. Tiene apenas 200 habitantes, pero cuenta con un museo en el que se exhiben fósiles de invertebrados que alguna vez vivieron en la región y con un programa de ecoturismo paleontológico. A la riqueza de fósiles del lugar se añadió en 2007 una extraordinaria colección de huellas de vertebrados, entre ellas las de pterosaurios y las de un dinosaurio terópodo. Don Juventino Pablo Reyes Hernández, el 7 de enero de ese año descubrió una pared de roca con múltiples marcas y oquedades, llamadas icnitas (del griego iknos, “huellas”), de diversos reptiles. Don Juventino ha relatado sobre esas marcas que “no sabía qué eran. Algunas personas que vinieron me habían dicho que eso no les parecía importante, que querían ver las huellas grandotas de gallina”. La pared se halla junto al lecho de un arroyo efímero, llamado por los habitantes del lugar “río seco”, que es tributario del río Zapotitlán, y quedó al descubierto gracias a la erosión causada por las lluvias torrenciales típicas de los desiertos. A causa de los movimientos tectónicos la pared de roca es casi vertical, con 78 grados de inclinación mide aproximad a ment e 12

Ilustraciones: Pedro García y Verónica Cantú

Las cercanías de un pequeño pueblo de nuestro país albergan un verdadero tesoro para los paleontólogos, detectives de la vida prehistórica.


América del Nor te, Europa y Asia, y Gondwana, formado por América del Sur y África que empezaban a separarse. La mayor parte del territorio mexicano se encontraba sumergido en el mar y sólo la parte noroeste había emergido.

El estudio de huellas y rastros

metros de base por 8.50 de altura, y tiene una superficie de casi 100 metros cuadrados. Contiene al menos 174 huellas de vertebrados, además de incontables marcas de madrigueras de invertebrados. Entre las huellas de vertebrados hay rastros de pisadas de pterosuarios o reptiles voladores, de cocodrilos, de tortugas y una de dinosaurio terópodo. A unos 50 metros del lugar, se encontraron entre los estratos troncos reemplazados por sílice de aproximadamente 20 centímetros de diámetro y de un metro de largo. Su posición sugiere que fueron arrastrados por una tormenta y transportados hacia una zona marina marginal. Dentro del desierto donde se ubica San Juan Raya, a principios del siglo XIX se aventuraron dos naturalistas belgas apellidados Nyst y Galeotti, quienes dieron a conocer en 1836 de manera formal los primeros fósiles de caracoles marinos. Pero no fue sino hasta el siglo XX que geólogos y paleontólogos mexicanos iniciaron estudios de la fauna de invertebrados que habitaron este lugar hace 110 millones de años, durante el Cretácico temprano. En aquella época este lugar era parte de un mar somero, con aguas bien oxigenadas y cálidas, llamado mar de Tethys (nombrado así en honor de la diosa del mar de la mitología griega). Sus condiciones permitieron que se desarrollaran ambientes parecidos a los arrecifes actuales habitados por esponjas, corales, moluscos, gusanos, erizos y abundantes organismos microscópicos. En este periodo el mar de Tethys dividía al mundo en dos continentes: Laurasia, formado por lo que actualmente es

En octubre de 2010, investigadores y estudiantes del Instituto de Ciencias del Mar y Limnología y de la Facultad de Ciencias, ambos de la UNAM, iniciaron el estudio, la descripción y el análisis de las huellas fósiles (paleoicnitas) de la pared de roca de San Juan Raya. Las huellas fósiles se tienen que estudiar de día y de noche para que la luz y sombra del Sol no interfieran. Durante

la noche se alumbran con luz blanca, para ver más fácilmente su forma y si son aisladas o corresponden a rastros del desplazamiento de algún organismo. Una vez identificadas sus formas y las trayectorias que siguen, las huellas se marcan y se miden. Las huellas de desplazamientos o rastros permiten medir el tamaño de la pisada (largo, ancho y profundidad) y de la zancada. Con estos datos se han hecho fórmulas matemáticas que permiten saber a cuántos metros por segundo avanzaba el organismo al caminar trotar o correr. Para saber el tamaño relativo de la mano o el pie que dejó la huella del avance, se utiliza un factor de conversión: según el organismo de que se trate, éste puede ser de 3.4 a 5.9 tomando como media el 4. Al multiplicar el factor de conversión por el tamaño de la huella se obtiene una aproximación del largo de la extremidad que la hizo.

¿Cómo se preservan las huellas en el registro fósil? Las condiciones ambientales son importantes para que las huellas se pierdan o permanezcan en el registro fósil. Para que las huellas de las patas de los organismos se preserven, se necesita la coincidencia de varios factores. En primer lugar, que el organismo pise un lugar con suelo muy fino y húmedo como el lodo; después se requiere que estas pisadas queden enterradas por sedimento más grueso, por ejemplo arena, para que queden protegidas del Sol, el viento y el agua. Si sobre ellas se sigue acumulando sedimento, las pisadas quedarán enterradas a una considerable profundidad, lo

1

El organismo pisa sobre suelo húmedo.

4

Después de millones de años se vuelve roca.

cual hace que aumente la presión sobre ellas; al paso de millones de años estos sedimentos se volverán roca. Entonces un sedimento fino, suave y húmedo se transformará en una roca sólida y dura. Después, es posible que por erosión o movimientos tectónicos esta roca llegue a la superficie y deje al descubierto las huellas. De cada huella se obtendrán dos moldes: uno donde quedará la marca de la pata cuando pisó el sedimento fino, lo que equivale a un positivo o molde, y el sedimento más grueso que rellenó la pisada, que quedará en relieve, y corresponde al negativo de la huella.

2

3

Deja la marca de su pata.

5

Se obtiene un molde de la depresión que dejó la huella.

La huella es enterrada por arena.

6

Se obtiene un negativo, que es el sedimento que enterró la huella.


Foto: Raúl Gío-Argaez

San Juan Raya

Prospección nocturna.

Para estudiar huellas es muy útil obtener moldes y poder observar con detalle en el laboratorio las características morfológicas. Los moldes se hacen con materiales diversos dependiendo del tipo de roca en el que se vaya a trabajar, así como de la posición del afloramiento. Cuando las pisadas están casi paralelas al sustrato, los moldes suelen ser de materiales plásticos fácilmente manejables; por ejemplo, el caucho. En el caso de la pared de San Juan Raya, se emplean materiales semisólidos como la plastilina de escultor. A partir de las huellas se puede también saber si el organismo era grande o pequeño, si caminaba en dos o cuatro patas, la forma de sus manos y pies, y el

número de dedos que tenían; y, en algunos casos, el peso del animal (ver ¿Cómo ves?, No. 71), además de inferir si el organismo estaba en reposo, alimentándose, apareándose, criando o desplazándose en una ruta migratoria, o si los organismos viajaban solitarios o en grupo. Incluso algunas veces se ha llegado a saber que los saurópodos cuidaban a sus crías, al igual que los elefantes, pues se ha observado que las pequeñas pisadas de las crías se encuentran al centro rodeadas de las pertenecientes a los adultos que los estaban protegiendo.

Variedad de dinosaurios El hallazgo de las icnitas de San Juan Raya estuvo precedido por otros des-

San Juan Raya debe su nombre al santo patrono del pueblo, San Juan Bautista; el término “Raya” hace referencia a que se localiza en los límites de los estados de Puebla y Oaxaca. Está ubicado dentro de la Reserva de la Biosfera TehuacánCuicatlán en el municipio de Zapotitlan a 35 km al suroeste de Tehuacán. Este lugar guarda una rica historia cultural, pues se originó a partir de los pueblos popolocas, los primeros en domesticar y cultivar el maíz; este hecho facilitó el desarrollo de las grandes civilizaciones prehispánicas. Tiene aproximadamente 200 habitantes que viven en construcciones tradicionales hechas con paredes de adobe, piedra o bajareque y con techos de hojas generalmente de yucas, que contrastan con las recientes edificaciones de tabique y lámina. El clima es cálido semiseco con lluvias de 200 a 500 mm anuales. Hay más de 2 800 especies de plantas; destacan las cactáceas, entre ellas las que tienen forma de columnas, además de otras tan llamativas como los viejitos, pitayos, garambullos y biznagas. Además de cactus, la vegetación está conformada por una diversidad de agaves, plantas de hojas carnosas, enormes árboles de los llamados pata de elefante, cazahuates, mezquites y yucas. En la Reserva Tehuacán Cuicatlán se han contabilizado 102 especies de mamíferos, 356 de aves y 53 especies de reptiles. Hay venados, coyotes, mapaches, liebres, correcaminos, tortugas y serpientes que por sus colores se confunden con el paisaje árido Los pobladores de San Juan Raya han desarrollado un programa de ecoturismo paleontológico; cuentan con un museo de sitio donde exhiben fósiles de invertebrados que se han descrito para la región y ofrecen una variedad de recorridos en bicicleta o a pie para visitar lugares con fósiles. En el mercado de artesanías se venden artículos hechos de palma y rafia, y productos naturales derivados de la medicina tradicional como jabones, ungüentos, miel, bebidas medicinales y licores de flores y frutos de la región.

cubrimientos en la zona. En el 2006 se encontraron huellas de dinosaurios herbívoros (saurópodos); el geólogo Jerjes Pantoja-Alor, investigador del Instituto de Geología de la UNAM, dio a conocer los rastros de 35 metros de huellas en forma


Reptiles Subclase Anápsida (del griego a, “sin” y hapside “bóveda”), que significa sin orificios en el cráneo

Arcosauria, que significa “reptiles dominantes”

Nombre común

Características

Tortugas

Aparecen hace 260 millones de años durante el Triásico. De tronco ancho y corto, recubierto por un caparazón de donde salen, por delante, la cabeza y las patas anteriores, y por detrás, las patas posteriores y la cola.

Cocodrilos

Aparecen en el Triásico, hace 220 millones de años. De cuerpo alargado y grandes mandíbulas. Los primeros cocodrilos eran totalmente terrestres y muy ágiles, los actuales son semi acuáticos. La piel está recubierta por escamas de queratina de donde deriva su nombre, que significa “lagarto de piedra”.

Pterosaurios

Surgieron hace unos 230 millones de años en el Triásico y se extinguieron hace 65 millones de años a finales del Cretácico. Eran reptiles voladores, las alas estaban formadas de piel y se extendían desde las rodillas hasta los brazos.

Dinosaurios

Aparecieron durante el Triásico, de 240 a 230 millones de años atrás, y desaparecieron a finales del Cretácico, hace 65 millones de años. La principal diferencia de los dinosaurios con los demás reptiles es la cadera, en la que las patas se articulaban por debajo de ésta, lo que les permitió tener una posición erguida.

Las patas se articulan a los lados de la cadera lo que les da una posición semi erguida.

Los reptiles aparecieron hace unos 310 millones de años. Son vertebrados que respiran por pulmones, con una piel cubierta de escamas que forman una lámina continua. Hay una gran variedad, en la actualidad encontramos tortugas, cocodrilos, caimanes, lagartijas, serpientes y tuátaras. Algunos de los reptiles extintos son los dinosaurios, pterosaurios, ictiosaurios y plesiosaurios.

redondeada, con un tamaño promedio de 30 centímetros de largo y 60 centímetros de ancho. Pantoja-Alor sugiere que este rastro corresponde a los dinosaurios llamados apatosaurios (brontosaurios): “un tipo de dinosaurios herbívoros de 30 a 40 toneladas de peso y 20 metros de largo; de cabeza pequeña, cuello muy largo y patas muy pesadas”. Se ha interpretado que el lugar donde están las huellas de estos dinosaurios, que vivieron durante el Cretácico, fue un área pantanosa. Posteriormente, en el 2007, los pobladores de la localidad descubrieron más de 40 huellas de dinosaurios carnívoros (terópodos), que fueron estudiadas y dadas a conocer por Óscar Polaco, del Instituto Nacional de Antropología e Historia. Polaco dedujo que al parecer se trataba de tres diferentes especies de dinosaurios “que transitaron por la zona para beber

agua en un cuerpo lacustre existente hace millones de años”. El hallazgo de huellas de pterosaurios es muy importante, pues es el segundo registro que se tiene en México. Las primeras pisadas de pterosaurios se descubrieron en Coahuila en un lugar llamado Cerro del Pueblo y tienen una edad aproximada de 70 millones de años, mientras que las encontradas en Puebla son por lo menos 40 millones de años más antiguas. Los pterosaurios, de los cuales se han descubierto cerca de 100 especies en todo el mundo (del griego ptero que significa “ala” y sauros, “reptil”, también llamados pterodáctilos) fueron reptiles voladores que aparecieron en el Triásico, hace 230 millones de años, y se extinguieron en el Cretácico, hace 65 millones de años. Antes de que existieran las aves eran los únicos verte-

brados voladores. En las manos su cuarto dedo era alargado y servía para unir la piel del cuerpo al dedo y formar el ala, los otros tres dedos formaban una garra. Existieron pterosaurios de dos tipos: los ramforincoideos (que significa “pico delgado”), que tenían una larga cola y un pico lleno de dientes. Aparecieron en el Triásico y se extinguieron en el Jurásico. Y los pterodactiloideos (que significa “con dedos en las alas”), que tenían una cola pequeña o no tenían cola, en su pico había pocos dientes y

¿


Más información • Gío-Argaez, F. y C. Gómez-

Espinosa, “Paleoicnología del Cretácico Temprano en San Juan Raya Puebla”, Gaceta de la Unión Geofísica Mexicana, México, 2012 • Wellnhofer, P., Historia ilustrada de los pterosaurios, Susaeta Ediciones, Madrid, 2000 • www.revista.unam.mx/vol.10/ num2/art11/int11.htm

Foto: Raúl Gío-Argaez

poseían una cresta en la cabeza. Aparecieron en el Cretácico Inferior y se extinguieron en el Cretácico Superior. De la punta de un ala al extremo de la otra, el tamaño de los pterosaurios variaba de 25 centímetros (Nemicolopterus crypticus) hasta 15 metros (Quetzalcoatlus northropi). Los pterosaurios se han encontrado en todos los continentes en lugares que fueron ambientes acuáticos, principalmente marinos, como en Alemania y Brasil, y en ambientes acuáticos terrestres, como en Texas, Estados Unidos. Aún hay muchas dudas sobre cómo se alimentaban estos reptiles; se cree que algunas especies fueron carnívoras y de hábitos depredadores, y otras se alimentaban de peces (piscívoros), de insectos (insectívoros) o de carne en descomposición (carroñeros). No se descarta tampoco que algunas se acercaran a lagos o ríos en busca de cangrejos y caracoles para alimentarse de ellos. Sobre estos reptiles hay aún muchas incógnitas; por ejemplo, cómo era su comportamiento y la interacción que tenían con otros organismos con los que coexistían y coincidían en tiempo y espacio. Uno de los yacimientos fosilíferos que resulta particularmente importante para comparar sus huellas y rastros con los hallados en Puebla, se encuentra en la zona de La Rioja, en España. En esta área se han registrado algunos rastros de tortugas y pterosaurios contemporáneos a las icnitas de San Juan Raya. Las similitudes entre ambos lugares pueden ayudar a reconstruir la posición de tierras y mares en aquella época remota. La UNAM y la Fundación Conjunto Paleontológico de Teruel-Dinópolis,

Fósiles de invertebrados encontrados en San Juan Raya.

España, han firmado ya un convenio de colaboración académica con el fin de continuar la investigación de este yacimiento fosilífero de manera conjunta. En un primer trabajo de campo realizado en enero de 2012, Alberto Cobos y Rafael Royo, de la Fundación Conjunto Paleontológico Dinópolis-Teruel, junto con el equipo de investigadores de Ciencias del Mar y la Facultad de Ciencias, UNAM, descubrieron por lo menos 15 nuevos sitios con huellas de dinosaurios en las cercanías del poblado de San Juan Raya. Hay huellas de terópodos (dinosaurios bípedos carnívoros con huellas de tres dedos), ornitópodos (dinosaurios bípedos herbívoros con huellas de tres dedos pero sin garras) y saurópodos (dinosaurios cuadrúpedos herbívoros). En fechas recientes, los pobladores han encontrado, además, restos óseos. En cuanto a la pared de roca con icnitas, la investigación sigue y a los grupos del Instituto de Ciencias del Mar

y Limnología y la Facultad de Ciencias, se han unido la Dra. Ligia Pérez Cruz y el Dr. Jaime Urrutia Fucugauchi, ambos investigadores del Instituto de Geofísica de la UNAM, que actualmente trabajan en la datación geomagnética de la pared para conocer con gran precisión su antigüedad. Los autores agradecen a Cristina Castillo López su participación en este artículo y a los pobladores de San Juan Raya por su apoyo y cooperación en el trabajo de campo. Raúl Gío-Argáez es doctor en Ciencias, investigador del Instituto de Ciencias del Mar y Limnologia y profesor de Paleobiología de la Facultad de Ciencias, UNAM. Catalina Gómez Espinosa es doctora en Ciencias Biológicas, actualmente realiza una estancia posdoctoral en el Instituto de Ciencias del Mar y Limnología, UNAM y es profesora de Paleobiología en la Facultad de Ciencias. Brenda Martínez Villa es bióloga egresada de la Facultad de Ciencias y actualmente cursa la carrera de arquitectura en la Facultad de Arquitectura, UNAM.


La nueva

los p

presUnt

Fotos pepinos: Arturo Orta

Un brote epidémico surgido en Alemania hace unos meses alertó a las autoridades mundiales de salud. Ésta es la historia de cómo se identificó a la bacteria responsable, gracias a los avances en ciencias genómicas.

Como microbiólogos, siempre nos han llamado la atención las epidemias; en especial saber cómo surgen, cuáles microorganismos las causan y qué efectos tienen en la salud y en otras facetas de la actividad humana. Además no deja de maravillarnos la capacidad que tiene hoy la ciencia para reconocer con prontitud los brotes epidémicos, aislar e identificar a los organismos involucrados en ellos y atajar, o al menos controlar, sus avances. Sirva como ejemplo la epidemia que hace poco alarmó a las autoridades mundiales en salud pública: en los primeros días de mayo de este año, en Alemania se detectó un número inusualmente grande de pacientes con síndrome urémico hemolítico, enfermedad frecuentemente provocada por una variedad de bacteria patógena que se conoce como Escherichia coli enterohemorrágica O157:H7 o, para facilitarnos la vida a todos, EHEC O157:H7. Los individuos que, por haber consumido agua o alimentos contaminados, se infectan con esa bacteria, sufren de fiebre, dolor abdominal y diarreas sanguinolentas graves. Sin embargo, ese padecimiento

todavía puede ser peor: a veces, algunos desventurados desarrollan complicaciones secundarias como el síndrome urémico hemolítico, que se caracteriza por fallas renales serias y por la disminución drástica del número de glóbulos rojos, situación que, aun con los cuidados médicos pertinentes, puede arrastrarlos a la sepultura. Ante el incremento súbito del número de pacientes con dicho síndrome —en pocos días se acumularon cientos de casos—, el Instituto Robert Koch de Alemania inició una investigación exhaustiva para identificar dónde surgieron las infecciones y a su agente causal. También estimó prudente ―sin tener aún todos los datos en la mano― aconsejar a su población no consumir pepinos y otras verduras de las cuales inicialmente se sospechó que podían estar contaminadas con la bacteria patógena. Dada esta advertencia, Alemania cesó de importar hortalizas de España, principal país abastecedor de su mercado, causando así a los agricultores ibéricos un grave perjuicio, que se acentuó dramáticamente cuando otros países también vetaron la importación de dichos productos. Este aviso prematuro

del instituto germano les costó a los españoles literalmente millones de euros, pues, amén de provocar que de dos plumazos, por así decir, los agricultores se quedaran con sus productos en el almacén, dio origen a lo que se conoce hoy como la crisis de los pepinos. Desde luego, el problema económico no era el único factor a tomar en consideración en esta crisis: de mayor trascendencia, como veremos, era el que se refería a la salud mundial. Ante la seriedad del brote epidémico, los alemanes dieron aviso al Centro Europeo para la Prevención y el Control de Enfermedades, cuya sede se halla en Estocolmo, y solicitaron su intervención. Con esta acción se inició una carrera contra el tiempo para descubrir la verdadera fuente de la contaminación e identificar, estudiar, y controlar la bacteria responsable de esta crisis de salud.

Germinados en el banquillo Los epidemiólogos europeos, tras una muy detallada investigación de los casos, descubrieron que muy posiblemente los


epidemia:

epinos,

t os cULpAbLes Miguel Ángel Cevallos y José Luis Puente

/A m

es

se expanden las epidemias en el mundo moderno, apenas tres meses después del inicio de la epidemia de EHEC, se enfermaron 4 075 personas de 16 países, de las cuales 50 fallecieron. La mayor parte de los pacientes no germanos se contagiaron porque hicieron turismo en Alemania y tuvieron el mal tino SA de comer algún alimento con germiNA sía nados contaminados. r te o :c oto Inesperadamente, a finales de junio un tri. F e P Cultivo e de E. coli en caja d nuevo brote de esta epidemia se detectó en Burdeos, puerto del sudoeste de Francia, pacientes se contagiaron por haber consu- y los afectados (ocho) no habían visitado mido germinados de diversos vegetales en Alemania, ni estado en contacto con tualgunos restaurantes de la ciudad alemana ristas que hubieran visitado recientemente de Lubeca. Estos restaurantes obtenían este país. Algunas evidencias preliminares sus germinados de compañías agrícolas indican como fuente inicial de ambos de la ciudad de Uelzen, situada en el brotes epidémicos a semillas de fenogreco, norte de Alemania. Una vez identificada originarias de Egipto, que se utiliza como la fuente de la epidemia (ver recuadro), las condimento y planta medicinal, y últimaautoridades de salud germanas tomaron mente en la producción de germinados. medidas para controlarla y evitaron que Esas semillas habrían entrado al mercado siguiera avanzando. De hecho, desde europeo sin los controles sanitarios aprolos primeros días de agosto había claras piados. Y si bien no se descartaron otras evidencias de que la epidemia en el país posibles fuentes secundarias, esta inforteutón estaba totalmente bajo control. mación permitió segar desde su origen Para que apreciemos la rapidez con que este nuevo brote epidémico.

Asesino al descubierto La Escherichia coli podría ser la protagonista de la famosa novela El extraño caso del Dr. Jekyll y Mr. Hyde del escritor escocés Robert Louis Stevenson, la historia fantástica de un hombre normal que se transforma en un malvado cada vez que bebe una pócima. La E. coli no patógena puede vivir inadvertida en nuestros intestinos, sin causar daño, o convertirse en un bicho maligno (E. coli patógena). Ambos tipos se pueden encontrar en los intestinos del hombre y de otros animales de sangre caliente y, por lo tanto, en las aguas negras donde su presencia sirve como marcador de contaminación fecal. Los microbiólogos pueden distinguir en el laboratorio diferentes subtipos (formalmente denominados serotipos) de E. coli patógenas y no patógenas, con base en ciertas moléculas de la superficie de la bacteria ―antígenos O, de los cuales existen 167 variedades― o del aparato con que nadan, el flagelo ―antígenos H, de los que se reconocen 75―. Así, cuando a una Escherichia se le da la designación de E. coli O157:H7, significa que tiene en su superficie el antígeno tipo O157 y en su flagelo el H7. El esquema de clasificación de las E. coli en serotipos, que se basa esencialmente en el trabajo que el investigador danés Fritz Kauffman publicó en 1947, permite hacer una cierta distinción entre las no patógenas y las patógenas, o evaluar su grado de peligrosidad como patógenas de acuerdo a cómo se asocian con brotes epidémicos previos. Los primeros análisis de laboratorio indicaron que la bacteria responsable del brote epidémico que se detectó primero en Alemania era una variedad de E. coli patógena, inusual en todos sentidos: primero, se determinó que esta bacteria pertenece al subtipo O104:H4, que nunca había sido causante de brotes epidémicos de ninguna clase, aunque ciertos epidemiólogos aseguran que ya se habían aislado bacterias parecidas en Alemania (2001), Francia (2004), Corea (2005) y la República de Georgia (2009). Otra característica que llamó la atención de los investigadores es que la nueva bacteria produce una potentísima toxina (conocida como verotoxina o toxina tipo Shiga) que daña gravemente la pared interna de las arterias y de las venas de poco calibre del tracto digestivo, de los


riñones y de los pulmones; por tanto, es la responsable de una gran parte de los síntomas que caracterizan al síndrome urémico hemolítico. Una vez que se tuvo clara la identidad del enemigo, dos instituciones, una alemana, el Centro Médico Universitario de Hamburgo-Eppendorf, y otra china, el Instituto Genómico de Beijing (BGI), secuenciaron el material genético (genoma) de la bacteria en sólo tres días. El análisis comparativo del genoma mostró que el pariente más cercano de este organismo en realidad es una E. coli enteroagregativa (EAEC) que hace pocos años se aisló estudiando a pacientes africanos infectados con VIH (el virus que causa el sida) que sufrían diarreas persistentes. Éste y otros estudios de genómica comparativa mostraron que la bacteria causante del brote epidémico posee la capacidad de producir verotoxina, así como una combinación de genes que participan en la virulencia, que son típicos de las E. coli enteroagregativas. Por ello la bacteria nueva se ha clasificado como E. coli (EAEC VTEC) O104:H4 (las siglas VTEC significan que es una E.

L abor

detectivesca

Para identificar el origen y la causa de una epidemia como la que surgió en Alemania en mayo pasado, se determina primero si todos los pacientes han sido afectados por el mismo organismo. Después se investiga si los casos están relacionados, que suele ser lo más difícil: averiguar, por ejemplo, si los pacientes coincidieron en el mismo lugar en los mismos tiempos, si tuvieron actividades en común, si comieron las mismas cosas o en los mismos lugares, etc. En el caso de Alemania se revisaron hasta las comandas de los restaurantes para saber qué habían comido los comensales enfermos y determinar a qué alimento estaban ligados los contagios. También y por primera vez se usaron las fotografías que algunos de éstos se tomaron en el restaurante para verificar el tipo de platillos que consumieron. Una vez que se identifican las posibles fuentes, hay que cotejar in situ si efectivamente esas fuentes siguen existiendo. Cuando se trata de contaminación de alimentos, la fuente puede ser el alimento mismo o quienes lo manipulan.

coli (EC) que produce verotoxina (VT). Para los propósitos de este artículo, a esta bacteria la denominaremos simplemente E. coli alemana.

Peligros de una asociación íntima Dependiendo de sus mecanismos de infección y de los síntomas que producen, las E. coli patógenas se clasifican en ocho grandes grupos llamados patotipos. En particular, las E. coli enteroagregativas, que causan diarreas acuosas persistentes, se llaman así porque producen en su superficie una serie de “filamentos” (técnicamente fimbrias o pili) que les permiten unirse entre ellas y adherirse sorprendentemente bien a nuestras células intestinales, formando grandes agregados. De hecho, las E. coli de esta variedad se pegan mucho mejor a nuestros intestinos que las que causan usualmente las diarreas sanguinolentas y el síndrome urémico hemolítico (enterohemorrágicas). En otras palabras, la nueva bacteria es un contrincante extrema- E. coli. damente eficaz: se pega fuertemente al interior de nuestros intestinos, por lo cual resulta muy difícil desalojarla de ahí, pero además produce una poderosa toxina que puede dañar de forma irreversible los riñones, causar una anemia muy grave y una horrible diarrea sanguinolenta en los enfermos. Peor todavía, si un paciente incauto toma antidiarreicos, lo único que logrará es que sus intestinos retengan durante más tiempo la toxina, con lo cual empeorará sensiblemente su afección; si se autorreceta antibióticos, puede agravar seriamente sus síntomas, ya que esta bacteria tiene la característica de que al percibir que algún antibiótico le está haciendo daño, libera aún más toxina. Por fortuna, nuestro sistema inmunitario suele ser lo suficientemente efectivo como para contender con la dolencia en un máximo de 10 días. Sin embargo, las personas que llegan a desarrollar el síndrome urémico hemolítico necesariamente requerirán ser hospitalizadas, por varias

razones: en primer lugar, para evitar que se deshidraten; en segundo, porque seguramente van a necesitar hemodiálisis para limpiar la sangre, ya que pueden tener dañados los riñones, que son los que suelen realizar esta función; en tercero, porque podrían requerir transfusiones sanguíneas a fin de corregir la anemia que se desarrolla durante la afección. En Alemania se está probando, en ocho pacientes, un medicamento experimental (Soliris) para evaluar los beneficios que pudiera

tener en el combate a esta enfermedad. Sin embargo, dado su elevado precio, aún de tener éxito el fármaco no se aplicará a mayor escala, al menos en este momento.

Un poco de historia Aquellos que piensan que la E. coli es un organismo advenedizo en nuestros intestinos y que su presencia no es más que el resultado de los pecados de la vida moderna están completamente equivocados: los sesudos estudios de evolución molecular hechos por los investigadores estadounidenses Howard Ochman y Alex Wilson indican que la E. coli y sus parientes cercanos surgieron al mismo tiempo que los primeros mamíferos, hace entre 120 y 160 millones de años. Por primera vez tuvimos idea de la existencia de este pequeño organismo en 1886, cuando


el pediatra austriaco Theodor Escherich lo aisló de heces fecales de niños sanos y lo describió bautizándolo como Bacterium coli commune. Después de la muerte de dicho pediatra, y en honor a su trabajo, la bacteria fue rebautizada con el nombre que hoy ostenta: Escherichia coli. Desde que el ser humano existe, las Escherichia coli patógenas nos han provocado diarreas que han sido y siguen siendo en algunas partes del mundo una causa importante de mortalidad infantil. Sin embargo, fue hasta 1897 cuando por primera vez se sospechó que existían dos tipos de E.coli: las patógenas y las no patógenas, y tuvieron que pasar casi 50 años para que este hecho fuera confirmado gracias a las investigaciones del médico británico John S. B. Bray. En 1922, investigadores de

E. coli amplificada 10 000 veces.

la Universidad de Stanford hicieron una colección de E. coli aisladas de heces fecales humanas, sin saber que uno de sus miembros, la etiquetada como K12, se convertiría en el organismo mejor estudiado del planeta. El salto a la fama de E. coli K12 ocurrió en los años 40, cuando los investigadores Charles E. Clifton y

Edward L. Tatum la eligieron para estudiar el metabolismo del nitrógeno y la síntesis del aminoácido triptofano. Pronto descubrieron que era muy fácil manipularla en el laboratorio, razón por la cual ésta se convirtió en el caballito de batalla de muchísimos investigadores, tanto así que en el transcurso de los 70 años siguientes sobre ella se han publicado cientos de miles de artículos científicos. En 1997, la E. coli K12 se convirtió en el sexto organismo de cuyo ADN (genoma) se obtuvo la secuencia completa, labor que le tomó seis años de arduo trabajo a un equipo conformado sobre todo por investigadores de la Universidad de Wisconsin, Estados Unidos. La tecnología actual permite secuenciar genomas completos en unos cuantos días, por lo cual a la fecha se conoce el genoma de más de 1 500 bacterias, y entre ellas más de 50 E. Coli, tanto no patógenas como de todos los patotipos. Una muestra palpable de que las técnicas para secuenciar ADN han mejorado notablemente, es el hecho de que la secuencia del ADN de la E. coli alemana se obtuvo en tan solo tres días, y a un costo muchísimo menor del que tuvo secuenciar el genoma de la E. coli K12. El análisis del material genético de la E. coli alemana arrojó muchas sorpresas: la primera, que ya mencionamos, el que esta bacteria, que al principio se pensaba que era una E. coli enterohemorrágica, resultara una E. coli enteroagregativa con la capacidad de producir verotoxina; la segunda, que contiene la información genética necesaria para producir otras 32 toxinas diferentes y al menos tres hemolisinas (proteínas que tienen la capacidad de romper los glóbulos rojos); otra más, que posee una gran variedad de genes que le confieren la capacidad de producir una enfermedad en el ser humano y que a

grosso modo clasificamos como genes de virulencia. La E. coli alemana, además, posee tres paquetitos de información genética adicionales a la molécula de ADN que contiene la mayor parte de los genes de la bacteria y que se conoce como cromosoma. Dos de estos paquetitos, que técnicamente se denominan plásmidos, portan información relevante: uno de ellos tiene los genes que se requieren para fabricar las fimbrias que permiten a la bacteria pegarse firmemente a nuestras células intestinales y a otras superficies, mientras que el otro, el más grande, contiene los genes que le permiten vivir sin ninguna preocupación en presencia de 31 antibióticos diferentes.

Promiscuidad, arma secreta de las bacterias Uno de los descubrimientos más importantes en el campo de la microbiología, es que las bacterias son capaces de incorporar información genética de sus vecinos sin que importe (casi) la especie de que se trate. Si una bacteria se encuentra, por ejemplo, en un hospital, donde abundan los antibióticos, puede “tomar” los genes de un congénere resistente a estas sustancias y usarlos en su propio beneficio. Si necesita degradar petróleo para alimentarse y no cuenta con esa habilidad, puede adquirirla incorporando la información genética de una vecina que sí la posee. Si se encuentra en un ambiente donde las altas concentraciones de metales hacen difícil la vida, puede hacer suyos los genes que le confieran la capacidad de enfrentar esta agresión, consiguiéndolos de otra bacteria. En una perspectiva humana, sería como tener la posibilidad de tomar genes de un cactus para poder así contender con las sequías que se avecinan por el calentamiento global. Cuando se pudo contrastar el genoma de las E. coli patógenas con el de las no patógenas se hicieron descubrimientos que nos permiten entender cómo surgen las E. coli relacionadas con brotes epidémicos. El genoma de las E. coli patógenas es casi 25% más grande que el de las E. coli no patógenas. La información adicional se encuentra a manera de “parches” a lo largo del cromosoma bacteriano, y contiene muchos de los genes relacionados con la habilidad que posee la bacteria para generar una enfermedad, razón por la cual se


les conoce como islas de patogenicidad. Otra observación es que estas islas se pueden encontrar en otras bacterias patógenas diferentes a E. coli, fuerte evidencia de que tienen la propiedad de transmitirse de una especie a otra sin problemas. Se ha podido determinar que todas las E. coli tanto patógenas como no patógenas tienen en común alrededor de 2 200 genes; por ello a estos genes se les considera como el genoma medular (del inglés core genome) de esta especie. En contraste, los genes que no son comunes a todas las E. coli y que se supone que pueden ser todos transferidos de una bacteria a otra, son al menos 13 000. Los microbiólogos afectos a acuñar nuevos términos se refieren al conjunto de genes que tienen la capacidad de transferirse de un individuo a otro como el moviloma, nombre sin duda horrible, pero también sugerente. Queremos recalcar que en muchas ocasiones el moviloma puede compartirse entre especies bacterianas distintas. Otro término en boga es el pangenoma, es decir, el conjunto de genes que son patrimonio de la especie. En el caso de E. coli, su pangenoma consiste en los

Más

inforMación

• www.who.int/csr/don/2011_05_27/

es/index.html • www.svdcd.org.ve/files/Sindrome_ hemolitico_uremico_actualizacion.pdf • www.who.int/foodsafety/ publications/consumer/manual_ keys_es.pdf

2 200 genes del genoma medular, más los 13 000 del moviloma.

Cadena de eventos A las E. coli, como a los demás organismos de esta Tierra, lo que más les interesa es seguir subsistiendo como especie, así es que adoptan cualquier estratagema que les permita tener más descendientes que los otros. Cuando una E. coli patógena infecta a un individuo, no hace más que explotar un nuevo nicho ecológico para reproducirse en abundancia; las diarreas que provoca son una medida que utiliza la bacteria para dispersarse y permitir que sus descendientes encuentren otras víctimas a quienes infectar para repetir así nuevamente el ciclo. Cada vez que una E. coli obtenga genes del moviloma que le permitan infectar más eficientemente a los individuos, tendrá la potencialidad de reproducirse con pocas restricciones, al menos por un rato, de generar una epidemia y de fortalecer sus posibilidades de persistir como especie. La E. coli alemana surgió como consecuencia de una cadena de eventos que seguramente se iniciaron cuando una E. coli enteroagregativa, capaz de generar diarreas fuertes, pero transitorias, incorporó genes de una E. coli enterohemorrágica. En otros dos eventos independientes adquirió dos plásmidos: uno de ellos le permitió resistir a muchos antibióticos; el otro, pegarse aún mejor en la superficie de nuestros intestinos. Sin duda, la adquisición adicional más importante fue el gen de la verotoxina, aportado por un virus bacteriano (bacteriófago) que puede fácilmente traspasar información genética

de una bacteria a otra. Todos estos genes, parte del moviloma, se conjuntaron en la E. coli alemana para hacer de ella un patógeno muy efectivo, capaz de propagarse con rapidez. Afortunadamente, hoy contamos con programas muy eficientes de vigilancia epidemiológica y con estrategias que nos permiten mitigar con prontitud los brotes epidémicos. El manejo de la epidemia en Alemania y de otras epidemias que han ocurrido recientemente (baste mencionar la de la influenza H1N1), nos muestran cómo la tecnología y la comunicación global permiten responder de manera coordinada y eficiente para identificar, caracterizar y delimitar un problema epidemiológico. Sin embargo, también nos revela muchas de nuestras limitaciones, así como los problemas económicos, políticos y sociales que suelen presentarse durante el manejo de los brotes epidémicos. Es también un buen ejemplo de cómo la naturaleza sigue su curso, y de cómo muchas veces la influencia humana lo altera. El estudio de esta epidemia nos permite entender los mecanismos que utilizan las bacterias para renovar su información genética a fin de generar variantes con potencial epidémico. No nos queda sino permanecer siempre atentos y aprender de estas experiencias.

Miguel Ángel Cevallos, frecuente colaborador de ¿Cómo ves?, es doctor en investigación biomédica básica y especialista en genética molecular bacteriana. Trabaja en el Centro de Ciencias Genómicas de la UNAM. José Luis Puente es investigador del Instituto de Biotecnología de la UNAM y experto en las Escherichia coli patógenas.


La singuLaridad de

stephen hawking

Imagen: cortesía NASA/JPL-Caltech/UCLA

Daniel Martín Reina

No hay físico más famoso que él, pero no es premio Nobel. Ha aportado a la cosmología ideas originales y elegantes, aunque difíciles de confirmar. Y sus cambios de opinión siempre son noticia. ¿Qué hay en la mente de este gran científico?

En el verano de 1964 el astrónomo inglés Fred Hoyle estaba en la cima de su fama. Se encontraba en Londres para dar una conferencia en la que iba a explicar su hipótesis sobre el origen del Universo ante los miembros de la muy prestigiada Royal Society. Hoyle disentía de la hipótesis de la gran explosión (big bang), según la cual el Universo empezó como un punto de densidad infinita y hoy se expande. Para él, el Universo no tenía principio ni fin y siempre había presentado el mismo aspecto. Aunque las galaxias se separaban, como se sabía desde los años 30, Hoyle pensaba que en el espacio intergaláctico se iba creando materia nueva constantemente, de forma que la densidad total del Universo nunca cambiaba. La idea de Hoyle, alternativa a


Foto: Chandra/NASA/CXC/SAO/F.Seward et al.

la gran explosión, se conoce como teoría del estado estacionario (ver ¿Cómo ves? No. 161). Después de los aplausos, Hoyle solicitó preguntas. Un joven delgado y de aspecto frágil se puso en pie con mucho esfuerzo usando un bastón. Era un estudiante de física recién licenciado al que se le había diagnosticado esclerosis lateral amiotrófica (ELA), una terrible enfermedad degenerativa. Para asombro del público, el joven señaló que Hoyle se había equivocado en un cálculo. Lo sabía porque él mismo había realizado ese cálculo. El error echaba por tierra el razonamiento de Hoyle, quien abandonó la sala enfurecido. El atrevido joven que humilló a Hoyle se llamaba Stephen Hawking y hoy es sin duda el científico más famoso del mundo. Contra los pronósticos médicos que en los años 60 le auguraban una vida muy corta, Hawking cumplió 70 años en enero de este año. Y vivir confinado a una silla de ruedas y hablar por medio de un sintetizador de voz desde hace varias décadas no le ha impedido transformar nuestra imagen del Universo con ideas elegantes y originales.

Singularidad en el pasado El 8 de enero de 1942, exactamente 300 años después de la muerte de Galileo Galilei, nació Stephen Hawking en Oxford, Inglaterra, adonde sus padres se habían trasladado temporalmente durante la Segunda Guerra Mundial. Stephen fue un niño debilucho y torpe de movimientos, pero en la escuela era brillante y sacaba buenas notas sin ningún esfuerzo. Terminó los estudios de física en Oxford con calificación de sobresaliente, lo que

le abrió las puertas del Trinity Hall de la Universidad de Cambridge. Allí llegó en el otoño de 1962, a los 20 años, con la intención de profundizar en el conocimiento del cosmos. Para entender la estructura del Universo en la escala más grande necesitamos una descripción matemática de la atracción que ejercen las galaxias unas sobre otras; es decir, una teoría de la gravedad. A principios del siglo XX los cosmólogos abandonaron la venerable teoría de la gravitación universal de Newton en favor de la teoría general de la relatividad, propuesta por Albert Einstein en 1915. La teoría de Einstein combina el espacio y el tiempo en una única entidad de cuatro dimensiones, llamada espacio-tiempo. La presencia de materia y energía en este espacio-tiempo tiene un efecto parecido al de una bola de plomo en una cama elástica: hace que el espacio-tiempo se combe. La masa del Sol, por ejemplo, deforma el espacio-tiempo a su alrededor, lo que obliga a los planetas a desplazarse en torno suyo describiendo trayectorias curvas, como canicas que ruedan en un embudo. En la teoría general de la relatividad el movimiento de los cuerpos es consecuencia de la forma (o la geometría, como dicen los físicos) del espacio-tiempo, sin necesidad de ningún tipo de fuerza. Una década más tarde, en 1929, el astrónomo estadounidense Edwin Hubble descubrió que las galaxias no estaban quietas, sino que se separaban unas de otras. La causa más probable era que el propio Universo se expande, como si fuera un enorme globo. Hasta ese momento los científicos pensaban que el Universo era

estático e inmutable. Pero si las galaxias se estaban separando, esto significaba que en el pasado estuvieron más juntas. ¿Hubo un momento del pasado en que todas las galaxias estuvieran infinitamente juntas, todas en un punto? La hipótesis de la gran explosión, basada en las observaciones de Hubble, supone que sí, pero durante 30 años persistió esta duda: ¿permiten las leyes de la física que existan acumulaciones de materia de densidad infinita, tales como el Universo al momento del big bang? La respuesta estaba en la propia relatividad general y fue Stephen Hawking quien la encontró. Desde mediados de la década de 1960, se dedicó al estudio de las llamadas singularidades: puntos donde la curvatura del espacio-tiempo se hace infinita. Hawking y el matemático británico Roger Penrose desarrollaron nuevas técnicas matemáticas para analizarlas. Finalmente, en 1970, consiguieron demostrar que, según la teoría general de la relatividad, tuvo que haber en el pasado del Universo un estado de densidad infinita, con toda la materia y energía concentradas en un espacio mínimo. Esa singularidad era el principio del Universo, el big bang o gran explosión, y también marcaría el inicio del tiempo. El trabajo de Hawking y Penrose, por cierto, terminaba de hundir la teoría del estado estacionario de Hoyle, lo que le dio a éste otro motivo para aborrecer a Hawking. Pero eso no era todo. Hawking y Penrose también demostraron que la relatividad general contempla, además de una singularidad inicial, una posible singularidad final para el Universo: si su expansión se fuera frenando poco a poco hasta revertirse, entonces el Universo empezaría a contraerse hasta llegar a lo que podría llamarse big crunch o gran implosión. Empero hoy en día sabemos que la expansión del Universo, lejos de frenarse, se está acelerando, por lo que no habrá big crunch (ver ¿Cómo ves? No. 58).

No tan negros El principio y el final de Universo no son las únicas singularidades que predice la teoría general de la relatividad. Sólo un mes después de que Einstein publicara su teoría, en 1915, el físico alemán Karl Schwarzschild calculó que si un cuerpo celeste se comprimiera hasta cierto tamaño (que hoy se denomina radio de


Imagen: cortesía NASA

chisporrotear en el que de la nada aparecen y desaparecen parejas formadas por una partícula de materia (por ejemplo, un electrón) y su correspondiente partícula de antimateria (un positrón), que, no bien se forman, chocan una con la otra y se aniquilan, como exige la física cuántica. La existencia de estos pares de partículaantipartícula es tan breve que no puede observarse directamente, pero sí se pueden medir sus efectos indirectos. Por eso se les llama partículas virtuales. Al vacío poblado de estos efímeros pares de partículas virtuales se le llama vacío cuántico. Al aplicar la idea de vacío cuántico en las cercanías del horizonte de un agu-

jero negro, Hawking comprendió que los pares virtuales creados justo en el borde se separarían antes de poderse aniquilar: una partícula desaparecería en el abismo del agujero negro mientras que la otra, al haber perdido a su compañera, no tendría con quién destruirse y se podría escapar. En la práctica, esto era lo mismo que decir que el agujero negro emite radiación. Hawking acababa de demostrar que los agujeros negros no son tan negros. Esta radiación de Hawking tendría una consecuencia sorprendente: como la radiación lleva energía y la energía es equivalente a la masa (E = mc2), un agujero negro que emite radiación de Hawking

Imagen: NASA/CXC/M. Weiss

Schwarzschild), la gravedad en su superficie sería tan intensa, que ni siquiera la luz podría escapar: el objeto se convertiría en lo que hoy llamamos un agujero negro. Si únicamente se toman en cuenta los efectos gravitacionales, un agujero negro es una cosa relativamente simple: todo lo que se pueda decir de él se puede deducir de sólo tres magnitudes físicas: su masa, su carga eléctrica y su velocidad de rotación. Al formarse el agujero negro (digamos, por la contracción final de una estrella que muere), se pierde toda la información adicional: de qué estaba hecha la estrella que se contrajo para formar el agujero negro, cuánto tiempo tenía de existir… Si otro objeto traspasa la frontera —u horizonte— del agujero negro, también desaparece para siempre. Pero en 1915 se ignoraba por completo lo que ocurría en el interior del agujero, pues ahí no tenían validez las leyes de la física. En 1974 Hawking tuvo una idea genial: tomar en cuenta la física cuántica —la teoría que gobierna el mundo atómico— para entender lo que ocurre en el borde de un agujero negro. De acuerdo con la física cuántica, el vacío en el sentido más estricto no existe. Aún el vacío más extremo rebosa de actividad: un continuo


va perdiendo masa; en otras palabras, se va evaporando. Lo hace a un ritmo muy lento, pues el tiempo necesario para que se evapore por completo un agujero negro del tamaño de varios soles sería mucho mayor que la antigüedad del Universo, pero no sería infinito. Todavía no sabemos si existe la radiación de Hawking, aunque recientemente unos científicos italianos dirigidos por Daniele Faccio, de la Universidad de Insubria, informaron haber producido en el laboratorio algo análogo a la radiación de agujeros negros. La comunidad científica aún no está convencida.

La teoría de todo La física actual, con todos sus éxitos, tiene un problema: sus dos pilares fundamentales —la teoría general de la relatividad y

de su cuerpo que la enfermedad dejaría intactas. El joven terminó su tesis y se volcó en sus investigaciones con renovado entusiasmo. Al poco tiempo se casó con Jane Wilde, joven inglesa que sería la madre de sus tres hijos. Aunque resulte paradójico, fue más feliz en esa época que antes de saber que estaba enfermo. Pero con los años la ELA siguió su curso de forma implacable. Del bastón pasó a las muletas para, más tarde, acabar en una silla de ruedas. Llegó un momento en que Hawking no podía escribir ni alimentarse solo, y su voz se convirtió en un susurro apenas audible. En 1985 fue operado de urgencia por culpa de una neumonía, y en la operación que le salvó la vida perdió la voz por completo. Pero su mente estaba en plena forma y realizaba los cálculos matemáticos más complejos sin necesidad de escribir. ¿Cómo iba a poder comunicar sus ideas ahora? Fue entonces cuando empezó a utilizar una herramienta informática que permitía seleccionar palabras de entre un menú de 3 000. Pegado a su silla de ruedas, Hawking operaba el aparato por medio de un sensor adaptado al movimiento de la mano y que requería un mínimo desplazamiento del dedo. Una vez construida la frase, un sintetizador de voz la pronunciaba. Y ésta es, básicamente, la imagen que hoy tenemos de él: encogido en su silla de ruedas, con la cabeza inclinada hacia un lado y hablando con voz metálica. Un hombre admirable que ha sido capaz de superar todos los obstáculos de su terrible enfermedad.

la mecánica cuántica— son incompatibles. El problema se puede esquivar en la mayoría de las situaciones: la física cuántica se ocupa de cosas pequeñas y ligeras como los átomos, ámbito en el que se puede despreciar la gravedad; la teoría general de la relatividad, en cambio, se aplica a objetos grandes y pesados como las galaxias, entre las cuales los efectos cuánticos son invisibles. El conflicto aparece cuando se consideran cosas al mismo tiempo relativamente pequeñas y muy densas, como los agujeros negros, o infinitamente pequeñas e infinitamente densas, como el Universo al momento del big bang. No contamos con ninguna teoría adecuada de estos fenómenos. Cuando se consiga unificar la mecánica cuántica con la relatividad general en una teoría cuántica de la gravedad, por fin los entenderemos bien. Construir

esta teoría unificada, a veces llamada teoría de todo, ha sido el sueño de Hawking y de muchos físicos, como Albert Einstein. Los artículos de Hawking y Penrose sobre singularidades y los de Hawking sobre la radiación de los agujeros negros son contribuciones importantes a esta búsqueda. Entre las posibles teorías unificadoras que se han propuesto en los últimos 40 años Hawking era partidario de la llamada teoría de cuerdas (ver ¿Cómo ves? No. 108), que se fundamenta en la idea de que todo está hecho, en última instancia, de diminutos hilos que vibran en un espaciotiempo de 11 dimensiones: el tiempo y las tres dimensiones espaciales que conocemos, más otras siete, tan pequeñas que no las podemos observar. Pero Stephen Hawking ya no confía en que sea posible encontrar la anhelada teoría de todo. En 2002 sorprendió a muchos cuando declaró: “Algunas personas se decepcionarán mucho si resulta que no se puede construir una teoría final que pueda expresarse mediante un número finito de principios. Yo solía ser de ese bando, pero he cambiado de opinión. Hoy me alegro de que nuestra búsqueda del conocimiento nunca vaya a terminar. Sin ella nos empantanaríamos.”

Las apuestas de Hawking A Stephen Hawking le encanta hacer apuestas con sus colegas sobre cuestiones científicas, aunque a la vista de los resultados hay que admitir que no se le Imagen: HyperD / spore.wikia.com

Los primeros síntomas del mal que padece Stephen Hawking aparecieron durante su último año en Oxford, cuando se cayó varias veces por las escaleras. Poco después de su llegada a Cambridge, una revisión médica confirmó el peor de los diagnósticos: Hawking sufría ELA, esclerosis lateral amiotrófica, también conocida como enfermedad de Lou Gehrig. La ELA es una enfermedad degenerativa de las células nerviosas de la espina dorsal y del cerebro. Estas células controlan la actividad muscular por lo que, a medida que avanza la enfermedad, los músculos se van atrofiando hasta que el cuerpo queda reducido a un estado vegetativo. La comunicación del enfermo con el mundo que lo rodea resulta imposible y acaba muriendo al poco tiempo. Cuando a Hawking le diagnosticaron la ELA le dijeron que le quedaban dos años de vida. Por suerte, la cosmología sólo requería de su mente, una de las pocas funciones

Imagen: NASA/CXC/M.Weiss

No darse por vencido


Más información • www.astromia.com/biografias/

hawking.htm • www.youtube.com/

watch?v=0VLXQrY2qAM • http://cms.iafe.uba.ar/carmen/

ultimoagneg.doc

Imagen: Casey Reed/NASA

da muy bien: en 1975 apostó contra el físico estadounidense Kip Thorne a que la fuente astronómica de rayos X llamada Cygnus X-1 no contenía un agujero negro. El premio para Thorne sería una suscripción anual a la revista Penthouse y para Hawking una suscripción a la revista satírica Private Eye. Hoy en día estamos casi seguros de que Cygnus X-1 es un agujero negro, pero la apuesta aún tiene que dirimirse. Para Hawking la apuesta fue una especie de póliza de seguro: después de haber trabajado media vida investigando los agujeros negros sería un desastre descubrir que no existen. En tal caso, al menos le quedaría el consuelo de ganar la apuesta y disfrutar de Private Eye. En 1991, Hawking hizo otra apuesta con sus colegas John Preskill y Kip Thorne. Hawking aseguraba que nunca podríamos observar una singularidad como la que habría en el interior de un agujero negro puesto que nada puede escapar de la región definida por el horizonte. Sin embargo, en 1997 se demostró matemáticamente que, en ciertas circunstancias muy improbables, se podía formar lo que se conoce como una singularidad desnuda: un punto de curvatura espaciotemporal infinita sin horizonte. Hawking aceptó a regañadientes la derrota y pagó los 100 dólares de la apuesta, pero mandó imprimir camisetas que decían: “La naturaleza aborrece las singularidades desnudas”. Ese mismo año, Hawking y Thorne se aliaron y apostaron contra John Preskill a que un agujero negro destruye para siempre la información que se traga. Preskill, y la mayoría de los expertos en el tema, estaban convencidos de que la información no se puede destruir, exigencia parecida a la ley de conservación de la energía, que requiere que en todo proceso la energía sólo se transforme sin destruirse. En 2004 Hawking anunció sorpresivamente que había demostrado… ¡que su contrincante tenía razón! En una reunión científica que se llevó a cabo en Dublín, Irlanda, Haw-

king le entregó públicamente a Preskill una enciclopedia de béisbol, ya que, según el texto de la apuesta, “el perdedor debía pagar su deuda con la enciclopedia que eligiera el ganador” por ser las enciclopedias objetos de los que es muy fácil sacar información, a diferencia de los agujeros negros. Thorne no le ha concedido la victoria a Preskill. En 2000, Hawking se jugó 100 libras con el físico Gordon Kane a que nunca se encontraría el bosón de Higgs, la partícula hipotética que se requiere para que todas las demás tengan masa, según la teoría más fundamental de la física contemporánea, llamada modelo estándar. Al parecer, los científicos que trabajan con el Gran Colisionador de Hadrones (ver ¿Cómo ves? No. 114) encontraron el año pasado las primeras huellas de la existencia del bosón de Higgs y todo apunta a que este mismo año se confirmará oficialmente el descubrimiento. Hawking debería parar de hacer apuestas científicas porque siempre pierde.

Superestrella de la física El trabajo de Hawking le ha merecido el respeto y la admiración de sus colegas. Fue aceptado como miembro de la Royal Society con apenas 32 años, uno de los más jóvenes en los casi 400 años de historia de esa institución. De 1979 a 2009 fue titular de la Cátedra Lucasiana de matemáticas de la Universidad de Cambridge, puesto que alguna vez ocupó Isaac Newton. Y ha recibido premios y distinciones en todo el mundo como para llenar varias páginas. Se podría pensar que la coronación de su carrera sería el premio Nobel, pero eso es muy difícil de conseguir para un cosmólogo cuyo trabajo

es puramente teórico: si todavía no tenemos la certeza absoluta de que existan los agujeros negros, ¿cómo demostrar que éstos emiten radiación de Hawking? Al mismo tiempo, la popularidad de Hawking ha trascendido los círculos científicos. Sus libros de divulgación se han traducido a decenas de idiomas —el más conocido es Una breve historia del tiempo— y se han vendido millones de ejemplares en todo el mundo. Hawking ha sido objeto de múltiples documentales y ha aparecido en diversas series de televisión, tanto de ficción (Enano rojo, Viaje a las estrellas y apenas el mes pasado en The Big Bang Theory) como de dibujos animados (Los Simpson y Futurama). Hasta su voz fue utilizada en el disco The Division Bell, de Pink Floyd, en 1994. Y, a pesar de sus limitaciones físicas, ha disfrutado de aventuras que están al alcance de muy pocos, como viajar a la Antártida y sentir la ingravidez en un avión de la NASA. El pasado mes de enero la Universidad de Cambridge celebró un simposio en su honor con motivo de su septuagésimo cumpleaños. Hawking no pudo acudir por problemas de salud, pero grabó un emotivo discurso que cerró de esta manera: “Acuérdense de dirigir la vista a las estrellas en vez de mirarse los pies. Busquen entender lo que ven y lo que le da existencia al Universo. Sean curiosos. Y por muy difícil que pueda parecerles la vida, piensen que siempre hay algo que pueden hacer bien. Lo importante es no darse por vencido.” Daniel Martín Reina, frecuente colaborador de ¿Cómo ves?, egresó de la carrera Ciencias Físicas de la Universidad de Sevilla, España.


Imagen: A. Flandes/NASA/JPL

a en los anillos

de

Saturno Alberto Flandes

La nave Cassini tiene ya siete años en órbita alrededor de Saturno. Los objetivos de la misión han sido estudiar la atmósfera de ese planeta, sus satélites, su campo magnético y su sistema de anillos. La NASA ha extendido la vida de esta exitosa misión hasta 2017.

Tres momentos de gran emoción han marcado la vida de la misión CassiniHuygens. El primero se dio cuando la nave finalmente entró en órbita alrededor de Saturno en julio de 2004, después de casi siete años de travesía. El segundo momento trascendental ocurrió cuando los controladores de la misión lograron que la pequeña sonda Huygens se desacoplara de la nave principal y penetrara la densa atmósfera de Titán, en enero de 2005; mientras la sonda descendía y se posaba sobre la superficie, sus cámaras capturaron el paisaje de esta enigmática luna, la más grande de Saturno. El tercer momento sucedió en octubre de 2008 cuando en un vuelo rasante en la helada luna Encelado, la nave principal cruzó a través de los espectaculares géiseres de vapor y polvo de hielo que brotan en su polo sur. La misión Cassini-Huygens es un proyecto conjunto de la NASA y la Agencia Espacial Europea (ESA), a la que contribuyen 18 naciones europeas, pero en ella participan científicos de muchos otros países. Su nombre honra a dos astrónomos del siglo XVII: el italo-francés Giovanni

Domenico Cassini (1625-1712) y el holandés Christiaan Huygens (1629-1695). Ambos hicieron contribuciones notables al estudio de Saturno, de sus lunas y de sus anillos.

Anillos misteriosos A pesar de lo que hemos aprendido de los anillos de Saturno desde la primera vez que Galileo Galilei los observó con su telescopio rudimentario en 1610, no sabemos aún lo suficiente para explicar con certeza cómo se formaron, de qué están hechos y cómo están organizados. Suponemos que los anillos principales (los que se ven con un telescopio simple) están compuestos de una multitud de rocas de hielo de unos cuantos metros de diámetro y que estas rocas están distribuidas en varias capas de no más de unas decenas de metros de espesor, pero ni siquiera la sonda Cassini se ha podido acercar lo suficiente como para ver rocas individuales y precisar así su tamaño y composición. Hasta las mejores fotos nos muestran los anillos como una hoja uniforme sin grosor. Sin embargo, los anillos principales no


Imagen: cortesía NASA/JPL

pueden ser un disco continuo y rígido. He aquí por qué: la fuerza de gravedad que ejerce un planeta sobre un objeto que lo orbita es más intensa sobre las partes del objeto que están más cerca del planeta y menos intensa sobre las más lejanas. La diferencia se llama fuerza de marea y tiende a romper el objeto. Si el objeto orbita muy lejos del planeta, las fuerzas de marea son muy pequeñas, pero se multiplican si el objeto se acerca a menos de una o dos veces el radio del planeta, región conocida como límite de Roche, o si el objeto es muy grande. Dentro del límite de Roche, las fuerzas de marea superan a las fuerzas de cohesión de los cuerpos con tamaños relativamente grandes, de tal forma que los estiran hasta romperlos y fragmentarlos en pedazos lo suficientemente pequeños para que las fuerzas de marea y de cohesión estén equilibradas. A lo largo de la misión, las cámaras de Cassini y en especial dos de sus instrumentos, los espectrómetros CIRS y VIMS, han dedicado una buena parte de su atención a los anillos principales. Los espectrómetros son instrumentos que descomponen y miden las propiedades de la luz (o radiación electromagnética) que reciben de los cuerpos con el fin de identificar su composición. Cada espectrómetro funciona en rangos específicos del espectro electromagnético; el CIRS analiza la radiación infrarroja y el VIMS la parte visible y también la infrarroja. Particularmente, el objetivo del CIRS ha

sido crear mapas de temperaturas, tanto de los anillos, como de Saturno y sus lunas y, con estos mapas, buscamos entender mejor estos cuerpos y los procesos asociados a ellos. Por mucho tiempo se pensó que los anillos principales se formaron cuando un satélite de unos 300 kilómetros de diámetro en una órbita inestable se internó en el límite de Roche y fue despedazado por las fuerzas de marea. La idea parece razonable: Saturno tiene muchas lunas de esos tamaños. Sin embargo, sabemos desde antes incluso de la nave Cassini que los anillos están hechos de más de 90 % de hielo, por lo que la infortunada luna tendría que haber sido una bola de puro hielo. Quizá por eso algunos científicos prefirieron la hipótesis de que, en vez de luna inestable, el objeto que dio origen a los anillos fue un cometa capturado por Saturno. En 1994, el cometa Shoemaker-Levi 9 (SL9), que tenía un núcleo de unos cinco kilómetros de diámetro, se proyectó en la atmósfera de Júpiter. Al cruzar el límite de Roche, el cometa se partió en varios pedazos que uno a uno fueron engullidos por el planeta. En el proceso de fragmentación las fuerzas de marea fueron desnudando al cometa de sus capas externas de gas y polvo, y éstas formaron un tenue halo alrededor de Júpiter. A partir de ese acontecimiento y con las observaciones recientes de la nave Cassini; se propuso una teoría intermedia. La nueva teoría supone la destrucción de un satélite tan grande como Titán, que es

Las imágenes de la nave Cassini muestran detalles imposibles de lograr aun con los telescopios más potentes en órbita a la Tierra. Estas imágenes se tomaron cerca del equinoccio, cuando el Sol ilumina casi de canto a los anillos. Como las puestas de Sol, las sombras en los anillos son muy alargadas y esto magnifica las irregularidades en la estructura de los anillos.

más de tres veces mayor que la Luna. Este satélite habría estado compuesto por un núcleo rocoso y un grueso manto de hielo de agua. En las etapas tempranas de la formación de Saturno esta luna hipotética fue despojada gradualmente de sus capas externas de hielo conforme se acercaba más y más al planeta, como sugiere el caso del cometa Shoemaker-Levy 9. Al final, el núcleo y parte del manto gélido se hundieron en la atmósfera de Saturno, pero el hielo de las capas externas quedó en órbita. Con el tiempo este material formó el disco aplanado que vemos hoy. El problema sigue abierto, pero por el momento ésta es la mejor teoría que tenemos.

Claroscuro El 12 de agosto de 2009 ocurrió el equinoccio más reciente en Saturno (el equinoccio ocurre cuando un planeta llega a uno de los dos puntos de su órbita donde los rayos del Sol inciden perpendicularmente al eje de rotación). Con el equinoccio concluyó oficialmente la primera parte de la misión Cassini-Huygens. Los objetivos de esta primera etapa eran poner la nave en órbita estable alrededor de Saturno y liberar la sonda Huygens en Titán. Durante la segunda etapa, denominada Misión solsticio, la nave simplemente esperará el siguiente solsticio saturniano, que ocurrirá en 2017. El interés en los equinoccios y solsticios de Saturno tiene que ver con la orientación de los anillos respecto al Sol.


planeta y que en Saturno equivale a 29 años terrestres) se dan dos equinoccios y dos solsticios alternados. Cuando Saturno está en sus equinoccios, sus anillos son casi invisibles porque los vemos de canto y cuando está en sus solsticios, los anillos tienen su apertura máxima en un caso mostrando su lado sur y en otro su lado norte. Debido a esta orientación variable de los anillos respecto al Sol, éstos reciben una cantidad de luz muy

Imagen: A. Flandes/NASA/HST

La inclinación del eje de planetas como la Tierra y Saturno es esencialmente constante, pero su inclinación relativa con respecto al Sol cambia según la posición a lo largo de su órbita y esto hace que parezca que sus ejes oscilan verticalmente. Llamamos equinoccio al momento en que el eje del planeta no está inclinado y solsticio cuando tiene su inclinación máxima. En un ciclo completo alrededor del Sol (lo que llamamos el año del

Según la posición de Saturno es la imagen que observamos desde la Tierra. Este cambio aparente de posición se debe a la inclinación del eje de rotación de Saturno.

Imagen: A. Flandes

Con los datos del espectrómetro infrarrojo CIRS es posible construir mapas de temperaturas de los anillos principales de Saturno. En esta secuencia de imágenes se combinan las observaciones del instrumento CIRS con imágenes de Telescopio Espacial Hubble para estudiar las variaciones de temperatura desde el solsticio (hacia arriba) hasta el equinoccio (hacia abajo). Usamos una escala de color donde el violeta representa las temperaturas más bajas y el rojo las zonas más calientes.

variable, lo que también hace cambiar su temperatura. Los espectrómetros de la nave Cassini nos permiten inferir la composición, textura superficial y estructura de los anillos a partir de estas variaciones de temperatura. La idea es que los diferentes materiales de los que están hechos los anillos deberían reaccionar de manera distinta a los cambios de temperatura. Por ejemplo, todos los objetos emiten algo de radiación que depende de su temperatura; a cientos de grados, cualquier objeto emitirá luz visible (decimos entonces que brillan). A temperaturas extremadamente altas, de miles de grados o más, podrían emitir radiación ultravioleta y hasta rayos X y rayos gama, como las estrellas. Los cuerpos más fríos, a decenas de grados sobre cero, por ejemplo, emiten radiación infrarroja. La manera de reflejar la luz, por otro lado, depende de la estructura del objeto y de otras propiedades físicas. Nuestro planeta recibe un flujo de energía solar de unos 1 400 watts por metro cuadrado de superficie, pero Saturno y sus anillos, que están casi 10 veces más lejos del Sol, sólo reciben unos 16 watts por metro cuadrado (aproximadamente un centésimo de la energía que recibe la Tierra). En el caso de los anillos, Saturno también los baña de radiación, pero ésta se mantiene más o menos constante, a un watt por metro cuadrado. Los anillos absorben en promedio el 50 % de la energía que reciben. La otra mitad la reflejan. La energía absorbida los calienta ligeramente hasta que alcanzan


DIVISIÓN DE CASSINI Ubicación: 117 516 - 122 153 km Anchura: 4 637 km Grosor: ~1 m

ANILLO B Ubicación: 92 000 - 117 580 km Anchura: 25 580 km Grosor: 5 -15 m Es un anillo ancho y denso donde las rocas están tan cerca entre sí que no permiten el paso de la luz de un lado a otro.

ANILLO C Ubicación: 74 658 - 92 000 km Anchura: 17 342 km Grosor: ~ 5 m Es un anillo muy tenue y transparente donde las rocas tienen poco contacto entre sí.

ANILLO A Ubicación: 122 170 - 136 775 km Anchura: 14605 km Grosor: 10 - 30 m Es un anillo muy dinámico donde continuamente las rocas se unen atraídas por su propia gravedad, formando cúmulos que luego las fuerzas de marea estiran y rompen.

Imagen: A. Flandes/NASA/JPL

Los anillos principales se componen de rocas individuales de unos metros de diámetro. Estas tres imágenes muestran la ubicación de los anillos principales A, B y C; y su probables estructuras a partir de simulaciones por computadora.

una temperatura de equilibrio de entre 40 y 120 kelvin (es decir, entre -230 y -150° C). Por esta razón los anillos emiten radiación infrarroja, por lo que el espectrómetro CIRS es ideal para estudiarlos. Fuera del equinoccio los anillos siempre exhiben un lado iluminado más caliente y uno oscuro más frío. En particular en el solsticio el lado iluminado alcanzan la temperatura más alta y en el equinoccio, cuando ninguno de sus lados está iluminado por la energía directa del Sol, se enfrían hasta su mínima temperatura. Las va r iaciones de temperatura medidas por Cassini confirman que los anillos están compuestos casi en su totalidad de hielo, pero contienen una cantidad mínima de otros compuestos que se añaden con el continuo bombardeo de meteoritos que Saturno atrae desde el exterior. Estos mismos datos también nos dicen que los anillos tienen una estructura que no es homogénea, pues muestran regiones tenues que permiten el paso de la energía del Sol o del propio Saturno desde el lado iluminado al lado oscuro, pero también tienen regiones más frías, densas y opacas, donde la radiación solar penetra con dificultad.

Familia de anillos

Saturno no es el único planeta con anillos: Júpiter, Urano y Neptuno tienen sus propios sistemas de anillos, descubiertos en los últimos 40 años. Recientemente se ha sugerido que Marte podría tener dos anillos de polvo debidos a los impactos de fragmentos muy pequeños de asteroides o micrometeoritos en sus dos pequeñas lunas: Fobos y Deimos, pero ninguno de estos anillos se compara con los de Saturno en extensión, diversidad y complejidad. Los anillos principales, en los que se concentra la mayor parte de la masa total del sistema, son por lo menos cinco, denominados A, B, C, D y División de Cassini. Se distinguen por su transparencia u opacidad. El anillo A es el más exterior y el D el más cercano al planeta. La transparencia de cada anillo principal depende de la separación entre las rocas que lo componen. El anillo C, por ejemplo, es muy transparente: se puede ver a través de él; en cambio el anillo B es muy opaco porque está compuesto de rocas que se tocan y se traslapan, formando capas. La División de Cassini, antes considerada sólo una separación entre los anillos A y B, es un anillo tan tenue como el C.

El anillo A es un caso especial por ser el más exterior y el más cercano al límite de Roche. La gravedad entre sus rocas forma continuamente pilas que las fuerzas de marea fragmentan en un incesante juego dinámico que da como resultado efímeras cadenas de material que se estiran, se tuercen y se rompen. Estos filamentos transitorios de material, llamados wakes (estelas), se observan como sombras o bandas inclinadas, o aun ondulaciones que indican que las rocas de los anillos están sometidas a fuerzas que las hacen desplazarse en direcciones distintas a sus trayectorias orbitales naturales. No todas las zonas más oscuras que se observan en los anillos se deben a efectos gravitacionales; en algunos casos sólo se trata de nubes de polvo que se desprenden de las rocas debidas a un efecto eléctrico conocido como levitación electrostática. La radiación ultravioleta del Sol arranca electrones al polvo que cubre las rocas de los anillos. Esto les da un exceso de carga eléctrica estática que repele las partículas de polvo haciéndolas flotar a cierta distancia de la roca. Este polvo, junto con las moléculas y los átomos que llegan a desprenderse de las rocas, crea una atmósfera


Imagen: JPL/NASA

Ubicación: 140 180 km, Anchura: 30 - 500 km Es un anillo muy delgado compuesto tanto de rocas como de polvo. Es probablemente también el anillo más dinámico, pues su estructura puede cambiar en cuestión de horas.

transitoria y tenue en las zonas iluminadas de los anillos. Completan el sistema anular los anillos E, F y G, el anillo de Febe y otras estructuras aún más tenues y muy poco estudiadas como los arcos de las lunas Metone y Anthe y el anillo de Palene. Los anillos F y G son una mezcla de rocas y polvo. El anillo E se compone casi en un 99 % de polvo microscópico de hielo de agua emanado por los géiseres de la luna Encelado, aunque también del polvo generado por impactos de meteoritos en la luna Rea. En 2009 se descubrió el anillo de Febe usando datos del Telescopio Espacial Spitzer. Este superanillo, que también es el anillo más tenue de todo el sistema, es un halo 20 veces más ancho que el diámetro del planeta y se compone también del polvo fino de impactos de meteoritos en Febe, la más lejana de las lunas de Saturno, que orbita a casi 13 millones de kilómetros del planeta.

Anillos virtuales Muchas ramas de la ciencia basan sus investigaciones en simulaciones por computadora porque el número de varia-

Más

inforMación

• www.portalciencia.net/astrosstitan.

html • www.ejournal.unam.mx/cns/no59/

CNS05910.pdf

bles de los problemas es tan grande que es muy difícil lidiar con ellas de otra forma. En una simulación podemos crear anillos planetarios virtuales, observar su comportamiento y comparar con las observaciones de las naves espaciales como Cassini o de los telescopios tanto terrestres como espaciales. La simulaciones más comunes de anillos reproducen sólo el movimiento de las rocas que los componen a partir de las fuerzas gravitacionales que ejerce el planeta central. Algunas simulaciones más sofisticadas incluyen también las fuerzas gravitacionales entre las rocas y son esencialmente similares a las simulaciones que se usan para explicar la formación del Sistema Solar y de las galaxias. Estas simulaciones nos dan una idea de cómo pudieron haberse formado los anillos y cómo están organizados, pero dicen poco de su composición. Para describir muchos de los efectos que se observan en los anillos principales se requieren simulaciones que consideren el comportamiento de la luz que absorben, reflejan y emiten las rocas. Este tipo de simulaciones se basa en los mismos principios con los que se hacen películas de animación tridimensional, que reproducen con gran precisión los efectos ópticos de los materiales para dar una sensación de gran realismo en texturas y juegos de luz y sombra. La técnica se conoce como ray tracing, o rastreo de haces, y su éxito se debe a que reproduce las trayectorias individuales

de los fotones desde la fuente luminosa hasta el ojo del observador. Esta técnica requiere computadoras muy rápidas y con gran capacidad de memoria.

El fin de la misión En 2017 los controladores de la misión dirigirán la sonda Cassini hacia Saturno. En su clavado suicida la nave podría aproximarse lo suficiente a los anillos como para obtener imágenes muy cercanas de las rocas que los componen. Luego se hundirá en la atmósfera de Saturno y tomará sus últimos datos antes de que las turbulencias y altas presiones la destruyan. Este mismo fue el destino de la nave Galileo, que fue proyectada en la atmósfera de Júpiter en 2003. Después de la colisión la nave sobrevivió poco más de 20 minutos, tras los cuales se perdió la comunicación. A pesar de lo drástico que pueda parecer este fin para la nave, sólo así es posible hacer ciertas mediciones de la atmósfera de Saturno y sus anillos. La maniobra se tiene que planear con extremo cuidado, porque no habrá segundas oportunidades.

Alberto Flandes estudió Física en la UNAM. Trabajó tres años en el Laboratorio de Propulsión (JPL) de la NASA como parte del equipo a cargo del instrumento CIRS. Actualmente es parte del Departamento de Ciencias Espaciales del Instituto de Geofísica de la UNAM. Se dedica al estudio de los anillos planetarios, del polvo cósmico y del Medio interplanetario.


Virus contra bacterias Renovada esperanza para tratar infecciones

Ilustraciones: Eva Lobatテウn

Miguel テ]gel Cevallos


Ha vuelto a surgir el interés en una terapia médica que el mundo occidental abandonó hace décadas en favor de los antibióticos. Los avances recientes en la biología molecular permitirán aprovecharla de manera mucho más amplia y eficaz. Hace pocas semanas, navegando por el ciberespacio en busca de libros viejos, me encontré en eBay, a un precio irrisorio, la versión en inglés de un libro clásico de la época de oro de la microbiología escrito por el científico franco-canadiense Félix d’Herelle. El libro, publicado en 1926, se titula Le Bactériophage et son Comportement (El bacteriófago y su comportamiento). Una vez en mis manos, ojeándolo recordé las importantísimas aportaciones que hizo este hombre a la microbiología y, en general, a la ciencia. Posiblemente las de mayor trascendencia sean el descubrimiento de los bacteriófagos

—los virus que afectan y usualmente matan a las bacterias—, y el haber propuesto su utilización para combatir las infecciones de origen bacteriano, algo que el propio d’Herelle realizó con éxito.

Increíble abundancia Los bacteriófagos, palabra que literalmente significa “comedores de bacterias”, son los entes biológicos más abundantes sobre la Tierra; hay quienes estiman que su número va de 1 x 1030 a 1 x 1032 y en conjunto pesan unos 1 000 millones de toneladas. Además los bacteriófagos

o fagos, como actualmente se acostumbra denominarlos, están presentes en todos los ecosistemas. Se ha calculado que en cada gramo de suelo puede haber unos 100 millones de fagos y que en un mililitro de agua de mar podríamos contar hasta un millón: esto significa que por cada célula que existe en este planeta hay por lo menos 10 fagos. Los fagos se clasifican en 13 familias y en unos 30 géneros, y se intuye que deben existir cerca de 10 millones de “especies” diferentes. Si bien todavía no conocemos con exactitud el papel que desempeñan en la naturaleza, conjeturamos que es esencial. Los fagos son pequeñísimos, miden entre 20 y 200 nanómetros (el grosor de un cabello humano es de unos 80 000 nanómetros), y de estructura muy simple; una “cajita” de proteínas, normalmente de forma icosaédrica, que guarda en su interior el material genético, por lo general ADN aunque a veces es ARN. La cajita, o cápside en lenguaje técnico, suele tener además un cuello largo unido en su extremo inferior a un conjunto de fibras. Si quieres tener una imagen rápida de


cómo es un fago, imagina un diminuto balero con patas. Los gustos de los fagos son exquisitos: cada “especie” de fago infecta exclusivamente a una especie bacteriana y en muchas ocasiones tan sólo a algunas de sus variedades. Como veremos más adelante, desde el punto de vista terapéutico, esto constituye a la vez su gran ventaja y su talón de Aquiles. El ciclo de “vida” de los fagos puede ser de tres tipos: lítico, lisogénico y crónico. Los fagos líticos no tienen misericordia: cuando infectan a una bacteria se replican de manera explosiva en su interior, hasta que la bacteria literalmente revienta, liberando así la extensa progenie que alberga. Los fagos lisogénicos insertan su material genético en el de la bacteria que han infectado y ahí permanecen tranquilos, sin dar señales de su presencia incluso por muchas generaciones, hasta que detectan que su hospedero enfrenta una mala situación, como podría ser la escasez de alimento; entonces el material genético del fago se activa y comienza a producir rápidamente nuevos fagos hasta que la bacteria no puede más y se rompe en mil pedazos. Por último, los fagos que producen infecciones crónicas esclavizan a las bacterias para que produzcan nuevos fagos y los secreten al medio, sin poner en riesgo la vida de esas bacterias.

Éxito efímero D’Herelle descubrió a los bacteriófagos en 1917 y muy pronto se dio cuenta que los fagos líticos podían usarse para el “control biológico” de las enfermedades infecciosas. En 1919 este investigador reportó que las disenterías bacterianas se podían tratar exitosamente con preparaciones de fagos concentrados, todo un logro pues en la época previa al descubrimiento de los antibióticos este tipo de infecciones era una de las causas más comunes de muerte en seres humanos. La fagoterapia, nombre que se usa actualmente para describir esta técnica, tuvo impresionantes éxitos en las primeras décadas del siglo pasado: d’Herelle y otros investigadores lograron curar el cólera, muchas heridas y quemaduras purulentas e incluso infecciones oculares; también hubo reportes de éxitos asombrosos en el tratamiento de septicemias e incluso de la mismísima peste bubónica. Es más, d’Herelle tuvo la

visión y la osadía de usar a los fagos como medida profiláctica para tratar las aguas destinadas al consumo humano en áreas proclives a las epidemias de infecciones intestinales. Los triunfos de la fagoterapia fueron tan sonados que pronto algunas de las más grandes compañías farmacéuticas, como Eli Lilly, Squibb and Sons, Park-Davis Company, Swan and Myers, una división de los laboratorios Abbot, y la Safe Hair Dye Company, antecesora de lo que hoy es L’Oréal, comercializaron productos con fagos para el tratamiento de diversas infecciones. Incluso d’Herelle y su yerno fundaron una compañía, Laboratoire du Bactériophage, para tratar infecciones con la nueva técnica que inicialmente fue exitosa. No obstante, los productos con fagos perdieron rápidamente su popularidad en el mundo occidental después de la Segunda Guerra Mundial, por varias razones. En primer lugar por la aparición de los antibióticos, que con prontitud se hicieron populares ya que resultaron tremendamente efectivos en el tratamiento de una miríada de infecciones. En segundo, porque en aquel entonces los conocimientos sobre la biología de los fagos eran someros y por ello las preparaciones industriales de los concentrados de fagos resultaban poco consistentes y no siempre daban el resultado esperado. Por ejemplo, con frecuencia los métodos que se utilizaban para preservar las preparaciones de fagos acababan, más bien, por estropearlas. A esto se sumaron dos hechos: el que mucha de la literatura concerniente a la

fagoterapia se publicó en revistas rusas, de circulación local, lo que limitó su difusión, sobre todo durante la Guerra Fría, y el que los diseños experimentales para demostrar la efectividad de la fagoterapia no cumplían con los cánones actuales de las investigaciones biomédicas. Para contrastar y ser justo tengo que decir que muchas de las vacunas que se usaron en la primera mitad del siglo XX, tampoco habrían cumplido con las pruebas que se piden hoy para liberar este tipo de medicamentos. La fagoterapia básicamente desapareció en Occidente. Sólo sobrevivió en algunos laboratorios del Instituto Pasteur, en Francia, donde hasta mediados de 1990 se produjeron fagos para combatir infecciones difíciles de tratar provocadas por la bacteria Staphyloccocus. Pese a todo, en el Instituto Eliava, en la Republica de Georgia, esta técnica se ha utilizado sin interrupciones durante casi 90 años; igualmente, en el Instituto Hirszfeld de Inmunología y Terapias Experimentales, situado en Wroclaw, Polonia, la fagoterapia ha florecido desde 1954. Estos dos institutos son los únicos en el mundo que hoy en día ofrecen tratamientos de fagoterapia al público y que continúan manufacturando productos para algunas de las repúblicas de la ex Unión Soviética.


Resistencia peligrosa

Desde el final de la Segunda Guerra Mundial hasta el día de hoy, nuestra principal línea de defensa contra las infecciones bacterianas son los antibióticos. En un principio parecían una poción mágica, ya que en pocos días curaban casi cualquier infección. Sin embargo, como se abusó de ellos, pronto las bacterias empezaron a desarrollar mecanismos para contrarrestar los embates de estos medicamentos. De hecho, las bacterias que circulan en nuestro ambiente, sean patógenas o no, son resistentes a un abanico cada vez más amplio de antibióticos. Por cada antibiótico que ha salido al mercado, las bacterias han desarrollado en pocos años un mecanismo de resistencia que demerita su utilidad. Ahora se pueden encontrar bacterias en los hospitales que son esencialmente resistentes a todos nuestros antibióticos. Lo que es peor, los genes que les permiten a las bacterias defenderse de los antibióticos tienen la capacidad de trasmitirse eficientemente de una especie bacteriana a otra. Por ello, las autoridades de salud de todo el mundo, incluido México, están intentando legislar para que los antibióticos se usen de manera adecuada y podamos gozar por mucho más tiempo de las virtudes curativas de estos antimicrobianos. El surgimiento de bacterias patógenas multirresistentes es uno de los motivos por los cuales ha vuelto el interés en la fagoterapia. El conocimiento que tenemos

ahora de la biología molecular básica de los fagos nos está permitiendo desarrollar técnicas mucho más adecuadas para seleccionar mejores fagos, prepararlos de mejor manera y evaluarlos con los mejores protocolos biomédicos, con todo lo cual nos será posible diseñar procedimientos más eficientes para combatir las infecciones. No dudo que pronto tendremos en las farmacias preparaciones de fagos para combatir muchas de las enfermedades bacterianas más comunes.

Las dos caras de los antibióticos Es evidente que, en su mayor parte, las poblaciones humanas son cada vez más longevas; esto se debe a que tienen acceso a los antibióticos, las vacunas y medidas de higiene tales como tener agua potable en los hogares. Para visualizar esto en una correcta perspectiva quizá baste decir que los mexicanos, en la década de los años 40, antes de la aparición de los antibióticos en el mercado, teníamos una esperanza de vida de aproximadamente 55 años en las zonas urbanas y de hasta 15 años menos en las zonas rurales. En esa época, el 70% de las muertes se debían a infecciones, enfermedades parasitarias y males respiratorios. Hoy en día, nuestra esperanza de vida es de aproximadamente 76 años y las tres causas principales que nos arrastran a la tumba son los males cardiovasculares, las complicaciones de la diabetes y el cáncer: las infecciones ya no son una causa preponderante de muerte gracias a los tratamientos con antibióticos.

Una de las grandes ventajas de los antibióticos es que suelen ser muy eficientes matando a una amplia variedad de bacterias. De hecho, es una práctica común que el médico recete antibióticos cuando el paciente padece infecciones agudas, incluso antes de saber cuál es la identidad del agente infeccioso. Si los antibióticos se toman como el médico los receta, en frecuencia y temporalidad, los tratamientos suelen contrarrestar con agilidad las infecciones. No obstante, la causa más frecuente de que esta estrategia falle es que la bacteria patógena sea resistente al antibiótico, problema que, como ya he mencionado, es cada vez más común. Es evidente que una de las estrategias a seguir consiste en el desarrollo de nuevos antibióticos, pero aun así, la experiencia nos dice que una vez que sale un antibiótico al mercado, sólo es cuestión de tiempo para que las bacterias generen resistencia contra él. Por ello, el interés de la industria farmacéutica no siempre se centra en generar nuevos antibióticos, como debiera, porque es muy costoso y el precio de éstos en el mercado suele ser, en proporción, relativamente bajo: en otras palabras, para las grandes compañías por lo general no es un buen negocio y por ello prefieren redoblar sus esfuerzos en la investigación de otro tipo de medicamentos. No obstante sus bondades, los antibióticos tampoco están exentos de provocar ciertos problemas colaterales; al ser fármacos de amplio espectro suelen aniquilar no sólo a las bacterias patógenas, sino a nuestra necesarísima flora intestinal (ver ¿Cómo ves? No. 106), lo cual puede ocasionar malestares digestivos y además favorecer infecciones secundarias provocadas por la non grata bacteria Clostridium difficile que producen desde una diarrea moderada hasta una peligrosa inflamación del colon.

Múltiples aplicaciones Los fagos líticos pueden tornarse en una herramienta valiosísima para combatir bacterias patógenas y en especial a las resistentes a los antibióticos. Sin embargo, como todo en esta vida, la fagoterapia tiene sus pros y sus contras. Los fagos son extraordinariamente específicos ya que sólo pueden destruir un número muy restringido de especies bacterianas y con frecuencia sólo a ciertos representantes


dentro de una especie. Atacan únicamente a las bacterias patógenas para las que fueron seleccionados y son completamente inertes frente a otras bacterias como las que se encuentran presentes en nuestra flora intestinal. Por esta misma razón, es muy importante determinar si la bacteria responsable de la infección de un paciente es sensible al fago que se pretende utilizar para combatirla. Para minimizar este problema y potenciar la utilidad de la fagoterapia se prefiere utilizar cócteles de fagos y así asegurarse que en la preparación haya alguno que sea efectivo en el combate de la infección. Otra de las grandes ventajas que los fagos tienen sobre los antibióticos es que su actividad curativa se incrementa precisamente en los lugares donde más se necesita: en los focos de infección. Lo anterior se debe a que basta que un solitario fago infecte a una bacteria para que se inicie una especie de reacción en cadena de producción de fagos que se extingue en el

momento en el que ya no existan bacterias susceptibles al fago. Esta reproducción auto limitada es también una gran ventaja adicional de los fagos: cuando dejan de ser útiles desaparecen. En contraste, la eficacia de los antibióticos depende de que éstos lleguen, de forma pasiva y en la dosis adecuada, al sitio de la infección. Las bacterias también pueden volverse resistentes a los fagos que los atacan, pero como éstos se replican, pueden generar fagos mutantes que contrarresten la resistencia de la bacteria. Es decir, en todo momento podemos seleccionar fagos mutantes que maten a las bacterias resistentes al fago inicial, minimizando así el problema. Otra característica fundamental de la fagoterapia es que es mucho más fácil seleccionar un fago que desarrollar un nuevo antibiótico, lo que abarata enormemente los gastos de investigación y de desarrollo; por ende, se podrá ofrecer un buen producto al público a precios competitivos. Los experimentos clínicos piloto que se están realizando con un número limitado de pacientes han dejado entrever que la combinación de antibióticos con la fagoterapia es lo que da mejores resultados en el combate a las infecciones. Esto apunta a que en el futuro van a prosperar las terapias combinadas.

Más inforMación • http://pathmicro.

med.sc.edu/spanish/ chapter7.htm • http://www.comoves. unam.mx/assets/revista/22/ guiadelmaestro_22.pdf • Escobar Briones Elva y Rubio Godoy Miguel, “Virus: entre la vida y la muerte”, ¿Cómo ves?, No. 22

Hoy en día los protocolos de investigación clínica son muchísimo más rigurosos de lo que eran en el pasado y en este momento sólo se permiten estudios clínicos con fagos para evaluar su eficacia en infecciones graves de piel y músculo. Por ahora se han postergado todas aquellas investigaciones que impliquen la introducción de fagos por vía intravenosa, por temor a que los fagos despierten una respuesta de nuestro sistema inmune que limite la eficacia de estos virus. Indudablemente, antes de cualquier decisión se tiene que evaluar experimentalmente si el sistema inmune compromete o no la eficacia de la fagoterapia. La brillante idea de d’Herelle de utilizar fagos para controlar bacterias no se reduce sólo al ámbito de la medicina humana, sino que puede aplicarse a muchos otros campos. En este momento existen decenas de nuevas compañías que están desarrollando productos con aplicaciones novedosas muy interesantes que van más allá de sus propósitos iniciales. En el mercado ya existen productos con base en fagos enfocados a la medicina veterinaria o diseñados para eliminar bacterias patógenas de nuestros alimentos, e incluso para combatir infecciones en plantas de interés agrícola, por ejemplo los jitomates. Hay también grupos de investigación interesados en modificar fagos con métodos de ingeniería genética para que se puedan utilizar como vacunas o en el combate al cáncer. Este renovado interés en los fagos me permite asegurar que en los próximos años veremos un merecido renacimiento de la investigación, tanto básica como aplicada, de estas minúsculas criaturas. Miguel Ángel Cevallos, frecuente colaborador de ¿Cómo ves?, es doctor en investigación biomédica básica. Trabaja en el Centro de Ciencias Genómicas de la UNAM.


Revista de noticias científicas de la Biblioteca México Virtual  

Esta es un práctica para el uso de un sitio de publicaciones libres