Issuu on Google+

JoF

1

NUMERO

2011

NOVIEMBRE

The Journal of Feelsynapsis

w w w . f e e l s y n a p s i s . c o m

Bora Zivkovic << ...lo que los divulgadores científicos hacemos básicamente es hablar sobre artículos y noticias científicas y esparcirlas alrededor donde hay una audiencia no científica >>

Entomología Forense

Mujeres de Ciencia

La Geología de Titán VACUNAS Leonardo Da Vinci

el científico

Antioxidantes MICORRIZAS

¡A Divulgar! The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

1


JoF

The Journal of Feelsynapsis

Redacción (In alphabetical order):

Alfonso Paño Lalana, Bernardo Herradón, Carlos Romá Mateo, Enrique Royuela, Fernando Adam Fresno, Francisco Poza, Javier Pérez, Jesús David Tavira, Jose Manuel Echevarría Mayo, Jose Manuel López Nicolás, Julián Royuela, Leticia Puerta, Marisa Alonso Nuñez, Nahum Méndez Chazarra, Patricia Rodriguez, Rafael Medina, Raquel Buj, Rosa Porcel, Sergio Ferrer. Edición y Maquetación: Enrique Royuela Diseño e Ilustración: Cristina Escandon y Enrique Royuela Implementación web: Jose María Arias y Javier Maroto

Journal of Feelsynapsis es una revista online de divulgación, que pretende abordar los temas más actuales e interesantes de la ciencia y compartirlos con todos vosotros. La web Feelsynapsis.com no se responsabiliza de la opinión de los autores.

Puedes enviar tus comentarios puedes hacerlo a la siguie nte dirección: jof@feelsynapsis.com

T

odos tenemos derecho a saber. Es más, yo diría que todos tenemos la obligación de saber. ¿Saber qué? Se preguntarán algunos. Y hacen bien en preguntárselo. Saberlo todo. O mejor dicho, todo aquello que quieran saber. Y eso es, señores míos, la esencia, el alma, la base, la “chicha” de la ciencia. Hacer(se) preguntas para obtener respuestas, que llevan a más preguntas. Entonces, se podría decir sin atisbo de duda que es éste el trabajo de un científico. Preguntar y responder. Aunque es posible que llevemos tanto tiempo metidos en nuestra cueva haciendo experimentos que a muchos se les (nos) ha atrofiado la capacidad de dar estas respuestas fuera de nuestro hábitat. Porque el derecho (y la obligación) de saber no es exclusivo de los hombres de ciencia, estamos obligados a explicar qué, para qué, cómo, cuándo y dónde se hace ciencia. Porque la ciencia es bella, apasionante, emocionante, conmovedora, y -a veces- frustrante, difícil, desilusionadora. Pero sobretodo es divertida. Aunque mucha gente no lo sabe. Y hemos de contárselo. Pero contar ciencia no es tarea fácil, créanme. Escribir artículos científicos en los que se describen experimentos de una forma cuasi-perfecta, utilizando la instrumentación más sofisticada y métodos más avanzados de biología molecular, controlando los modelos matemáticos precisos para validar los resultados, es pan comido comparado con la labor de divulgación. Y es de esta dificultad y de la necesidad de contar -y mucho más de la de saber- del que suscribe de la que surgió la idea de Journal of Feelsynapsis; una plataforma gratuita, aprovechando las herramientas que nos brindan las últimas tecnologías, desde la que poder contarles qué y para qué hacemos lo que hacemos. Y para ello tuve la inmensa fortuna de contar con la inestimable e interminable colaboración de excepcionales divulgadores –y mejores personas- que desde el primer momento se subieron a este barco sin preguntar siquiera en qué puertos iba a parar. Y no lo hicieron porque es lo que hace la gente brillante; cosas extraordinarias. Porque todos tenemos el derecho a saber. Porque todos tenéis el derecho a que os lo contemos. Enrique Royuela [Dedicado a mi prima María Jesús, la primera persona que me enseño que tenía que abrazar con pasión y exprimir al máximo la oportunidad que me brindó la vida de poder estudiar Biología; una pasión compartida (prima, ¡lo he hecho!). In memoriam]


CONTENIDO

NOVIEMBRE 2011. NUMERO 1

28

De las viejas a las nuevas vacunas. De Jenner a Patarroyo Alfonso Paño

Bora Zivkovic. Página 5 entrevista

Vega Asensio. Página 10 entrevista

16 La Geología de Titán. Nahum Méndez Chazarra

22 Mujeres de Ciencia LADY MARGARET Patricia Rodriguez

26 Premios Nobel

32

Divinas Cúpulas

46

Exploradores de la biodiversidad hoy: nuevas respuestas a preguntas antiguas

CAVENDISH

INFOGRAFÍA

Enrique Royuela

Rafael Medina

81

38 Leonardo Da Vinci, El Científico Julián Royuela

53 ¿Están vivos los virus? Jose Manuel Echevarría

64 Aves Rapaces. Lo años del terror Jesús David Tavira

70 250 años de profesión veterinaria Fernando Adam

74 Ciencia Policial Xavi P.

109 Micorrizas Rosa Porcel

119 El verdadero sentido de la vida Sergio Ferrer

La Química y su relación co otras ciencias. Bernardo Herradón

88

Genoma, transposones y secuencias Alu. Raquel Buj

94

¿Qué tienen de raro las enfermedades raras? Carlos Romá Mateo

106

102 Narvales. Leyenda viva del Unicornio Leticia Puerta

[Artículo invitado] Don Curro

Las células de cáncer hacen trampa con su dieta

Marisa Alonso Nuñez

128

¿Qué está ocurriendo con los antioxidantes de última generación? Jose Manuel López Nicolás


The Blogfather

Marisa Alonso Nuñez entrevista a Bora Zivkovic; Comunicador científico, Editor en Jefe y Community Manager de la Scientific American science blogging network

Bora Zivkovic es un blogger científico de reconocido prestigio. Puedes encontarle en su blog A Blog Around the Clock. Entre sus logros más reconocidos como divulgador científico, cabe destacar la organización de dos conferencias para bloggers y la edición de dos antologías donde repasa los mejores blogs de ciencia.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

4


S

iendo este el primer mos una charla/entrevista número de un nuevo muy interesante acerca proyecto; una revista de la comunicación y dide comunicación científica vulgación científicas que online, qué mejor forma quiero compartir aquí con de empezarla que con la vosotros. Espero que la entrevista a uno de los disfrutéis tanto como yo la comunicadores científicos disfruté en su momento. y blogueros más conocidos P: Estamos en unas joren el mundo online: Bora nadas de ciencia online y Zivcokiv. Bora es el editor esta entrevista es para una en jefe de la red de blogs revista de comunicación de Scientific American y científica online, así que mi su community manager, además de ser cronobiólo- primera pregunta (doble) A Blog Around the Clock es casi obligada ¿Cuál es el go, profesor de biología, papel de la comunicación científicos son una audienemigos lo leerán. Tus organizador de las Concientífica online hoy en día encia y el público general amigos lo leerán. Incluso la ferencias Science Online y o cuál debería ser?, si es que encuentra la ciencia gente a la que no le imporeditor de las antologías de que hay alguna diferencia. interesante o divertida es ta lo leerá. Por lo que tú mejor escritura científica otra audiencia. Además en esperas que haya un grupo en la web Open Laborade personas que no han tory. Pero sobre todo es ...poniendo cosas online todo el pensado antes acerca un bloguero que lleva de lo que has escrito, ya siete años pululando mundo lo leerá. Tus enemigos lo pero que se van a por las redes sociales leerán. Tus amigos lo leerán. Incluso entusiasmar con lo y comunidades online, que acaban de leer. Y que escribe asidula gente a la que no le importa lo leerá” ahí es donde los blogs, amente en su blog A Twitter, Facebook, blog around the clock y Google+ y todas esas cosas tuitea sin descanso desde R: Bueno, esa no es una algunos temas se necesita entran en acción. Porque su cuenta @BoraZ. pregunta fácil. ¿Cuál es entusiasmar o animar a lo que los divulgadores A principios de septiembre el papel o el objetivo de mucha gente para cambiar científicos hacemos cualquier comunicación? tuve el placer de asistir a políticas de actuación o básicamente es hablar las Jornadas Science Online ¿Es tener un efecto en comportamientos persosobre artículos y noticias un cambio? ¿Es educar? London 2011 y en ellas se nales a nivel nacional. El científicas y esparcirlas ¿O divertir y entretener? trataron muchos temas tipo de comunicación que alrededor donde hay una La comunicación cientírelacionados con cómo la se use va a ser diferente audiencia no científica. comunicación de la ciencia fica puede hacer todo dependiendo de cuál es el Así, mi familia y mis eso. Pero hay que tener está cambiando, sobre objetivo que se persigue. amigos del instituto o de en cuenta las diferentes todo en el entorno online. Además, online y offline Facebook alguna vez van audiencias. Porque otros Allí conocí a Bora y tuvise diferencian en que tu a pinchar en el enlace que alcance online es pohe puesto en Facebook tencialmente mayor si y decir “Guau, esto es lo haces bien. Pero tamgenial. No lo sabía” y ellos bién a quién llegues será lo compartirán con sus más aleatorio. Así que amigos, y así estos círculos si utilizas emails, cartas, concéntricos llegarán a teléfonos u octavillas vas personas que no buscan a llegar a una audiencia activamente información muy concreta y la comu- científica. Alguien que lee nicación puede ser más y se preocupa por la cienlenta y menos eficaz. En cia comprará el Scientific resumen, tu mensaje le American pero la mayor llegará a menos gente parte de la gente no lo pero puedes dirigirlo a hará porque la ciencia no una audiencia en conle importa o no sabe que creto mucho mejor. Sin le importa o que la ciencia embargo, poniendo es divertida. Y si intentas cosas online todo el llegar a ellos, la web es Bora Zivkovic durante el SOLO 2011. Fotografía: Vibhuti J. Patel mundo lo leerá. Tus realmente buena porque (@vibjpatel)

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

5


“..la gente no sabe que le importa o que la ciencia es divertida” todo el mundo está online hoy en día. P: ¿Podrías decirme de una a cinco características de una buena omunicación científica? R: ¡¡¡¡PASIÓN!!!! Tienes que estar entusiasmado con la historia que estás contando, lo que es una de las razones por las que escribir blogs tiene tanto éxito. A los blogueros no se les asignan temas por encargo. Tú oyes o lees algo y de repente te entusiasmas con ese algo y escribes sobre ello. Por eso, la pasión es lo más importante. Lo segundo es escribir sobre las cosas que tú conoces. Si eres un científico escribe sobre tu área de conocimiento. Yo no voy a escribir sobre física porque

cinco pero son suficientes. P: Bueno, cinco era solo un número aleatorio. Acabas

artículos, tenía cuatro manuscritos preparados y la mitad de mi tesis lista, y paré de hacer experimentos solo porque mi director de tesis me dijo: “Para. Sé que puedes hacer otros cincuenta experimentos más pero para,

Cartel de las Jornadas Science Online London 2011

de hablar sobre científicos escribiendo sobre su campo de conocimiento y tú fuiste un científico hace

...Tú oyes o lees algo y de re-

escribe tu tesis y vete”. Fue una combinación de cosas. Lo primero es que en ese momento ya no hacía experimentos, sino que solo estaba escribiendo. Segundo, tres personas muy importantes en mi vida, mi padre, mi abuela y la abuela de mi mujer, muri-

pente te entusiasmas con ese algo y escribes sobre ello. Por eso, la pasión es lo más importante” no es interesante para mí o me llevaría muchísimo trabajo el hacerlo bien. Lo que hago es enlazar a un blog de ciencia que lo hace mucho mejor que yo y que puede hacerlo en veinte minutos, como yo puedo escribir un historia de ritmos circadianos. Así hay una división del trabajo entre blogs para que cada uno de nosotros agarre las historias sobre las que podemos decir algo inteligente desde una perspectiva de conocimiento y con pasión. Bueno, no han sido

unos años, pero cambiaste y dejaste de hacer investigación. ¿Cómo ocurrió? ¿Por qué te arriesgaste a hacer este cambio? Porque es un cambio arriesgado.

eron uno detrás de otro. Y eso, de hecho, me puso en una depresión clínica. Pero yo era un macho y pensé que eso no podía ocurrirme a mí. Me llevó dos años darme cuenta de que era un problema real. Pero tuve a mi familia que cuidó de mí y de la casa. Y ese fue el momento en el que empecé a pasar la mayor parte del tiempo que estaba despierto online. Esa fue mi auto-medicación. En ese momento ya estaba fuera de la universidad. No había renovado nada en el departamento, así que estaba fuera. Se había acabado. Pero ahora era parte de estas comunidades online. Y empecé a escribir acerca de política. Cuando las elecciones de 2004 se acabaron decidí que ya estaba aburrido de escribir sobre política pero que como era un científico podía escribir sobre ciencia. Y empecé un blog de ciencia siendo un rotundo éxito desde la primera entrada. Fue un momento salvavidas para mí. Me dije guau, hay interés por esto, hay hambre de esto y estoy escribiendo desde una posición de experto en el que la gente confía. Así que escribí acerca del sueño, ritmos circadianos, comportamiento animal o

R: Es una de esas cosa que ocurren. No fue que me senté, vi los pros y los contras y tomé la decisión. Estuve haciendo la tesis durante diez años. Publiqué cinco Marisa Alonso y Bora Zivkovic tras la entrevista. The 11 TheJournal Journalof ofFeelsynapsis Feelsynapsis||NO. NO.11||Noviembre Noviembre201 201

6


psicología y no era sólo un cualquiera, yo era alguien con conocimientos. La gente confiaría en eso y vendría a mí con preguntas. Así es como me convertí en divulgador científico y eso me llevó a un trabajo en PLOS durante tres años y ahora con Sci-

entific American. P: Bueno, de hecho mi siguiente pregunta es acer-

cuando tengo tiempo y energía, escribir sobre comportamiento animal y ritmos circadianos, pero escribo mucho más acerca de medios������� de comunicación. Escribo sobre escribir blogs y las redes sociales, sobre periodismo, y sobre divulgación y edu-

cación científicas porque es algo que me apasiona. Con el paso de los años he adquirido un nivel de

“C

sería? ¿y a los que llevan ya un tiempo escribiendo sobre ciencia? R: Esta es peliaguda. Con los nuevos divulgadores creo que el mayor obstáculo es la confianza, Y es difícil decirles a las personas que tengan confianza en ellos mismos. Si no la tienen no te van a escuchar. Así que algo que hago mucho y que a la gente le gusta es que mi círculo de lectura de blogs no se reduce a los que llevan ya un tiempo escribiendo. Es que busco activamente nuevos blogueros, blogueros jóvenes, nuevas voces. Y cuando descubro a alguien cuyo estilo me llama la atención, del que nadie ha oído hablar antes y que tiene tres visitas por día en su blog, hago algo personal el promocionarle, estar en contacto con esa persona y darle el empujón de confianza que necesita. Especialmente ahora que en la Scientific American yo llevo el Blog del Invitado. Es perfecto. Les digo que escriban algo para este blog y normalmente hacen su mejor trabajo para ello. Alguien dijo que el Blog del Invitado de Scientific American es como el TED de los blogs de ciencia porque la gente muestra su mejor trabajo ahí. Esta es una manera de promover voces jóvenes y nuevas hasta que ellos ya no necesitan esta promoción porque consiguieron confianza en ellos mismos, aprendieron, construyeron redes de trabajo y algunos de ellos fueron, de hecho, contratados por medios

on los nuevos divulgadores creo que el mayor obstáculo es la confianza, Y es difícil decirles a las personas que tengan confianza en ellos mismos” ca del hecho de que empezaste escribiendo sobre política y luego cambiaste a ciencia. Y creo que ya me has contestado a lo que te quería preguntar pero ¿cuál es el tema sobre el que más te gusta escribir? R: ¿Sabes? La gente cambia. He estado escribiendo blogs durante siete años. Y la gente cambia sus intereses y sus estilos. Todavía me gusta,

conocimiento sobre estos temas con el que me encuentro a gusto para escribir sobre ellos y son los temas que me preocupan. Así que escribo mucho sobre ellos. Y cuando tengo tiempo, alguna vez, escribo sobre ciencia. Para pasar un buen rato, solo porque me gusta. P: Y la última pregunta. Si pudieras darle un consejo a los nuevos de la divulgación científica ¿cuál

de comunicación. Y me siento muy orgulloso de ellos. Esa es la razón por la que me llaman el “Blog Father” porque ellos son mis niños de blog y me siento muy orgulloso de ellos. Algunos de ellos son blogueros famosos hoy en día y empezaron porque yo les dije que lo hicieran. Me encanta hacer eso y cuando uno de ellos tiene éxito, también es mi éxito. Y sobre la segunda parte, decirle a los blogueros que ya llevan escribiendo tiempo qué hacer. Bueno, la cosa es que la primera regla de escribir blogs es que tú no les dices a los blogueros qué hacer, sobre qué escribir o cómo escribirlo, porque tiene que salir de la pasión. P: Bueno, no es que les digas qué hacer. Sería si tu echas algo de menos o ves que algo no funciona en el panorama de blogs de hoy en día. Lo que sientes sobre el estilo de los que ya llevan escribiendo durante tiempo o quizás algo que tú quisieras destacar. R: Es bastante difícil de decir porque cada escritor de blogs tiene un objetivo diferente. Así que para sus propósitos o razones, lo están haciendo bien y no podemos decirles que lo hacen mal. Algunos de ellos utilizan los blogs para comunicarse con sus colegas científicos. Por eso usarán muchos detalles y eso está bien. Otros quieren llegar a audiencias más extensas y trabajan en ello y mejoran su escritura, y eso está bien. Otros escriben para crear una comunidad de apoyo especialmente para los jóvenes investigadores, o mujeres investigadoras como minoría de investigadores para intentar mostrarles

The The Journal Journal of of Feelsynapsis Feelsynapsis | | NO. NO. 1 1| | Noviembre Noviembre 201 2011 1

7

7


la forma de navegar en el mundo de la universidad o de cómo tener éxito. En esto los investigadores con experiencia pueden servir de mucha ayuda para la gente joven. Para saber cómo escribir un proyecto, como elegir a un jefe, cómo presentar datos en un congreso o cómo maximizar sus posibilidades de alcanzar sus objetivos. Incluso si nunca escriben sobre artículos o noticias científicas son una parte

muy importante de la comunidad y si utilizan un lenguaje fuerte, está bien para mí. Yo no estoy en contra del lenguaje fuerte porque este tipo de lenguaje es necesario a veces para despertar a diversas estructuras. Una de mis entradas más enlazadas se titula “The shock value of Science Blogs” (El valor de sacudida de los blogs de

ciencia) y es exactamente acerca de eso. Hay una estructura tradicional a la que la gente está acostumbrada y muy a menudo un lenguaje o estilo loco en los blogs hace que la gente se sacuda esa complacencia y empiecen a pensar de una forma diferente. Y eso es para bien. Como podéis ver, el hac-

“Alguien dijo que el Blog del Invitado de Scientific American es como el TED de los blogs de ciencia porque la gente muestra su mejor trabajo ahí”

erle la entrevista a Bora fue un verdadero placer y aprendí mucho sobre el mundo de la comunicación científica. Espero que esta entrevista haya sido tan útil para vosotros como lo ha sido para mí. Por último, quiero resaltar las dos características que Bora dijo sobre la divulgación científica: pasión y conocimiento. Así que ya sabéis, a divulgar con pasión sobre lo que conozcáis. JoF

The TheJournal Journalof ofFeelsynapsis Feelsynapsis||NO. NO.11||Noviembre Noviembre201 201 11

8


Norarte Journal of Feelsynapsis entrevista a Vega Asensio, una investigadora que ha dado rienda suelta a otra de sus pasiones: el dibujo. Resulta admirable su ejemplo ya que son pocos aquellos decididos (en serio) a cumplir sus sueños, y Vega es una de estas excepciones. Por ello decidió crear Norarte, su propio estudio de ilustración científica. Después de ver su trabajo, no nos cabe ninguna duda de por qué decidió dar el salto, y es que esta ilustradora tiene mucho talento. Esta emprendedora nos explica en JoF por qué ha redireccionado su amor, su talento y su tiempo hacia la ilustración.


JoF: Norarte se dedica a ... Vega Asensio: NorArte es un estudio de ilustración científica dedicado a crear dibujos para el mundo de las ciencias. Como ya sabrán vuestros lectores las ilustraciones de carácter científico dan apoyo a los textos de ciencia. No soy de la opinión de “más vale una imagen que mil palabras”, pero las palabras y las imágenes son complementarias y hay que utilizar ambas para poder dar la información más completa posible. JoF: A mucha gente podría parecerle que el dibujo y la ciencia no están muy relacionados. Entonces, ¿Por qué decidiste que querías dedicarte a ilustrar? VA: Para contestar a esta pregunta espero que los lectores me permitan dar un pequeño rodeo. Mis dos grandes pasiones desde joven han sido el dibujo y la biología y aunque dudé el hacer bellas artes me licencié en Biología. Pero ambas pasiones han ido unidas y mi gran objeto de dibujo siempre ha sido la naturaleza.

investigación y por otro porque es tan nuevo lo que hacen que es un gran reto el captar lo que quieren transmitir y dejarles satisfechos. JoF: ¿Sabías donde te metías cuando pensaste en crear tu propia empresa? VA: No. Pero no creo que el “no saber” sea

Caballo, hispano-breton (Lápiz pintado digitalmente). Ilustración para la tesis de Marcela Peréz-Gutierrez, del departamento de genetica de la Universidad Autonoma de Madrid.

Me he dedicado a la investigación durante varios años y cuando cambió mi situación personal y el deseo de cumplir un sueño se hizo muy fuerte, decidí dedicarme full time a la ilustración. Pero debo de admitir que echo de menos el ajetreo del laboratorio. JoF: ¿Cómo surgió la idea de crear tu propia empresa? VA: No existen muchos estudios de ilustración

Coccinella septempunctata (Acrílico)

científica y por lo que he visto están casi siempre formados por un solo ilustrador. Pedir un empleo en estas empresas no creo que fuera muy fructífero. Por lo tanto, crear mi propia empresa era la única manera de poder hacer lo que quería. Por otro lado, no le tengo miedo y creo que es un gran reto el ser dos cosas: empresaria e ilustradora, tengo fuerzas y creo que será un camino bonito. JoF: Imaginamos que los comienzos no fueron nada fáciles... VA: Los comienzos no fueron fáciles. Comencé la actividad en Mayo, pero con el nuevo curso académico es como empezar de nuevo. Lo que encuentro más difícil es llegar al público que creo les puede interesar mi trabajo. Mi gran objetivo es trabajar con investigadores, por un lado porque me vuelven a sumergir en la

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

10


EscarabajoThe de huerta (Plumilla y acuarela) Journal of Feelsynapsis | NO. 1 | Noviembre 2011

11


quiere sobrevivir en este campo no puede dejarse llevar, porque el tiempo en esta sociedad cada vez es más escaso. JoF: ¿Cómo describirías la experiencia de emprender?

Ciclo de vida de Quercus-robur. (Acuarela y acrílico)

algo negativo, todo lo contrario, te da la posibilidad de ir creando y saltando los obstáculos, la vida así es más divertida. JoF: ¿Sabías qué tenías que hacer para poner en marcha tu proyecto? VA: No. Y todavía tengo proyectos en la cabeza que no sé como voy a materializar. Pero el gran secreto aquí, como en casi todos los ámbitos, es preguntar a quien sabe. Porque salvo unos pocos privilegiados los demás seguimos patrones que ya existen. Por lo tanto, no he dudado en preguntar sobre cómo emprender o preguntar sobre los diferentes gremios que rodean a la ilustración científica. JoF: Una mente inquieta

como la tuya seguro que ya es´ta pensando en otros proyectos, ¿no? VA: Como ya he dicho tengo proyectos en la cabeza que espero pronto se materialicen. Todos destinados a la divulgación de la ciencia, pero algunos orientados más hacia los más pequeños. Por el tiempo que llevo en esto, no tengo gran demanda de trabajos, pero si hay gran demanda de colaboraciones, por lo tanto, no sabes cual va a ser la siguiente tarea que te propongan: se dan cosas como ilustración de un libro de vivencias hasta diseño de postales con fines benéficos. El abanico es muy grande, se necesitan muchos ilustradores que den apoyo a todas esas ideas pero, por desgracia, si uno

VA: Apasionante. Es una gran oportunidad para uno mismo y un gran regalo. Porque te levantas por la mañana pensando que vas a hacer lo que te encanta, lo que has elegido y con la esperanza de llevar tú tus propias riendas. Creo que no se puede pedir más. Además, en estos días

Rana ágil, Rana dalmatina (Plumilla)

con el fallecimiento de Steve Jobs, creo que todos tenemos en la cabeza qué es emprender y qué es ser un gran emprendedor. JoF: Una pregunta obligada dado el momento socio-político de la actualidad ¿Es en este momento de crisis una buena época para

Gallotia simonyi. Macho. (Plumilla). Ilustración para el catálogo Cites. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

12


emprender? VA: Siempre es una buena época para emprender. Siempre es un buen momento para cumplir ese deseo. Permitidme la comparación con la pregunta: ¿en tiempos de guerra es un buen momento para amar? Es inevitable, si se quiere hacer algo hay que hacerlo. Puede, que en tiempo de crisis sea más difícil, más fácil o de absolutamente igual. Por desgracia, es algo que no sé. Yo he sentido que era el momento de plantearme en serio el cumplir un sueño y no me he parado

a pensar si era un buen momento. Y si fracaso, creo que tampoco podré decir a ciencia cierta que ha sido por la situación económica que atravesamos en estos momentos. Pero si soy de la opinión de que en tiempos de crisis florecen más este tipo de alternativas, ya que “la necesidad agudiza el ingenio”. JoF: Dada tu experiencia, ¿Qué consejos darías a las personas que desean emprender una idea o negocio? VA: Como ya habréis comprobado soy una

persona muy optimista, por lo tanto mis consejos solo pueden ser en este tono: – Si se tiene una idea y se quiere llevar a cabo hay que hacerlo. No se puede quedar uno con las ganas. – No hay que tener miedo al fracaso. – El fracaso no es algo malo, aunque en esta sociedad no se valore. Pensemos, por ejemplo, en un niño que esta comenzando a andar, ¿es una caída un fracaso o un motivo – Apuntar todas esas grandes ideas. Porque a veces, parecen

que están fuera del alcance de la mano, pero pasado el tiempo puede que las tengas solo a un palmo. – No ponerse limites, porque no sabes lo que puedes hacer hasta que lo intentas. – Animo y buen humor. para volver a levantarse? – No se está solo. Hay muchos lugares donde se puede pedir ayuda y el trabajo siempre da su fruto. – Se tienen muchos brain-storming que abruman, pero creo que el tener muchas ideas es bueno. Hay que pensar activamente mucho para que poco a poco las cosas vayan saliendo. JoF

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

14


The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

15


Titán

es uno de los cuerpos más fascinantes y sorprendentes del Sistema Solar. Su superficie se encuentra cubierta por una densa y perpetua niebla que envuelve al satélite en un velo de misterio que lo hace muy apetecible al ojo de cualquier curioso y científico. Pero la misión Cassini, actualmente en órbita alrededor del sistema de Saturno, nos ha desvelado con sus instrumentos algunos de los sorprendentes detalles de la superficie de Titán.

INTRODUCCIÓN Titán, el segundo satélite más grande del Sistema Solar, fue descubierto el 25 de Marzo de 1655 por el astrónomo neerlandés Christiaan Huygens. Con un diámetro de 5152 kilómetros supera en tamaño a nuestra Luna (3470 km) e incluso a Mercurio (4880 km), siendo solo superado en tamaño por otro satélite, en este caso por Ganimedes (5268 km).

Figura 2. Detalle de la atmósfera de Titán en la que se observan distintas capas de niebla (NASA/JPL)

(1.4%) e hidrógeno (~0.2%), además de otros compuestos traza tales como hidrocarburos, monóxido y dióxido de carbono, helio, etc. Además en algunos momentos se observan en su atmósfera nubes de etano, metano y otros compuestos orgánicos.

“Es el único satélite del Sistema Solar que tiene una atmósfera completamente desarrollada”

Figura 1. Titán creciente. (NASA/JPL)

Tarda 15 días y 22 horas en completar una órbita alrededor de Saturno, lo mismo que tarda en completar una vuelta sobre sí mismo, ya que al igual que nuestra Luna sufre un fenómeno llamado acoplamiento de marea o tidal locking, de tal manera que siempre muestra la misma cara al planeta. Es el único satélite del Sistema Solar que tiene una atmósfera completamente desarrollada. Con una presión atmosférica 1.5 veces superior a la de la Tierra, está compuesta principalmente por nitrógeno (98.4%), metano

Hasta que no llegó la misión Cassini a Saturno en el año 2004, nunca se había podido observar directamente la superficie de Titán con gran detalle, ya que su niebla es muy espesa y prácticamente opaca, además de que su tamaño y distancia complica las observaciones desde la Tierra. Este perpetuo velo de niebla es tan opaco que cuando descendió el módulo de aterrizaje Huygens, que viajaba a bordo de la Cassini, fue incapaz de detectar la dirección de dónde provenía la luz del Sol. La temperatura media en la superficie de Titán esta en torno a los -180ºC gracias a que la niebla refleja parte de la radiación que proviene del Sol, creando un efecto opuesto al invernadero. Otro de los aspectos más importantes es la presencia de mares y lagos de hidrocarburos, cuya existencia fue postulada a principios de la década de los 80 tras la visita de las Voyager 1 y 2 que observaron las condiciones de presión y temperatura idóneas para sostener en estado líquido masas de hidrocarburos en su superficie.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

16


La superficie de Titán La superficie de Titán es un complejo puzle de formas de modelado: En ella encontramos algunas parecidas a las de la Tierra, pero también otras muy características. Y sin duda, si hay algo que queda totalmente claro con las imágenes recibidas hasta el momento, es que es una superficie joven y renovada por distintos procesos geológicos. En primer lugar, vamos a hablar de los cráteres de impacto porque son la característica más común de todos los cuerpos del Sistema Solar. La presencia de los cráteres de impacto y su estado (si están erosionados, rellenos o afectados por otros procesos geológicos) suelen ser buenos indicadores de la edad de la superficie que estamos observando: A mayor número de cráteres y peor conservados estos, mayor será la edad de la superficie. Figura 3. Esquema básico de la distribución por capas de Titán

LA GEOLOGÍA DE TITÁN Estructura interna. A grandes rasgos, la estructura interna de Titán va perfilándose poco a poco con los datos que está obteniendo la Cassini. Desde 2005 hasta la actualidad se han realizado diversas modelizaciones físicas con los datos que se han ido recopilando para conseguir tener un esquema de cuál es su estructura interna y la composición de estas capas. Los últimos modelos sostienen que es así como está formado su interior. De afuera hacia adentro, la primera capa está formada por hielo (de agua) hexagonal, la forma más común de hie- Figura 4. Imagen de un cráter de impacto de 30 km. de diámetro lo presente en la Tierra. La segunda estaría formada por en el que se puede observar un pico central y su eyecta (NASA/ agua líquida rica en amoniaco. La tercera capa sería una JPL). capa de hielo a altas presiones y por último una cuarta capa que sería el núcleo rocoso del planeta. Este núcleo rocoso, según los últimos datos, podría no haberse diferenciado completamente [La diferenciación es el proceso por el cual durante la formación de un cuerpo planetario se separan sus componentes como consecuencia de sus propiedades físicas y químicas. Este proceso lleva a la estructura interna en capas como la de nuestro planeta Tierra: la típica estructura con una corteza, un manto y un núcleo, en la cual los materiales más densos se hundieron hacia el núcleo y los menos densos formaron la corteza], sino que durante su formación hubo una incompleta separación de la mezcla hielo-roca desde la que Titán se formó al no haberse fundido completamente durante su creación, aunque según algunos estudios también cabe la posibilidad de que los minerales del núcleo estén muy hidratados (que tengan moléculas de agua en su red cristalina).

“Otro de los aspectos más importantes es la presencia de mares y lagos de hidrocarburos...”

Pues bien, Titán es un lugar prácticamente desprovisto de cráteres de impacto: De los 60 lugares que parecen ser cráteres, solo ocho (el último ha sido descubierto en Agosto de 2011) han sido clasificados con certeza como de impacto, ya que otros procesos como el vulcanismo son capaces de crear depresiones de forma circular muy parecidas. Los tamaños de los cráteres descubiertos oscilan entre los 30 y 390 kilómetros de diámetro. Este dato nos indica que la superficie de Titán es una superficie relativamente joven, en la que aún existen procesos que la modifican activamente, ya que de no existir

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

17


No fue hasta 2006 cuando un conjunto de observaciones de radar de la superficie de Titán realizadas por la Cassini encontraron unos parches sin relieve y de color oscuro (eran oscuros porque no reflejaban las ondas del radar) cerca del polo Norte que posteriormente convertirían a Titán como el segundo cuerpo del Sistema Solar que posee masas de líquido estable en su superficie. Normalmente, junto a estas masas de hidrocarburos en Titán se observan canales “fluviales”, que llegan incluso a desembocar en algunos lagos. Aunque en un principio se hubiese podido pensar que se formaron debido a la fusión de la capa superficial de hielo, como ocurre en algunos contextos glaciares y volcánicos de la Tierra, e incluso por fenómenos de disolución puramente químicos, debido a la baja temperatura de Titán, estos dos casos resultan improbables. La explicación más posible es que estos canales están realmente formados por la erosión mecánica que producen las lluvias de metano y etano que caen sobre la superficie. Figura 5: Reflexion especular de la luz solar creada por el lago Kraken Mare.

los procesos que renuevan la corteza estaría cubierto de cráteres, como por ejemplo lo está Marte, en cuyo caso la actividad geológica se detuvo muy pronto y hoy prácticamente el único proceso activo es la erosión eólica y algunos flujos estacionales de agua en superficie. Y hablando de líquidos en la superficie, Titán tiene lagos y mares de hidrocarburos, más concretamente de etano y metano líquidos. Esta teoría fue corroborada en 1995, cuando una serie de observaciones tomadas a través del Telescopio Espacial Hubble descubrieron la presencia de metano líquido en Titán.

“...junto a estas masas de hidrocarburos en Titán se observan canales “fluviales”, que llegan incluso a desembocar en algunos lagos.

Cuando llegó la Cassini a Saturno, se esperaba que los mares y lagos de Titán reflejaran la luz solar, pero no fue hasta Julio de 2009 cuando se pudo observar directamente este fenómeno.

Figura 6: Lagos de hidrocarburos en el hemisferio Norte de Titán (NASA/JPL).

Figura 7: El lago Ontario de Titán es un buen ejemplo donde se puede ver la desembocadura de los “ríos” sobre este. Fue el primer lago confirmado de Titán.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

18


la evaporación de agua del mar). Este descubrimiento es muy importante ya que por el momento solo en la Tierra y Marte han sido descubiertas evaporitas (de sulfatos, carbonatos y haluros), aunque en Titán son de una composición bastante “exótica”, más concretamente nitrilos.

Figura sible

Un fenómeno que cabe destacar en la superficie Titán es el del criovulcanismo o vulcanismo de hielo, que consiste en la erupción de volátiles como el agua, el metano o el amoniaco hacia la superficie de un planeta o satélite (aunque a veces acompañando la erupción puede estar acompañada por trozos sólidos de hielo). Su estructura es similar a la de los volcanes terrestres, solo que en vez de expulsar roca fundida, expulsan líquido o gas a bajas temperaturas. Responsable de este fenómeno es el calen8. Reconstrucción tridimensional del po- tamiento que ocurre debajo de la superficie debido a la criovolcán de Sotra Facula (NASA/JPL). fuerza de las mareas gravitatorias o incluso por la desintegración de elementos radioactivos funden partes de las capas de hielo. Es este material en estado líquido o gaseoso el que rompe la corteza helada para ser expulsado formando un criovolcán.

“...relacionado con lagos y mares han sido descubiertos depósitos de evaporitas...”

Además, relacionado con lagos y mares han sido descubiertos depósitos de evaporitas, es decir, unas rocas que se producen cuando a partir de una disolución saturada precipitan compuestos en estado sólido al evaporarse (como por ejemplo las salinas que producen Sal por Figura 10: Imagen de las tres crestas paralelas sobre la superficie de Titán que sugieren algún tipo de tectónica.

Pues bien, de confirmarse el criovulcanismo, Titán se uniría al club de cuerpos del Sistema Solar con un vulcanismo (en este caso criovulcanismo) activo, como son nuestra Tierra, Ío, Tritón y Encelado.

Figura 9. Arriba, dunas lineales sobre la superficie de Titán (NASA/JPL). Abajo, dunas lineales en el Desierto del Sahara (CNES).

“ Un fenómeno que cabe destacar en la superficie Titán es el del criovulcanismo o vulcanismo de hielo”

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

19


El candidato más posible a criovolcán es Sotra Facula, cuya forma tridimensional es muy parecida a la de los volcanes terrestres. Sus dimensiones alcanzan los 65 kilómetros de diámetro y los 1500 metros de altura. Además, en su base, se observan formas lobuladas que parecen indicar el movimiento de fluidos sobre la superficie.

“Aunque la corteza de Titán no es de roca, el hielo también puede adquirir comportamiento rígido para fracturarse y elástico o plástico para deformarse”.

Otra de las características que más llama la atención en Titán es la presencia de dunas en su superficie. Está claro que si existen dunas es porque hay un régimen de vientos que permite su formación. Estas dunas lineales, de hasta 100 metros de altura y de hasta decenas de kilómetros de longitud, no tienen una composición como la de la Tierra o Marte. No son las típicas dunas de arena como las de los desiertos terrestres, sino dunas formadas por compuestos orgánicos llovidos desde la atmósfera que van formando glo- ¿Y cuál sería el motor interno de esta tectónica? Segubulos que posteriormente son arrastrados por los vientos. ramente, al igual que con el criovulcanismo, las mareas producidas por Saturno y la desintegración de elementos Al observar estas dunas por primera vez los científicos se radioactivos podrían estar detrás del funcionamiento de quedaron bastante sorprendidos: Al crear el modelo cli- una rudimentaria tectónica alimentada por movimientos mático de Titán con los datos de la Huygens, los vientos convectivos en la capa líquida de Titán, pero aún se necesiresultantes tenían una componente principal Este-Oeste tan muchos más datos para confirmar este extremo, incluen toda la banda ecuatorial, pero con las primeras imá- yendo una mejor identificación y clasificación de las posigenes que se tomaron, las dunas mostraban que estaban bles formas atribuibles a la tectónica que aparecen en Titán. orientadas al contrario de lo esperado. ¿Y esto por qué? Sin duda alguna, Titán es una caja de sorpresas geológicas Parece ser que los cambios estacionales que ocurren cada que seguirá asombrándonos en los próximos años, pordos años provocan rachas de viento en sentido contrario que si hay algo de lo que nadie duda es que lo que sabemás fuertes que los vientos normales, cambiando tempo- mos es aún muy poco, y que quizás lo más espectacular está aún por descubrir. ralmente la dirección de las dunas.

“Otra de las características que más llama la atención en Titán es la presencia de dunas en su superficie”

Nahúm Méndez Chazarra es Geólogo de vocación y fundamentalista de la divulgación científica por convicción, dedico mis ratos libres a hacer accesibles las Ciencias de la Tierra al público en general a través de mi blog, un geólogo en apuros y del twitter como @nchazarra.

Y para concluir, ¿Podemos hablar de algún tipo de tectónica en Titán?. Bueno, primero comencemos definiendo que es: Es la rama de la geología que estudia aquellas estructuras que se crean en la corteza de un planeta debido a los esfuerzos (compresión o extensión que dan lugar a pliegues y fallas) que esta sufre. Aunque la corteza de Titán no es de roca, el hielo también puede adquirir comportamiento rígido para fracturarse y elástico o plástico para deformarse. A través de las imágenes de radar, en 2005 y 2008 se han observado algunas formas que parecen relacionadas con la presencia de fallas en superficie que basculan el terreno, dejando unas partes más elevadas que otras, al más puro estilo “Basin and Range” estadounidense, pero se necesitaran más datos y mayor resolución para confirmar que efectivamente hay una tectónica funcionando en Titán. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

20


MUJERES de CIENCIA Patricia Rodriguez por

Hasta el siglo pasado las mujeres fueron oficialmente excluidas del mundo cient铆fico. Sin embargo, a pesar de su invisibilidad, muchas de ellas consiguieron que la ciencia no fuera terreno exclusivo de los hombres. Muchas mujeres a lo largo de la Historia se las han ingeniado para superar la marginaci贸n a la que estaban sometidas y han brillado con luz propia en el avance de la ciencia haciendo que sus contribuciones fueran vitales para el conocimiento. En Journal of Feelsynapsis las recordamos para que sus logros no queden en el olvido


LADY MARGARET CAVENDISH LA CIENTÍFICA REVOLUCIONARIA

La escritora del siglo XVII Lady Margaret Cavendish (1623-1673) ayudó a popularizar las ideas de la revolución científica. Pintoresca, abierta y ampliamente ridiculizada por sus excentricidades, fue una de las primeras en abogar porque la teología se encontraba fuera de los parámetros de la investigación científica. Como la primera inglesa cosmóloga reconocida, peleó con convicción por la educación de las mujeres y su implicación en la ciencia.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

22


La iniciación Margaret Lucas era la pequeña de 8 hermanos de una familia adinerada de los alrededores de Colchester, Inglaterra. Recibió una educación muy pobre en su propia casa mediante una institutriz de avanzada edad, pero pronto mostró su interés por la escritura. Su familia comulgaba con las ideas monárquicas y tuvieron que dispersarse cuando el rey Carlos I fue exiliado a Oxford. Margaret fue nombrada dama de honor de la reina Henrietta Maria y en 1644 huyó a Francia con ella y otros miembros de su séquito cuando las fuerzas monárquicas fueron derrotadas.

concepto de materia en movimiento. Al mismo tiempo, Margaret recibía clases particulares de ciencia y filosofía impartidas por su marido y por su hermano Charles. Margaret Cavendish viajó Inglaterra junto a su cuñado en 1651 para negociar la venta de las tierras de su marido y rápidamente se fraguó una reputación por su extravagancia en el vestir y su excentricidad. Un año después comenzó a escribir sus propios trabajos sobre filosofía natural (o cosmología, nombre que se le dio hasta el siglo XIX a la ciencia que hoy conocemos como física) y publicó los libros de poemas Poems and Fancies y Philosophical Fancies. Tras año y medio en Inglaterra, Margaret regresó junto a su marido, con el que volvió a su país tras su exilio en 1660 cuando la monarquía fue restaurada.

Rebelde con causa En su regreso a Inglaterra, Lady Cavendish comenzó a estudiar los trabajos de otros filósofos (el término “científico” no era utilizado todavía) mientras continuaba desarrollando sus propias obras. En 1663 (algunas fuentes dicen que fue en 1655) publicó “Philosophical and physical opinions” en el que razonaba cómo, si los átomos eran materia viva, deberían tener libre albedrío y libertad, y por lo tanto serían incapaces de cooperar en la creación de organismos complejos. En el año siguiente, publicó otro trabajo en el que desafiaba las ideas expresadas por los cosmólogos contemporáneos. Ambos libros fueron enviados expresamente a los eruditos más importantes de la época para su conocimiento. En 1666, Margaret publicó “Observations upon Experimental Philosophy” en el que criticaba duramente las debilidades de la nueva ciencia: A la edad de 22 años, Margaret conoció a William Cavendish, marqués y después duque de Newcastle, 31 años mayor que ella, y ese mismo año se casaron en Francia. El matrimonio se trasladó de París a Amberes, en dónde Margaret se introdujo en el mundo de la ciencia a través de una sociedad formada por otros exiliados llamada El círculo de Newcastle. Thomas Hobbes, René Descartes y Pierre Gassendi también formaron parte de esta sociedad en la que Margaret aprendió sobre filosofía mecánica y atomismo. Estas nuevas formas de ver el mundo se hicieron muy populares en aquella época y explicaban todos los fenómenos naturales mediante el

‘And as for Atoms, after I had reasoned with my Self, I concluded that it was not probable, that the Universe and all the Creatures therein could be Created and Disposed by the Dancing and Wandering and Dusty motion of Atoms’ También afirmó que el microscopio que se había inventado recientemente distorsionaba la naturaleza y llevaba a observaciones erróneas. En ese mismo año Lady Cavendish publicó “The Description of a New World, Called The Blazing-World”

<< En 1663...publicó “Philosophical and physical opinions” en el que razonaba cómo, si los átomos eran materia viva, deberían tener libre albedrío y libertad, y por lo tanto serían incapaces de cooperar en la creación de organismos complejos. >> The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

23


una novela en la que describe un reino utópico en otro mundo al que se puede llegar a través del Polo Norte. Es la única obra de ficción escrita por una mujer en el siglo XVII, así como uno de los primeros ejemplos de lo que ahora consideramos ciencia ficción. La influencia de esta obra ha llegado hasta nuestros días y este “Blazing World” aparece como uno de los escenarios donde se desarrolla una de las entregas de la novela gráfica “La liga de los caballeros extraordinarios” de Alan Moore.

La alta sociedad científica En 1660 se fundó la Royal Society en Londres, la cual sirvió de revulsivo para la creación de una red de sociedades por toda Europa. Muy pocas personas, y mucho menos las mujeres, eran educadas en el siglo XVII, por lo que los miembros de estas sociedades eran pocos y en su inmensa mayoría hombres. Allí las ideas se distanciaban de la tradición clásica del aprendizaje académico y sus miembros eran ridiculizados a menudo por el resto de los ciudadanos. Margaret quería, por todos los medios, ser reconocida por la comunidad científica y en 1667 disfrutó del privilegio de ser la primera mujer en ser invitada a visitar la Royal Society y presenciar una serie de experimentos llevados a cabo por los prestigiosos académicos Robert Boyle y Robert Hooke. Después de este hecho, la sociedad prohibió la entrada a las mujeres, prohibición que se mantuvo hasta 1945.

obras fue imprescindible para muchos y consiguió popularizar el debate con nuevas formas de pensar. El tributo a Margaret que publicó su marido después de su muerte contenía cartas de agradecimiento de las Universidades de Leiden, Cambridge y Oxford, de la biblioteca Bodleian, del Trinity College y de muchos hombres importantes en el mundo de la enseñanza. Publicó 23 libros y explicó que la razón de sus trabajos se encontraba en que “todas las acciones heroicas” y “empleos públicos” eran denegados a las mujeres de su época. Escribió de prosa, teatro y poesía sobre la teoría atómica, la filosofía Aristotélica y la teoría de Harvey de la circulación de la sangre. Sus memorias son consideradas como la primera autobiografía no religiosa escrita por una mujer y su figura tuvo una fuerte influencia en la educación de las mujeres ya que finalmente fue reconocida como cosmóloga. Fuentes 1. “Women in Science”. Directorate-General for Research.

European

Commission.

2. Biography of Margaret Cavendish, Duchess of Newcastle upon Tyne (c. 1623-1673). The University of Nottingham. 3. The Atomic Poems of Margaret (Lucas) Cavendish, Duchess of Newcastle, from her Poems, and Fancies, 1653, an electronic edition. 4. Margaret Cavendish, Duchess of Newcastle. Wikipedia, the free encyclopedia.

Los últimos años Un año después de su famosa visita a la Royal Society, Margaret publicó un libro con un alcance y un tono mucho más modesto que sus anteriores trabajos, en el que se retractaba de algunas de sus más extravagantes afirmaciones.

La salud de lady Cavendish se deterioró debido a que se automedicaba y murió en 1673 con tan sólo 50 años y con nada menos que 14 obras en su haber. Tal era su prestigio, que Carlos II dispuso que fuera sepultada con honores en la Abadía de Westminster, privilegio que se concedía únicamente a los personajes más relevantes del país.

5.

The Blazing World. Wikipedia, the free encyclopedia.

Patricia Rodríguez es Licenciada en Químicas y DEA en la especialidad de Química Analítica por la Universidad de La Rioja. Trabaja como Técnico de I+D+i elaborando proyectos de Investigación Industrial Aplicada, principalmente en las áreas de Biotecnología Ambiental e Industrial. Para conocerla un poco mejor podéis visitar su blog, Divagaciones de una investigadora en apuros o su cuenta de twitter.

Haciendo balance de su vida, Margaret Cavendish se sintió orgullosa de su obra escrita y avergonzada de su falta de educación en la infancia, reclamó el tener voz en los asuntos públicos y buscó la fama. Quizá por esto se le atribuyó el insultante apodo de “Mad Madge” (algo así como “Marga la loca”), aunque verdaderamente nunca fue considerada como tal.

Logros científicos Lady Cavendish fue una escritora prolífica que se inspiró en las ideas que surgieron durante la revolución científica. A pesar de ser ridiculizada, la lectura de sus The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

24


The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

26


The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

27


JENNER a PATARROYO: De lasVACUNAS QUÍMICASa las BIOLÓGICAS De

Alfonso Paño Lalana Los dos siglos que van del médico rural inglés Jenner hasta el colombiano Patarroyo marcan el camino de las vacunas biológicas a las químicas. Las vacunas, son aquellos preparados que producen una inmunidad activa y específica frente a determinadas enfermedades transmisibles, con un mímimo de riesgos y de reacciones locales y generales. La importancia de la vacunación en la profilaxis de las enfermedades es tan grande que se puede considerar a esta técnica como uno de los mayores éxitos de toda la historia de la medicina. Las vacunas tienen un sitio especial en la salud y seguridad de las naciones. La Organización Mundial de la Salud (OMS) cita a la vacunación y al suministro de agua limpia como las dos intervenciones en Salud Pública que han tenido el máximo impacto en la salud de los pueblos del mundo. El Banco Mundial destaca que las vacunas constituyen algunas de las intervenciones sanitarias con mayor eficacia, en función de su costo. En el siglo XX, la integración de la vacunación en los servicios corrientes de salud en muchos países permi-

tió al personal asistencial tener algún control sobre complicaciones y muerte por enfermedades en particular en lactantes y niños. A pesar de los logros extraordinarios, las vacunas y sus constituyentes (p. Ej. el Timerosal, compuesto mercurial que antes se utilizaba como conservador) han sido considerados en algunos países como la causa de trastornos del desarrollo neurológico como AUTISMO y TDAH, de diabetes y otros cuadros alérgicos y auto inmunitarios. Cada año las vacunas salvan millones de vidas y evitan casos incontables de discapacidades post infecciosas; sin embargo algunos segmentos de la población han mostrado una renuencia cada vez mayor a aceptar cualquier riesgo nacido de su empleo (graves o de otra índole) y cada vez crece el número de personas que se resiste a ser vacunadas. Ningún procedimiento médico carece de riesgos, y los peligros para la persona deben ser comparados y equilibrados para ella en particular y para la población en general. La dicotomía riesgo-beneficio impone dos problemas esenciales a las comunidad médica y de salud pública en relación con las vacunas :

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

28


1) Crear vacunas más eficaces y más inocuas. 2) Orientar a los pacientes y público en general con mayor detalle respecto a los beneficios y los riesgos del uso de vacunas.

Por supuesto el hecho de contar con vacunas eficaces e inócuas sigue siendo un objetivo para el futuro en el caso de muchos patógenos eucarióticos (protozoos y helmintos ) y por supuesto el HIV.

La importancia de la vacunación en la profilaxis de las enfermedades es tan grande que se puede considerar a esta técnica como uno de los mayores éxitos de toda la historia de la medicina”

La inmunidad a enfermedades infecciosas se adquiere sólo por la propia infección o por la vacunación; por tal motivo los programas de vacunación permanentes para cada cohorte natal seguirán siendo necesarios para controlar enfermedades infecciosas evitables con vacunas, hasta que se erradiquen de todo el mundo los agentes etiológicos responsables. Los buenos resultados de las vacunas nos han llevado a las colectividades a tener una percepción de riesgo bajo, de baja preocupación ciudadana y al abandono de las mismas. La comunidad científica, médica y asistencial también deben identificar el interés del público por el número impresionante de vacunas que han sido aprobadas y el temor concomitante de que cuantas más se apliquen habrá mayor posibilidad de que surjan complicaciones y consecuencias inmunológicas adversas. Además no cesa la aparición de nuevas vacunas, por ejemplo la preparada contra el virus del papiloma humano (HPV) para que las utilicen las adolescentes y con ello impidan el cáncer cérvico uterino, y la vacuna contra el herpes simple para evitar el herpes zoster. Otras vacunas se usan en situaciones especiales que incluyen respuesta a brotes ( poliomielitis), profilaxis en viajeros (fiebre amarilla), y la satisfacción de necesidades regionales (encefalitis B japonesa).

La preocupación respecto a la posibilidad de una pandemia en humanos por el virus de la influenza aviar H5N1, contra el cual no se cuenta con una vacuna, resalta el enorme hueco y retraso entre las necesidades siempre presentes en salud pública y los programas de obtención de vacunas. El documento del gobierno estadounidense HEALTHY PEOPLE 2010 OBJETIVES comprende como objetivos que el 80% de los niños reciban vacunas DTP difteria , tétanos, tos ferina ) virus de la poliomielitis, triple vírica (sarampión , rubeola y parotiditis ), contra Hemophilus influenza tipo B (Hib) y contra hepatitis B que el 90% de los adultos reciban vacunas contra influenza y neumococo.

Para 517 enfermedades transmisibles sólo existen 15 vacunas de composición biológica” The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

29


En resumen, las vacunas son eficaces”

Consideraciones Internacionales

Transcendencia de las vacunaciones La vacunación permitió la erradicación de la viruela. También ha eliminado la poliomielitis de transmisión natural en países desarrollados, Europa y la porción occidental del Pacífico. Sin embargo en algunas zonas de África, el Oriente cercano y de Asia se ha recrudecido la poliomielitis porque se interrumpieron los programas de vacunación. El sarampión que afectaba a casi todos los niños en la era pre vacunal, ha sido eliminada eficazmente por vacunación amplia de muchos países desarrollados; está en marcha en muy diversas zonas una campaña global para disminuir la mortalidad por dicha enfermedad. La eliminación virtual de la rúbeola y el síndrome de rúbeola congénita , el tétanos neonatal y la difteria en EEUU se debe enteramente a la vacunación. La introducción de vacunas conjugadas Hib para vacunación de lactantes ha eliminado prácticamente las infecciones masivas de este origen (incluidas meningitis y neumonía) en niños memores de 5 años. La vacuna genera inmunidad duradera para el momento en que desaparecen los anticuerpos de la madre, y aminora la frecuencia de portador nasofaríngeo de Hib con lo que disminuye el peligro de transmisión. La introducción de la vacuna de conjugado de polisacárido neumocócico polivalente comienza a tener enorme transcendencia contra las enfermedades invasoras y graves por neumococos, incluída la otitis media. Las vacunas han disminuído la incidencia de varicela de 70 a 87% en zonas de gran cobertura.

Desde que la OMS en 1981 estableció el Expanded Programme on Inmunization (EPI) y la participación de la UNICEF para llevarlo a la práctica, los niveles de protección por parte de las vacunas recomendadas para niños (BCG, poliomielitis, DTP- DTaP, y sarampión) ha aumentado de 5 a 80% , en promedio, a nivel mundial, aunque tal cobertura no necesariamente denota inmunidad protectora. Cada año se producen 2,7 millones de padecimientos (como mínimo) por sarampión, tétanos neonatal y tos ferina y 200.000 casos de parálisis por poliomielitis que podrían ser evitados por vacunación. Por ejemplo, el sarampión sigue causando la muerte de 500.000 niños cada año según estimaciones, y surge con índices inaceptablemente altos otras como difteria, tos ferina, poliomielitis y tétanos neonatal. Se ha calculado que 20 al 35% de fallecimiento de niños, son causados por enfermedades que pueden ser evitados por vacunas. Además de los antígenos incluídos en EPI para el empleo sistemático en países en desarrollo se usan otros a nivel regional ( Hepatitis B, Hib, encefalitis japonesa B, fiebre amarilla, meningococos, virus de parotiditis y de rúbeola ) según los datos epidemiológicos de la enfermedad

y de los recursos disponibles. La base teórica para incluir la vacuna de la hepatitis B en África y Asia ha sido para evitar la aparición del carcinoma hepatocelular, vinculado netamente con la persistencia del virus mencionado, desde la niñez.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

30


Cada año se producen más de 2,7 millones de padecimientos por sarampión, tétanos neonatal y tos ferina y 200.000 casos de parálisis por poliomielitis que podrían ser evitados por vacunación”

La distribución de vacunas en campañas masivas en días de vacunación nacionales, ha sido una medida que ha ido más allá de guerras y revueltas insurgentes y ha permitido que se interrumpa la transmisión de la poliomielitis en paises desarrollados. Las campañas de vacunación periódica complementan los servicios de vacunación corrientes y niños bajo la premisa “ACÓGELOS, VIGÍLALOS y CONSÉRVALOS “.

Las vacunas brindan la oportunidad de erradicar eficazmente e incluso eliminar algunas enfermedades, por medio de protección individual y comunitaria. Ellas también representan la mayor esperanza que tiene la sociedad de interrumpir la pandemia de HIV en todo el mundo y para erradicar eficazmente el paludismo y la tuberculosis. De los 6.000 millones de seres humanos que pueblan el planeta, las 2/3 partes enferman de enfermedades transmisibles (morbilidad). Las enfermedades transmisibles matan 17 millones de personas al año y sólo de malaria enferman anualmente 500 millones y mueren 3 millones también al año. Resulta esperanzador, el trabajo con vacunas llamadas químicas como la reciente contra la malaria COLFAVAC de Manuel Elkin Patarroyo : identifica la proteína, secuencia los aminoácidos, efectúa la síntesis peptídica, busca la polaridad..., empleando una metodología “lógica y racional que es distinta de la biológica”. Dado que el genoma del plasmodium contiene 58 proteínas para “pegarse” al glóbulo rojo, Patarroyo selecciona las proteínas conservadas y cambia unos aminoácidos por otros. Fuentes: - Medicina Preventiva y Salud Pública. Piédrola Gil - PRINCIPIOS DE INMUNIZACIÖN Y USO DE VACUNAS: GERALD T. KEUSTCH, KENNET J.BART, MARK MILLER. HARRISON. 17ª EDICIÓN. MEDICINA INTERNA. - Las nuevas vacunas, por Manuel Elkin Patarroyo

Alfonso Paño Lalana es médico Especialista en medicina Familiar y Comunitaria, de vocación, de los de combate diario, cuerpo a cuerpo con el enfermo, en primera línea. Como Funcionario Técnico del Estado al servicio de la sanidad local compagina la función asistencial con la meramente sanitarista. Ostenta desde hace años el cargo de Cap Local de Sanitat en un municipio de unos 100.000 habitantes, en la provincia de Barcelona. Diplomado por la Escuela Nacional de Sanidad, de donde le viene la afición por la epidemiología.

The Journal of Feelsynapsis | NO. 1 | Octubre 2011

31


El Panteón de Agripa, Santa Sofía de Constantinopla y el Duomo de Florencia. Por Don Curro

E

n la Antigüedad, para intentar mostrar la grandeza de un pueblo y por consiguiente de sus dioses o regidores, se recurría a la sobrecogedora monumentalidad de los templos que les consagraban, esperando que de ellos se hablase con admiración en las tierras extranjeras. Que un ser humano sea ridículamente pequeño en relación con la basa de una pilastra de San Pedro del Vaticano, es decir, con un elemento que en su escala habitual no levanta del suelo más que un par de palmos, es sin duda algo intencionado. De hecho, aun hoy en día los regidores se pelean para conseguir un Fosters, un Ghery o un Calatrava que exporte una imagen de riqueza de su localidad al extranjero. Un primer ejemplo es el Templo de Salomón; sus dimensiones hoy en día serían relativamente modestas, sin embargo, ha llegado a nuestros días como una de las construcciones más grandiosas jamás realizadas por la humanidad,������������������������������������������������� y en su época, sólo se podía�������������������� n explicar sus imposibles dimensiones por la intercesión e inspiración divina. No se trataba más que de una nave con una luz libre de soportes de unos 10 metros de ancho, lo que sí debió ser inédito hace tres milenios y maravillar al visitante. Probablemente sea el primer edificio monumental que se haya ganado tal calificativo gracias a la habilidad de sus creadores, más que al empleo de la fuerza y la paciencia. Simplemente se trataba de disponer de unas grandes vigas de madera atravesando perpendicularmente el techo de la nave, aún quedaba muy lejos San Pedro.

La conveniencia de que la técnica desarrollada para la construcción de los grandes templos no fuese divulgada entre los feligreses o entre los extranjeros inició una tradición ocultista en la historia de la arquitectura: en Egipto o en China se sacrificaba al maestro director de las obras con la conclusión de éstas; en el Templo de Salomón, al igual que en las catedrales góticas, se dice que se contrataron leprosos como albañiles para, de alguna manera, evitar que los secretos técnicos no saliesen de la obra por la falta de vida social de estos; ahí nace la sociedad secreta de la masonería con su anagrama compuesto por el compás y la escuadra. Pronto hubo que superar las dimensiones del Templo de Salomón para crear grandiosos monumentos que preservasen el misterio de su construcción; entonces, fueron las cúpulas las que dieron la solución técnica al problema: recurriendo a esta forma tan simbólica, se consiguieron encerrar los espacios más amplios jamás conocidos hasta entonces. ¿No ocurrió con el santuario dedicado a Apolo en Dídima (Turquía) que fue planteado con tales dimensiones que no hubo forma de cubrir la nave principal y aquellos griegos tuvieron que contentarse con construir otro templo más pequeño en su interior para albergar al pobre Apolo? La primera gran proeza en la construcción de cúpulas debió de ser el Panteón de Agripa en Roma, de la tercera década antes de Cristo. Otras dos obras que merecen una especial mención son la Iglesia de Santa Sofía de Constantinopla y la cúpula que cubre el Duomo de Flo-

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

32


rencia; tres bóvedas de grandes dimensiones al servicio de la magnificencia de los dioses, para cuya construcción hubo que desarrollar nuevas������������������������������ técnica���������������������� s y que sin duda cobijan bajo su estructura de los más espectaculares espacios que podemos visitar.

El Panteón de Agripa.

L

a más antigua de todas, la cúpula del Panteón de Agripa, es el primer gran experimento para salvar nada menos que 43 metros de luz; medida que coincide con la dimensión de su diámetro pues su sección es un arco de medio punto. Las bien trazadas proporciones del edificio hacen, que cuando uno lo visita, inicialmente no sea consciente de las dimensiones del espacio que encierra la bóveda, todo está armoniosamente compuesto de tal manera que uno tarda en percatarse de su propia ridícula presencia. ¿Qué técnica hizo posible que se lograse tal hazaña y además, que hoy en día el edificio siga en pie? Quien haya estudiado la estructura del templo sabe que el problema no fue resuelto sobredimensionando los elementos portantes, lo que no hubiese funcionado, -al aumentarse el volumen (peso) elevado al cubo mientras que la superficie (presión) se eleva al cuadrado-, sino que hubo que desarrollar algunos trucos para mejorar la mecánica y la estabilidad de la forma. Para entender mejor el comportamiento estructural de un arco o de una cúpula, se puede visualizar como se hunde o deforma el elemento, lo que es un buen método para comprender fácilmente como funciona casi cualquier estructura. El problema básico de toda cúpula es que, en las zonas bajas, no soporte las tracciones a las que es sometida por culpa del peso de la zona superior; es decir, las cargas, en su traslado al suelo, se derivan por la cáscara generando empujes hacia el exterior que hacen que las cúpulas tiendan a abrirse en gajos hasta que el centro de la forma termina por hundirse por la falta del apoyo lateral.

Volviendo al Panteón, el primer recurso utilizado

para levantar la cúpula, que puede parecer un capricho, es haber previsto un gran óculo abierto en la clave, aunque las proporciones engañen, es de unos 9 metros de diámetro. Siempre se menciona el deslumbrante efecto de la luz sólida que entra por la abertura y el espectáculo que es ver nevar dentro del Panteón, pero pocas veces se comenta el enorme peso que se eliminó al no haber cerrado completamente la forma. Otra función del óculo, más complicada de entender, es que la existencia de éste provoca que se reduzca y aproxime al suelo la zona de la cúpula que sufre tracciones en su cara exterior, y que es el problema más peligroso para la estabilidad. Otro ingenio al que se recurre para aligerar la estructura consistió en mezclar árido de origen volcánico para la fabricación del hormigón, estos áridos, al formarse por un rápido enfriamiento sin sufrir presiones significativas, son muy ligeros; cierto es que son menos resistentes a la compresión que otros minerales, pero no lo son proporcionalmente si en la comparación se relaciona la densidad de cada material con dicha resistencia. El siguiente ttruco al que se recurrió para garantizar la estabilidad del Panteón, son los cuarteles distribuidos en anillos a lo largo del desarrollo de la superficie interior de la forma. Al igual que con el óculo, se consigue aligerar el peso de la construcción, y su disposición se realiza en la zona en la que la cara interior de la cúpula sufre las tracciones, tal y como se puede apreciar en los esquemas de las dovelas del primer gráfico; se reparten en donde la cara inferior de la cúpula se abriría de forma natural y por lo tanto, toda la tensión de la estructura en esta zona se concentra en la continua cara exterior. Sin embargo, el mayor peligro se encuentra en la parte baja de la cúpula, en donde la cara exterior de la cáscara se tracciona y se abre sin que nada lo impida, nada la acodale. Así, el último recurso que se idea para que la cúpula de 43 metros de diámetro no se abra en su zona baja, y por lo tanto no se hunda la zona central al perder el apoyo, consiste en disponer de un anillo exterior muy pesado que contrarreste esas tensiones centrífugas, de hecho el espesor de la cáscara va aumentado poco a poco por la cubierta sin que desde el interior se aprecie, consiguiendo aportar ese peso necesario que hace que la cúpula no reviente. Para explicarlo mejor, es como si empujamos con la misma fuerza a un flaco o a un gordo, la mayor componente vertical del peso del segundo hace que la resultante de las fuerzas, sumando el empuje horizontal y el peso del sujeto, se incline hacia el suelo y por lo tanto, los empujes se transmitan mejor al terreno en donde son contrarrestados. Desde otro punto de vista: la resultante de las fuerzas está más próxima al punto de giro, los pies, y consecuentemente el momento de giro es menor.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

33


El mismo esquema de transmisión de cargas que ayuda a que los efectos de los empujes horizontales se minimicen, lo utilizaron los osados constructores de las primeras catedrales; no es casual que la envolvente de la sección del Panteón de Agripa sea muy similar a la de las catedrales góticas. Pero las segundas, al aligerar mucho más ese muro exterior dejándolo en unas finas líneas de arbotantes para permitir el paso de la luz, recurren al genial invento del pináculo, que no sólo cumple su función religioso-ornamental apuntando al cielo, sino que también añade peso al muro para mejorar su comportamiento frente al posible vuelco, o lo que es lo mismo, para

transmitir de forma más directa las cargas al terreno en donde se contrarrestan completamente las tensiones horizontales. Muchas iglesias han sufrido daños o se han venido abajo cuando en su restauración se ha eliminado el peso del escombro que los constructores originales del templo habían dejado en los riñones de las bóvedas, oculto bajo los tejadillos laterales porque, se creían que no habían querido perder el tiempo en deshacerse de los cascotes.

Santa Sofía de Constantinopla.

C

onstruida aproximadamente seis siglos después del Panteón, su cúpula central es mucho menor que la de éste, tiene unos 31 metros de luz, y el casquete no llega a ser una semiesfera completa. Partiendo del modelo de la Iglesia de san Sergio y san Baco de la misma Estambul, el ingenio de esta estructura consiste en que parece mágicamente suspendida en el aire, la cúpula se eleva a gran altura sobre otras bóvedas y sobre muros tan aligerados que tan sólo se componen por columnas y pilastras, de tal manera que el espacio que se cubre bajo el conjunto es mucho mayor que el del Panteón tanto en superficie como en altura.

El revestimiento dorado de las cúpulas y����������������������������� bóvedas ayuda a dar ligereza a la pesada estructura; pero es sin duda, la sucesión de ventanas abiertas en la base de la bóveda central, la que proporciona mayor ingravidez a la construcción. Estas aberturas permiten la entrada de luz por el punto en el que hasta la fecha, era el más sólido y pesado de este tipo de estructuras. El contraste de la iluminación con el fondo deslumbra de tal manera, que los nervios de la base de la cúpula, en los que descansa todo el peso, parecen mucho más finos de lo que realmente son y así la cáscara parece desconectarse y flotar sobre su apoyo. Este fenómeno óptico lo conocían bien los antiguos griegos, y por ello las columnas de las esquinas de sus templos, las que no tenían la nave de fondo y recibían más luz por detrás, fueron levantadas algo más gordas, con el objetivo de que todas las columnas alineadas pareciesen de igual tamaño.

¿Cómo funciona entonces la estructura? ¿Cómo transmite las cargas desde la cúspide del edificio hasta el terreno a través de la sucesión de bóvedas? ¿Cómo se consigue no tener un solo soporte desde la entrada hasta el ábside a lo largo de unos 90 metros de longitud? En este caso, aunque se trate de una iglesia de planta de cruz griega, el sistema estructural no es igual en las dos direcciones principales, aparentemente simétricas. La poco publicada sección transversal del templo, nos descubre que la luz salvada en esta dirección es sólo de algo más de 30 metros de la base de la cúpula superior. El sistema de transmisión de cargas en lo que equivaldría al transepto es muy similar al del Panteón: se dispusieron cuatro enormes y pesados contrafuertes en cada esquina de la cúpula, tras las famosas pechinas sobre las que ésta descansa; esto permite abrir los brazos perpendiculares de la cruz horadando el muro, reduciéndolo a tan solo en una sucesión de columnas y pilastras que sostienen los grandes arcos que encuadran las pechinas. Por el contrario, en la sección longitudinal se puede ver que las cargas se transmiten hasta el suelo recorriendo una sucesión de bóvedas, que recuerda al crecimiento de un fractal. El esquema se puede asimilar al de una pirámide hueca, entonces: ¿qué evita que la construcción no se abra y se desmorone como un castillo de naipes? La respuesta es sencillamente que el elemento que ata y atiranta esta gran pirámide son los dos muros aligerados anteriormente descritos y que recorren el lateral de la nave principal pasando por las caras de los contrafuertes más próximas a la cúpula, así como por los dos grandes arcos que los unen en este sentido. Realmente, éste debió de ser el desarrollo teórico realizado para replantear el esquema estructural de

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

34


la Iglesia, pero es muy probable, que si hoy en día se modelizase la figura en un programa informático de cálculo estructural, casi todos los esfuerzos horizontales estén siendo asumidos por los cuarto pesados contrafuertes. Visto el edificio desde el exterior, llaman la atención estos pesos muertos que asoman como unas torres macizas entre la sucesión de bóvedas; lo que dota al templo del aspecto de arquitectura defensiva que produce que aun sorprenda más la luz interior del templo.

unos 12 metros de altura. De esta manera, se llega a la absurda situación en la que hay que cubrir 41 metros de luz con una cúpula que ha de apoyar sobre un edificio que, no como Santa Sofía, ha sido proyectado sin contrafuertes, sin nada que soporte los empujes centrífugos; además, el nuevo tambor dificultaba el problema al alejar la base de la futura cúpula de las bóvedas inferiores, impidiendo que éstas absorbiesen directamente los empujes superiores.

pula del Duomo de Florencia.

La Cú-

La primera decisión tomada por Brunelleschi consistió en trazar la sección de la cúpula con forma apuntada, debió de ser chocante que en pleno “renacimiento” del arco de medio punto romano, en la época de la con-

M

uy posterior a los anteriores ejemplos, la genial cúpula de Brunelleschi data de la primera mitad del siglo XV, en pleno Renacimiento. Su dimensión es similar a la del Panteón, de unos 41 metros de luz, por lo tanto inicialmente no parece que pudiese suponer un reto para los técnicos de la época, más aun teniendo un magnífico ejemplo a pocos cientos de kilómetros. Pero la singularidad de esta cúpula es que, en sí misma, anula los empujes horizontales para no transmitir al tambor que la sustenta prácticamente más cargas que las verticales correspondientes a su propio peso; se puede decir que es una estructura isostática y que se podría “trasladar” y apoyar en cualquier otro sitio. El problema al que se enfrenta tanto el relojero Brunelleschi como el resto de participantes del concurso para realizar el diseño de la cúpula viene dado por algo parecido a lo que ocurrió en Dídima: el gremio de la lana había comenzado la construcción de la Catedral sin saber cómo se iba a cubrir el centro de la cruz, tan sólo presuponían que su gran poder económico podía costear uno de los edificios más grandiosos de la humanidad. Así se llega a la situación en la que la construcción se ha levantado pero permanece un hueco en la intersección de los brazos de la cruz que abarca tanto la nave principal como las laterales llegando hasta casi las fachadas exteriores del edifico. Mientras los promotores se dedican a buscar una solución para construir la cúpula, deciden simultáneamente elevar un tambor octogonal sobre el hueco de la cruz de

cepción antropocéntrica que simpatizaba más con la perfección abstracta del círculo, el que luego se consagraría como un gran maestro volviese a las bárbaras formas góticas y medievales. Pero la realidad era, que el arco apuntado tiene un comportamiento mucho mejor a la hora de transmitir empujes a su base y de sufrir menos tensiones centrífugas internas en su desarrollo. Expresado de forma gráfica, la deformada de un arco apuntado es muy similar a la forma del propio arco, no como ocurre con el ideal del de medio punto. Este tema fue uno de los ejes principales de la arquitectura de Gaudí, las trazas de los esqueletos de sus edificios no son tan caprichosas como pueda parecer. El arquitecto español pensó que si a un elemento sin inercia se le sometía a su propio peso, la catenaria resultante que

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

35


dibujase tenía que ser el camino idóneo que recorrerían las cargas por un elemento rígido; dicho de otra manera: de esta manera la deformada coincide con la forma. Así, colgando cuerdas de un espejo puesto en horizontal boca abajo, podía ver el reflejo del esqueleto del edificio que deseaba, y las curvas que se formaban parecían más bien unas parábolas que unos arcos circulares. Sin duda se trata de un método muy hábil para el diseño de estructuras. No obstante, a pesar del acierto de la forma, había que seguir anulando los empujes horizontales ya que ni la forma elegida era exactamente a la óptima, ni el anterior método contempla acciones determinantes como las sísmicas o las producidas por el viento o la nieve. Se ha mejorado el comportamiento de la estructura pero persisten los problemas principales: evitar que la cúpula empuje los muros del tambor inferior hacia el exterior o que no se abra en gajos.

Y lo que Brunelleschi ingenia en este punto, es una sencilla y genial idea: esconder unos contrafuertes dentro de la propia bóveda, de ahí la famosísima doble cáscara que permite al visitante subir a la linterna por el interior de la cúpula. Básicamente, la estructura principal es la cáscara interior, luego están los contrafuertes: los principales dispuestos en cada uno de los vértices del octógono y dos secundarios intermedios por cada lado del polígono, y finalmente la envolvente que oculta los contrafuertes y sirve de apoyo a la cubierta, y que también proporciona peso para contrarrestar las fuerzas centrípetas.

centrífugas, también era necesario realizar la obra sin el montaje de una descomunal cimbra. La cúpula se comenzó a levantar desde la coronación del tambor, hilada a hilada, de tal manera que la forma siempre se mantenía

estable en sí misma, no era necesario cimbrar el elemento hasta que la clave estuviese colocada como ocurre con un arco; este sistema puede recordar al del Panteón que tampoco estaba cerrado en su cúspide. Por otro lado, si Brunelleschi recurre al ladrillo descartando otros materiales que ya se utilizaban habitualmente en la construcción como la madera o el hierro y que tienen un buen comportamiento a la hora de resistir tracciones, es por la durabilidad del primero frente a los problemas que pueden dar los otros, especialmente frente a la humedad tal y como se podía apreciar en el legado romano; ¿cómo se cambia un tirante si se pudre dentro de esta descomunal estructura? Para hacer que el ladrillo transmita las tensiones hasta la base de la cúpula, Brunelleschi dispone las piezas horizontalmente en espina de pez apuntando hacia el centro de la cúpula y en cada hilada contrapea la fábrica; de esta manera, utiliza la junta de mortero entre los ladrillos para asumir por rozamiento las minimizadas tensiones centrifugas. (La historia de la construcción de la cúpula de Florencia está genialmente relatada en el libro “Brunelleschi´s Dome” de Ross King.)

¡Hagia Sophia!. Si aun hoy en día cuesta comprender como trabaja la estructura de cada una de las cúpulas, ¡cómo no iban a ser vistas como creaciones divinas en su época!

Ahora que el sistema parece sencillo, hay que recordar, que no sería posible contrarrestar los empujes de una cúpula de tal tamaño en el espesor de la coronación del muro del tambor de unos 4,5 metros de grosor de no haber reducido considerablemente las tensiones con la forma de la cúpula apuntada. El diseño de los contrafuertes se realizó con fábrica de ladrillo; no sólo había que conseguir unos elementos que proporcionasen resistencia a las tensiones The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

36


The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

37


Leonardo Da Vinci, El Científico por Julián Royuela

“¿Cómo se podría describir este corazón con palabras sin llenar un libro entero?”

Nota manuscrita por Leonardo junto a uno de sus dibujos anatómicos de un corazón. Leonardo Da Vinci; Pintor, ingeniero, escultor, arquitecto, físico, filósofo, modisto, cartógrafo, botánico, geólogo, astrónomo, biólogo, geómetra, óptico, chef de cocina, poeta, músico, urbanista... ¿Queda algo por decir de este genio polifacético? Su mente brillante ha dejado huella en multitud de campos aunque lamentablemente para las nuevas generaciones sea particularmente conocido gracias al escritor de bestsellers Dan Brown y su “Código Da Vinci” pero en aras de la verdad, obviaremos las (más que discutibles) conspiraciones del señor Brown basadas en códigos ocultos en las más conocidas obras del florentino . Leonardo di Ser Piero da Vinci nació una tarde de primavera en el pueblo de Vinci, cerca de Florencia, en la Toscana italiana, en el año de 1452. Era hijo ilegítimo de un notario florentino, Ser Piero, y de una campesina llamada Caterina con la que nunca quiso casarse aunque eso si, asumió los gastos de manutención del pequeño, como era costumbre Posible autorretrato de en la época con los hijos Leonardo. bastardos a los que se reconocía pero deliberadamente se apartaba, ya el padre solía aspirar a un matrimonio de mayor notoriedad y clase. A la edad de 14 años ingresó

como aprendiz en el taller de Andrea del Verrocchio (1435 - 1488, pintor, escultor y orfebre cuatrocentista italiano) destacando por su talento y a los 20 años es ya un maestro independiente y como tal entra a formar parte del gremio de pintores de Florencia. Su primer encargo documentado como pintor independiente llegó en 1478, se trataba de un retablo para la capilla de San Bernardo del Palazzo Vecchio por el cual recibió una cantidad importante, 25 florines, como adelanto. Ese fue el primero de los numerosos incumplimientos que marcaron su carrera profesional. Pero no quisiera centrarme en la parte artística, más conocida por todos, sino en esa área inmensa que despertó su gran pasión por observar, conocer y estudiar; la ciencia.

Leonardo el científico. Aunque parezca asombroso su formación no fue universitaria ya que su padre, un notario con aspiraciones no se permitió tal dispendio, además, adolecía de cultura clásica (ignoró el griego y el latín hasta prácticamente la vejez) lo que no le impidió leer a los clásicos en su idioma natal. Como hombre de ciencia trabajó y destacó en multitud de áreas pero su interés por las matemáticas y en particular por la geometría es prácticamente desconocido. Leonardo aplicó sus conocimientos geométricos en sus diseños de ingeniería y construcción de máquinas, muchos de ellos han llegado hasta nosotros a través de algunos de

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

38


sus dibujos recogidos en varios códices repartidos entre Europa y América.

ingeniero y tratadista romano del siglo I a. C.) que nunca fue escrito.

De por si, la dedicación a la pintura y escultura parte de cierta base en geometría, eso es indudable y Leonardo obtuvo la suya de una importante obra “Summa”, de Luca Pacioli (1445-1517, fraile franciscano y matemático) con quien luego tendría una relación de amistad y de colaboración ilustrando “De Divina Proportione” (Figura 1)

Figura 1. La primera ilustración realizada por Leonardo de un cuboctaedro romboidal para De Divina Proportione siguiendo las indicaciones de Luca Pacioli.

Matemáticas Leonardo logró, por ejemplo, determinar el centro de gravedad de un semicírculo (tras dividirlo en un ingente número de triángulos) y obtener el de una pirámide a través de su mera intuición. También trabajó con las lúnulas (Figura 2) (en geometría se denomina lúnula a cualquiera de las dos figuras con forma semejante a la de una luna creciente obtenidas mediante la intersección de dos círculos) de Hipócrates de Quíos (matemático, geómetra y astrónomo griego, que vivió aproximadamente entre el 470 y el 410 a. C), probablemente por su valor estético, fusionándolas de todas las formas posibles entre si mismas y con otras figuras geométricas creando composiciones muy sencillas pero ignotas hasta entonces, fue así como descubrió que, la suma de las lúnulas construidas sobre los lados de un triángulo rectángulo es igual al área del triángulo en cuestión.

Figura 3. El hombre de Vitruvio.

Dicho dibujo aparece en uno de sus diarios e iba acompañado de notas anatómicas manuscritas por el genio de Vinci. Representa una figura masculina desnuda en dos posiciones sobreimpresas de brazos y piernas e inscrita en un círculo y un cuadrado. Se trata de un estudio de las proporciones del cuerpo humano, realizado a partir de los textos de arquitectura de Vitruvio. “Vitrubio el arquitecto, dice en su obra sobre arquitectura que la naturaleza distribuye las medidas del cuerpo humano como sigue: que 4 dedos hacen 1 palma, y 4 palmas hacen 1 pie, 6 palmas hacen 1 codo, 4 codos hacen la altura del hombre. Y 4 codos hacen 1 paso, y que 24 palmas hacen un hombre; y estas medidas son las que él usaba en sus edilicios. Si separas la piernas lo suficiente como para que tu altura disminuya 1/14 y estiras y subes los hombros hasta que los dedos estén al nivel del borde superior de tu cabeza, has de saber que el centro geométrico de tus extremidades separadas estará situado en tu ombligo y que el espacio entre las piernas será un triángulo equilátero. La longitud de los brazos extendidos de un hombre es igual a su altura. Desde el nacimiento del pelo hasta la punta de la barbilla es la décima parte de la altura de un hombre; desde la punta de la barbilla a la parte superior de la cabeza es un octavo de su estatura; desde la parte superior del pecho al extremo de su cabeza será un sexto de un hombre. Desde la parte superior del pecho al nacimiento del pelo será la séptima parte del hombre completo. Desde los pezones a la parte de arriba de la cabeza será la cuarta parte del hombre... ». [Traducción del texto que acompaña la ilustración de el Hombre de Vitruvio de Leonardo da Vinci].

Figura 2. Lúnula

Quizá el más famoso dibujo de Leonardo que auna geometría y anatomía sea “El hombre de Vitruvio” (Figura 3) fechado alrededor de 1487 y que pretendía ser una ilustración para un libro sobre las obras de Vitruvio (Marco Vitruvio Polión fue un arquitecto, escritor,

Como arquitecto constructor apenas obtuvo relevancia y sus consejos para la edificación de la catedral de Milán (Duomo), no fueron tenidos en cuenta.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

39


Astronomía

óptico consistente en una semiesfera de vidrio llena de agua y con un rostro sumergido en ésta (Figura 4). En estas anotaciones realizadas en su “Códice sobre el ojo” Leonardo describe también un dispositivo para eliminar el astigmatismo que consistía en tubo lleno de agua cerrado por una lente en cada uno de sus extremos que colocado en el ojo eliminaba estos vicios de refracción puesto que el agua lograba uniformar la superficie corneal.

Leonardo, con su mente privilegiada, comprendió que nuestro planeta era sólo uno más de tantos y que, al igual que la Luna, refleja la luz procedente del sol. Esta afirmación, que puede parecer absurda por evidente, fue enunciada en una época bajo la influencia todavía de la filosofía aristotélica que proclamaba que nuestro planeta estaba forjado de una materia distinta a la del resto del universo. Sus novedosos estudios acerca del influjo de la luna sobre las mareas fueron aplicados en gran cantidad de sus proyectos hidráulicos. Pero quizá la contribución más importante de Leonardo en este campo fue la comprensión y explicación del fenómeno de la luz cenicienta, que consiste en una luminosidad que se presenta cercana a la fase de la Luna Nueva y que hace resplandecer aquella zona del disco lunar que no recibe la luz solar, por lo que no debería ser visible desde la Tierra. Figura 4. Leonardo dedujo correctamente que la luz que recibe La relación de estos bocetos con las lentes de nuestro satélite proviene de la reflexión del disco solar sobre éste planeta, es decir, como si la Tierra jugara el contacto, aunque parece evidente, no se trata más que papel de “espejo” que refleja dicha luz y la proyecta sobre de una aproximación basada en el hecho de que los ojos la parte de la luna que es de noche, de hecho, Leonardo están en contacto con el agua, pero Leonardo dibujó es reconocido como la primera persona en documentar también lo que, para algunos autores, son unas lentes éste fenómeno aunque únicamente salió a la luz varios similares a las actuales, así como la ampolla de cristal de años después de su muerte. Éstas observaciones vienen la que debían fabricarse. recogidas en el Códice Leicester, un cuaderno de notas Con el devenir de los años diferentes investigadores, de 36 páginas propiedad del magnate Bill Gates, que fue basándose en este supuesto, perfeccionaran el sistema adquirido en una subasta en 1994 por 31 millones de dólares recibiendo el honor de ser el libro más caro jamás hasta la consecución de lo que actualmente denominamos lentes de contacto. Poco menos de un siglo después de vendido. la muerte de Leonardo, René Descartes (1596 – 1650. Filósofo, matemático y físico francés, considerado el padre Óptica de la filosofía moderna así como uno de los nombres más A Leonardo también le fascinaba la óptica, que destacados de la revolución científica) continuando con la estudió tratando de analizar el funcionamiento del ojo teoría de Leonardo, fabricó un dispositivo sobre un simple humano. Consiguió la solución al problema de Alhazen cono de vidrio escribiendo la siguiente afirmación: (965–1040 matemático, físico y astrónomo musulmán “Si uno aplicase sobre el ojo un tubo lleno de agua, que realizó importantes contribuciones a los principios de la óptica. Se le considera el padre de ésta por sus trabajos en cuyo extremo hay un vidrio en forma exactamente y experimentos con lentes, espejos, reflexión y refracción). igual a la piel (córnea) no existiría refracción alguna a la Este problema es equivalente a la determinación del punto entrada del ojo. en un espejo esférico donde un rayo de luz será reflejado Desgraciadamente los comentarios de Da Vinci para ir de una fuente dada a un observador. El problema y Descartes son olvidados hasta el año 1845 en que es imposible de resolver usando compás y escuadras, ya que la solución requiere la extracción de una raíz cúbica. aparece la Encyclopedia Metropolitana y donde John F.W. Herschel (1792 -1871, matemático y astrónomo inglés) Leonardo intentó resolverlo pero tuvo que sugiere el uso de una lente de gelatina para la corrección reconocer que no lo lograría de manera geométrica de los astigmatismos cuya forma se obtendría gracias a un y recurrió a una solución mecánica, proponiendo la molde tomado directamente del ojo. construcción de un aparato articulado, una especie de Leonardo realizó varios aportes en este campo pantógrafo que está señalado como uno de los primeros pero, al igual que sus predecesores, cometió el grave error instrumentos de cálculo de la historia. de creer que la función visual radicaba en el cristalino en Tales trabajos también le servían para la aplicación lugar de en la retina. artística de las leyes de la perspectiva y sus estudios sobre Anatomía la luz y la sombra. En 1508 Leonardo realizó una curiosa observación que plasmó al margen de unos de sus escritos; comprobó que sumergiendo la cabeza en un recipiente de cristal con agua se alteraba la visión así que dibujó un sistema

La formación anatómica de Leonardo comenzó, casi con toda probabilidad, a los dieciocho años durante su época como discípulo de Andrea del Verrocchio el cual insistía en que todos sus alumnos estudiaran esta

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

40


disciplina para aprender a representar los cuerpos humanos con mayor exactitud. Las primeras muestras del interés de Leonardo por la anatomía corresponden a finales de la década de 1480.

psicoanálisis) elaboró una teoría aludiendo a la presunta homosexualidad de Leonardo cuya represión sexual le instó a representar un acto que no le complacía.

A pesar del innegable talento de Leonardo, se puede decir que no realizó ningún descubrimiento verdaderamente importante, incluso algunos de sus estudios presentan errores importantes ya que provienen de la anatomía comparada con animales. Leonardo documentó el cuerpo humano más detalladamente que ninguno de los que lo habían hecho hasta entonces aun así, no fue un anatomista riguroso, en ocasiones se inventaba trazos y completaba con estructuras de animales o ideas prestadas de libros de autoridades clásicas como Aristóteles o Galeno sus deficiencias de conocimiento y funcionamiento del organismo humano. Un ejemplo lo encontramos en un dibujo de Leonardo que representa a una pareja copulando mediante un corte vertical (Figura 5), en el que se saca de la manga un conducto que va desde la cavidad abdominal hasta el pecho femenino, destinado al suministro de leche, también podemos encontrar un error inexplicable, impropio de un pintor experto; la confusión de las piernas y los pies de la pareja, que no se corresponden con la posición del corte vertical (el pie izquierdo del varón debería ser el derecho y el derecho de la mujer debería ser el izquierdo). Al respecto, Sigmund Freud (1856 - 1939, médico y neurólogo austriaco, padre del Figura 6. Hacia 1507 Leonardo comienza a practicar la disección. La técnica anatómica que utilizo era digna de su talento: inyectaba cera liquida en las cavidades corporales para poder reproducir la estructura exacta de los órganos. Ayudado por este sistema, estudió la forma del corazón y las arterias coronarias pero cometió el error de no evaluar con exactitud el tabique que divide la parte derecha e izquierda del corazón pues de lo contrario hubiera descubierto la circulación de la sangre. Ese mismo año consiguió el permiso del Hospital Santa María de Nouvoa de Florencia para diseccionar el cadáver de un anciano “…estudio que realicé diligentemente y con gran facilidad al carecer el anciano de grasas y de humores, elementos que dificultan mucho el reconocimiento de los órganos”. Más tarde consiguió también permisos en hospitales de Milán y Roma. Pero sus estudios de disección se vieron interrumpidos en 1515 cuando fue acusado de prácticas sacrílegas por el Papa León X, el cual, le prohibió la entrada en el Hospital del Espíritu Santo de Roma truncando así su carrera anatómica.

Figura 5.

Leonardo proyectaba un tratado anatómico (Il libro dell’Anatomia) junto con Marcantonio Della Torre, (1481–1511, médico anatomista de Pavia) para el que hizo 228 planchas que jamás llegaron a imprimirse. La The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

41


mayor parte de este trabajo se ha perdido; lo que quedó de él se publicó en 1680 bajo el título “Tratado sobre la pintura” y cuando fue publicado y tras doscientos años fuera de la circulación, ya no suponían avance alguno frente al desarrollo de la anatomía en aquel momento, la cual había descubierto casi todas las estructuras macroscópicas y muchas de las microscópicas. Sin embargo es obvio que Leonardo fue un hombre adelantado a su tiempo que abrió la puerta a la ciencia y anatomía modernas a través de sus prácticas disectivas, las cuales, todo sea dicho, estuvieron a punto de costarle un proceso inquisitivo lo que nos da una idea del escaso margen de maniobrabilidad de Leonardo Estudió también el sistema respiratorio, digestivo, circulatorio, el aparato reproductor masculino y femenino (su investigación sobre el proceso de gestación es verdaderamente deslumbrante, en él incluye las distintas posturas del feto durante el embarazo; del útero describió las membranas que envuelven al feto de la siguiente manera: “Dentro de la matriz el niño tiene 3 capas que lo circundan, de esta la primera se denomina Amnios, la segunda Secundina y la tercera Alantoides, esta última se une a la matriz mediante los cotiledones y todas convergen en el ombligo, que está compuesto de venas”). La representación soberbia del dibujo (Figura 6) hace que perdonemos un “insignificante” detalle ya que las prolongaciones entrelazadas (cotiledones) reproducidas en la parte superior de la hoja no las observó Leonardo en el ser humano, sino en la vaca, cuya matriz fue objeto de un estudio completo. A nivel pulmonar describió las ramificaciones de los bronquios e investigó la localización y ramificación de los nervios craneanos, el corte transversal y sagital del cráneo son algunos de sus dibujos más importantes. En el primero se puede observar la cavidad craneana, el cigoma y los maxilares. En el sagital (Figura 7) se ven los senos frontal y maxilar. Por otro lado, también representó el nervio maxilar superior saliendo por el agujero mayor de la base de cráneo y emergiendo al exterior por el agujero

suborbitario. Al lado dibujó la yugular y la carótida con sus ramificaciones faciales; es la primera representación del sistema vascular nervioso de este territorio de hecho, es considerado el descubridor del seno maxilar. De la relación entre éste y la cavidad del ojo dice: ”El ojo, instrumento de la vista, está alojado en el hueco superior y en el espacio debajo de éste (el seno maxilar) hay un fluido que alimenta las raíces de los dientes. La cavidad del hueso de la mejilla es similar en profundidad y anchura a la cavidad que contiene el ojo en su interior y recibe venas en su interior a través de los agujeros”. Con este dibujo Leonardo consigue por vez primera representar de forma exacta la cavidad maxilar superior del pómulo, algo absolutamente excepcional en su tiempo.

El genio. Los trabajos anatómicos de Leonardo podemos ubicarlos en el umbral entre sus intereses artísticos y científicos ya que para él la exploración del cuerpo humano tenía como objetivo la perfección en la representación de la figura humana. Pero también trabajó la anatomía animal, en algunos (como sus estudios de caballos) buscó la perfección de sus trazos con fines puramente representativos en cambio en otros animales buscó la profundidad y la relación con las leyes de la física. Son numerosos sus bocetos y comentarios acerca del ala y las patas de las aves y de su mecánica de vuelo que relacionó con el campo de la aeronáutica. Sus bocetos y estudios sobre máquinas voladoras (Figura 8) fueron pioneros y anticiparon conceptos tales como los efectos de elevación y propulsión, estabilidad y equilibrio. Los primeros aeroplanos aplicaron con éxito las teorías que Leonardo sugirió con sus dibujos acerca de las alas de las aves y al menos en cuanto a teoría, su tornillo sin fin se considera el predecesor del helicóptero y sus diseños de paracaídas, antecesores del paracaídas actual. En hidráulica y por encargo del Papa León X proyectó la desecación de las Lagunas Pontinas (antigua zona de marisma en la región del Lacio en Italia central, al sureste de Roma) aunque finalmente serían drenadas mediante trabajos comenzados en 1928. También son numerosos sus bocetos y estudios acerca de la canalización de los ríos.

Figura 7.

Esbozó un prototipo de submarino, diseñó una escafandra con tubos respiratorios incorporados, dibujó el antepasado de la máquina excavadora, que removía la tierra mediante un complicado engranaje de poleas, anticipó el concepto de inercia, demostró con éxito la ley de la palanca por el método de las velocidades virtuales y continuó las ideas aristotélicas de la presión de los fluidos. Su observación de la naturaleza y su estudio de los fósiles provocó la deducción de que las montañas continentales surgieron del agua del mar debido a cambios en la corteza terrestre creándose así una estratificación geológica. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

42


Figura 8.

Incluso se tiene como veraz que su voz era melodiosa para el canto y que tocaba la lira con virtuosismo.

En conclusión

Bibliografia y referencias: - Leonardo da Vinci. Johannes Nathan, Frank Zöllner. Editorial TASCHEN.

Leonardo fue mucho más que un hombre del Renacimiento; fue un artista polifacético, un ingenioso visionario con una inteligencia privilegiada que de haber contado con recursos económicos suficientes, a buen seguro nos hubiera deleitado, no sólo con los diseños sino con la fabricación de los más variados artefactos, las más asombrosas construcciones y las máquinas más avanzadas de su época ya que su mente preclara no descansaba un solo instante (ideó desde juegos de salón y utensilios de cocina hasta máquinas de guerra, para volar o excavar la tierra). Lamentablemente y según los índices del propio Leonardo acerca de sus dibujos, se calcula que, al menos, la mitad de su obra gráfica (unos 50 manuscritos y más de 2000 hojas) se ha perdido, aun así, los que han perdurado hasta nuestros días nos aproximan un poco más a la mente brillante de este genio renacentista cuyas aportaciones a la humanidad siguen siendo hoy en día objeto de admiración.

- Leonardo, el vuelo de la mente. Charles Nicoll.

- La anatomía del Renacimiento. El empuje de la anatomía. - Leonardo da Vinci y la Matemáticas. - Wikipedia, enciclopedia libre.

Códices y manuscritos. Obra original de Leonardo.

1. Códice Atlántico (Milán, Biblioteca Ambrosiana). 401 páginas. 2. Colección Windsor (Londres, Royal Library. Castillo de Windsor). 234 páginas. hojas.

3. Códice Arundel (Londres, British Museum). 283

4. Manuscritos de Francia (Paris, Institut de France). 12 códices. 5. Códice Forster (Londres, Victoria and Albert Museum). 3 códices. 6. Códice sobre el vuelo de los pájaros (Turín, Biblioteca Reale). 18 páginas.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

43


7. Códice de Trivulzio (Milán, Biblioteca del Castillo de los Sforza). 62 páginas.

4. Lúnula. Obtenido de Wikipedia. liberado para el dominio público por el titular de los derechos de autor.

8. Códices de Madrid (Madrid, Biblioteca Nacional). 2 volúmenes.

5. “Vitruvian Man” by Leonardo da Vinci, Galleria dell’ Accademia, Venice (1485-90). Fotografía de Luc Viatour / www. Lucnix.be

9. Códice Leicester, (antiguo Códice Hammer, Seattle, Colección Bill Gates). 18 páginas dobles. Fotografías y dibujos. 1. “Studies of the coronary vessels and valves of the heart” c.1511-13 1513 (s) Pen and ink on blue paper. The Royal Collection. Castillo de Windsor. 2. Posible autorretrato de Leonardo en el cuadro “La adoración de los Magos”. 1481-1482. Galería de los Uffizi. Florencia. 3. Cuboctaedro romboidal: Obtenido de Wikipedia. Material de dominio público.

6. Estudios sobre la visión. The Royal Collection. Castillo de Windsor. 7. “Coition of a Hemisected Man and Woman” (c. 1492) by Leonardo da Vinci. Fotografía de Luc Viatour / www. Lucnix.be 8. “Studies of Embryos” by Leonardo da Vinci (Pen over red chalk 1510-1513). Fotografía de Luc Viatour / www.Lucnix be 9. “A skull sectioned”. 1489. Leonardo da Vinci. The Royal Collection. Castillo de Windsor. 10. “Design for a flying machine” Codex Atlanticus f.858r, by Leonardo da Vinci. Fotografía de Luc Viatour / www.Lucnix.be

Julián Royuela es aficionado a la escritura en la que ha hecho algunos pinitos en el campo del microrrelato. Lector empedernido, sobre todo y por encima de todo literatura histórica (con especial interés en la edad media). Con inquietudes periodísticas no satisfechas por falta de tiempo y oportunidad. Master callejero autodidacta en nuevas tecnologías como hobby; hombre de letras, más que de ciencias aunque no pierde de reojo los avances científicos y médicos. Actualmente trabaja en la administración pública en el campo de la educación.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

44


Exploradores de la Biodiversidad ayer y hoy:

Nuevas respuestas a preguntas antiguas

por

Rafael Medina

Si quisiéramos elaborar un conjunto de arquetipos victorianos, qué duda cabe que habría un lugar reservado para los estudiosos de las especies de orquídeas, aves o cualquier otro tipo de organismo que conocen hasta el más mínimo detalle de su anatomía y que con una dedicación ciertamente caricaturizable se afanan por capturar un espécimen y gritar de júbilo al descubrir que se trata de “una especie nueva”. ¿Quiénes serían los equivalentes modernos de este subtipo de “científico loco”?

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

45


Colecciones del “Darwin Centre” inaugurado en 2009 en el British Museum de Londres con motivo del bicentenario de Charles Darwin. (Fotografía: Rut Caparrós)

´ El interes

por conocer los or-

en la primera ocasión en la que un occidental veía un ornitorrinco, una anguila eléctrica o un quetzal? El asombro y la incredulidad no tendrían límite, y por eso no debe-

ganismos con los que compartimos el planeta y en saber

mos extrañar-

cuántos son y cómo se distinguen unos de otros es tan

nos de que

antiguo como el comer: la supervivencia de la comunidad

hasta épocas

puede llegar a depender de saber distinguir las plantas

relativamen-

comestibles y medicinales de las venenosas, por ejemplo.

te tardías se

Sin embargo, no fue hasta el siglo XVIII cuando el ansia

diera crédito

por catalogar y describir cuantas especies existieran caló

a la existencia

en el nuevo espíritu científico de la época. Claro que esto

de

no debe extrañarnos, ya que la humanidad estaba expe-

míticos como

rimentando una curiosidad intensísima por los entresijos

las manticoras

del mundo que le rodeaba; los seres vivos no iban a ser

o los grifos. El

una excepción. Siempre me ha parecido que ya en los orí-

propio Linneo

genes de este interminable catálogo, cuando las selvas y

reservó en su

los océanos eran aún vírgenes para los naturalistas (más

Systema

aún que hoy, quiero decir), existía una fascinación espe-

turae una cla-

cial, una expectativa por las formas increíbles que la na-

se “Paradoxa”

turaleza iba desvelando a la ciencia, y que no tiene com-

donde tenían

paración con otras disciplinas. En la actualidad, todos los

cabida unicor-

niños saben cómo es un elefante, un panda o una ballena,

nios,

¿Podríamos ponernos en la piel de un caballero victoriano

animales

Na-

sirenas

Henry Walter Bates cazando tucanes en la y sátiros. Esta Amazonía. (Imagen: Wikicommons)

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

46


clase acabó eliminándose en la sexta edición, pero ¿Quién

en muchas ocasiones una misma especie bajo nombres

hubiese apostado que estos animales no existían cuando

distintos sin que se pudiese evitar. Este caballo de batalla

llegaban algunos más increíbles aún recolectados en los

de la descripción del mundo natural llevaba acompaña-

confines de un mundo entonces tan vasto e inabarcable?

da una consecuencia, tan ingrata como imprescindible:

‘El interés por conocer los organismos con los que compartimos el planeta y en saber cuántos son y cómo se distinguen unos de otros es tan antiguo como el comer’

la de la metódica revisión de los especímenes guardados

Impulsados por este frenesí explorador y clasifi-

cador, muchos aventureros y hombres de ciencia se liaron la manta a la cabeza en busca de nuevas especies, capaces de distinguir los más sutiles detalles de los estambres de las flores o de las antenas de un insecto. En efecto, uno de los rasgos que más llama la atención cuando se leen hoy los relatos de naturalistas viajeros de los siglos XVIII y XIX es lo polifacéticos que eran; capaces de prensar plantas, disecar mariposas o desollar mamíferos y a la vez tener idea sobre el valor o novedad de lo que tenían entre manos (aunque muy a menudo, al igual que ahora, los recolectores no eran los que describían las especies).

El pez sapo psicodélico (Histiophryne psychedelica), descrito en 2009, es una muestra de cómo las especies que siguen descubriéndose en la actualidad pueden ser tan insólitas como en el pasado. (Fotografía: Wikicommons)

Dado que hoy en día los científicos son mucho más especializados, ¿Acaso tenían esas personas unas mentes

en herbarios y museos para, eventualmente, sintetizar

fuera de lo común? Es indudable que muchos eran gen-

los criterios de los estudiosos anteriores y reunir varias

te excepcional, pero el conocimiento de las especies en

especies en una sola. A menudo se ha destacado la con-

aquella época era bastante más abarcable que ahora, y

traposición de estas dos almas de la taxonomía, la de los

quedaba muchísimo por descubrir. Henry Walter Bates, por ejemplo, recolectó durante su estancia en la Amazonía nada menos que 4000 especies nuevas para la ciencia, un número comparable al que abarcaban todas las obras linneanas que un siglo antes daban el pistoletazo de salida

analíticos (splitters o “fragmentadores”) y la de los sintéticos (lumpers o “amontonadores”). Los críticos sacan a relucir con frecuencia lo difícil y tortuoso que es el camino que lleva a un consenso entre taxónomos (a veces inalcanzable), pero aunque obviamente sobran ejemplos

a la taxonomía y nomenclatura modernas.

de especialistas cuyos criterios resultaron ser erróneos,

Sin embargo, no todo eran ventajas por aquel

dificultad del trabajo a realizar. Aunque la labor de los

entonces. La dificultad de comunicación en el seno de la

taxónomos fue incesante e ininterrumpida, con el paso

comunidad científica y la imposibilidad para los investiga-

del tiempo esta tarea concienzuda perdió reconocimien-

dores de comparar especímenes de distintas partes del

to frente a otras dedicaciones emergentes que iban más

mundo llevó de forma inevitable a que se describieran

allá de una simple descripción sistemática de la flora y la

ambas actitudes son consecuencias de la envergadura y

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

47


fauna, como la ecología, la fisiología o la genética. No fal-

entrañar las afinidades de los organismos. Los comienzos

taron quienes desdeñaban esta empresa y la comparaban

de su uso generalizado se enfrentaron a menudo con la

al mero coleccionismo de sellos, supongo que con el per-

desconfianza de los taxónomos “de toda la vida”, pero por

miso de los aficionados a la filatelia.

suerte podemos empezar a decir que esa dualidad es cosa

Pese a todo, los exploradores y descriptores de

nuevos organismos nunca cesaron de realizar su (a menudo incomprendido) trabajo, pero la popularización reciente del neologismo “biodiversidad” a finales del siglo

del pasado. La otra gran aportación que la tecnología ha dado en tiempos recientes a esta disciplina tricentenaria es internet. Internet, de hecho, parece hecho a medida para el trabajo del taxónomo por su capacidad para hacer

XX tuvo como consecuencia una

accesible una cantidad ingente de información y la facili-

revitalización y popularización de

dad con la que las imágenes

la taxonomía. De repente, los er-

pueden difundirse por todo el

mitaños de museo que examina-

mundo de forma inmediata.

ban hasta el más mínimo detalle

De repente, bases de datos

de las glumas de una gramínea

inmensas, nomenclaturales,

o de las escamas de un pez, eran

de especímenes y de sus dis-

estudiosos de la flamante palabra.

tribuciones se vuelcan al al-

Otras disciplinas biológicas o am-

cance de todos, y el estudio

bientales comenzaron a reconsi-

de la biodiversidad específica

derar la importancia de esta labor.

se hace inmensamente más

Conocer la biodiversidad específica

sencillo y eficaz. Las publi-

era importante en la medida en la

caciones sobre especies del

que las especies cumplen roles in-

otro lado del mundo pueden

sustituibles en el correcto funcio-

consultarse al instante y cada

namiento de los ecosistemas y por lo tanto en los servicios que éstos

vez más instituciones ponen

brindan para mantener la habitabi-

a libre disposición imágenes

lidad del planeta y la renovación de

de los especímenes tipo a alta

sus recursos. El segundo gran empujón reciente que ha recibido la exploración de la biodiversidad ha venido de la mano de la tecnología. Por una parte el desarrollo de la filogenia molecular ha puesto al alcance de los científicos un criterio poderoso para contribuir a des-

Espécimen tipo de una saxifragácea, Heuchera woodsiaphila, descrita recientemente en Nuevo México. Los especímenes tipo depositados en instituciones científicas sirven para mantener la correcta asignación de los nombres científicos. (Fotografía: Patrick Alexander -Creative Commons)

resolución. Basta con recurrir, por ejemplo, a tropicos.org, el portal del jardín botánico de Missouri, especializado en nomenclatura y bibliografía, que alberga más de un millón de nombres botánicos y registra casi cuatro millones de

‘En la actualidad, todos los niños saben cómo es un elefante, un panda o una ballena, ¿Podríamos ponernos en la piel de un caballero victoriano en la primera ocasión en la que un occidental veía un ornitorrinco, una anguila eléctrica o un quetzal?’

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

48


El sifaka diademado (Propithecus diadema) y el sifaka de Milne-Edward (P. edwarsii) estaban considerados hasta hace poco pertenecientes a la misma especie. En los últimos años el número de especies reconocidas de lémures casi se ha triplicado. (Fotografía: Rafael Medina) especimenes; o FishBase, la referencia en Internet para

tuales y sus antecesores es la fascinación y el impulso por

la ictiología, que pone la información de más de 32.000

desvelar organismos ocultos y desconocidos, por dejarse

especies de peces bajo una licencia Creative Commons.

sorprender y seducir. El mundo ya no es ese planeta in-

Sinceramente, me gustaría ver qué cara pondría un na-

menso lleno de lagunas en los mapas, con manticoras y

turalista del siglo XIX si pudiera verlo. ¿Reconocería a los

unicornios, pero las satisfacciones y sorpresas que aporta

profesionales de 2011 como colegas de su misma disci-

la descripción de nuevas especies sigue siendo igual de

plina?

estimulante para quienes lo consiguen. Aunque seguimos

El perfil actual de los taxónomos, lógicamente,

ha cambiado bastante y con razón. En este momento hay descritas aproximadamente 1.2 millones de especies [1], frente a los pocos miles de los comienzos de la taxonomía. Para conseguir llegar al nivel de detalle que permite dis-

sin saber cuántas especies nos faltan por describir, la mayoría de las estimaciones parecen indicar que aún queda un largo camino por recorrer hasta poder responder esta pregunta [1]. Pero, ¿dónde y cómo se encuentran en la actualidad las especies nuevas?

cernir cuándo el ejemplar que tenemos enfrente es una

Una primera respuesta, quizá la más intuitiva, es

novedad científica, el nivel de especialización de los profe-

que hay que irse a lugares muy remotos e inexplorados

sionales en grupos de organismos cada vez más concretos

para encontrar especies nuevas, y es parcialmente cierta,

se ha ido incrementando con el tiempo. La otra diferencia

porque de hecho siguen existiendo parajes inaccesibles

es que quienes exploran y describen nuevas especies son,

al ser humano. Regiones como las fumarolas volcánicas,

cada vez más frecuentemente, equipos multidisciplinares

a miles de metros de profundidad en los océanos, sólo

compuestos por varias personas con distintas tareas, un

empezaron a explorarse en los años 70 del siglo pasado,

reflejo de cómo la descripción de nuevas especies es cada

descubriendo ecosistemas capaces de maravillarnos más

vez una tarea más polivalente [2]. Lo que desde luego se

aún que un ornitorrinco en el gabinete de un naturalis-

mantiene totalmente vigente entre los especialistas ac-

ta victoriano: gusanos de varios metros de longitud con

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

49


anatomías nunca vistas, peces y cangrejos de formas increíbles que serían capaces de mantener su vida normal aunque el mismísimo sol se apagase ¡y apenas se conoce una pequeñísima fracción de los fondos abisales! Otro ejemplo por supuesto, se encuentra en las pluvisilvas tropicales: regularmente podemos leer noticias incluso en la prensa generalista de equipos científicos que visitan estas zonas del planeta y permiten la descripción de docenas o incluso cientos de especies nuevas.

Sin embargo, en realidad no es necesario irse a lu-

gares tan remotos para hacer tales descubrimientos. Muchas de las especies de nueva descripción estaban aquí, delante de nuestras narices, pero era necesario un nuevo enfoque para darnos cuenta. Tomemos por ejemplo

conocidas, cifras globales [5]. Otra forma de verlo es que la filogenia molecular es la puerta de entrada a un criterio demasiado “fragmentador”. Por ejemplo, se ha llamado la atención de que en apenas unas décadas, las especies reconocidas de lémures de Madagascar han pasado de 36 a un centenar [6]. Esto se debe sin duda a un mejor conocimiento del área y a la aplicación de técnicas de filogenia molecular, pero ¿existe una “inflación taxonómica”? A buen seguro esto ocurre en más de un caso. Un ejemplo flagrante de esta situación corresponde a las orquídeas mediterráneas del género Ophrys, cuya infinidad de atractivas variaciones ha recibido muchísima atención, hasta el punto de que la divergencia de criterios entre taxónomos “fragmentadotes” y “amontonadores” es extrema: entre 32 y 250 especies, según distintos criterios. Estudios

el murciélago común (Pipistrellus pipistrellus), que hasta hace unos años no albergaba confusión posible de identificación. Cuando, en lugar de atender sólo al aspecto, se estudiaron los sonidos que emitían estos animales para relacionarse y percibir su entorno, se llegó a la conclusión de que dos linajes distintos compartían el territorio. Cada uno de ellos empleaba para sonidos de distinta frecuencia. Puesto que estos sonidos tienen relevancia a la hora del apareamiento, las distintas frecuencias convierten a estos linajes en dos grupos reproductivamente aislados y que por lo tanto pertenecen a especies distintas: Pipistrellus pipistrellus (con un reclamo a 45 kHz) y P. pygmaeus (que emitiría sonidos de 55kHz). Igualmente, hace sólo unas semanas asistíamos a la descripción de Tursiops australis, una nueva especie de delfín australiano, para cuyo reconocimiento formal se han empleado tanto datos anatómicos como genéticos y biogeográficos [3], poniendo de manifiesto una vez más que la descripción de nuevas especies debe proceder de una sinergia entre distintos campos.

Todos estos ejemplos tienen en común que las

nuevas especies, no es que fuesen totalmente desconocidas hasta ahora, sino que habían pasado desapercibidas hasta la fecha por su gran semejanza con sus parientes cercanos, de las que eran virtualmente indistinguibles. Este tipo de especies suelen conocerse como especies crípticas [4]. El papel de las especies crípticas en la estimación de la riqueza de la biosfera es muy controvertido. Existen indicios que nos hacen pensar que este fenómeno puede estar mucho más extendido de lo que pensamos hasta el punto de afectar significativamente las, aún des-

‘Sin embargo, en realidad no es necesario irse a lugares tan remotos para hacer tales descubrimientos. Muchas de las especies de nueva descripción estaban aquí, delante de nuestras narices, pero era necesario un nuevo enfoque para darnos cuenta’ recientes, que combinan tanto datos filogenéticos como de ultraestructura microscópica, sugiere que la cifra más exacta debe estar más cercana al primer valor que al segundo [7]. Muchos autores sostienen que lo que ocurre es que se mira con demasiado detenimiento las diferencias entre individuos de grupos muy idiosincrásicos y vistosos, como los primates o las orquídeas, mientras que otros, mucho menos llamativos (como hongos, gusanos o musgos), no reciben tanta atención [4],[8]. Lo cierto es que aunque los debates entre distintos criterios continúan, los grupos como los mencionados, que son morfológicamente más austeros, no reciben pro-

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

50


porcionalmente la atención que merecen y son un campo abonado para la descripción de muchas especies nuevas. De hecho, especializarse en organismos o ambientes poco estudiados es otra de las formas de explorar la biodiversidad específica desconocida con grandes probabilidades de dar con algo nuevo. Los diminutos intersticios entre las partículas de la arena de los fondos marinos es un universo de invertebrados imposibles, algunos de ellos (como los loricíferos o los quinorrincos) parecerían sacados de películas de ciencia ficción si fuesen más grandes, y a buen seguro son sólo una parte de todo lo que queda por conocer. ¿Cómo enfrentarse a esa riqueza oculta que es, si cabe, más escurridiza aún? Es obligado hacer una mención especial a iniciativas como Barcode of Life que aspiran a que la identificación de los organismos se haga de forma rápida y eficiente mediante la secuenciación de fragmentos escogidos de su genoma, que previamente se habrían reconocido como capaces de actuar como un “código de barras” fiable [9], aunque ni siquiera esta aproximación está exenta de críticas [10]. Por último, es fundamental no olvidarse de que uno de los lugares más habituales donde se descubren especies nuevas en la actualidad siguen siendo los museos, herbarios e instituciones científicas. El trabajo de campo que realizaron y realizan los investigadores es sólo una pequeña parte del tiempo invertido en la descripción de la biodiversidad específica, y generalmente nunca es el factor limitante. De hecho, es muy habitual que el legado de un científico incluya materiales recolectados pero nunca examinados por falta de tiempo. Además, y como es lógico, nadie está exento de equivocaciones, por lo que las identificaciones incorrectas son también muy abundantes. La meticulosa revisión de las colecciones históricas de todo tipo de instituciones es una labor muy ardua pero que aporta también recompensas, especialmente cuando es posible aplicar una perspectiva que no existía en el momento de la recolección. La historia de la descripción de los organismos de nuestro planeta es muy larga, pero aún tremendamente incompleta. Han sido necesarios más de trescientos años para alcanzar el estado actual. Se trata de una tarea titánica para la que son necesarias las carreras científicas completas y la dedicación de miles de especialistas de todas las épocas. Dado que éstos no siempre van a compartir criterios, es normal que los debates entre analíticos y

sintéticos hayan copado una parte de esta actividad, dando cierta imagen caótica. Sin embargo, los avances tecnológicos nos ofrece la posibilidad de poder aproximarnos a la tremenda riqueza de la biosfera desde nuevos puntos de vista que permiten llegar a resoluciones mucho más robustas. Por suerte, persiste el entusiasmo por descubrir nuevas especies al igual que en tiempos de Linneo, como persiste también la capacidad de la naturaleza por asombrarnos con formas desconocidas, incluso en los lugares más insospechados. Referencias [1] Mora et al. (2011). How Many Species Are There on Earth and in the Ocean? [2] Joppa et al. (en prensa). The population ecology and social behaviour of taxonomists [3] Charlton-Robb et al. (2011). A New Dolphin Species, the Burrunan Dolphin Tursiops australis sp. nov., Endemic to Southern Australian Coastal Waters [4] Bickford et al. (2007). Cryptic species as a window on diversity and conservation [5] Trontelj & Fišer (2009). Cryptic species diversity should not be trivialised [6] Tattersall (2007). Madagascar’s Lemurs: Cryptic diversity or taxonomic inflation? [7] Bradshaw et al. (2010). Comparative labellum micromorphology of the sexually deceptive temperate orchid genus Ophrys: diverse epidermal cell types and multiple origins of structural colour [8] Fernandez et al. (2006). Cryptic species within the cosmopolitan desiccation-tolerant moss Grimmia laevigata [9] Savolainen et al. (2005). Towards writing the encyclopaedia of life: an introduction to DNA barcoding [10] Will & Rubuinoff (2004). Myth of the molecule: DNA barcodes for species cannot replace morphology for identification and classification

Rafael Medina es licenciado en Ciencias Biológicas por la Universidad Autónoma de Madrid, donde está terminando su tesis doctoral sobre taxonomía y filogenia molecular de briófitos epífitos. Observador y fotógrafo aficionado de la naturaleza, de vez en cuando incluye textos divulgativos sobre el estudio y la conservación de la biodiversidad en su blog personal, "Diario de un copépodo".

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

51


The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

52


¿ESTÁN VIVOS LOS VIRUS? Por José Manuel Echevarría PRÓLOGO

1. HECHOS QUE DEFINEN LA VIDA

La decepción de un peregrino

Células, metabolismo y entropía

Aunque la virología ha sido el ámbito de mi ejercicio profesional incluso desde antes de terminar de licenciarme en bioquímica, hace ya treinta y seis años, lo cierto es que siempre he ejercido la profesión muy pegado a los problemas de salud y bastante alejado de las cuestiones más básicas de la materia. No obstante, la pregunta que encabeza estas líneas siempre me provocó, y creo que esa provocación contribuyó a acrecentar mi interés por las cuestiones relativas al origen y la diversificación de la Vida en general.

Todos los seres que llegaron conmigo al Canterbury de Dawkins compartían una propiedad común. Bien fuera en solitario o en apretado apiñamiento, todos estaban hechos, como yo, de células. Los últimos en sumarse a la peregrinación –los de origen más antiguo- eran todos unicelulares y mostraban su material genético apenas condensado en un rincón del protoplasma, característica distintiva de la célula procariota. Las bacterias y las arqueas son los representantes de esta modalidad celular en el mundo actual. Entre el resto los había unicelulares y pluricelulares, pero en todos los casos encerraban su material genético en una estructura que conocemos como núcleo, que es lo que distingue por encima de cualquier otra cosa a la célula eucariota.

Hace ya mucho tiempo que, intuitivamente, me decanté por una respuesta afirmativa, pero nunca sentí el impulso de analizar y exponer racionalmente los fundamentos de mi respuesta hasta que no leí –gracias al amable regalo de un buen amigo- el libro titulado The Ancestor’s Tale: a Pilgrimage to the Dawn of Life, publicado en 2004 por el ������������������������������������������������� excelente y polémico experto en biología evolutiva Richard Dawkins. En él, los seres humanos llegamos a Canterbury –como los peregrinos de Chaucer- acompañados por los seres vivos que se nos han ido sumando en nuestro camino retrógrado hacia el origen de la Vida, desde el resto de los hominoideos actuales hasta la más pequeña de las bacterias. Peregriné con entusiasmo durante días, alegre de conocer a los ancestros que me unen a los seres vivos con los que comparto el planeta, pero cuando llegué allí no encontré, para mi sorpresa, nada más sencillo o primitivo que una célula convencional con un ácido desoxirribonucleico (ADN) dentro. De mis queridos virus no había ni rastro; no me los topé por el camino, ni estaban tampoco, como yo intuía, esperándome en Canterbury. Y entonces caí en la cuenta, no sin sorpresa, de que quizá Dawkins no pensaba que los virus fuesen seres vivos, o que tal vez no deseaba reconocerlo públicamente. Aunque habrá quien comparta -intuitiva o razonadamente- esa opinión, pienso que habrá también muchos que se sorprendan al saber que la pregunta en cuestión ha desatado en la comunidad científica una intensa polémica que continúa plenamente viva a día de hoy. Decidir si los virus son o no seres vivos requiere escudriñar el concepto de Vida hasta desentrañar sus fundamentos más íntimos, llegando en último extremo a elaborar una definición bien asentada que permita diferenciar con claridad lo que consideramos vivo de lo que es inerte. Desde que el físico alemán Erwin Schröedinger publicase en la década de 1930 su libro titulado ¿Qué es la Vida?, este ejercicio ha devorado, sin embargo, auténticos ríos de tinta sin generar por ahora el consenso necesario para lograrlo. Y en gran medida, los virus son los culpables.

El diseño eucariota es el diseño exclusivo en el mundo que podemos ver con el ojo desnudo, esto es, el de los llamados organismos superiores. El genoma de los seres que responden a ese diseño está siempre constituido por moléculas de ADN de doble cadena estructuradas en esa forma de doble hélice que Watson y Crick describieron en 1953. Al margen de esta diferencia, cualquier célula posee una serie más o menos compleja de estructuras destinadas a gestionar un complicado tráfico de reacciones químicas, meticulosamente acopladas entre sí, que agrupamos bajo el nombre de metabolismo. El entorno en el que tiene lugar el metabolismo celular es un espacio de aspecto granulado que llamamos citoplasma. En la célula procariota, no se distinguen a primera vista grandes estructuras en él. En la eucariota, está ocupado por estructuras membranosas complejas, entre las que destacan unos saquitos cerrados y profusamente compartimentados que hemos dado en llamar mitocondrias (“hilos pequeños”). La energía que alimenta el metabolismo celular proviene en último extremo del intenso gradiente energético generado por el Sol, que es degradado primero por las plantas y las algas verdes mediante la fotosíntesis y, sucesivamente, por los miembros de una larga cadena trófica que queman con lentitud los compuestos orgánicos que almacenaron en sus enlaces químicos la energía solar capturada. Dicho gradiente, que involucra un alto grado de orden en la energía, es pues degradado por el conjunto de los seres vivos, que contribuyen con ello a generar entropía y a dar cumplimiento a la segunda ley de la termodinámica. Como ya señaló muy bien Schröedinger hace ochenta años, la Vida es, por consiguiente, un proceso termodinámicamente favorecido, y su existencia no sería el fruto de un azar improbable, sino la consecuencia necesaria que

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

53


deriva de su enorme capacidad para degradar gradientes de energía, esos gradientes que la naturaleza aborrece y la termodinámica proscribe. Dado que las estrellas generan por doquier tales gradientes, la Vida debiera existir, por imperativo termodinámico, en todos los lugares del Universo en los que las circunstancias lo permitan. La energía solar llega a los seres vivos no fotosintéticos a través de la alimentación, y su tráfico está sometido a una estricta gestión que se confía a las mitocondrias. Y sucede que, a la postre, esos orgánulos subcelulares gestores de la energía han resultado ser células procariotas que viven en simbiosis con la célula eucariota, algo así como bacterias adaptadas a vivir en el interior de las células de las algas, las plantas, los hongos, los protozoos y los animales. Poseen su propio material genético y una historia evolutiva compartida con la de sus células simbiontes, pero conservan su propia identidad. El esclarecimiento de la naturaleza de las mitocondrias llevó a Lynn Margulis a enunciar su hipótesis de la endosimbiosis como explicación para el nacimiento y el desarrollo de la vida celular. Si consideramos que los cloroplastos de las células vegetales presentan características similares a las de las mitocondrias, la hipótesis de Margulis parece la explicación más plausible para la aparición de la célula eucariota. ¿Son, por consiguiente, las mitocondrias y los cloroplastos seres vivos? Si la respuesta fuese afirmativa, ¿son seres vivos pertenecientes al linaje de las bacterias actuales?; ¿o quizás haya que desplazar el Canterbury de Dawkins hacia atrás en el tiempo hasta llegar a encontrarnos con un ancestro compartido con mitocondrias y cloroplastos? Interesantes preguntas que habrán de considerarse más adelante. Por encima de esas nada despreciables diferencias, procariotas y eucariotas comparten otra característica estructural esencial: su citoplasma está repleto de unos diminutos orgánulos que llamamos ribosomas por estar hechos de ácido ribonucleico (ARN). Y esto nos lleva un poco más allá.

Genotipo y fenotipo: la conservación de la identidad La identidad de cualquier especie viva reside en su material genético. Son esas moléculas de ADN las que dicen que un ratón es un ratón, y las que hacen que un ratón y una ratona engendren siempre ratoncitos, nunca otra cosa. ¿Qué cómo lo hacen? Pues bien, en realidad no hacen casi nada. Simplemente se limitan a almacenar un mensaje codificado y a transferir ese mensaje a quienes se encargarán de ejecutar sus instrucciones. El mensaje en sí mismo es lo que conocemos como genotipo y sólo puede conocerse leyendo directamente el ADN. El resultado de la ejecución completa del mensaje es el fenotipo, y buena parte de él salta a la vista: ratón o ratón, hay poco lugar a dudas. La transición que va del mensaje (genotipo) al resultado de su ejecución (fenotipo) es el proceso conocido

como expresión génica. En esencia, es un proceso de copia del mensaje en diferentes lenguajes cuyo resultado final es la fabricación de multitud de proteínas que entran a participar en la gestión del metabolismo celular. El resultado de esa gestión es lo que hace que una neurona sea una neurona y trabaje como tal; que un hígado tenga la forma de un hígado y funcione como un hígado; y que un ratón parezca un ratón y se comporte como un ratón. Y entre el ADN y las proteínas, absolutamente todo lo que hay es ARN. La secuencia del ADN se transcribe a una secuencia de ARN, y ese ARN mensajero dirige la traducción del mensaje a una secuencia de aminoácidos específica de la proteína que ese gen codifica. El proceso sucede en la superficie de los ribosomas, que están hechos de ARN ribosomal. Y los aminoácidos que se van insertando en la cadena llegan hasta allí transportados por unas moléculas de ARN llamadas de transferencia. El ADN custodia la información, pero es el ARN quien la ejecuta, y son las proteínas quienes la ponen a trabajar convirtiéndola en formas, funciones, aptitudes y comportamientos. En las últimas décadas hemos aprendido que la expresión de los genes está, sin embargo, sujeta a una regulación estricta que hace que se expresen sólo en el momento oportuno y en el lugar adecuado. Todas nuestras células poseen un genotipo idéntico, pero su fenotipo es, sin embargo, muy diferente en función de cómo se regule en cada una de ellas la expresión génica. Algunos de los factores que participan en esa regulación se hallan codificados en la propia secuencia del ADN, pero hoy sabemos que otros son ajenos a ella, ya que consisten en sencillas modificaciones químicas del propio ADN o de las proteínas que se asocian íntimamente a él en los cromosomas (las histonas). Esas modificaciones pueden suceder en respuesta a cambios en las condiciones ambientales, y se transmiten a la siguiente generación cuando afectan también a los cromosomas de las células germinales. La joven ciencia que estudia esas modificaciones ha recibido el nombre de Epigenética, y sus descubrimientos han dado en apoyar algunos aspectos de la primera teoría evolutiva que se formuló con seriedad. Se trata de la Teoría del Medio, que fue desarrollada en el Museo Nacional de CienciasNaturales de París por Jean Baptiste Lamarck a finales del siglo XVIII.

Mutación y diversidad: ¿somos hijos del error? Si la identidad de una especie reside en su material genético, la conservación de esa identidad a lo largo del tiempo, que es esencial para que una especie pueda considerarse tal, reside en la fidelidad con la que ese material se transfiera a la descendencia. El ADN se copia cada vez que una célula se divide. En un ser unicelular, esa división equivale a la reproducción. El proceso de copia del ADN se conoce como replicación, y sucede merced a la actuación de unas proteínas llamadas polimerasas de ADN dependientes de ADN, que llamaremos por abreviar ADN pol. La replicación del ADN es un proceso complejo, y las ADN pol poseen varias funciones diferentes para llevarlo a cabo. Una

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

54


de esas funciones consiste en reparar los errores cometidos. Se lee la copia según se va haciendo, y cuando se detecta un error, se elimina y se corrige. Si la replicación fuese siempre fiel al ciento por cien, todos los descendientes heredarían un genotipo idéntico, que se expresaría como único fenotipo; y si todos sus miembros fuesen siempre idénticos unos a otros, las especies serían inmutables. Pero eso no casa con la realidad, aunque la Historia nos muestre que nos haya costado siglos aceptarlo. En realidad, la fidelidad de la replicación del ADN mediada por las ADN pol no es nunca del ciento por cien, sino que acumula errores con una frecuencia media de 1010, es decir, un error por cada diez mil millones de letras de mensaje copiadas. Estos errores se denominan mutaciones, y el fenotipo resultante de la expresión del genoma mutado se conoce como variante. Aunque parezca muy baja, lo cierto es que esa tasa de error es suficiente para generar, por acumulación, descendencias genéticamente diversas que muestren diferencias individuales en su capacidad de adaptación a los cambios ambientales. Este hecho constituye la base de la evolución de la Vida, al hacer posible que las especies no sean inmutables. Como veremos a continuación, la Vida ha inventado otras formas más eficaces de diversificación genética dentro de las especies, pero la mutación fue antaño, con toda probabilidad, la única causa generadora de diversidad entre los primeros seres vivos terrestres; y es, por consiguiente, la responsable última de la diversidad que la Vida muestra hoy en nuestro planeta. Toda vez que nosotros somos parte integrante de esa diversidad, también somos, en esa misma medida, hijos del error, ya que jamás hubiésemos llegado a existir sin él.

Recombinación genética, sexo y evolución Pero llegó un día en que sucedió que los seres vivos sencillos que habían evolucionado por mutación y selección hacia genotipos y fenotipos diversos empezaron a hacer algo insólito. De hecho, empezaron a intercambiar entre sí fragmentos de información genética, creando, en un único y breve acto, descendencias enormemente diversas. Ese proceso recibe el nombre de recombinación, y sucede en todos los seres vivos, con independencia de su complejidad. En los seres unicelulares, el acto que dispara el proceso se llama conjugación. En los seres vivos superiores se llama fecundación y tiene que ver, obviamente, con el sexo. Es precisamente el sexo el mecanismo de recombinación que genera la máxima diversidad intraespecífica, y es por eso que la diferenciación en sexos ha tenido un éxito espectacular sobre la Tierra. La teoría de la evolución por selección natural de Darwin y Wallace se basa en esa diversidad que subyace en las poblaciones de las especies, y explica la aparición de nuevas especies a través de dos fenómenos: la presión selectiva que ejerce el medio ambiente sobre las variantes y el eventual aislamiento reproductor que pueda surgir

entre ellas. Lejos de ser la especiación un fenómeno discontinuo, se trata de un proceso continuo que está permanentemente en marcha en todas las especies, aunque pueda tomar mucho tiempo y sólo a veces culmine en la aparición de especies nuevas. Hasta la llegada de la genética molecular, hace apenas medio siglo, se consideraba imposible observarlo directamente, aunque eso no fuese del todo cierto. Para los microbiólogos actuales, capaces de leer con todo detalle el mensaje contenido en los sencillos genomas de esos diminutos seres de reproducción vertiginosa, observar la Evolución en directo es, por el contrario, un asunto cotidiano. Llegados hasta aquí, formularé dos proposiciones que tratan de definir lo que yo entiendo que son los seres vivos y las especies: - Un ser vivo terrestre es un organismo poseedor de un genoma que: 1. Está constituido por un ácido nucleico; 2. Es capaz de mantener su identidad y un linaje evolutivopropio; 3. Evoluciona en interacción permanente con los genomas de otros seres afines cuyos mensajes son semejantes al suyo; y 4. Participa en el ciclo de la energía contribuyendo a aumentar la entropía del Universo con su expresión. - El colectivo formado por un conjunto de seres vivos cuyos genomas interaccionan y evolucionan en un linaje evolutivo común definen la identidad genética y fenotípica que llamamos especie. Me responsabilizo plenamente de estas proposiciones, aunque apunto que hay en ellas mucho de lo que el microbiólogo francés André Lwoff expresó en relación al concepto de la Vida hace más de cuarenta años. La esencia de la Vida no reside, pues, únicamente en la estructura celular y en el metabolismo, sino más bien en el mensaje genético en sí y en su capacidad de proyectarse hacia el futuro en cambio permanente, pero conservando su identidad. Y los virus son, como veremos, mensajes genéticos en estado virtualmente puro que evolucionan, como cualquier otro, sobre la base de la mutación y la recombinación y según las reglas de la selección natural, interaccionando con su medio ambiente y entre sí según los usos y costumbres propios de las especies. 2. LOS VIRUS EN VIVO

Genomas que andan sueltos He dedicado buena parte de mi tiempo de trabajo durante los últimos años a un interesante virus que está últimamente de moda entre los que nos ganamos la vida con esto, el virus de la hepatitis E. La partícula de este virus –el virión, en la jerga científicaconsta de una molécula

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

55


de ARN encerrada en un estuche –la cápside- de simetría icosaédrica formado por el ensamblaje de unidades idénticas de una única proteína. La misión de esa proteína es proteger el genoma de las agresiones del medio ambiente, adherirse a la membrana de la célula en la que el virus va a reproducirse, e interactuar con ella hasta lograr que la cápside llegue al citoplasma. Una vez allí, se desintegra y se libera el genoma viral. A partir de ese momento, ese genoma toma el mando y dirige el metabolismo celular hacia la fabricación masiva de nuevas partículas víricas. Cuando se han acumulado ya miles de ellas en el citoplasma del hepatocito infectado, la célula estalla y las partículas se liberan para infectar nuevas células y propagar así la infección por el hígado del paciente. Por consiguiente, el virus participa decisivamente en los procesos metabólicos de las células infectadas, aunque carezca de una maquinaria metabólica propia. En esencia, y pese a una muy notable diversidad en los detalles, todos los virus hacen algo parecido a eso cuando infectan a su hospedador, y el fin de esa estrategia no es otro que producir partículas capaces de llevar eficazmente sus genomas al interior de otras células en las que puedan reproducirse, esto es, llevar a cabo su replicación. Aquí no hay pues fabricación de arquitecturas muy complejas, ni metabolismo, ni sexo, ni ningún otro adorno o recurso, tan sólo genomas minúsculos (millones de veces más pequeños que el nuestro) empeñados en la tarea que es propia del genoma de cualquier ser vivo, que no es otra que la de perpetuarse y sobrevivir con la máxima economía de recursos en competencia con otros. La expresión de los genomas de los virus sucede exactamente igual que la del genoma celular, aunque algunos introducen una necesaria y única modificación. A diferencia del resto de los seres vivos, muchos virus poseen genomas hechos de ARN en lugar de ADN. Las células no poseen ningún enzima que sea capaz de copiar ARN a partir de un molde de ARN (esto no es rigurosamente cierto, pero a los efectos de estas reflexiones lo daremos por bueno), así que todos esos virus fabrican unos enzimas que sí son capaces de hacerlo. Se llaman polimerasas de ARN dependientes de ARN, y les llamaremos ARN pol. Las ARN pol fabrican ARN mensajero copiando el mensaje escrito en el ARN genómico, y a partir de ahí la expresión génica sucede según el mecanismo general. Además, ese mismo enzima participa también en la replicación del genoma vírico. La replicación de los genomas víricos constituidos por ADN corre siempre a cargo de una ADN pol propia del virus, nunca por una ADN pol celular (de nuevo, soslayemos alguna excepción ya conocida). La fidelidad de copia de estos enzimas es similar a la de sus homólogos celulares, y la tasa de mutación que originan está también en el orden de 10-10. No sucede lo mismo, sin embargo, con la replicación de los genomas víricos constituidos por ARN. Las ARN pol no saben detectar y reparar sus errores, de forma que todos los que cometen permane-

cen en la copia. La tasa de error se dispara así hasta 106 , esto es, diez mil veces más que la anterior. Esos virus generan, por tanto, variantes a una velocidad de vértigo. Pero no terminan ahí las sorpresas. Algunos virus (no muchos) replican su genoma a través de una copia intermedia que se realiza copiando ARN en ADN. Fabrican para ello unos enzimas que se llaman transcriptasas reversas (RT), ya que hacen exactamente lo contrario de lo que sucede en la transcripción durante la expresión génica. El paso de transcripción reversa mediado por las RT sólo existe en esos virus, carece también de corrección de errores, y la fidelidad final de replicación que proporciona es del orden de 10-8, cifra intermedia entre las dos anteriores. El descubrimiento de las RT valió a Howard Temin, David Baltimore y Renato Dulbecco compartir el Premio Nobel de Medicina en 1975.

El ARN, los viroides y el origen de la Vida Aunque su impacto no fue, ni de lejos, el de El Origen de las Especies de Darwin, la publicación al comienzo de la década de 1960 de la Teoría Evolutiva del Origen de la Vida por Alejandro Oparin merece figurar, en mi opinión, en el registro de los auténticos momentos estelares de la Ciencia. En ella, Oparin se hacía eco de ideas que ya habían expresado antes personajes como John Haldane y François d’Herelle, y postulaba que el primer ser vivo tuvo que poseer un genoma de ARN. En aquéllos tiempos de la Guerra Fría, ser ruso y trabajar en la URSS no era buen asunto para la proyección internacional de un científico, así que esas circunstancias, sumadas a lo revolucionario y aún poco sustentado de su propuesta, privaron a Oparin de un premio Nobel a mi juicio más que merecido. La oposición a la hipótesis de un mundo vivo primigenio basado en el ARN se sustentaba en dos fuertes pilares. Primero, la inestabilidad del ARN, que se rompe con extrema facilidad por las agresiones del medio ambiente; segundo, y al no poder conformar cadenas muy largas debido a esa inestabilidad, la escasa probabilidad de que hubiese podido formarse y persistir algún ARN lo suficientemente grande como para llegar a fabricar una ARN pol que hiciese posible su replicación. Hubo que esperar casi un siglo para que la genética molecular viniese a afianzar los cimientos de la teoría de Darwin, y él nunca llegó a verlo. La de Oparin sólo necesitó poco más de veinte años para verse respaldada por hechos, aunque por desgracia él no lo vio, ya que murió poco antes de que se realizase el asombroso descubrimiento que explico a continuación. Los cultivos de árboles frutales se ven afectados por muchas enfermedades infecciosas, y no pocas responden a infecciones víricas. Algunas de estas últimas traían algo desconcertados a los ingenieros agrónomos en la década de 1970, ya que estaban producidas por unos virus ARN que, aparentemente, se reproducían sin originar ninguna proteína propia y sin fabricar viriones. El ARN de esos agentes se encontraba en abundancia en los tejidos

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

56


vegetales infectados, pero por más que se buscaba nadie lograba detectar la presencia de una actividad de ARN pol en las células. ¿Quién demonios replicaba el ARN de esos misteriosos “virus”? La respuesta era tan obvia como difícil de aceptar. Ese ARN se replica a sí mismo, es decir, cataliza su propia replicación. Es, a la vez, un genoma y un enzima. Además, tampoco necesita la ayuda de ninguna proteína que lo proteja de las agresiones del ambiente para pasar de una célula a otra y de una a otra planta, ya que se pliega sobre sí mismo en una forma muy compleja que le hace invulnerable, algo así como el erizo que se hace una bola de espinas para defenderse del zorro. Estos agentes se conocen como viroides, y sus sorprendentes propiedades se descubrieron y demostraron a principios de la década de 1980, época en la que se acuñaron los términos ribozima y ARN autocatalítico para referirse a esas prodigiosas moléculas. Existen veintiocho especies de viroides conocidas en la actualidad, y se agrupan en dos familias atendiendo a su estructura. El esclarecimiento de la auténtica naturaleza de los viroides granjeó a Thomas Cech y Sidney Altman el Nobel de Química en 1989. Superados los escollos de la estabilidad y la replicación sin ayuda de polimerasas, el mundo vivo primigenio de ARN que propuso Oparin cobra una fuerza irresistible, y los viroides se convierten en la huella probable de ese mundo ancestral, en los seres que más se parecerían en la actualidad a lo que pudo ser el ancestro común al conjunto de la Vida en el planeta. El Canterbury de Dawkins se desplaza, así, mucho más allá de las bacterias, sin duda mucho más allá de los 2.500 millones de años. Pero para poder llegar hasta allí es necesario admitir que los virus están tan vivos como cualquier otro ser vivo; que la Vida no es sólo arquitectura y metabolismo, sino también, y esencialmente, genomas en permanente evolución que luchan sin cesar por la supervivencia. Llama la atención que sea precisamente Dawkins -que planteó esta idea en su forma más radical en El gen egoísta, y que la ha defendido con vehemencia durante cuarenta años- quien haya sido a la postre incapaz de encontrar virus y viroides en su Canterbury particular.

¿Cuánto importa el tamaño? Por mucho que los ciudadanos ignoren muchas cosas sobre los virus, yo creo que casi todos saben que son muy, muy pequeños. Su carácter “ultramicroscópico”, que los hace visibles sólo bajo el microscopio electrónico, es quizá lo único que todos los profesores de instituto saben decir a sus alumnos sobre los virus. Los virus se mueven, por tanto, en un umbral físico más cercano al de una molécula orgánica gigante que al de un ser vivo, y este ha sido un argumento habitual entre quienes defienden su pertenencia al mundo de “lo inerte” o lo “no vivo”. Pero, ¿es eso verdad?

El microscopio óptico llega a duras penas a un nivel de resolución en torno a los 300 nanómetros (nm) (3x10-7mm). Más allá, la longitud de onda de la luz visible es demasiado larga para resolver la imagen, y hay que iluminar el objeto con radiaciones de longitud de onda más corta. Así, utilizando haces enfocados de electrones, algunos trucos, y una pantalla sensible o una película fotográfica, los virus se nos hacen visibles bajo las lentes magnéticas del microscopio electrónico. Pero, ¿todas las bacterias pueden verse bien al microscopio óptico?; y ¿ningún virus puede verse en absoluto usando luz visible? Si tomamos la bacteria intestinal Escherichia coli como prototipo bacteriano, nos encontramos con una célula en forma de bastón de unos 700x2000nm, un buen tamaño para el microscopio óptico. Los Mycobacterium (los bacilos de la tuberculosis y la lepra) ya son un poco más difíciles, alrededor de 250x1000nm, y los vemos más bien como hilos que como bastones. Un poco más allá están las Rickettsia (por ejemplo, la del tifus exantemático), en el orden de los 200x600nm, y esto ya empieza a verse como una pulguita con nuestro objetivo más potente. Y por último, los Mycoplasma (los agentes de la neumonía atípica primaria genuina), esferas de unos 500nm de diámetro, ya son puntos que imaginamos más que vemos. Pues bien, exactamente al nivel de una esfera de 500nm de diámetro están las partículas de los Mimivirus y los Phycodnavirus, los virus más grandes de entre los conocidos; y un poco más allá, con forma de bastones de 300x80nm de longitud, están las de los Poxvirus, entre los que se incluye el virus de la viruela. A partir de ahí, sólo el microscopio electrónico nos puede enseñar lo que hay más allá. Así pues, la frontera que marca la capacidad resolutiva de un haz de luz visible no coincide exactamente con la que separa los tamaños de bacterias y virus. Es más, la realidad es que tal frontera, tal discontinuidad, no existe. Puede argumentarse, en todo caso, que una constricción tan fuerte en el tamaño deja poco lugar a la diversificación estructural en el mundo de los virus, y que ese mundo debe ser pequeño, aburrido y monótono. Nada tan lejos de la realidad.

Los virus, a día de hoy El catálogo del Comité Internacional de Taxonomía de Virus (ICTV) incluye alrededor de 9500 entradas. Los genotipos caracterizados dentro de cada especie se cuentan como entradas independientes, así que no es fácil saber con exactitud de cuántas especies consta el catálogo, aunque pienso que una estimación en torno a las 5000 debe aproximarse razonablemente a la realidad. La contribución relativa de esas especies a la biomasa marina total ha sido estimada recientemente en un 40%, lo que puede dar una idea de su importante –y seguro que para muchos sorpre dente- contribución a la biomasa total del planeta. Si un extraterrestre de vista “ultramicroscópica” llegase hoy a la Tierra, nos vería a animales y plantas nadando en un

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

57


océano de virus. El catálogo del ICTV incluye virus que infectan bacterias, arqueas, algas, plantas, hongos, protozoos y metazoos pertenecientes a todos los phyla, tanto virus ADN como ARN. También incluye las 28 especies de viroides conocidas. La diversidad de formas en los viriones de todos esos virus es amplísima. Pero no termina ahí la lista, ya que desde hace solo tres años sabemos que existen también ¡virus de virus! Se les ha dado el nombre de virófagos, por semejanza con la denominación genérica bacteriófago que se ha utilizado siempre para los virus que infectan bacterias. Los virófagos parasitan las factorías de viriones que los Mimivirus establecen en el citoplasma de las amebas infectadas, se reproducen en ellas e introducen sus viriones en el interior de los viriones de los Mimivirus mientras se forman (Img. 1). Ocultos en ellos, abandonan la ameba infectada para penetrar junto con ellos en el interior de una nueva ameba y continuar reproduciéndose. Resulta interesante saber que esa parasitación puede causar severas deformidades en las partículas de los Mimivirus, y que incluso puede abortar su formación, así que podría decirse que la “infección” por virófagos causa “malformaciones congénitas” y “aborto espontáneo” en esos virus.

El origen de los virus Cuando se trata de opinar sobre su origen, es frecuente escuchar la idea de que los virus “proceden de sus hospedadores”. La concreción de esa idea consiste en postular que los virus son fragmentos de material genético celular que han logrado escapar de la célula convertidos en organismos parásitos autónomos. Con mucha frecuencia, los virus muestran una especificidad de especie exquisita en cuanto a su hospedador natural, y es en esa propiedad donde se fundamenta la proposición, por lo demás bastante inconcreta en casi todos sus aspectos. Como esto vendría a sugerir que los virus actuales tienen orígenes diversos, inconexos y probablemente recientes, vale la pena pararse un momento a analizar la cuestión.

Si consideramos el rango de hospedadores de las especies agrupadas en las diferentes familias de virus conocidas, y lo referimos a taxones biológicos amplios, encontramos cosas interesantes (Tabla 1). Por un lado, que ninguna familia de virus presenta hospedadores entre los Procariota y los Eucariota a la vez. Por otro, que existen familias de virus que presentan hospedadores incluidos en más de una de las tres grandes divisiones de Eucariota consideradas. Esto no sólo es coherente con la existencia de fenómenos adaptativos compartidos que han definido e identifican linajes evolutivos independientes (familias), sino que sitúa la divergencia de algunos de esos linajes en momentos muy remotos del pasado. Muchos virus parecen, pues, compartir ancestros comunes que hubieron de infectar a especies ancestrales comunes a sus hospedadores actuales. Y eso se llama filogenia, y es una propiedad característica de la evolución de los seres vivos.

Los virus y la Systemata Naturae de Linneo La clasificación de los seres vivos continúa basándose en el sistema de agrupamiento jerárquico que ideó Carlos Linneo hace más de dos siglos, en el que las jerarquías principales son Reino, Phylum, Clase, Orden, Familia, Género y Especie. Esto es así porque esas jerarquías reflejan relaciones filogenéticas evolutivas entre sus miembros, aunque el bueno de fray Carlos no lo supiese (acérrimo defensor de las especies inmutables, Linneo llegó a admitir en su vejez que quizá sólo los órdenes eran obra directa del Creador). Por el momento, su aplicación al mundo de los virus por parte del ICTV ha tenido un éxito limitado. Resulta bastante completa en los niveles de género y familia, pero aún bastante pobre en las jerarquías superiores. No obstante, me parece que esas carencias reflejan más la timidez -o la excesiva prudencia- de los virólogos que las dificultades reales. Así, y de la misma forma en que Dawkins propone el Súper-Reino Eukarya para englobar a todos los seres vivos hechos de células eucariotas, no veo gran obstáculo para definir un Súper-Reino o un Reino Viria que englobe a los virus ADN y RT. De igual manera podrían definirse phyla o clases para los virus ADN (Desoxiviria) y los virus RT (Retroviria), y también más órdenes que los definidos hasta la fecha. Por lo demás, pienso que a medida que el ICTV vaya admitiendo mejor la filogenia de genomas para clasificar los virus, las propuestas de esa naturaleza quizá se irán fundamentando mejor. La definición de un taxón superior único para los virus ARN no parece posible a día de hoy.

Elementos genéticos autónomos: intrones, retrotransposones y plásmidos Imagen 1. Siete partículas de un virófago visibles en el interior del virión de un Mimivirus (Nature, 4 Septiembre, 2008/doi:10.1038/nature07218).

En 1993, sólo cuatro años después del Nobel de Cech y Altman, Richard Roberts y Phillip Sharp recibieron el codiciado premio por haber encontrado en la naturaleza otras ribozimas al margen de los viroides. Las hallaron al

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

58


No son pocos los virus actuales de animales y vegetales que son capaces de integrar su genoma en el de la célula hospedadoProcariotas 18 ra, el virus del SIDA es quizás el ejemplo más popular. Existen también virus así enAlgas y Plantas 19 tre los que infectan a las bacterias, pero en el mundo bacteriano sucede algo aún más extraordinario, ya que involucra a unas moHongos 7 léculas de ADN de vida absolutamente libre: los plásmidos bacterianos. Se trata de Metazoos 57 unos elementos genéticos autónomos que se encuentran libres en el citoplasma de las 7 Múltiple (>109 bacterias, pero que pueden integrarse tamaños) bién en su genoma. En su forma libre están constituidos por un ADN circular, y son caTabla 1. Rango de hospedadores de las familias de virus conocidas en la ac- paces de replicarse con independencia del tualidad, referido a taxones biológicos muy amplios. El hecho de que siete genoma bacteriano merced a una ADN pol de ellas presenten un rango múltiple al considerar esos tres taxones de los propia, diferente de la de las bacterias, que organismos eucariotas indica un origen común que habría de remontarse ellos mismos fabrican. Se transfieren muy más de mil millones de años atrás. fácilmente entre bacterias de la misma esestudiar los intrones, que son unas misteriosas secuencias pecie por conjugación, y codifican proteínas de ADN que interrumpen los genes de todas las especies importantes para su supervivencia. Entre ellas se encuende seres vivos superiores conocidas, incluida la nuestra. tran los factores de resistencia a antibióticos, esenciales Están, literalmente, por todas partes, y algunas de ellas han para permitir a las bacterias competir con los hongos en la resultado ser muy parecidas a como son los viroides. Na- explotación de los recursos del entorno. die sabe por qué ni para qué están allí. Cuando la bacteria se divide, las células hijas reci Este hallazgo sorprendente –quizás, incluso, in- ben copias tanto de los plásmidos citoplasmáticos como de quietante- tenía, si embargo, precedentes cercanos. Diez los que se hallan integrados en el genoma. Al igual que las años antes, Barbara McClintock recibió también un Nobel- mitocondrias y los cloroplastos nos hablan de fenómenos por desvelar las propiedades de otros misteriosos elemen- simbióticos que pudieron estar en el origen de la célula tos genéticos conocidos como retrotransposones. Estos eucariótica, los plásmidos bacterianos parecen contarnos resultaron ser capaces de fabricar una RT –un enzima que una historia similar que podría estar en el origen de las ninguna célula utiliza para nada en su metabolismo-, y el primeras células realmente vivas, aquéllas que, por poseer objeto de ello no es otro que realizar copias de sí mismos ya un genoma, poseían también una identidad propia y un para propagarse dentro del propio genoma del ser vivo mecanismo para conservarla y para adaptarse al medio. Es en el que residen. Parecerá ciencia-ficción, pero los re- difícil, sin embargo, evaluar hasta qué punto haya influitrotransposones suponen un cuarenta por ciento de nues- do en la evolución de la Vida ese trasiego de información tro genoma, y hasta un setenta por ciento del genoma del asociado a la actividad de los ancestros de todos estos maíz. En los ratones, y bajo ciertas condiciones, la acti- elementos genéticos autónomos que hoy se nos presentan vación de algunos retrotransposones resulta en la produc- bajo el aspecto de intrones, retrotransposones y plásmidos ción espontánea de virus, precisamente de esos virus en bacterianos. En cualquier caso, la ubicuidad que exhiben los que se descubrieron las RT por primera vez. En pocas sugiere para ellos un origen muy antiguo, y su impresiopalabras, si sumamos los intrones a los retrotransposones, nante abundancia no mueve a pensar que esa influencia resulta que no sabemos para qué sirve -ni porqué está allí, haya sido pequeña. ni a quién pertenece en realidad- más de la mitad del ADN ¿Están vivos los virus? que contienen nuestros genes. Eucariotas

Nº de Familias con miembros que infectan a especies incluidas en cada grupo

La interpretación más probable para este hecho es que los genomas de los seres vivos superiores han ido acumulando materiales de procedencias diversas a lo largo de su historia evolutiva, y que esos materiales son fiel reflejo de esa historia. Así, parece que ciertos elementos genéticos de vida autónoma, semejantes a los viroides y a los virus RT actuales, se han ido introduciendo con el tiempo en esos genomas, y que lo han debido hacer desde tiempos ancestrales. Esto parecería una especulación excesiva si no fuese porque sabemos, con muchos detalles, que tal cosa sucede comúnmente hoy día entre las bacterias.

Pienso que lo visto hasta aquí justifica afirmar que los virus cumplen con los requisitos necesarios para ser considerados seres vivos, y que sus poblaciones definen, además, especies como lo hacen las de cualquier otro, aunque su extrema diversidad intraespecífica desdibuje con frecuencia el concepto. Su insólita capacidad de diversificación y adaptación en respuesta a las presiones del medio ambiente nos ha ayudado mucho a juzgar lo acertado de los conceptos de diversidad y selección natural postulados hace más de un siglo por Charles Darwin, dando así nuevo respaldo a unas ideas que nos permiten hoy profundizar en

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

59


el pasado y poner sobre la mesa el propio origen último de la Vida. Y llegados ahí, pienso también que los virus, y

Familia

los genomas completos de las especies que se comparan, sino seleccionando genes que cumplan una misma función

Presente en Organismos celulares

Virus

Elementos genéticos autónomos

Mitocondrias Cloroplastos Rickettsias

-

-

ADN pol B (tipo)

Arqueas Eucariotas

Virus ADN

-

ADN pol B (RG)*

-

Virus ADN

Plásmidos bacterianos

ADN pol C

Bacterias Clamidias Micoplasmas

-

-

ADN pol RT

-

Virus ADN RT Virus ARN RT

Retrotransposones

ARN pol

-

Virus ARN

-

ADN pol*

Tabla 2. Clasificación de las replicasas y presencia de las diferentes familias en los organismos celulares, los virus y los elementos genéticos autónomos. *: Replicasas que trabajan según el mecanismo conocido como rueda giratoria (RG). Este es, además, el mecanismo que usan las ribozimas (viroides y algunos intrones) en su autorreplicación.

más bien sólo ellos, son los seres vivos que mejor nos pueden hablar sobre la biosfera primigenia, ese mundo basado en el ARN que Alejandro Oparin postuló, a mi entender, con muchos visos de acierto pleno. No es, por consiguiente, un ejercicio descabellado tratar de buscar la manera de encontrar en el Árbol de la Vida el hueco a rellenar con las ramas que corresponden al mundo de los virus. Nos adentramos con ello en el meollo de una polémica plenamente actual, en un terreno aún poco explorado y por completo abierto a la especulación. Hemos llegado, por consiguiente, al punto más estimulante de nuestras reflexiones, a ese momento en el que la imaginación humana es ya libre de planear sobre los datos y los hechos para tratar de acercarse a lo que quizá pueda ser la verdad. 3. LOS VIRUS Y EL ÁRBOL DE LA VIDA

El cuento de las replicasas Para establecer las posiciones relativas de los seres vivos en el Árbol de la Vida resulta conveniente –y cada vez más necesario- comparar sus genomas. Esa estrategia nos ha enseñado, por poner un ejemplo llamativo y reciente, que los hipopótamos no pertenecen como pensábamos al linaje evolutivo de los cerdos y los jabalíes, sino al de las ballenas y los delfines, encarnando así el retorno a tierra firme de un linaje de mamíferos que halló un día su futuro en el mar sin dejar por ello de respirar con pulmones. Sin embargo, esas comparaciones no se realizan utilizando

y que estén presentes en los genomas de todas ellas. Cuando se pretende comparar los virus con otros seres vivos, la extrema sencillez de sus genomas deja muy poco margen de maniobra, pero no es imposible hacerlo. Los genomas de todos los virus presentan genes que codifican replicasas, que es el nombre genérico que engloba a las ADN pol, las ARN pol y las RT. Por su parte, todas las células, tanto procariotas como eucariotas, poseen también genes que codifican replicasas. Así pues, veamos qué sabemos sobre las replicasas y sobre las relaciones filogenéticas que existen entre ellas. Según nos cuenta Eugene Koonin -experto en biología evolutiva de los Institutos Nacionales de Salud de los EEUU-, se conocen tres familias de ADN pol que se denominan A, B y C (Tabla 2). Las arqueas, las células eucariotas, los virus ADN y los plásmidos bacterianos presentan ADN pol de la familia B; las bacterias presentan ADN pol C; y las mitocondrias, los cloroplastos y las rickettsias, ADN pol A. Además, están las RT, sólo presentes en los virus RT y en los retrotransposones; y las replicasas ARN pol, que solo poseen los virus ARN. Dentro de la familia de las ADN pol B existen también dos variantes que funcionan con mecanismos algo distintos del que usa el tipo. Una de ellas se conoce como ADN pol B de rueda giratoria, y se encuentra sólo en algunos virus y en los plásmidos bacterianos. Además, conviene saber que el mecanismo de replicación en rueda giratoria es el que utilizan las ADN pol A, y también las ribozimas en su re-

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

60


plicación autónoma. La filogenia predice que las ADN pol A, B y RT evolucionaron independientemente a partir de un ancestro común, en tanto que las ADN pol C lo hicieron a partir de la familia B. Además de esto, el virólogo Luis Villarreal, de la Universidad de California en Irving, ha aportado datos que sustentan la hipótesis de que las ADN pol víricas representan la forma ancestral de la familia ADN pol B, precursora de las ADN pol de arqueas y eucariotas. Por desgracia, no parece que haya muchos datos sobre las ARN pol víricas, aunque Koonin sugiere que su aparición fue posterior a la de A, B y RT. En la cabeza del esquema, el autor coloca una hipotética replicasa ancestral que existió en el contexto de un mundo de ARN. La interpretación de este panorama ofrece aspectos muy interesantes. El primero, que las mitocondrias, los cloroplastos y las rickettsias parecen representar un linaje evolutivo muy antiguo e independiente del de las bacterias modernas. Cabe pensar que los ancestros de vida libre de las mitocondrias y los cloroplastos se extinguieron como organismos autónomos, y que sus linajes específicos sólo se prolongaron hasta hoy día en íntima asociación simbiótica con las células eucariotas. El segundo, que los virus RT y los retrotransposones representan un linaje evolutivo muy anterior al de cualquier célula moderna, quizá con la excepción de las arqueas. El tercero, que los virus ADN pertenecen al mismo linaje evolutivo que las arqueas y las eucariotas y preceden a ambas.

Un camino a Canterbury Mi corolario particular al cuento de las replicasas es el esquema de la Figura 1, que pretende representar con cierto detalle la base del Árbol de la Vida. Partiendo de elementos genéticos autónomos semejantes a los viroides actuales, englobados en un único grupo (Viroida), se abren tres ramas que inician dos grandes mundos, el de los virus (Viria) y el de las células (Oikema) (�������������������� οίκημα�������������� : celda, habitáculo). Una rama entra directamente en este último para generar el linaje de las mitocondrias, los cloroplastos y las α������������������������������������������������������������ -proteobacterias, el grupo en el que clasificamos a las rickettsias. Las otras dos lo hacen en el primero y originan el linaje de los virus RT y un linaje vírico ancestral dotado de ADN pol B. Este último conduce a los virus ADN actuales, y es también origen de dos linajes adicionales, uno hacia arqueas y eucariotas y otro hacia las bacterias modernas, pasando este último por unas hipotéticas bacterias ancestrales dotadas de ADN pol B(���������������������������� β��������������������������� -proteobacterias) supuestamente extintas en la actualidad. Pero además, si ubicamos en ese esquema las posiciones que ocupa el mecanismo de replicación en rueda giratoria (ver Tabla 2) sucede algo extraordinario. Los plásmidos bacterianos, dotados de una ADN pol B que trabaja según ese antiguo mecanismo replicativo, vienen a rellenar con exactitud el hueco en el que cabe esperar encontrar un ADN autónomo y libre aún de envolturas protectoras que ha aprendido ya a sintetizar una polimera-

sa. Se trataría, pues, de un ancestro aún no completamente vírico, de un viroide moderno que ya habría descubierto el ADN y las replicasas, que estaría en la base de los linajes de todos los seres vivos actuales a excepción de las mitocondrias, los cloroplastos, las α-proteobacterias y los virus RT y ARN, y que tendría su descendencia directa en los plásmidos bacterianos, adaptados estos hoy a la simbiosis con las células procariotas como las mitocondrias y los cloroplastos lo están a la vida simbiótica con las eucariotas Como se puede ver, ninguno de los dos grandes grupos de seres vivos (Viria y Oikema) tiene en este esquema un origen independiente único, sino que hay que remontarse más atrás en él para encontrar ancestros comunes a todos los Viria y todos los Oikema que conocemos hoy. Por otra parte, en tanto que los organismos eucariotas forman un linaje evolutivo único (Eukarya), los procariotas representan tres linajes independientes (α-Proteobacteria, Bacteria y Arquea) que solo encuentran su ancestro común en LUCA (Last Universal Common Ancestor), ya en el corazón mismo de ese nuevo Canterbury. Por lo demás, los virus ARN permanecen como un enigma a desentrañar, ya que parece que la cuestión de su origen es muy compleja. Es muy probable que presenten orígenes múltiples, y también posible que muchos de ellos sean, realmente, elementos genéticos escapados de células y adaptados a una vida autónoma. Pero también es posible que tal interpretación solo responda a nuestra ignorancia. En todo caso, este esquema ofrece un camino que conduce hasta un Canterbury para mí más real que el Canterbury de Dawkins, toda vez que incluye a esos seres vivos que llamamos virus y termina en otros que se nos presentan como descendientes directos del ancestro común a todos. Dicho ancestro sería un ARN autorreplicante de vida libre y aún no dotado de la habilidad de codificar proteínas. EPÍLOGO

Estamos hechos de polvo de estrellas Ignoro hasta qué punto mis especulaciones puedan contener alguna verdad sobre el origen de la Vida, pero pienso que tienen la virtud de integrar las ideas actuales más relevantes al combinar las consideraciones termodinámicas de los seguidores de la endosimbiosis de Margulis con los puntos de vista de Dawkins sobre el protagonismo de la información genética. En cualquier caso, creo que sí son útiles para dar aún más significado a esa hermosa y conocida afirmación del astrofísico Stephen Hawking que encabeza este epílogo. Las hipótesis formuladas para explicar los eventos que dieron lugar a la aparición de la Vida en nuestro planeta son diversas. Para unos, las primeras macromoléculas relacionadas con la Vida pudieron formarse en el propio planeta, en ambientes concretos del mar primigenio. La rugosa superficie de las rocas que forman las chimeneas de las fumarolas en las dorsales oceánicas habría proporcionado un microentorno reductor y muy catalítico en el

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

61


que los componentes básicos de los azúcares, los ácidos nucleicos y las proteínas habrían podido alcanzar concentraciones suficientemente altas como para permitir la formación de macromoléculas biológicamente activas. Para otros, pudieron hacerlo en otra parte del Universo, llegando repetidas veces hasta aquí con los meteoritos y con los residuos desprendidos de la helada superficie de los cometas, ya que en ambos se han podido detectar compuestos orgánicos de cierta complejidad. El consenso es, sin embargo, más amplio en postular que los precursores de la vida celular pudieron surgir espontáneamente en el ambiente de las chimeneas submarinas merced a la presencia de esas macromoléculas, fuese cual fuese su procedencia. La razón de su formación habría sido su habilidad para dispersar gradientes energéticos surgidos en ese entorno como consecuencia de la química del azufre. Hasta la aparición de los primeros organismos fotosintéticos, que cambiaron la composición de la atmósfera hasta el punto de iniciar la era del sistema oxígenodióxido de carbono y de la fosforilación oxidativa, la vida terrestre habría sido, por consiguiente, muy diferente de la que conocemos hoy, que nació de la explosión vital del Cámbrico. Cabría, así, fijar el origen de la Vida en el momento en el que surgieron por vez primera esas proto-

células, lo que excluiría del concepto a todo aquello que pudiese haber medrado antes. Sin embargo, las protocélulas surgidas al calor de esos gradientes de energía química carecían de capacidad para adaptarse a los cambios. Tal capacidad sólo pudieron adquirirla al asociarse con unos ácidos nucleicos, quizá ya expertos en cuestiones de adaptación y supervivencia, que habrían de proporcionarles un genoma y, con él, una identidad. ¿Quién estaba, pues, más “vivo” antes de que tal simbiosis se produjese? Es en este punto en el que yo me decanto más por Dawkins que por Margulis, en tanto que la conservación de la identidad y la capacidad adaptativa me parecen propiedades más “esenciales” de la Vida que las habilidades metabólicas. Pienso, además, que el hecho de que esos seres no celulares hayan llegado hasta nuestros días bajo aspectos tan variados como los que exhiben hoy, y en tal abundancia como la que hoy vemos, es una razón muy sólida para sustentar ese punto de vista. La Figura 2 pretende esquematizar en forma comprensible la participación de todos estos protagonistas en los fenómenos que terminaron por originar la aparición de las formas de vida que observamos hoy sobre el planeta. “En un principio fue la Palabra..., y la Palabra transfor-

Árbol de la vida. Propuesta basada en los datos disponibles sobre la

filogenia de las replicasas. Se incluyen en él los virus ADN y RT, los viroides, las mitocondrias, los cloroplastos y los plásmidos bacterianos junto con bacterias, arqueas y organismos eucariotas. Los datos no permiten ubicar a los virus ARN en el esquema.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

62


2. Bamford DH. Do viruses form lineages across different domains of life?. Research in Microbiology 2003; 154:231-236. Trata muy bien la cuestión de las familias de virus con hospedadores en diferentes taxones básicos de seres vivos. Afirma que los virus han podido preceder a la vida celular, y despliega bien la idea de árboles evolutivos paralelos y quizás entrecruzados. 3. Desjardins C et al. New evolutionary frontiers from unusual virus genomes. Todos los retos de conocimiento que plantean los “virus gigantes” –Mimivirus y Phycodnavirus- en relación con el origen de los virus y las raíces del árbol de la Vida. 4. Goodier JL, Kazazian HH Jr. Retrotransposons revisited: the restraint and rehabilitation of parasites. Cell 2008; 135:23-35. Figura 2. Esquema que especula sobre las sucesivas asociaciones simbióticas que, partiendo de entes metabólicos carentes de mecanismos replicativos y de ácidos nucleicos autorreplicantes de vida libre, habrían dado en originar seres vivos celulares dotados de identidad genética y de habilidades adaptativas.

mó el Mar con su mensaje, copiándose sin cesar y para siempre.” Con esta hermosa y sugerente frase terminó Matt Ridley su libro titulado Genoma, dedicado a analizar la historia evolutiva de nuestra especie a través de los mensajes que están escritos en nuestros genes. Quizás algún día lleguemos a conocer la verdad sobre el origen de la Vida y sobre nuestro origen último; quizá no lo logremos nunca. Pero estoy íntimamente convencido de que si un día lo logramos será porque no habremos apartado nuestra mente de la línea de pensamiento que esa bella frase nos marca. Gracias, lector, por haber continuado peregrinando conmigo hacia ese otro Canterbury, más lejano, que yo imagino. Tal vez hayamos viajado juntos por más de mil millones de años, y ese es tiempo más que suficiente para hacer buenos amigos. MÁS PARA LEER 1. Ruiz-Sáenz J, Rodas JD. Viruses, virophages and their living nature. Acta Virologica 2010; 54:85-90. Reciente revisión breve sobre las reflexiones que el descubrimiento de los Mimivirus y los virófagos aconsejan introducir en la polémica sobre la pertenencia de los virus al mundo de “lo vivo”.

Excelente revisión sobre los retrotransposones. 5. Koonin E. Temporal order of evolution of DNA replication systems inferred by comparison of cellular and viral DNA polymerases. Biology Direct 2006; 1:39.

Mi base para “el cuento de las replicasas”.

6. Villarreal LP. Are viruses alive?. Scientific ������������������������ American, Diciembre 2004. Muy divulgativo, aunque quizá demasiado “mediático”, como pasa a veces con 7. Scientific American. Se puede encontrar traducido en el número 341 de la revista Investigación y Ciencia, Febrero de 2005 (“¿Tienen vida los virus?”) 8. Villarreal LP, de Filippis VR. A hypothesis for DNA viruses as the origin of eukaryotic replication proteins. Journal of Virology 2000; 74:7079-7084. Propuesta razonada de que las ADN pol B son de origen vírico, y de que los virus son, por consiguiente, más antiguos que la célula eucariota. 9. Zanotto PM et al.. A reevaluation of the higher taxonomy of viruses based on RNA polymerases. Journal of Virology 1996; 70:6083-6096. Droga dura, sólo para los muy interesados en tratar de entender los problemas que plantea el origen de los virus ARN. Muestra claramente que los virus ARN y los virus ARNRT no poseen un ancestro común.

Jose Manuel Echevarría Mayo (Madrid, 1953) es licenciado en Ciencias Químicas y doctro en Farmacia por la Universidad Complutense. En la actualidad trabaja como jefe del Área de Virología del Centro Nacional de Microbiología. Ha publicado más de 160 artículos científicos relacionados con la virología, aunque su trabajo como especialista se ha centrado en el problema de las hepatitis víricas. En los últimos años ha impulsado la creación de un grupo de investigación multidisciplinar dedicado al estudio de las enfermedades víricas tropicales. Así mismo es autor de la novela de literatura de ficción Amaroncachi. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

63


Bajo el nombre de rapaces, también llamadas aves de presa, englobamos a un grupo polifilético de aves con una serie de características morfológicas y comportamentales similares que tienen como finalidad la captura de presas vivas, aunque algunas especies se han especializado en alimentarse de carroña. Gozan de una vista muy desarrollada, una capacidad de vuelo magnífica, unas garras potentes y afiladas y un pico igualmente robusto y con gran capacidad para despedazar carne. Actualmente las aves rapaces se recuperan lentamente de una masacre a manos del ser humano. A pesar de ello, nuevas amenazas asociadas al progreso del hombre aparecieron durante el siglo XX y se ciernen sobre el futuro, comprometiendo en gran medida la supervivencia de poblaciones estables de estas aves. Un siglo de oscuridad A pesar de que hoy en día cuentan con una protección legal, no siempre fue así y se las tildó de animales dañinos, ya fuera por su incidencia sobre especies criadas por el hombre o sobre especies cinegéticas, considerándolas alimañas. Las aves rapaces fueron ampliamente perseguidas por ello, llegándose a pagar recompensas por cada ejemplar abatido, lo cual esquilmó las poblaciones hasta el punto de llegar a extinguir algunas especies a ni-

vel local. En Europa, la Primera y Segunda Guerra Mundial supusieron una tregua para la caza de rapaces y tras ellas, entre los años 50 y 60, comienza a protegerse a este grupo de aves, lo cual se ve reflejado en un ligero aumento de sus poblaciones en la década de los 70. En España, las aves rapaces están bajo protección legal desde 1966. Esta amenaza directa, si bien se ha reducido mucho, no ha desaparecido del todo ya que año tras año a los CREA (centros de recuperación de especies amenazadas) siguen llegando individuos tiroteados. Ahora bien, aunque es difícil calcular las pérdidas exactas debido a que se trata de una práctica furtiva y por tanto, se trata de ocultar, sí se puede afirmar que la tendencia es descendente y en ningún caso tan alarmante como en épocas anteriores. Un caso excepcional puede considerarse Malta. En esta pequeña isla mediterránea se lleva a cabo una indiscriminada caza ilegal de aves migratorias. Por su posición estratégica, situada en la ruta europea de migración hacia África, miles de pájaros pasan por la isla y lamentablemente los cazadores (Malta tiene la mayor densidad de cazadores por kilómetro cuadrado de Europa) incumplen deliberadamente la normativa europea, hecho que se viene produciendo desde que Malta entró a formar parte de la Comunidad Europea.

Sin hogar Como ya se ha apuntado, esos niveles de persecución directa parecen haber disminuido pero las poblaciones de aves rapaces se enfrentan actualmente a otras serias amenazas. Una de las más preocupantes es la pérdida y fragmentación de hábitat como consecuencia de incendios forestales, proliferación de pistas, trabajos forestales inadecuados, transformaciones masivas de secanos y terrenos forestales en regadíos intensivos, talas a matarrasa, disminución del alimento, roturación, una urbanización incontrolada, etc.

Las repoblaciones con coníferas de rápido crecimienÁguila pescadora (Pandion haliaetus) sobre la rodada de un coche en la playa de Doñana. to privan a estas aves de granFotografía: Jesús David Tavira Guerrero.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

64


des árboles de fronda aislados, viejos y fuertes donde anidar. Debido a las especiales características de sus nidos, las rapaces están entre los grupos de aves cuyo número y éxito de reproducción están limitados con frecuencia por la disponibilidad de lugares para los nidos. A su vez, la desecación de regiones húmedas también produce un empobrecimiento de la naturaleza ya que, si bien no suelen ser zonas donde la gran mayoría de especies de aves rapaces aniden, sí son áreas muy productivas con buena oferta de alimentos. A todo este conjunto de acciones que degradan el medioambiente hay que sumar las repercusiones del cambio climático, inciertas para muchos ecosistemas y sus pobladores, pero nada alentadoras. Por tanto, se han perdido tantas zonas de hábitat favorable que nunca se restablecerá la densidad inicial de población de tiempos anteriores a los grandes episodios de caza. A lo más que aspiramos es a mantener poblaciones óptimas allí donde el ecosistema aún lo permite. Traumas Otra de las principales causas de muerte o lesión que sufren las rapaces son los atropellos, consecuencia directa de la proliferación de pistas, los choques contra las ventanas, contra tendidos eléctricos y aerogeneradores. Generalmente, las colisiones se producen con líneas de alta tensión superiores a 45 kV, que poseen un cable de tierra de menor diámetro situado por encima de los cables de mayor grosor que conducen la corriente eléctrica y, por tanto, es menos visible para los pájaros. Respecto a los aerogeneradores, se suelen ver afectadas las especies planeadoras de mayor envergadura, siendo especialmente vulnerable el buitre leonado (Gyps fulvus). La proliferación de parques eólicos en los últimos años maximiza la

influencia negativa sobre las poblaciones de estas grandes rapaces. Árboles que matan Ligado a los tendidos eléctricos, además del problema de las colisiones, encontramos el riesgo de electrocución. Las aves rapaces utilizan los postes como oteaderos y la descarga eléctrica se produce cuando el ave toca dos cables o un cable y la cruceta. Los diseños más peligrosos son aquellos con apoyos con aisladores rígidos, con elementos conductores de corriente por encima de la cruceta o zona de posada, así como los apoyos con transformadores y secuenciadores. Para minimizar el impacto se estudian las zonas o los tendidos donde se detectan mayores índices de mortalidad y, o bien se modifican los postes para hacerlos más seguros o bien se entierran. Ésta última opción es la más adecuada pero su elevado coste hace que no siempre sea posible llevarla a cabo. Envenenamiento e intoxicación Otra práctica delictiva cuyo grado de indicidencia es difícil de cuantificar es la persecución directa mediante el uso de cebos envenenados. Especies como el alimoche (Neophron percnopterus) o el milano real (Milvus milvus) son especialmente vulnerables. El uso de estricnina como veneno se expandió por los campos españoles. Actualmente se encuentra muy perseguido aunque siguen apareciendo casos. La estricnina como veneno. La estricnina es un alcaloide que se obtiene de la nuez vómica. Actúa como antagonista del aminoácido glicina, que es neurotransmisor de las células de Renshaw.

Águila calzada (Hieraetus pennatus) posada sobre un poste eléctrico. Fotografía: Jesús David Tavira Guerrero. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

65


The Journal Feelsynapsis Águila culebrera (Circaetus gallicus). Fotografía: Jesús Davidof Tavira Guerrero. | NO. 1 | Noviembre 2011

66


En dosis mayores de 25 mg puede producir la muerte debido a la contractura de los músculos torácicos. Al inmovilizar el músculo del diafragma el individuo muere por asfixia.

dos por furtivos llegándose a alcanzar grandes sumas de dinero.

Otras veces la intoxicación no viene provocada de una manera directa como la expuesta anteriormente, si no de una indirecta mediante sustancias añadidas al medio generalmente para la erradicación de plagas o la protección de cultivos frente al ataque de insectos y que resultan ser nocivas para las aves. Es el caso de los pesticidas, herbicidas y metales pesados. Este conjunto de biocidas tiene tres propiedades peligrosas, por un lado, son muy estables y persisten en el entorno durante muchos años; después, son solubles y se acumulan en las grasas corporales de los animales, pasándose así de presas a depredadores, con lo cual, las concentraciones de estas sustancias aumentan según se asciende en la cadena alimenticia y por último, dosis pequeñas pueden afectar a la reproducción y reducir el número de crías. Algunos pesticidas muy utilizados fueron los hidrocarburos clorados como el DDT, el dieldrín y el aldrín que son diez veces más tóxicos que el DDT o el BPC (bifenilo policlorado) que es diez veces menos tóxico pero increíblemente estable. Estas sustancias han sido prohibidas y sustituidas por otras cuya magnitud perjudicial es menor, aunque se siguen utilizando en países subdesarrollados. Respecto a los metales pesados, el plomo produce intoxicación por ingesta y el mercurio es letal a dosis muy bajas. Se ha comprobado que en un gavilán (Accipiter nisus) una cantidad de 6 ppm es el límite crítico.

Otro motivo que provocó descensos poblacionales en el siglo pasado fueron las enfermedades sufridas por las presas o por las propias aves rapaces. Entre las primeras, especialmente perjudiciales fueron las relacionadas con el conejo (Oryctolagus cuniculus), especie clave para muchas de las aves rapaces ibéricas, como la mixomatosis, de gran incidencia en los años 60 o la neumonía hemorrágica vírica, más agresiva en los años 80. Recientemente, las encelopatías espongiformes transmisibles, por las que se prohibió el abandono de cadáveres en el campo, han supuesto un duro azote para las poblaciones de rapaces carroñeras que han visto mermada una gran fuente de alimento.

El uso del DDT. El DDT fue un pesticida usado masivamente durante la Segunda Guerra Mundial contra la malaria. Su descomposición es muy lenta y se acumula en el cuerpo. Es mortal en dosis de 30 ppm (30 mg por kg de tejido cerebral), además incita al hígado a producir enzimas que intervienen en el desequilibrio de las hormonas sexuales y puede tener efecto como hormona sexual. A pesar de ello, no suele ser tan perjudicial como el producto que surge de su descomposición, el DEE, que en muy bajas concentraciones daña la capacidad de producir cáscaras de huevo e interfiere en el intercambio gaseoso entre el embrión y el aire. Una disminución del 15-20% del grosor en la cáscara del huevo es crítica puesto que no soporta el peso de los progenitores al incubar y el huevo se rompe, perdiéndose la puesta. Los descensos poblacionales son más acusados entre las rapaces que se alimentan de otras aves puesto que ellas acumulan estas sustancias en su cuerpo.

Enfermedades

Menos conocidas son las enfermedades propias de las aves rapaces como por ejemplo el virus del Nilo Occidental del cual se vienen registrando brotes en países europeos donde nunca antes había aparecido. Se piensa que esta enfermedad, letal para las rapaces, se está extendiendo debido a los efectos del cambio climático puesto que es transmitido por la picadura del mosquito común de las casas (Culex pipiens) y del mosquito tigre (Aedes albopictus). Molestias en época de cría Las aves de presa son especialmente sensibles a las molestias cercanas a sus zonas de cría y reproducción, por ello el aumento de deportes como la escalada o el excursionismo pueden conducir a que muchas puestas sean abandonadas ante la presión que el ser humano realiza sobre el entorno natural. Algunas de estas prácticas se paralizan en épocas críticas de reproducción como la escalada, el paso de aviones sobre zonas protegidas o la interrupción de obras si se descubre algún nido en las inmediaciones. Una perspectiva futura El futuro para las aves rapaces lejos de cincelarse con letras diamantinas se aparece incierto. Aunque las poblaciones de la mayoría de las especies se recuperan lentamente, este conjunto de amenazas conlleva que no se pueda bajar la guardia en su conservación. Por fortuna cada vez es mayor el porcentaje de la población concienciada que aprecia y valora el medioambiente y trabaja para que en nuestros cielos nunca dejemos de ver el poderoso y bello vuelo de águilas, buitres, búhos y demás aves rapaces.

La destrucción de nidos El expolio es el saqueo de nidos y el robo de los huevos. Hoy en día la causa no es tanto el exterminio de las rapaces por ser considerados animales dañinos si no que está más asociado al auge de la cetrería, una modalidad de caza donde se utilizan aves de presa. De esta manera existe todo un mercado negro de huevos y pollos extraídos de nidos en la naturaleza que luego son vendi-

Jesús David Tavira Guerrero es Licenciado en Biología en la especialidad de zoología. Actualmente profundiza en el campo de la ornitología y de evaluación de impacto ambiental. Es posible encontrarlo en los blogs ‘Aves de Guadalajara’ y ‘Rapaces del Mundo’ de los cuales es autor, asi como en su cuenta de twitter @JesusDavidTG

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

67


250 PROFESIÓN VETERINARIA

AÑOS

Por Fernando Adam

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

68


E

s algo que seguro nos suena familiar. Probablemente en más de una ocasión, y a la vez que comenzamos a ser conscientes de nuestra personalidad, nos han preguntado qué queremos ser de mayores y seguramente la mayoría coincidimos. De pequeños queremos ser astronautas, arqueólogos, bomberos, futbolista, policías, biólogos, médicos y como no, veterinarios.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

69


N

ada más y nada menos que 250 años cumple la profesión veterinaria y no podríamos encontrar un mejor año para reivindicar el papel de estos profesionales. Precisamente por eso las celebraciones para conmemorar tal magno acontecimiento tenían que estar a la altura de las circunstancias, razón por la cual se han llevado a cabo conmemoraciones a nivel mundial. No debemos dejar pasar la oportunidad de comunicación que nos brinda la revista Journal of Feelsynapsis para recordar la versatilidad de esta profesión.

digo de Hammurabi, que podríamos considerar el “primer tratado de Medicina Veterinaria” de la Historia, el papiro de Kahun. Aunque en él no se habla de la figura del veterinario como tal, pues parece que esta figura no existía en el antiguo Egipto y las labores de curación de los animales las realizaban los sacerdotes. Flinders y Petrie, dos arqueólogos ingleses, encontraron en la ciudad de Kahun esta serie de papiros originarios de la época del faraón Amenemhaït III, que reinó en el imperio del Nilo, durante el siglo XX a. de C. Como en una enciclopedia, los papiros recogen el saber egipcio sobre matemáticas, medicina (fundamentalmente ginecología y obstetricia) o veterinaria. En ellos se describen enfermedades del ganado y su tratamiento, así como patologías de perros y de gatos. Extensos fragmentos de estos documentos han llegado muy mal conservados hasta nuestros días, y en algunos casos no es posible traducirlos. La historia de la Medicina Veterinaria en el mundo se remonta a las primeras civilizaciones establecidas en la tierra.

Pero a pesar de todo lo anterior, la enseñanza reglada de la veterinaria no aparece hasta que Luis XV, conocido como el Rey Sol, siguió los buenos consejos de su “Caballerizo Mayor Real”, Claude Bourgelat y dispuso la creación de la primera escuela de Veterinaria que se instaló en Lyon el 4 de Agosto de 1761. Se constituye así la primera escuela veterinaria del mundo, tiempo más tarde se abrieron tres escuelas más en Francia, y a partir de

La historia de la Medicina Veterinaria en el mundo se remonta a las primeras civilizaciones establecidas en la tierra. Nace la Medicina Veterinaria asociada a la cría de animales con fines de proveer alimentos de origen animal, vestido, calzado, y trabajo, luego para la guerra. Nace con una cultura mitad práctica, mitad esotérica o religiosa. Evolucionando en cada etapa histórica hasta ser fundada hace 250 años. Varias son las pruebas en papiros, murales, vasijas y esculturas antiguas donde se demuestra pastores atendiendo a los animales y sus prácticas de manejo. Si bien, la enseñanza reglada de la profesión data su origen en esos 250 años, la primera referencia escrita a los veterinarios como profesión aparece recogida en el mesopotámico Código de Hammurabi, datado entre los siglos XVII y XVIIi a. de C. En él se incluyen dos artículos, el 224 y el 225, que regulan la actividad de los veterinarios, encargados de cuidar a los bueyes y a los asnos en aquella época.

Pero hay un documento más antiguo, que el CóThe Journal of Feelsynapsis | NO. 1 | Noviembre 2011

70


utilidad de los animales de compañía en la sociedad ya no necesita ser demostrada, como tampoco el interés de la función de los veterinarios como médicos de estos fieles compañeros del hombre y el principal defensor de su bienestar. Es de lamentar, sin embargo, que la profesión veterinaria no siempre sepa transmitir el mensaje de que sus actividades representan un auténtico bien público mundial. Hoy el veterinario vela, como siempre, por la sanidad animal y la producción animal. Pero a su vez se erige como principal instrumento para garantizar la seguridad de los alimentos, la salud pública, la protección de la biodiversidad y la sostenibilidad de los ecosistemas del planeta. No debemos por tanto conformarnos ante la reducción de nuestra actividad a la de médicos de animales que una buena parte de la sociedad hace de la labor veterinaria, por muy importante y reconocida que sea esta.

...la enseñanza reglada de la veterinaria no aparece hasta que Luis XV ... siguió los buenos consejos de su “Caballerizo Mayor Real”, Claude Bourgelat ... en. .. Agosto de 1761...

esas instancias de la historia, se fue replicando por todo el mundo la iniciativa, hasta nuestros días. Al crear los primeros establecimientos de formación, Bourgelat inventaba al mismo tiempo el oficio de veterinario. Pero el genio de Bourgelat fue más lejos. Efectivamente, gracias a su fructífera colaboración con los cirujanos lioneses, también fue el primer científico que se atrevió a decir que al estudiar la biología y la patología del animal, se podrían entender mejor las del hombre. El año 2011 es pues también el 250 aniversario del concepto de “patología comparada”, sin el cual la medicina moderna no habría nacido nunca.

Muchas veces oímos decir que somos lo que comemos, pero se tiende a ignorar que en la misma medida estamos sanos porque comemos alimentos sanos y saludables, y eso se debe en gran parte a la implacable vigilancia que nuestra profesión ejerce sobre la calidad y la inocuidad de los alimentos. El veterinario también respalda y protege uno de los componentes más importantes de la economía como lo son las producciones agropecuarias que permiten, al mejorar las economías, mejores posiciones sociales. Hoy en día, en una sociedad que vive de espaldas al campo este papel es fundamental. Todos debemos luchar y esforzarnos para dotar de visibilidad al campo y favorecer la conservación de medios y modos de vida tradicionales.

Si realizamos un salto gigantesco de esa época a la actual, vemos que la situación ha cambiado en cuanto a las responsabilidades del veterinario. Tal vez al ciudadano común no le interese mucho este aspecto, pero sí y en gran medida, en lo que significa “el veterinario” como garantía de su salud y de la salud de toda la población. La veterinaria a lo largo de su historia ha acumulado una impresionante colección de conocimientos, a la vez que explorando nuevos campos de actividad. La ...la primera referencia escrita a los veterinarios como profesion aparece recogida en el mesopotamico Codigo de Hammurabi... The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

71


Pero a pesar de todos los avances, la esencia de la profesión veterinaria continua siendo lo misma: una elevada curiosidad científica y grandes dosis de respeto y amor hacia los animales y el medio ambiente. Esto es la auténtica vocación de veterinario, entender de ladridos, aullidos, mugidos, relinchos y cacareos. Es sentirse feliz cuando estamos junto a nuestros amigos de ������������ pelos y plumas.

Por lo anterior y por muchas cosas más los 250 años de la profesión veterinaria deben ser motivo de consideración y valoración por la sociedad en general y no sólo por los profesionales veterinarios.

¡Muchas Felicidades a la profesión veterinaria y a la nueva revista que nace con este número!

Fernando Adam Fresno, es Licenciado en Veterinaria por la Universidad Complutense de Madrid y posee un Máster Universitario en Investigación en Ciencias Veterinarias. Desde el 2006 desarrolla su trabajo en el Centro Nacional de Microbiología, simultaneando su trabajo como veterinario clínico de equipo de atención primaria e impartiendo cursos de formación en el ámbito veterinario y de la cooperación internacional.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

72


Ciencia Policial FENÓMENOS CADAVÉRICOS Y ENTOMOLOGÍA FORENSE PARA EL ESTABLECIMIENTO DE LA DATA DE LA MUERTE. por Xavi P.

D

e las cámaras fotográficas de madera a la tecnología digital; de los retratos a mano alzada a la informática más precisa; de las armas rudimentarias a los avances punteros. Esa es la evolución de la Policía Científica que, con el paso de la historia, se ha ido adecuando a la modernidad para poner a disposición de los ciudadanos los mejores avances de cara a su tranquilidad. Lejos quedan las lupas y las intuiciones. Ahora, el rigor científico y la única voz de las pruebas son las armas con las que la Policía Científica lucha contra el crimen. La rama “forense” de la ciencia se podría definir como el conjunto de disciplinas cuyo objeto común es el de la materialización de la prueba a efectos judiciales mediante una metodología científica. Cualquier ciencia se convierte en forense en el momento que sirve al procedimiento judicial.

La primera disciplina precursora de la criminalística fue lo que en la actualidad se conoce como Dactiloscopia; ciencia que estudia las huellas dactilares. La criminalística tal como la entendemos nace de la mano de la medicina forense, en torno al siglo XVII, cuando los médicos toman parte en los procedimientos judiciales. A lo largo de la historia de la Policía Científica ha habido grandes nombres que han marcado un antes y un después por la incorporación de técnicas que supusieron una auténtica revolución y avance, poniendo a la Ciencia al servicio de la Criminología. Algunos de estos nombres son Alphonse Bertillon (1879), Juan Vucetich (1892) y Francis Galton, dentro de lo que podríamos considerar como la Época Contemporánea, pero existen evidencias de que ya mucho antes, algunas disciplinas científicas ya se aplicaban. Si alguien creó un punto de inflexión en la evolución de esta disciplina fue Alphonse Bertillon , quien������������  ����������� creó en����  ��� París���������������������������������������������������������  �������������������������������������������������������� el Servicio de Identificación Judicial en���������������  �������������� 1882. Este método antropométrico se basaba en el registro de las diferentes características óseas métricas y cromáticas de las personas mayores de 21 años en 11 partes diferentes del cuerpo. En esa época Bertillon publicó una tesis sobre el retrato hablado. Desde  1884, Bertillon tomó fotografías de los lugares de los hechos con todos sus indicios. Fue en 1886, cuando Alan Pinkerton ������������������������� puso en práctica la fotografía criminal para reconocer a los delincuentes. Por su parte, Sir Francis Galton en el Londres de 1885 instaló los fundamentos para la solución del problema que representaba hacer una clasificación de las impresiones dactilares. En������������������������������������������������������  ����������������������������������������������������� 1905�������������������������������������������������  ������������������������������������������������ modificará su sistema citado en “Fingerprint Directories”. En 1896, Juan Vucetich logró que la Policía de la Provincia

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

74


de Buenos Aires (en la ciudad de La Plata), Argentina, dejara de utilizar el método antropométrico de Bertillon y redujo a cuatro los tipos fundamentales de Dactiloscopia, determinados por la presencia o ausencia de los deltas (figura triangular que surge como resultado de la confluencia de las diferentes zonas en las que se divide la impresión dactilar), sistema que se aplica en la actualidad para la clasificación de las huellas dactilares. En la actualidad cabe destacar al biólogo y criminalista alemán Mark Benecke ��������������������������������������� (1970), especialista en entomología forense, disciplina clave para la determinación de la data de la muerte, motivo de este artículo. El establecer el momento de la muerte constituye una de las cuestiones más complicadas desde el punto de vista médico-forense, actividad que se lleva a cabo mediante el llamado cronotanatodiagnóstico. Cuando se produce el hallazgo de un cadáver, se realiza una inspección general del lugar y del cadáver, tratando de determinar las circunstancias relacionadas con el momento de la muerte así como la forma y causa en que se produjo. Si bien, aunque sea competencia de los profesionales de la medicina el establecer la data de la muerte, existen una serie de indicadores que nos pueden orientar para establecerla de un modo aproximado y que conviene tener en cuenta ante la presencia de un cadáver: los fenómenos cadavéricos.

FENÓMENOS CADAVÉRICOS Los fenómenos cadavéricos son los cambios que se suceden en el cuerpo sin vida a partir del momento en que se extinguen los procesos bioquímicos vitales, sufriendo pasivamente la acción de las influencias ambientales. Existe una gran variabilidad de estos fenómenos, de forma que en la práctica no existen reglas fijas, si bien, la teoría supone una orientación. Veamos en qué consisten los fenómenos cadavéricos más importantes:

TEMPRANOS Acidificación tisular Enfriamiento* Deshidratación* Livideces* Rigidez* Espasmo cadavérico 1.

FENÓMENOS CADAVÉRICOS TARDÍOS DESTRUCTORES CONSERVADORES Autolisis* Momificación Putrefacción* Adipocira1 Antropofagia cadavérica* Corificación

El enfriamiento cadavérico o algor mortis es el elemento más útil para establecer la data de la muerte. Se debe al cese de la actividad metabólica. Tras la muerte, el cadáver pierde calor progresivamente hasta igualar su temperatura con la del medio ambiente (aproximadamente 1ºC por hora; entre 0-12h desciende de 0.8 a 1,1 ºC/h y entre 12-24 h desciende de 0,4 a 0,5 ºC/h, es la llamada curva de dispersión térmica). Sin embargo, hay que considerar determinadas circunstancias que pueden modificar el enfriamiento, haciéndolo más rápido o por el contrario retardándolo.

1-2 horas 4-5 horas 6-8 horas 10-12 horas 24 horas

ENFRIAMIENTO CADAVÉRICO Aparece en manos, pies y cara. Aparece en miembros, pecho y dorso. En vientre, cuello y axilas. En vísceras abdominales. Enfriamiento completo al tacto. La temperatura del cadáver se iguala a la del medio ambiente. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

75


2.

La deshidratación cadavérica se debe a la pérdida de líquidos por evaporación y lleva consigo una pérdida de peso corporal (que es más manifiesta en cadáveres jóvenes); una apergaminamiento cutáneo y una desecación de las mucosas. La pérdida de peso corporal es más manifiesta en cadáveres jóvenes, a razón de 8 gramos por kilogramo de peso y día. Sus principales manifestaciones se observan en los ojos y constituyen los llamados signos de Stenon-Louis y de Sommer-Larcher (Figura 1).

DESHIDRATACIÓN CADAVÉRICA Pérdida de peso corporal (es más manifiesta en cadáveres jóvenes) Apergaminamiento cutáneo Desecación de las mucosas Hundimiento del globo ocular y pér- -a los 45 minutos: en ojo con párpados abiertos dida de la transparencia córnea

Triángulo oscuro con base de la córnea

- a las 24 h: en ojo con párpados cerrados -varía de rosa pálido a azul oscuro -alcanza máximo tono a las 12-15 h

1 Adipocira:  (Del latín, adeps, grasa, y cera, cera). Sinónimo: GRASA DE CADÁVER. Sustancia gris blanquecina, blanda y untuosa al tacto, que procede de la saponificación de la materia animal en los cadáveres que han permanecido largo tiempo en el agua o enterrados en sitios húmedos. *Desarrollados posteriormente.

El signo de Sommer-Larcher, también llamado mancha negra esclerótica, consiste en un triángulo oscuro con la base en la córnea, y otras veces, en una línea oscura que sigue el ecuador del ojo (Fig.ura 1d) El signo de Stenon-Louis consiste en el hundimiento del globo ocular, pérdida de la transparencia de la córnea y depósito de polvo de aspecto arenoso (Figura 1e). Existe la creencia de que el cabello y las uñas crecen tras la muerte, si bien esto no es cierto. Lo que sucede es que, durante el proceso de deshidratación, la piel se arruga y se contrae dando lugar a que queden a la vista las raíces de las uñas y del cabello, apareciendo así unos milímetros de pelo y de uña que anteriormente no se veían. Esto, añadido a la reducción de volumen que experimenta el cuerpo, puede provocar la ilusión visual de que han crecido las uñas y el pelo. 3. Livideces cadavéricas o hipostasias post mortem (livor mortis): cuando la dinámica circulatoria se suspende, el plasma y los glóbulos rojos de la sangre se acumulan y sedimentan en las partes más declives del cadáver. Esto obedece a las leyes físicas, es decir, influenciados por la gravedad se dirigen a los niveles más bajos del sistema vascular y se asientan en las zonas más bajas del cuerpo, Fig. 1. Fenómenos cadavéricos

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

76


formando zonas de coloración variable. Las livideces tienen su importancia porque orientan sobre la posición que pudo haber tenido el cadáver (manchas de posición), teniendo en cuenta que las manchas no van a aparecer en aquellas zonas en las que haya habido presión, es decir, los puntos de apoyo del cuerpo en la superficie (Figura 1b). 4. La rigidez cadavérica (rigor mortis) consiste en el endurecimiento y retracción de los músculos del cadáver. Entre la muerte y este fenómeno hay una etapa de relajación muscular. El fenómeno desaparece en forma inversa y su desaparición coincide con el inicio de la putrefacción, porque entonces la proteína muscular se desnaturaliza y no puede mantener su contracción. Entre las 3 y 6 horas comienza en el corazón y diafragma, mandíbula y miembros inferiores, siendo completa entre las 8 y 12 horas, alcanzando su máxima intensidad a las 24 horas (Figura 1a). Comienza a desaparecer de forma inversa hacia las 36 horas. Curiosos fenómenos asociados a esta contracción post mortem son aquellos que pueden dar lugar a la eyaculacion, expulsión del feto o erección capilar. Dentro de los fenómenos tardíos destructores, la autolisis es el más precoz de los procesos transformativos cadavéricos, consiste en la disolución de los tejidos por la acción de enzimas o fermentos propios de las células, es decir, anatómicamente estaríamos ante una necrosis celular. Otro de los fenómenos tardíos destructores es la putrefacción cadavérica. Es el signo inequívoco de la muerte, ya que no se trata del cese de una actividad vital, sino de la modificación de los tejidos, modificación que sólo ocurre en el cadáver. Consiste en la descomposición de la materia orgánica del cadáver por acción de las propias bacterias que habitan los intestinos, que tras la muerte, se propagan por la sangre, dando lugar a un estadio del cadáver conocido como periodo cromático-enfisematoso (Figura 1c). En su desarrollo actúan primero las bacterias aerobias, luego las aeróbicas facultativas y finalmente, en ausencia de oxígeno, intervienen las bacterias anaeróbicas. El último de los fenómenos cadavéricos tardíos destructores es la antropofagia cadavérica, un proceso que consiste en la destrucción del cadáver por la acción principalmente por los insectos. La evolución natural del cadáver finaliza con la destrucción del mismo. Sin embargo, si se modifican las condiciones del ambiente, puede detenerse la descomposición y virar hacia un fenómeno conservador. Así se producen los fenómenos tardíos conservadores como la momificación. ENTOMOLOGÍA FORENSE Una de las cuestiones de mayor importancia a ser resuelta para los investigadores frente a un cadáver es averiguar el tiempo transcurrido desde que ocurrió la muerte, pudiendo llegar a ser vital en la investigación de un homicidio. Generalmente, el tiempo transcurrido desde la muerte es determinado mediante otras disciplinas forenses (como el anteriormente citado cronotanatodiagnóstico, por ejemplo), pero cuando el cuerpo se encuentra en un estado de putrefacción avanzado, o el cadáver presenta distintas fases de descomposición a la vez, la validez de estos métodos es limitada, y es en estos casos donde la Entomología Forense puede llegar a ser más exacta, siendo con frecuencia el único método fiable para determinar el intervalo postmortem. La “Entomología Médico Criminal” o Entomología Forense es una disciplina incluida en las Ciencias Forenses que utiliza los datos que los artrópodos pueden aportar en la investigación médico-legal de la muerte proporcionando una fuerte evidencia científica que puede ser defendida con éxito. El primer documento escrito de un caso resuelto por la entomología forense se remonta al siglo XIII en un manual de Medicina Legal chino referente a un caso de homicidio en el que apareció un labrador degollado por una hoz. Para resolver el caso hicieron que todos los labradores de la zona que podían encontrarse relacionados con el muerto, depositasen sus hoces en el suelo, al aire libre, observando que tan solo a una de ellas acudían las moscas y se posaban sobre su hoja, lo que llevó a la conclusión de que el dueño de dicha hoz debía ser el asesino, pues las moscas eran atraídas por los restos de sangre que habían quedado adheridos al ‘arma’ del crimen. Los insectos no colonizan el cuerpo de forma aleatoria, sino que lo hacen formando una secuencia que resulta preThe Journal of Feelsynapsis | NO. 1 | Noviembre 2011

77


decible, esto es, existiendo una sucesión que se repite siempre en el mismo orden, ya que los distintos grupos van apareciendo por oleadas a medida que progresa el proceso de descomposición y el cadáver va pasando por distintas condiciones que resultan atractivas a distintos grupos de insectos. El proceso de descomposición cadavérica se divide en cinco fases (según nomenclatura recomendada por los entomólogos forenses internacionales): 1. Fresco (también llamado período cromático o colorativo, por la coloración verdosa o negruzca del cadáver, durante la primera semana) 2.

Hinchado (o periodo enfisematoso o de desarrollo gaseoso, durante las siguientes dos semanas)

3.

Descomposición activa

4.

Descomposición avanzada

5.

Esqueletización • Fase de cadáver “fresco”

A los pocos minutos de producirse la muerte, los dípteros comienzan la ovoposición sobre orificios naturales, fundamentalmente ojos, fosas nasales, en y alrededor de las orejas y, si están expuestos, ano y pliegues inguinales. Este estado se caracteriza por la abundancia de dípteros de la familia Calliphoridae (sobre todo Lucilia sericata, considerado el primer colonizador, incluso cuando aún no se detecta olor a putrefacción), Muscidae y Sarcophagidae (considerados colonizadores secundarios generalmente). También es posible encontrar himenópteros de la familia Formicidae, sobre todo cuando los cadáveres están expuestos a la intemperie. Los individuos de la especie Chrysomya albiceps (Fam. Calliphoridae), son necrófagos y depredadores, aunque son considerados colonizadores secundarios, si bien cuando aparecen lo hacen de forma mucho más abundante (Figura 2).

Figura 2. Dípteros

• Fase de cadáver “hinchado” Se produce la eclosión de las puestas, observándose el desarrollo de las larvas con actividad muy marcada, las cuales se alimentan de las vísceras. Los dípteros que se aprecian siguen siendo los de las familias anteriormente citadas, mientras que aparecen nuevos insectos, adultos de coleópteros necrófagos de la familia Silphidae y depredadores de las familias Staphylinidae e Histeridae (Figura 3). • Fase de “descomposición activa” En esta fase aumenta la actividad larvaria, apareciendo grandes masas larvarias descomponiendo los tejidos blandos del cadáver. Siguen alimentándose dípteros de las familias Calliphoridae, Muscidae y Sarcophagidae, aunque ya no se localizan puestas ni larvas de edades tempranas. Los coleópteros son los mismos de la fase anterior, fundamentalmente de la familia Silphidae, que aparecen en fases tempranas para realizar puestas, ya que sus larvas se alimentarán de The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

78


los restos secos del cadáver. • Fase de “descomposición avanzada” Las larvas de dípteros necrófagos de la familia Calliphoridae empiezan su actividad migratoria, pupando en zonas ubicadas debajo del cadáver y en los alrededores del mismo, en un radio de acción de unos dos metros de distancia. Se produce la mayor pérdida de biomasa y se observan puntos de “preesqueletización” marcada en la cabeza. En esta fase se encuentran, además de los coleópteros de hábitos depredadores antes citados, otras familias con hábitos necrófagos, pero con preferencia por tejidos secos, tales como las familias Cleridae (Necrobia rufipes), Histeridae, Staphylinidae y Nitidulidae (Figura 3). Hay que tener en cuenta que los adultos de las familias HisteriFigura 3. Coleópteros

dae y Staphylinidae se sienten atraídos al cadáver debido a la presencia de las larvas de dípteros, las cuales forman parte de su dieta, haciendo que su presencia en el cadáver no esté asociada a una fase concreta de la descomposición. • Fase de “esqueletización” La duración de este estadio es la más larga. Los cadáveres son colonizados por grupos dermatófagos y queratófagos, fundamentalmente especímenes de la familia Dermestidae (también coleópteros). Para establecer la data de la muerte en estadios avanzados de descomposición, las especies de interés forense serán aquellas que son atraídas por elementos químicos del proceso degradativo de la putrefacción y que son activas desde el momento de la colonización (margen mínimo) hasta la fecha de abandono del cadáver (margen máximo). De esta manera, son los estadios larvarios de las familias Cleridae, Silphidae, Dermestidae y Nitidulidae, quienes marcan los umbrales mínimos y máximos de tiempo, ya que los adultos de estas familias pueden aparecer durante todo el proceso, careciendo de valor en la estimación del intervalo post-mortem (Figura 4). Fundamentalmente, el estudio de la sucesión de insectos sobre el cadáver se utiliza para realizar la estimación del intervalo postmortem en estados de descomposición avanzados. La estimación se basa en la comparación de los insectos que se recolectan en el caso real sobre el cadáver con los datos existentes en la bibliografía para la misma zona geográfica y estación del año. Hay que tener en cuenta que existen una serie de variables que afectan a la aparición y sucesión de unas especies u otras sobre el cadáver. Dentro de ellas están las inherentes al individuo (constitución física, The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

79


Figura 4. Larvas

edad, salud, toxicología, existencia de traumatismos ante-mortem, etc.) y las geográfico-ambientales (temperatura, humedad, entorno rural o urbano, exposición del cuerpo, etc.) REFERENCIAS 1. Data de la muerte, fenómenos cadavéricos. Sandra Muñoz Carrasco. Policia, 240; 18-27. 2. Determinación del intervalo postmortem mediante el estudio de la sucesión de insectos en dos cadáveres hallados en el interior de una finca rústica en Madrid. A.M. García-Rojo1, L. Honorato1, M. González1 y A. Téllez1. Cuad Med Forense 2009; 15(56):137-1. 3. La entomología forense. Mariano González González. Ciencia Policial, 102; 87-104. 4. La entomología forense y la práctica policial en España: estimación del intervalo post-mortem en un cadáver hallado en el interior de una arqueta en la comunidad de Madrid. Ana García-Rojo y Lourdes Honorato. Ciencia Forense, 8/2006: 57-62. 5. La entomología forense y su aplicación a la medicina legal. Data de la muerte. Concha Magaña. Aracnet 7 -Bol. S.E.A., nº 28 (2001): 49—57. 6. http://cienciacriminalistica.blogspot.com/2010/09/rigidez-cadaverica-instalada.html 7. http://criminaldescubierto.blogspot.com/2011/03/signos-de-muerte-tanatologia.html 8. http://nicoleb.org/mnblog/2011/08/flesh-fly-sarcophagidae/ http://plantpath.wisc.edu/~young/hbhomage/ wishis.html 9. http://www.entomofauna.es.tl/Sucesion-cadaverica.htm 10. http://www.flycontrol.novartis.com/species/flsstablefly/es/index.shtml 11. http://www.insectimages.org 12. http://www.schoepfung.eu/leben-in-wasser-und-luft/in-der-luft/schmeissfliege.htm 13. http://www.umb.edu.co/cidfe/revista/articulos/panorama/n02_2006.html 14. http://www.wikipedia.org 15. http://www.zin.ru/ANIMALIA/COLEOPTERA/eng/all_fams.html The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

80


La química y su relación con otras ciencias por

rnardo Herradón García

Las ciencias naturales y sus divisiones.

L

as ciencias naturales estudian la materia, la energía y la interacción entre ambas. En los orígenes, no había distinción entre las distintas ciencias naturales; de hecho, algunos historiadores y filósofos de la ciencia afirman que no existía ni ciencia, sólo existía la filosofía natural, que lo abarcaba todo.


Figura 1. Tabla periódica de los elementos químicos.

En

cualquier caso, independientemente del nombre, las ciencias evolucionaron y fueron generando tal cantidad de información que hizo imposible que un único ser humano pudiera poseer todo el conocimiento adquirido. De esta manera, la ciencia se especializó, dividiéndose en principio en las cinco ciencias naturales ‘clásicas’: física, química, geología, biología y astronomía. Con el paso de los años, esta última pasó a ser una parte de la física. Los diferentes métodos usados, los enfoques y aproximaciones empleados, y los objetos concretos de estudio son los diferenciadores de las cuatro ciencias.

La evolución

de estas ciencias clásicas dio lugar a posteriores áreas de especialización, en principio, híbridas entre algunas de estas cuatro: bioquímica, biofísica, geoquímica, geofísica, paleontología, química física (apenas distinguible de la físicoquímica). La posterior evolución de los métodos y objetos de estudio, hacen surgir otra nueva generación de especialidades (podemos definirlas de tercera generación), siendo el pionero de estas la biología molecular, y entre los que cabe mencionar la toxicología, las ciencias medioambientales, la inmunología y prácticamente todas las ciencias de la vida que llevan el adjetivo molecular (parasitología molecular, neurobiología molecular, inmunología molecular, etc.). Aunque aparentemente estas ‘nuevas’ ciencias tienen campos de estudio más restringidos que las ‘clásicas’, también poseen un carácter multidisciplinar.

La química: ciencia del cambio y de las moléculas.

La química

es la ciencia que estudia las transformaciones y propiedades de la materia en su estructura íntima y las consecuencias que tiene en el mundo macroscópico.

La

estructura íntima de la materia queda definida por el número y tipo de ����������������������������� átomos����������������������� y como estos se combinan a través de enlaces químicos. La materia se transforma a través de las reacciones químicas.

El átomo

es la unidad más pequeña de materia que mantiene su identidad o sus propiedades, y que no es posible dividir mediante procesos químicos. Un átomo está constituido por un núcleo cargado positivamente, dónde reside la mayor parte de su masa. El núcleo está constituido por protones y neutrones, que son partículas de aproximadamente la misma masa y que se diferencian en su carga eléctrica; el neutrón es eléctricamente neutro y el protón está cargado positivamente. El número de protones de un átomo es el número atómico, que es lo que caracteriza a un elemento químico. El núcleo está rodeado por electrones, que son partículas cargadas negativamente muy pequeñas, su masa es aproximadamente 1836 veces menor que la del protón.

Los elementos

químicos son los componentes básicos de la materia. Existen poco más de 100 elementos químicos que se ordenan en la tabla periódica (Figura 1). Por la posición de los elementos en la tabla periódica podemos deducir sus propiedades química.

En

la naturaleza no existen átomos aislados (se pueden tener en experimentos muy controlados de laboratorio) y estos generalmente se combinan entre sí (una excepción es el grupo 18 de la tabla periódica, los gases nobles, que tienen poca tendencia a formar compuestos) a través de enlaces químicos. Los enlaces se forman transfiriendo o compartiendo electrones entre átomos. Los tres tipos de enlace más importantes en química son el iónico, el metálico y el covalente.

Los

átomos son especies eléctricamente neutras; es decir, el número de protones iguala al de electrones. Un átomo puede ceder o ganar electrones generando un ión positivo (catión) o negativo (anión).

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

82


Figura 3. Relación de la química con otras ciencias.

El enlace iónico

se forma por interacción electrostática entre cationes y aniones. Los elementos de los grupos 1 y 2 tienen tendencia a generar cationes. Los aniones son formados por los elementos (solos o combinados entre ellos) nitrógeno (N), oxígeno (O), azufre (S) y los elementos del grupo 17 (excepto el astato, At), el grupo de los halógenos. Los compuestos iónicos no existen como entidades discretas sino como conglomerados de iones, dónde cada catión está rodeado por varios aniones y cada anión está rodeado por varios cationes. Por ejemplo, la sal común o cloruro sódico tiene fórmula estequiométrica NaCl, donde un átomo de sodio (Na) se combina con un átomo de cloro (Cl). Sin embargo, esta fórmula no refleja la estructura real del compuesto en estado sólido, pues cada catión sodio (Na+) está rodeado por seis aniones cloruro (Cl-) y cada anión está rodeado por seis cationes (Figura 2). En disolución acuosa, el cloruro sódico está disociado en el catión sodio y el anión cloruro, dónde los iones están separados por moléculas de agua.

El enlace metálico

es el responsable de la estructura y propiedades de los metales. En este caso, algunos electrones (los más alejados del núcleo) de los átomos metálicos son compartidos por todos los átomos del metal, creando una nube electrónica. Estos electrones, denominados deslocalizados, tienen movilidad y son los responsables de la conductividad eléctrica y térmica de los metales.

El

enlace más frecuente se produce cuando los átomos comparten electrones, dando lugar al enlace covalente. La agrupación de átomos a través de enlaces covalentes constituyen las moléculas, que son las especies preponderantes en química; y, por eso, la química se ha definido también como la ‘ciencia molecular’, aunque esta definición se queda corta en la definición de los límites de la química.

Todo

lo que nos rodea en nuestro planeta está constituido por especies química (iónicas, metálicas o covalentes). Por eso, se puede decir que todo es química (ver siguiente apartado) y la química es la ciencia central.

La

Figura 2. Estructura cristalina de cloruro sódico.

figura 3 muestra la relación de la química con otras ciencias. La química interacciona con otras ciencias, como la toxicología, la ciencia de los alimentos, las ciencias medioambientales, la ciencia de los materiales, las ciencias agrícolas, la veterinaria, la medicina, la biología y la física. Se observa que la flecha que une la química con el resto de ciencias tiene su origen en la química. En todas estas ciencias se usan conceptos y métodos de la química (basados en el empleo y manipulación de moléculas) para estudiar fenómenos y/o generar productos de consumo. Por poner algunos ejemplos, todo lo que comemos es una mezcla de sustancias químicas (ya sean naturales o artificiales) o el efecto biológico que tienen

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

83


Figura 4. Objetos de consumo cuya producción depende de productos químicos. Se recoge una frase de Baekeland (el inventor de la baquelita, el primer plástico de uso masivo) reconociendo el poder de la química. las sustancias químicas se tiene que explicar a nivel molecular, lo que influye en ciencias biomédicas, toxicología y ciencias medioambientales. La flecha que une la física con la química es de doble punta, indicando la contribución mutua que ambas ciencias tienen: la química aportando moléculas para realizar experimentos y verificar teorías, y la física aportando base conceptual a la química. Finalmente, las aportaciones de la química a las matemáticas son escasas, siendo más importantes las de ésta a aquella, proporcionando base teórica y métodos numéricos. Esta característica hace que la química sea considerada la ciencia central.

La

química es la ciencia del cambio, es la ciencia que estudia los fenómenos por los que la materia se transforma. Algunas de estas transformaciones, como la oxidación de un trozo de hierro o el incendio de un bosque son procesos químicos naturales que ocurren en nuestro planeta. Son reacciones de oxidación (pérdida de electrones y/o ganancia de oxígeno) porque vivimos en un ambiente oxidante causado por el oxígeno del aire que respiramos; que también provoca muchas reacciones en nuestro organismo, de las que obtenemos energía.

Una

cualidad importante de la química en relación con los avances en nuestra sociedad es la capacidad para realizar transformaciones a voluntad de la materia; actividad denominada síntesis química. La química es la ciencia que proporciona muchas de las comodidades de nuestra vida diaria, pues están basadas

en el uso de sustancias química sintéticas. Estas múltiples aplicaciones de la química la convierten en la química de lo cotidiano. La imagen de la figura 4 muestra objetos cotidianos que se fabrican a partir de sustancias químicas.

Cuando

los químicos se dieron cuenta que podían crear nuevas sustancias químicas, empezaron a buscar aplicaciones. Ya en el siglo XIX, la química era una ciencia de moda en la sociedad pues proporcionaba muchas sustancias (mejoras en la producción de alimentos, tejidos, colorantes, jabones, metales, medicamentos) que facilitaban la vida de las personas.

La

obtención de moléculas por diseño ha dado lugar a otra de las ‘visiones’ de la química como la ciencia que crea su propio objeto. En esta frase, acuñada por Berthelot (1827-1907) se recoge el carácter creativo de la química, que le hace parecer al arte, pues en palabras del Premio Nobel de química, Jean-Marie Lehn (nacido en 1937, Premio Nobel en 1987): “La química es como el arte. Por ambos caminos obtienes cosas. Con la química puedes cambiar el orden de los átomos y crear realidades que no existían”.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

84


Los límites de la química. Su relación con la física y la biología.

Debido a

que la química es la ciencia de las moléculas, que son la base de la materia que nos rodea, a los químicos nos gusta decir que “todo es química”; aunque somos conscientes que ciertas fenómenos de la naturaleza (especialmente las que tienen que ver con estructuras enormes, como las galaxias, o con muy altas energías, en los aceleradores de partículas) quedan fuera del alcance de la química.

Por otro lado,

la física intenta descifrar las leyes que rigen el Universo, desde el conjunto de galaxias hasta los componentes más pequeños de la materia. El objeto de su estudio abarca dimensiones desde 1026 m (tamaño aproximado del universo) hasta 10-16 m (tamaño de un quark, una partícula subnuclear). La física intenta explicar la naturaleza estableciendo leyes que se ajustan a los principios de las interacciones de los cuatro campos físicos: gravitatorio, electromagnético, nuclear fuerte y nuclear débil. Uno de los retos de la física es la unificación de todos los campos, estableciendo una teoría única de campos.

Como

En comparación

La posición

¿Cuáles

se ha destacado en el apartado anterior, es más adecuado definir la química como la ciencia de las cosas cotidianas, puesto que todos los seres humanos interaccionamos con miles de sustancias químicas al día: el aire que respiramos, el agua que bebemos o usamos, la comida que ingerimos, los artilugios que utilizamos, el combustible que consumimos, la ropa que vestimos, etc. central de la química en su relación con otras ciencias, indicadas en la figura 3 también pone de manifiesto que la relación entre dos ciencias distantes suele pasar a través de la química. La razón de esto es que cuando dos ciencias distantes interaccionan lo suelen hacer a través de sus componentes íntimos, las moléculas.

Aunque

la química se relaciona con muchas ciencias, su relación ha sido especial con la física y la biología. Por eso, también se ha definido la química como la ciencia que está entre la física y la biología. Esta relación tiene implicaciones históricas y temáticas. Por un lado, desde el punto de vista temático, la química comparte áreas de interés y métodos de estudio con estas dos ciencias. Desde un punto de vista histórico, el desarrollo de la química frecuentemente ha dependido de los avances en física. Por otro lado, la biología moderna, fundamentada en la bioquímica y en la biología molecular, usa técnicas y metodologías de la química.

La relación

con la física y la biología; la química, aparentemente, tiene objetos de estudio y objetivos más modestos, como se ha indicado anteriormente; aunque, no hay que olvidar que es la ciencia que proporciona todas las comodidades de nuestra vida diaria. son los límites de la �������������� química? Puesto que el objeto de su estudio son las moléculas y todo está hecho de moléculas, podemos pensar que la química estudia todo (con las excepciones comentadas anteriormente; es decir, lo que está influido por los campos gravitatorios y los nucleares). Sin embargo, tradicionalmente, los límites de la química los marca las ciencias clásicas con las que hace frontera: la física y la biología.

Se

ha dicho que la química empieza en la última capa electrónica y que el resto del átomo es ‘cosa’ de los físicos.

Es cierto

que los electrones de la capa más externa (electrones de valencia) son los que participan en las reacciones químicas, en la formación de enlaces y en las interacciones no covalentes; y muchas veces se ha dejado de lado el papel del núcleo y los electrones de las capas internas en el comportamiento químico. Sin embargo, los electrones de las capas más internas y (especialmente) los núcleos no son inocuos en química. El ejemplo más importante es el de una especie sin electrones, fundamental en química, el catión del átomo de hidrógeno, el protón [aunque debido a su gran reactividad (acidez y electrofilia), generalmente se encuentra coordinado a otras especies].

de la química con la física y la biología fija los límites y el alcance de la química. “La Química entre la Física y la Biología” Así comienza el Libro de la Química Moderna (Ediciones Omega, 1973, descatalogado, pero que se puede comprar en anticuarios) y el prefacio al mismo (por Manfred Eigen, nacido en 1927, Premio Nobel en 1967) y tiene dos connotaciones. Por un lado, da idea de la centralidad de la química como ciencia y por otro lado, intentamos ponernos a la altura de la biología y de la física, que tienen dos grandes objetivos: entender la vida y el Universo.

La

Sin duda alguna

La

, el objeto de estudio (la vida) de la biología es apasionante, lo que tiene connotaciones materiales y espirituales para el ser humano.

posición de los núcleos, su carga y masas determinan las posiciones más estables de los electrones en los átomos (la región del espacio dónde hay mayor probabilidad de encontrar al electrón) y en las moléculas determinan los mínimos en las superficies de energía potencial (las configuraciones más estables de las moléculas). posición y masa de los núcleos influyen en propiedades físico-químicas importantes como las frecuencias de vibración y rotación de las moléculas [con las aplicaciones en espectroscopia infrarroja (IR), Raman

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

85


y de microondas]. También es importante el núcleo en espectroscopia de resonancia magnética nuclear (RMN), que es una herramienta fundamental en el estudio estructural, especialmente de moléculas orgánicas; y que es debida al acoplamiento energético de un núcleo con momento magnético (los que tienen un número impar de neutrones o de protones) con un campo magnético externo.

Los núcleos

tienen importancia en cinética química, pues influyen en los efectos isotópicos cinéticos (KIE, de sus siglas en inglés, Kinetic Isotope Effect). El KIE es una herramienta valiosa en la investigación de mecanismos de reacción (estudiar en detalle como los reactivos se convierten en productos de una reacción química). Se ha encontrado que la velocidad de una reacción química depende del isótopo (átomos de un mismo elemento químico con distinto número de neutrones) del elemento que participa en la etapa limitante de la velocidad de la reacción. Cuanto mayor sea la proporción entre las masas de los dos isótopos, mayor es el efecto isotópico; por eso, el KIE más importantes se producen en las reacciones en las están implicados átomos de hidrógeno/ deuterio.

Un tema

de interés actual en química es como los efectos relativistas influyen en las propiedades químicas y químico-físicas de los átomos y moléculas; este hecho tiene especial importancia en los elementos pesados (y superpesados) del sistema periódico, dónde la velocidad de los electrones de las capas internas es muy alta (cercana a la de la luz) y hay que tener en cuenta las ecuaciones de la Teoría de la Relatividad (teoría de Dirac de la mecánica cúantica relativista).

Finalmente

, esta discusión sobre la importancia del núcleo en química no puede acabar sin mencionar la química nuclear. Aunque se ha apuntado que las interacciones nucleares son las responsables de la estabilidad/inestabilidad de los núcleos atómico y que estas son tema de la física, también es cierto que la química nuclear es una parte importante de la química, dónde investigan muchos químicos.

A partir

de la mitad del siglo XX, tras los experimentos de Avery (1877-1951) sobre la identificación del ADN como portador de la información genética, y la publicación del libro What is life? de Schrödinger (1887-1961, Premio Nobel de Física en 1933) nació una nueva ciencia, la biología molecular; que relacionada con la bioquímica, se centra en el estudio de las moléculas responsables de la transmisión de la información genética. Tanto la bioquímica como la biología molecular están estrechamente relacionadas con la química. A partir de estas dos subdivisiones de la biología ha surgido una nueva área de investigación multidisciplinar, la biomedicina, que también guarda estrecha relación con la química y que trataré en un próximo artículo. Es indudable que los límites de cada ciencia (especialmente la física, la biología y la química) son difusos (realmente siempre lo han sido) y cada vez lo serán más, debido a la mayor interdisciplinaridad de estas tres ciencias. Lo que tiene que hacer un científico moderno es saber un poco de todo y abordar los temas desde un punto de vista multidisciplinar.

Bernardo Herradón es Investigador Científico en el CSIC, trabajando en el Instituto de Química Orgánica General, investigando en temas variados en química, desde la síntesis orgánica a la toxicología computacional, pasando por materiales híbridos orgánico-inorgánico nanoparticulados, aromaticidad y compuestos biológicament activos. Es un apasionado de la transmisión de la cultura científica, manteniendo una extensa actividad en INTERNET; ‘Los avances de la química’, ‘Educación Química’, ‘Madrimasd’, charlas en centros de enseñanza, ferias científicas, cursos de divulgación y comisario científico de la exposición 'Entre Moléculas'. Puedes visitar su perfil profesional, así como su perfil personal en Facebook o Twitter.

La otra

frontera ‘clásica’ de la química está con la biología. El descubrimiento de que los compuestos orgánicos no estaban ligados a ninguna fuerza vital y que se podían preparar en el laboratorio [Wöhler (1800-1882), síntesis de la urea en 1828] fue una revolución en química. A partir de ese momento los químicos empezaron a interesarse por las reacciones químicas en los organismos vivos, siendo el origen de la química biológica o bioquímica. Esta disciplina científica se puede definir como la explicación química de los procesos de la vida y se puede clasificar tanto como una parte de la química como de la biología.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

86


The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

87


Genoma, transposones y secuencias Alu Por Raquel Buj

E

l término genoma fue acuñado por Hans Winkler en 1920 como “un baúl de viaje para genes y cromosomas”. Actualmente entendemos el genoma como la totalidad de la información genética presente en un organismo. Cada uno de nosotros tiene un genoma exclusivo que, sin embargo, es similar en un 99.8% al genoma del resto de las personas. Es esta diferencia del 0.2% la que nos hace ser únicos en el mundo.

nética del maíz. La Dra. McClintock se percató de que dentro de una mazorca convivían granos de varios colores, y que incluso diferentes zonas de un mismo grano podía presentar colores distintos. Esto contradecía las leyes de la herencia tal y como se conocían en aquel momento, ya que si el color es una característica heredada de los padres, todas las células de un organismo desarrollado a partir de un único zigoto deberían tener el mismo color. Durante su investigación, McClintock descubrió que la posición cromosómica de dos secuencias génicas (Activador y Disociador) cambiaba entre diferentes células de una misma mazorca. Estableció que en el maíz existían unos “elementos controladores” que podían mover su posición alterando el color de los granos de maíz. Cuando se hizo público este descubrimiento, la comunidad científica no le prestó mayor atención, sin embargo con el paso de los años fueron apareciendo más ejemplos en otras especies que apoyaban la idea de McClintock. El nombre “elementos controladores” fue sustituido por el de transposones o coloquialmente “genes saltarines” por su capacidad para copiarse e insertarse en nuevas posiciones genómicas [3, 4]. La Dra. McClintock fue galardonada con el Premio Nobel de Medicina y Fisiología en 1983 siendo la primera

La información que esconde el genoma humano fue descifrada en 2003 gracias a un consorcio público internacional (Proyecto Genoma Humano) y a la empresa privada Celera. A partir del análisis de esta información sabemos que únicamente el 1.5% del genoma son genes, el resto corresponde al llamado DNA no codificante (35.5%) y DNA repetitivo (63%). Este último Barbara McClintock (1902-1992). Sello expedido por el Servicio Postal de los hace referencia a varias secuencias EE.UU. 2005. de DNA que se encuentran en múltiples copias dentro del genoma. Podemos diferenciar dos mujer en recibir este galardón a título personal en dicha tipos: DNA en tándem (microsatélites, minisatélites y te- categoría. lómeros) y DNA disperso, dentro del que se engloban los “elementos móviles” o transponibles del genoma (SINEs, Desde entonces y gracias a la mejora en las técnicas de seLINEs, LTR y transposones) [1, 2]. cuenciación, sabemos que todos los genomas eucariotas estudiados contienen elementos transponibles, aunque ¿Qué es un elemento transponible? hay una gran variedad en cuanto a proporción y actividad. De hecho, muchos investigadores consideran a estos Los elementos transponibles son secuencias de DNA que elementos como una plaga intracelular que ataca a los puede moverse de forma autosuficiente por el genoma genomas hospedadores explotando sus recursos celulaen un proceso denominado transposición. Este fenómeno res [1]. Tanto es así que, en algunos casos esta plaga es fue descubierto en la década de los 40 por la estadouni- capaz de explicar por sí sola la paradoja del valor-C. Este dense Bárbara McClintock mientras estudiaba la citoge- enigma viene a cuestionar el por qué organismos sencillos The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

88


‘Actualmente entendemos el genoma como la totalidad de la información genética presente en un organismo’ tienen más cantidad de DNA que otros más complejos. Por poner un ejemplo, Hordeum vulgare (cebada cultivada) tiene un valor-C de 5Gb y un porcentaje de elementos transponibles del 55% [5, 6]. Al ser estas secuencias una plaga, cabría esperar que la selección negativa acabase con ellas, sin embargo no lo hace. Hay dos teorías al respecto, una propone que la selección purificadora (negativa) no es tan fuerte como para impedir la acumulación de estos elementos. La otra argumenta que esta plaga se tolera debido a su ocasional influencia positiva sobre la evolución de los genomas. Es esta última hipótesis la que ha cobrado mayor importancia en los últimos años [7, 8]. De todos los elementos móviles que se encuentran en el genoma humano, las secuencias Alu son las más abundantes. Se han contado 1.1 millones de estas secuencias en el genoma, esto es un Alu cada 4 Kb lo que supone un 10% de la masa total del genoma [1, 9].

¿Qué es una secuencia Alu? Las secuencias Alu son un tipo de retrotransposones (transposones de RNA) exclusivos de los genomas de primates. Clasificadas como SINEs (Short Interspersed Nucleolar Elements) reciben su nombre de la diana de restricción AluI que poseen. Su distribución dentro del genoma humano no es aleatoria, si no que tienden a acumularse preferiblemente en regiones ricas en genes [1, 10].

Box A y B en la figura 1) [11]. El movimiento de estas secuencias (retrotransposición) ocurre en tres pasos [Figura 2]. En primer lugar la RNA polimerasa III de la célula hospedadora transcribe la secuencia Alu a un RNA a partir del promotor interno (Box A y B). Como dicha secuencia no tiene señal de terminación, el transcrito se extiende hasta que aparece alguna. A continuación, una endonucleasa L1 corta su diana en algún lugar del genoma dejando un extremo rico en timinas al que se une el transcrito. Utilizando este extremo como primer, la transcriptasa inversa retrotranscribe el RNA a DNA mediándose así la ligación e integración de la Alu en un nuevo sitio genómico. Por su parte, la retrotransposición de la hebra complementaria continúa sin resolverse [1]. Las secuencias Alu, siguiendo el modelo vírico, se apoderan de la maquinaria celular para sus propios fines tomando prestadas las enzimas del hospedador. Sin embargo, los genomas eucariotas están desprovistos de transcriptasa inversa y endonucleasa L1, entonces ¿De dónde obtienen estas enzimas si como hemos mencionado anteriormente no posee ninguna ORF? Parece ser que en su expansión, las Alu se aprovechan de los productos de otros transposones del genoma humano como son los LINEs (Long Interspersed Nuclear Elements) que sí codifican la transcriptasa inversa y la endonucleasa L1 [6, 12].

¿Cuál es el origen las secuencias Alu? Los estudios filogenéticos basados en las secuencias Alu determinan que su origen y amplificación tuvo lugar hace 65 millones de años, coincidiendo con la expansión de los primates. Provienen del 7SL-RNA, componente ribonucleico esencial de la SRP (Señal de Reconocimiento de Partículas) encargada de reconocer específicamente el péptido señal de las proteínas que han de ser translocadas al retículo endoplasmático [9]. En un primer momento el 7SL-RNA sufrió una deleción de su parte central a la que se le unió un oligo-d(A) formando el monómero Alu fósil (FAM). A continuación se partió en dos dando lugar al monómero Alu fósil izquierdo (FLAM) y al monómero Alu fósil derecho (FRAM). Ambos monómeros evolucionaron por separado hasta que hace aproximadamente 65 millones de años volvieron a encontrarse y a dimerizar, originando la primera secuencia Alu. El proceso por el cual estos dos monómeros se reencontraron todavía no ha sido resuelto [9, 1, 13].

Tienen un tamaño de 300 nucleótidos y están formadas por dos monómeros similares colocados en tándem y separadas por una secuencia oligo-d(A) (un continuo de nucleótidos adenina de número variable). Carecen de pauta abierta de lectura (ORF), es decir, no contienen ninguna secuencia que codifique gen alguno. No obstante, el monómero derecho presenta una región rica en adeninas en su extremo 3’ y el izquierdo el promotor de la RNA polimerasa III (representado como Figura 1. Estructura de una secuencia Alu.

Actualmente sólo

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

89


‘Las secuencias Alu son un tipo de retrotransposones (transposones de RNA) exclusivos de los genomas de primates’ serción, expansión y tipo de secuencia. La retrotransposición de una Alu a una nueva posición genómica puede ser evolutivamente favorable. Muchas subfamilias de Alus tienen sitios de unión a proteínas que eventualmente pueden actuar como represores o potenciadores de la expresión génica. Si una de estas se inserta en las secuencias reguladoras de la expresión de un gen, podría otorgarle nuevas funciones que en ocasiones pueden ser evolutivamente favorables. En la tabla 1 se exponen algunos ejemplos en los que las inserciones han contribuido a modifica positivamente la expresión de algunos genes [14]. Figura 2. Retrotransposición de una secuencia Alu mediada por la RNA polimerasa III y la transcriptasa inversa. un pequeño porcentaje de las Alu, conocidas como master, son susceptibles de expandirse siguiendo el proceso de la retrotransposición. El resto han perdido esta capacidad debido a la acumulación gradual de mutaciones [13]. Sin embargo, la secuencia 7SL-RNA está más o menos conservada en todas las especies de primates, lo que sugiere la presencia de FLAM y FRAM en todos los linajes [9]. Las Alus se han insertado en los genomas de primates con tasas variables, la más alta se postula que tuvo lugar hace 55 millones de años generando la subfamilia Alu-Sx. En los últimos 4 a 6 millones de años, después de la divergencia entre humanos y monos africanos, se dieron algunas expansiones de subfamilias de Alus “jóvenes” que todavía no se han fijado en el genoma humano. Esto genera un polimorfismo debido a la presencia y/o ausencia de dichas secuencias [Figuras 3 y 4] [1, 9].

¿Cómo afecta al genoma la presencia de las secuencias Alu? La expansión de estas secuencias en el genoma tiene varias consecuencias resultado de su in- Figura 3: Superposición de la expansión de las secuencias Alu sobre el árbol evolutivo de los primates The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

90


Figura 4. Expansi贸n de las secuencias Alu en los genomas humanos y generaci贸n de polimorfismos The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

91


Sin embargo esto no es lo normal, generalmente la translocación de secuencias en las regiones reguladoras es muy perjudicial, ya que distorsiona el patrón de expresión de un gen bien regulado. Por otro lado, la inserción de una Alu dentro de la secuencia codificante de un gen, provoca la ruptura de su pauta de lectura. Esto hace que el gen sea incapaz de codificar una proteína correcta, lo que tiene evidentes efectos negativos. De hecho algunas enfermedades como neurofibromatosis, cáncer de mama o Sindrome de Apert están asociadas a este tipo de inserciones. Por otro lado y de forma natural, durante la meiosis que origina las células germinales, tiene lugar la llamada recombinación homóloga. Este proceso consiste en el intercambio de información entre los cromosomas homólogos, es decir, entre cada uno del par de cromosomas que existe dentro del organismo eucariota diploide. Esto promueve la diversidad genética y explica el por qué los hermanos (hijos de los mismos padres) pueden ser radicalmente diferentes. Todos contienen la mitad del DNA de su padre y la mitad de su madre, pero estas mitades no tienen por qué ser necesariamente las mismas gracias a la recombinación homóloga. Cuando esta recombinación tiene lugar entre dos secuencias de un par de cromosomas no homólogos se dice que es desigual o no homóloga y causa deleciones, duplicaciones y translocaciones de material genético. Debido a la elevada homología de secuencia entre las Alus y a su alta frecuencia en el genoma, es habitual que se produzcan este tipo de recombinaciones con el consecuente efecto negativo sobre el genoma. Algunos de los desórdenes asociados son la enfermedad de Tay-Sachs, α-talasemia, el síndrome de Lesch-Nyhan o la hipercolesterolemia familiar. Con todo, en algunos momentos este proceso ha sido beneficioso generando diversidad, un ejemplo es la diversificación de los genes de la tropoelastina durante la evolución de los primates [1]. En conclusión, el estudio del origen de las secuencias Alu, así como su mecanismo de expansión y diversificación, nos ayuda a entender un poquito mejor la evolución de los genomas. Como hemos visto, los polimorfismos causados por la inserción de Alus son buenos marcadores en los estudios de evolución, ya que se producen por un único evento mutacional de manera que podemos conocer el estado actual y ancestral (de no inserción). Además, la expansión de las secuencias Alu causa múltiples patologías. Se estima que aproximadamente el 0.5% de los desórdenes genéticos en humanos se deben directamente a la inserción o recombinación no homóloga de las Alus.

M, Panaud O, Paux E, SanMiguel P, Schulman AH. Nat Rev Genet. 2007. 8(12):973-82. 3. The significance of responses of the genome. ������� McClintock B. Science. 1984. 226:792-801. 4. Two genes, no enzyme: a second look at Barbara McClintock and the 1951 Cold Spring Harbor Symposium. Comfort NC. 1995. 140(4):1161-6. 5. The influence of transposable elements on genome size. Biémont C, Vieira C. J Soc Biol. 2004. 198(4):413-7. 6. Reverse transcriptase encoded by a human transposable element. Mathias SL, Scott AF, Kazazian HH Jr, Boeke JD, Gabriel A. Science. 1991. 20;254(5039):1808-10. 7. Selfish DNA: the ultimate parasite. Orgel LE, Crick FH. Nature. 1980. 17;284(5757):6048. Genomic scrap yard: how genomes utilize all that junk. Makałowski W. Gene. 2000. 23:259(1.2):61-7. 9. Alu sequences. Mighell AJ, Markham AF, Robinson PA. FEBS Lett. 1997. 3;417(1):1-5. 10. Alu distribution and mutation types of cancer genes. Zhang W, Edwards A, Fan W, Deininger P, Zhang K. BMC Genomics. 2011. 23;12:157. 11. Alu elements as regulators of gene expression. Häsler J, Strub K. Nucleic Acids Res. 2006;34(19):5491-7. 12. LINE-mediated retrotransposition of marked Alu sequences. Dewannieux M, Esnault C, Heidmann T. Nat Genet. 2003. 35(1):41-8. 13. Evolutionary  history  of  7SL RNA-derived  SINEs  in  Supraprimates. Kriegs JO, Churakov G, Jurka J, Brosius J, Schmitz J. Trends Genet. 2007. 23(4):158-61. 14. DNA sequence  insertion  and evolutionary  variation in gene regulation. Britten RJ. Proc Natl Acad Sci U S A. 1996. 3;93(18):9374-7.

Raquel Buj es una estudiante de doctorado amante de los gatos, y cuando no está entre pipetas podéis encontrarla en su blog ‘Locos por la Biología’ o en Twitter, como @Bioyupi

Bibliografía: 1. Alu repeats and human genomic diversity. Batzer MA, Deininger PL. Nat Rev Genet. 2002. 3(5): 370-9. 2. A unified classification system for eukaryotic transposable elements. ������������������������������������� Wicker T, Sabot F, Hua-Van A, Bennetzen JL, Capy P, Chalhoub B, Flavell A, Leroy P, Morgante The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

92


¿Qué tienen de raro las enfermedades raras”? Por Carlos Romá Mateo


L

o primero que suele venir a la cabeza cuando se habla de enfermedades raras es que se les llame así por ser unas patologías extrañas: uno podría pensar que sus síntomas, causas o consecuencias pudieran ser algo absolutamente extravagante (como ponerse de color verde, que salgan pelos en las plantas de los pies o aullar compulsivamente las noches de luna llena). Pero recordemos que “raro” puede referirse a escaso, poco frecuente, y es precisamente ésta la acepción que nos interesa. Las enfermedades raras tienen las mismas bases Tanto las asociaciones de pacientes como FEDER (izquierda) y las iniciativas públicas de investigación como los programas moleculares que cualquier otra enfermedad, los síntomas CIBER (derecha) participan de la estrategia de agrupar a que producen no tienen nada de distinto, pero son muy distintos grupos de afectados o grupos de investigadores, poco frecuentes en las poblaciones humanas. Por esta respectivamente. razón también se les llama “minoritarias”, “huérfanas”o “poco frecuentes”. Para que una enfermedad sea considerada “rara”, debe afectar a menos de 5 individuos la financiación, nos encontramos con algo parecido: que por cada 10.000 en una misma población, según un gobierno destine fondos para investigar una patología criterios de la Unión Europea. Pero no entraremos que afecta a cuatro personas será siempre secundario en números, pues el criterio varía según los países: ante la posibilidad de financiar un estudio centrado en un tipo de cáncer que afecta a miles. ¿Qué se intenta hacer quedémonos con el concepto para solventar estos problemas? de que estas enfermedades son La estrategia más exitosa ha poco frecuentes. ¿Existe una Las enfermedades sido precisamente agrupar estas explicación a esta baja frecuencia? patologías dentro de una misma raras tienen las Muchas de estas enfermedades categoría, para conseguir fondos, son de origen genético y tienen un mismas bases concienciación en la sociedad… carácter recesivo (esto significa que moleculares que en el aspecto más social, las para que un individuo manifieste cualquier otra asociaciones de pacientes tanto sus síntomas debe ser portador dentro de una misma enfermedad enfermedad, los de dos copias defectuosas de como las que aglutinan a un mismo gen). Sin embargo, síntomas que pensemos en la cantidad de genes producen no tienen muchas de ellas (en nuestro país, FEDER [1] por ejemplo); presentes en el genoma humano nada de distinto, dentro del mundo investigador, que pueden estar mutados en sus se crean departamentos o incluso pero son muy dos copias sin llegar a producir instituciones que reúnen a una muerte directa al feto antes poco frecuentes distintos grupos de investigación del nacimiento: sin necesidad de en las poblaciones con el denominador común de hacer cálculos, podemos imaginar estudiar una enfermedad rara humanas que son muchísimas. Si pensamos (es el caso del CIBERER [2]). Si en las enfermedades raras como pasamos de muchas poblaciones un conjunto de patologías, nos de afectados aisladas, a estudiarlas todas en su conjunto, encontramos entonces con un número que supera los atajamos también el problema de la insuficiencia de datos. 6000 tipos de enfermedades raras distintos, cada una con sus particularidades y sus diferentes síntomas. ¿Cómo Bien, supongamos que tenemos datos suficientes y fondos puede abordarse su estudio? holgados, gracias a estas estrategias de aglutinación de recursos. Ahora, centramos nuestros esfuerzos en una de esas patologías en concreto: ¿con qué dificultades pasaremos a encontrarnos? Estudiando enfermedades raras: mejor en equipo Con estos primeros datos se nos plantean automáticamente una serie de cuestiones que conforman el núcleo de la dificultad en la investigación y tratamiento de las enfermedades raras. Tomadas de manera individual, estas patologías afectan a tan bajo número de individuos que su estudio en poblaciones concretas y cerradas es casi imposible: imaginemos que sólo disponemos de tres o cuatro individuos para analizar muestras, probar tratamientos, hacer un seguimiento de los síntomas... Por otro lado, estudios genéticos profundos requieren un seguimiento genealógico de las familias; de nuevo el bajo número presenta un inconveniente. Respecto a

Ya se ha mencionado que la mayoría de estas enfermedades tienen un origen genético. Siendo muy reduccionistas, podríamos decir que gracias a la secuenciación del genoma humano es cada día más fácil identificar las causas primeras de cualquier patología, o al menos conocer qué genes se encuentran afectados. Dado que ignoramos para qué sirven la mayoría de genes codificados por nuestro material genético, esto tampoco significa una solución inmediata: pero sí podemos empezar directamente las investigaciones centrándonos en pocos genes, reproduciéndolos en nuestro laboratorio y sometiéndolos a todo tipo de análisis y experimentos.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

94


De este modo iremos desgranando su tamaño, las partes que lo forman, su relación con otros genes y con suerte, en última instancia, su función. Pasaríamos entonces a intentar explicar las consecuencias últimas halladas en los pacientes, que concuerden con sus síntomas y todo lo que se halle en muestras de tejido, consiguiendo enlazar las funciones del gen (o los genes) y las proteínas implicadas. Llegados a este punto, la búsqueda de una solución a la enfermedad sería no inmediata, pero sí mucho más factible. Conviene matizar para aquellos no familiarizados con la investigación a nivel molecular, que esta cadena de acontecimientos no es lineal, en absoluto. A menudo se trabaja desde muchos frentes a la vez, y es la combinación de resultados provenientes de distintos campos la que puede dar forma a los hechos. Los genetistas y biólogos moleculares pueden analizar las mutaciones de los pacientes y diseccionar el producto proteico, mientras los patólogos estudian a los pacientes, intentan paliar sus síntomas, obtienen tejido de pacientes tanto vivos como fallecidos… es clave de nuevo el trabajo en equipo y la comunicación entre los distintos grupos para que los datos puedan dirigir a unos y otros en la dirección correcta. Desde que las enfermedades raras se han agrupado en una categoría equiparable a la de enfermedades

neurodegenerativas o todos los tipos de cáncer, se ha avanzado mucho en su estudio. La estrategia de agruparse tiene el mismo efecto en la vertiente social del problema de las enfermedades raras. Normalmente las personas afectadas se encuentran muy desvalidas frente a las prioridades de gobiernos, entidades financieras y la sociedad en general: es muy común escuchar reivindicaciones de agrupaciones de enfermos, eventos que reúnen dinero para mejorar sus condiciones y facilitar tratamientos y proyectos de investigación. Enfermedades como la fibrosis quística, la ataxia de Friedrich o el síndrome de Tourette son conocidas para el gran público por distintas razones, ya sea por haberse asociado los pacientes desde hace mucho tiempo y conseguido llegar a la opinión pública, por presentar síntomas muy peculiares, o por haber sido padecidas por personajes conocidos. Lamentablemente, vivimos en una sociedad donde siempre se va a priorizar el beneficio de la mayoría y donde no hay recursos suficientes para todos. El asociarse bajo un mismo nombre es una gran ventaja, pero aún hay quien piensa que destinar tiempo y dinero a investigar enfermedades sufridas por personas que se cuentan con los dedos de las manos, es un despilfarro y una triste imposibilidad. Pero lo que no se suele explicar con bastante hincapié son los beneficios

Primera página del trabajo donde se describió por primera vez lo que más tarde se llamaría “enfermedad de Lafora” (izquierda; [3]). A la derecha, dibujo de esa misma publicación donde se resalta el aspecto de los gránulos de poliglucosanos presentes en las neuronas. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

95


derivados del estudio de enfermedades raras. Y llegamos por fin al meollo de la cuestión y el propósito principal de este artículo: demostrar mediante un ejemplo concreto que la lucha contra las enfermedades raras no es algo que beneficie a unos pocos individuos, sino a la sociedad en su conjunto.

Un ejemplo concreto: la rara enfermedad de Lafora

Más de quince años después, efectivamente, conocemos muchísimo más acerca de laforina y sus características. Pero el camino ha sido tortuoso: se descubrió otro gen cuya alteración producía los mismos síntomas [5], y experimentalmente se demostró que el producto de dicho gen, la proteína malina, formaba un complejo funcional con laforina [6]. Así pues, ahora se aborda la enfermedad desde el estudio del complejo laforinamalina. Conozcámoslas un poco mejor.

Laforina pertenece a la superfamilia de las fosfatasas. Su nombre completo es en realidad epilepsia mioclónica Son proteínas con actividad enzimática, es decir que progresiva de tipo Lafora. Es tan rara, que ningún médico favorecen reacciones químicas en las que un grupo fosfato con el que me haya topado la había oído mencionar antes. es eliminado de otra molécula. La adición de fosfatos De su nombre se deducen sus principales síntomas: los (fosforilación) a las proteínas producen alteraciones en su afectados sufren crisis epilépticas, degeneración muscular, función que pueden manifestarse de distintas maneras: y en apenas diez años desde que se manifiestan las pueden activarlas, inhibirlas, facilitar o interrumpir su primeras crisis (que suele ser en la adolescencia) mueren interacción con otras moléculas, afectar a su estructura por las complicaciones, principalmente por imposibilidad o a su estabilidad. Este tipo de procesos de fosforilación y respiratoria. Son síntomas devastadores, y no existe una desfosforilación son críticos en las rutas de transducción cura para ellos, apenas algunos tratamientos paliativos de señales intracelulares, que son la manera mediante que retrasan el fatal desenlace. la cual las células regulan su Hace exactamente cien años funcionamiento y responden a se describieron las primeras estímulos externos mediante La rara enfermedad particularidades de esta cambios en su expresión génica, patología, por el investigador de Lafora. en última instancia. que le da nombre: Gonzalo Rodríguez Lafora. En un trabajo “Su nombre completo Dentro del grupo de las de 1911 publicado durante fosfatasas laforina es muy es en realidad su estancia en Alemania [3], particular, pues es la única capaz epilepsia mioclónica el investigador describió las de unirse a los carbohidratos anomalías encontradas en progresiva de tipo como el glucógeno. Sin muestras de tejido nervioso embargo, todavía existe Lafora. Es tan rara, de un paciente fallecido polémica en cuanto a si la que ningún médico aquejado de esta serie de crisis función de laforina consiste con el que me haya epilépticas. Lo más llamativo sencillamente en unirse al era que en las neuronas se glucógeno y eliminar grupos topado la había oído hallaron unos gránulos que fosfato que pudieran dar lugar mencionar antes” resultaron ser acumulaciones a la formación de los gránulos de glucógeno (el almacén encontrados en los pacientes energético más inmediato de Lafora, o por el contrario de nuestras células, formado por concatenaciones existe alguna proteína a la que laforina libere de sus de moléculas de glucosa). Se desconocía entonces, y grupos fosfato para regular su función. Recientemente todavía existe controversia al respecto, si estos granos se ha descubierto que laforina a su vez es regulada por de glucógeno alterado (bautizados también en honor a fosforilación, lo cual podría estar afectando a su actividad su descubridor como “cuerpos de Lafora”; desconozco como fosfatasa al producir cambios importantes en su si realmente semejante nombrecito le hubiera parecido estructura [7]. un honor al doctor) eran los responsables directos de la muerte neuronal o una consecuencia de otro fallo Bien, fijémonos ahora en malina. En este caso se trata desconocido. Durante los años siguientes, poco se avanzó de una enzima ubicuitina ligasa. En esta categoría se en conocer las causas de la enfermedad. La genealogía encuentran proteínas implicadas en un proceso crítico de los pacientes apuntaba a un fallo genético de carácter para el funcionamiento celular: la señalización por recesivo, lo cual la hacía muy poco frecuente, siendo ubicuitina regula principalmente la eliminación de mayor la incidencia en poblaciones con alta proporción proteínas que pudieran ser causa de alteraciones en el de relaciones endogámicas. Hasta casi noventa años funcionamiento celular, bien por encontrarse en estado después, no se identificó el gen afectado [4], pero a partir defectuoso o por no requerirse de su función en ese de aquí todo avanzó más rápidamente. Se bautizó a su preciso momento. Actuando conjuntamente con otras producto proteico como laforina, y se pensó de manera proteínas similares, se etiqueta a las proteínas con optimista que se estaba cerca de conocer la causa y la pequeñas moléculas (ubicuitinas) que forman una cadena y dirigen a sus objetivos hacia su degradación o, en posible solución de la enfermedad. algunos casos concretos, hacia un destino diferente. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

96


es apabullante, y siguen apareciendo evidencias de otras rutas de señalización y procesos celulares en los que al parecer tanto laforina como malina podrían tener un papel: regulación de proteínas mal plegadas, respuesta a estrés en el retículo endoplásmico, regulación de la respuesta a insulina [10-15] e incluso (aunque de manera más controvertida) en cáncer [16-18]. Pocas moléculas en las células actúan de una única y exclusiva manera, y en solitario. Pero hay algo beneficioso en todo esto: al aparecer relaciones con otras moléculas y procesos biológicos, se producen descubrimientos que tal vez no se hubiesen dado de otro modo, o que hubieran tardado mucho más. En el caso que nos ocupa, los estudios a nivel filogenético (es decir, el estudiar la historia evolutiva de los genes codificantes de laforina y malina) nos han demostrado no sólo que ambas proteínas tienen un origen distanciado evolutivamente (esto arroja luz sobre la posibilidad de que ambas realicen funciones independientes, no sólo actuando en conjunto), sino que Esquema de la estructura de laforina y malina. (A) Laforina está formada por un dominio amino terminal de unión a carbohidratos (CBD, en rojo) y un dominio además malina tiene un origen común al de otra familia de proteínas distintas: fosfatasa de doble especificidad (DSPD, en azul). Dado que todavía no se ha en concreto, se halla estrechamente publicado la estructura de laforina, se representa un modelo informático del posible aspecto tridimensional de ambos dominios por separado (modificado relacionada a nivel bioquímico y molecular de [8]). (B) Malina está formada por un dominio amino terminal tipo RING con una proteína denominada TRIM32 crítico para la actividad ubicuitina ligasa, y seis repeticiones que forman [19-21]. Se había descrito previamente dominios NHL. El modelado informático de dichos dominios muestra su que mutaciones en TRIM32 son la base disposición en forma de barril, la cual es crucial para establecer interacciones de un tipo concreto de distrofia muscular, con otras proteínas. y ahora conocemos que además esta proteína es capaz de modificar algunos de Pese a tener una naturaleza molecular totalmente los sustratos de malina [21]. El hecho de distinta, la interacción entre laforina y malina es lo que que existan estos puntos en común nos acerca a descubrir permite la regulación del metabolismo del glucógeno los detalles moleculares más finos que hacen diferente la en determinadas situaciones. Ni el científico más genial actuación de TRIM32 y malina, siendo ambas proteínas del momento podría haber imaginado a priori que era el no sólo “parientes” evolutivamente hablando, sino a nivel trabajo en equipo entre estas dos proteínas lo que fuese bioquímico, molecular y estructural tremendamente crítico para el desarrollo de la enfermedad. Se presentó parecidas. Y si esto parece sorprendente, terminaré la entonces una hipótesis mediante la cual laforina se une sección diciendo que gran parte de la información que por un lado a malina, y por otro al glucógeno: una vez tenemos acerca de laforina y sus características ha sido allí, malina se encuentra con las proteínas reguladoras recabada gracias a comparaciones con otra proteína con la de la síntesis del glucógeno, las etiqueta y son degradas, que comparte gran parecido estructural y funcional. Nada deteniendo el proceso. En el caso de que una u otra más y nada menos que una proteína de plantas, capaz de estén alteradas, el glucógeno seguiría acumulándose y desfosforilar el almidón [22-23] (recordemos que es la probablemente esto es lo que sucede en las neuronas que manera de almacenar glucosa que tienen las plantas, de en condiciones normales no producen este compuesto. Si modo equivalente al glucógeno de mamíferos). Sí amigos, añadimos el hecho de que laforina sería capaz de eliminar puede empezarse un trabajo estudiando bioquímica de las las moléculas de fosfato añadidas en exceso o por error plantas y acabar desgranando los detalles de una rarísima a estas acumulaciones de glucógeno [9], tenemos un enfermedad humana: así de increíble es la ciencia. Y ya panorama bastante factible de qué es lo que sucede que nos hemos metido en el tema de las plantas, viene cuando una u otra proteínas son incapaces de realizar sus de perillas recordar una conocida expresión para titular el tareas. último apartado del artículo. Seguramente la cosa parece ahora más complicada que al principio. El problema es que no acaba aquí: la complejidad a la que pueden llegar los sistemas biológicos The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

97


distintos grupos en todo el mundo han demostrado que existe una relación entre el complejo laforinamalina, la señalización intracelular por cascadas de fosforilación, la regulación del metabolismo del glucógeno, y la degradación de proteínas. Todos estos son procesos generales del funcionamiento celular. La relación final entre estos procesos y el desarrollo de la enfermedad, así como una posible cura, todavía están lejanos: pero en el transcurso de estas investigaciones, se han establecido paralelismos con otras patologías. No olvidemos que la respuesta a proteínas mal plegadas, que se regula mediante ubicuitinación entre otros procesos, se encuentra alterada en muchas patologías neurodegenerativas de frecuencia Posibles explicaciones para la formación de los cuerpos de Lafora. La función de laforina mucho mayor que la enfermedad consistiría en evitar que un exceso de fosfatos impidiese la correcta fosforilación del de Lafora.

glucógeno mediando exclusivamente su actividad como fosfatasa (izquierda; modificado de [24]). Este mismo efecto podría conseguirse actuando conjuntamente con malina, dirigiéndola hacia el glucógeno y permitiendo que ésta etiquetase las enzimas reguladoras del glucógeno, produciendo su degradación e inhibiendo una acumulación excesiva (derecha; modificado de [25]). Recientemente se ha propuesto que la única razón por la que se acumula fosfato en el glucógeno es por errores cometidos por la enzima ramificadora, en cuyo caso laforina actuaría sólo como una molécula “correctora” que eliminaría dichos grupos fosfato (abajo; modificado de [9]).

Estudiar los árboles para poder entender el bosque La defensa de la investigación como un objetivo en sí mismo, más que un simple método de llegar a unos descubrimientos o aplicaciones concretos, requiere a veces de una justificación que debería ser innecesaria. No está plenamente asumido que el conocimiento per se beneficie a las sociedades modernas, y se tiende a exigir una aplicación explícita y concreta para la inversión tanto de recursos humanos como de capital en determinadas áreas del conocimiento. Aunque en el área de la biomedicina suele ser más fácil obtener esta justificación, a veces nos encontramos con casos como el expuesto en este artículo: es difícil de explicar cómo puede el estudio de enfermedades que aquejan a un puñado de individuos beneficiar al resto, cómo este trabajo puede hacer avanzar a la ciencia y a la medicina. Sin embargo, ejemplos como el de la enfermedad de Lafora - de la que en nuestro país en la actualidad apenas encontramos una decena de afectados - nos demuestran que el estudiar una patología así de infrecuente durante estos cien años nos ha proporcionado una imagen de lo que sucede en el interior de nuestras células que es de capital importancia no sólo para entender y luchar contra sus terribles efectos, sino para entender nuestra fisiología e incluso para comprender mejor otras enfermedades que poco o nada parecen tener que ver. Trabajos de

El estudio de las enfermedades raras produce una nada desdeñable cantidad de datos que nos acercan al funcionamiento más detallado de los mecanismos moleculares de nuestro organismo. Esto nos demuestra que jamás se debe despreciar el conocimiento en sí mismo: es una lucha que la investigación de carácter básico ha tenido que mantener (que todavía hoy mantiene) con los proveedores de fondos desde su misma existencia. La limitación de la financiación es algo imposible de solucionar, por ahora: pero al menos debemos intentar demostrar que los avances del conocimiento tienen consecuencias beneficiosas en sí mismos. Debemos ser conscientes de que nuestro organismo funciona siguiendo unas mismas instrucciones, llevadas a cabo por unos mismos efectores. Cuanto más rara sea la enfermedad, más recóndito será el fallo molecular que oculta, y en consecuencia, más detallada la información que nos puede dar acerca del funcionamiento de nuestra biología. En definitiva, podríamos decir que el popular dicho “no dejar que los árboles impidan ver el bosque” tiene una interpretación totalmente distinta desde una perspectiva científica: si nos detenemos el tiempo suficiente a estudiar todos y cada uno de los árboles, apreciando las similitudes y diferencias entre ellos, será más fácil entender las relaciones que los conectan, los rasgos que los caracterizan y el aspecto que nos ofrecen. Gracias a todo este conocimiento, tal vez estemos cada vez más cerca de poder entender cómo podemos salvar el bosque.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

98


Referencias: 1. 2. 3. 4.

5. 6.

7.

8.

9. 10. 11.

12.

13.

14.

15.

16.

17. 18.

Federación Española de Enfermedades Raras http:// www.enfermedades-raras.org/. Centro de Investigación Biomédica en Red de Enfermedades Raras http://www.ciberer.es/. Lafora, G.R. and B.Z. Glueck, Beitrag zur histpathologie der myoklonischen Epilepsie. Ges Neurol Psychiat., 1911. 6: p. 1-14. Serratosa, J.M., et al., The gene for progressive myoclonus epilepsy of the Lafora type maps to chromosome 6q. Hum Mol Genet, 1995. 4(9): p. 165763. Chan, E.M., et al., Genetic mapping of a new Lafora progressive myoclonus epilepsy locus (EPM2B) on 6p22. J Med Genet, 2003. 40(9): p. 671-5. Gentry, M.S., C.A. Worby, and J.E. Dixon, Insights into Lafora disease: malin is an E3 ubiquitin ligase that ubiquitinates and promotes the degradation of laforin. Proc Natl Acad Sci U S A, 2005. 102(24): p. 8501-6. Dukhande, V.V., et al., Laforin, a dual specificity phosphatase involved in lafora disease, is present mainly as monomeric form with full phosphatase activity. PLoS One, 2011. 6(8): p. e24040. Romá-Mateo, C., et al., Laforin, a dual specificity protein phosphatase involved in Lafora disease, is phosphorylated at Ser25 by AMP-activated protein kinase. Biochem J, 2011. Roach, P.J., Are there errors in glycogen biosynthesis and is laforin a repair enzyme? FEBS Letters, 2011. 585(20): p. 3216-3218. Puri, R. and S. Ganesh, Laforin in autophagy: a possible link between carbohydrate and protein in Lafora disease? Autophagy, 2010. 6(8): p. 1229-31. Rao, S.N., et al., Sequestration of chaperones and proteasome into Lafora bodies and proteasomal dysfunction induced by Lafora disease-associated mutations of malin. Hum Mol Genet, 2010. 19(23): p. 4726-34. Sengupta, S., et al., Malin and laforin are essential components of a protein complex that protects cells from thermal stress. J Cell Sci, 2011. 124(Pt 13): p. 2277-86. Sharma, J., et al., Lafora disease ubiquitin ligase malin promotes proteasomal degradation of neuronatin and regulates glycogen synthesis. Neurobiol Dis, 2011. 44(1): p. 133-41. Vernia, S., et al., Increased endoplasmic reticulum stress and decreased proteasomal function in lafora disease models lacking the phosphatase laforin. PLoS One, 2009. 4(6): p. e5907. Vernia, S., et al., Laforin, a dual specificity phosphatase involved in Lafora disease, regulates insulin response and whole-body energy balance in mice. Hum Mol Genet, 2011. 20(13): p. 2571-84. Liu, Y., et al., Dimerization of Laforin is required for its optimal phosphatase activity, regulation of GSK3beta phosphorylation, and Wnt signaling. J Biol Chem, 2006. 281(46): p. 34768-74. Lohi, H., et al., Novel glycogen synthase kinase 3 and ubiquitination pathways in progressive myoclonus epilepsy. Hum Mol Genet, 2005. 14(18): p. 2727-36. Puri, R., et al., Hyperphosphorylation and aggregation of Tau in laforin-deficient mice, an animal model for

19.

20.

21.

22.

23.

24. 25.

Lafora disease. J Biol Chem, 2009. 284(34): p. 2265763. Frosk, P., et al., Limb-girdle muscular dystrophy type 2H associated with mutation in TRIM32, a putative E3ubiquitin-ligase gene. Am J Hum Genet, 2002. 70(3): p. 663-72. Kudryashova, E., et al., Trim32 is a ubiquitin ligase mutated in limb girdle muscular dystrophy type 2H that binds to skeletal muscle myosin and ubiquitinates actin. J Mol Biol, 2005. 354(2): p. 413-24. Romá-Mateo, C., et al., Lafora disease E3-ubiquitin ligase malin is related to TRIM32 at both the phylogenetic and functional level. BMC Evol Biol, 2011. 11: p. 225. Hejazi, M., et al., The Laforin-like dual-specificity phosphatase SEX4 from Arabidopsis hydrolyzes both C6- and C3-phosphate esters introduced by starchrelated dikinases and thereby affects phase transition of alpha-glucans. Plant Physiol, 2010. 152(2): p. 71122. Kotting, O., et al., STARCH-EXCESS4 is a laforin-like Phosphoglucan phosphatase required for starch degradation in Arabidopsis thaliana. Plant Cell, 2009. 21(1): p. 334-46. Gentry, M.S., J.E. Dixon, and C.A. Worby, Lafora disease: insights into neurodegeneration from plant metabolism. Trends Biochem Sci, 2009. Solaz-Fuster, M.C., et al., Regulation of glycogen synthesis by the laforin-malin complex is modulated by the AMP-activated protein kinase pathway. Hum Mol Genet, 2008. 17(5): p. 667-78.

Carlos Romá Mateo se licenció en Bioquímica por la Universitat de València en 2003, para posteriormente realizar la tesis doctoral en el laboratorio de Biología Molecular del Cáncer en el Centro de Investigación Príncipe Felipe. El tema de su tesis versó sobre fosfatasas de bajo peso molecular implicadas en señalización intracelular. Desde 2009 trabaja como investigador postdoctoral CIBERER en el Laboratorio de Señalización por Nutrientes del Instituto de Biomedicina de Valencia-CSIC, estudiando las bases moleculares de la epilepsia mioclónica progresiva de tipo Lafora. También es el creador y principal redactor del blog científico-lúdico “¡Jindetrés, sal!”, bajo la identidad secreta de @DrLitos

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

99


NARVALES

LEYENDA

Por Leticia Puerta “Cuenta la mitología inuit que los narvales con colmillos fueron creados cuando una mujer, que cazaba estos animales junto a su hijo, fue arrastrada por uno muy grande a las profundidades. Ella entonces se convirtió en un narval y su pelo, que llevaba en un moño enrollado, se convirtió en cuerno”1 (Dawn Elaine Bastian, Judy K. Mitchell. “Handbook of Native 1

American mythology”)

Namok conocía bien la historia y así se lo transmitió a sus hijos, una mañana en la que un grupo de hombres partía en busca de tan preciado animal.

Foto 3. Grupo de machos y hembra


A VIVA DEL UNICORNIO

as de narvales en una de las calles formadas en la placa de hielo. Foto de Paul Nicklen (National Geographics.)


L

os inuits conocían la dureza de aquellas tierras heladas, los más veteranos les enseñaron que con la llegada del verano y la rotura de los hielos aparecerían los tan respetados unicornios que le alimentarían durante todo el invierno y le proporcionarían todo tipo de utensilios para la caza y el trueque para poder sobrevivir. El sol hacía aparecer sus primeros y más brillantes rayos a través del horizonte, dotando a la tundra Ártica de los más bellos y puros colores. Para Namok y el resto de hombres el frío no les hacía ver más allá de la mirilla de su rifle que, con tan suma precisión, apuntaban a las calles de agua, las cuales se abrían entre las capas de hielo recién resquebrajadas, a la espera de que aparecieran sus presas más codiciadas: los narvales. Han esperado todo un año su llegada y lo que le sobra a Namok es la paciencia, cosa que no se podía decir de los más jóvenes e impacientes del grupo, deseosos de demostrar su llegada a la madurez y que ello les hacían cometer errores de precisión a la hora de disparar a su presa con lo que perdían la pieza, razón por la que Namok odiaba ir de caza junto con los jóvenes. Justo cuando hacía presencia la ráfaga más gélida de la mañana, en una de las calles apareció el primer diente helicoidal, instantes después surgieron a su lado cuatro dientes más. En ese momento y con el pulso de un cirujano, Namok, apuntó a la cabeza del macho de mayor tamaño. Sólo un tiro certero en el cerebro o en la columna vertebral heriría a su presa otorgándole el suficiente tiempo para capturarla antes de que se perdiera en la inmensidad del océano.

Europa. Los inuits los cambiaban por utensilios y comida, y los vikingos los comercializaban como “cuernos de unicornio” con propiedades curativas y cuyas limaduras inhibían cualquier veneno, de forma que con los dientes del narval se elaboraron copas destinadas a los nobles y evitar así que intentaran envenenarlos (en aquella época estaba de moda la homeopatía). Por este motivo los vikingos y otros comerciantes nórdicos en ocasiones lo hacían valer su peso en oro. Pero no fue hasta mediados del siglo XVI cuando Conrad Gesner publicó un dibujo de un narval, colocando, hasta ahora, el cuerno del unicornio en la cabeza de un pez y desmitificando la leyenda. A partir de ahí, y aunque con mucha discusión sobre su existencia, se empezó a conocer al animal que se ocultaba tras el mito del unicornio. Los narvales son animales realmente maravillosos, raros, muy poco conocidos y con una mochila llena de leyendas a sus espaldas, personalmente y visto desde un punto de vista subjetivo, al escribir éste artículo y conocer al animal a fondo puedo decir que su historia y su relación con el ser humano es apasionante.

‘Aunque no se considera una especie en peligro de extinción, la contaminación, la sobrepesca y la utilización de armas de fuego entre nativos, están haciendo que haya una alarmante disminución en las poblaciones de narvales’

Aunque no se considera una especie en peligro de extinción, la contaminación, la sobrepesca y la utilización de armas de fuego entre nativos, están haciendo que haya una alarmante disminución en las poblaciones de narvales y el hecho de que el narval no esté catalogado como especie amenazada no es porque no se encuentre en peligro, es porque aún no hay datos suficientes sobre ellos. Durante siglos los inuits han cazado narvales. Tanto entonces como ahora necesitan de su carne para poder sobrevivir durante todo el invierno, de sus tendones para fabricar cuerdas, con sus huesos construyen trineos y utensilios de caza, y tanto su piel como su grasa (llamada muktuk) les sirve de alimento y como fuente de vitamina C, de fundamental importancia, pues ellos no disponen de frutas y hortalizas de forma natural. A todo ello debemos añadirle, también, los preciados colmillos de marfil. Probablemente, durante la Edad Media, los vikingos fueron los primeros en traer dientes de narval a

Narval proviene del nórdico antiguo y significa “cadáver de ballena” debido a que su piel moteada gris y el color de su dorso se asemeja a los cadáveres de los marineros que morían en el mar. El nombre científico,  Monodon monoceros, se deriva del  griego: Monodon “un solo diente” y monoceros que significa “unicornio”.

Los narvales fueron descritos por Linneo en 1758 en su obra Systema Naturae. Junto con las Belugas, son las únicas especies cetáceas actuales de la familia Monodontidae, aunque muchos de los taxónomos han asignado a la beluga a otra familia o subfamilia (Tabla 1). Cuando se observa un narval por primera vez, no creo que sea posible olvidar esa imagen, tu cerebro hace una fotografía perfecta del animal, describe cada detalle; su piel es suave, en los adultos se dibuja a lo largo del dorso y parte superior de los costados motas de color blancas y negras; llegando a ser blancos con algunas áreas negras en el centro de la espalda, la parte superior de la cabeza y los bordes de las aletas los individuos de más edad. Al nacer presentan una coloración gris clara homogénea que se torna a casi negra durante el destete pero a medida que va creciendo van apareciendo las áreas blancas en el vientre y los costados (Dibujo 1). Presenta cabeza corta, redondeada y sin pico; su frente es abombada, y la boca pequeña y orientada hacía abajo. Las aletas pectorales son cortas y anchas, los adultos presentan el borde posterior de las caudales muy convexo

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

102


Narval Familia Monodontidae Medidas al nacer: Longitud: 1,6 m Peso: 80 kg Medidas máximas: Longitud Macho: 4,7 m Hembra: 4,2 m Peso Macho: 1600 kg Hembra:1000 kg Longevidad: Probablemente más de 50 años Tabla 1: Medidas y longevidad de Monodon monoceros

tomando apariencia de alas de mariposa cuando se las observa desde el aire. Otra característica es que carecen de aleta dorsal, en su lugar presentan una cresta carnosa y aunque son odontocetos (cetáceos con dientes), solamente presentan dos colmillos en el maxilar superior. Lo que realmente hace asombrosos y llamativos a los narvales es que en los machos (y muy rara vez en las hembras), de los dos colmillos que presenta, el colmillo izquierdo se desarrolla atravesando el labio cuando el animal tiene 2 o 3 años y sigue creciendo durante toda

su vida. Los colmillos pueden alcanzar una longitud aproximada de 3 m. y el colmillo completo puede pesar más de 10 kg. La superficie del colmillo suele estar enrollada helicoidalmente de derecha a izquierda, pero el eje, por lo general suele ser recto (puede darse el caso de que el eje está espiralizado). Hay casos en los que también se desarrolla el colmillo derecho. Sin duda estamos ante la auténtica leyenda del “unicornio” de la imaginación popular (Dibujo 1). Actualmente no se sabe exactamente la función del colmillo. Los primeros estudios científicos supusieron que el colmillo se utilizaba para perforar las capas de hielo del Ártico y abrir respiraderos, posteriormente, se ha pensado en su uso para la ecolocalización, para la localización de presas en el fondo marino, como defensa o como carácter sexual secundario que indica la dominancia y la posición jerárquica que ocupa dentro del grupo, de modo que los machos con los colmillos más largos atraen más a las hembras. Los estudios más recientes realizados en 2005 muestran que puede funcionar como un sensor hidrodinámico que se conecta al sistema nervioso central dándole información sobre la temperatura, presión, y cambios en la salinidad y concentración de moléculas en solución aportándole información vital para vivir en el Ártico y detectar a posibles presas. Pero los unicornios marinos no son fáciles de observar. Son animales muy tímidos y no se encuentran por nuestras latitudes, sino que presentan una distribución discontinua por el Ártico. Abundan más en las aguas profundas, sobre todo en el estrecho de Hudson, el noroeste de la bahía de Hudson, la cuenca de Foxe, la bahía de Baffin y el golfo de Lancaster, aunque también se pueden observar algunos núcleos poblacionales importantes en el mar de Groenlandia y otros más reducidos en el mar de Barents (ver mapa distribución).

Dibujo 1. Dibujo de la morfología de un macho y hembra de Narval, creado por Maurizio Wurtz (Fuente: http://www. artescienza.org).

‘Lo que realmente hace asombrosos y llamativos a los narvales es que en los machos (y muy rara vez en las hembras), de los dos colmillos que presenta, el colmillo izquierdo se desarrolla atravesando el labio ... y sigue creciendo durante toda su vida.’

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

103


Foto 1. Narvales respirando vista desde arriba. Foto de Paul Nicklen (National Geographics.)

Como migradores y gregarios que son, sus movimientos dependen de la formación y desplazamiento de la capa de hielo. Durante el verano, cuando se funde y se fragmenta el hielo, se pueden observar grandes agregaciones de varios cientos, que por lo general están compuestos por grupos de 2 a 10 individuos como mucho que siguen el límite del hielo en retroceso y entran a través de calles en los golfos y fiordos (aprovechando las grietas que se forman en las placas para salir a respirar), residiendo en éstas áreas durante todo el verano y principios de otoño. En invierno, cuando se forma de nuevo la capa de hielo, se dirigen hacia alta mar y permanecen allí hasta la primavera siguiente se ha visto que se disgregan los grupos teniendo

‘Los estudios más recientes realizados ... muestran que [el colmillo] puede funcionar como un sensor hidrodinámico que se conecta al sistema nervioso central dándole información ... vital para vivir en el Ártico y detectar a posibles presas’

una vida más solitaria, posiblemente debido a la formación discontinua de las capas de hielo (ver imagen de la portada del artículo). La alimentación se basa en peces pelágicos (bacalao ártico, bacalao polar, etc…), calamares y camarones que cazan en la columna de agua succionando las presas y tragándoselas enteras, en ningún momento las ensartan con el colmillo. Su período de reproducción es a finales de invierno y en primavera (la mayoría en abril) justo cuando suelen ser más inaccesibles. Se cree que durante éste período de apareamiento, los machos adultos establecen combates para establecer su dominio y acceder a las hembras. Como consecuencias de esos combates muchos de ellos pueden romperse los colmillos y presentar heridas y cicatrices en la cabeza, pero son sólo suposiciones ya que, aunque la incidencia de heridas y rotura de colmillos es elevada, no hay pruebas directas de que usen el colmillo para pelearse. El período de gestación dura aproximadamente 15 meses y casi todas las crías nacen entre julio y agosto, con mayor número de nacimientos a principios de agosto y justo cuando se encuentran en los fiordos. La lactancia dura al menos un año, así que el intervalo entre partos consecutivos suele tener un promedio de 3 años, con una cría por parto (muy rara vez tienen dos cría por parto). En cuanto a su estatus y conservación, aún no se sabe exactamente el número de narvales que hay. Se

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

104


estima que la población global ronda entorno a los 80.000 individuos y la especie está catalogada en la Lista Roja de la UICN como especie NT (especie Casi Amenazada) desde 2008. Pero realmente no existe certeza sobre la cantidad de ejemplares y las amenazas en algunos puntos de su distribución. Lo que si se observa es que hay un declive en la población debido a la caza intensiva que se está llevando a cabo en Groenlandia y Canadá, también influye el hecho de que muchos de los esquimales que cazan con arma de fuego son inexpertos en el arte de la caza y al disparar no lo hace de forma precisa, de modo que muchos de los narvales mueren y se hunden directamente perdiéndose en el océano. Además influyen en la pérdida de población otras amenazadas no naturales como es el aumento de metales pesados en el océano en el que se ha observado elevados niveles de cadmio y plomo en éstos cetáceos llegando a ser peligroso el consumo de su carne para el ser humano. Todos estos factores, más otro naturales como son la muerte por sus depredadores naturales y por quedar atrapados en el hielo, hacen que éste mitológico animal se encuentre cada vez en una situación más delicada y se vaya perdiendo poco a poco, aun siendo un misterio en muchos aspectos. La mitología inuit avisaba que matar a un narval sin el debido respeto trae consigo mala suerte, desgracias y hambruna al pueblo esquimal. ¿Estamos dispuestos a perder la leyenda del unicornio? Distribución en el Ártico y al lado del mar de Groenlandia , Bahía de Baffin, Davis y el estrecho de Hundson (Jefferson et al 2008; © UICN)

Videos sobre los Narvales: - Narwhals (National Geographic) - Narwhals

Leticia Puerta Rodríguez, naturalista y estudiante de 5º curso de la Licenciatura de Biología por la Universidad de Granada. Desde hace cuatro años hasta la actualidad alumna interna del Departamento de Biología Animal de la Facultad de Ciencias, colaborando en estudios de Fauna Intersticial y de Cuevas Submarinas en el Mar de Alborán. Si queréis poneos en contacto podéis hacerlo a través de su cuenta en twitter @Letirroja, de su blog "Con botas y a lo loco" y de su perfil en la red Feelsynapsis (Letirroja)

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

105


Las células de cáncer hacen trampa con su dieta Por Marisa Alonso Nuñez Todas las células tienen que comer para generar energía y así poder llevar a cabo todas sus funciones. Simple. Sí. Simple y complicado a la vez. Todos los procesos implicados en el proceso de crecimiento y división de una célula son tan importantes que están muy controlados. Imaginaos que cada célula de nuestro cuerpo decidiera crecer y dividirse de forma incontrolada… sería un caos. De hecho existen muchos mecanismos en nuestras células que, cuando algo va mal en ellas, provocan su propia muerte para que esos defectos no pasen a células nuevas. Sin embargo, las células que componen los cánceres parece que escapan a estos mecanismos de control y son capaces de dividirse incontroladamente. Y es que las células cancerígenas son demasiado listas y modifican una serie de cosas en su funcionamiento para que los mecanismos de control de las propias células no detecten que son células anómalas y evitar así su propia muerte.

cesos. El primero se llama glucolisis que no ocurre en ningún compartimento específico de la célula, sino en su citoplasma. Este proceso da lugar a un compuesto que se llama piruvato y que en presencia de oxígeno será transformado en el ciclo de Krebs para producir una alta cantidad de ATP. El ciclo de Krebs ocurre en las mitocondrias, que son las centrales energéticas de las células. Sin embargo, cuando no hay suficiente cantidad de oxígeno el piruvato es transformado en lactato, a través de la glucolisis anaeróbica o fermentación, en el citoplasma dando lugar a ATP pero en mucha menos cantidad. Todos estos procesos están muy bien regulados

Un ejemplo muy claro lo tenemos en la forma en que las células de cáncer obtienen su energía. Las células en condiciones normales y en presencia de oxígeno transforman la glucosa en energía (en forma de una molécula llamada ATP) a través de varios pro- Figura 1. Fibroblastos

y cuando algo no va bien en las mitocondrias la célula lo nota y activa un mecanismo de autodestrucción llamado apoptosis para evitar problemas mayores. Durante los años 30 Otto Warburg sugirió la idea de que las células de cáncer apagaban sus mitocondrias y obtenían la energía que necesitaban a través de la glucolisis en el citoplasma incluso en presencia de oxígeno (glucolisis aeróbica). El efecto Warburg, como se le llama a esta teoría, se ha aceptado durante muchos años pero nunca se ha sabido cómo ocurre. Sin embargo, recientemente el grupo del profesor Michael Lisanti (en donde trabaja el investigador Stephanos Pavlides, que ha ayudado con sus conocimientos sobre el tema a la elaboración de este artículo) ha realizado una serie de estudios que ponen en entredicho esta teoría. Las células cancerígenas producen radicales libres y viven rodeadas de un estrés oxidativo debido a esto. Los investigadores del grupo de Lisanti estudiaban las células normales que se encuentran rodeando a las células de cáncer de mama, llamadas fibroblastos, y al cultivarlas junto con las células de cáncer de mama vieron que el estrés oxidativo producido por las células de cáncer afectaba a dichos fibroblastos. Estos radicales

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

106


libres producidos por las células cancerígenas estimulan el que los fibroblastos digirieran sus componentes por un proceso llamado autofagia. Al digerir sus componentes crean moléculas energéticas (piruvato y lactato) que las células de cáncer captan para alimentarse y poder llevar a cabo sus funciones. Así los fibroblastos estarían alimentando a las células de cáncer promoviendo su crecimiento y haciendo que estas células vuelvan a encender sus mitocondrias de nuevo (y escapando de la apoptosis por problemas en las mitocondrias). Ellos han llamado “efecto Warburg inverso” a este hecho de que la glucolisis aeróbica no ocurra en las células de cáncer, sino en los fibroblastos. Además, la autofagia en fibroblastos produce más radicales libres que a su vez amplifican el efecto de los producidos por las células del cáncer fomentando también el daño en el ADN de las células y generando su inestabilidad (inestabilidad genómica), uno de los procesos que hacen que las células se vuelvan cancerígenas. En definitiva, el que las células de cáncer hagan que los fibroblastos se comporten así promueve que és- Figura 2. División de las células normales y tos a su vez las alimenten (produci- cancerígenas. Fuente Wikipedia endo por medio de la autofagia los Y todas estas conclusiones vienen de compuestos energéticos), las ayuden unos estudios previos realizados en a que evolucionen (produciendo el ese y otros laboratorios en los que se daño en el ADN y la inestabilidad descubrió que niveles bajos de una genómica) y las protejan contra la proteína llamada caveolina1 o Cav1 muerte celular apoptótica (haciendo estaban relacionados con los cánceque las células de cáncer vuelvan a res de mama más agresivos y de peor usar sus mitocondrias de una forma evolución. Al principio no sabían muy normal). bien porqué pero descubrieron que

en los tumores donde no existe apenas caveolina1 había una alta cantidad de proteínas implicadas en la glucolisis aeróbica, es decir, indicio de que estas células tenían una alta actividad autofágica. Y esto pasaba concretamente en las células que rodeaban a los cánceres (fibroblastos) y no en las células cancerígenas propiamente dichas. De hecho esta baja cantidad de caveolina1 en los fibroblastos que rodean al tumor predice la recurrencia del cáncer, su metástasis y la resistencia al tamoxifeno (fármaco común para tratar el cáncer de mama) en muchos de los cánceres de mama y de páncreas entre otros. Como podéis ver este tema es muy complicado pero muy prometedor. De hecho este efecto puede explicar varios hechos relacionados con el tratamiento de ciertos cánceres. Un tipo de tratamiento que se ha intentado hacer sin mucho éxito es la terapia que busca suprimir la formación de nuevos vasos sanguíneos en el tumor o terapia antiangiogénica. Estos fármacos producen una deficiencia de oxígeno o hipoxia en los alrededores del cáncer, promoviendo a su vez estrés oxidativo y autofagia. Estas son las condiciones ideales para que las células de cáncer crezcan y se reproduzcan alimentándose de los nutrientes que producen los fibroblastos que se encuentran en sus alrededores al llevar a cabo la autofagia. Por otra parte, también se han hecho estudios con antioxidantes en el tratamiento de cáncer como ayuda a la

Figura 3. Tejido de mama en condiciones normales Vs tumor The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

107


Figura 4. Esquema de las características de los fibroblastos en un cáncer

quimioterapia. La base de esto sería que los antioxidantes eliminarían los radicales libres producidos por las células cancerígenas evitando la autofagia en los fibroblastos y cortando la vía de alimentación alternativa del cáncer. Sin embargo, al administrarse conjuntamente con quimioterapia su efecto se vería bastante mermado debido a que muchos tipos de quimioterapia producen una alta cantidad de radicales libres para matar a las células cancerígenas y los antioxidantes no podrían eliminarlos todos. Así, ciertos estudios que se han llevado a cabo con esta combinación de quimioterapia y antioxidantes no han dado muy buenos resultados todavía. Otra posibilidad es el uso de fármacos

que bloqueen la autofagia, evitando que los fibroblastos de digieran y liberen los nutrientes que las células de cáncer tomarían para alimentarse. De hecho, el fármaco que se utiliza en el tratamiento de la malaria, la cloroquina, actúa de esta forma y sería interesante estudiar su efecto contra el cáncer. Además, los fármacos que suprimen la habilidad de la mitocondria para quemar lactato y otros productos de la glucolisis podrían ayudar a cortar el abastecimiento de energía a las células de cáncer. De hecho, uno de estos fármacos, la metformina, que se utiliza en el tratamiento de la diabetes, parece que tiene un efecto sobre el cáncer haciendo que enfermos que la están tomando tengan menos riesgo de desarrollar

cáncer, aunque no se ha demostrado científicamente que esto sea cierto. En definitiva, el estudio de los procesos de producción y consumo de energía, o metabolismo, en las células de cáncer y en las células de su entorno se está convirtiendo en un campo de investigación cada vez más prometedor a la vez que polémico, ya que últimamente se están publicando bastantes artículos científicos sobre estudios con fármacos bien conocidos y utilizados en otras enfermedades, mostrando el efecto que tienen en el cáncer. Esto abre una línea nueva de posibles tratamientos para los diferentes cánceres que esperemos tengan resultados positivos y ayuden a disminuir la mortalidad que produce este grupo de enfermedades llamadas “cáncer”.

Marisa Alonso Núñez es de Astorga (León) y estudió las licenciaturas de Farmacia y Bioquímica en Salamanca, doctorándose en Microbiología y Genética Moleculares por la Universidad de Salamanca en 2007. Después de terminar la tesis se marchó a Manchester (Reino Unido) donde lleva trabajando como investigadora postdoctoral en el Paterson Institute for Cancer Research durante 4 años.En sus ratos libres se dedica a la divulgación científica. De hecho puedes seguirla en twitter en su cuenta @lualnu10 y en su blog Caja de Ciencia en español o Science Box en inglés. En estos momentos es la Coordinadora del Secretariat de Eurodoc, el Consejo Europeo de Jóvenes Investigadores y le apasiona la música desde hace 24 años siendo ésta y los 4 instrumentos musicales que toca muy importantes para ella.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

108


Rosa Porcel

“La simbiosis, el sistema en el cual miembros de especies diferentes viven en contacto físico, es un concepto arcano, un término biológico especializado que nos sorprende. Esto se debe a lo poco conscientes que somos de su abundancia. No son sólo nuestras pestañas e intestinos los que están abarrotados de simbiontes animales y bacterianos; si uno mira en su jardín o en el parque del vecindario los simbiontes quizá no sean obvios pero están omnipresentes” […]Lynn Margulis, Planeta simbiótico


Una mico-¿qué? En el suelo las plantas no viven solas. A todos nos han dicho alguna vez de pequeños después de jugar en la tierra, “¡No te lleves las manos a la boca! o “lávate las manos” al llegar a casa. Qué gran verdad.  El suelo está habitado por toda una variedad de organismos, muchos de ellos beneficiosos para las plantas que comparten el mismo territorio. Así, además de pequeños bichitos, encontramos bacterias y hongos. El suelo como veis, es un gran ecosistema.

COMENSALISMO

El caso es que aunque a muchas personas no les suene este tipo de simbiosis, lo cierto es que no es nada nueva. El término de “micorriza” fue empleado por primera vez por Albert Berhhard Frank en 1885. Las plantas y sus micorrizas tienen una historia evolutiva común ya que los registros fósiles de plantas más antiguos que se conocen presentan en sus primitivas raíces unas estructuras similares a las de las actuales micorrizas. En la Fig. 3 podéis ver el parecido tan asombroso entre el fósil Rhynie y las actuales micorrizas. Datan de hace unos 460 millones de años (Ordovícico), momento en el cual establecerían relaciones con los ancestros de los

PARASITISMO

SIMBIOSIS

Figura 1. Interacciones biológicas entre organismos. La inmensa mayoría de las plantas (un 95%) que crecen sobre la corteza terrestre viven asociadas en forma de simbiosis, normalmente mutualista, con ciertos hongos del suelo constituyendo las llamadas “micorrizas”, término que deriva del griego mykos (hongo) y riza (raíz). Esta simbiosis está tan extendida que comúnmente se dice que las plantas no tienen raíces sino micorrizas. ¿Qué es una simbiosis? En el siguiente esquema lo veréis claro (Figura 1).

primitivos briófitos. La razón sobre la que se fundamenta tal aseveración es obvia: las micorrizas conferirían a las primitivas plantas una capacidad inusitada para establecerse y captar nutrientes y agua en un medio tan hostil. La biología molecular, una vez más, ha sido la encargada de confirmar la datación, filogenia y evolución de estos hongos y su asociación con las plantas.

El botánico alemán Anton de Bary a finales del siglo XIX acuñó el término “simbiosis” para describir la estrecha relación de organismos de diferente tipo. Concretamente la definió como «la vida en conjunción de dos organismos de diferente especie, normalmente en íntima asociación, y por lo general con efectos benéficos para al menos uno de ellos». Quizá el ejemplo de simbiosis que más se conoce es el de la anémona y el pez payaso (Figura 2). Hay otros ejemplos importantísimos y de una entrega total y hermosa en la naturaleza, pero esos se quedarán para otra ocasión.

Volviendo a la simbiosis que hoy os presento, sólo en unas pocas familias botánicas (fundamentalmente crucíferas y quenopodiáceas) hay especies que no forman micorrizas… o dicho de otro modo, algunas plantas pueden vivir sin micorrizas, pero el hongo es un simbionte OBLIGADO que no puede vivir sin estar asociado a una planta.

Figura 2. Ejemplo de simbiosis mutualista entre el pez payaso y la anémona de mar. El pez payaso obtiene protección frente a depredadores (no toquéis una anémona) y usa como despensa alimenticia a la anémona, que a su vez obtiene alimento y protección frente a otros peces comedores de anémonas debido al carácter de territorialidad de los peces payaso.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

110


Fósil Rhynie Micorriza actual Figura 3. Comparativa entre distintas estructuras del hongo de la micorriza perteneciente al fósil Rhynie (370 millones de años) y el hongo actual. Antes de entrar en materia y conocer cuál es la base de esa simbiosis que llevan a cabo con las plantas y la cantidad de beneficios que aportan, veamos los tipos de micorriza que encontramos. Una pista… estamos en otoño y seguramente habréis ido a buscarlas a vuestros bosques.

Tipos de micorrizas

A grandes rasgos, podemos encontrar dos grupos tróficos que albergan cinco tipos de micorrizas: (a) Las ectomicorrizas, más conocidas por la mayoría de vosotros ya que son las que conocemos como setas y trufas. Se caracterizan porque no colonizan la raíz intracelularmente sino que forman un manto externo y por eso también se le llaman micorrizas formadoras de manto (Figura 4). (b) El otro grupo, menos conocido y no por ello menos importante, son las endomicorrizas. Más del 80% de las especies de plantas, entre ellas las de interés agronómico y las características del matorral mediterráneo, forman las endomicorrizas llamadas “micorrizas arbusculares” (MA). Como su nombre indica, colonizan intracelularmente la raíz y son microscópicas. (Figura 5.)

Os presento una micorriza arbuscular…

El nombre de micorriza arbuscular viene de la forma de la estructura más representativa del hongo, el arbúsculo. Tiene forma de arbolito y es la estructura donde tiene lugar el intercambio de nutrientes. La espora, es la forma reproductiva y la más importante, pues es capaz de esperar latente en el suelo años hasta encontrar las condiciones idóneas para germinar, buscar una raíz compatible, penetrarla a través del apresorio y desarrollar el micelio fúngico tanto intra como extracelularmente, colonizando así la totalidad de la raíz. Cabe mencionar que la colonización también puede llevarse a cabo mediante hifas presentes en el suelo o bien a través de fragmentos de raíz previamente micorrizados. Podéis observar todas las estructuras características en la figura 6.

¿Y qué hacen las micorrizas? El suelo está habitado por toda una variedad Pues parece que la función básica de organismos, de esta simbiosis es adquirir del suelo muchos de ellos y transferir a la planta nutrientes minerales (fundamentalmente beneficiosos para fosfato, amonio) y agua. Todo ello a las plantas que cambio de carbono que él es incapaz comparten el mismo de sintetizar por sí mismo y que lo recibe gracias a la fotosíntesis de las territorio plantas.

Desde este momento nos centraremos en la estructura y función biológica de las micorrizas arbusculares así que pasemos a continuación a ver cómo es una micorriza.

Se ha demostrado que algunos árboles como los pinos, son incapaces de sobrevivir más de dos años si no están micorrizados y otras especies como las orquídeas ni siquiera podrían subsistir si no estuvieran colonizadas por ellos. Sin embargo, esta simbiosis representa muchísimo

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

111


Figura 4. Estructura y morfología de las ectomicorrizas. más que un “simple” intercambio de nutrientes, y es aquí es donde empieza el interés para la biotecnología, ecología, medio ambiente y todas las áreas de la ciencia preocupadas por mantener la diversidad y la salud en el ecosistema. Los beneficios ecológicos que aportan las micorrizas a las plantas quedan reflejados en la figura 7.

No os asustéis. No voy a desarrollar cada una de las funciones biológicas porque darían para capítulos individuales, pero sí daremos una pincelada de los más destacables.

Incrementan la estabilidad del suelo Como podréis imaginar, se considera que las MA desempeñan un papel crucial en la supervivencia y desarrollo de las plantas, sobre todo en suelos sometidos a condiciones de estrés (sequía, salinidad, deficiencia de nutrientes), como los que caracterizan a los ecosistemas mediterráneos, así como en suelos degradados por procesos erosivos, incendios forestales, laboreo excesivo y contaminación.

La inmensa mayoría de las plantas ... viven asociadas en forma de simbiosis, normalmente mutualista, con ciertos hongos del suelo constituyendo las llamadas “micorrizas”

Durante el desarrollo de la MA, el micelio del hongo crece rápidamente expandiendo sus hifas y colonizando el suelo de una forma totalmente invasiva (Figura 8). Se han encontrado 30 m de micelio fúngico por gramo de suelo. La consecuencia es una aumento de la superficie de captación de agua y nutrientes para la planta y por supuesto, favorecer la estabilidad del sustrato.

Además del micelio, una proteína insoluble en agua producida por el hongo, la glomalina, tiene un color típico café-rojizo y está implicada en la formación de agregados del suelo. Tanto el micelio como la glomalina conducen a incrementar la estabilidad y calidad del suelo.

Algunas prácticas de agricultura como los monocultivos, el arado o la fertilización tienen efectos negativos tanto en la cantidad como en la diversidad de hongos MA presentes en el suelo. El hecho de que se reduzca la biomasa fúngica hace que se produzca un efecto

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

112


Figura 5. Estructura y morfolog��a de las endomicorrizas. negativo en la estabilidad del suelo y como consecuencia, aumentará la erosión. En Reino Unido, las pérdidas de las cosechas debido a la erosión del suelo agrícola se han estimado en 9.99 millones de euros/año. Y esto es algo a tener en cuenta, ya que en muchas ocasiones, el impacto de la erosión es acumulativo y la mayoría de las veces irreversible.

Reducen la necesidad de P para la planta

El fosfato, que es un nutriente esencial para la planta, es uno de los tres principales nutrientes que se aplican en agricultura. Las fuentes de fosfato de roca son limitadas y se calcula que desaparecerán en 100 años. El exceso de aplicación de P es una importante causa de eutrofización del agua, es decir, de un enriquecimiento de este nutriente, lo que podría originar un crecimiento masivo de organismos como algas, alterando por tanto la estabilidad del ecosistema.

Incrementan la tolerancia frente a estreses abióticos

Principalmente sequía, salinidad y metales pesados son los estreses abióticos que más afectan a nuestros cultivos españoles. Pero no son los únicos. También entran en juego el frío, el calor, el pH, el viento y un sin fin de situaciones ambientales a las que las plantas, por su condición de organismos sésiles no pueden escapar.

Los hongos MA son unos aliados importantísimos en este campo. Les proporcionan estrategias bioquímicas, filológicas y moleculares para evitar y paliar los efectos originados por estos estreses que cada año causan pérdidas astronómicas.

Tenemos que tener en cuenta que sólo un porcentaje muy bajo (entre 0,1-0,3 partes por millón) se encuentra realmente en solución, plenamente disponible para plantas y microorganismos. Como ya hemos mencionado, otra de las ventajas del gran desarrollo del micelio fúngico es aumentar en varios órdenes de magnitud el volumen de suelo que puede ser explorado por la planta. Se estima que una reducción del 80% de fertilizante rico en P se puede sustituir por la inoculación con hongos MA. Evidentemente, esta reducción del uso de fertilizante tendría un importante impacto económico y ambiental. Figura 6. Estructuras morfológicas del hongo de la micorriza arbuscular. La raíz ha sido teñida con la técnica del azul tripán The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

113


Figura 7. Diversidad funcional de las micorrizas arbusculares (MA) en los ecosistemas terrestres. Ojo al dato. En el año 2025, habrán desaparecido dos tercios de la tierra cultivable en África, un tercio en Asia y una quinta parte en América del Sur y la superficie cultivable por habitante también se disminuirá a 0.15 ha en 2050. En USA y España, un tercio está en vías de desertificación. ¿No os parece inquietante? La población mundial sigue creciendo, llegaremos a 7000 millones a finales de año y comer es una mala costumbre que nos acompaña cada día. Según la FAO, 925 millones de personas están sufriendo hambre crónica. Inquietante y desesperante.

Desde el punto de vista ecológico, una de las líneas de investigación que se lleva a cabo es manipular aislados autóctonos de hongos MA de zonas áridas para la revegetación de zonas degradadas en ecosistemas mediterráneos. Por poner un ejemplo, una cepa de hongo tolerante a la sequía (aislada de una zona afectada por sequía severa) asociada con una bacteria nativa presente también en el suelo, es capaz de reducir en un 42% los requerimientos de agua para la producción de Retama sphaerocarpa. A simple vista, es evidente la mejora que proporciona el hongo sobre la parte aérea y por tanto la biomasa de la planta en condiciones de sequía y salinidad

Figura 8. Fotografías que ilustran el desarrollo del micelio del hongo. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

114


(Figura 9).

ácidas alcanzaron las orillas de los ríos Agrio y Guadiamar, hasta llegar a uno de los mayores emblemas naturales del mundo: el Parque Nacional de Doñana. El agua arrastraba oxígeno sin disolver y sólidos en suspensión que provocaron la muerte de toda la vida subacuática: más de 30 toneladas de peces muertos y 170 de cangrejos fueron recogidos en los días siguientes.

Igual ocurre con el estrés salino, y los cultivos de olivos en España o los de palma del norte de África. Son innumerables los estudios que demuestran el papel protector de estos pequeños organismos frente a una gran variedad de condiciones salinas. El mecanismo que utilizan es complejo pero podemos decir que lo ... se considera que consiguen aumentando la las MA desempeñan El accidente minero del captación de agua y nutrientes, Guadiamar marcó un punto de el intercambio gaseoso, la un papel crucial en inflexión en la relación entre transpiración y conductancia la supervivencia y la ciencia y la conservación estomática, el balance iónico desarrollo de las de la naturaleza en España. La y hormonal, y ajustando comunidad científica española el balance osmótico y plantas, sobre todo se volcó en aportar soluciones composición de carbohidratos en suelos sometidos a ante el mayor accidente como la prolina que tiene un condiciones de estrés ambiental de nuestro país. papel fundamental. Además Hoy en día, la fitorremediación ponen en marcha una serie de ( f i t o e x t r a c c i ó n , mecanismos bioquímicos que implican la activación de un pool de enzimas antioxidantes fitoestabilización y rizofiltración) de los suelos y moleculares que abarca la inducción de genes como contaminados por metales pesados es actualmente una aquaporinas, proteínas LEA (Late embriogénesis de las herramientas más efectivas y más “limpia” con el medio. abundant), canales de transporte, etc. Durante las últimas décadas, se ha acelerado el proceso de contaminación atmosférica por metales pesados provenientes de la minería, hornos de fundición, industria, tratamientos de suelos de cultivo con agroquímicos y sedimentos del suelo etc. Se vierten a los suelos elementos peligrosos como el plomo (Pb), arsénico (As), cadmio (Cd) y mercurio (Hg) con el consiguiente peligro de su conducción a las capas freáticas del suelo. La madrugada del 25 de abril de 1998 una brecha de 60 m de ancho y 30 m de alto quebró la balsa minera de la localidad sevillana de Aznalcóllar (Fig. 10). En pocas horas siete millones de metros cúbicos de lodos tóxicos y aguas

Hay plantas que de forma natural hiperacumulan ciertos metales. Pues bien, estas especies vegetales junto con las MA que contengan o aquellas más eficientes a tal fin, se están utilizando como estrategias de fitorremediación…. o de micorrizoremediación.

La inmovilización de metales en la biomasa fúngica constituye un mecanismo mediante el cual estos

Figura 9. (a) Plantas de tomate sometidas a estrés hídrico. Las plantas control no han sido inoculadas y las plantas MA llevan hongo. (b) Plantas de maíz sometidas a estrés por salinidad. Las plantas control no han sido inoculadas y las micorrizadas contienen hongo MA. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

115


microorganismos seleccionados de la rizosfera para minimizar los riesgos tóxicos de los contaminantes y a su vez maximizar el crecimiento y la nutrición. El aislamiento de cepas de hongos MA adaptados al estrés constituye ya y será la clave como herramienta biotecnológica para la inoculación de plantas en ecosistemas alterados.

Incrementan la tolerancia frente a estreses bióticos

Figura 10. Imagen de las consecuencias del accidente minero de Aznalcóllar.

Me entran picores de imaginar una cola de pulgones subiéndome por la pierna o una procesionaria recorriéndome la espalda… ¿os imagináis? Pues no creo que a las plantas tampoco le haga ninguna gracia. Yo me sacudiría, podría echar a correr si las viera venir y hasta gritar pidiendo ayuda. Ellas no.

hongos pueden incrementar la tolerancia a metales pesados. Las raíces actúan como una barrera frente al transporte de metales, reduciendo la transferencia y mejorando el ratio de Cd raíz/parte aérea. Una vez más, recurrimos al beneficio del micelio del hongo, que además de aumentar la captación de agua y nutrientes y favorecer la estabilidad del suelo, actúa como medio tamponador de la captación de metales como el cadmio, reduciendo los efectos tóxicos de este en el crecimiento de la planta.

Hace ya tiempo que se evidenció la capacidad de las MA para aumentar la resistencia o tolerancia de las plantas frente al ataque de determinados patógenos del suelo. La investigación en España ha demostrado tal protección en plantas de tomate, pimiento, platanera, olivo y otros frutales frente a patógenos tales como Phytophthora, Verticillium, Fusarium, nemátodos , bacterias, etc. (Figura 11)

Este efecto es atribuido a la quitina, compuesto esencial que forma parte de la pared celular del hongo y que posee la capacidad de unir metales. También recientemente, se ha visto que la glomalina anteriormente mencionada puede quelar metales, disminuyendo así la disponibilidad de estos para las plantas. Se propone otro mecanismo consistente en la dilución de la concentración de metales en los tejidos de la planta mediante un mayor crecimiento de la parte aérea.

En esta protección operan mecanismos de distinta índole como la competencia por el nicho y nutrientes, modificaciones en las poblaciones microbianas de la rizosfera, compensación de daños… No se conoce la producción de compuestos antimicrobianos por los hongos MA, lo que descarta un efecto inhibidor directo, o sea, que se traten de “agentes de control biológico” en el sentido estricto del término.

De cualquier forma, un objetivo de la biotecnología sería usar la inoculación combinada de

Sin embargo, diversos modelos de estudio han sugerido la posibilidad de una protección a nivel sistémico. Además, se ha apuntado a la posible existencia de

Figura 11. Organismos patógenos de plantas (a) El hongo Fusarium oxysporum crecido en placa. (b) Microfotografía coloreada de un nematodo (Heterodera glycines) parásito de la planta de soja (Glycine max) (c) Pseudomonas aeruginosa al microscopio de barrido, con falso color. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

116


Figura 12. Algunos productos comercializados por el spin-off Mycovitro con sede en Granada. fenómenos de priming (potenciación de las defensas), por el que las plantas podrían estar en un “estado de alerta” que les permitiera reaccionar de manera más eficaz a la presencia del patógeno e incluso avisarse entre ellas. Algo así como ¡Ehhh compañera, se acera una procesonaria por el sur! Estos procesos de priming inducidos por la MA podrían ser eficaces frente a patógenos foliares necrótrofos o hemibiotrofos e insectos masticadores, aunque no frente a biotrofos y otros tipos de insectos más especializados.

A pesar de lo que pueda parecer, esta resistencia inducida de carácter sistémico conlleva costes mínimos en la productividad de la planta comparados con una activación directa de las defensas.

Desde el punto de vista ecológico, una de las líneas de investigación que se lleva a cabo es manipular aislados autóctonos de hongos MA de zonas áridas para la revegetación de zonas degradadas en ecosistemas mediterráneos.

¿Biotecnología con las micorrizas? El comienzo…

El estudio de las micorrizas como es lógico comenzó por ser de tipo fisiológico (efectos sobre la nutrición vegetal), luego molecular (tratando de dilucidad los aspectos de la protección que confieren) y cómo no. ecológico (presencia de micorrizas en plantas de interés agronómico, pratense y forestal). Posteriormente, se han iniciado aislamientos y caracterización de hongos MA asociados tanto a cultivos de interés como a plantas de la sucesión natural, en las que últimamente se han incluido especies de la flora amenazada y/o endémica, propias de los ecosistemas ibéricos (Sierra Nevada, por poner un ejemplo… y barrer para casa).

Durante 30 años se ha investigado en esto, hasta el punto de disponer en la actualidad en la Estación Experimental del Zaidín, EEZ (CSIC, Granada) de un Banco de Glomeromicetos (Glomus es el género más famoso de estos hongos) integrado por unos 80 aislados conservados en cultivo puro de los cuales, la mitad están caracterizados molecular y filogenéticamente. Distintas instituciones españolas contribuyen así a incrementar el BEG (Banco Europeo de Glomeromicetos). He mencionado “cultivo puro”. ¿No os resulta extraño tratándose de un simbionte obligado? En la EEZ se han desarrollado dos patentes, una de las cuales permite obtener micorrizas in vitro mediante cultivo monoxénico de raíces. Esto es, colocar en condiciones totalmente estériles un pequeño fragmento de raíz micorrizada en un compartimento de una placa de Petri

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

117


bicompartimentada y dejar que se desarrolle. Las hifas del hongo son capaces de saltar la barrera y seguir creciendo en el otro compartimento, donde encontraremos únicamente al hongo. Precisamente, sobre la base de este procedimiento se ha desarrollado la única colección española y una de las pocas a nivel mundial, de hongos MA conservados in vitro.

Parece ser que el potencial de estos hongos y sus beneficios ecológicos llegan a ser interesantes económicamente. Mycovitro, una empresa de base tecnológica de tipo spin-off surgida de la EEZ, produce y comercializa inoculantes, denominados de forma global como “glomigel”, específicos para cada tipo de cultivo/ ecosistema (Figura 12). No es la única empresa. Mycosim, Agromed, Bio-Triton, Plant Health Care, etc., tienen actividades similares y parece que es un negocio en auge y distribuido por todo el mundo.

Teniendo en cuenta lo que hemos visto hasta ahora, parece que las investigaciones encaminadas en la biotecnología se podrían centrar en la aplicación de estos hongos en la agricultura y en la recuperación de ecosistemas degradados y flora amenazada, en interacción con la industria viverista, en gestión ambiental y en programas de control de enfermedades y plagas en cultivos. Por lo pronto, las macetas de mi casa ven el agua cuando me acuerdo y sí,… pensándolo bien, es una ventaja poderme ir de vacaciones y ¡¡no regarlas!!

Bibliografía

- Barea JM. (2011). Investigaciones sobre micorrizas en España: pasado, presente y futuro. Fundamentos y aplicaciones agroambientales de las interacciones beneficiosas plantasmicroorganismos.

En lo referente a ensayos de inoculación en campo hay que destacar la interacción con empresas viverísticas (para la producción de planta micorrizada), de gestión ambiental (restauración de áreas degradadas mediante revegetación con planta micorrizada) y productoras de inoculantes. Concretamente, se ha ensayado la micorrización de Pinus sp., Pseudotsuga sp., Quercus sp., entre otros con hongos ectomicorrícicos. Por su interés económico, merecen especial mención las investigaciones conducentes a implementar la micorrización de encina, orientada a la producción de trufa.

- De Bary, H.A. (2008) Die Erscheinung der Symbiose “Till death do us part”: coming to terms with symbiotic relationships. Nature Reviews Microbiology 6, 721-724

En lo que atañe a ensayos de campo con hongos MA, se han desarrollado experimentos con leguminosas, tomate, calabaza, espárrago y otros hortícolas, pero los aportes más significativos son los referentes a la micorrización de frutales y de plantas de interés en el matorral arbustivo mediterráneo. Como frutales de interés, se ha centrado en olivo, cítrico, vid, frutales de hueso y en cultivos tropicales (aguacate, chirimoyo, piña, platanera, papaya, etc). En cuanto a plantas de interés en ecosistemas naturales (incluyendo aromáticas, medicinales, melíferas etc) cabe destacar los estudios con Retama sphaerocarpa, Genista cinerea, Rosmarinus officinalis, Lavandula latifolia, Genista umbellata, Thymus zigys, Pistacia lentiscos, etc.

- Kirk, P.M., P.F. Cannon, J.C. David & J. Stalpers (2001) Ainsworth and Bisby’s Dictionary of the Fungi. 9th ed. CAB International, Wallingford, UK

- Garg N, Chandel S. (2010) Arbuscular mycorrhizal networks: process and functions. A review. Agron. Sustain. Dev. 30:581599 - Gianninazzi S, Gollotte A, Binet MN, Van Tuinen D, Redecker D, Wipf D. (2010) Agroecology: the key role of arbuscular mycorrhizas in ecosystem services. Mycorrhiza 20: 519-530 - Harrison MJ (2005). Signaling in the arbuscular mycorrhizal symbiosis. Annu Rev Microbiol. 59: 19–42

- Margulis, Lynn (2002). Planeta Simbiótico. Un nuevo punto de vista sobre la evolución.. Victoria Laporta Gonzalo (trad.). Madrid: Editorial Debate - Wang, B.; Qiu, Y.L. (2006) Phylogenetic distribution and evolution of mycorrhizas in land plants. Mycorrhiza 16 (5):  pp. 299–363. - Porcel R, Aroca R, Ruiz-Lozano, JM (2011) Salinity stress alleviation using arbuscular mycorrhizal fungi. A review. Agron. Sustain. Dev. DOI 10.1007/s13593-011-0029-x Published on line.

Rosa Porcel (Granada, 1976) es licenciada en Biología por la Universidad de Granada y doctora en la especialidad de Bioquímica y Biología Molecular (2006). Recibió el Premio Nacional de Investigación en Relaciones Hídricas por su trayectoria científica en 2006 y posteriormente comenzó su etapa postdoctoral con un Juan de la Cierva (2007-2009) y una JAE-doc (2009-2011). Actualmente trabaja en el CSIC en el Departamento de Microbiología del Suelo y Sistemas Simbióticos.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

118


El verdadero sentido de la vida Por Sergio Ferrer

1962

Francis Crick, James Watson y Maurice Wilkins reciben el Premio Nobel de Fisiología o Medicina por el descubrimiento de la estructura del ADN. La famosa estructura de la doble hélice había sido descubierta unos años atrás, en 1953, gracias en parte a los trabajos de la olvidada (y en ocasiones despreciada por sus compañeros) Rosalind Franklin.

Avery, McCarty, Chargaff… muchos investigadores habían realizado avances importantes antes de la doble hélice, sin embargo, conocer la estructura del ADN abrió las puertas a la tecnología del ADN recombinante y a la genómica. Con el descubrimiento de la Doble Hélice estábamos avanzando, sin saberlo todavía, hacia Dolly, la insulina transgénica, la terapia génica, los chips de ADN… no obstante no nos precipitemos: el estudio de los ácidos nucleicos y del ADN se remonta más allá de 1953. La historia de la genética está íntimamente ligada a la del ADN, pero podemos decir que la Era del ADN comienza en 1944, con el descubrimiento por parte de Avery, MacLeod y McCarty de que el ADN es el portador de la información genética en las bacterias. En 1950 Chargaff demuestra que la cantidad de residuos de adenina es proporcional a la cantidad de residuos de timina en el ADN de cualquier especie, y lo mismo para los residuos de guanina y citosina. En 1952 tienen lugar dos acontecimientos clave: por un lado el histórico experimento de Hershey y Chase, que confirmaba que era el ADN el portador de la información genética (y no las proteínas como muchos pensaban). Por otro lado se obtiene la famosa Fotografía 51 mediante difracción de Rayos X. Esta imagen del ADN, realizada por Rosalind Franklin, se convirtió en una prueba decisiva a la hora de confirmar la estructura en doble hélice del ADN, en una serie de artículos publicados por Watson y Crick en la revista Nature a lo largo de 1953.

Hace mucho, mucho tiempo, en una charca no muy lejana… … unas moléculas orgánicas sencillas dieron lugar a una protocélula. Podemos entender “el origen de la vida” como una consecuencia inevitable una vez alcanzada cierta complejidad química; y para que la vida tuviera unas mínimas oportunidades de éxito debían de darse dos condiciones indispensables: el primer paso era la distinción entre “fuera” y “dentro”. El medio interno debía diferenciarse del medio externo. La separación física (mediada por una protomembrana) era el primer paso para que el medio interno fuera separándose cada vez más del externo. Una vez logrado esto, el siguiente paso lógico era la habilidad de perpetuarse. La vida dependía de la capacidad de las células para almacenar, recuperar y expresar las instrucciones genéticas necesarias para la producción y mantenimiento de un organismo vivo. Existen muchas teorías sobre el posible origen de la vida, pero en cualquier caso lo más probable es que fuera el ARN (Ácido Ribonucleico) el “padre” del actual ADN. Algo nada descabellado si tenemos en cuenta que el ARN es el único material genético de ciertos virus.


Figura 1: Rosalind Franklin, una de las científicas más brillantes e influyentes junto a su famosa Fotografía 51

Cabría preguntarnos, dicho esto, por qué no se estableció el ARN como material genético. La explicación la encontramos en su estructura: el ARN no puede plegarse como el ADN (algo imprescindible para que la información genética ocupe el menor espacio posible) ni tampoco tiene una vida muy larga (minutos o como mucho días).

El secreto de la vida Dicen que el día de su descubrimiento más importante Crick, que por entonces era un joven de 35 años, dijo: “Hemos descubierto el secreto de la vida”. No estaba muy desencaminado, ya que entender la estructura del

Figura 2: Esquema de la estructura en doble hélice del ADN

ADN era imprescindible para comprender plenamente su función. Conocer su estructura resolvió inmediatamente el problema de cómo puede copiarse (replicarse) el ADN, y aportó indicios de cómo una molécula de ADN puede codificar la información para la síntesis de proteínas. Pero, ¿qué es realmente el ADN? El ADN (Ácido Desoxirribonucleico) es una molécula larga (macromolécula), que recuerda a una escalera, y que forma una doble hélice. Cada cadena de esta hélice es una molécula lineal formada por subunidades llamadas nucleótidos. Una molécula de ADN está formada por dos largas cadenas de polinucleótidos compuestas por cuatro tipos de subunidades nucleotídicas. Estas cadenas (o hebras) permanecen unidas entre sí por enlaces de hidrógeno que se forman entre las bases de los nucleótidos. Estos nucleótidos están a su vez formados por un azúcar de cinco carbonos (pentosa) que tiene unido uno o más grupos fosfato y una base nitrogenada. En el ADN el azúcar es una desoxirribosa (de ahí el nombre de ácido desoxirribonucleico) unida a un único grupo fosfato, y la base puede ser Adenina (A), Guanina (G), Timina (T) y Citosina (C). Los nucleótidos se unen covalentemente entre sí a través de los azúcares y los fosfatos, formando una cadena que constituye el “esqueleto” de azúcar-fosfatoazúcar-fosfato. Podemos simplificar diciendo que la diferencia se encuentra en las bases nitrogenadas, por lo que cada cadena de polinucleótidos del ADN es un collar (el esqueleto de azúcar-fosfato) formado por cuatro tipos de cuentas (las cuatro bases nitrogenadas). Puesto que la única diferencia está en las bases, se utilizan los símbolos A,G,T,C para identificar a los cuatro nucleótidos. Dicho de otra forma: la unidad fundamental del ADN es el nucleótido, compuesto por la unión covalente de una pentosa, un

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

120


Figura 4: Modelo en 3 dimensiones de una molécula de ADN Figura 3: Podemos apreciar que los nucleótidos se diferencian únicamente en la base nitrogenada

grupo fosfato y una base nitrogenada, siendo esta última la fuente de la variación. Por lo tanto, son estas cuatro bases nitrogenadas las que constituyen el código genético, que con sus combinaciones

determina la secuencia de aminoácidos de las proteínas. Si la parrafada le ha resultado abrumadora, imagine que esas cuatro letras son el alfabeto genético. El secreto de la vida, que decía Crick. Los ordenadores pueden hacer maravillas con unos y ceros, y los seres vivos no quedamos atrás con nuestras cuatro letras.

Las subunidades nucleotídicas se unen entre sí

Figura 5: Tabla que resume las correspondencias entre codones (tríos de nucleótidos) y aminoácidos. Además, dos de los codones hacen las veces de STOP. The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

121


to de la doble hélice contestó a dos preguntas que atormentaban a los científicos desde hace tiempo: cómo se puede almacenar químicamente la información necesaria para formar un organismo vivo, y cómo se puede replicar de manera fiel esta información. Ya hemos jugado con las similitudes entre el sistema de almacenamiento de información de un ordenador y el de un organismo, comentando que cada una de las cuatro bases (A,T,G,C) pueden considerarse como letras de un alfabeto biológico con el que escribir mensajes en el ADN, pero ¿cómo funciona esto exactamente? Nuestros genes contienen instrucciones para la producción de proteínas, por lo que los “mensajes” de nuestro ADN deben codificar proteínas de alguna forma. Es necesario comprender la naturaleza química de las proteínas para entender cómo: las propiedades de una proteína (directamente responsables de su función), están determinadas por su estructura tridimensional, la cual es consecuencia directa de la cadena de aminoácidos que la

Figura 6: Podemos apreciar los sucesivos pasos de enrrollamiento del ADN, desde la doble hélice hasta el cromosoma final.

formando la cadena de ADN. Estas subunidades presentan una polaridad química que transmiten a la molécula final, de manera que los dos extremos de la cadena serán fácilmente diferenciables: por un lado encontraremos un fosfato (extremo 5’) y por el otro un hidroxilo (extremo 3’). Watson y Crick establecieron con su modelo que en la molécula de ADN, ambas cadenas son complementarias entre sí, ya que en cada peldaño de la escalera encontramos los pares A-T o G-C (pares de bases). Esta relación complementaria es fundamental tanto para la replicación como para la expresión génica. En realidad, la estructura tridimensional del ADN no es más que una consecuencia de las propiedades químicas y estructurales que tienen las cadenas de polinucleótidos. Las dos cadenas se mantienen unidas entre sí gracias a los enlaces de hidrógeno que se forman entre las bases de las diferentes cadenas. Por lo tanto, las bases se encuentran en el interior de la doble hélice y el esqueleto de azúcar-fosfato en la periferia. Además, los miembros de cada par de bases sólo pueden unirse si las dos cadenas son antiparalelas (la polaridad de una cadena es opuesta a la de la otra).

Las funciones del ADN: la clave de la herencia genética Ya hemos visto brevemente la estructura del ADN, indispensable para entender su función. El descubrimien-

Figura 7: Aquí podemos observar cómo cada una de las hebras parentales actúa como molde de una hebra hija.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

122


Figura 8. Podemos apreciar las diferencias en la replicación de la hebra líder y de la hebra retrasada. Obsérvese cómo se sintetiza cada fragmento de Okazaki independientemente y luego se unen.

forman. Por lo tanto, la secuencia de nucleótidos de un gen debe describir la secuencia de aminoácidos de una proteína. El alfabeto del ADN (de 4 letras), se traduce de esta forma en el alfabeto de los aminoácidos (de 20 letras o aminoácidos) mediante distintas combinaciones. Esta correspondencia no se deduce directamente de la estructura del ADN, y llevó tiempo dilucidarla por completo. A este mecanismo por el cual la secuencia de nucleótidos de un gen se traduce a la secuencia de aminoácidos de una proteína se lo conoce como expresión génica. Los mecanismos por los cuales el ADN codifica proteínas y por el cual se replica serán tratados más adelante.

La mayor parte de nuestro ADN es “basura” Hemos dicho que el objetivo último del ADN es permitir a la célula sintetizar todas las proteínas que necesita, pero no hemos mencionado no todo el ADN codifica proteínas (es decir, compone genes). Distinguimos entre el ADN codificante (codifica proteínas) y el no codificante (o basura, que no codifica proteínas). Durante muchos años los científicos pensaron que este ADN no tenía utilidad, de ahí el nombre que recibió. No obstante, no parecía lógico que en el ser humano (por poner un ejemplo) el 90% del ADN no codificara nada. Esto contradecía la idea, poco ortodoxa aunque a menudo acertada, de que en la naturaleza las cosas están por algo. Además, existen secuencias de ADN cuya función es es-

tructural: ADN centromérico y telomérico. Por otra parte, algunos genes no codifican proteínas, aunque sí que se transcriben en ARN.

El ADN de una de tus células es más alto que tú. Llamamos genoma al conjunto completo de la información almacenada en el ADN de un organismo y que contiene la información de todas sus proteínas (también se utiliza genoma para referirse al ADN que contiene esta información). La cantidad total de esta información es tan enorme que cada célula humana contiene 2 metros de ADN, que la célula es capaz de recoger en un espacio de unas 6 micras. No sólo eso, sino que si escribiéramos toda la secuencia de ADN del genoma humano llenaríamos más de 1.000 libros (todos más gruesos que el más grueso de los libros de George R.R. Martin). Siguiendo con datos asombrosos sobre nuestro genoma, el genoma humano contiene la información necesaria para producir unas 30.000 proteínas. Por cierto, que toda esta información fue secuenciada gracias al proyecto científico internacional Proyecto Genoma Humano, en el que participó el propio Watson, junto a Francis Collins (y Craig Venter en el otro lado del cuadrilátero, véase la bibliografía recomendada para más información). Toda esta ingente cantidad de información es copiada con una fidelidad asombrosa (ver siguiente apartado) y empaquetada en un conjunto de cromosomas (en nuestro caso 46). Cada cromosoma lo forma una molécula de ADN aso-

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

123


ciada a proteínas que pliegan y empaquetan la fina hebra en una estructura mucho más compacta.

ARN: la otra cara de la moneda Aunque hasta ahora casi sólo hemos hablado del Ácido Desoxirribonucleico, lo cierto es que este no es el único ácido nucleico que nos podemos encontrar. No podemos dejar de mencionar al Ácido Ribonucleico (ARN), que ya fue presentado como el “padre” del ADN. El ARN es una macromolécula relativamente similar al ADN, con singulares diferencias: la primera es que la pentosa presente en sus nucleótidos es ribosa (en vez de desoxirribosa) y que en vez de Timina encontramos Uracilo (las otras tres bases son iguales que en el ADN). Además suele formar cadenas más cortas, y suele ser de cadena simple (monocatenario). No obstante, la diferencia más notable la encontramos en lo relativo a su función: todos los tipos de ARN que se sintetizan en la célula son una copia complementaria de una secuencia (más o menos larga) de desoxirribonucleótidos del ADN. Su papel principal es actuar de intermediario entre el contenedor de la información (el ADN) y el fin último de esa información (normalmente sintetizar alguna proteína). A pesar de esto, sería un enorme error decir que la única función del ARN es la de colaborar en el proceso de síntesis proteica, ya que muchos tipos de ARN regulan la expresión génica, al ser complementarios de determinadas secuencias de ADN o ARNm. Y no sólo eso, determinadas clases de ARN tienen una función catalítica, actuando como biocatalizadores. Por último, y como ya comentamos en un apartado anterior, el ARN puede almacenar la información genética Figura 9: Esquema sencillo de la transcripción. Obsérvese que de algunos organismos, como es el caso de ciertos virus sólo una de las dos hebras de ADN se emplea como molde para y viroides. la síntesis del ARN

Replicación, transcripción y traducción. Ya sabemos que el ADN es capaz de crear copias idénticas de sí mismo, y que la información contenida en su secuencia de nucleótidos es capaz de traducirse en cadenas de aminoácidos que finalmente dan lugar a proteínas. Igualmente, debe ser capaz de repararse, ya que numerosos factores pueden producir alteraciones como productos químicos, radiaciones, accidentes térmicos o moléculas reactivas. Veamos brevemente cómo se producen todos estos procesos. Cada uno de ellos podría dar por sí sólo un artículo, de forma que simplificaremos todo lo que podamos. El apareamiento de las bases (recordemos que las hebras de una molécula de ADN son complementarias) constituye el fundamento de su reparación y replicación. Figura 10: Esquema del proceso de traducción. El ribosoma lee las instrucciones del ARNm mientras el ARNt va incorporando

Antes de comenzar, resulta importante recordar los aminoácidos necesarios. que todos estos procesos no se producen necesariamente

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

124


Figura 11: Comparativa entre la estructura del ADN y la del ARN

de manera simultánea. No hay que imaginarlos como una cadena de producción donde se comienza con la replicación y se termina con la traducción. La replicación tiene lugar una sola vez en la vida de la célula: cuando ésta inicia su división (mitosis). Por otra parte, transcripción y traducción se producen de manera constante: continuamente se necesitan nuevas proteínas. A pesar de esto, ambas se encuentran separadas en el espacio (y por lo tanto en el tiempo) en los eucariotas, ya que la transcripción (que utiliza el ADN como molde) se realiza en el núcleo mientras que la traducción se produce en el citoplasma. Ahora sí, pónganse el cinturón que vamos. Llamamos replicación al proceso en el que una secuencia de nucleótidos de una cadena es copiada me-

diante el apareamiento de bases complementarias (A con T, y G con C), produciendo una secuencia complementaria de ADN. Cada una de las hebras existentes actúa como patrón de la nueva cadena: nuevos nucleótidos complementarios se van uniendo a las cadenas patrón, las cuales deben estar necesariamente separadas para que esto se produzca. La enzima responsable de este proceso, descubierta en 1957, es la ADN polimerasa. La región de replicación, que se va desplazando por la doble hélice, recibe el nombre de horquilla de replicación. Debido a que la ADN polimerasa sintetiza en dirección 5’ a 3’, el problema se soluciona de la siguiente forma: en una de las dos hebras patrón (líder) la replicación se produce de forma continua, mientras que en la otra (retrasada. Sí, se llama así) se produce una replicación discontinua (a trozos). Es

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

125


merasa. El ARN resultante, que transmite la información desde el ADN hasta el ribosoma (donde se sintetizará la proteína) recibe el nombre ARN mensajero (ARNm). Al último de los procesos, en el que ya no interviene el ADN sino el ARN, se lo conoce como traducción. La traducción del ARNm consiste en la polimerización de aminoácidos en cadenas polipeptídicas. La “mesa de trabajo” para este proceso es el ribosoma. En el proceso entra en juego un nuevo tipo de ARN: el ARN de transferencia (ARNt), que como su nombre indica se encarga de transportar los aminoácidos a los ribosomas para que estos se vayan ensamblando en el orden correcto que indica el ARNm.

Figura 12: La PCR, un gran invento

el momento de contestar a la pregunta oculta en el título del artículo: el verdadero sentido de la vida es pues, 5’-3’ (y no 42 como erróneamente se piensa). El ADN de la célula no pasa directamente a formar proteínas, sino que se utiliza el ARN como intermediario (ver apartado sobre el ARN para más información). Cuando una célula necesita una proteína determinada, la secuencia de nucleótidos del ADN necesaria (una secuencia determinada en un océano de información) se copia primero a ARN, y a ese proceso lo conocemos como transcripción. En este caso, la enzima responsable de copiar las secuencias de ADN a secuencias de ARN es la ARN poli-

Figura 14. Si no se pone esta imagen de Watson y Crick en un artículo sobre el ADN es como que falta algo importante

Y todo esto, ¿a mí de qué me sirve? Resulta imposible encontrar una rama de la biología que no sea tocada por el largo tentáculo (tentáculo de doble hélice dextrógira, todo hay que decirlo) de la genética. Si cogemos un periódico y consultamos cualquier noticia sobre algún tipo de avance médico, veremos que casi seguro que se utilizaron PCRs durante esos ensayos. Por lo tanto podríamos decir que la respuesta a la pregunta que nos hacemos es: para todo. En este apartado intentaremos convenceros de la enorme cantidad de técnicas y avances relacionados con los ácidos nucleicos. Figura 13. La tecnología del ADN recombinante permitió la clonación de Dolly en 1996

Para empezar, el conocimiento de la estructura del ADN permitió desarrollar toda una serie de herramientas tecnológicas que aprovechan sus características

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

126


físico-químicas: la PCR (Reacción en Cadena de la Polimerasa), la Secuenciación del ADN, los Southern Blots o los Chips de ADN son el pan de cada día en muchos laboratorios de todo el mundo, con fines de lo más diversos. Conocer la estructura del ADN permitió desarrollar la tecnología del ADN recombinante (ADN artificial desarrollado in vitro) y gracias a eso nació la ingeniería genética, que nos permite transferir ADN entre organismos, corregir defectos genéticos y sintetizar numerosos compuestos. Las aplicaciones de la ingeniería genética ocuparían medio artículo, pero entre ellas encontramos la creación artificial de compuestos como la insulina, el desarrollo de vacunas, mejora de especies de interés humano, usos en terapia génica… Por otro lado, la secuenciación del ADN consiste en conocer la secuencia de nucleótidos de un fragmento o fragmentos de ADN, y permite no sólo realizar estudios filogenéticos, sino que tiene también una aplicación bastante más directa en medicina forense. Otro ejemplo muy interesante sobre las aplicaciones de los ácidos nucleicos son los chips de ADN. Un chip de ADN (o microarray, biochip...) es una estructura sólida a la cual se une una colección de fragmentos de ADN. Sus aplicaciones incluyen el estudio de genes, la detección de mutaciones o la clasificación molecular de enfermedades (asociar ciertas enfermedades a mutaciones presentes en determinados genes).

Epigenética, microARNs, bioinformática… la genética cada vez tiene un mayor peso en el día a día del Homo sapiens. Su potencial para mejorar nuestra calidad de vida y la de los que nos rodean es infinito: vacunas, medicinas, alimentación… y todo empieza con el descubrimiento, en 1952, de el secreto de la vida. Fuentes: -Conceptos de Genética. 8º edición (Klug, Cummings & Spencer). -Biología molecular de la célula, 4º edición (Alberts et al) Lecturas recomendadas: -La doble hélice (James D. Watson): el propio Watson nos narra en primera persona el mayor descubrimiento del siglo XX. Imprescindible tanto por su parte científica como histórica y social (atención a sus comentarios sobre Franklin). - Qué loco propósito (Francis Crick): lo mismo pero contado desde la perspectiva de Crick, un peculiar personaje, defensor de la extravagante teoría de la Panspermia Dirigida, cuenta con algunas anécdotas de lo más jugosas. - La conquista del genoma humano (Kevin Davies): Crónica de la carrera por la obtención del mapa genético del ser humano. Davis, director de la revista Nature Genetics nos narra el espectacular relato de uno de los logros más impresionantes del s. XX. Amaréis u odiaréis a Venter al terminarlo (o ambas cosas).

Sergio Ferrer es (micro)biólogo, apasionado de la ciencia y de la divulgación. Podéis encontarlo de vez en cuando en su blog ‘La Muerte de un Ácaro’, y demasiado a menudo en su Twitter @SergioEfe.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

127


¿Qué está ocurriendo con los antioxidantes de nueva generación? Por Jose Manuel López Nicolás

S

i usted desea triunfar en el mundo de los alimentos funcionales solamente tiene que poner en la etiqueta de su producto el lema “rico en antioxidantes”, si además desea desembarcar en el sector farmacéutico no se le olvide añadir el slogan “compuesto contra el envejecimiento” y si, por último, se está planteando ocupar un importante nicho de mercado en el campo de la industria cosmética es absolutamente imprescindible que publicite su producto como “la molécula de la eterna juventud”. Luego hace falta una gran campaña publicitaria, un grupo de consumidores con pocos conocimientos científicos…y que la competencia no se enfade mucho.

<< El resveratrol ha sido durante muchos años en el rey de los compuestos con alta actividad biológica debido, principalmente, a su alta capacidad antioxidante >> fianza a otros. En los últimos años la palabra “antioxidante” tiene un espectacular efecto positivo allá donde se nombre. El consumidor la adora, los editores de revistas científicas ven con buenos ojos todos los “papers” que la incluyan en el título y la industria la ha empleado en innumerables campañas de marketing. Sin embargo, el vender la piel del oso antes de cazarlo se ha vuelto en contra de los antioxidantes y muchas moléculas que han sido portadas de medios de comunicación por sus supuestas milagrosas propiedades están empezando a ser puestas en entredicho… y ya era hora.

Sí, lo han acertado, en esta mi primera y espero que no sea la última colaboración en el apasionante proyecto de divulgación científica Journal of Feelsynapsis, voy a hablar de un tema de candente actualidad…los antioxidantes.

Como ejemplos de estas contundentes palabras pongamos el caso las dos moléculas estrella de los últimos años en el campo de los antioxidantes: el resve������ ratrol y las sirtuínas.

Pero no se alarmen, no están ustedes ante el típico artículo en el que se habla de radicales libres, vitaminas, carotenos, dieta mediterránea y demás tópicos existentes alrededor de este campo… hoy vamos a hablar de los antioxidantes de nueva generación, poniendo en cuarentena algunos de ellos y dándoles un voto de con-

Innumerable cantidad de publicaciones científicas, proyectos de investigación financiados y hasta un congreso mundial de carácter bianual dedicado exclusivamente a sus beneficiosas propiedades. El resveratrol ha sido durante muchos años en el rey de los compuestos con alta actividad biológica debido, principalmente, a su alta capacidad antioxidante.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

128


Este polifenol perteneciente a la familia de los estilbenos, y que tuvo la desgracia de ser bautizado un triste día como la molécula de la eterna juventud, se encuentra de forma natural en uvas y productos derivados (mosto o vino tinto) además de otros alimentos como nueces, cacahuetes y algunos otros. Además, recientemente han desembarcado en farmacias, herboristerías y tiendas de dietética innumerables cápsulas, comprimidos, gotas y/o mejunjes varios cuyo componente principal es el resveratrol y que, por un elevado precio, prometen efectos antienvejecimiento realmente sorprendentes. Tengo que reconocer que, por desgracia, estos productos se están convirtiendo en un auténtico filón para las empresas que los comercializan, sobre todo para algunas que se apoyan en dudosos informes realizados por algún “prestigioso” centro de investigación, a cambio de ciertas contraprestaciones, para avalar las surrealistas propiedades del resveratrol como molécula de la eterna juventud.

rada por los pacientes. Por supuesto de las propiedades antioxidantes del resveratrol…ni rastro. Las alarmas saltaron y, desde entonces, este compuesto está en el punto de mira de la comunidad científica, siendo mirados con lupa todos los artículos científicos relacionados con sus posibles efectos sobre la salud humana. ¿Y dónde están los grandes errores encontrados en ese juicio sumarísimo que se está abriendo contra la eterna promesa de los antioxidantes por prometernos la inmortalidad deseada….por algunos?

Tras una exhaustiva revisión bibliográfica de los trabajos publicados acerca del resveratrol es necesario destacar que los principales errores cometidos en su investigación que han llevado a descartarlo en la surrealista carrera por la eterna juventud se refieren principalmente a la escasez de ensayos clínicos en los que fundamentar su potencial efecto sobre organismos superiores, al empleo en los ensayos “in Pues bien, no hace vitro” de concentraciones de muchos meses saltó la sorpreantioxidante inadecuadas, a sa. Una empresa farmacéutica los pocos estudios existentes suspendió definitivamente un sobre los metabolitos secunensayo clínico frente al miedarios en los que se transforloma múltiple con un fármaco ma el antioxidante una vez que es una formulación de ingerido por el organismo, al resveratrol. uso de condiciones de pH y La suspensión fue debida temperatura en los estudios a que se habían registrado “in vitro” muy lejanas de las problemas renales en los pa<< En los últimos años la palabra existentes en el organismo cientes que habían recibido el humano y el empleo de altas fármaco debido, presuntamente, “antioxidante” tiene un espectacular concentraciones de disolvena que la ingesta de cantidades re- efecto positivo allá donde se nomtes orgánicos que, aunque lativamente altas de resveratrol bre. El consumidor la adora ... >> facilitan su solubilidad, impi(5 gramos diarios) fue mal toleThe Journal of Feelsynapsis | NO. 1 | Noviembre 2011

129


den su extrapolación a las condiciones reales que podemos encontrar bien en nuestro organismo o bien en los alimentos funcionales que podrían ser potencialmente enriquecidos con el resveratrol. Así que queridos investigadores, o cambiamos el tipo de investigación que se está haciendo con el resveratrol…o entre todos nos lo cargaremos definitivamente.

do a los seguidores de estas teorías. La revista “Nature” acaba de publicar un artículo en el que se pone fuertemente en entredicho el papel de las famosas sirtuínas, las primas cercanas del resveratrol, como moléculas antienvejecimiento. En estos artículos se acaba, de forma tajante, con dos de las más famosas teorías antienvejecimiento. Por un lado las sirtuínas no tienen efecto ninguno sobre la prolongación de la juventud y, por otro, el resveratrol no es un potente activador de las sirtuínas…. demoledor.

Pero cuando todo parecía perdido para el resveratrol, una puerta se abrió para los defensores de este polifenol. La esperanza lle Lo más grave de las convaba el nombre de sirtuínas, clusiones mostradas en una clase de enzimas (deael artículo publicado en cetilasas de histona NAD“Nature” no es que los dependientes) que, según Estructura cristalográfica de Sir 2 de levadura resultados encontrados varios artículos científicos, en organismos simples en eran las verdaderas responsables del efecto prolongador estudios previos no se hayan podido reproducir en made la vida y que, además, eran activadas por el resvemíferos, sino que los investigadores han demostrado que ratrol creando un tándem letal para el temido envejeciaquellos resultados publicados que aseguraban que las miento celular. sirtuínas prolongaban la vida de los organismos modelo anteriormente descritos, y que abrieron una puerta a El campo de investigación antienvejecimiento la esperanza entre los más optimistas, no eran ciertos… centrado en las sirtuínas y el resveratrol comenzó con como diría Dora la Exploradora: “Oh noooo”. la descripción del efecto prolongador de la vida del gen Sir2 (de la familia de las sirtuínas) No seré yo el que diga que el en levaduras. Posteriormente resveratrol y las sirtuínas no sirestas observaciones se amplia<< Así que queridos investigadores, ven para nada…ni mucho menos. ron también a otros organismos o cambiamos el tipo de investiga- Llevo años trabajando con estas modelo simples, como la mosca ción que se está haciendo con el moléculas y creo firmemente en (Drosophila melanogaster) y el algunas de las nuevas bondades resveratrol…o entre todos nos lo gusano (Caenorhabditis elegans). de estos compuestos que están La hipótesis que sostenía estos cargaremos definitivamente >> empezando a descubrirse…pero estudios es el efecto de la resme rebelo contra quienes intricción calórica que permitía tentan, a costa de enriquecerse, retrasar de manera efectiva el engañar al consumidor. Cambieenvejecimiento. Diferentes grupos de investigación han mos la forma de proceder y no dejemos que la búsqueda propuesto varias vías por las cuales la restricción calórica del “Santo Grial de la Eterna Juventud” nos impida ver puede afectar a la longevidad, siendo la activación de las otras propiedades positivas que sí tienen estos compuessirtuínas por el resveratrol la más importante. tos.

Pero de nuevo el chiringuito se les ha desmonta-

Pues bien, una vez expuesto la situación actual

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

130


<< La revista “Nature” acaba de publicar un artículo en el que se pone fuertemente en entredicho el papel de las famosas sirtuínas, las primas cercanas del resveratrol, como moléculas antienvejecimiento >> en torno a las moléculas antioxidantes, es necesario destacar que no todas son malas noticias…el panorama empieza a esclarecerse. Distintos grupos investigadores han tomado buena nota de todos esos errores cometidos hasta la fecha y están haciendo grandes avances en el descubrimiento de novedosos antioxidantes de nueva generación.

número de artículos científicos relacionados con las propiedades saludables del hydroxytyrosol que se publican en las mejores revistas internacionales. Entre las potenciales aplicaciones del hydroxytyrosol podemos destacar la disminución del riesgo cardiovascular al prevenir la oxidación del colesterol de baja densidad (LDL), la prevención del cáncer debido a la protección que ejerce al ADN ante el daño provocado por los radiales libres, la neuroprotección frente a inductores de estrés oxidativo relacionados con la enfermedad de Alzheimer, una gran actividad anti-inflamatoria debido al bloqueo que el hydroxytyrosol ejerce sobre la generación de radicales libres, la dermoprotección que el hydroxytyrosol ofrece a las a las células epiteliales de la radiación ultravioleta o la lucha contra el SIDA debido a que este antioxidante es un agente antiviral de amplio espectro que es capaz tanto de inhibir la proliferación del VIH. Es necesario indicar que, a pesar de que las expectativas que se levantan para el hydroxytyrosol son espectaculares, todas estas investigaciones se han realizado “in vitro” por lo que hacen falta posteriores estudios “in vivo” no solamente en animales inferiores y superiores sino también en humanos para valorar sus potenciales aplicaciones reales… ya veremos.

Podría citar a muchos y prometedores antioxidantes pero, al igual que hemos puesto en cuarentena a dos de ellos, el resveratrol y las sirtuínas, vamos a darle un voto de confianza a otros dos, el hydroxytyrosol y la feruloylnoradrenalina. El hydroxytyrosol es un orto-difenol con una importante actividad biológica que se encuentra en la naturaleza en la aceituna y en el aceite de oliva virgen extra bien en forma libre o en forma de éster, contribuyendo en un 70 a un 80% a la fracción fenólica total. Además, este compuesto es responsable junto con otros compuestos fenólicos del sabor amargo característico del aceite de oliva así como de su elevada estabilidad debido a su gran actividad antioxidante, muy superior a la de otros antioxidantes tradicionales. La importancia que está cobrando este antioxidante en la actualidad se ve reflejada en el elevado

Hydroxytyrosol

<< ... igual que hemos puesto en cuarentena a dos de ellos, el resveratrol y las sirtuínas, vamos a darle un voto de confianza a otros dos, el hydroxytyrosol y la feruloylnoradrenalina >> El segundo de los antioxidantes de nueva generación que presentamos en este artículo es la feruloyl-

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

131


Cis y trans feruloylnoradrenalina

<< Entre las potenciales aplicaciones del hydroxytyrosol podemos destacar la disminución del riesgo cardiovascular ..., la prevención del cáncer ..., la neuroprotección ... relacionados con la enfermedad de Alzheimer, una gran actividad anti-inflamatoria ..., la dermoprotección ... o la lucha contra el SIDA ... >> noradrenalina, un antioxidante natural que, según sus descubridores, un equipo de investigadores del Instituto de Biología Molecular y Celular de Valencia, es 4.5 veces más potente que la vitamina E, 10 veces más potente que la vitamina C y 14 veces más antioxidante que el resveratrol. Según los autores de la investigación que condujo al descubrimiento de este antioxidante en tomates, el poderoso antioxidante es producido cuando esta planta se encuentra bajo condiciones de estrés biótico o abiótico.

de gran interés para el diseño y desarrollo de nuevos alimentos funcionales. Otros posibles usos podrían darse en la industria petroquímica, como conservante de la gasolina, y en la industria de polímeros, utilizándose en la fabricación de fibras, productos de caucho, geotextiles y otros. En este caso, el antioxidante se utilizaría como estabilizante en el proceso de producción y para aumentar la vida útil del producto final. Como habrán visto las esperanzas depositadas en el hydroxytyrosol y la feruloylnoradrenalina son grandes…quizás demasiadas. Creo que, por su alta capacidad antioxidante, tanto el hydroxytyrosol como la feruloylnoradrenalina tienen un gran valor añadido que hay que saber explotar por lo que deseo sinceramente que todas las investigaciones lleguen a buen puerto ya que la causa lo merece.

En un artículo publicado en la revista Environmental and Experimental Botany, el grupo investigador sugiere que la Feruloylnoradrenalina podría ser utilizada por la industria alimentaria como conservante, debido a su acción como retardador del proceso de oxidación de los lípidos, impidiendo su enranciamiento y, por tanto, aumentando la calidad de los productos alimenticios. Por estas razones, << la Feruloylnoradrenalina podría ser utiy en caso de llegar a buen lizada por la industria alimentaria como puerto las futuras investigaciones sobre la Feruloyl- conservante, debido a su acción como renoradrenalina, este nuevo tardador del proceso de oxidación de los antioxidante podría conlípidos >> vertirse en una molécula

Sin embargo también espero que, si alguno de los pasos en la investigación en estos nuevos antioxidantes es negativo, los investigadores desarrollen alternativas para su investigación y no se empeñen, como ha ocurrido en el caso del resveratrol y de las sirtuínas y su supuesta relación con la teoría del envejecimiento, en comercia-

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

132


lizar cápsulas, pastillas y demás zarandajas ricas en este potente antioxidante a precio de oro aunque no estén demostradas sus ventajas.

Pero sobre todo, un ruego a las empresas que comercialicen este compuesto…y a los científicos que estén involucrados…no queremos otra molécula milagro que lo cure todo y nos haga alcanzar los 150 años sin una arruga en la piel y en perfecto estado de forma…en resumen, que no nos tomen por tontos…que no lo somos. Hemos expuesto el panorama actual y el futuro a corto y mediano plazo en el campo de las moléculas antioxidante de nueva generación. Sin embargo, y antes de concluir este artículo, me gustaría dejar una serie de preguntas en el aire relacionadas con este intrigante campo de la Bioquímica y la Biología Molecular. En la literatura se citan diferentes métodos para medir la capacidad antioxidante de una molécula, un fármaco, alimentos, etc.… “Palabrejas” como ORAC, ABTS, DPPH o FRAC son de uso común entre los que nos dedicamos a este tipo de estudios y se refieren a los diferentes tipos de ensayos comúnmente empleados para medir la capacidad antioxidante. Sin embargo algo falla en el sistema. Es cierto que al usar métodos diferentes los valores absolutos obtenidos en los análisis nunca serán idénticos ya que las unidades que se emplean son distintas pero….¿cómo es posible que según el método empleado haya veces que, por ejemplo, la uva tenga más capacidad antioxidante que el tomate pero si usas otra técnica diferente el resultado sea inverso? Si, como es citado en numerosos artículos científicos publicados en revistas de alto índice de impacto, todas las técnicas sirven indistintamente para medir la capacidad antioxidante de un alimento, el orden uva/tomate o tomate/uva siempre debería ser el mismo…pero no ocurre así.

¿No será que existe una serie de errores conceptuales en torno a la verdadera utilidad de cada una de las técnicas anteriormente citadas? ¿Es posible que estemos midiendo cosas diferentes con cada a una de ellas? ¿Cuál es la correcta para cada caso? A pesar de que en el campo científico esas preguntas son de obligada respuesta, yo hasta que nos volvamos a encontrar en Journal of Feelsynapsis no voy a buscar el elixir de la juventud ni en los antioxidantes tradicionales, ni en los de nueva generación, ni en ningún otro sitio… el maestro de maestros, el gran Joaquín Sabina, ya me dejó muy clarito en su canción “Pastillas para no soñar” que “Si lo que quieres es vivir 100 años… no pruebes los licores del placer…” Ese día decidí no vivir 100 años… Jose Fuentes: - Absence of effects of Sir2 overexpression on lifespan in C. elegans and Drosophila. Nature, 477, 482–485, 2011. - Bioactive compounds in wine: Resveratrol, hydroxytyrosol and melatonin: A review. Food Chemistry, 130, 797-813, 2012. - Identification of defence metabolites in tomato plants infected by the bacterial pathogen Pseudomonas syringae. Environmental and Experimental Botany, 74, 216-228, 2011.

José Manuel López Nicolás es Doctor en Ciencias Químicas por la Universidad de Murcia donde actualmente ocupa la Plaza de Profesor Titular en el Departamento de Bioquímica y Biología Molecular-A. Dentro de sus líneas de investigación destacan la "Encapsulación molecular de compuestos bioactivos", el "Análisis de sistemas antioxidantes" y la "Enzimología". Además es el administrador y redactor del Blog Scientia.

The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

133


Athene noctua (Mochuelo) Elegida Ave del a帽o 2011 por SEO/BirdLife

Ilustraci贸n de Vega Asensio (Norarte) The Journal of Feelsynapsis | NO. 1 | Noviembre 2011

134


Nº1 Journal of Feelsynapsis (JoF)