3-2 Dendra Medica / Ars Medica Vol 3, Num 2

Page 1

Ars Medica Revista de Humanidades

Volumen 3

Número 2

Diciembre 2004

Editorial La unión hace la fuerza José Luis Puerta

Artículos Malaria: situación, instrumentos de control, recursos y soluciones Pedro L. Alonso y Caterina Guinovart

Historia de la medicina psicosomática Erwin H. Ackerknecht

Convergencias actuales entre la neurociencia y el psicoanálisis Cecilio Paniagua

Salvando las distancias Alfonso Esquivel Rojas

Niveles de percepción Fernando Prieto Pérez

Diciembre 2004

Artículo especial ¿Por qué debemos ir a Marte? Francisco Anguita

Artículos breves ¿Quién teme las “alianzas entre el sector público y el sector privado” en salud global?

Vol. 3 N.º 2

Girindre Beeharry

El Institute of Medicine propone cauces para atajar la falta de seguro médico

Doce artículos para recordar

Ana Urroz

Págs. 163-302

Relato corto La marca del león Alonso Cueto

Crítica La sombra de John Ford

Patrocinan esta publicación:

Miguel Marías

Miscelánea El señor Kant se hace mayor Javier Ordóñez

Tratamiento actual de la ascitis: un ejemplo de investigación traslacional Juan Rodés y Antoni Trilla

Sonidos en el viento Ignacio Martínez-Mendizábal


*ROMANAS5

26/5/04

16:26

Página 1

Ars Medica. Revista de Humanidades es una publicación semestral (junio y noviembre) del Grupo Ars XXI de Comunicación, cuyo primer número apareció en junio de 2002. La revista tiene por objetivo contribuir a que se entienda mejor el nuevo paradigma que está operándose dentro de la medicina e interpretar el complejo mundo de la sanidad con una perspectiva holística. Por tanto, se pretende la interacción multidisciplinar con esa larga lista de materias que inciden en el ejercicio de la profesión: economía, derecho, administración, ética, sociología, tecnología, ecología, etcétera. También, desde estas páginas, se quiere fomentar el conocimiento y la enseñanza de las humanidades médicas, a la vez que se analizan los valores humanos que deben acompañar a la práctica clínica. Ars Medica. Revista de Humanidades is a half-year publication (June and November) of Grupo Ars XXI de Comunicación, whose first number appeared in June 2002. The journal aims to contribute to understanding the new paradigm that is operating within medicine better and interpret the complex world of health care with a holistic perspective. Thus, multidisciplinary interaction is aimed at with this long list of materials that effect the exercise of the profession: economy, law, administration, ethics, sociology, technology, ecology, etc. In addition, from these pages, it is desired to foster knowledge and the teaching of medical humanities while analyzing the human values that should accompany the clinical practice.

Redacción Director: José Luis Puerta López-Cózar Redactor Jefe: Santiago Prieto Rodríguez Coordinadora Editorial: Lola Díaz

Consejo Editorial Juan Luis Arsuaga Ferreras, Enrique Baca Baldomero, Juan Bestard Perelló, Lluís Cabero i Roura, Juan del Llano Señarís, José Ignacio Ferrando Morant, Julián García Vargas, José Luis González Quirós, Esperanza Guisado Moya, Juan José López-Ibor Aliño, Alfonso Moreno González, José Lázaro Sánchez, Leandro Plaza Celemín, Juan Rodés Teixidor, Julián Ruiz Ferrán

Periodicidad: 2 números al año Secretaría científica: Grupo Ars XXI de Comunicación, S.A. • Apolonio Morales 13, local F • 28036 Madrid Correo electrónico: rhum@ArsXXI.com www.ArsXXI.com/HUMAN Suscripciones: Grupo Ars XXI de Comunicación, S.A. • Paseo de Gracia 25, 3.º • 08007 Barcelona Correo electrónico: suscripciones@ArsXXI.com Consulte nuestra página web donde podrá obtener los artículos publicados Atención al cliente: Tel. (34) 902 195 484 • Correo electrónico: revistas@ArsXXI.com

Tarifa de suscripción anual El precio de la suscripción anual para profesionales será de 45,18 € en España y de 49,80 € fuera de España El precio de la suscripción anual para instituciones será de 75,93 € en España y de 93,45 € fuera de España Para el resto de tarifas de suscripción, consulte nuestra web

Barcelona Madrid Buenos Aires México D.F.

Grupo Ars XXI de Comunicación, S.A. Paseo de Gracia 25, 3.º • 08007 Barcelona • Tel. (34) 932 721 750 • Fax (34) 934 881 193 Apolonio Morales 13, local F • 28036 Madrid • Tel. (34) 915 611 438 • Fax (34) 914 113 966

©Copyright 2004 Medicina STM Editores, S.L. Publicación que cumple los requisitos de soporte válido ISSN: 1579-8607 Composición y compaginación: Singular Comunicació, S.L. • Valencia 448 • 08013 Barcelona Depósito Legal: B. 28.676-2002 Impresión: Gráficas y Estampaciones, S.L. • Eduardo Torroja 18, Nave 3 • 28820 Coslada (Madrid) Reservados todos los derechos. Queda rigurosamente prohibida, sin la autorización escrita del editor, bajo las sanciones establecidas por las leyes, la reproducción parcial o total de esta publicación por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento informático, y la distribución de ejemplares mediante alquiler o préstamo públicos.

LOPD: Informamos a los lectores que, según la ley 15/1999 de 13 de diciembre, sus datos personales forman parte de la base de datos de STM Editores, S.A. Si desea realizar cualquier rectificación o cancelación de los mismos, deberá enviar una solicitud por escrito a Grupo Ars XXI de Comunicación, S.A. Paseo de Gracia 25, 3.º, 08007 Barcelona.


sumario / contents

Editorial | Editorial 163

La unión hace la fuerza United We Stand José Luis Puerta

Artículos | Articles 166

Malaria: situación, instrumentos de control, recursos y soluciones Malaria: Situation, Control Tools, Resources and Solutions Pedro L. Alonso y Caterina Guinovart

180

Historia de la medicina psicosomática The History of Psychosomatic Medicine Erwin H. Ackerknecht

194

Convergencias actuales entre la neurociencia y el psicoanálisis Current Convergences between Neuroscience and Psychoanalysis Cecilio Paniagua

212

Salvando las distancias Shortening the Distances Alfonso Esquivel Rojas

226

Niveles de percepción Levels of Perception Fernando Prieto Pérez

Artículo especial | Special Article 236

¿Por qué debemos ir a Marte? Why Should We Go to Mars? Francisco Anguita

Artículos breves | Brief Reports 252

¿Quién teme las “alianzas entre el sector público y el sector privado” en salud global? Who’s Afraid of Public-Private Partnerships in Global Health? Girindre Beeharry


sumario / contents (cont.)

Artículos breves | Brief Reports 262

El Institute of Medicine propone cauces para atajar la falta de seguro médico The Institute of Medicine Offers Proposals to Hold Back the Lack of Health Insurance Ana Urroz

268 Doce artículos para recordar | Twelve Articles to Remember Relato corto | Short Story 273

La marca del león The Mark of the Lion Alonso Cueto

Crítica | Critic 282

La sombra de John Ford The Shadow of John Ford Miguel Marías

Miscelánea | Miscellaneous 288

El señor Kant se hace mayor Mister Kant Comes of Age Javier Ordóñez

295

Tratamiento actual de la ascitis: un ejemplo de investigación traslacional Current Treatment of Ascites: an Example of Translational Research Juan Rodés y Antoni Trilla

299

Sonidos en el viento Sounds in the Wind Ignacio Martínez-Mendizábal

302 Índice acumulativo de autores 2004-2005


Editorial

La unión hace la fuerza United We Stand ■ José Luis Puerta ■ El madrileño Pedro Alonso (véase su artículo, pp. 166-179) que se hizo médico en la Universidad Autónoma de Madrid, se consolidó como epidemiólogo en África, mayormente en Tanzania y Mozambique, y que trabaja —desde hace una docena de años— en el Hospital Clínico/IDIBAPS de Barcelona acaba de publicar, junto con un amplio grupo de colaboradores, los resultados de un ensayo clínico (1) acerca de la eficacia de una nueva vacuna contra la malaria. Este ensayo es importante sobre todo por dos motivos. El primero es obvio: los datos que arroja sobre la eficacia antipalúdica y la seguridad del preparado son, sin duda, alentadores, y permiten que el desarrollo de la vacuna prosiga. El segundo aspecto, en mi opinión tan importante si cabe como el primero, es la manera cómo se ha pergeñado y llevado a cabo la empresa de medir la eficacia de un tratamiento para una dolencia endémica en los países en desarrollo y que merma gravemente la salud y la economía de nuestros prójimos más necesitados. Efectivamente, el modus operandi del estudio, en lo tocante a las fuerzas e instituciones que se han agavillado en pos de un mismo objetivo, subraya el nacimiento de un nuevo paradigma —que no una panacea— cargado de posibles e inexplorados caminos que pueden ayudar a yugular los viejos y complejos problemas de salud que corroen a los países más pobres. Gracias a trabajos como éste, la idea (a la que no le faltan sus críticos y censores) de armar “alianzas entre los sectores público y privado” va dejando de ser eso, una simple “idea”, para convertirse en realidad. Como atinadamente apunta el economista mauriciano Beeharry (véase su artículo, pp. 252-261), siguiendo a R. Ridley, una alianza de estas características “implica un compromiso de las partes para lograr un objetivo determinado, que se expresa mediante el aporte conjunto de recursos y conocimientos específicos, así como la asunción —también por ambas partes— de los riesgos que se deriven”. En el caso que nos ocupa: a) una compañía farmacéutica (GSK) ha aportado una molécula y soporte técnico; b) un grupo sin ánimo de lucro (Centro de Salud Internacional del Hospital Clínico/IDIBAPS-Universidad de Barcelona) ha dirigido y participado activamente en el desarrollo del ensayo; c) el Gobierno de Mozambique ha respaldado más allá de las palabras el proyecto a través del Centro de Investigaç–ao da Manhiça y personal del Ministerio de Salud y de la Facultad de Medicina de Maputo (por justicia, debe mencionarse además Ars Medica. Revista de Humanidades 2004; 2:163-165

163


La unión hace la fuerza

El Dr. P. Alonso (centro) explica, en un poblado próximo al Centro de Investigaç–ao da Manhiça, a los Dres. J. Rodés (izquierda) y J. L. Puerta (derecha) algunos aspectos del ensayo sobre la nueva vacuna antipalúdica (agosto de 2003).

el compromiso personal del ex-primer ministro mozambiqueño, el médico Pascoal Mocumbi); y, por último, d) la Agencia Española de Cooperación Internacional (AECI) y la Malaria Vaccine Initiative (2) (en gran medida financiada por la Bill & Melinda Gates Foundation) han hecho posible con sus aportaciones la viabilidad financiera del Centro de Investigaç–ao da Manhiça. Pero los problemas de salud en los países pobres —permítaseme insistir en ello— son muy complejos. No terminan, aunque éste sea muchas veces un aspecto nuclear, con el descubrimiento de un fármaco ni tampoco con la posibilidad de poder acceder a él de forma más o menos gratuita. Conviene recordar que los dominios del paludismo, a comienzos del pasado siglo, abarcaban casi el 50% de la superficie terrestre (en España hace solo 50 años había casos autóctonos de malaria) y quedaron reducidos, cuando dicho siglo tocaba a su final, al 27% (3). La razón de este cambio no se debió precisamente a la existencia de una molécula milagrosa sino a un importante desarrollo económico y social (sobre todo en lo referente a educación) al que se unió, en los años 40 y 50, eficaces campañas antipalúdicas basadas principalmente en el uso de mosquiteras y fumigación intensiva con DDT (4). Aspecto que no es nimio y que nos recordaba recientemente la periodista Clare Kapp en un artículo en The Lancet: “muchos países africanos no gozan de estos lujos [mosquiteras y fumigación]… en la actualidad, solo un 2% de los niños africanos duermen al amparo de mosquiteras adecuadamente tratadas” (5). Este ensayo nos pone por fuerza de nuevo en el brete de recapacitar sobre nuestras estrategias y nuestros aliados en la lucha contra las enfermedades que afligen a los más 164

Ars Medica. Revista de Humanidades 2004; 2:163-165


José Luis Puerta

necesitados. Los gobiernos y las ONG —sin abdicar de las pertinentes y legítimas cautelas—deberían ver en los laboratorios no su némesis sino los socios naturales con los que desarrollar el tratamiento para los padecimientos que no lo tienen. Por su parte, la industria debería elegir otro promontorio desde el que divisar el acceso a los medicamentos en los países pobres no como un asunto filantrópico, sino como un negocio diferente del que es en occidente: con distintas reglas de juego en los aspectos comerciales, de distribución y de diseño de producto. O sea, repensar sus (legítimos) planes de negocio y de desarrollo de medicamentos desde la óptica de unas economías (y, en ocasiones, de unas culturas) que son incomparables con la nuestra. Algo así como lo que ingeniosamente nos propone en su último libro (The fortune at the bottom of the pyramid. Eradicating poverty through profits [6]) el conspicuo economista hindú C. K. Prahalad, cuya tesis puede esbozarse de la siguiente forma: si las empresas dejasen de pensar en los pobres como víctimas o como una mera carga, y empezasen a indagar sobre qué es lo que realmente necesitan y pueden comprar los que hallan en lo que él llama la “base de la pirámide”, esto es, los 4 o 5.000 millones de individuos que viven en el Planeta con menos de dos dólares al día (y que conforman un mercado de 13 billones de dólares al año), se abriría un nuevo mundo de oportunidades para todos e, incluso, de beneficios para las grandes empresas. Ahí queda este sugestivo escorzo y el título de la obra para los que hayan sido aguijoneados por la curiosidad. Como siempre, los que hacemos esta Revista de Humanidades deseamos que los contenidos recogidos en este nuevo número gocen de la estima general. Agradecemos a los lectores sus comentarios y a nuestros benefactores (Fundación Sanitas y Fundación Pfizer) el apoyo incondicional con que nos obsequian. Hasta el próximo mes de mayo. José Luis Puerta (rhum@ArsXXI.com)

Bibliografía 1.

2. 3. 4. 5. 6.

Alonso PL, Sacarlal J, Aponte JJ, Leach A, Macete E, Milman J, et al. Efficacy of the RTS,S/AS02A vaccine against Plasmodium falciparum infection and disease in young African children: randomised controlled trial. Lancet 2004; 364: 1411-1420. Véase: http://www.malariavaccine.org/. Hay SI, Guerra CA, Tatem AJ, Noor AM, Snow RW. The global distribution and population at risk of malaria: past, present, and future. Lancet Infect Dis 2004; 4: 327–336. Klausner R y Alonso P. An attack on all fronts. Nature 2004; 430: 930–931. Kapp C. Hazard or Help? Lancet 2004; 364: 1113-1114. Prahalad C K. The fortune at the bottom of the pyramid. Eradicating poverty through profits. Wharton School Publishing. 2004.

Ars Medica. Revista de Humanidades 2004; 2:163-165

165


Artículos

Malaria: situación, instrumentos de control, recursos y soluciones Malaria: Situation, Control Tools Resources and Solutions ■ Pedro L. Alonso y Caterina Guinovart Resumen La malaria afecta al 40% de la población mundial y causa entre 0,7 y 2,7 millones de muertes anuales, el 75% de las cuales corresponden a niños africanos. La malaria es a la vez consecuencia y causa de pobreza. Para combatirla contamos con tres estrategias básicas: control de vectores, disminución del contacto hombre-vector y fármacos para su prevención y tratamiento. Actualmente, su tratamiento es difícil por falta de medicamentos eficaces, seguros y baratos, aunque el tratamiento preventivo intermitente en niños pequeños y mujeres embarazadas de reciente desarrollo es muy prometedor. Es preciso mejorar estos instrumentos y encontrar otros nuevos, siendo el reto más importante el desarrollo de una vacuna eficaz y segura para los niños que viven en zonas endémicas.

Palabras clave Malaria. Control. Vacuna. Quimioprofilaxis

Abstract Malaria affects 40% of the world's population and is the cause of between 0,7 and 2.7 million deaths each year, of which 75% are African children. This disease is both a cause and consequence of poverty. The three basic strategies being used at this time to combat malaria are vector control, the reduction of human-vector contact and drugs for its prevention and treatment. At present, the treatment of malaria is hindered by the lack of effective, safe and cheap drugs, although a very promising intermittent preventive treatment in infants and pregnant women is being developed. It is necessary to improve these tools and discover new ones, being the most important challenge the development of an effective and safe vaccine for the children who live in endemic areas.

Los autores pertenecen al Centre de Salut Internacional, Hospital Clínic de Barcelona, Universidad de Barcelona (España). 166

Ars Medica. Revista de Humanidades 2004; 2:166-179


Pedro L. Alonso y Caterina Guinovart

Key words Malaria. Control. Vaccine. Chemoprophylaxis

■ La malaria, o paludismo, una enfermedad infecciosa causada por el parásito Plasmodium, afecta a más de 90 países tropicales y subtropicales en cinco continentes, donde vive el 40% de la población mundial. El 90% de los casos se producen en el África subsahariana —la gran mayoría por Plasmodium falciparum, la especie más virulenta del parásito— donde el impacto de la enfermedad es mayor. Se calcula que cada año ocurren de 300 a 500 millones de casos y entre 700.000 y 2.7 millones de muertes, correspondiendo el 75% de ellas a niños africanos (Breman 2001). Los menores de cinco años y las mujeres embarazadas son los grupos con mayor riesgo de desarrollar la enfermedad, sufrir sus complicaciones y morir. Cada 40 segundos fallece un niño en el mundo por su causa, lo que representa una pérdida de más de 2.000 vidas jóvenes cada día (Sachs 2002). La malaria es un problema prioritario de salud en muchos países, causando al menos el 20% de las muertes en niños menores de cinco años en el África subsahariana (WHO 2003) y siendo el primer motivo de asistencia a los centros sanitarios y de admisión hospitalaria en muchos países. Esta enfermedad causa también anemia, deteriora el estado nutricional, faci-

Figura 1. Mapa mundi donde se muestran las zonas endémicas de malaria.

Ars Medica. Revista de Humanidades 2004; 2:166-179

167


Malaria: situación, instrumentos de control, recursos y soluciones

lita el desarrollo de otras enfermedades y puede dejar secuelas graves si afecta al cerebro (malaria cerebral). Durante el embarazo provoca anemia en la madre y perjudica el desarrollo del feto, aumentado el riesgo de bajo peso al nacer y la mortalidad perinatal. El enorme impacto de esta enfermedad sobre la salud de las poblaciones es a la vez consecuencia y causa de pobreza. La pobreza facilita la transmisión de la malaria y ésta causa pobreza al reducir el crecimiento económico. En los países pobres las familias no tienen dinero para la protección personal (por ejemplo, mediante mosquiteras o insecticidas) o la atención médica en caso de enfermedad y los gobiernos invierten poco en programas de control. A su vez, la malaria tiene unos costes directos e indirectos muy elevados, tanto para las familias como para los gobiernos. Los costes directos incluyen los recursos (privados y públicos) que se gastan en prevención, diagnóstico, tratamiento, atención médica, educación y control de la enfermedad; y los indirectos, el dinero que se deja de ingresar debido a muertes o bajas laborales por episodios de malaria o enfermedades relacionadas. Además, interfiere con el crecimiento económico y el desarrollo a largo plazo, al provocar, por ejemplo, absentismo escolar, una alta tasa de mortalidad infantil que, a su vez, suele ir acompañada de una alta tasa de fertilidad, un alto gasto familiar que disminuye la capacidad de ahorro, etcétera. Igualmente, el riesgo de malaria en los países endémicos frena las inversiones extranjeras y el turismo, y disminuye los movimientos migratorios en busca de un trabajo mejor. Su impacto económico a largo plazo se refleja en la evolución del producto interior bruto (PIB). Entre 1965 y 1990 los países endémicos tuvieron un crecimiento económico anual 1,3% menor que el de los países sin malaria (después de tener en cuenta en el análisis otros determinantes estándares de crecimiento). La distribución global del PIB per cápita en 1995, ajustado por la capacidad adquisitiva, demuestra una clara y llamativa relación entre paludismo y pobreza: una comparación de los ingresos en países con y sin malaria indica que el PIB medio ajustado en países maláricos en 1995 era de 1.526 dólares americanos, comparado con 8.268 dólares en países sin malaria endémica (Sachs 2002). La situación de esta enfermedad en el mundo bien puede calificarse de desesperante y, en algunas áreas, sobre todo en el África subsahariana, está yendo a peor. Las razones son múltiples y van desde la cada vez más frecuente aparición de resistencias a los fármacos disponibles, asequibles y altamente eficaces hace unos años y que no tienen un sustituto inmediato, hasta el mal funcionamiento e inadecuación de los sistemas de salud y la falta de recursos financieros, humanos e institucionales. La malaria tiene que controlarse, igual que se hizo en el pasado en extensas áreas del mundo, donde había sido una enfermedad muy importante y se logró eliminar. Al igual que con muchos problemas del mundo en desarrollo, la comunidad internacional se ha comprometido, al menos en palabras, a conseguirlo; pero, como con otros muchos compromisos, no estamos logrando el objetivo. Cuando se vio que, con los instrumentos disponibles y las capacidades logísticas y técnicas del momento, la erradicación de la malaria estaba fuera de nuestro alcance, llegó un cierto 168

Ars Medica. Revista de Humanidades 2004; 2:166-179


Pedro L. Alonso y Caterina Guinovart

escepticismo y la pérdida de energías e impulso. Así, el final de los años 60, los años 70 y los 80 fueron testigos de un abandono de los programas de control en gran parte del África subSahariana y del resurgimiento masivo de la malaria junto con la impotencia de la comunidad internacional de salud pública. En la reunión de ministros de sanidad sobre malaria organizada por la Organización Mundial de la Salud (OMS) en 1992 en Ámsterdam, se señaló el reconocimiento del papel clave que juega esta enfermedad sobre el destino de grandes zonas del mundo. Posteriormente a la reunión surgieron varias iniciativas de alto nivel que ayudaron a considerarla como una prioridad en la agenda de la salud internacional y el desarrollo. El establecimiento del Multilateral Initiative on Malaria (MIM), la Declaración de Abuja de jefes de estado africanos, el lanzamiento de la Roll Back Initiative y la creación del Global Fund to combat AIDS, Malaria and Tuberculosis (GFATM) han cambiado el curso de la lucha contra esta enfermedad devastadora (WHO 2000). Existen vías para el control del paludismo y sería posible disminuir notablemente su impacto en la mayoría de países afectados. El Plasmodium tiene un ciclo vital complejo que se desarrolla en el hombre y en los mosquitos Anopheles, transmisores de la enfermedad. Cuando un mosquito pica a un individuo infectado el Plasmodium pasa al mosquito, donde completa su ciclo de reproducción sexual para pasar nuevamente al hombre cuando el mosquito pica a otro individuo, infectándole. Para controlar la malaria se puede actuar a cualquiera de estos tres niveles (mosquito, parásito, hombre) y sus interrelaciones. Hoy, el control está basado principalmente en el tratamiento presuntivo y rápido de los casos, la disminución del contacto hombre-vector y el control de los vectores. En la actualidad, la ciencia está abriendo vías para crear nuevos instrumentos para el control de la malaria, especialmente en el campo farmacológico y el desarrollo de vacunas y sistemas de control vectorial. Los recientes datos e información sobre los genomas de los tres organismos que interaccionan en esta antigua y complicada danza que produce la malaria —el humano, el parásito y el mosquito vector— abren la esperanza para el desarrollo de nuevas estrategias. En este artículo discutimos la perspectiva de cómo lo que sabemos y podemos hacer ahora se relaciona con lo que podremos hacer algún día. Es una perspectiva que contrapone nuestro enfado e impaciencia con la pasividad; nuestra indignación moral ante tanto sufrimiento y muertes desatendidas con el reconocimiento de la responsabilidad de idear soluciones para tratar con el mundo tal como es y no como nos gustaría que fuese. Para enfocar esta perspectiva, debemos hacernos cuatro preguntas: 1. ¿Tenemos hoy en día los métodos y los conocimientos para reducir, incluso reducir sustancialmente, la carga de malaria? 2. ¿Necesitamos mejores métodos? 3. ¿Los recursos y capacidades necesarios para el control del paludismo que hoy existen, son adecuados? 4. ¿Necesitamos nuevos abordajes para la movilización de recursos y estrategias para conseguir el control de esta enfermedad? Ars Medica. Revista de Humanidades 2004; 2:166-179

169


Malaria: situación, instrumentos de control, recursos y soluciones

Nos parece que la respuesta a todas estas preguntas es afirmativa. Pero, probablemente, la cuestión clave es: ¿cómo podemos avanzar de forma más eficaz —más allá de polémicas y acusaciones— entre las realidades actuales y el imperativo de desarrollar un futuro mejor? Unas realidades actuales que, en esencia, son dos: 1) Tenemos buenos sistemas y estrategias, pero son imperfectos, y 2) hemos conseguido que un número creciente de recursos, políticas y capacidades estén disponibles para ser aplicados en aquellos que los necesitan, pero ese número es aún inadecuado o insuficiente. El reto que plantea el paludismo es que los múltiples sectores y comunidades involucrados deben avanzar más allá de los objetivos y las peticiones para la acción, diseñando programas que tengan hoy el máximo impacto sobre esta enfermedad, movilizando más recursos, a la vez que facilitando el surgimiento de programas e intervenciones que se ajusten mejor a las realidades de recursos inadecuados. Esto requiere un difícil equilibrio entre pasión y posibilidades prácticas. El mundo necesita encontrar nuevos recursos mientras la comunidad de salud pública halla mejores maneras de asegurar que, sean cuales sean esos medios, tengan el máximo impacto. Debemos utilizar los instrumentos actuales, pero, a la vez, invertir en la creación de otros nuevos cuya efectividad, accesibilidad e implementación se diseñen para encajar con las inadecuaciones estructurales y de recursos que, aunque nos esforcemos, no desaparecerán, por lo menos en un futuro próximo. En resumen, la comunidad científica y de salud pública tiene que trabajar con los países en desarrollo y con los financiadores en el contexto de las inadecuaciones actuales, para actuar ahora mientras se mejoran los sistemas y los recursos disponibles.

En la actualidad, ¿cuáles son los instrumentos disponibles y cuáles sus limitaciones? Estos instrumentos se pueden agrupar en tres categorías: 1. Control de los vectores. 2. Métodos para disminuir el contacto hombre-vector. 3. Fármacos para la prevención y tratamiento de los enfermos. “Y una vez que es tanta la eficacia de la quina para curarnos y precavernos de semejantes males, no puedo en esta ocasion dexar de suplicar á S.M. se sirva dar las mas eficaces providencias, á fin de que todas las Ciudades de este continente queden bien abastecidas de un tan poderoso antídoto, y lo encuentren las gentes á un precio moderado, que de este modo se impedirán las adulteraciones que diferentes Boticarios hacen de esta corteza, mezclándola, y dando en lugar de ella otros leños que por el color se le asemejan”. Esto podía leerse en la carta del Dr. Josep Masdevall, Inspector de epidemias del Principado de Cataluña, al rey Carlos III 170

Ars Medica. Revista de Humanidades 2004; 2:166-179


Pedro L. Alonso y Caterina Guinovart

sobre la epidemia de malaria ocurrida en México en 1786, que causó más de 12.000 muertes (Riera Palmero 1996). 1. Control de vectores. A través del rociamiento intradomiciliario con insecticidas de depósito (RIID), gestión medioambiental y larvicidas se han salvado millones de vidas en todo el mundo. El uso del DDT para reducir los vectores adultos, el uso de gambusia para controlar las larvas de Anopheles y la ingeniería civil para reducir los criaderos de mosquitos, fueron claves en los esfuerzos y éxitos para eliminar la transmisión de la malaria en gran parte de la Europa Mediterránea a principios y mediados del siglo XX (Bruce-Chwatt 1980). El rociamiento intradomiciliario con insecticidas de depósito ha sido y sigue siendo un componente esencial del control de la malaria en gran parte de América Latina y Asia; en cambio su uso es muy limitado en la mayoría de África subsahariana. Este sistema, caro, de implementación logísticamente compleja y moderadamente eficaz, es poco adecuado en la mayor parte del África subsahariana, quizás con la excepción de grandes áreas urbanas o zonas económicamente desarrolladas y dependientes del turismo situadas en la frontera de la transmisión de malaria en Sudáfrica. El uso de grandes cantidades de insecticidas, a menudo DDT, el surgimiento y propagación de vectores resistentes, así como la evidencia de que otros métodos, como las mosquiteras impregnadas de insecticida, tienen una mayor aceptación comunitaria y una eficacia similar (Curtis 1998), han limitado las áreas geográficas y ecológicas donde es razonable usar el RIID. 2. Métodos para disminuir el contacto hombre-vector. Se basan sobre todo en el uso de mosquiteras impregnadas de insecticida (MII). Aunque fueron usadas hace casi 100 años por las tropas rusas en Crimea (Lindsay 1988), las MII sólo se redescubrieron al inicio de los años 80. Su impacto tanto en la reducción de la morbilidad como de la mortalidad en un amplio rango de escenarios epidemiológicos y sociales ha sido bien establecido a través de un esfuerzo concertado de ensayos aleatorizados. Hay evidencia de que el uso de MII reduce la mortalidad alrededor del 20% en los niños menores de cinco años en África (Lengeler 2004), y de que este efecto se mantiene con el tiempo y en áreas de muy alta transmisión, al contrario de lo que se había especulado previamente. No obstante, las agencias internacionales, los gobiernos y la comunidad de salud pública han fracasado masivamente, dado que menos del 2% de los africanos duermen bajo MII, que por 5$ pueden salvar la vida al principio del siglo XXI (WHO 2003). Los datos sobre su eficacia y efectividad en mejorar la supervivencia infantil, así como en prevenir los efectos perjudiciales de la malaria en mujeres embarazadas y en el feto, son más espectaculares que los de cualquier otra intervención sanitaria moderna. Sin embargo, en la era de la política de salud pública basada en la evidencia, esos resultados no se han trasladado a la práctica. La dificultad de hacer llegar las mosquiteras a toda la población de riesgo y su coste representan obstáculos importantes para su implantación. La insuficiente investigación operacional sobre cómo implementar esta intervención de forma Ars Medica. Revista de Humanidades 2004; 2:166-179

171


Malaria: situación, instrumentos de control, recursos y soluciones

socialmente aceptable, sostenible y costo-efectiva en distintos escenarios ha llevado a un debate entre los defensores del marketing social y los promotores de la distribución gratuita de MII, posponiendo una vez más su aplicación a gran escala. Los enfoques deberían ser complementarios más que contradictorios y tener en cuenta las características sociales y económicas de cada zona a la hora de aplicarlos. En algunos países hay iniciativas para comercializar las mosquiteras a precios bajos y a través de redes sociales para llegar al máximo de familias posible (Schellenberg 1999; Rowland 2002); pero extenderlas a países enteros requiere una organización muchas veces difícil. 3. Fármacos para la prevención y tratamiento de los enfermos. Hace años, África se conocía como la tumba del hombre blanco. Eso era en la época en que los fármacos adecuados para prevenir la infección no estaban disponibles, convirtiendo las zonas maláricas de África en zonas de alto riesgo para los no inmunes, tanto los visitantes extranjeros como los residentes jóvenes que aún no habían adquirido una inmunidad efectiva, causando una elevada mortalidad entre ellos y en los niños menores de cinco años. Actualmente la costa africana se está llenando de hoteles y complejos turísticos; y los turistas, con la ayuda de profilaxis antimalárica efectiva, pueden disfrutar de sus vacaciones de forma segura incluso en áreas de alta endemicidad de África del este y del oeste, donde la mortalidad por malaria continúa siendo alta en niños. La falta de fármacos adecuados, la evidencia de que la administración continuada de un antimalárico eficaz impide el desarrollo de la inmunidad contra la malaria en niños; y, aún más importante, la falta de sistemas adecuados para mantener la profilaxis durante muchos años a grandes porciones de la comunidad, junto con el riesgo percibido de que se promueve el desarrollo de resistencia farmacológica, han hecho que esta eficaz herramienta para el control de la malaria (Greenwood B 1984; Menendez 1997) sea de uso muy limitado como tratamiento de por vida de los habitantes de áreas maláricas de África subsahariana. Este ha sido el caso tanto en niños como en mujeres embarazadas, aunque en este último grupo estas preocupaciones no deberían ser un problema (Greenwood B 1989). El tratamiento con un fármaco efectivo de un caso confirmado o sospechoso de malaria ha sido y continúa siendo la piedra angular para el control de la enfermedad. Durante los últimos 50 años este tratamiento se ha basado en la cloroquina, un antimalárico seguro, muy eficaz, fácil de usar y barato, que se sigue usando en muchos países como terapéutica de primera línea. Sin embargo, en las últimas dos décadas las resistencias desarrolladas por el parásito a la cloroquina han aumentado enormemente, convirtiéndolo en un producto de muy poca utilidad en la mayoría de países. Al ser eficaz, muy barata y segura, las tres virtudes básicas que debe poseer un antimalárico de primera elección, hacen que la sustitución de la cloroquina sea realmente complicada. En especial, porque ante la sulfadoxina-pirimetamina (SP), el sustituto más usado hasta ahora, también ya han aparecido resistencias. El desarrollo de nuevos antimaláricos, por el poco esfuerzo y dinero invertidos, ha sido escaso durante muchos años. Así, apenas unos pocos productos nuevos, y ninguno de ellos tan 172

Ars Medica. Revista de Humanidades 2004; 2:166-179


Pedro L. Alonso y Caterina Guinovart

bueno como la cloroquina, han salido al mercado durante los últimos 20 años. Los derivados de la artemisinina, particularmente en combinación con otros antimaláricos, abren grandes esperanzas para reducir la transmisión y posponer potencialmente el desarrollo de resistencias (Adjuik 2004). Sin embargo, la producción global de derivados de la artemisinina siguiendo los estándares GMP (Buena Práctica de Manufactura) es aún pequeña. Esto, junto con su precio relativamente alto, los dejan fuera del alcance de las realidades económicas que actualmente existen en la mayoría de los países subsaharianos. Por otra parte, se han redescubierto otros fármacos, como la amodiaquina, que se han colocado, en combinación con otros medicamentos, como primera línea en el control de la malaria. El Malarone® (atovacuona y proguanil) es otro fármaco relativamente nuevo, muy eficaz y aún con pocas resistencias, pero cuyo elevadísimo precio impide que se pueda usar en los países en vías de desarrollo. Los últimos meses han sido testigo de un interesante debate internacional sobre cuáles son las opciones terapéuticas (Attaran 2004); pero a menudo éstas son consideradas poco realistas por parte de los ministros de sanidad a la hora de decidir las políticas de salud de los países con pocos recursos en el África subsahariana. Los medicamentos son sólo una parte de la ecuación para el éxito del tratamiento rápido de los casos de malaria. Los servicios de salud inadecuados, subfinanciados y a menudo con personal tan poco motivado como preparado, frecuentemente llegan sólo a una pequeña fracción de la población de riesgo. Hoy en día, y sólo por poner un ejemplo, en países como Mozambique, apenas el 50% de la población tiene acceso a los servicios nacionales de salud.

Nuevas estrategias de tratamiento preventivo intermitente Lo indicado previamente subraya la necesidad de desarrollar nuevas estrategias para llegar a los grupos de población más vulnerables, con el objetivo de prevenir las consecuencias más graves de la infección, sin impedir la adquisición de la inmunidad contra la malaria y, por lo tanto, aumentando la supervivencia infantil. El tratamiento preventivo intermitente en niños menores de un año (conocido en inglés como IPTi) es una estrategia desarrollada recientemente que en ensayos clínicos ha demostrado ser eficaz para disminuir el riesgo de malaria clínica en un 59% y de anemia en un 50% en niños menores de un año (Schellenberg 2001). Se trata de administrar un antimalárico (actualmente sulfadoxina-pirimetamina) a los niños en zonas de riesgo tres veces durante el primer año de vida, a través del Programa Ampliado de Inmunización (PAI) a los 2, 3 y 9 meses, junto a las vacunas básicas. Este programa usa los contactos sanitarios ya existentes entre el grupo de alto riesgo de niños menores de un año y el PAI, que es el único mecanismo de distribución de actuaciones sanitarias operativo en todas partes del mundo y que llega a los grupos de edad con mayor riesgo. Todavía quedan preguntas sin resolver sobre esta estrategia, pero ahora hay una iniciativa concertada para contestar estas preguntas y prepararse para una acción a gran escala. Un Ars Medica. Revista de Humanidades 2004; 2:166-179

173


Malaria: situación, instrumentos de control, recursos y soluciones

consorcio internacional de centros de investigación en Europa, Estados Unidos y África, junto con la OMS y UNICEF y financiado por la Fundación Gates, ha desarrollado un programa para la investigación y la implementación que tiene como objetivo generar evidencia sobre la seguridad, eficacia y efectividad de esta estrategia en un amplio rango de escenarios epidemiológicos; su potencial interacción con los antígenos de las vacunas del PAI cuando se coadministran, las percepciones sociales y comunitarias, así como hacer estimaciones de costeefectividad. En resumen, se pretende un enfoque amplio y detallado que genere evidencia para decidir la mejor política sanitaria que pueda contribuir al control de la malaria. Pero, aprendiendo de errores y experiencias pasadas, el consorcio internacional ya está planeando involucrar a los profesionales que toman las decisiones sobre políticas de salud, junto a instituciones nacionales e internacionales para que desarrollen planes para, si la evidencia lo sugiere, implementar esta estrategia. Con esto se pretende evitar la situación actual con las mosquiteras, en que un método eficaz no se está aplicando. La experiencia del IPTi puede convertirse en un modelo útil de cómo hacer la transición de los resultados científicos a la política e implementación. El tratamiento preventivo intermitente también ha mostrado resultados prometedores cuando se administra a mujeres embarazadas a través de las visitas prenatales (IPTp) (Shulman 1999). Aunque esta estrategia no ha pasado por un detallado proceso de desarrollo, sí ha sido adoptada en algunos países como parte del programa de control de la malaria y la comunidad internacional de salud pública se habría beneficiado de una evaluación más detallada de su aplicación en diferentes escenarios epidemiológicos. Además, se necesitan más estudios sobre la seguridad y la eficacia de diferentes fármacos antimaláricos durante el embarazo; así como la evaluación del efecto de intervenciones combinadas como, por ejemplo, las mosquiteras impregnadas de insecticida y las visitas prenatales.

Desarrollo de intervenciones a corto plazo Durante los próximos tres o cuatro años la comunidad científica y de salud pública deberá haber generado suficiente evidencia para guiar la decisión sobre el potencial real del IPTi como nuevo método para el control de la malaria en niños menores de un año en zonas endémicas. Se han establecido los mecanismos de tal forma que, si la evidencia apoya esta estrategia, ésta se tendría que aplicar de forma global y rápida a través de la involucración de gobiernos y agencias y financiadores internacionales. El uso y disponibilidad de nuevos fármacos será clave en los futuros esfuerzos de control. Si para el tratamiento preventivo intermitente tanto en embarazadas como en niños menores de un año, llegáramos a disponer de un medicamento eficaz y con una vida media larga con efecto profiláctico durante varias semanas, cualidades de la SP, podríamos enfrentarnos a una falta de fármacos para reemplazar la posible disminución de la eficacia de ésta. 174

Ars Medica. Revista de Humanidades 2004; 2:166-179


Pedro L. Alonso y Caterina Guinovart

Ars Medica. Revista de Humanidades 2004; 2:166-179

175


Malaria: situación, instrumentos de control, recursos y soluciones

Iniciativas como Medicines for Malaria Venture (MMV) han contribuido a que las líneas de desarrollo de potenciales nuevos antimaláricos estén más activas que nunca. En los próximos años deberían entrar nuevos fármacos en ensayos clínicos y avanzar en el desarrollo clínico hacia su registro y comercialización. Además, se tienen que implementar mecanismos para asegurar que el coste de estos nuevos fármacos no sea una barrera para su uso. En lo que respeta a mosquiteras impregnadas de insecticida se esperan dos grandes avances en los próximos años. En primer lugar, el logro de métodos para asegurar que el insecticida aplicado tenga efectos de larga duración, mejorará su efectividad al evitar el tener que reimpregnar las mosquiteras, algo logísticamente muy complicado. El segundo avance llegará cuando se recupere el impulso y el interés para lanzar campañas masivas para aplicar a gran escala esta eficaz intervención. Desde el proyecto de Garki en los años 60 (Molineaux 1980), ha habido pocos intentos para evaluar el impacto de estrategias combinadas y mantenidas para el control de la malaria en zonas endémicas de África. “El control de la malaria no debería ser una campaña, debería ser una política, un programa a largo plazo. No se puede conseguir o mantener a través de esfuerzos espasmódicos. Requiere la adopción de un programa que pueda implementarse, cuya razonable continuidad se sostenga por un largo período de años” (Boyd 1939). Es hora de desarrollar un esfuerzo amplio y mantenido, en una región o país suficientemente grande, donde se puedan ir incrementando progresivamente los instrumentos hoy disponibles a lo largo de un período de tiempo suficientemente largo. El objetivo sería aprender sobre el impacto combinado de diferentes métodos de control, así como medir el beneficio global para la salud y obtener el muy necesario conocimiento sobre cómo implementar y extender esta campaña de salud pública; generando evidencia que ayude a guiar futuras campañas. “Tiempo más que dinero, y continuidad más que perfección: estos tienen que ser los lemas que guíen el control de la malaria en el Trópico” (Russell 1936).

Posibilidades a largo plazo Como ocurre con todas las enfermedades infecciosas, las perspectivas a largo plazo tienen que dirigirse a la prevención. La malaria se ha controlado bien en extensas zonas subtropicales y temperadas del globo, no mediante un mejor tratamiento sino a través de la prevención, controlando los vectores. Las dificultades y costes del control ambiental de vectores en zonas de alta endemicidad y los pocos recursos disponibles son enormes. Futuras investigaciones darán lugar a nuevas oportunidades para el control vectorial: desde la posibilidad de desarrollar “sprays inteligentes” para reemplazar los insecticidas potencialmente tóxicos, hasta nuevos sistemas de control biológico del mosquito vector. Con todo, la herramienta más potente para luchar contra la malaria deberá ser una vacuna eficaz y segura. Hace varias décadas que los científicos están trabajando para desarrollar una 176

Ars Medica. Revista de Humanidades 2004; 2:166-179


Pedro L. Alonso y Caterina Guinovart

vacuna contra esta enfermedad; una tarea especialmente difícil por la complejidad del parásito y de su ciclo vital. El objetivo principal es conseguir una vacuna para niños pequeños que viven en zonas endémicas de Plasmodium falciparum. Ha habido varias vacunas candidatas que finalmente no han resultado ser eficaces en niños pequeños, como la Spf66, aunque no se conocen con certeza las razones de esta falta de eficacia. En los últimos años ha crecido el reconocimiento a nivel internacional de la necesidad de desarrollar una vacuna y han aumentado sustancialmente los fondos dedicados a ello. En estos momentos hay varias en distintas fases de investigación, y existe la fundada esperanza a tener una vacuna en el mercado en los próximos 10 a 15 años. Así, se están desarrollando vacunas contra cada una de las fases del ciclo vital del parásito: contra la fase preeritrocítica, la fase asexual eritrocítica y las formas sexuales del parásito. Mediante picaduras de mosquitos que transmiten esporozoitos irradiados se ha conseguido inmunizar eficazmente a voluntarios adultos (Hoffman 2002), y se sigue trabajando en esta línea. La vacuna candidata que está en una fase de desarrollo más avanzada es la RTS,S de GlaxoSmithKline, que ha demostrado su potencial en estudios realizados en voluntarios americanos no inmunes y en adultos gambianos semiinmunes (Stoute 1998; Bojang 2001). Actualmente se está realizando con ella un estudio de fase IIb en niños de 1 a 4 años en una zona endémica en Mozambique. La única otra vacuna candidata que también está en fase clínica de investigación es la FMP1, desarrollada por el Walter Reed Army Institute of Research (EEUU). Se está finalizando un estudio de fase I en niños en una zona endémica de Kenia para evaluar su seguridad y está previsto que el próximo año empiece un estudio de fase IIb para evaluar su eficacia. Otras vacunas candidatas están aún en fase preclínica de investigación, de las cuales las más avanzadas son las que contienen los antígenos AMA-1, MSP-2, MSP-3 y PfEMP-1. La búsqueda de nuevas vacunas preventivas eficaces es uno de los grandes retos científicos y tecnológicos de la salud internacional. Sabemos que los individuos que han estado expuestos repetidamente a la malaria desarrollan de forma precoz una inmunidad altamente efectiva contra sus complicaciones, incluidas las más graves como la muerte (Gupta 1999). Ello es esperanzador, pero la inmunidad que se desarrolla frente a la malaria es extraña. Así, no está claro cuánto persiste en ausencia de exposición continuada al parásito, algo que parece proteger más frente a la enfermedad que de la propia parasitemia. Con todo, hay muchas razones para ser optimista sobre las perspectivas a largo plazo de las vacunas. Finalmente, ha habido un cambio real en el desarrollo de fármacos antimaláricos, con un aumento en las colaboraciones en el sector público, el privado y entre ambos, con el compromiso no sólo de descubrir y desarrollar nuevos fármacos, sino también nuevas combinaciones y pautas y, especialmente, alternar nuevos productos de síntesis con las actuales artemisininas de suministro y coste limitado. Esperemos que este aumento en los recursos financieros destinados a luchar contra la malaria y en las instituciones e iniciativas dedicadas al control de esta enfermedad lleve a Ars Medica. Revista de Humanidades 2004; 2:166-179

177


Malaria: situación, instrumentos de control, recursos y soluciones

una disminución significativa de la carga que representa para tantos millones de personas en el mundo. Hoy se están estableciendo las bases científicas para que haya revoluciones en el control de la malaria. La pregunta de si se aprovecharán o no estas oportunidades y si, en el caso de que se aprovechen, seremos capaces de implementar a gran escala los medios necesarios para que lleguen a aquellos que lo necesitan, especialmente en África, es un verdadero examen de la responsabilidad global en la salud internacional.

Bibliografía recomendada • Adjuik M, Babiker A, Garner P, Olliaro P, Taylor W, White N; International Artemisinin Study Group. Artesunate combinations for treatment of malaria: meta-analysis. Lancet 2004; 363: 9-17. • Attaran A, Barnes KI, Curtis C, d'Alessandro U, Fanello CI, Galinski MR, et al. WHO, the Global Fund, and medical malpractice in malaria treatment. Lancet 2004; 363: 237-240. • Bojang K, Milligan PJ, Pinder M, Vigneron L, Alloueche A, Kester KE, et al. Efficacy of RTS,S/AS02 malaria vaccine against Plasmodium falciparum infection in semi-immune adult men in The Gambia: a randomised trial. Lancet 2001; 358: 1927-1934. • Boyd M. Malaria: retrospect and prospect. Am J Trop Med 1939; 19: 1. • Breman J. The ears of the hippopotamus: manifestations, determinants, and estimates of the malaria burden. Am J Trop Med Hyg 2001; 64(1-2S): 1-11. • Bruce-Chwatt L, de Zulueta J. The rise and fall of malaria in Europe. Oxford, Oxford University Press, 1980. • Curtis C, Maxwell CA, Finch RJ, Njunwa KJ. A comparison of use of a pyrethroid either for house spraying or for bednet treatment against malaria vectors. Trop Med Int Health 1998; 3: 619-631. • Greenwood B. Chloroquine prophylaxis and antibody response to immunisation. Lancet 1984; 2(8399): 402-403. • Greenwood B, Greenwood AM, Snow RW, Byass P, Bennett S, Hatib-N'Jie AB. The effects of malaria chemoprophylaxis given by traditional birth attendants on the course and outcome of pregnancy. Trans R Soc Trop Med Hyg 1989; 83: 589-594. • Gupta S, Snow RW, Donnelly CA, Marsh K, Newbold C. Immunity to non-cerebral severe malaria is acquired after one or two infections. Nat Med 1999; 5: 340-343. • Hoffman S, Goh LM, Luke TC, Schneider I, Le TP, Doolan DL, et al. Protection of humans against malaria by immunization with radiation-attenuated Plasmodium falciparum sporozoites. J Infect Dis 2002; 185: 1155-1164. • Lengeler C. Insecticide-treated bednets and curtains for preventing malaria. Cochrane Database Syst Rev 2004; 2: CD000363. • Lindsay S, Gibson ME. Bednets revisited— old idea, new angle. Parasitology Today 1988; 4: 270-272. • Menendez C, Kahigwa E, Hirt R, Vounatsou P, Aponte JJ, Font F, et al. Randomised placebo-controlled trial of iron supplementation and malaria chemoprophylaxis for prevention of severe anemia and malaria in Tanzanian infants. Lancet 1997; 350: 844-850. • Molineaux L, Gramiccia G. The Garki Project: Research on the epidemiology and control of malaria in the Sudan savanna of West Africa. Geneva, WHO, 1980. • Riera Palmero J. Epidemias de calenturas pútridas y malignas (1764-1783). Edición Facsímil de la obra de José Masdevall. Valladolid, Ediciones del Seminario de Historia de la Medicina, Universidad de Valladolid, 1996. 178

Ars Medica. Revista de Humanidades 2004; 2:166-179


Pedro L. Alonso y Caterina Guinovart

• Rowland M. Prevention of malaria in Afghanistan through social marketing of insecticide-treated nets: evaluation of coverage and effectiveness by cross-sectional surveys and passive surveillance. Trop Med Int Health 2002; 7: 813-822. • Russell P. Epidemiology of Malaria in the Philippines. Am. J. Pub. Health 1936; 26: 1-7. • Sachs J, Malaney P. The economic and social burden of malaria. Nature 2002; 415: 680-685. • Schellenberg D, Menendez C, Kahigwa E, Aponte J, Vidal J, Tanner M, et al. Intermittent treatment for malaria and anaemia control at time of routine vaccinations in Tanzanian infants: a randomised placebo-controlled trial. Lancet 2001; 357: 1471-1477. • Schellenberg J, Abdulla S, Minja H, Nathan R, Munkasa O, Marchant T, et al. KINET: a social marketing programme of treated nets and net treatment for malaria control in Tanzania, with evaluation of child health and long-term survival. Trans R Soc Trop Med Hyg 1999; 93: 225-231. • Shulman C, Dorman EK, Cutts F, Kawuondo K, Bulmer JN, Peshu N. et al. Intermittent sulphadoxine-pyrimethamine to prevent severe anaemia secondary to malaria in pregnancy: a randomised placebo-controlled trial. Lancet 1999; 353: 632-636. • Stoute J, Kester KE, Krzych U, Wellde BT, Hall T, White K, et al. Long-term efficacy and immune responses following immunization with the RTS,S malaria vaccine. J Infect Dis 1998; 178: 1139-1144. • WHO. The African summit on Roll Back Malaria. Abuja, Nigeria, 25 April 2000. Geneva 2000; document WHO/ CDS/RBM/2000.17. • WHO. The Africa malaria report. Geneva 2003.

Ars Medica. Revista de Humanidades 2004; 2:166-179

179


Artículos

Historia de la medicina psicosomática The History of Psychosomatic Medicine ■ Erwin H. Ackerknecht Resumen La medicina psicosomática comienza con los griegos. Halla un lugar en el sistema galénico en forma de enfermedades de la pasión, un concepto que estará en boga hasta mediado el siglo XIX. Todos los grandes clínicos franceses y alemanes de ese siglo estuvieron familiarizados con las enfermedades psicosomáticas. En el siglo XX ese campo fue monopolizado durante algún tiempo por los psicoanalistas. El especialista psicosomático es en esencia el médico que escucha al paciente.

Palabras clave Medicina psicosomática. Enfermedades de la pasión. Psicoterapia.

Abstract Psychosomatic medicine begins with the Greeks. It finds a place in Galens’s system as diseases of passion, a concept current until the middle of the nineteenth century. The great French and German clinicians of the nineteenth century were all familiar with psychosomatic diseases. During the twentieth century the field was for a while monopolized by psychoanalyst. The psychosomatic specialist is essentially the doctor who listens to the patients.

Key words Psychosomatic medicine. Diseases of passion. Psychotherapy.

El autor (1906-1988), médico, fue uno de los historiadores de la medicina más fecundos y sobresalientes del siglo pasado. Entre los muchos artículos, capítulos y libros que produjo a lo largo de su vida, destacamos A short history of medicine (1955), Medicine at the Paris hospital 1794-1848 (1967), A Short History of Psychiatry (1968) y, por la cercanía, su contribución a la Historia universal de la medicina (dirigida por Laín Entralgo, 1972-1974). El artículo (Ackerknecht EH. The history of psychosomatic medicine. Psychological Medicine, 1982; 12: 17-24) se reproduce con permiso del editor. La traducción es de Santiago Prieto. 180

Ars Medica. Revista de Humanidades 2004; 2:180-193


Erwin H. Ackerknecht

■ Introducción

Como una especialidad médica formal, que ofrece un cierto número de prácticas más o menos fundamentadas —300 según algunos expertos— (Nagel y Seifert, 1979), la medicina psicosomática es una entidad muy joven, con no más de algunas décadas de existencia. Sin embargo, cuando se la define en términos del reconocimiento de una psicogénesis parcial, o a veces total, de la enfermedad, una consideración tomada de las posibilidades de la psicoterapia, los orígenes de la medicina psicosomática son mucho más antiguos. Lo que esbozaremos en este artículo es la historia de ese último concepto. Un problema muy discutido, pero que en este trabajo consideraremos irrelevante, es saber si el espíritu y la mente son esencialmente materiales, o no. En la medida de nuestros actuales conocimientos todavía concebimos el cuerpo y la mente como dos entidades separadas. Eran diferentes en los pasados sistemas de creencias, y en las culturas primitivas no podemos hablar de medicina psicosomática ya que en ellas las enfermedades eran interpretadas básicamente no como la consecuencia de alteraciones somáticas, sino de influencias sobrenaturales como, por ejemplo, demonios o brujas. No obstante, algunas de las medidas terapéuticas utilizadas entonces, hoy nos parecen de naturaleza psicoterapéutica (Ackerknecht, 1971, p. 130).

Desde los griegos a Galeno La medicina grecorromana, la forma más antigua de medicina “naturalista” que conocemos, era radicalmente somática, algo que era del todo nuevo y opuesto a las creencias supranaturales previas. Por lo tanto, en los trabajos de Hipócrates y sus seguidores se hallan muy pocos elementos psicosomáticos. Los textos hipocráticos apenas contienen algunos comentarios sobre el alma y la enfermedad. Así, por ejemplo, la ira “contrae” y los buenos sentimientos “dilatan” el corazón; cada sentimiento gobierna un órgano; si el alma se enciende, el cuerpo se consume simultáneamente; en el tratamiento es muy importante la confianza; la alegría siempre es buena (Hipócrates, 1839). Por supuesto que existe la historia de Estratónica, referida por primera vez por Erasístrato1 y más tarde a Galeno, Avicena y Foresto. El diagnóstico de “enfermedad del amor” por la aceleración del pulso y otros síntomas vegetativos demuestra una cierta perspicacia psicológica. Del mismo modo, también hay algunas insinuaciones psicoterapéuticas en Asclepíades (padre 1 Nota de la Redacción.- Se cuenta que Erasístrato, llamado por el rey de los sirios para que curara a su hijo Antíoco, pidió que todas las mujeres que vivían en la corte desfilaran ante la cama del enfermo. Éste al ver a Estratónica, su joven madrastra, se le aceleró el pulso y comenzó a latirle rápida e irregularmente el corazón. Erasístrato llegó al origen del proceso psicosomático que padecía el enfermo, que no era sino la pasión que sentía por la esposa de su padre. Éste, prudentemente, abandonó a su mujer y la casó con su hijo, que quedó definitivamente curado.

Ars Medica. Revista de Humanidades 2004; 2:180-193

181


Historia de la medicina psicosomática

de la psicoterapia según von Feuchtersleben, 1845, p.35), Celso y Celio Aureliano, pero muy poco más hasta llegar a los tiempos de Galeno. Laín Entralgo (1956) atinadamente subrayó que en Grecia hubo una medicina de los filósofos a la vez que una medicina de los médicos, y que aquélla poseía una gran orientación psicosomática. Así, por ejemplo, en Pitágoras y sus seguidores existe la “higiene del alma”. En Platón encontramos observaciones despectivas sobre los médicos que tratan el cuerpo exclusivamente, omitiendo las “buenas palabras” para el alma, que son precisas para la curación (Platón, 1919, p.5). Existen cartas de Séneca, a las que Starobinski (1960; pp.29-30) de forma acertada llama “consultas esencialmente psicológicas”, en las que se describen los tratamientos en los templos de Asclepios (Edelstein y Edelstein, 1945).

Galeno y las enfermedades de la pasión Galeno, a pesar de estar tan mentalizado somáticamente como sus predecesores, en su gran sistema creó unos rudimentos de psicogénesis y psicoterapia; un concepto de medicina psicosomática que, al dirigir la atención al papel que desempeñan las “pasiones” en la patogenia y en el tratamiento, ejerció una profunda influencia hasta bien entrado el siglo XIX. Las pasiones, fruto del espíritu vital y previamente discutidas por Platón y Aristóteles, serían en el sistema galénico la sexta de las seis causas no naturales de la enfermedad. Todas las discusiones médicas sobre las pasiones, tan frecuentes en los siglos XVII y XVIII (entre 1550 y 1857 se publicaron más de cien libros sobre ese tema) son desarrollos de esa idea galénica. Aún más, del legado de Galeno probablemente es el concepto que ha sobrevivido más tiempo. La disertación de Esquirol Des passions considérées comme causes, symptômes et moyens curatifs de l´aliénation mentale fue publicada en 1805, y la Physiologie des Passions, de Alibert, lo fue ya bien entrado el siglo XIX, en 1837. Magendie todavía se refería a las pasiones en su Précis élémentaire de physiologie (1816), así como Johannes Müller, en su Handbuch der Physiologie des Menschen (1834-1840) (Starobinski, 1980; Virey, 1819). De igual modo, se publicaron tratados médicos sobre las pasiones tan tardíamente como 1866 (Lion), 1876 (Bourgeois), 1889 (Mantegazza), 1891 (Bergeret), 1893 (Bremond) y 1914 (Bougey). Y no fue hasta 1929 cuando en el Index catalogue of the Library of the Surgeon General se reemplaza el término “pasión” por el de “emoción”. No está claro por qué nunca se desveló el motivo por el que durante 1700 años existiera una ininterrumpida tradición psicosomática bajo la denominación de “pasiones”. De acuerdo con Galeno, las pasiones tanto pueden producir como curar una enfermedad; las pasiones pueden ser combatidas con las pasiones. El objetivo higiénico de Galeno era liberar al hombre de las pasiones, y su medicina espiritual aparentemente curaba el alma de la misma manera que su medicina física sanaba las enfermedades del cuerpo (Galeno, 1821; cf. García, 1972; Jarcho, 1970; Rather, 1968). 182

Ars Medica. Revista de Humanidades 2004; 2:180-193


Erwin H. Ackerknecht

Edad Media Durante la Edad Media los árabes fueron los primeros en mantener y enriquecer parcialmente el legado de los griegos. Razes, confesado seguidor de Galeno en su preocupación por dominar las pasiones, recomendaba el juego de damas y las ofrendas teatrales como métodos terapéuticos (Bräunlich, 1839, p. 20). Avicena, a su vez, subrayaba la importancia de la confianza y reconocía la autoridad de Hipócrates (Burton, 1931, p. 223). Maimónides, el gran médico judío que escribía en árabe, recomendaba para el tratamiento del asma la estimulación de las energías psíquicas por medio de perfumes, música y relatos alegres. Las emociones, afirmaba, producen cambios físicos; el tratamiento psicológico debe tener preferencia sobre cualquier otro; la filosofía es un importante medicamento (Maimónides, 1963). Posteriormente, entre los médicos medievales occidentales, Constantin estaba también a favor del empleo de la música. Arnaldo de Villanova sugería que las pasiones patógenas deben ser tratadas mediante otras pasiones (Starobinski, 1960, p. 37). El cirujano Henri de Mondeville destacaba la importancia de la confianza y las costumbres, así como la utilización de la alegría y la tristeza. Incluso, y a pesar de que no creía en ellos, recomendaba conjuros por la importancia de su efecto psicológico (Bossard, 1963). De Mondeville no sólo continuó las tradiciones psicosomáticas clásicas, sino que también fue un representante del punto de vista psicosomático empírico que tan a menudo encontramos en clínicos posteriores. Starobinski ha llamado la atención sobre la acción terapéutica del “ora et labora” de los monjes (Starobinski, 1960, p.36), un aspecto psicosomático incardinado en una sociedad en la que, de nuevo, la medicina estaba estrechamente relacionada con la religión.

Renacimiento e imaginación Durante el Renacimiento, que fue algo más que una recuperación de la medicina antigua, ya que durante él se tendió a emancipar de la religión a la nueva medicina y a la ciencia, se introdujo un nuevo concepto que llegaría a ser importante para la psicosomática: la idea de “imaginación”, capaz de producir y curar la enfermedad, y que es precursora del concepto moderno de sugestión. Varios médicos destacados del Renacimiento, como Cornelio Agripa, de la Porta, Cardano, Paracelso, Johannes Weyer, Pietro Pomponnazi, Libavius y Pico de la Mirandola, la utilizaron en contraposición con las explicaciones generales sobre la causa de la enfermedad (brujería), o con las curas “milagrosas” en términos sobrenaturales (Ackerknecht, 1968 b, pp. 16-22). No es una casualidad que uno de aquéllos, el holandés Johannes Weyer, un enérgico defensor de las pobres locas “brujas”, publicara un tratado sobre las pasiones: De ira morbo (Wierus, 1577). Ars Medica. Revista de Humanidades 2004; 2:180-193

183


Historia de la medicina psicosomática

Teorías psicogénicas pseudocausales Las teorías psicogénicas medievales sobre las causas de la peste perdurarían hasta el siglo Su representante más eminente fue van Helmont, que escribió sobre tres vías de tratar la enfermedad: verbis, herbis, lapidis (Ackerknecht, 1973). Son ejemplos relevantes del interés que hubo en el siglo XVII por las pasiones que el tratado de Descartes sobre las pasiones del alma fuera publicado en 1656; que Harvey explicara el cor bovinum de un paciente por las humillaciones que sufrió a lo largo de su vida (Hunter y Macalpine, 1963, p. 131), y que el iatroquímico Willis utilizara las matemáticas y los viajes con fines terapéuticos (Isler, 1965, p.134). Robert Burton, el gran recopilador del siglo XVII, y uno de los más grandes de todos los tiempos, se ocupó con cierto detalle de las pasiones como causa de enfermedades; la superstición, afirmaba, puede producir o curar la enfermedad; la oración debe ser recomendada en primer lugar, y después la medicación; en la terapéutica la confianza es lo más importante; para encauzar las pasiones ha de eliminarse la tristeza y el paciente debe discutir sus preocupaciones con el médico (Burton, 1931, pp. 223, 227, 388, 393, 467). Las explicaciones psicogénicas pseudocausales de la peste continuaron hasta entrado el siglo XVIII con Stahl, Rivinus, Gaub, van Swieten, Chirac, Hequet, Ettmüller, etcétera (Ackerknecht, 1981). Stahl, cuyo sistema global sobre la causa y el tratamiento de la enfermedad se basaba en el “anima”, el alma, y cuya influencia sobre sus contemporáneos fue considerable, abrió una nueva era de pensamiento en los campos de la psicogénesis y la psicoterapia. Su consideración de la “hipocondriasis” como psicogénica fue compartida por Hoffmann, Boerhaave, Whytt y Pinel (Fischer-Homberger, 1970, pp. 27, 124). Auenbrugger consideraba que la tuberculosis pulmonar en gran medida era una alteración psicogénica, igual que había pensado Morton en el siglo anterior (Ackerknecht, 1981). El cirujano Brambilla realizó observaciones sobre la influencia del espíritu en la curación de las heridas (Virey, 1819, p. 414). El también cirujano Bilguer insistía en que todo médico debía ser, además, médico del espíritu; para él la “hipocondriasis” era una enfermedad del cuerpo igual que del alma, y las fuertes impresiones mentales podían dar lugar a la curación (Farner, 1963). Van Swieten afirmaba que el cuerpo puede cambiar el espíritu y que el espíritu puede cambiar el cuerpo, estudiando a fondo esos fenómenos. Mantenía que, más que un simple razonamiento, las emociones opuestas pueden ser útiles terapéuticamente (van Swieten, 1755). El final del siglo XVII y del siglo XVIII vieron la aparición de varios tratados médicos sobre las pasiones como, por ejemplo, los de Albinus (1681), Stahl (1695), Hoffmann (1699), Alberti (1735), Junker (1733), Clark (1758), Zückert (1764), Scheidemantel (1787) y Falconer (1788). En el tratado de Falconer, que puede ser considerado el prototipo del género, el autor catalogaba las enfermedades por la cólera (la apoplejía y la fiebre, por ejemplo) y por el dolor (la histeria y la consunción, por ejemplo); así como las pasiones que pueden ayudar a curar enfermedades, como la ira (contra la gota) y el amor (que curaría las cardiopatías y las paresias); el miedo podría debilitar el cuerpo (produciría diarrea y tumores, por ejemplo), y la confianza XVII.

184

Ars Medica. Revista de Humanidades 2004; 2:180-193


Erwin H. Ackerknecht

podría curar las fiebres intermitentes o prevenir la peste. Falconer también citaba algunas otras causas tomadas de la literatura clásica. Así, afirmaba que el magnetismo animal podía causar efectos parecidos en el hombre; la depresión podía producir escorbuto, y la alegría protegería frente a él (Falconer, 1783). Otras aportaciones, como las de Sir George Baker (1755), Thomas Beddoes (1803) y Jos. Parrish (1805), también contienen valiosas incursiones en lo que podía empezar a denominarse medicina psicosomática (Hunter y Macalpine, 1963, pp. 399, 578, 592).

La psicosomática en Francia en el siglo

XIX

El siglo XIX fue testigo de muchos y nuevos enfoques científicos, grandes cambios en la nomenclatura, así como grandes progresos en el conocimiento del funcionamiento del cuerpo y en las causas de las enfermedades; pero la teoría y la práctica de la psicosomática continuaron sin desarrollarse (Ackerknecht, 1968a). A primera vista tal entidad surge en Francia, centro internacional de la medicina en la primera mitad del siglo XIX (Schneider, 1964). Aunque el interés principal de la nueva escuela de París estaba en la anatomía patológica y en el diagnóstico físico, sus representantes se preocuparon por muchos problemas psicosomáticos. El principal trabajo de su padre espiritual, Cabanis, fue un “informe sobre la naturaleza física y moral (psicológica, por ejemplo) del hombre”. Philippe Pinel, el destacado clínico de París que promovió el “tratamiento moral” (la psicoterapia), también se ocupó con cierta amplitud de las pasiones, a las que repartía entre las enfermedades psicosomáticas del corazón y del aparato digestivo con el nombre de neurosis o “hipocondriasis”. También consideraba a las erisipelas, la gota y la epilepsia como enfermedades psicosomáticas, afirmando que en ellas existiría una transición desde la anomalía funcional hasta la lesión anatómica. Corvisart, el pionero de la percusión, comenzaba su tratado sobre las enfermedades del corazón señalando sus elementos mentales. Incluso, aquellos somaticistas extremos como Broussais y Bouillard reconocieron la existencia de enfermedades psicogénicas gástricas o cardiacas. Laennec también defendía la existencia de “neurosis” funcionales, como el asma o las palpitaciones, e incluso argumentaba a favor de un factor psicogénico en la etiología de la tuberculosis pulmonar y del cáncer (Ackerknecht, 1981); este último también fue considerado psicogénico por autores como Amussat, Andral, Bichat, Cooper, Paget y Walshe. El organicista Rostand consideraba que muchas enfermedades eran consecuencia de experiencias psicológicas como la pena, y veía a las pasiones como poderosas fuerzas terapéuticas. Chomel (1857) creía que las raíces de la fiebre tifoidea debían buscarse en la nostalgia, y su experiencia clínica en la práctica privada (que favorece más las observaciones psicosomáticas que las salas de un hospital) inspiró su libro sobre la dispepsia. El único clínico de París que no mencionó las enfermedades psicosomáticas fue su amigo Pierre Louis, padre del método numérico; aunque Ars Medica. Revista de Humanidades 2004; 2:180-193

185


Historia de la medicina psicosomática

Grisolle, discípulo de Louis, sí enumeró no menos de trece enfermedades psicosomáticas. Piorry vio con claridad la influencia patogénica de las emociones, y facilitó una excelente descripción de la psicoterapia en la impotencia, a la vez que advertía contra la fácil e insistente realización de diagnósticos psicosomáticos. Andral mostró una actitud mental crítica y a la vez abierta hacia los argumentos psicológicos en relación con las enfermedades internas. El último de los grandes clínicos de París, Trousseau, pensaba que las enfermedades crónicas, mucho más que las epidémicas, necesitaban del estudio de la personalidad del paciente. Identificó factores psicológicos en algunas enfermedades como el hipertiroidismo, diarrea, dispepsia, angina de pecho y asma. La ecuánime descripción de su propio asma es todo un clásico de la medicina descriptiva (Trousseau, 1861). De acuerdo con sus enseñanzas, las neurosis pueden intercambiarse. Otros famosos psicoterapeutas franceses y médicos psicólogos de finales del siglo XIX, fueron Georget, Leuret, Raciborski, Lasègue, Voisin, Cérise, Raynaud, Janet, Dubois y, especialmente, Bernheim y Charcot, que observaron que “el mejor médico es aquél que inspira más esperanza”.

Alemania Durante el siglo diecinueve se produjeron acontecimientos similares en Alemania. Hufeland, probablemente el clínico más conocido de principios de ese siglo, al resumir su experiencia médica de toda una vida, reconocía que las causas de las enfermedades no son únicamente mecánicas y químicas, sino que en ellas también intervienen factores psicológicos, como las pasiones. Las halló en ciertas alteraciones del estómago, hígado, nervios, o en el escorbuto, que estaría causado por la tristeza (Hufeland, 1839). Von Feuchtersleben, en su libro de psicoterapia médica, aún catalogaba las pasiones y sus efectos, tanto patógenos como terapéuticos: la ira puede afectar a la bilis y al corazón; la depresión puede causar amenorrea, tifus, corea, escorbuto, hidropesía, cirrosis y cáncer; los sustos producirían convulsiones y apoplejía; el miedo es capaz de causar diarrea, erisipelas y enuresis, y también facilitaría los contagios (von Feuchtersleben, 1845, pp. 150, 198). Hafter (1981) ha llamado la atención recientemente por los escritos del clínico Johan Christian Reil, un pionero de la psicoterapia y la medicina psicosomática, que consideraba necesario preparar a todos los médicos no sólo en cirugía y farmacoterapia, sino también en psicoterapia. De acuerdo con Reil, cualquier médico debe serlo del cuerpo y del espíritu. Su psicoterapia es una especie de mezcla de pedagogía aplicada y terapia conductista. Reil fue uno de los primeros en considerar al sistema nervioso vegetativo (la denominación es suya) como el puente entre el cuerpo y el alma mediante el que sería posible la influencia de la mente. La palabra “psicosomático” fue acuñada en 1818 por el psiquiatra J. C. A. Heinroth (1773-1843) (Margetts, 1950). En un libro de Bräunlich, Psychological Curative Medicine (1839), basado en otro tratado escrito por A. M. Vering (1817), se señala la continuidad del interés por este tema en el 186

Ars Medica. Revista de Humanidades 2004; 2:180-193


Erwin H. Ackerknecht

apartado de médicos alemanes, que en conjunto aportaron una gran cantidad de documentación histórica y consejos sobre cómo apelar al corazón, a la inteligencia y a la razón del paciente. La medicina alemana asumió el liderazgo internacional durante la segunda mitad del siglo XIX. Una mirada a los principales médicos alemanes de ese período (Egli, 1969), muestra que, a pesar de su fuerte orientación científica, antirromántica y somática, no pasaban por alto la psicogénesis ni la psicoterapia. Schoenlein estaba familiarizado con el concepto de enfermedades psicogénicas del cerebro y del corazón y, de acuerdo con su discípulo von Leyden, defendía junto con Traube la psicoterapia en sus enseñanzas. Otro alumno de Schoenlein, Lebert, incluye un capítulo sobre “tratamiento moral” en su libro de 1865. Wunderlich, que introdujo el registro de la temperatura, veía a las emociones depresivas como factores que contribuyen a las cardiopatías, úlcera péptica, ictericia, diabetes, anemia y apoplejía. Ziemsen alude a los aspectos neuróticos del asma y a los muchos pesares que resume como “neurastenia” (en especial las alteraciones del aparato gastrointestinal), que le parecía derivaban de problemas planteados por la civilización y por las dificultades personales. Von Leyden recomendaba la psicoterapia para afecciones psicogénicas del corazón, pulmón (asma) y estómago. Los neurólogos Erb, Binz y Lewandowski aconsejaban la psicoterapia en el tratamiento de la ataxia locomotora. Rosembach escribió con profusión sobre psicogénesis y psicoterapia; y debe destacarse que Strümpell, el clínico y neurólogo de Leipzig que entre 1883 y 1930 dominó la medicina interna en Alemania, dedicó a la psicosomática una atención progresivamente mayor (Japp, 1970). Strümpell estudió las cardiopatías a las que son proclives los hombres de negocios, y llegó a reconocer un componente psicogénico en el asma, la úlcera péptica, la migraña, tirotoxicosis, diabetes e ictericia. Consideraba que el número de enfermedades psicogénicas era equivalente al de enfermedades somáticas. Asimismo, los dos tempranos libros de gastroenterología de Ewald (1879) y Boas (1890) dedican la cuarta parte de sus textos a las “neurosis” del tracto gastrointestinal.

Gran Bretaña y EEUU Gran Bretaña no es menos rica en observaciones psicosomáticas durante el siglo XIX. Desde el principio hasta el fin del siglo, el gran fisiólogo y cirujano Benjamin Brodie (1836) hizo varias contribuciones en ese campo, desde enfermedades articulares “histéricas” hasta observaciones sobre sus propias dispepsia y ansiedad (Stainbrook, 1952). Daniel Hack Tuke (López Piñero y Morales Meseguer, 1966) aportó un Manual of Psychological Medicine (Tuke y Bucknill, 1858), que es un auténtico libro de medicina psicosomática, y un volumen titulado On the Influence of the Mind on Body (1872) que, al igual que los libros de Brodie está especialmente dedicado a los aspectos metafísicos del tema. Ya en 1834 Langston Parker había Ars Medica. Revista de Humanidades 2004; 2:180-193

187


Historia de la medicina psicosomática

apuntado la existencia de influencias psicógenas en la úlcera péptica, y otras observaciones suyas parecidas sirvieron de ejemplo para las de Ashwell y Churchill (amenorrea, 1843), Campbell (angina de pecho, 1862), Wood (enfermedades dermatológicas, 1856) y Birch (estreñimiento, 1868). Por otra parte, el papel que los médicos y cirujanos británicos desempeñaron en el crecimiento del hipnotismo científico está bien documentado a lo largo de la obra de Braid, Elliotson y Esdaile. En los primeros años de la medicina americana también son evidentes unas tendencias semejantes (Hall, 1944). Destacan entre ellas las observaciones fundamentales de William Beaumont (1833) sobre la influencia de las emociones en la mucosa gástrica, y los estudios psicosomáticos de Allen (asma, 1859), Jackson (dispepsia, 1855), Mitchell (cura de reposo, 1875), Putnam (tirotoxicosis, 1895) y Knight (asma, 1890). Los años noventa de ese siglo vieron la obra de Morton Prince, un original investigador-trabajador y pensador y amigo de Janet y Jung, cuyo trabajo sobre la personalidad múltiple le otorgó reputación internacional. Y, en cuanto a la Ciencia Cristiana de Mary Baker Eddy (1866), su aportación dentro de la contribución americana a la psicoterapia más bien fue un punto de escasa profesionalidad. Ciertas teorías psicogénicas derivadas en gran medida de la ignorancia aún permanecían sin control durante el siglo XIX. Así, por ejemplo, en la mitad del mismo hallamos explicaciones psicogénicas que autores respetables proponen para enfermedades como el tifus, cólera, fiebre tifoidea, rabia o paresia general (Ackerknecht, 1981). Las conquistas de la bacteriología acabarían con ellas. Los grandes descubrimientos científicos del siglo XIX en las áreas de la neurofisiología y la endocrinología permitieron establecer importantes conexiones en el campo que nos ocupa, y alentaron esperanzas para que pronto pudieran ser resueltos los problemas de la psicogénesis y la psicoterapia. Así, el descubrimiento de los reflejos por Marshall Hall en 1833 constituyó la base de las numerosas “neurosis reflejas” que posteriormente fueron comunicadas. La descripción de Bichat de los dos sistemas nerviosos —el animal (o periférico) y el orgánico (o autonómico)— abriría el camino para sistemas como los de Lobstein (1823) y Eulenburg (1873). El primero de los descubrimientos importantes en este terreno, fue el de los nervios vasomotores por Benedict Stilling, Claude Bernard y Brown Sequard (Acknerknecht, 1974). Asimismo, en la psicofisiología se produjo una gran y relevante experimentación desarrollada por Wundt y su escuela. Además, la hipnosis se difundió desde los comienzos del siglo XIX, inspirando, incluso antes de 1850, varios experimentos sobre cambios físicos producidos bajo su influjo (Ellenberger, 1970, p.76). En efecto, durante un tiempo la hipnosis llegó a ser una “moda” dominante, un método psicoterapéutico utilizado por médicos serios como Bernheim, Janet, Forel, Bleuler, Mobius, Brodmann, Oscar Vogt, Benedict y Breuer (Ackerknecht, 1968 b, p.88). Algunas de las aberrantes opiniones expresadas por los partidarios de la hipnosis dieron lugar a una reacción en forma de “psicoterapia racional en el estado vigil”, defendida por Rosenbach, Dejerine y, en especial, Dubois (18481918) de Berna. 188

Ars Medica. Revista de Humanidades 2004; 2:180-193


Erwin H. Ackerknecht

Siglo

XX

A la vista de los datos precedentes, la opinión, que todavía se oye en algunos reductos, de que la medicina psicosomática no existía antes de 1900 o que fue completamente desechada durante la segunda mitad del siglo XIX, sencillamente es errónea. Es cierto que el uso de la hipnosis se hizo menos frecuente hacia el cambio de siglo, pero Dubois estaba entonces de moda. Tras la muerte de Charcot, dos de sus discípulos más conocidos, Janet y Freud, comenzaron a desarrollar sus enseñanzas. Mientras el primero nunca creó una “escuela” (o, para ser más exactos, una secta o partido), Freud fue muy activo y afortunado al respecto. Los más creativos de sus alumnos, como Jung y Adler, se apartaron del movimiento freudiano hacia 1910 y fundaron sus propios grupos. Puede observarse que la tesis de Adler de la inferioridad del órgano, estaba especialmente próxima a la formulación psicosomática. El concepto propio de Freud de las neurosis psicogénicas y de los síntomas de conversión, abrieron posibilidades teóricas para la unificación de muchas observaciones psicosomáticas (Fischer-Homberger, 1970). Y la publicación de un trabajo colectivo sobre los diferentes métodos de psicoterapia (Parker, 1909) ilustra las mismas tendencias en EEUU. La Primera Guerra Mundial, con sus legiones de militares neuróticos, incrementó la tendencia hacia el pensamiento psicogénico en general (Ellenberger, 1970, p. 826; Laín Entralgo, 1956, p. 180; Buess, 1940, p. 127) y en particular hacia el psicoanálisis (FischerHomberger, 1976, pp. 151-159). La aparición de la revista Der Nervenartz en 1928 fue importante para la evolución de esta forma de pensamiento en el período comprendido entre 1920 y 1940. Oswald Schwarz publicó en 1925 su enciclopédica Psychogenese und Psychotherapie körperlicher Symptome. En ella revisaba todas las enfermedades potencialmente psicogénicas y discutía cada una de las formas de psicoterapia: la no sistemática, la sistemática no teórica (persuasión, hipnosis) y la sistemática teórica. Una antología similar, editada por Adam, fue publicada en Jena en 1921: entre las ocho colaboraciones con las que contaba merece un interés especial la de Berger, el inventor del EEG, quien, siguiendo al psicólogo William James, reconocía el papel de la psicogénesis y apoyaba la hipnosis como una forma de tratamiento. Otra antología de este tipo fue publicada por Birnbaum en 1927. El psiquiatra Kretschmer, famoso por sus estudios constitucionales, se convirtió en un activo psicoterapeuta y, en colaboración con los psicoanalistas Deutsch, Grodeck, Simmel y otros muchos, abordó problemas psicosomáticos. Sin embargo, no sólo los psicoanalistas y los psiquiatras se interesaron por estos temas. Internistas notables como Kraus, Siebold, von Bergmann (patología funcional, úlcera péptica) y Kiel también se ocuparon de ellos; y los trabajos de fisiólogos como Pavlov, Cannon y Hess, y Selye alentaron el pensamiento psicosomático.

Ars Medica. Revista de Humanidades 2004; 2:180-193

189


Historia de la medicina psicosomática

Después de 1933 El éxodo de Europa de psicoanalistas judíos tras el ascenso de Hitler y el estallido de la Segunda Guerra Mundial, desplazó hacia EEUU el centro de las actividades psicosomáticas. Un ejemplo de esta nueva orientación fue la publicación de Psychosomatic Diagnosis de Flanders Dunbar y Psychosomatic Medicine de Weiss y English, ambas aparecidas en 1943, la fundación de la división psicosomática del Chicago Institute por Franz Alexander, y la publicación del Journal of Psychosomatic Medicine en 1939. Dunbar y Alexander defendían por entonces la existencia de modelos específicos en la enfermedad psicosomática, y se iniciaba la era de la “iatropsicología” (Schneck). Es imposible referirnos aquí con detalle a acontecimientos que son demasiado recientes para someterlos a un análisis histórico; pero, como ha escrito Shepherd (1978) sobre ciertas afirmaciones de Dunbar: “Retrospectivamente es evidente que mucho de lo que pasó con la medicina psicosomática fue poco más que un ingenuo intento científico de imponer una teorización psicoanalítica en la enfermedad física, con el objetivo de demostrar una causa psicológica”. A este grave, aunque justo, juicio, debe añadirse, sin embargo, que si bien la mayoría de los primeros psicosomaticistas americanos eran freudianos o neofreudianos, existían otras influencias. Así, por ejemplo, Carl Rogers comenzó sus investigaciones en 1942, y no debe pasarse por alto el importante trabajo experimental de Harold Wolff y Jules Massermann (Laín Entralgo, 1956, p.187; Massermann, 1943; Alexander, 1966). A su vez, la terapia de grupo posee una larga historia en la que aparecen los nombres de Mesmer, Pratt, Bircher-Benner, Coué, Kinckel, Adler y Schilder (Ellenberger, 1970, p. 845; Bräutigam, 1975), si bien, sería la llegada de Moreno a principios de los años treinta la que consolidó su posición. Durante la posguerra la medicina psicosomática volvió a sus antiguos centros europeos. Von Weizsacker, influido simultáneamente por su maestro Krehl y por Freud, basó su terapia sobre la búsqueda del “significado” de la enfermedad. Por su parte, Misterlich desarrolló una aproximación izquierdista freudiana al tema. La terapia de von Uexkull es una aplicación de las teorías biológicas de su padre. El exitoso “entrenamiento autógeno” de Schultz vuelve a las primitivas ideas de Oscar Vogt sobre la autohipnopsis. El movimiento psicosomático en Gran Bretaña, simbolizado en la aparición del Journal of Psychosomatic Research en 1956, le debe más a las tradiciones empíricas británicas que a las teorías europeas “continentales”. Si bien, todavía existen allí innumerables teorías tanto sobre el origen de las enfermedades psicosomáticas como sobre las técnicas psicoterápicas, parece haberse llegado a un acuerdo en un punto esencial: que el elemento fundamental de la medicina psicosomática es el diálogo entre el médico y el paciente, su cooperación, el redescubrimiento del “noble arte de escuchar” de Dunbar, y la idea de “el médico como placebo” (Laín Entralgo, 1956, p. 173). Por ese camino puede llenarse el hiato creado por la progresiva mecanización de la medicina. Esta actual era nuestra, que tiende a resolver todos los problemas mediante la creación de nuevas especialidades, ha restaurado ese elemento esencial creando una especialidad nueva. El psi190

Ars Medica. Revista de Humanidades 2004; 2:180-193


Erwin H. Ackerknecht

cosomaticista parece ser, por encima de todo, el médico especializado en escuchar al paciente. El método puede parecerles extraño a algunos observadores, pero nosotros podemos estar satisfechos de haber conservado un especialista así.

Bibliografía (las citas se reproducen tal como aparecieron en el artículo original) • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • • •

Ackerknecht, E. H. (1968 a). Das Märchen vom verlorenen Psychosomatismus. Gesnerus 25, 113-115. Ackerknecht, E. H. (1968 b). A Short History of Psychiatry. Hafner: New York. Ackerknecht, E. H. (1971). Medicine and Ethnology. H. Huber: Bern. Ackerknecht, E. H. (1973). Therapy. Hafner: New York. Ackerknecht, E. H. (1974). The history of the discovery of the vegetative (autonomic) nervous system. Medical History 18, 1-8. Ackerknecht, E. H. (1981). Causes and pseudocauses in the history of diseases. In Fifty Years of the History of Medicine (ed. L. Stevensen). Johns Hopkins Institute: Baltimore. Adam, C. (1921). Die Psychologie und die artzliche Praxis. Fischer Verlag: Jena. Alberti, J. L. (1735). De medico affectu effectuum animus. Halle. Albinus, B. (1681). De affectibus animi. Frankfurt. Alexander, F. (1966). History of Psychiatry, pp. 397-401. Harper y Row: New York. Alibert, J. L. (1937). Physiologie des passions. Paris Allen, N. H. (1859). Mental emotions producing asthma. Boston Journal of Medicine and Surgery 21, 42-46 Ashwell, G. (1843). Treatise on Diseases of Women. Marvin: Boston. Bergeret, L. (1891). Les passions. Paris. Birch, S. B. (1968). Constipation of Bowels. Lindsay: Philadelphia. Birnbaum, K. (1927). Die psychischen Heilmittel. Thieme: Leipzig. Boas, I. (1890-3). Diagnose and Therapie der Magenkrankheiten. Thieme: Leipzig. Bosshard, J. A. (1963). Die Psychosomatik in der Chirugie des Mittelalters, besonders bei Henri de Mondeville, Juris: Zürich. Bourgey, A. (1914). Médecine des passions. Paris. Bourgeois, X. (1876). Passions in their Relation to Diseases. Boston. Bräunlich, M. (1839). Psychische Heilmittellehre. Meissen. Bräutigam, W. (1975). Psychosomatische Medizin, p. 77. Thieme: Stuttgart. Bremond, F. (1893). Les passions et la santé. Paris. Brodie, B. C. (1836). Pathological Observations on the Diseases of the Joints. Longman: London. Buess, H. (1940). Die Wandlungen des Psychogeniebegriffs, p. 127. Diss: Basle. Burton, R. (1931). The Anatomy of Melancholy (ed. F. Dell and P. Jordan Smith). Tudor: London. Campbell, F. W. (1862). Angina pectoris. Boston Journal of Medicine and Surgery 67, 390 Chomel, A. F. (1857). Des dyspepsies. Masson: Paris. Churchill, F. (1843). The Diseases of Females. Lea: Philadelphia. Clark, W. (1758). Dissertation Concerning the Effect of Passions on the Human Body. London. Dunbar, F. (1943). Psychosomatic Diagnosis. Hoeber: New York. Edelstein, L. y Edelstein, E. (1945). Asclepius. Johns Hopkins University Press: Baltimore. Egli, M. (1969). Psychosomatik bei den deutschen Klinikern des 19 Jahrhunderts. Juris: Zürich. Ellenberger, H. (1970). The Discovery of the Unconscious. Basic Books: New York.

Ars Medica. Revista de Humanidades 2004; 2:180-193

191


Historia de la medicina psicosomática

• Esquirol, J. E. D. (1805). Des passions considèrées comme causes, symptómes et moyens curatifs de l`aliénation mentale. Paris. • Eulenburg, A. (1873) Pathologie des Sympathicus. Berlin. • Ewald, C. A. (1879-1902). Klinik der Verdauungskrankheiten. Hirschwald: Berlín. • Falconer, W. (1788). The influence of Passions upon the Disorders of the Body. Dilly: London. • Farner, C. (1963). Der Bünder Chirung Joh. Ulrich Bilguer. Diss: Basle. • Von Feuchtersleben, E. (1845). Lehrbuch der ärztlichen Seelenheilkunde. Vienna. • Fischer-Homberger, E. (1970). Hypochondrie. H. Huber: Bern. • Fischer-Homberger, E. (1975). Die traumatische Neurose. H. Huber: Bern. • Galen (1821). Opera (ed. L. S. Kuehn). Ars medica. Vol. 1, p. 367. De sanitate tuenda, Vol. 2, p. 78. Lipsiae. • García, B. (1972). Galeno, p. 243. Guadarrama: Madrid. • Haffter, K. (1981). Johann Christian Reil, ein Pionier der Psychotherapie. In Herausforderung und Begegnung in der Psychiatrie (ed. R. Battegay), pp. 230-238. H. Huber: Bern. • Hall. J. K. (ed.) (1944). One Hundred Years of American Psychiatry. Hoeber: New York. • Hall, M. (1833). On the reflex action of the medulla. Philosophical Transactions 123, 635-665. • Hippocrates (1839). Oeuvres (ed. E. Littré). Vol. 4, pp. 575, 611, 641. Paris. • Hoffmann, F. (1699). De animae et corporsi commercio. Halle. • Hufeland C. W. (1839). Enehiridion medicum, pp. 10, 105, 122, 125, 310. St. Gallen. • Hunter, R. y Maculpine I. (1963). Three Hundred Years of Psychiatry. Oxford University Press: London. • Isler, H. R. (1965). Thomas Willis. Wissenschaftliche Verlagsgesellschaft: Stuttgart. • Jackson, J. (1855). Evolution and Dissolution of the Nervous System. London. • Japp, H. (1970). Strümpell und die Psychosomatik. Diss.: Zürich. • Jarcho, S. (1970). Galen`s six non-naturals. Bulletin of the History of Medicine 44, 372-377. • Juncker, J. (1733). De commotionibus patheticis corporis. Halle. • Knight, F. (1890). Rational treatment of bronchial asthma. Boston Journal of Medicine and Surgery 122, 80-82. • Lain Entralgo, P. (1956). Heilkunde in geschichtlicher Entscheidung. Salzburg. • Lobstein, J. G. C. F. M. (1823). La préeminence du système nerveux. Strasbourg. • Lion, A. (1866). Affekt und Leidenschaften. Neuwied. • López Piñero, J. M. y Morales Meseguer, J. M. (1956). Los comienzos de la psicoterapia contemporánea. Carpenter. Hack Tuke, J. H. Bennett. Medicina Española 65, 320. • Magendie, F. (1816). Précis élementaire de physiologie. Paris. • Maimonides (1963). Treatise on Asthma (ed. S. Muntner). Lippincott: Philadelphia. • Mantegazza, P. (1889). Fisiología del odio. Milano. • Margetts, E. L. (1950). The early history of the word psychosomatic. Canadian Medical Association Journal 63, 403. • Massermann, J. H. (1943). Behavior and Neurosis. University of Chicago Press: Chicago. • Mitchell, S. W. (1875). Rest in the Treatment of Nervous Diseases. Philadelphia. • Müller, J. (1834-40). Handbuch der Physiologie des Menschen. Koblenz. • Nagel, H. y Seifert, M. (1979). Inflation der Therapieformen. Rembeck. • Parker, L. (1834). On simple ulceration of the stomach. The Eclectic Journal of Medicine 3, 193-201. • Parker, W. B. (ed.) (1909). Psychotherapy. Central: New York. • Plato (1919). Charmenides. In Dialogs (ed. C. F. Hermann),Vol. 9, p. 5. Lipsiae. • Prince, M. (1898). Educational treatment of neurasthenia. Boston Journal of Medicine and Surgery 139, 332. • Putnam, J. J. (1895). Modern views of exophthalmic goiter. Boston Journal of Medicine and Surgery 133, 131-137. • Rather, L. S. (1968). Six things non-natural. Clio Medica 3, 337-347.

192

Ars Medica. Revista de Humanidades 2004; 2:180-193


Erwin H. Ackerknecht

• • • • • • • • • • • • • • • • • •

Scheidemantel, F. C. G. (1787). Die Leidenschaften als Heilmittel. Hildburghausen. Schneider, D. (1964). Psychosomatik in der Pariser Klinik von Pinel bis Trousseau. Juris: Zürich. Schwarz, O. (1925). Psychogenese und Psychotherapie körperlicher Symptome. Springer: Vienna. Shepherd, M. (1978). Epidemiological perspective of psychosomatic medicine. International Journal of Epidemiology 7, 201-204. Stuhl, G. E. (1695). De passionibus animi. Halle. Stainbrook, E. (1952). Psychosomatic medicine in the 19th century. Psychosomatic Medicine 14, 211-226. Starobinski, J. (1960). Histoire du traitement de la mélancholie dès origines á 1900. Geigy: Basle. Starobinski, J. (1980). Le passé de la passion. Nouvelle revue de psychoanalyse 21, 52-76. Trousseau, A. (1861). Clinique médicale, Vol. 1, p. 516. Paris. Tuke, D. H. (1872). On the influence of the Mind on the Body. Churchill: London. Tuke, D. H. y Bucknill, J. C. (1858). Manual of Psychological Medicine. Churchill: London. Van Swieten, G. (1755). Erläuterungen der Boerhaaveschen Lehrsätze, Vol. 1, pp. 81, 298; Vol. 3, p. 300. Vering, A. M. (1817). Psychische Heilkunde. Leipzig. Virey, J. J. (1819). Passion. In Dictionnaire des sciences médicales (ed. J. Raige-Delorme), Vol. 39, pp. 412-486. Paris. Weiss, E. y English, D. S. (1943). Psychosomatic Medicine. W. B. Saunders: Philadelphia. Wierus, J. (1577). De ira morbo. Basileae. Wood, A. (1856). Nervous elements in inflammation. Edinburgh Medical Journal 1, 586-605. Zückert, J. F. (1764). Medizinische Abhandlung von den Leidenschaften. Berlín.

Ars Medica. Revista de Humanidades 2004; 2:180-193

193


Artículos

Convergencias actuales entre la neurociencia y el psicoanálisis Current Convergences between Neuroscience and Psychoanalysis ■ Cecilio Paniagua Resumen Se reseñan algunos puntos de convergencia entre investigaciones recientes en neurociencia y fenómenos clínicos descritos por los psicoanalistas. A la luz de la neurobiología, se comentan algunos estudios pertinentes sobre las conexiones asociativas, la percepción inconsciente, la memoria, la especialización hemisférica, los periodos críticos del desarrollo psicosensorial, los sueños y la psicoterapia.

Palabras clave Neurociencia. Psicoanálisis. Memoria. Percepción. Sueños.

Abstract Some convergence points between recent research findings in neuroscience and clinical phenomena described by psychoanalysts are explained. In the light of neurobiology, some relevant studies on associative connections, unconscious perception, memory, hemispheric specialisation, critical periods in psychosensorial development, dreams and psychotherapy are discussed.

Key words Neuroscience. Psychoanalysis. Memory. Perception. Dreams.

El autor es Doctor en Medicina, Diplomado de la Asociación Americana de Psiquiatría y Neurología, Miembro Titular de la Asociación Psicoanalítica Internacional y Profesor Honorario de la Facultad de Medicina de la Universidad Autónoma de Madrid. 194

Ars Medica. Revista de Humanidades 2004; 2:194-211


Cecilio Paniagua

■ A medida que pasen los años y acumulemos más datos sobre el funcionamiento del cerebro, la gente cada vez se dará más cuenta de que la neurología confirma muchas de las ideas de Freud. A. Damasio. La Vanguardia, 16 de diciembre, 2002.

Introducción En mayo del 2004 se celebró en Nueva Orleáns el XLIII Congreso de la Asociación Psicoanalítica Internacional. Los que asistimos a él —yo fui su reportero oficial— tuvimos oportunidad de escuchar a Antonio Damasio dando la conferencia plenaria a psicoanalistas de todo el mundo. El portugués Damasio dirige el Departamento de Neurología de la Universidad de Iowa y es especialmente conocido por sus libros sobre la relación entre el cerebro y las representaciones mentales. De éstos, el más popular, que se ha traducido a una docena de idiomas, ha sido El error de Descartes (1). Nunca antes se habían expuesto tesis neurocientíficas ante un grupo internacional de psicoanalistas en una sesión general. Hay que decir, por otra parte, que hasta hace poco habría resultado casi inimaginable que un neurólogo de pro pronunciase conferencias sobre temas como “la arquitectura emocional del miedo y el placer”. Esto ejemplifica las actuales —y, para algunos, sorprendentes— convergencias entre los hallazgos neurocientíficos y la clínica psicoanalítica. Sólo una década atrás no podía haberse previsto que pudiese llegar a editarse una revista como Neuro-Psychoanalysis (E. Nersessian y M. Solms, eds.). Además, se están publicando de forma creciente libros sobre paralelismos entre ambas disciplinas y ya se convocan numerosos simposios sobre dicha convergencia. En su Proyecto de una psicología para neurólogos (2) de 1895, Sigmund Freud intentó adaptar lo que había comenzado a descubrir sobre el funcionamiento inconsciente de la mente a las rudimentarias nociones de neurociencia de aquel entonces. Acababa de describirse la estructura neuronal del sistema nervioso. Recordemos que Ramón y Cajal trabajó en neurohistología entre 1888 y 1903. Freud, consciente de la escasez de conocimientos neurofisiológicos que pudieran dar cuenta de sus tesis psicológicas, decidió no publicar dicho Proyecto. Éste no vio la luz hasta 1950, más de una década después de su muerte. En 1914 Freud escribió: “Habremos de recordar que todas nuestras ideas provisorias psicológicas habrán de ser adscritas alguna vez a substratos orgánicos” (3). Seis años más tarde, refiriéndose a las deficiencias de sus conceptos teóricos, escribiría: “[éstas] desaparecerían con seguridad si en lugar de los términos psicológicos pudiéramos emplear los fisiológicos o los químicos” (4). La frustración del padre del psicoanálisis a este respecto disminuyó cuando, hacia el final de su vida, se percató de que las teorías puramente psicológicas no tenían por qué ser “provisorias”, sino que podían tener entidad científica propia. Ha tenido que pasar un siglo para que las correlaciones entre campos de conocimiento tan distintos (pero “condenados” al paralelismo) como el psicoanálisis y la neurociencia hayan Ars Medica. Revista de Humanidades 2004; 2:194-211

195


Convergencias actuales entre la neurociencia y el psicoanálisis

podido adquirir consistencia significativa. En efecto, las modernas investigaciones sobre neurotransmisores y receptores, la genética molecular y las técnicas de neuroimagen, han permitido establecer áreas de convergencia insospechadas hasta hace poco. A la pregunta formulada por Morton Reiser hace veinte años: “¿Tienen algo que decirse el psicoanálisis y la neurobiología?” (5), hay que responder hoy día con una afirmación categórica. Los nuevos hallazgos han arrojado luz sobre la teoría psicoanalítica y los psicoanalistas hemos ido cambiando nociones que considerábamos establecidas. A su vez, las observaciones de la psicología profunda, obtenibles sólo en la clínica psicoanalítica, han contribuido a la interpretación de los hallazgos de la neurociencia y la psicología cognitiva. La investigadora californiana Regina Pally ha señalado: “El reconocimiento de la enorme dependencia de la experiencia adquirida [en la infancia] que tiene el desarrollo cerebral constituye un ejemplo patente de cómo pueden integrarse la neurociencia y el psicoanálisis” (6), y el premio Nobel de neurofisiología Eric Kandel, escribió: “El énfasis puesto por el psicoanálisis en la estructura del psiquismo y en sus representaciones internas ha constituido una de las fuentes de la psicología experimental y cognitiva moderna” (7). La vida psíquica (normal y patológica) es uno de los productos del funcionamiento de los circuitos neuronales. Los psicoanalistas no podemos estar en desacuerdo con esto, como no puede estarlo tampoco ningún otro pensador de talante científico. Naturalmente que la mente, con toda la información de procedencia externa e interna, se encuentra contenida en la configuración y la química de las complejísimas interconexiones neuronales. Los fenómenos que describimos como “mentales” tienen su origen en el cerebro, pero la experiencia subjetiva relacionada con estímulos extrínsecos afecta a su vez a los procesos estructurales del cerebro. La biología determina la función, pero, aquí también, la función hace al órgano, sobre todo durante los años formativos de la infancia. Veamos ahora algunos ejemplos de convergencia de hallazgos neurocientíficos recientes con la experiencia psicoanalítica acumulada desde hace más de un siglo. Sobre este tema he publicado también otros trabajos (8-10) a los que remito a los lectores interesados.

Apercepción y asociaciones Neurológicamente, cada modalidad sensorial se procesa por separado. No hay un área del cerebro que contenga la imagen total de un objeto del que somos conscientes. Siguiendo una integración polimodal de los distintos estímulos sensoriales, el cerebro reconoce (o cree reconocer) patrones o pautas de activación neuronal. La apercepción tiene lugar cuando el cerebro halla cierta coincidencia icónica entre la activación neuronal generada por un conjunto de percepciones y los patrones de experiencias previas almacenadas en la memoria. Esta es la razón por la que creemos ver formas conocidas en las nubes o en las láminas del test de Rorschach. Nuestro cerebro se halla poderosamente "prejuiciado" por nuestras experiencias 196

Ars Medica. Revista de Humanidades 2004; 2:194-211


Cecilio Paniagua

del pasado a la hora de encontrar coincidencias. Si no le es posible reconocer patrón alguno que encaje con uno previo, tiende a generarse una nueva categoría empírica que se almacenará para, a su vez, servir de patrón que haga juego, por así decir, con percepciones futuras. Existe, además, el fenómeno de la "constancia objetal", descrito científicamente por Jean Piaget (11), consistente en la existencia de la representación mental de una persona u objeto en la ausencia de éste, capacidad que el ser humano adquiere normalmente a lo largo del segundo año de vida. Por medio de esta constancia, la relación del hijo con su madre se hace más estable y duradera, manteniéndose a pesar de las experiencias frustrantes. Pues bien, este fenómeno tiene un correlato en ciertos hallazgos neurobiológicos. Se sabe hoy día que después de que la mielinización del sistema nervioso central es relativamente completa, las neuronas del córtex premotor codifican estímulos visuales y permanecen activadas (medido su potencial con microelectrodos) aun cuando no estén presentes los objetos en cuestión o no resulten visibles, como en la oscuridad. Esta permanencia explica también la disponibilidad de las impresiones sensoriales para las evocaciones asociativas en ausencia de los estímulos originales. El hecho de que la imaginación per se, es decir, sin estímulo sensorial alguno, active las neuronas del córtex correspondiente a la percepción directa por los sentidos refuerza la tesis de la efectividad de la actividad asociativa, proporcionando una constatación física de algo que ya conocíamos empíricamente los psicoanalistas. Quizás constituya esto el substrato fisiológico principal en la técnica psicoanalítica de la libre asociación que conecta contenidos mentales aislados. Los estímulos de una categoría sensorial determinada pueden producir potenciales evocados en áreas de categorías sensoriales distintas. Por ejemplo, cuando una persona ciega lee Braille activa regiones del cerebro no sólo del tacto, sino también de la visión, y el ver una película muda estimula, además del córtex visual del lóbulo occipital, el auditivo del lóbulo temporal. El tener circuitos nerviosos compartidos hace que las imágenes visuales evocadas en la oscuridad o las impresiones auditivas recordadas en el silencio influyan sobre la percepción sensorial posterior. El hecho de imaginarnos un objeto antes de detectarlo con los sentidos, o una situación antes de que ocurra, aumenta nuestras posibilidades de comprensión y respuesta adecuadas; esto constituye el motor, claro, de la rumiación anticipatoria característica del ser humano. Hay que recordar, sin embargo, que precisamente esto, por otra parte, nos hace añadir elementos idiosincrásicos a nuestra apercepción del mundo circundante. Tenemos de modo natural la impresión subjetiva de que percibimos el mundo tal y como es realmente, pero todos los fragmentos significativos de nuestra percepción son resultados de una construcción en la que influyen decisivamente las motivaciones, los estados emocionales y las experiencias del pasado. No existe la percepción pura. Numerosos experimentos de laboratorio e incontables experiencias clínicas han demostrado como ilusoria la mítica idea de una “inmaculada percepción”. Una aspiración central del tratamiento psicoanalítico es la de equipar al analizado con una capacidad de examen de la realidad que tenga el menor grado posible de distorsión, aunque hay que entender que siempre es asintótica la aproximación a este objetivo. Ars Medica. Revista de Humanidades 2004; 2:194-211

197


Convergencias actuales entre la neurociencia y el psicoanálisis

La memoria No comienza a haber memoria explícita hasta los 18-24 meses sencillamente porque no han madurado aún las estructuras del hipocampo y no pueden, por tanto, formarse huellas mnémicas para ser luego transferidas a otras áreas. Freud pensó que las impresiones muy tempranas no se rememoraban porque resultaban reprimidas debido a su carácter abrumador o traumático. Esto no es así. Carecemos de recuerdos específicos de los primeros meses de la vida no porque los reprimamos, sino porque no los hemos registrado. Tampoco pueden ser ciertas, por supuesto, las teorías de la influyente psicoanalista Melanie Klein que atribuyen al bebé cogniciones complejas. Otra cosa ocurre con las funciones mnémicas de los ganglios basales (nuestro cerebro reptiliano) y de la amígdala del sistema límbico (que compartimos con los mamíferos inferiores), porque estas estructuras, en su recapitulación filogénica, se encuentran bien desarrolladas ya en el recién nacido. En los ganglios basales (cuerpo estriado) se registra la memoria operativa de los automatismos, mientras que en la amígdala límbica lo hace el aprendizaje de las respuestas emocionales. Esto hace que pueda existir la memoria implícita no verbal (también llamada no declarativa) para experiencias infantiles de este primer periodo, tales como los sobresaltos, los dolores somáticos, los temores primitivos, o las sensaciones placenteras y las pautas de interacción materno-filial, en ausencia de memoria explícita (o declarativa). El comienzo de la capacidad verbal viene a coincidir con el inicio de la maduración del hipocampo al año y medio de vida, y se conjetura que la buena interacción vocal con el niño entonces es la actividad que tendrá el crucial papel de facilitar el procesamiento de los recuerdos infantiles por la memoria explícita. Ésta será la que resulte accesible a la rememoración consciente. Hasta aproximadamente el séptimo año siguen mielinizándose las conexiones entre el córtex y el sistema límbico, lo que, en condiciones normales, ha de tener como consecuencia la integración progresiva de la actividad cognitiva con la emocional. Es posible que en las neurosis de ansiedad y algunas caracteropatías impulsivas no funcione con normalidad esa influencia moduladora, encontrándose los pacientes que sufren estas patologías a merced, por así decir, de las tormentas de la amígdala, con sus percepciones alarmantes, sus reacciones emocionales irreflexivas y sus somatizaciones. La memoria explícita, característica del registro hipocámpico, y la memoria implícita, propia del de la amígdala, pueden hallarse disociadas. Esto puede verse en las neurosis traumáticas. En efecto, el paciente con estas patologías sufre crisis de angustia y otros síntomas físicos secundarios a descargas adrenalínicas sin los recuerdos explícitos que han de ir asociados. La labor del psicoterapeuta en estos casos consiste en analizar empáticamente este fenómeno inconsciente de disociación y ayudar al enfermo a procesar el trauma de modo explícito, poniendo en su lugar los referentes témporo-espaciales originales. Esta reactivación, aunque dolorosa, es la que va a permitir al paciente situar en el pasado el incidente traumático y disminuir en el presente los componentes implícitos somáticos, emocionales y conductuales de la impresión mnémica. 198

Ars Medica. Revista de Humanidades 2004; 2:194-211


Cecilio Paniagua

Los componentes mnémicos de la actividad de la percepción han estado mediados por la capacidad cognitiva del sujeto en cada etapa de su maduración y han sido adquiridos a través de su prisma personal. Lo que entendemos por "memoria" no es un solo sistema: se halla compuesta por una serie de subsistemas. En realidad, lo que existen son memorias. El conducir un vehículo implica una memoria distinta de la de recordar un itinerario o el sentido de una tarea, y de la de sentir las emociones suscitadas por la anticipación de un encuentro o las reacciones de alerta ante los posibles peligros. En el capítulo de la memoria implícita está la subcategoría de la memoria asociativa (de particular importancia en el psicoanálisis) y la correspondiente a la habituación; esta última es la que nos permite archivar inconscientemente las circunstancias que permanecen constantes, liberando así nuestra atención, que puede entonces dirigirse más efectivamente a lo que es nuevo. En el capítulo de la memoria explícita existen también subsistemas específicos al cargo del recuerdo de formas, colores, rostros, etc.; en cuanto a las palabras, existen incluso unas áreas especializadas en el recuerdo de nombres y otras en el de la conjugación de los verbos. Los recuerdos emocionales, con su acompañamiento fisiológico, se conservan con mayor fijeza que los recuerdos explícitos de los acontecimientos que movilizaron dichos sentimientos. Los tractos nerviosos que van de la amígdala al córtex están más desarrollados y son mucho más rápidos que los que van del córtex a la amígdala, lo que parecería una constatación estructural de la relativa (y proverbial) debilidad de lo racional ante lo irracional. Feldman (12) ha escrito, medio en serio, medio en broma, que quizás se necesite en el futuro una neuroimagen que revele cambios significativos en el control cortical sobre la amígdala, como criterio de éxito en el tratamiento psicoanalítico.

Especialización hemisférica Aunque morfológicamente los dos hemisferios cerebrales son iguales, sabemos desde los estudios del anatomista francés Paul Broca a mediados del siglo XIX, que, funcionalmente, el cerebro es asimétrico. En efecto, la información se procesa de forma distinta en un hemisferio que en otro. El hemisferio izquierdo es mejor en el análisis de las secuencias témporo-espaciales, en la comprensión lógica y en la interpretación descriptiva detallada del mundo de los objetos; esto le hace más especializado para las funciones del lenguaje, para el discernimiento de las relaciones causa-efecto y para la actividad motora fina. El derecho es superior en el análisis global de las relaciones entre los elementos, en la síntesis de imágenes y formas, y en las inferencias y asociaciones simbólicas; esto le hace más especializado para la comprensión emocional e intuitiva, para el análisis del significado de las interacciones sociales y para las tareas visuales. El hemisferio derecho es particularmente competente a la hora de identificar la Ars Medica. Revista de Humanidades 2004; 2:194-211

199


Convergencias actuales entre la neurociencia y el psicoanálisis

expresión facial de los afectos Por cierto que algunos estudios han mostrado que las mujeres tienen una actividad mayor en las áreas de discriminación de afectos que los hombres en este hemisferio (Andreasen et al. [13]). Parece ser que, ante los estímulos emocionales, sólo en el hemisferio derecho se generan las respuestas del sistema nervioso autónomo, susceptibles de condicionamiento en la infancia. El hemisferio derecho es también superior en la detección de los elementos no verbales y paraverbales del lenguaje (los tonos, los gestos). La prosodia en la vocalización humana provee de intención y sentido al habla. Todos sabemos que el cómo se dicen las cosas puede ser tanto o más importante que el qué se dice. Antes de aprender a hablar los niños saben si la expresión verbal del adulto tiene un significado afectuoso u hostil y los adultos somos capaces de inferir el tono emocional de alguien que nos habla en un idioma totalmente desconocido. Un modo algo simplista de resumir todo esto es el que dice que el hemisferio izquierdo provee el “texto” y el derecho el “contexto” de la información. Algunos neurocientíficos, como Galin (14), han sugerido que la racionalidad está asociada con la cognición lógica y analítica del hemisferio izquierdo, correspondiendo a lo que Freud (15) llamó pensamiento de proceso secundario; mientras que el modo de funcionamiento mental impresionista y no silogístico del hemisferio derecho sería propio de lo que en la nomenclatura freudiana se conoce como pensamiento de proceso primario.

El cerebro dividido Muchos de los conocimientos que en la actualidad tenemos sobre la bilateralidad cerebral provienen de estudios llevados a cabo en la década de los sesenta por Gazzaniga, en pacientes cuyo cuerpo calloso interhemisférico había sido seccionado quirúrgicamente como tratamiento de epilepsias refractarias a los fármacos anticomiciales de aquellos años. Normalmente, claro está, los dos hemisferios funcionan de forma conjunta, de tal modo que la percepción y la consciencia constituyen un todo continuo. Cuando se hace una comisurotomía, interrumpiéndose la comunicación interhemisférica (split brain), se produce una llamativa disociación entre la percepción y el pensamiento. La información presentada a una mitad del cerebro puede hallarse totalmente fuera de la consciencia de la otra mitad, comportándose cada hemisferio de forma independiente. Si entonces se presenta visualmente sólo al hemisferio derecho de estos pacientes algún objeto y se les pide que lo describan, responderán: “no he visto nada”, porque el estímulo visual, en efecto, no se hace consciente; sin embargo, sus reacciones mostrarán que el objeto ha sido percibido a cierto nivel. Por ejemplo, en un experimento realizado por Gazzaniga (16), se muestra la foto de un hombre desnudo al hemisferio derecho aislado de una mujer. Ella afirma que no ve nada, pero simultáneamente se ríe nerviosamente y tiene respuestas autonómicas como aceleración del pulso o sonrojo. 200

Ars Medica. Revista de Humanidades 2004; 2:194-211


Cecilio Paniagua

En efecto, cuando los datos de información se hallan “secuestrados” en el hemisferio derecho, el sujeto no es sólo incapaz de hablar de ellos, sino que, además, puede no ser consciente de poseerlos. Definitivamente, las vicisitudes de la lateralización funcional de los hemisferios y su intercomunicación es relevante para el psicoanálisis. Freud hablaba de las imágenes psíquicas verbales y de cosas como significantes de representaciones conscientes e inconscientes respectivamente. Esta clasificación de los contenidos ideativos guarda un curioso paralelismo con lo que se ha comentado sobre el funcionamiento bilateral del cerebro. Lo que el mecanismo de defensa primordial, la represión, hace con las representaciones mentales rechazadas es que les niega la traducción verbal. Como señaló Freud (17): “Una presentación no concretada en palabras [...] permanece entonces en estado de represión en el sistema Inconsciente”. Varios neurocientíficos psicoanalíticamente informados, como Dawson et al. (18) y Joseph (19), han señalado que algún tipo de desconexión interhemisférica (una “comisurotomía funcional”) puede constituir el fundamento cerebral del concepto de represión. Esta alteración interferiría con el procesamiento lógico y verbal por parte del hemisferio izquierdo de los afectos displacenteros y señales de alarma del derecho. La persona con el cerebro dividido tiene recepción y cierto tipo de reconocimiento de los objetos en el córtex del hemisferio derecho; lo que no puede hacer es transferir esta información al hemisferio izquierdo para un procesamiento conceptual y verbal. Al parecer, este es un paso necesario para ese estado mental subjetivo que es la toma de consciencia y, para el psicoanalista, esta reflexión ha de tener, naturalmente, una lectura especial: se trata de un proceso que ha de hallarse implicado en la superación de la represión. La desconexión interhemisférica en el sentido de derecha a izquierda tendría como resultado la represión, en la que los contenidos ideativos angustiosos resultan excluidos de la consciencia. La desconexión funcional en la dirección del hemisferio izquierdo hacia el derecho produciría un aislamiento del afecto que permite al sujeto tomar consciencia de materiales conflictivos negando simultáneamente su significado emocional. Lo que la concepción psicoanalítica añade a esta fenomenología es que es de naturaleza psicodinámica; esto es, que no es aleatoria, sino un producto de la interacción de fuerzas motivacionales. En efecto, la represión y el aislamiento del afecto son los mecanismos de defensa mejor estudiados en psicoanálisis.

Razones y racionalizaciones Si se presenta al hemicerebro derecho de un paciente con split brain un mensaje visual como: “Vaya hacia la puerta”, el sujeto se levantará de su silla y se dirigirá a ella. Si se le pregunta entonces por qué se ha incorporado, dará respuestas (su hemisferio izquierdo) del tipo: “Voy al cuarto de baño” o: “Es que iba a por un refresco”. Al psiquismo humano le resulta difícil conformarse con simples “no sé“ y, así, el hemisferio izquierdo, intérprete de las informaArs Medica. Revista de Humanidades 2004; 2:194-211

201


Convergencias actuales entre la neurociencia y el psicoanálisis

ciones, intenta proveer de sentido y dar explicaciones causales a los estímulos que recibe, sean éstas auténticas razones o bien racionalizaciones, esto es, justificaciones defensivas destinadas a disminuir la ansiedad. Wilder Penfield (20) y sus colaboradores de la Universidad de McGill, en la década de los cincuenta, publicaron una serie de trabajos que también arrojaron luz sobre el fenómeno de la racionalización. En su exploración con estimulación eléctrica de áreas del cerebro bajo anestesia local en pacientes que iban a requerir tratamiento quirúrgico para determinadas modalidades de epilepsia, encontraron que cuando, por ejemplo, se estimulaba una región motora y, por consiguiente, se producía la contracción de algún grupo muscular, éstos tendían (a veces tras una reacción de sorpresa inicial) a atribuir su movimiento involuntario y sin propósito a algún tipo de motivación “presentable”. José M. Rodríguez Delgado (21) observó lo siguiente en una de sus investigaciones con electrodos implantados en cerebros humanos: “En uno de nuestros pacientes, la estimulación eléctrica de la parte anterior de la cápsula interna producía torsión de la cabeza con un desplazamiento lento del cuerpo hacia un lado en una secuencia de apariencia normal y con un sensorio intacto, como si el paciente estuviese buscando algo... Lo interesante de la experiencia es que el paciente consideraba espontánea esta actividad provocada y siempre la justificaba con una explicación razonable. Así, cuando se le preguntaba qué estaba haciendo, sus respuestas eran, ‘estaba buscando mis zapatillas’, ‘escuché un ruido’”. De todo esto se saca la lección evidente de que las deducciones y explicaciones causales (la estrategia del hemisferio izquierdo) no siempre son correctas, aunque la persona esté convencida de ellas —fenómeno que los psicoanalistas comprobamos a diario en la práctica clínica. Pocos rasgos son más consustanciales al psiquismo humano que su capacidad de autoengaño. El psicoanalista es sabedor también de que esto mismo puede ocurrirle a él en su evaluación del material proporcionado por el analizado, y procura contrarrestar —guiado por sus estudios, su propio análisis y su experiencia— esta tendencia natural a las conclusiones subjetivas. Hay que advertir, no obstante, que no todas las escuelas psicoanalíticas utilizan las mismas técnicas y que, ciertamente, no todas ofrecen las mismas garantías de objetividad ni eficacia.

Percepción inconsciente Existe actualmente una explosión en la investigación neurocientífica y cognitiva de los procesos inconscientes, tras largos años de desinterés e incluso incredulidad en su existencia y en el papel que podían desempeñar en la percepción y la memoria. Hace más de un siglo que tenemos constancia experimental de la existencia de la percepción inconsciente, como pone de manifiesto la obra de B. Sidis (22). En 1917, Otto Pötzl (23) en una famosa serie de experimentos halló que un grupo de voluntarios expuestos a unos dibujos complejos durante una fracción de tiempo que hacía imposible su reconocimiento 202

Ars Medica. Revista de Humanidades 2004; 2:194-211


Cecilio Paniagua

consciente (una décima de segundo), recuperaba en sus asociaciones y en sus sueños fragmentos de dichos dibujos. Esto despertó cierta alarma social por resultar patente que con imágenes taquistoscópicas comerciales o de contenido político se podía influir sobre la voluntad de la ciudadanía. Ha habido incluso estudios que han mostrado la existencia de percepción inconsciente bajo anestesia general. Reseñemos también otro hallazgo experimental que tiene relevancia como substrato biológico de lo inconsciente. Benjamín Libet (24), neurofisiólogo de la Universidad de California, describió cómo bastaba un impulso eléctrico de 10-20 milisegundos aplicado a la piel para producir una respuesta evocada electroencefalográficamente detectable en el córtex sensorial. Sin embargo, este estímulo no era percibido conscientemente por el sujeto hasta transcurrir 500 milisegundos. Al parecer, la respuesta evocada a los 10-20 milisegundos inicia una serie de reacciones corticales que culminan con la percepción consciente del estímulo, aunque el sujeto no se da nunca cuenta de dicho retraso; es decir, siempre tiene la experiencia subjetiva de simultaneidad. Lo que puede interesar más al psicoanalista sobre este fenómeno es la existencia de un retraso similar en la toma de consciencia del psiquismo de origen interno, aun cuando también se tenga la experiencia subjetiva de la instantaneidad. Se sabe desde hace varias décadas que existe un potencial fisiológico preparatorio de cualquier acción muscular detectable tanto en el electroencefalograma como en el electromiograma. Libet midió también este periodo de latencia y recogió las experiencias subjetivas de los individuos del experimento, hallando que, en efecto, la acción neuronal ha de persistir durante aproximadamente medio segundo (de preparación inconsciente) antes del movimiento muscular, que es percibido como simultáneo a la decisión voluntaria. Este momento preparatorio podría también ser suficiente para movilizar mecanismos psicológicos de defensa ante estímulos ansiógenos. Hay ya, de hecho, considerable evidencia neurocientífica de la existencia de señales inconscientes de angustia, que son las que, automáticamente, constituyen siempre el prólogo de las maniobras defensivas (Wong [25]).

La consciencia limitada La mayoría de los estímulos externos y de procedencia interna que influyen sobre el estado de ánimo y el comportamiento del ser humano no son percibidos conscientemente por éste. El psicoanálisis ha mantenido siempre que ciertos fenómenos mentales son dinámicamente inconscientes precisamente porque su contenido resulta ansiógeno y culpógeno. Ante ellos se erige la barrera de la represión, encargada de mantener inconscientes de modo selectivo algunas ideas y afectos. Hay numerosos estudios en Psicología Experimental que apoyan la existencia de la represión. Un reciente artículo, publicado en Science por Anderson et al. (26), identifica por medio de resonancia magnética funcional los sistemas neurales implicados en el proceso del olvido de los recuerdos indeseados. Ars Medica. Revista de Humanidades 2004; 2:194-211

203


Convergencias actuales entre la neurociencia y el psicoanálisis

Hoy día, psiquiatras y psicólogos de cualquier orientación teórica reconocen que gran parte de la vida mental se procesa inconscientemente, fenómeno que puede captarse en neuroimagen. Se han descubierto, por ejemplo, localizaciones específicas cerebrales para el procesamiento inconsciente de las percepciones visuales. Hemos de recordar que hasta que Freud introdujo la idea de una actividad psíquica inconsciente en el mundo científico-médico, este concepto había sido considerado un absurdo. Durante siglos, médicos y filósofos habían creído que la actividad psíquica tenía que ser, por definición, accesible a la consciencia. En palabras de Descartes, "la mente es transparente para sí misma". Freud mantuvo todo lo contrario: la actividad mental era primariamente inconsciente. Desde esta revolucionaria perspectiva, lo que ha acabado suscitando mayor interés en los investigadores no es que existan fenómenos psíquicos inconscientes, sino el fenómeno en sí de la consciencia. La consciencia es una cualidad psíquica especial que supone un nivel superior de percepción en cuanto a organización mental. Constituye una experiencia subjetiva de recepción extero e interoceptiva que prepara al individuo para las respuestas inteligentes a los estímulos. También, en virtud de su función perceptiva de los estímulos externos a través de los órganos de los sentidos, la consciencia constituye la base para la comprobación de la realidad. Pero el campo de la consciencia es en realidad sorprendentemente limitado: podemos enfocar la atención consciente sólo en una actividad y no en dos a la vez; los inputs perceptuales se interfieren entre sí. Además, la aplicación de un foco consciente (la "catexia de atención" que decimos en psicoanálisis) a una actividad automática preconsciente suele interferir con el funcionamiento de esta última. Todos sabemos el riesgo que corremos al bajar las escaleras si pensamos deliberadamente en el movimiento de los pies. La consciencia es un fenómeno de naturaleza psicológica que nos permite darnos cuenta o, valga la redundancia, ser conscientes de nuestros propios pensamientos, recuerdos y fantasías, de nuestras sensaciones y acciones motoras, de nuestra existencia y del hecho mismo de ser conscientes. No se sabe con exactitud cuáles son los mecanismos fisiológicos de los fenómenos de la consciencia y la atención. Sabemos, desde luego, que como fundamento físico tienen el funcionamiento cortical, sobre todo del hemisferio izquierdo, y el del sensorium comunis del tálamo, y como substrato químico los sistemas neuromoduladores noradrenérgico, serotoninérgico y colinérgico, pero es mucho lo que aún se desconoce sobre la neurobiología de la atención consciente.

Genoma y aprendizaje El cerebro del hombre es el objeto conocido más complejo del universo. Aunque este órgano excepcional da cuenta de sólo el 2% del peso corporal, aproximadamente la mitad del genoma humano está encargado de su codificación. 204

Ars Medica. Revista de Humanidades 2004; 2:194-211


Cecilio Paniagua

El cerebro del chimpancé pesa al nacer un 60% de lo que pesa el del animal adulto. Por contraste, en el niño recién nacido el cerebro pesa sólo un 25% de lo que llegará a pesar en el adulto. La expansión cerebral postnatal típica del ser humano refleja, claro está, su especial dependencia del medio y su potencial de crecimiento a través de la interacción con éste. El desarrollo cerebral consigue alguna forma de equilibrio entre la carga genética y la información adquirida, entre la programación inflexible y la adaptación funcional. Múltiples hallazgos en diversos campos de investigación confirman que las influencias ambientales pueden determinar la expresión de lo genético. Como observó Torsten Wiesel (27), neurobiólogo de Harvard: “Es posible que la sensibilidad del sistema nervioso a los efectos de la experiencia represente el mecanismo fundamental por el que el organismo se adapta al entorno durante su crecimiento”. Aunque en el sistema nervioso central muchos circuitos siguen el dictado genético, el genoma de por sí no basta para determinar qué conexiones acabarán siendo las más funcionales. Las investigaciones en neurociencia de estos últimos años han mostrado que las interacciones con el entorno condicionan, hasta grados insospechados hace unas décadas, los patrones de secreción endocrina, las reacciones inmunológicas y la arquitectura microscópica de las redes nerviosas. Existe mayor plasticidad, por lo general, en la red neuronal de las zonas corticales prefrontales, donde pueden crecer nuevas dendritas y establecerse nuevas sinapsis virtualmente a lo largo de toda la vida. Esto es lo que nos permite adquirir información (ampliar nuestro vocabulario, aprender chistes, nuevos itinerarios, etc.) en edades avanzadas. Por otra parte, los circuitos límbicos subcorticales (los núcleos talámicos anteriores, la circunvolución cingular, hipocampo, complejo de la amígdala) que se establecen en la infancia temprana y que constituyen el cerebro generador de emociones primarias que describiera por primera vez James W. Papez (28) en los años treinta, poseen una menor plasticidad funcional y tienden a ejercer efectos mucho más constantes en el desarrollo psicológico. Esta inflexibilidad podría parecernos escasamente adaptativa y, ciertamente, lo es en casos de aprendizajes o condicionamientos patológicos; sin embargo, es precisamente la mayor constancia de estos circuitos nerviosos la que da cuenta del fenómeno etológico del imprinting o “troquelado” y, en el ser humano, es lo que explica el vínculo prolongado, tan peculiar de nuestra especie, del niño con su madre como fuente de sensaciones de placer y seguridad. En psicoanálisis se han formado escuelas en torno a la cuestión de si, en su origen, la conducta humana se halla compelida por fuerzas instintuales (teoría pulsional) o se encuentra mediada por las influencias ambientales de la infancia temprana (teoría de las relaciones objetales). La neurobiología sugiere una clara respuesta a este respecto: ambas teorías son ciertas. El hecho de que estas últimas influencias puedan tener en ciertos periodos críticos consecuencias irreversibles sobre la arquitectura neurohistológica, tiene para el psicoanalista la lectura clara de que, además de la patología por conflicto intrapsíquico (funcional) para la que fueron ideadas sus técnicas, existe lo que Anna Freud (29) conceptuó como psicopatología por déficit (estructural), no susceptible de un tratamiento psicoanalítico clásico, sino de otros abordajes técnicos de carácter paliativo. Ars Medica. Revista de Humanidades 2004; 2:194-211

205


Convergencias actuales entre la neurociencia y el psicoanálisis

Periodos críticos Es sabido que para el desarrollo ontogénico de las distintas categorías de la percepción, es necesario que el córtex sensorial reciba en un periodo crítico ciertos estímulos específicos. Esto se ha estudiado sobre todo en el sistema visual, pero se considera un principio general aplicable a otras modalidades sensoriales. En palabras de Wiesel (30), uno de los principales investigadores del desarrollo funcional de la visión: “Los mecanismos innatos dotan al sistema visual de conexiones altamente específicas, pero es necesaria la experiencia visual temprana para el desarrollo completo del proceso. Los experimentos de privación sensorial muestran cómo dichas conexiones nerviosas pueden ser alteradas por las influencias externas en periodos críticos, [...] pero bien pudiera ser que otros aspectos del funcionamiento cerebral, como el lenguaje, las tareas perceptuales complejas, el aprendizaje, la memoria y la personalidad tuviesen programas análogos de desarrollo”. El desarrollo intrauterino proporciona sólo la matriz topográfica de lo que van a ser las conexiones nerviosas en las áreas sensoriales. Existe una plasticidad neuronal que hace que las conexiones específicas requieran unos estímulos determinados de experiencias postnatales. Es bien sabido que las cataratas congénitas producen ceguera si no son corregidas quirúrgicamente en la niñez, y se conoce con precisión cuál es el área del lóbulo occipital donde se produce una desorganización de la arquitectura histológica como consecuencia de la privación de la visión. Para el psicoanálisis son de especial importancia las investigaciones referentes a la existencia de periodos críticos fisiológicos también en el desarrollo emocional. Basándose en una serie de estudios en animales y en humanos, Allan Schore (31), de la Universidad de California, asegura que existe tal periodo crítico entre los seis y los doce meses para el desarrollo de circuitos en el córtex prefrontal, que regula la expresión de los estados afectivos. Para su desarrollo normal parece imprescindible que durante este periodo crítico el bebé tenga una interacción con la madre (o figura materna) que suponga un contacto visual y auditivo determinado (las sonrisas, las palabras amorosas). Las reacciones del bebé se verán influidas por el comportamiento de la madre (y las señales de éste estimularán, a su vez, las respuestas maternales). Se conjetura que estos estímulos y estados de excitación son los que, específicamente, promueven el crecimiento de axones dopaminérgicos desde el giro cingular del sistema límbico hacia el córtex prefrontal del niño; la maduración de estos circuitos resultará esencial en la regulación de las emociones. Aunque la influencia de los elementos ambientales sobre el sistema nervioso central se encuentra limitada por la dotación genética básica del individuo, también está comprobado que una estimulación sensorial precaria disminuye el grado de arborización dendrítica. Como han puesto de manifiesto Greenough et al. (32), el encéfalo de las ratas que en su jaula tienen laberintos y accesorios estimulantes de la atención y la actividad pesa considerablemente más que el de aquellas otras que sólo se mueven entre cuatro paredes. 206

Ars Medica. Revista de Humanidades 2004; 2:194-211


Cecilio Paniagua

Biología de la psicoterapia Es de crucial interés para el psicoanálisis la cuestión de si la relación psicoterapéutica puede alterar las conexiones nerviosas responsables de las patologías neuróticas o promover algunos cambios neurohistológicos y neuroquímicos que de algún modo corrijan dichas patologías. Glen Gabbard (33), de la Universidad Baylor de Houston, escribió: “Si consideramos la psicoterapia como una forma de aprendizaje, el proceso que se desarrolla ha de producir alteraciones en la expresión genética y, por tanto, ha de ser capaz de modificar de algún modo las conexiones sinápticas. La secuencia de un gen no puede ser cambiada por la influencia ambiental, pero sí su función transcriptora —la capacidad de fabricación de proteínas específicas”. Hay que recordar aquí los experimentos ya clásicos del mencionado Kandel (34) con la Aplysia californica, un invertebrado marino. Este investigador halló que el aprendizaje tenía como correlato físico una modificación permanente de las conexiones sinápticas entre las células. Esta modificación consistía no sólo en un aumento del número de sinapsis neuronales, sino también en un fortalecimiento de las ya existentes en términos de un incremento en el flujo de los transmisores químicos liberados por las terminales presinápticas. Las investigaciones sobre el cerebro de animales superiores muestran, sin duda alguna, que pueden existir cambios microestructurales en el tejido nervioso dependientes de la interacción con el entorno. La corteza prefrontal retiene más que ninguna otra región cerebral las capacidades plásticas de su desarrollo temprano; específicamente el córtex órbito-frontal continúa mostrando a lo largo de toda la vida las características histológicas y bioquímicas propias de su ontogenia. Esto induce a pensar que los cambios producidos en tratamientos interactivos verbales pueden tener como substrato estructural esta peculiar plasticidad. Señalemos que la región órbito-frontal es funcionalmente responsable de la capacidad de empatizar con los sentimientos de otros y, por tanto, se halla particularmente implicada en los comportamientos sociales. Antes del tercer mes, las fluctuaciones emocionales del bebé se encuentran mediadas por estructuras límbicas subcorticales, en especial por la amígdala. Después de esos meses iniciales, las primeras sonrisas del bebé anuncian el comienzo de la maduración del córtex órbito-frontal. La consiguiente interacción entre la madre y el niño seguramente estimula la mielinización de los circuitos nerviosos que conectan el córtex sensorial con el órbitofrontal (Pally [35]). Un estudio publicado por Schwartz y cols. (36), que ha tenido gran resonancia, ha sido el llevado a cabo en pacientes antes y después de un tratamiento psicológico terminado con éxito, siguiendo la evolución de tomografías cerebrales de emisión de positrones (PET), que miden el metabolismo de la glucosa en el sistema nervioso y, por tanto, el nivel de actividad neuronal. En este estudio se halló que se producían cambios significativos en la actividad metabólica de la corteza órbito-frontal y sus conexiones subcorticales. En un estudio parecido publicado en 1998, Viinamäki y cols. (37) mostraron cómo un paciente deprimido sin farmacoterapia alguna, con solo un año de psicoterapia dinámica de una sesión semanal, pasó Ars Medica. Revista de Humanidades 2004; 2:194-211

207


Convergencias actuales entre la neurociencia y el psicoanálisis

de una captación de monoaminas notablemente reducida en el área prefrontal medial y el tálamo a una captación normal, comparada con controles.

El caso de los sueños J. Allan Hobson, neurofisiólogo y profesor de Psiquiatría de Harvard, es conocido especialmente por sus investigaciones, en los años setenta y ochenta, sobre los procesos fisiológicos generadores de la actividad onírica (el sueño REM). Hobson halló que ésta se iniciaba por la descarga neuronal de ciertos núcleos pontinos del tallo cerebral. Las proyecciones nerviosas de esta región mesencefálica estimulan otras regiones subcorticales y corticales, con la acetilcolina como neurotransmisor activador (en el estado vígil son los sistemas noradrenérgico y serotoninérgico los activadores de estas regiones). Se ha demostrado que el patrón de conducción de estas proyecciones es individual para cada cerebro. Estudios con PET demuestran cómo en el sueño REM aumenta la actividad casi de forma paroxística en el córtex sensorial y en el área límbica (asiento de las emociones primarias y la memoria), mientras que se reduce simultáneamente la actividad en las zonas prefrontales (“ejecutivas”). La inhibición del sistema prefrontal, responsable del pensamiento racional y el control de los impulsos, hace que éstos, junto con las vivencias emocionales y algunos recuerdos olvidados, puedan acceder a la consciencia. A todo esto puede vérsele una dimensión adaptativa, puesto que los sueños, esas asociaciones mentales de apariencia caprichosa, generados ante la relajación del funcionamiento prefrontal, permiten a veces llegar a formulaciones “impensables” en el estado vígil. Se sabe además que la privación experimental de sueño REM empeora el rendimiento en aquellas tareas que requieren pensamiento creativo y, por otra parte, que los pacientes en situaciones de estrés muestran un aumento de la actividad REM que puede contribuir al hallazgo de soluciones originales. Es importante reseñar que, aunque las lesiones en el puente de Varolio pueden hacer que se suprima el sueño REM, ello no impide que el paciente relate sueños. Por el contrario, cuando el puente está intacto pero se encuentra dañado el córtex prefrontal, se produce sueño REM, pero el sujeto no puede referir sueño alguno. Esto podría considerarse como evidencia de que la actividad onírica está provista de significados relacionados con la cognición y las emociones, y no es simplemente un “detritus neurofisiológico”, como estimó Hobson (38). De sus descubrimientos sobre el origen y secuencia fisiológicos del sueño REM, Hobson y McCarley (39) habían llegado, en efecto, a la conclusión de que los sueños carecían de sentido psicológico alguno. Según estos investigadores, sus hallazgos confirmaban que no existía otra perspectiva posible en la comprensión de los fenómenos oníricos que la anatomofisiológica. Ciertamente, sus descubrimientos arrojan dudas sobre algunos aspectos de la psicogénesis y la elaboración de los sueños, tal como las concibió Freud hace un siglo, pero ¿niegan la existencia de una psicodinámica? Recuerdo haber escuchado decir al renombrado psiquia208

Ars Medica. Revista de Humanidades 2004; 2:194-211


Cecilio Paniagua

tra e investigador Seymour Kety: “Llegaremos a conocer la fisiología e histología del sueño, pero no de los sueños” (1972). Los sueños de todos los humanos están mediados por un mismo neurotransmisor (la acetilcolina), pero ¿qué nos dice eso de nuestras diferencias individuales y del hecho de que todos los sueños en una misma persona sean distintos? Siguiendo esta manera reduccionista de razonar habríamos de pensar también que para comprender la psicosexualidad humana deberíamos prescindir de explorar científicamente las fantasías individuales al respecto y limitarnos a estudiar fenómenos como la inervación genital o las secreciones endocrinas correspondientes.

Mente y cerebro Los fenómenos mentales no son asunto para decidir si el psiquismo posee o no base fisiológica. Naturalmente que la tiene. La intencionalidad, las motivaciones, los significados y cualquier otra manifestación psíquica normal o patológica, se hallan implementados neurofisiológicamente. Ya en tiempos de Rudolf Virchow solía decirse que el cerebro segregaba pensamientos como el hígado bilis. La mente es un epifenómeno del funcionamiento cerebral: una “propiedad emergente”, que dicen los filósofos de la ciencia. Se define una propiedad emergente como aquella conectada causalmente con elementos o fenómenos anteriores, pero que no constituye una cualidad de ninguno de ellos ni resulta de su simple adición. La actividad psíquica es consecuencia de la descarga de grupos neuronales de determinadas áreas del cerebro, pero la mente no equivale sencillamente al funcionamiento de estas áreas cerebrales. Las secuencias causa-efecto no son sinónimas de identidad. El trueno sigue al relámpago, pero el trueno no es el relámpago. La comprensión del sentido de la conducta y de las experiencias subjetivas se halla a un nivel de coherencia diferente de cualquier formulación de leyes fisiológicas. George Klein (40), investigador y psicoanalista de la Fundación Menninger, escribió: “Puesto que las intenciones son personales y relacionales, los modelos adecuados para la búsqueda de fines no pueden ser formulados en términos de proposiciones impersonales [...] Realmente, la lectura de las intenciones o coherencias en las acciones y experiencias de otros no puede hacerse en los acontecimientos fisiológicos, al menos no más de lo que la finalidad del transporte puede ser colegida a partir del funcionamiento mecánico del automóvil”. En un lenguaje filosófico, se trata de niveles distintos de discurso. Michael Polanyi, químico, conocido filósofo de la ciencia y profesor de la Universidad de Manchester, escribió elocuentemente sobre lo necesario de incluir las experiencias y estados subjetivos dentro del campo del escrutinio científico. Polanyi señaló: “Un neurofísico que observase los procesos que tienen lugar en la retina y en el cerebro de un hombre que está mirando algo, no sería nunca capaz de interpretar, a partir de los acontecimientos físicos bajo Ars Medica. Revista de Humanidades 2004; 2:194-211

209


Convergencias actuales entre la neurociencia y el psicoanálisis

estudio qué está viendo el hombre en ese algo” (41). El estudio de la percepción, la memoria y la consciencia, en efecto, será siempre incompleto si no se añade al punto de vista objetivo el subjetivo.

Bibliografía 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23.

24. 25. 26. 27.

210

Damasio A. El error de Descartes. Madrid: Crítica (1994), 2001. Freud S. Proyecto de una psicología para neurólogos. Madrid: Biblioteca Nueva (1895), 1973. Freud S. Introducción al narcisismo. Madrid: Biblioteca Nueva (1914), 1973. Freud S. Más allá del principio del placer. Madrid: Biblioteca Nueva (1920), 1973. Reise MF. Mind, Brain, Body: Toward a Convergence of Psychoanalysis and Neurobiology. Nueva York: Basic Books, 1984. Pally R. How the brain actively constructs perceptions. Int J Psychoanal 1997; 79: 1021-1030. Kandel E R. From metapsychology to molecular neurobiology: Explorations into the nature of anxiety. Amer J Psychiat 1983, 140: 1277-1293. Paniagua C. Neurobiología y psicoanálisis. Actas Esp Psiquiatr 2000; 28: 53-59. Paniagua C. Neurociencia y psicoanálisis. Archivos Psiquiatr 2000; 63: 339-350. Paniagua C. Consciencia, cientificismo y multideterminismo en psicoanálisis. Rev Asoc Esp Neuropsiq 2000; 76: 67-78. Piaget J. La Construction du Réel Chez l’Enfant. Neuchâtel: Delachaux, Niestle (1937), 1950. Feldman A. MEM Neurosciences. http://www.apsa.org, 8 de noviembre, 1999. Andreasen P J, O’Leary D S, Cizadlo T, Arndt S, Rezai K, Watkins G L, et al. Remembering the past: Two facets of episodic memory explored with positron emission tomography. Am J Psychiat 1995; 152: 1576-1585. Galin D. Lateral specialization and psychiatric issues: Speculation on development and the evolution of consciousness. Ann N Y Acad Sci 1974; 299: 397-411. Freud S. La interpretación de los sueños. Madrid: Biblioteca Nueva (1900), 1973. Gazzaniga M S. Nature’s Mind. Basic Books. Nueva York, 1992. Freud S. Lo inconsciente. Madrid: Biblioteca Nueva (1915), 1973. Dawson G y Fischer K W (eds.). Human Behavior and the Developing Brain. Nueva York: Guilford, 1994. Joseph R. Neuropsychiatry, Neuropsychology and Clinical Neuroscience. Baltimore: Wilkins & Wilkins, 1996. Penfield W y Jasper H. Epilepsy and the Functional Anatomy of the Brain. Boston: Little, Brown, 1954. Rodríguez Delgado J M. Physical Control of the Mind. Nueva York: Harper & Row, 1969. Sidis B. The Psychology of Suggestion. Nueva York: Appleton, 1898. Pötzl O. The relationships between experimentally induced dream images and indirect vision. En: Preconscious Stimulation in Dreams, Associations, and Images. Monogr. 7. Psychol Issues. Nueva York: Int Univ Press (1917), 1960. Libet B. The neural time factor in conscious and unconscious events. En Experimental and Theoretical Studies of Consciousness. Ed. T. Nagel. Nueva York: Wiley, 1993. Wong P S. Anxiety, signal anxiety, and unconscious anticipation: Neuroscientific evidence for an unconscious signal function in humans. J Amer Psychoanal Assn 1999; 47: 817-841. Anderson M C, Ochsner K N, Kuhl B, Cooper J, Robertson E, Gabrieli S W, et al. Neural systems underlying the suppression of unwanted memories. Science 2004; 303: 232-235. Wiesel T N. Postnatal development of the visual cortex and the influence of environment. Nature 1982; 299: 583-591. Ars Medica. Revista de Humanidades 2004; 2:194-211


Cecilio Paniagua

28. 29. 30. 31. 32. 33. 34. 35. 36. 37. 38. 39. 40. 41.

Papez, J.W. A proposed mechanism of emotion. Arch Neurol Psychiat 1937; 38: 725-735. Freud A. A psychoanalytic view of developmental psychopathology. J Philadelphia Assn Psychoanal 1974; 1: 7-17. Wiesel T N. Postnatal development of the visual cortex and the influence of environment. Nature 1982; 299: 583-591. Schore A N. Affect Regulation and the Origin of the Self. Hillsdale (N. J.): L. Erlbaum, 1994. Greenough WT, Black JE y Wallace CS. Experience and brain development. Child Development 1987; 58: 539-559. Gabbard G O. A neurobiologically informed perspective on psychotherapy. British J Psychiatry 2000; 177: 117-122. Kandel E R. Cellular Basis of Behavior: An Introduction to Behavioral Neurobiology. San Francisco: W. H. Freeman, 1976. Pally R. How brain development is shaped by genetic and environmental factors. Int J Psychoanal 1997, 78: 587-593. Schwartz J M et al. Systematic cerebral glucose metabolic rate changes after successful behavior modification treatment of obsessive-compulsive disorder. Arch Gen Psychiat 1996; 53: 109-113. Viinam채ki H et al. Change in monoamine transporter density related to clinical recovery: A case control study. Nordic J Psychiat 1998; 52: 39-44. Hobson J A. The Chemistry of Conscious States. Boston: Little, Brown, 1994. Hobson JA y McCarley R W. The brain as a dream state generator: An activation- synthesis hypothesis of the dream process. Amer J Psychiat 1977; 134: 1335-1348. Klein G. Psychoanalytic Theory: An Exploration of Essentials, Nueva York: Int. Univ. Press, 1976. Polanyi, M. The structure of consciousness, Brain, 1965; 88: 799-810.

Ars Medica. Revista de Humanidades 2004; 2:194-211

211


Artículos

Salvando las distancias Shortening the Distances ■ Alfonso Esquivel Rojas Resumen Desde que las especies de nuestro género incorporaron la carne a su dieta, han ido transformando, innovando y mejorando las herramientas que usaban para acceder a este nuevo recurso alimenticio. La elaboración de lo que podríamos denominar “armas de caza”, está relacionada con las capacidades tecnológicas que desarrollaron los homínidos a lo largo de su evolución. En este artículo se describe la presencia de estas herramientas en el registro fósil y su uso por algunas de las especies del llamado género Homo. Ello nos permite entender la relación que posiblemente tuvieron dichas especies con su medio natural.

Palabras clave Armas de caza. Acceso a los recursos. Género Homo. Evolución humana.

Abstract From the time species of our genus incorporated meat into their diet they have been transforming, innovating and improving the tools used to accede to this new alimentary resource. The elaboration of what we could call "hunting weaponry" is related to the technological capacity hominids developed throughout their evolution. This article describes the presence of these tools in fossil registration and their use by some of the species included in the Homo genus, which allows us to understand the possible relationship that these species had with their natural environment.

Key words Hunting weaponry. Access to resources. Homo genus. Human evolution.

■ Observando las transformaciones que se han producido en los homínidos, encontramos una que ha influido especialmente en su evolución: las especies del género Homo comen carne. Este cambio ocurrió en África hace algo más de dos millones de años El autor es biólogo y trabaja como Investigador en el Centro Mixto (UCM-ISCIII) para el Estudio de la Evolución y el Comportamiento Humano. Madrid (España). 212

Ars Medica. Revista de Humanidades 2004; 2:212-225


Alfonso Esquivel Rojas

y muchos investigadores ven en la nueva dieta, una de las adaptaciones más determinantes en la historia de nuestro grupo, el género Homo. Leslie Aiello y Peter Wheeler propusieron en 1990 una hipótesis que explica la relevancia que tuvo, para la evolución humana, la inclusión de la carne como parte importante del alimento ingerido por los homínidos. En su opinión, la expansión cerebral que se produjo en las especies de Homo sólo fue posible porque, a su vez, se produjo el acortamiento del tubo digestivo. La longitud de éste depende del alimento que tiene que procesar; por eso en los herbívoros es más largo que en los carnívoros, ya que la carne es un alimento más fácil de digerir. Así, los antropoideos, como los chimpancés, y seguramente los australopitecos, necesitan tubos digestivos largos para procesar los vegetales que consumen. El cerebro es un órgano de alto coste energético, tanto en su formación como en su funcionamiento, por lo que su aumento de tamaño en el género Homo, sólo pudo afrontarse incrementando la tasa metabólica basal de todo el organismo o reduciendo el consumo de algún otro órgano. Puesto que los humanos tenemos una tasa metabólica correspondiente a la de un mamífero de nuestro tamaño, Aiello y Wheeler concluyeron que se redujo el consumo de otro órgano para mantener el gasto general del cuerpo. La reducción del tamaño del hígado, el corazón y los riñones no es viable; sin embargo, el tubo digestivo sí puede reducirse siempre que el alimento que se ingiera sea de mejor calidad, es decir, si se procesa fácilmente y suministra una mayor cantidad de calorías. Así, lo que dejó de gastarse en el tubo digestivo, pudo ser invertido en cerebros mayores. De este modo, la gran encefalización que caracteriza a la estirpe humana fue posible gracias a la inclusión en la dieta de las grasas y las proteínas animales. La manera más sencilla de obtener carne es la de aprovechar las carroñas. La caza es una actividad muy complicada para un primate que carece de garras y colmillos y que no destaca por su velocidad. Por ello, la mayoría de los investigadores opinan que los primeros humanos tenían una economía de tipo recolector-carroñero, en la que la caza sería muy infrecuente y oportunista. Este punto de vista es muy razonable en ecosistemas en los que, como es habitual en África, los recursos vegetales están disponibles durante todo el año y aseguran el sustento mínimo. Sin embargo, hace cerca de 1,7 millones de años los humanos salieron de África, y ya estaban en Europa hace alrededor de 1,3 millones de años. Los ecosistemas europeos son marcadamente estacionales y durante muchos meses al año desaparecen los recursos vegetales que garantizan la subsistencia. En esas condiciones, el carroñeo no cubre las necesidades alimentarias y se hace necesario acceder a otros tipos de recursos. La información que aparece en los yacimientos europeos dejaba claro que existía el consumo de animales, pero nada se sabía hasta hace poco de cómo los homínidos podían capturar sus presas. Es difícil de aceptar que estos grupos humanos cazaran cuerpo a cuerpo bisontes, caballos o ciervos, aunque es abundante la presencia de grandes herbívoros en los yacimientos. Pero, entonces, ¿cómo lo hacían? Ars Medica. Revista de Humanidades 2004; 2:212-225

213


Salvando las distancias

Europa Aunque se encuentran piedras talladas en yacimientos que tienen edades cercanas a 1,3 millones de años, los fósiles humanos más antiguos hallados en el continente europeo datan de hace algo más de 780.000 años. Pertenecen a la especie Homo antecessor y aparecieron en el yacimiento burgalés de la Gran Dolina de la sierra de Atapuerca; pero se conoce de manera mucho más precisa y detallada otra especie humana que también se encuentra en Atapuerca: la denominada Homo heidelbergensis. La presencia del Homo heidelbergensis en Europa data de al menos 500.000 años y aunque se ha encontrado en varios lugares del continente europeo, el excelente conocimiento de esta especie se debe a la magnífica muestra que se viene recuperando, desde hace veinte años, en el yacimiento de la Sima de los Huesos de Atapuerca. En él se encuentran representados todos los huesos de cerca de treinta esqueletos. Las investigaciones realizadas con los fósiles de este yacimiento nos muestran unos seres humanos muy corpulentos, que tenían un peso ideal calculado de entre noventa y cien kilos para varones de alrededor de 175 cm de estatura y que, por lo tanto, necesitarían una gran cantidad de alimentos cada día. ¿Cuáles podrían ser éstos? En Europa gran parte de las aves llegan a criar entre los meses de marzo y abril, y se marchan cuando transcurren los de agosto y septiembre. El acceso al sencillo recurso de las polladas o de los huevos se acorta bastante más, pudiendo variar su presencia entre uno y tres meses, dependiendo de la latitud a la que nos encontremos. Los recursos vegetales no crecen de forma continuada o se alternan a lo largo del año, como ocurre en lugares de latitud más cercana al ecuador del planeta. Entre mayo y julio comienza a haber tallos tiernos. Los frutos con cáscara como avellanas, piñones, bellotas o castañas, no se dan hasta que comienza a entrar el otoño, y algo parecido ocurre con las bayas de mostajos y majuelos, las moras, y las endrinas. Dispersas entre la primavera y la otoñada crecen setas, aunque las que son más abundantes lo hacen entre septiembre y octubre, siempre que tengan la oportuna bendición de las lluvias del mes de agosto, que preparan a las esporas cuando todavía la temperatura es cálida. Estos meses, según parece, son perfectos para la recolecta de un grupo de humanos; pero, ¿qué ocurre durante el resto del año cuando no hay alimento vegetal disponible? Entre octubre y marzo, la única respuesta posible es la caza. Para explicar las adaptaciones, comportamientos y estrategias que adoptan las especies para conseguir alimento suele decirse que, en el reino animal, “uno es lo que come”. Quizás podríamos introducir una nueva frase hecha, pues si se forma parte de un grupo humano que pasa los meses de invierno en el continente europeo “uno es lo que lanza”. No cabe duda de que cualquier cosa consistente que los humanos fueran capaces de lanzar, como piedras, huesos o maderas, serviría para abatir a un pequeño animal. Si hablásemos en términos cinegéticos nos referiríamos a la caza menor. Pero ya hace 400.000 años los homínidos del género Homo habían comenzado a apostar mucho más fuerte. 214

Ars Medica. Revista de Humanidades 2004; 2:212-225


Alfonso Esquivel Rojas

En el año 1995 se halló en el yacimiento alemán de Schoningen la evidencia que nos ha permitido imaginar, de una forma diferente a como se creía hasta ese momento, las capacidades que desarrollaban estos homínidos. Allí aparecieron varios instrumentos elaborados en madera, entre los que destacaban tres lanzas, y todos ellos con una antigüedad de 400.000 años. Esta época se corresponde con el momento en que el Homo heidelbergensis ocupaba el continente europeo y cuyas andanzas lo habían llevado hasta una zona situada en la parte noroccidental de Europa Central, en el extremo norte de las montañas de Hartz. Contrariamente a lo que suele ocurrir normalmente con la materia orgánica, las maderas transformadas por estos homínidos del Pleistoceno no se deshicieron por la actividad de las bacterias, los hongos y los insectos. Las condiciones especiales del lugar donde quedaron olvidadas lo impidieron, y así consiguieron llegar hasta nuestros días. Lo que allí encontraron los arqueólogos no fueron solamente palos afilados; las lanzas de Schoningen eran algo bastante más elaborado. Están construidas sobre madera de abeto rojo y se realizaron utilizando los troncos de árboles de edad cercana a los veinte años. Su elaboración requirió que rasparan la corteza y cortaran las ramas, y que después trabajaran sobre la madera eligiendo la base del tronco como punta, para dejar la zona alta del árbol, la copa, como final. Esta selección se repite en las tres lanzas, lo que parece indicar que se hizo de forma consciente y no al azar. La razón responde a que en la base del árbol los anillos de crecimiento están mucho más juntos que en la copa, lo que hace que esta zona sea bastante más dura y resistente, al contrario que en la copa, que es más flexible y blanda. Sin duda, la experiencia supuso en estos grupos humanos un continuo aprendizaje. Parece claro que aprendían de sus errores y transformaban sus herramientas de la forma más adecuada. Aún así, los investigadores quedaron muy sorprendidos ante las dimensiones y la forma que los homínidos habían dado a las lanzas, eliminando la madera sobrante con sus herramientas de piedra. Pero, para poder comprender su diseño debemos regresar al presente. Las medidas oficiales que tienen las jabalinas que se utilizan en las competiciones olímpicas son las siguientes: en el caso de los lanzadores masculinos su longitud oscila entre 2,60 y 2,70 metros, con un diámetro comprendido entre 2,5 y 3 cm y que decrece de delante hacia atrás. Este diseño concentra más peso en la zona delantera, de manera que, al adelantarse el centro de gravedad, el vuelo es recto y se reducen las desviaciones en la trayectoria. En consecuencia, cuando un atleta arroja su jabalina, el tercio posterior de la misma vibra y se cimbrea, como si fuera aleteando en el aire, debido a que los dos tercios traseros decrecen en grosor y ello les confiere gran flexibilidad. Pues bien, regresando de nuevo a la Europa central de hace 400.000 años las lanzas que fabricaba el Homo heidelbergensis tenían las siguientes dimensiones: • Lanza I-Longitud: 2,25 m; diámetros: 4,7 cm en el primer tercio de la lanza; 3,6 cm en la mitad y 3,5 en el último tercio. Ars Medica. Revista de Humanidades 2004; 2:212-225

215


Salvando las distancias

• Lanza II-Longitud: 2,30 m; diámetros: 3,7 cm en el primer tercio de la lanza; 3,5 cm en la mitad y 3,4 en el último tercio. • Lanza III-Longitud: 1,82 m; diámetros: 2,7 cm en el primer tercio de la lanza; 2,4 cm en la mitad, y 2,3 en el último tercio. Como puede apreciarse, las lanzas de estos antiguos grupos humanos reproducen las proporciones características de las jabalinas actuales y, por lo tanto, su comportamiento al ser lanzadas sería similar. Para ello las elaboraban de manera que fueran duras y gruesas delante, y finas y elásticas detrás. Su diámetro decrecía lentamente desde el primer tercio de forma continuada hacia el final, sin terminar abruptamente, y dando el aspecto de grandes agujas o husos. Eran armas fabricadas cuidadosamente para ser arrojadas con un vuelo efectivo y directo hacia presas sanas, que no suelen permitir que ningún depredador se les acerque. Aunque no sepamos si eran conscientes de ello, cuando estos homínidos, u otros que les antecedieron, descubrieron cómo fabricarlas, inventaron algo absolutamente nuevo y desconocido en el reino animal: “matar a distancia”. Pero las lanzas no fueron las únicas armas que aparecieron en el yacimiento de Schoningen. También se encontró una madera más corta y afilada en sus dos extremos. Su longitud era de 78 cm y su diámetro máximo 3 cm. A primera vista, su pequeño tamaño y sus dos puntas afiladas podrían hacernos pensar que se trataba de un instrumento más adecuado para la pelea cuerpo a cuerpo. Sin duda pudo servir para ello, pero los arqueólogos apreciaron que no era una madera recta, sino que presentaba un ligero ángulo que partía, aproximadamente, desde la mitad del palo. Quizás por eso, creyeron que podría haber tenido otra utilidad y la llamaron “estaca para lanzar”. Y, para poder entender su diseño, debemos recalar en el continente australiano.

El primer boomerang Los aborígenes australianos son conocidos por fabricar boomerangs. Son unas maderas planas con dos brazos diferenciados que forman un ángulo, más o menos acusado, en algún punto de su longitud. Los hay de diferentes tipos y diseños, pero el más conocido es aquél que retorna hasta la zona donde ha sido lanzado. En este caso, el boomerang tiene dos brazos de diferente tamaño que forman un ángulo; y, además, un lado es redondeado, mientras que el otro es plano. Este tipo de boomerang se lanza horizontalmente, de manera que el lado redondeado quede por arriba y el plano por debajo. El aire que pasa por la zona redondeada, la superior, encuentra resistencia, mientras que pasa rápida y fácilmente por la zona plana. La fuerza resultante hace que la madera haga un vuelo ascendente, mientras conserva la energía que se le ha dado en el lanzamiento. Es el mismo diseño que tienen las alas de un avión, lo que permite que este trozo de madera tam216

Ars Medica. Revista de Humanidades 2004; 2:212-225


Alfonso Esquivel Rojas

Ars Medica. Revista de Humanidades 2004; 2:212-225

217


Salvando las distancias

bién sea capaz de mantenerse en vuelo. Algunos regresan hasta el lanzador cuando los dos brazos del boomerang son ligeramente diferentes en sus dimensiones, ya que el extremo de mayor tamaño realiza cada giro más rápidamente que el pequeño y hace que la trayectoria describa un círculo. El artefacto se hizo famoso en todo el mundo y quedó como marca de identidad de los grupos que poblaban Australia. Pero los aborígenes no lanzaban sólo este tipo de boomerang, ya que los diseños eran muy variados y presentaban diferentes utilidades. Así, para crear el desconcierto en las bandadas de aves acuáticas que frecuentaban las zonas encharcadas y costeras, los pobladores del noroeste y los que vivían en Port Lincoln, en el suroeste, utilizaban los que realizan largos vuelos de ida y vuelta. En época de cría, las aves regresaban a sus nidos confundiendo el artefacto volador con un ave de presa. Allí otros aborígenes los estaban esperando y eran un blanco fácil para sus lanzas y azagayas. Pero cuando llegaron los colonos europeos, lo que despertó su atención y sobre todo su preocupación, fueron otros tipos de boomerangs. Eran largos, fabricados de madera muy dura, con un diseño homogéneo en las caras superior e inferior. Tenían extremos romos y duros o también afilados en forma de pincho o de borde cortante. Se usaban para cazar animales como emús o canguros y también para la guerra. No se lanzaban horizontalmente, sino en posición vertical, como un cuchillo, y no se pretendía que regresaran, sino que volaran a gran velocidad y en línea recta hasta el blanco, donde golpeaban o se clavaban. Al principio se pensó que los boomerangs eran armas únicamente australianas, pero la realidad es muy diferente. Aunque los aborígenes, al mantener sus tradiciones y su cultura material, han permitido que llegue hasta nuestros días una herramienta de caza que viene de muy antiguo, no fueron los únicos en fabricarlos y emplearlos sino que se trata de un arma muy extendida. Al estar hechos de madera no es fácil que fosilicen; sin embargo, existen algunos yacimientos donde se han conservado. En la región danesa de Jutlandia fueron recuperados boomerangs de 7.000 años de antigüedad y el boomerang más antiguo de Australia data de entre 8.000 y 10.000 años y procede de Wyrie Swamp, en Australia del Sur. También en este continente aparecen dibujados en las pinturas rupestres de Arnhem Land, de 15.000 años de antigüedad. Asimismo, en el norte del continente africano se encontraron boomerangs representados en pinturas rupestres de hace 9.000 años, y son muy conocidos los descubiertos en las tumbas de los faraones egipcios de la decimoctava dinastía, como la de Tutankhamon. Pero aún podemos retroceder más en el pasado, para lo que antes nos detendremos en el yacimiento de la Cueva de Oblazova, en Polonia. Los restos que allí aparecen están elaborados, como los anteriores, por nuestra especie, el Homo sapiens, y tienen una antigüedad de 23.000 años. Entre ellos apareció un objeto fabricado con un colmillo de mamut y, de nuevo, los arqueólogos lo denominaron “estaca para lanzar”. Esta pieza de marfil es un boomerang de vuelo directo que, con sus brazos terminados en punta, se clavaría profundamente en el blanco elegido. 218

Ars Medica. Revista de Humanidades 2004; 2:212-225


Alfonso Esquivel Rojas

Su diseño nos lleva de regreso, igual que si hubiéramos realizado un largo vuelo con uno de los afamados boomerangs australianos, a la Europa central de hace 400.000 años, cuando los Homo heidelbergensis poblaban el continente. La “estaca para lanzar” que ellos utilizaron tenía brazos ligeramente angulados y terminados en puntas cuidadosamente afiladas. Y es que, lo que en Schoningen encontraron los arqueólogos era un boomerang del Pleistoceno medio. Quizás ahora estemos más preparados para juzgar mejor cómo eran los habitantes del continente europeo hace 400.000 años y valorar más adecuadamente sus habilidades y su capacidad de supervivencia. Eran tan altos como nosotros, más anchos, mucho más fuertes, formaban grupos, tenían largas lanzas afiladas, diseñadas y construidas para volar de manera directa y efectiva hasta su blanco y, también, fabricaban boomerangs de extremos afilados. Seguramente, los únicos competidores con los que tendrían que disputarse la caza serían los leones.

La primera máquina Las habilidades que permitieron a los Homo heidelbergensis sobrevivir fueron mantenidas por la especie que los sucedió en Europa: el Homo neanderthalensis. Así, cuando el continente europeo pasó a estar ocupado por los neandertales, estos siguieron cazando animales de gran tamaño, como caballos, ciervos, bisontes o mamuts. Desde su aparición, hace unos 200.000 años, fueron refinando y optimizando la realización de herramientas de piedra, pero las armas con las que se enfrentaban a los animales de los que se alimentaban, no suponían una mejora objetiva en la táctica de caza que habían venido desarrollando los Homo heidelbergensis que habitaron el continente europeo. Aparentemente estas cualidades se habían quedado detenidas en el tiempo. Hace alrededor de 40.000 años, los grupos de neandertales que vivían en los valles, llanuras y bosques de Europa, descubrieron que un nuevo habitante había aparecido en su entorno: el Homo sapiens. Físicamente, eran de mayor estatura y menos robustos, pero su tecnología era más elaborada ya que eran capaces de obtener una mayor superficie de filo cortante que los neandertales a partir de un mismo bloque de piedra. También habían comenzado a transformar otros materiales, como el hueso o las astas de corzos, ciervos y renos, y no sólo para obtener puntas o arpones, sino también para hacer objetos de adorno. Se desconocen las causas reales que hicieron prevalecer a una especie sobre la otra, pero los últimos neandertales fueron disminuyendo hasta extinguirse hace aproximadamente 30.000 años. En ese momento, los Homo sapiens que presenciaron la desaparición de los últimos neandertales no solamente desarrollaban una tecnología más eficaz en la elaboración de piedras afiladas: habían inventado, además, una nueva forma de matar a distancia. Algunas de las puntas de piedra y arpones de hueso o asta encontrados en los yacimientos de Homo sapiens de hace entre 29.000 y 25.000 años, hacían pensar por su forma y tamaño Ars Medica. Revista de Humanidades 2004; 2:212-225

219


Salvando las distancias

que debían formar parte de lanzas ligeras. Estas puntas de proyectil son alargadas y su anchura no suele superar el centímetro y medio, por lo que el palo o astil en el que irían sujetas no debía ser más grueso que el arpón o la punta de piedra. Si esto no fuera así, perdería todo su potencial para penetrar en el cuerpo de un animal. El dilema que se presentaba era que una lanza tan ligera no representaba ninguna mejora si era arrojada como una jabalina y ya hemos visto que, en este aspecto, los homínidos habían llegado a perfeccionar considerablemente sus diseños. Algunos objetos labrados en hueso y en marfil que se encontraron en yacimientos más recientes, ofrecieron la explicación a este problema. Las lanzas ligeras de los Homo sapiens eran arrojadas mediante un pequeño bastón terminado en un saliente con forma de gancho, de manera que el saliente se ajustaba en un agujero labrado en el extremo posterior de la lanza. Este artefacto se denomina propulsor y ofrece dos ventajas fundamentales; alargar la longitud del brazo del lanzador y, por lo tanto, la fuerza de la palanca que realiza el lanzamiento y, además, permite realizar un segundo movimiento de muñeca que produce un doble impulso. La lanza ligera, o venablo, sale por ello despedida a gran velocidad. Lo que parece un complicado conjunto de movimientos, es algo tan sencillo como lanzar un garbanzo haciendo que una cuchara se transforme en una improvisada catapulta. Según el Diccionario de la Real Academia Española, la palabra máquina define a un “artificio para aprovechar, dirigir o regular la acción de una fuerza”. Esto nos sitúa ante la evidencia arqueológica más antigua de la existencia de una maquina ideada por el ser humano. Para poder comprobar su eficacia, podemos regresar de nuevo a tiempos más actuales, ya que la lanza ligera y el propulsor han llegado hasta nuestros días como parte de la cultura material de indios aztecas, aborígenes australianos y esquimales, entre otros. Ello nos ha permitido comprobar cómo un aborigen australiano es capaz de acertar a un canguro en movimiento a una distancia de más de cuarenta metros. E, igualmente, los guerreros aztecas utilizaron también este tipo de arma, a la que llamaban atlalt, para intentar hacer frente a los conquistadores españoles, pero se encontraron con una magia desconocida para ellos: las armaduras de hierro con las que se protegían los soldados de Hernán Cortés. Regresando de nuevo al Paleolítico superior, la invención del propulsor permitió a los cazadores de nuestra especie disponer de un proyectil que tenía mayor alcance y, al tratarse de lanzas ligeras, podían transportar varias de ellas en una misma mano, dando lugar a segundas y terceras oportunidades de disparo. Así, en la dispersión que llevó a los grupos de Homo sapiens a ocupar la casi totalidad del planeta, “la primera máquina” formó parte de su equipaje, y supuso sin duda una mejora importante para acceder al necesario recurso de la caza.

La muerte invisible Los propulsores y las lanzas ligeras eran confeccionados habitualmente con materiales que no se fosilizan. Esto mantuvo oculta su existencia hasta que, finalmente, la vena artística y 220

Ars Medica. Revista de Humanidades 2004; 2:212-225


Alfonso Esquivel Rojas

simbólica propia y única de nuestra especie, llevó a aquellos cazadores a confeccionar propulsores de marfil y de asta, bellamente decorados con figuras de animales que eran presas deseadas por ellos, y seguramente respetadas y reverenciadas. Pero, hace alrededor de 14.000 años, los propulsores y las largas y estrechas puntas de proyectil comenzaron a desaparecer de los yacimientos europeos. Los arqueólogos se encontraban ante nuevos tipos de puntas de piedra, esta vez, mucho más pequeñas. Su elaboración había seleccionado un tamaño y unas formas precisas y pacientemente labradas. La presión directa de un extremo de asta de ciervo sobre los bordes de sílex, producía melladuras que, al ser realizadas en las dos caras, generaban filos de gran resistencia en piezas delgadas y de escaso peso. De nuevo la punta del proyectil era demasiado pequeña, incluso para las delgadas lanzas arrojadas con propulsor. El Homo sapiens había vuelto a inventar una nueva máquina. El arco es sin duda una de las armas de caza más eficaces que el hombre ha aprendido a fabricar. Al igual que ocurriera con el propulsor, está elaborado con madera. Por ello no se halla habitualmente entre los restos arqueológicos de los yacimientos, aunque la desaparición de las largas puntas de lanza y el descubrimiento de las pequeñas puntas de flecha nos indican su existencia. La presencia del arco en nuestra cultura más reciente hace de él un arma perfectamente conocida, tanto en su uso como en su elaboración. Aunque no podemos saber cómo fabricarían sus arcos los hombres que vivían al final del Paleolítico, conocemos los de época neolítica, que se han encontrado en turberas de 9.000 años de antigüedad y no presentan diferencias significativas con los actuales. Los arcos que utilizaron estos grupos humanos son los que hoy conocemos como arcos simples. Se elaboraban de una sola pieza, a partir de una madera dura y elástica. La zona central es la más gruesa y rígida, y de ella parten a cada lado sendos brazos o palas cuyo diseño ha de ser lo más parecido posible, para que desarrollen una respuesta similar y no produzcan desequilibrios que afecten al vuelo del proyectil. En este aspecto, es también importante que la madera no tenga nudos en su interior, pues su presencia produciría respuestas diferentes a la tensión de la estructura, lo que haría que se deformara o se fracturara. Al dar forma a la madera seleccionada, se ha de tener en cuenta la proporción de albura y duramen. La albura es la zona externa de la rama o tronco elegido, mientras que el duramen es la capa interior. La primera forma el lomo y es la parte flexible del arco mientras que la segunda, que es dura y resistente, forma el vientre del mismo. La flexibilidad de la albura impide que el duramen se rompa al contraerse y que recupere su posición original después del disparo. La proporción entre albura y duramen ha de ser adecuada a las propiedades de la madera elegida; por eso, en algunos casos, la debilidad de la zona externa puede producir la fractura o la deformación del arco. Para evitarlo, se puede reforzar la parte externa adheriendo láminas de tendón o fibras vegetales con cera y resina calientes. Las otras dos piezas que componen este nuevo ingenio son: una cuerda que tensa las palas del arco, y un dardo que es disparado gracias a la energía que genera la tensión de las misArs Medica. Revista de Humanidades 2004; 2:212-225

221


Salvando las distancias

mas. Las cuerdas de los arcos que, aún hoy, utilizan los escasos grupos de cazadores recolectores que quedan en el planeta, están fabricadas principalmente con tendones. Estas fibras animales se deshilachan y posteriormente se trenzan hasta obtener la longitud deseada. El tendón es un material que presenta gran resistencia. Cuando se humedece es blando y muy fácil de manejar, mientras que al secarse se vuelve duro y firme. La flecha es el proyectil que vuela hasta la presa, pero en este caso su tamaño, acorde con las puntas encontradas, se ha reducido y es más ligero. Las ramas nuevas que salen cada año en olmos y fresnos son excelentes varas de flecha. Aquéllas que no son suficientemente rectas, se enderezan calentándolas en las brasas de una hoguera, lo que las ablanda y permite darles la forma adecuada. Algunos pueblos cazadores actuales como los Hadza (Tanzania), las enderezan sujetándolas con los dientes, para luego doblar el astil hasta conseguir la forma deseada. Para enmangar la punta del proyectil al astil se usan tendones o fibras vegetales, además de sustancias adhesivas. El propulsor y la lanza ligera desaparecieron de los yacimientos de Homo sapiens, aunque eran armas efectivas y de largo alcance; por eso, hemos de pensar que para estos grupos, la nueva máquina tenía ventajas que los relegaron allí donde fue fabricada. La efectividad y alcance del arco supera las aspiraciones de una lanza ligera, pero, sobre todo, los cazadores que los portaban en sus cacerías tenían con ellos una ventaja esencial. Al arrojar una lanza ligera con un propulsor se realizan movimientos en los que participa todo el tronco superior, mientras las piernas que en principio están flexionadas, terminan por adelantarse con el impulso del tronco cuando la lanza sale disparada. Los arqueros, sin embargo, tan sólo tienen que realizar un gesto que consiste en soltar la cuerda de su arco en tensión; sus proyectiles llegan hasta su blanco sin necesidad de descubrir la posición en donde están ocultos o acechando, y el dardo recorre la distancia que separa al cazador y a la presa tan rápido que, prácticamente, no es visto mientras está en vuelo. Después de haberse desenvuelto en los diferentes ecosistemas del planeta durante más de 1,9 millones de años de evolución, los humanos habían conseguido que sus presas, expertas en distinguir cualquier matiz en el olor del entorno y en percibir el peligro en el débil sonido de una rama que cruje, cayeran heridas sin saber qué había ocurrido. Simplemente, no podían verlos.

Epílogo La panoplia de armas que han desarrollado los humanos para cazar a distancia a los animales de gran tamaño permiten, en mi opinión, diferenciar tres estados diferentes, que podemos situar a lo largo de la evolución humana. El primer estado se caracteriza por la fabricación de jabalinas y boomerangs. Estas armas de caza encontradas en Schoningen eran utilizadas por el Homo heidelbergensis hace 400.000 222

Ars Medica. Revista de Humanidades 2004; 2:212-225


Alfonso Esquivel Rojas

Ars Medica. Revista de Humanidades 2004; 2:212-225

223


Salvando las distancias

años, por lo que cabe pensar que otras especies contemporáneas como el Homo rhodesiensis, en África, y el Homo erectus, en Asia, tuvieran capacidades similares que explicaran cómo cobraban las presas que aparecen en los lugares que habitaron. Tal vez el Homo ergaster, el antepasado común de todas ellas y que ya tenía el mismo nivel tecnológico que estas especies a la hora de realizar herramientas de piedra, fuera el inventor de las armas que permitieron capturar a los grandes herbívoros a distancia. El segundo estado apareció con nuestra especie, y se produjo por la invención de la primera máquina: el propulsor. Esta nueva arma de caza sustituyó a las jabalinas, y su presencia en todas las poblaciones de Homo sapiens que poblaron el planeta demuestra un uso generalizado de la misma. Por otro lado, cuando los Homo sapiens salieron de África, fueron ocupando los diferentes continentes en distintos momentos. Su llegada a Australia data de hace 60.000 años y la de Europa 40.000, mientras que la entrada en el continente americano no se produjo hasta hace alrededor de 20.000 años. Es razonable pensar que el propulsor ya se había inventado cuando se produjo el poblamiento de Australia hace 60.000 años, aunque la evidencia arqueológica más antigua se encuentre en yacimientos europeos con edades cercanas a los 30.000 años. El tercer estado es el protagonizado por aquellos humanos que aprendieron a fabricar arcos. La evidencia de las primeras puntas de flecha sitúa a los arcos hace 14.000 años y su gran efectividad ha hecho que hayan sido utilizados casi hasta nuestros días. Los diferentes pueblos convirtieron el arco en un distintivo cultural, transformando su diseño en función de sus habilidades y de los materiales que encontraban en su entorno. Sólo la aparición de las armas de fuego consiguió relegarlo. Pero este tercer estado no fue común para todas las poblaciones del planeta. Los aborígenes australianos nunca tuvieron arcos. Su cultura material nos muestra las mismas armas con las que llegaron a Australia hace 60.000 años: los propulsores y los boomerangs. La ausencia del arco en la cultura australiana demuestra que este continente ya estaba aislado cuando se produjo la invención de aquél. Las primeras expediciones que históricamente llegaron a Australia, se encontraron con unos habitantes de rasgos inesperados, y que portaban venablos que arrojaban con propulsores, además de boomerangs puntiagudos y afilados. Sin saberlo, aquellos navegantes estaban ante personas que, seguramente, no eran muy diferentes en su aspecto físico y en su comportamiento a los Homo sapiens que, varios miles de años antes, habían poblado el planeta.

Bibliografía recomendada • Aiello LC Wheeler P. The expensive tissue hypothesis: the brain and the digestive system in human and primate evolution. Curr Anthropol. 1995; 36: 199-221. • Dennell R. The World's Oldest Spears. Nature. 1997; 385: 767-768 • Garrod D. Paleolithic Spear-Throwers. Proceedings of the Prehistoric Society, 1955, 21. 20-35 • Hess F. The aerodynamics of Boomerangs. Scientific American, nov. 1968, p. 124-137. 224

Ars Medica. Revista de Humanidades 2004; 2:212-225


Alfonso Esquivel Rojas

• Luebbers R A. Ancient boomerangs discovered in South Australia. Nature. 1974; 253: 39-40 • Muñoz F J. La punta de muesca de tipo mediterráneo: análisis tecnológico y funcional. Trabajos de Prehistoria. 1997; 54: 99-119. • Muñoz F J. Algunas consideraciones sobre el inicio de la arquería prehistórica. Trabajos de Prehistoria. 1999; vol. 56, 27-40 • Nuttall, Z. The atlatl or spear-thrower of the ancient Mexicans. Papers of the Peabody Museum of American Archaeology and Ethnology Papers, Harvard University. 1891; I: 171-205. • Odell G H y Cowan F. Experiments with spears and arrows on animal targets. Journal of Field Archaeology. 1986; 13: 195-212. • Roebroeks W. Hominid behaviour and the earliest occupation of Europe: an exploration. J Hum Evol. 2001; 41: 437-461. • Thieme H. Lower Palaeolithic Hunting Spears form Germany. Nature. 1997; 385: 807-810 • Valde-Nowak P, Nadachowski A, Wolsan M. Upper Palaeolithic Boomerang made of a mammoth tusk in south Poland. Nature. 1987; 329: 436-438.

Otras lecturas de interés relacionadas con el tema: • Arsuaga J L y Martínez I. La especie elegida. Editorial Temas de Hoy, 1998. • Arsuaga J L. Los aborígenes. La alimentación en la evolución humana. Editorial RBA, 2002. • Lister A y Bahn P. Mammoths. London Boxtree, 1995.

Ars Medica. Revista de Humanidades 2004; 2:212-225

225


Artículos

Niveles de percepción Levels of Perception ■ Fernando Prieto Pérez Resumen El Hombre, en su objetivo de resolver problemas complejos, desarrolla esquemas singulares de pensamiento. Analiza esta complejidad estableciendo patrones a partir de relaciones entre los elementos que intervienen en su estudio. En este artículo se examina, a través de ejemplos en ajedrez, lenguaje y otras áreas de conocimiento, la que es una de las características fundamentales que diferencian al hombre de la máquina: la visión de conjunto. El reconocimiento de patrones, no obstante, debe desempeñar un papel esencial en el desarrollo de la Inteligencia Artificial y en la comprensión del fenómeno de la autoconsciencia.

Palabras clave Ajedrez. Reconocimiento de patrones. Bloques. Fonética. Inteligencia Artificial.

Abstract Man develops peculiar ways of thinking in his aim to solve complex problems. He analyses this complexity by establishing patterns from relationships between the elements which are part of its study. In this article we examine, through examples in chess, language and other areas of knowledge, what is one of the most essential features that differenciates Man from Machine: the overall view. Nevertheless, pattern recognition should play a very important role in Artificial Intelligence development as well as self-consciousness understanding.

Key words Chess. Pattern Recognition. Chunks. Phonetics. Artificial Intelligence.

El autor es matemático. 226

Ars Medica. Revista de Humanidades 2004; 2:226-235


Fernando Prieto Pérez

La visión de conjunto en ajedrez Libro un combate desigual con la materia de mis clases; no consigo elevarme a una visión de conjunto que haría el trabajo más fecundo. Besso a Einstein. Zurich, 28 de junio de 1916. Correspondencia (1).

En ajedrez, el gran maestro (GM), dentro del abanico de movimientos que le ofrece la posición, analiza sólo los movimientos correctos. A su vez, el músico nunca comete un error de solfeo, del mismo modo que el pintor no da ninguna pincelada que rompa el equilibrio de su obra. El matemático no se pierde en razonamientos ilógicos y el médico no retrocede hasta sus primeros años de carrera o profesión para decidir un diagnóstico. El lingüista, por su parte, no construye una oración sintácticamente incorrecta... El ajedrecista principiante se sorprende de la facilidad con la que el GM se anticipa a sus movimientos. Pero, ¿cuáles son las claves de la maestría? El ajedrez es un claro ejemplo de juego que nada tiene que ver con el azar. Dos jugadores miden su fuerza frente a un tablero de 64 escaques. Algunos lo consideran una ciencia o un arte; otros encuentran en él ciertos paralelismos con la vida; Bobby Fischer sentencia que el ajedrez es “la” vida. Sea como fuere, las líneas de razonamiento seguidas en una partida sintetizan importantes rasgos característicos de la lógica y el pensamiento humano. En una partida, el número de movimientos que permiten las reglas es extraordinario. Sin embargo, como señala Adriaan De Groot en su obra maestra Thought and Choice in Chess (2), “el promedio de movimientos buenos por posición es menor o igual que dos, cinco como máximo, y único en el 40% de las posiciones correspondientes a partidas corrientes o no especialmente brillantes”. Así pues, parece acertado pensar que el GM sigue un determinado proceso de selección en su toma de decisiones. Ahora bien, para elegir el movimiento correcto de entre un número finito (y deseablemente pequeño) de variantes, el GM debe percibir cada posición de una manera especial. Quizá un ejemplo ilustre mejor esta idea: En un experimento ya clásico, De Groot mostraba una posición específica durante cinco segundos a un jugador principiante, a un jugador de club, a un maestro y a un GM, y seguidamente retiraba las piezas del tablero. A continuación, los jugadores debían colocar las piezas en su disposición original. Mientras que el GM (en el experimento era el campeón del mundo de 1935, Max Euwe) no cometía ningún error en el proceso, y el maestro (el propio De Groot) erraba situando un peón adicional (95% de la posición correcta), el jugador de club y el principiante coincidían, respectivamente, sólo en un 73% y un 41% con relación a la posición dada. Pero, cuando estos mismos cuatro jugadores observaban una posición con las piezas dispuestas aleatoriamente, y se repetía el experimento, el número de errores cometidos por el GM y el maestro aumentaba de una forma considerable (3). Podemos deducir pues, que, ante posiciones arbitrarias, el maestro es incapaz de extraer significado de la posición, como un lingüista lo es de memorizar o encontrar sentido en una secuencia de letras dispuestas al azar. Ars Medica. Revista de Humanidades 2004; 2:226-235

227


Niveles de percepción

No obstante, en la primera parte del experimento De Groot observó que, cuando los maestros cometían errores, estos se localizaban en bloques enteros de piezas, desplazadas cierto número de escaques con respecto a su posición verdadera, pero guardando la misma lógica interna que ese grupo de piezas poseía en la configuración originaria. Esta dimensión superior, la percepción en bloques, es la característica más significativa que distingue al jugador profesional del principiante, y responde a las relaciones entre piezas y a los planes específicos que puedan derivarse de aquéllas. El GM “lee” el carácter de la partida y el valor de las piezas “desde fuera”, desde un peldaño más alto, y esta forma de percibir la posición le permite filtrar automáticamente sólo aquellos movimientos que prometen ser ganadores. El GM no se plantea la seguridad del rey en cada jugada, como tampoco se plantea la igualdad material de ambos bandos en la apertura. Y, en su selección de las jugadas, ese filtro realiza una “poda implícita de la gigantesca ramificación del árbol de posibilidades” (4). Se calcula que un GM tiene asimilados 50.000 patrones o estructuras típicas, número que, curiosamente, coincide de forma aproximada con el de palabras que conforman el vocabulario de un nativo adulto inglés (5). Además, el reconocimiento de patrones supone un rasgo distintivo no sólo del GM con el principiante, sino del razonamiento humano, frente al computacional, y debe incorporarse de una forma adecuada dentro del paradigma de la Inteligencia Artificial (IA). Marvin Minsky, uno de los padres de la IA, critica el camino que han seguido los teóricos para explicar e imitar cualidades propias del ser humano como son el sentido común y la consciencia. En oposición al análisis demasiado local y concreto, que pierde perspectiva y visión de conjunto, Minsky sugiere que “los bloques de razonamiento, lenguaje, memoria y percepción deben ser más grandes y mejor estructurados” (6). Esta línea de pensamiento queda reflejada en los enfrentamientos ajedrecísticos disputados por Gary Kasparov y Deep Blue en los años 1996 y 1997. La computadora diseñada por IBM, con 256 procesadores en paralelo, examinaba y evaluaba (en 1997) 200 millones de posiciones por segundo; por su parte, el campeón del mundo “sólo” calculaba tres jugadas en el mismo tiempo. Sin embargo, mientras el ordenador procesaba únicamente movimientos por separado, y era incapaz de desarrollar secuencias completas de jugadas conforme a un plan, el campeón humano filtraba y discriminaba los movimientos según el valor relativo que tuvieran las piezas en cada instante, de acuerdo con su percepción en bloques de la posición. En las posiciones abiertas, con pocas piezas, se imponían las maniobras tácticas y la rapidez de cálculo del computador; por el contrario, en las posiciones cerradas, estratégicas, donde el lento juego posicional y la comprensión desde un escalón superior prevalecían sobre la táctica y el intercambio material, el campeón “ahogaba” al programa. Retomaremos este duelo más adelante para examinar más detalles relacionados con la IA. Este enfrentamiento, casi propio de ciencia-ficción, tiene su correlato en un campeonato del mundo disputado por grandes maestros de carne y hueso. Así, en su duelo de 1961, Mijail Botvinnik, gran analista y teórico del juego, y conocedor de las preferencias tácticas de su oponente, Mijail Tahl, llevó las partidas a un campo profundamente estratégico. La compren228

Ars Medica. Revista de Humanidades 2004; 2:226-235


Fernando Prieto Pérez

sión por bloques y la visión de conjunto del que llegaría a ser maestro de Kasparov, motivaron algunas de las partidas más puras que se hayan jugado jamás. Botvinnik, de formación ingeniero electrónico, fue el primer científico del tablero: analizaba sus partidas una vez terminadas y atisbó, ya en los años 50, el poder que alcanzarían las computadoras en este campo. Finalmente, las posibilidades dinámicas de percepción que ofrece el ajedrez están relacionadas con otras áreas y, en particular, con la lingüística. El mismo Botvinnik recordaba la siguiente anécdota de la partida que jugó con el GM Bogoljubov, en 1936: “Cuando Bogoljubov hizo una jugada y se olvidó de presionar el botón del reloj, yo le puse en conocimiento de ello. —Was?, me preguntó en alemán (por lo visto ya no pensaba en ruso)” (7). A su vez, el ajedrecista británico Jon Speelman hoy día considera que estudiar este juego es similar a aprender un lenguaje, un proceso que se desarrolla en gran medida de manera inconsciente. Este GM nos confirma que, gracias a un sinfín de patrones, el jugador es capaz de percibir los mejores movimientos, pero que no verá su eficacia hasta que los analice con cuidado o los ponga en práctica. Cualquier persona en su idioma materno elegirá inconscientemente de entre un gran número de palabras (alrededor de 50.000 como hemos visto anteriormente), pero no verá su validez hasta que las escriba en un contexto o las utilice en una conversación. Debemos recordar aquí cómo Minsky también hace hincapié en el idioma cuando se refiere a la nueva estructura que deben tener los bloques de razonamiento, lenguaje, memoria y percepción. Podemos concluir pues, que, del mismo modo que el jugador principiante de ajedrez o la computadora no pueden “leer” una posición determinada, el que estudia un idioma, por ejemplo, fonema a fonema, nunca llegará a dominarlo. Es decir, en cualquier disciplina, tanto intelectual como manual, necesariamente existirán distintos niveles de comprensión o percepción. Veamos a continuación cómo surgen estos niveles, de forma natural, en un idioma, como por ejemplo, el inglés.

El idioma inglés: niveles fonéticos y de traducción Para descubrir que en toda creación artística subyacen ideas y estrategias no muy diferentes a las que surgen durante el desarrollo de una partida de ajedrez, partiremos de un ejemplo literario concreto, como es el método de composición del poema de Edgar Allan Poe titulado El cuervo. Como veremos, así como el GM integra todas las piezas en su visión global de la partida, el artista “funde” todos los elementos a su alcance en el conjunto de su obra. Analizaremos, a su vez, cómo razones fonéticas (que podríamos considerar dentro de los primeros niveles de percepción) motivan el tema de una poesía, del mismo modo que en ajedrez un peón aislado puede ser el centro de todas las miradas (y ataques) del bando contrario. El cuervo es una de las creaciones más bellas de la Historia de la Literatura; y su método de composición, uno de los más originales que se conocen. Poe, mediante una matemática visión Ars Medica. Revista de Humanidades 2004; 2:226-235

229


Niveles de percepción

de conjunto, analiza, en primer lugar, cuál es la dimensión que debe tener su pieza (a saber, debe leerse de principio a fin sin interrupciones, pues “cuando son necesarias dos sesiones se interponen entre ellas los asuntos del mundo, y todo lo que denominamos el conjunto o la totalidad queda destruido automáticamente”). Y a continuación se pregunta cuál debe ser su extensión (a priori considera que deberá ser alrededor de 100 versos, y al final serán 104). Concluye que el tono melancólico es el idóneo, igual que el estribillo debe constar de una sola palabra. Con el fin de determinar esta palabra clave, razona que, “para poseer fuerza, debía ser necesariamente sonora y susceptible de un énfasis prolongado: aquellas consideraciones me condujeron inevitablemente a la o larga que es la vocal más sonora, asociada a la r porque es la consonante más vigorosa” (8). Así, desemboca irremediablemente en la palabra “nevermore” que será repetida por un ave, el cuervo, a lo largo de todo el poema. El cuervo describe los sentimientos de un enamorado que llora a su amada perdida. En una noche de tormenta, el ave entra volando en la habitación del enamorado, para resguardarse del frío, y a cada una de las preguntas que el hombre lance desesperadamente al aire responderá con la palabra “nevermore” (nunca más). Finalizando el poema, el amante se pregunta “si en el Paraíso lejano” podrá besar a su querida Leonor, ante lo que el ave de mal agüero responderá, de nuevo, con la palabra maldita: “nevermore”. En relación con el objeto de nuestro estudio, sorprende que los fonemas, las unidades mínimas del lenguaje, sean los que condicionen o den lugar tanto al tema como a la estructura general del poema. Algo que sólo es posible gracias al dominio del idioma que demuestra Poe, y a la perspectiva desde la que analiza su obra. Volveremos más tarde a este ejemplo y a otros similares donde la capacidad sugestiva de ciertos fonemas da origen a palabras enteras. Pero, antes debemos profundizar en los matices asociados a estas unidades (definidas como “cada uno de los sonidos diferenciables de una lengua”), en función de los niveles donde aparezcan. Primer nivel: el fonema En el prefacio de Pigmalión, George Bernard Shaw describe el idioma inglés como aquél del que “nadie, por sí mismo, puede aprender su pronunciación solamente con leerlo... La mayoría de los idiomas europeos son accesibles para oídos extranjeros. Los idiomas inglés y francés no son claros ni siquiera para los mismos ingleses o franceses” (9). El argumento de Shaw se basa en razones fonéticas y ortográficas. Así, y en referencia a tres palabras concretas, observa un resultado singular e interesante: en la palabra enough, la terminación —gh se pronuncia /f/; en la palabra women, la —o— se pronuncia /i/; finalmente, en la palabra motion, la —ti— se pronuncia /sh/. Por lo tanto, y llevándolo a su extremo, fonéticamente otra forma posible de escribir la palabra fish sería ghoti (gh + o + ti = /f/ + /i/ + /sh/). Además, debe llamarnos la atención que, palabras inglesas que difieren en su escritura en una sola letra (bear-hear, course-curse) se pronuncian de manera completamente diferente. Luego no sería recomendable confundir las transcripciones fonéticas de course (curso) y curse (maldito) para referirnos a cierto curso de inglés. 230

Ars Medica. Revista de Humanidades 2004; 2:226-235


Fernando Prieto Pérez

Recordemos, antes de estudiar la siguiente dimensión del idioma inglés, cómo Leonardo da Vinci apunta que “una sola nota es incapaz de crear armonía” (10); pero, en cambio, sí es capaz de romperla. Estudiaremos a continuación el siguiente nivel de percepción, donde el fonema adquiere un sentido más complejo dentro de una unidad superior: la palabra. Segundo nivel: la palabra El rasgo fonético anterior (con su implicación ortográfica) que caracteriza a tal idioma, en esencia se debe a la posición que ocupan determinados fonemas dentro de cada palabra, la unidad superior del discurso. Es decir, el lenguaje, como ocurría en ajedrez, debe examinarse desde un nivel más alto tanto para su comprensión como para su correcta pronunciación. Esta percepción “desde fuera” del sistema consistirá en estudiar la palabra como suma de fonemas en sus posiciones particulares, no como fonemas aislados e independientes del lugar que ocupen en la palabra. Obsérvese la diferencia con el español o el italiano que no presentan estos inconvenientes gracias a la correspondencia uno a uno existente entre letras y sonidos. En estos idiomas no existen reglas fonéticas posicionales y, consecuentemente, la pronunciación de los fonemas por separado coincide, en su conjunto, con la pronunciación de la palabra que resulta de aquéllos. Tercer nivel: la frase Sin embargo, a la hora de dominar un idioma o jugar al ajedrez como un GM, es necesario saber “respirar” la armonía que subyace en las palabras que conforman la oración o en las piezas que invaden el tablero. Es claro que “conocer muchas palabras no significa que podamos hablar un idioma. La clave está en la forma en que las piezas interactúan juntas” (11). Así, cuando un inglés habla, parece que las reglas fonéticas que determinan la pronunciación de cada palabra, fallan o se olvidan en parte. En el lenguaje hablado no se pronuncian uno a uno los componentes fonéticos (que pueden incluso cambiar por completo), ni tampoco se pronuncian perfecta y detenidamente todas las palabras, sino que se enlazan unas con otras dando a veces la sensación de que el que habla se salta algunas de ellas. En un paralelismo con la música, leer fonema a fonema una palabra o una frase sería equivalente a leer o tocar nota a nota una partitura, haciendo una pausa entre ellas; leer un texto palabra a palabra equivaldría a leer compás a compás nuestra partitura, aisladamente. Y prosiguiendo con la analogía musical, Leonardo afianza esta fusión de las partes en el todo cuando explica que “el oído... nunca obtendría placer alguno al escuchar una sola voz, de no ser porque retiene la impresión de las notas, ya que al pasar la impresión directamente de la primera nota a la quinta el efecto es el mismo que si no oyese la segunda a un tiempo” (12). Consecuencias semánticas Las conclusiones que pueden extraerse de la visión de conjunto aplicada al lenguaje son numerosas. Ars Medica. Revista de Humanidades 2004; 2:226-235

231


Niveles de percepción

El profesor David Crystal nos descubre en su obra The English Language (13) una gran muestra de palabras que deben su existencia a sencillas razones fonéticas. Por ejemplo, la mayor parte de las palabras que comienzan por sl— tienen connotaciones negativas, y esta correlación se acentúa cuando la cabecera es slo—. Es curioso, pues, que la unidad más pequeña y sencilla del lenguaje sea capaz de sugerir emociones. Por otra parte, cuando el físico Murray Gell-Mann introduce el término “quark” para denominar los constituyentes elementales de los nucleones, esta palabra, hasta entonces carente de significado, cobra vida por su semejanza con el sonido “cuorc” del que parte inicialmente su descubridor. Relacionando dicho sonido con la sentencia “Tres quarks para Muster Mark” de un pasaje de la obra de James Joyce titulada Finnegans Wake, y a su vez asociando “quark” con “quart” (cuarto), se dota de significado a nuestro vocablo. De esta forma, el origen (y significado) de la palabra “quark” es esencialmente fonético. Este ejemplo fue utilizado por el profesor Sánchez Ron en su discurso de ingreso en la Real Academia Española, en el que daría una vuelta más de tuerca a este fenómeno, llegando a plantearse si los padres de los acrónimos científicos GUT y TOE, que como él mismo aclara “no son partes del cuerpo sino Teorías de Gran Unificación y Teorías del Todo”, revelan con “el humor de sus nombres la confianza de personas que se sienten próximas a finalizar la física”. Estos términos, y otros pertenecientes a este campo, “como mucho se tratan de metáforas que los no especialistas difícilmente pueden apreciar” (14). En aspectos de traducción, el fonema puede desempeñar diferentes papeles en función del nivel desde el que sea percibido. Douglas R. Hofstadter describe los problemas que le ocasionó (y ocasiona) la traducción y comprensión del título de su obra The mind’s I. Según Hofstadter, “habladores buenos pero no nativos del idioma inglés se confunden con este título. A menudo leen la parte final “I” como el número romano “uno”, lo que, aunque no tiene sentido, es lo mejor que pueden hacer al no serles familiar la expresión El ojo de la mente” (15). Efectivamente, percibiendo el título desde un nivel superior observamos que la letra “I” y la palabra inglesa “eye” (ojo) son homófonas. Por tanto, el autor ya desde el comienzo de esta obra nos introduce en un juego de palabras que en sí mismo encerrará un gran significado. No obstante, los problemas de traducción generalmente no se deben a juegos fonéticos. Un ejemplo ilustrativo lo proporciona el título de la película titulada The straight story dirigida por David Lynch (1999), que fue traducido al español por Una historia verdadera. Observamos que la traducción es acertada pues la trama es “directa” (uno de los significados de la palabra “straight”), real, verdadera. Sin embargo, “Straight” también es el apellido del protagonista de la película, Alvin. Así pues, ésta podría haberse traducido por La historia de Straight, en referencia a su protagonista en lugar de al carácter de su trama. Por lo tanto, The straight story sólo habría tenido significado completo en español si, y sólo si, “straight” significara simultáneamente “directo” y un apellido propio de nuestro idioma. Sólo podremos percatarnos de este problema percibiendo el idioma original, de nuevo, desde un nivel superior de comprensión. 232

Ars Medica. Revista de Humanidades 2004; 2:226-235


Fernando Prieto Pérez

Shaw versus Turing. Una aproximación a la inteligencia artificial De igual forma que Shaw describe en Pigmalión las particularidades fonéticas de su idioma, las cuales desencadenan un sinnúmero de reflexiones en torno a la significación y la visión de conjunto, la trama de esa obra converge en otro tema relacionado, y de extraordinaria actualidad: la Inteligencia Artificial. El protagonista de Pigmalión, Henry Higgins, un profesor de lingüística y fonética inglesas, instruye en la dicción propia de la aristocracia a Eliza Doolitle, “la florista del East End que se convertirá en duquesa” (16), con el fin de que pueda pasar desapercibida en dicha clase social. Destacamos a continuación unas palabras del profesor Higgins: “Tiene una agudeza de oído extraordinaria... Exactamente igual que un loro... La he enseñado todos cuantos sonidos puede pronunciar un ser humano... Es la tarea más difícil que he emprendido jamás... No puedes imaginarte lo interesante que es tomar a un ser humano y transformarlo en otro ser, creando un nuevo idioma para él. Supone rellenar el profundo abismo que separa unas clases de otras, unas almas de otras” (17). Por otra parte, en 1950, 37 años después de la primera publicación de Pigmalión, el lógico inglés Alan Turing expone en su artículo Computing Machinery and Intelligence, publicado en la revista Mind (18), el célebre resultado que lleva su nombre (Test de Turing) y que enunciamos como sigue: “Una máquina piensa si al comunicarse un hombre por teléfono o por escrito con ésta y con otros seres humanos, aquél no es capaz de diferenciar (por la conversación mantenida) a la máquina del resto de los integrantes humanos”. Turing plantea en su artículo la que es, a nuestro parecer, la pregunta clave de la IA: “¿Pueden pensar las máquinas?”. Shaw había dejado abierto el mismo interrogante en Pigmalión: ¿Piensa realmente Eliza dentro del contexto de un idioma que no es el suyo? De acuerdo con el significado que atribuye Turing al concepto “pensar”, hoy podríamos afirmar que existen máquinas “pensantes”. En efecto, encontramos programas de ordenador capaces de mantener una conversación con un ser humano en un lenguaje muy natural. De hecho, uno de estos programas se llama, precisamente, ELIZA, desarrollado por Joseph Weizenbaum en 1966 (19). Sin embargo, nos preguntamos cuánto tiempo pueden dialogar con coherencia estos mecanismos; y, más aún, si estos dispositivos que simulan inteligencia, realmente piensan, a pesar de no dar ningún indicio de consciencia. No obstante, además del ejemplo que nos ofrece el programa ELIZA, hallamos otros también sorprendentes donde parecen confluir la IA y la comprensión humana. Así, veíamos al principio cómo el ajedrez y, en particular, Deep Blue, ofrecen muchas posibilidades en este campo. En relación a su depurada versión de 1997, llama la atención que, en la segunda partida, la máquina no aceptase el sacrificio de dos peones que le ofrecía Kasparov. El campeón del mundo, jugando con las piezas negras, buscaba a cambio una compensación táctica (es decir, conseguir tablas por jaque continuo en una posición desArs Medica. Revista de Humanidades 2004; 2:226-235

233


Niveles de percepción

favorable), que la máquina pareció vislumbrar. A su vez, el movimiento del peón a h5 que efectuó Deep Blue en la quinta partida sorprendió a todos, de nuevo, ya que indicaba cierta comprensión de la posición. Kasparov, que ganaría con autoridad el enfrentamiento de 1996 y perdería el de 1997 por una partida de diferencia, consideró el juego de su rival “demasiado humano”. Deep Blue, sin embargo, alternaba jugadas inteligentes con otras ingenuas, demostrando claras limitaciones estratégicas y dejando ver que su visión de conjunto era tan sólo aparente. De todas formas, observamos que en ajedrez, en tanto que es un conjunto cerrado, las posibilidades de imitar (y quién sabe, de alcanzar) cualidades propias humanas como la visión de conjunto, son mayores que en el lenguaje, donde el significado de un objeto necesita de la percepción del contexto y demás elementos que lo rodean. A medio camino entre los programas de ajedrez y el programa ELIZA, se hallan los programas matemáticos que, o bien resuelven enunciados concretos, o bien pueden elaborar nuevos teoremas. Estos dispositivos tienen incorporados una extraordinaria variedad de proposiciones, lemas y corolarios que, relacionados entre sí, llegan a determinar nuevos resultados. El lógico Jesús Mosterín nos apunta que, a finales de 1996, un año antes de la versión perfeccionada de Deep Blue, “Larry Wos y William McCune (del Argonne National Laboratory, en Illinois) lograron por primera vez programar un computador de tal manera que resolviera creativamente un problema abierto que los matemáticos humanos habían sido incapaces de resolver” (20). Por lo tanto, tampoco sabemos hasta qué punto conceptos como la inspiración y la creatividad son únicos del ser humano. *** A través de estos ejemplos se plantean nuevos interrogantes. Por ejemplo, si dotamos a un programa con la capacidad de resolver un problema, o de inferir nuevas tesis a partir de otras anteriores, ¿podría programarse a sí misma? ¿Alcanzaría cotas de pensamiento casi conscientes? ¿Tendría iniciativas? ¿Resumiría un texto literario? ¿Compondría un poema de la forma que Poe ideó El cuervo? ¿Soñaría?... Recordemos cómo Isaac Asimov, escritor por lo general mal entendido, y cuyas obras de ficción científica se encasillan erróneamente en la literatura juvenil, adelanta algunas de estas cuestiones. Asimismo, y advirtiendo el papel casi trascendente que debía desempeñar la IA en su futuro —nuestro presente— Asimov dedica su libro Los robots del amanecer a “Marvin Minsky y Josep F. Engelberger, que compendiaron (respectivamente) la teoría y la práctica de la robótica” (21). Los padres de la IA pensaban que los niveles superiores de percepción y, en definitiva, el pensamiento humano, son los auténticos modelos a imitar. Igualmente, la IA no era entonces un fin en sí mismo, como tampoco lo tiene que ser ahora, sino un medio que nos debe dirigir a una meta más elevada, a saber, la comprensión de nuestros mecanismos de pensamiento y de los pilares donde se asienta nuestra consciencia. 234

Ars Medica. Revista de Humanidades 2004; 2:226-235


Fernando Prieto Pérez

Conclusiones Hemos observado cómo el significado que reside en una partida de ajedrez, o en el título de una obra literaria, se ve influido irremediablemente por los niveles desde los que estas entidades son percibidas. Esta circunstancia impulsa el desarrollo de una nueva capacidad intelectual, la visión de conjunto, que abstrae la esencia de la realidad y desemboca en el fenómeno de la comprensión. Kant afirmaba que no sólo percibimos el mundo, sino que también lo ordenamos. Quizá sea este intento por establecer un orden dentro de la complejidad del mundo otra de las razones que fomenten aquella facultad. Además, la visión de conjunto es, o debería ser, una cualidad propia del profesional en cualquier campo, así como también debe inspirar (según acabamos de ver) nuevos caminos a explorar en el terreno de la IA y en la explicación de la consciencia y la inteligencia humanas.

Bibliografía 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21.

Einstein A. Correspondencia con Michelle Besso. Barcelona: Tusquets Editores. 1994, p. 124. De Groot A D. Thought and Choice in Chess. La Haya: Mouton. 1965. De Groot A D. Thought and Choice in Chess. La Haya: Mouton. 1965, pp. 323-327 Hofstadter D R. Gödel, Escher, Bach. Un eterno y grácil bucle. Barcelona: Tusquets Editores. 1987, p. 318. Charness N. Human chess skill. En: Frey P W. Chess Skill in Man and Machine. Nueva York: Springer-Verlag. 1977, p. 42. Minsky M A Framework for Representing Knowledge. MIT-AI Laboratory Memo 306, June, 1974. En: http://web.media.mit.edu/~minsky/papers/Frames/frames.html Botvinnik M. Partidas selectas I. Madrid: Ediciones Eseuve, S.A. 1990, p. 240. Poe E A. Poesía Completa. Barcelona: Ediciones 29. 1974, pp. 132-136. Shaw G B. Pygmalion. Londres: Penguin Classics. 2000, p. 3. Da Vinci L. Cuaderno de Notas. Madrid: EDIMAT Libros. 1999. Elbert T En: BBC News Online’s Ivan Noble. http://news.bbc.co.uk/2/hi/science/nature/1480365.stm Da Vinci L. Cuaderno de Notas. Madrid: EDIMAT Libros. 1999, p. 111. Crystal D. The English Language. Londres: Penguin Books. 1990, p. 123. Sánchez Ron J M. Elogio del mestizaje: Historia, lenguaje y ciencia. Discurso de recepción en la Real Academia Española. Madrid, 2003. pp. 51-55. Hofstadter D R. Metamagical Themas: Questing for the Essence of Mind and Pattern. Londres: Penguin Books. 1986, p. 587. Grene N. Introduction. En: Shaw G B. Pygmalion. Londres: Penguin Classics. 2000, p. XIV. Shaw G B. Pygmalion. Londres: Penguin Classics. 2000, pp. 65-66 Turing A. Computing Machinery and Intelligence. Mind. 1950; 59:433-460. Weizenbaum J. ELIZA: A Computer Program for the Study of Natural Language Communication between Man and Machine. Communications of the Association for Computing Machinery. 1966; 9:36-45 Mosterín J. Los Lógicos. Madrid: Editorial Espasa Calpe S.A. 2000, p. 305. Asimov I. Los robots del amanecer. Barcelona: Editorial Plaza & Janés, S.A. 1987.

Ars Medica. Revista de Humanidades 2004; 2:226-235

235


Artículo especial

¿Por qué debemos ir a Marte? Why Should We Go to Mars? ■ Francisco Anguita A principios del año 2004, tres satélites científicos estudiaban el planeta Marte desde órbitas cercanas, mientras dos vehículos de superficie recorrían lentamente puntos de especial interés. Dos naves más estaban siendo construidas para aprovechar la próxima oportunidad (ventana) de lanzamiento, en 2005, y varias otras concluían su fase de diseño. En conjunto, un ambiente semejante al del ominoso comienzo de La guerra de los mundos, salvo que los que ahora observan, estudian y preparan la invasión de un planeta vecino no son los marcianos sino los habitantes de la Tierra. Cambia asimismo el objetivo final: se trata de satisfacer nuestra curiosidad científica, y no de arrebatar un mundo a sus habitantes indígenas. Salvo que, en algún futuro, los terrícolas consideren que el estado actual de Marte no es el que más les conviene, y decidan, si son capaces de hacerlo, terra-formar el planeta: es decir, transformarlo en un segundo hogar.

¿Por qué Marte? Pero, ¿a qué viene esta insistencia con Marte? Sería interesante una encuesta amplia para averiguar cómo ve el hombre de la calle esta exploración sistemática de un planeta, tan diferente de la carrera hacia la Luna, sin la competición política y sin los astronautas-héroes. Adivino que la respuesta más citada se referiría a la búsqueda de vida; otras, quizás al agua. Y hay una postura antidesarrollista extrema, que analizaré al final, y que rechaza explícitamente la exploración del Sistema Solar, al tildarla de ser un empeño no de la Ciencia sino del capitalismo industrialista. Seguramente muy pocas opiniones reflejarían la acuciante necesidad de los científicos planetarios de estudiar la evolución de otro cuerpo para así, al fin, tener un patrón contra el cual contrastar la biografía del nuestro. Y si la palabra necesidad parece demasiado sonora en un campo de Ciencia pura, bastará que pensemos en nuestro mal comprendido sistema climático para que convengamos en que no podemos avanzar mucho más en el estudio de la Tierra si no nos dotamos de la capacidad de generalizar. El autor es Profesor de Geología Planetaria. Universidad Complutense de Madrid (España). 236

Ars Medica. Revista de Humanidades 2004; 2:236-251


Francisco Anguita

Es evidente que el actual proyecto de exploración de Marte está enfocado desde el prisma de la recién creada Astrobiología; es decir, centrado en la búsqueda de huellas de vida presente o pasada en el planeta. No es menos cierto que la estrella de esta exploración es la historia (compleja, por lo que vamos averiguando) del agua, y con ella del clima. Por último, ocurre que para desentrañar las idas y vueltas del clima marciano debemos comprender la evolución de su energía interna, expresada en la actividad de sus volcanes. Fuego, agua, vida, serán los hilos conductores de este intento de explicar qué estamos buscando en Marte y qué es lo que hemos encontrado hasta ahora.

Un registro histórico intacto Marte ostenta un nivel de actividad geológica intermedio entre el terrestre y el lunar, lo cual se refleja nítidamente en la faz del planeta, que incluye rasgos muy primitivos, como enormes cráteres (cuencas) de impacto, junto a otros modernos como redes fluviales. Pero en conjunto, Marte es el cuerpo de rasgos y procesos geológicos más próximos a los del nuestro. Una característica esencial del planeta vecino es la homogénea distribución de edades de su superficie (figura 1): si en la Tierra apenas hay rocas antiguas, y la Luna carece por completo de materiales modernos, Marte ofrece un equilibrio exquisito de rocas de todas las edades. La causa es su masa intermedia, que le ha proporcionado energía suficiente para renovar una parte importante de su superficie primitiva pero sin destruirla por completo, como ha sucedido en la energética Tierra. Lo más interesante es un corto periodo centrado hace 4.000 millones de años. Todos los indicios coinciden en señalar que es en esa época cuando surgió la vida en la Tierra, y que Marte pudo tener entonces un ambiente parecido al de nuestro planeta. Pero las rocas terrestres más antiguas halladas hasta ahora se formaron hace unos 3.850 millones de años, lo que convierte el tema del origen de la vida en un complicado laberinto científico. En cambio, las rocas de 4.000 millones de años forman un tercio de la superficie de Marte. Cuando podamos tomar muestras del planeta rojo se abrirá de par en par una puerta sobre la evolución inicial del Sistema Solar, que hasta ahora sólo hemos entrevisto. Un científico planetario ha dicho que Marte es el archivo perfecto para estudiar la historia del sistema: como un completo museo arqueológico al que un filántropo caprichoso hubiese añadido unas más que dignas plantas de arte moderno y contemporáneo.

Los fuegos internos Como en todo el Sistema Solar, el vulcanismo es el proceso geológico más visible en Marte. Curiosamente, el pequeño planeta (su radio es de 3.400 km, frente a los 6.378 de la Tierra) Ars Medica. Revista de Humanidades 2004; 2:236-251

237


¿Por qué debemos ir a Marte?

Figura 1. Distribución por edades (en millones de años) de las superficies de la Luna, Marte y la Tierra. Casi el 90% de nuestro satélite está formado por rocas muy antiguas, y lo contrario sucede en nuestro planeta. Marte es un caso intermedio.

posee algunos records de tamaño: la provincia volcánica de Tharsis es una cúpula circular de 5.000 km de diámetro, y ocupa por tanto un hemisferio (el occidental) casi completo. Allí reinan los gigantes del Sistema Solar, encabezados por Olympus Mons (800 km de diámetro en la base, 27 km de altura sobre el radio medio del planeta), los tres Montes de Tharsis (Arsia, Pavonis y Ascraeus) con 15 km de altura media, Alba Patera, un extraño volcán casi plano pero de 1.000 km de diámetro basal, y otra docena de edificios menores. Según los especialistas, esta gran bóveda encierra el secreto del cambiante clima de Marte. Una característica que distingue al vulcanismo de Tharsis del terrestre es su longevidad. Mientras que en nuestro planeta las provincias volcánicas se apagan en unas decenas de millones de años, Tharsis ha encadenado al menos 3.000 millones de años de actividad soste238

Ars Medica. Revista de Humanidades 2004; 2:236-251


Francisco Anguita

nida. La diferencia se achaca a la inmovilidad de la superficie de Marte respecto a su interior: mientras que la viajera corteza terrestre se lleva consigo los productos volcánicos, la estática superficie de Marte los acumula en el mismo lugar. De todas formas, no acabamos de comprender qué clase de anomalía térmica en el interior de un planeta puede producir un vulcanismo tan prolongado. Mediante estudios detallados de los grandes edificios volcánicos marcianos se ha demostrado que su actividad es espasmódica: protagonizan erupciones muy intensas durante varios millones de años y luego descansan durante periodos cientos de veces mayores. Esta característica ha podido ser importante en la historia del clima, ya que los volcanes pueden ser considerados como extractores de gases del interior de un planeta; y muchos gases (como el vapor de agua o el dióxido de carbono) retienen las radiaciones infrarrojas, provocando efectos de invernadero, por lo cual son actores decisivos en los cambios climáticos. En el resto del planeta, el vulcanismo es de menor envergadura. Un volcán interesante, por su parecido con los terrestres y por ser un protagonista oculto de una de las misiones robóticas de 2004 (la del vehículo Spirit al cráter de impacto Gusev) es Apollinaris Patera. Como las del Mauna Loa, en la isla de Hawaii, las lavas más recientes de este gran volcán en escudo han surgido de una grieta de su flanco. A su vez, esta fisura se prolonga hasta el canal Ma’adim, que desemboca en el citado cráter Gusev. ¿Por qué se eligió este cráter como punto de aterrizaje de la sonda? Los motivos fueron tres: primero, las imágenes orbitales mostraron que el cráter contiene una gran cantidad de sedimentos, lo que significa que estuvo ocupado en algún momento por un lago; segundo, los sedimentos son el tipo de materiales donde en la Tierra encontramos fósiles; y, por último, la presencia de volcanes cercanos hace pensar en la posibilidad de que la corteza de esta zona esté aún caliente, con lo que parte del hielo atrapado en ella (y detectado en grandes cantidades precisamente por los actuales orbitadores) se halle en estado líquido, creando un medio adecuado para la vida. La zona Gusev-Apollinaris es un ejemplo perfecto de cómo diferentes sistemas marcianos deben estudiarse en interconexión para resolver el problema de la hipotética existencia de vida pasada o presente en el planeta.

En la pista del agua Los caudales de agua que en algunos momentos circularon por la superficie de Marte convierten en liliputienses a los mayores ríos terrestres (figura 2). El contraste entre el Marte húmedo que vio circular aquellas ingentes masas líquidas por los llamados “canales de inundación” y el actual planeta desértico obliga a reconocer que Marte es el gran ejemplo del concepto de Cambio Climático Global en el Sistema Solar. Y que indiscutiblemente el gran problema científico a resolver en Marte es el origen y destino de su agua líquida. Sin embargo, no todos los cauces secos marcianos son gigantescos: existen redes fluviales de geometría y dimensiones terrestres. Algunas de ellas parecen haberse generado por socavamiento, es decir, Ars Medica. Revista de Humanidades 2004; 2:236-251

239


¿Por qué debemos ir a Marte?

Figura 2. Comparación entre los caudales (en m3/s) supuestos para los grandes canales de inundación marcianos (Kasei y Ares Vallis) y los mayores ríos terrestres, Amazonas y Mississippi.

cuando una corriente de agua subterránea provoca el hundimiento de la zona bajo la que circula. Otras, en cambio, debieron formarse mediante precipitaciones y escorrentía (flujo superficial de agua).

Los ciclos climáticos marcianos Un dato decisivo en este tema es que muchos de los canales fluviales muestran señales de haber fluido más de una vez, Estas huellas de flujo múltiple han sido leídas como una demos240

Ars Medica. Revista de Humanidades 2004; 2:236-251


Francisco Anguita

tración de que el clima marciano es cíclico, experimentando drásticos cambios globales entre un extremo húmedo y otro desértico. Este concepto es relativamente nuevo en las ciencias marcianas, ya que fue propuesto por vez primera en 1994, por el equipo del hidrogeólogo Victor Baker, de la Universidad de Arizona. Según Baker, los canales de inundación fueron excavados entre 2.000 y 1.000 millones de años, y el desencadenante de su formación fue un episodio de vulcanismo masivo en Tharsis. Los volcanes extrajeron del interior del planeta un importante volumen de compuestos volátiles, sobre todo agua y dióxido de carbono. Una parte de ellos formó una atmósfera densa alrededor del planeta; y, cuando ésta se saturó en agua, una variante del diluvio universal se abatió sobre Marte, rellenando sus depresiones con un océano que, según los datos del robot Opportunity, contenía abundantes sales disueltas. Baker llamó Oceanus Borealis a este antiguo cuerpo de agua, cuyo fondo seco contemplamos hoy en las llanuras septentrionales de Marte. Este mar habría almacenado 65 millones de kilómetros cúbicos de agua (la vigésima parte del volumen de los océanos terrestres) y alcanzado una profundidad media de 1.700 m (la del Atlántico es de 3.500 m). Probablemente Borealis fue acompañado por otras masas de agua de diferentes extensiones, como los lagos detectados en el fondo de Valles Marineris y en muchos cráteres de impacto, que habrían servido como cuencas provisionales de drenaje interno y almacenes de sedimentos transportados por los canales. El ejemplo del cráter Gusev alimentado por el canal Ma’adim, que vimos antes, debió ser habitual en las épocas húmedas. La batalla por confirmar la realidad del océano marciano se ha centrado en identificar sus posibles líneas de costa. En torno a este tema se mantiene un debate muy vivo, complicado por el hecho innegable de que, como en todos los planetas marinos, las costas son elementos móviles, que evolucionan en función del clima (cuando los glaciares crecen, el mar se retira) y también de las fuerzas internas del planeta (si una zona se levanta, el mar retrocede). Según todos los indicios, una de estas costas hoy convertidas en desierto fue el lugar de aterrizaje del robot de la NASA Opportunity en enero de 2004. A causa de su insignificante topografía y de estar a caballo del ecuador, la región se llama Meridiani Planum, y es un área de transición entre las tierras altas y bajas de Marte. El interés por esta zona se remonta al año 2000, cuando el equipo de Philip Christensen, un geólogo planetario de la Arizona State University, descubrió en los datos de un espectroscopio de la sonda Mars Global Surveyor la huella de hematites de grano grueso, un óxido de hierro que en la Tierra se forma por precipitación en medio acuoso. La superficie cubierta por esta formación era de unos 180.000 km2, algo más de un tercio de la extensión de España. Este dato, junto al grosor calculado, unos 300 metros, indicaba unas condiciones de depósito de cierta estabilidad, tanto en el espacio como en el tiempo. La NASA seleccionó este lugar como objetivo de uno de los dos vehículos lanzados en 2003. La suerte jugó a favor: era el quinto aterrizaje en Marte, y por fin una sonda pudo estudiar un afloramiento (es decir, una roca no movida). Éste se halla en la pared de un pequeño cráter, y los análisis químicos indicaron que está formado por rocas salinas, con predominio de Ars Medica. Revista de Humanidades 2004; 2:236-251

241


¿Por qué debemos ir a Marte?

sulfatos (hasta el 30% en peso) y contenidos menores pero significativos de cloruros. Estos rasgos químicos son típicos de sedimentos precipitados a partir de salmueras (soluciones saturadas en sales), lo que significa que probablemente estas rocas representan una masa de agua evaporada. Dos rasgos destacan en el afloramiento: • La laminación cruzada indica flujo y reflujo de una corriente de agua a pequeña velocidad, quizá entre 10 y 50 cm/s; es decir, la velocidad típica de un oleaje suave modelando un fondo somero. A partir de estas estructuras, los sedimentólogos concluyeron que la zona debió ser una línea de playa. Combinados con los datos analíticos, estas estructuras permiten afirmar que el punto fue la ribera de un mar o un lago salado. • Las esférulas de hematites (figura 3) son concreciones, es decir, minerales que crecieron dentro del sedimento. Aunque son demasiado pequeñas para permitir un análisis individual, un análisis indirecto (el de una zona con esférulas menos el del sedimento) confirmó la sospecha de que estaban compuestas por este óxido de hierro.

Figura 3. Conjunto de esférulas de hematites fotografiadas por Opportunity. Fueron depositadas por aguas ácidas y ricas en hierro, como las de río Tinto.

242

Ars Medica. Revista de Humanidades 2004; 2:236-251


Francisco Anguita

Marte y río Tinto: la conexión del hierro Así pues, el agua que se infiltró por estos sedimentos estaba muy cargada de hierro, lo que acentúa la similitud con algunas de las condiciones ambientales del río Tinto, en Huelva, donde actualmente investigadores de la NASA están intentando encontrar análogos para las condiciones del Marte primitivo. Ahora bien, para disolver el hierro es preciso que el agua sea extremadamente ácida, como la del Río Tinto, cuyo pH oscila entre 0,9 y 2,8. La acidez del agua marciana, deducida a partir de los datos de Opportunity, resultó ser la explicación al mayor misterio geoquímico de aquel planeta: la ausencia de carbonatos. En la Tierra los carbonatos, minerales muy comunes (forman, por ejemplo, las rocas calizas) precipitan en los fondos marinos a partir del dióxido de carbono atmosférico; en general, con intervención de seres vivos. En Marte, con una atmósfera formada básicamente por aquel gas, los especialistas llevan treinta años buscando, inútilmente, los carbonatos que según la lógica terrestre deberían de haber precipitado en el fondo de Oceanus Borealis. La solución del enigma es la aparente acidez del agua marciana: un simple 0,1% de óxidos de azufre (que disueltos en agua forman ácido sulfúrico) basta para inhibir la precipitación de carbonatos, por abundante que sea el carbono en la atmósfera. Ahora bien, ¿fue Meridiani Planum una playa oceánica, o la ribera de una laguna? Aquí volvemos a encontrar el debate sobre la situación de las líneas de costa de los océanos, mares o lagos marcianos. En 1997 se propuso que la línea de costa de Oceanus Borealis pasaba precisamente por Meridiani Planum; pero en 1999, el equipo de James Head, planetólogo de la Universidad de Brown, descartó esta línea porque su cota tenía desniveles de hasta 2.000 metros. Sin embargo, en 2003 el argumento inicial ha sido retomado por un joven científico español especialista en Marte, Alberto Fairén, con nuevos datos como la cartografía de los canales, que se interrumpen precisamente en esta zona. Fairén ha propuesto que Oceanus Borealis duró casi 1.000 millones de años, desde 4.400 hasta unos 3.500 millones de años, y que Meridiani Planum fue una de sus playas. En la Conferencia Lunar y Planetaria celebrada en Marzo de 2004, el director científico de la misión, Steven Squyres, proclamó que el robot Opportunity había aterrizado precisamente en la costa del océano marciano. Si ello se confirma en el futuro, habrá que volver a celebrar a la diosa casualidad como una de las grandes contribuyentes a los hallazgos científicos, ya que el punto de aterrizaje tuvo una desviación de 24 kilómetros con respecto al previsto en el diseño de la misión.

El agua y la vida No está en absoluto demostrado que el agua sea un requisito imprescindible para la vida. Según el astrobiólogo Benton Clark, de la Universidad de Colorado, “el agua no define la vida; Ars Medica. Revista de Humanidades 2004; 2:236-251

243


¿Por qué debemos ir a Marte?

es tan sólo un aspecto de nuestro medio ambiente”. Todos los líquidos ofrecen interesantes ventajas para los seres vivos: disuelven y movilizan moléculas y permiten las reacciones químicas necesarias para asimilar sustancias del medio. Pero cualquier molécula que sea polar (es decir, que tenga cargas positivas en un extremo y negativas en el otro) es un buen disolvente, y por ello un candidato interesante a servir de líquido biológico. Por ejemplo, el amoniaco, como sabe cualquiera que haya necesitado quitar manchas de grasa. Otro astrobiólogo, Steven Benner, de la Universidad de Florida, afirma que puede concebir químicas que se desarrollen en mezclas de amoniaco y metano, e incluso en ácido sulfúrico (como en el guión de la serie cinematográfica “Alien”). Pero un problema serio del amoniaco es que sólo es líquido a temperaturas inferiores a –33 ºC (lo que usamos como disolvente es una disolución de amoniaco en agua). Como la velocidad de las reacciones químicas es proporcional a la temperatura, cualquier ser vivo que dependiese del amoniaco tendría un metabolismo tremendamente lento; por ello, no es fácil imaginar la evolución de una biosfera que dependiese del amoniaco. En cuanto a los hidrocarburos (que quizá formen mares en Titán), no son moléculas polares, lo que significa que no son buenos disolventes. Por estas razones, la búsqueda de vida, al menos en la parte interior del Sistema Solar, se ha convertido en el rastreo del agua. En lo que se refiere a Marte, esta pesquisa ha tenido dos momentos culminantes en el pasado: la misión Viking, en 1976, y el debate sobre los indicios de vida en el meteorito marciano ALH84001 veinte años después. Como es sabido, los experimentos biológicos de los Viking dieron un saldo negativo, mientras que el debate sobre los indicios de vida en el meteorito se ha ido apagando en los últimos años, con resultado también desfavorable a la opción biológica. En este último caso, el argumento decisivo lo proporcionaron los análisis isotópicos, que hallaron en ALH84001 importantes cantidades de carbono 14. Este carbono pesado se forma en la atmósfera terrestre, y es tan inestable que es imposible que provenga de Marte, ya que se habría descompuesto hace millones de años. Esto indicó que al menos una parte, quizá la mayor, de la materia orgánica que contenía el meteorito (hidrocarburos aromáticos policíclicos) era un producto de contaminación terrestre. El último contraataque del grupo de David McKay, de la NASA, que defendía las huellas de vida, se basó en la identidad de forma y tamaño de algunos de los cristales de magnetita del meteorito con los sintetizados por un grupo de bacterias marinas denominadas “magnetotácticas”. Se trata de una de las muchas y maravillosas estrategias adaptativas que adoptan los seres vivos. Estas bacterias metabolizan hierro y lo hacen precipitar en su medio interno como magnetita, utilizando ésta como una brújula interior para orientarse en busca del gradiente óptimo de nutrientes en el fondo marino. Las consecuencias eran realmente abrumadoras: si McKay tenía razón, no sólo demostraba la existencia de vida extraterrestre, sino algo mucho más importante: que toda la vida, en todos sus posibles asideros, utilizaba estrategias idénticas. Si en su planeta existían un campo magnético y mares (y aparentemente Marte poseía ambas cosas hace 4.000 millones de años), desarrollaba una estrategia magnetotáctica. ¿Significaba esto que todas las biosferas experimentaban evoluciones paralelas si el medio físico lo permitía? 244

Ars Medica. Revista de Humanidades 2004; 2:236-251


Francisco Anguita

Esta bella línea argumental duró solamente unas semanas: el tiempo necesario para que un equipo rival (McKay siempre los tuvo en abundancia) lograse sintetizar magnetitas “magnetotácticas” aplicando fuertes presiones (como las de un impacto) a otros minerales de hierro presentes en el meteorito. En realidad, la fuerza del argumento era sólo teórica, porque no tenía en cuenta el contexto: ALH84001 era una roca formada por el enfriamiento de un magma en las profundidades de la corteza marciana. A no ser que las hipotéticas bacterias marcianas pudiesen sobrevivir en el magma (es decir, a más de 1.000 ºC de temperatura) los cristales de magnetita no les hubiesen sido de ninguna utilidad. Esta derrota parcial no supuso sin embargo la muerte definitiva de la idea. Aunque hoy apenas tiene partidarios, la hipótesis de la vida en el meteorito de Marte no ha influido negativamente en la valoración de este planeta como una posible cuna de otra biosfera en los primeros tiempos de la evolución del Sistema Solar. Muy razonablemente, un exobiólogo se preguntaba, en plena batalla, si alguien podría resolver el problema del origen de la vida en la Tierra con una sola roca de apenas dos kilos que apareciese una mañana en su mesa sin etiqueta de procedencia. Por lo tanto, mientras esperamos la caída, o el hallazgo, de nuevos meteoritos marcianos (o, aún mejor, la primera misión de recogida de muestras en el planeta rojo), podríamos saludar, como hacía un escritor entusiasmado por la noticia, “...a las infinitas personas, fieras, aves, insectos y bacterias que pueblan las infinitas galaxias... en esta fraternidad cósmica de los átomos“. El anuncio de David McKay, que para algunos fue tan solo una serpiente de verano de la NASA, acabó, a través de la creación del National Astrobiology Institute, cambiando la faz de la investigación del Sistema Solar, impulsada por la nueva especialidad de la Astrobiología.

¿Semillas de vida a través del espacio? La simple sospecha de la existencia de microorganismos en una roca procedente de Marte abre a la Biología unas perspectivas abrumadoras, incluso más de lo que implica la etimología de la palabra “exobiología”. Por ejemplo, ¿es tan neutral como parece la expresión “microorganismos marcianos”? ¿No sería mejor emplear el término “microorganismos hallados en Marte”? La distinción no es una sutileza: si rocas de Marte pueden llegar a la Tierra y aterrizar en ella en aceptables condiciones de conservación, ¿qué ha podido impedir a la biosfera terrestre colonizar Marte por medio de este juego de billar interplanetario? Así resucita la vieja idea de la “panspermia”, la dispersión de la vida a través del Universo. Jay Melosh, un especialista en impactos de la Universidad de Arizona, publicó hace algunos años un interesante trabajo con un divertido título de canción folk: The rocky road to panspermia, (“El pedregoso camino a la panspermia”). En él proponía algunos originales factores que favorecerían el intercambio de material biológico entre planetas: por ejemplo, Ars Medica. Revista de Humanidades 2004; 2:236-251

245


¿Por qué debemos ir a Marte?

al caer sobre un planeta, un asteroide de diez kilómetros de diámetro perfora en la atmósfera un agujero que tarda en cerrarse unos minutos, durante los cuales parte del material fragmentado puede aprovechar para escapar. ¿Cuánto de este material es fecundo, o sea, rico en materia orgánica? Desde luego, no el del fondo del cráter, esterilizado por una onda de choque cuya presión puede alcanzar el medio millón de atmósferas; pero sí el material superficial que, expulsado lateralmente, puede mantenerse siempre por debajo de 100 °C, y por lo tanto transportar microorganismos vivos. A la velocidad de escape mínima, este material, fragmentado en bloques de tamaño métrico, atravesaría cien kilómetros de atmósfera en unos diez segundos, empujado por una enorme masa de material estéril a alta temperatura. Según Melosh, los impactos que han creado cráteres de más de cien kilómetros de diámetro han debido de expulsar millones de toneladas de rocas con materia orgánica, en bloques protegidos de los rayos cósmicos. Algunos han propuesto una versión más sutil de la panspermia, en la cual sólo escaparían del campo de atracción terrestre los fragmentos más finos (entre un centímetro y una fracción de milímetro) de la nube de partículas despedida por los impactos; luego, este material podría ser empujado por el viento solar hasta la órbita de Marte y más allá. Hay que reconocer que el camino, además de pedregoso, no es sencillo: con o sin viento solar, queda un viaje de millones de años por el espacio interplanetario, seguido de una caída apenas frenada por una tenue atmósfera. Pero en cualquier caso, ninguna hazaña que una espora terrestre típica no pueda realizar. Estos divertimentos teóricos podrían llegar a ser importantes: si alguna vez encontramos en Marte microorganismos con mecanismos bioquímicos exactamente iguales a los terrestres, deberemos pensar seriamente en esta “neopanspermia”. O bien en un solo Modelo Universal de Construcción de la Vida. Teniendo en cuenta los respectivos valores de velocidades de escape, la alternativa inversa no puede olvidarse. En este hipotético viaje biológico de Marte a la Tierra, las probabilidades se invierten: partimos de una biosfera no demostrada, que, en cambio, debido a la baja velocidad de escape de Marte, sería fácilmente exportable. Pero lo más interesante es la perspectiva histórica: el origen de la vida en nuestro planeta coincidió paradójicamente con el máximo del bombardeo de asteroides que se ha llamado Gran bombardeo terminal. Una época, sin duda, de intenso intercambio de material entre los planetas terrestres, en la cual los cuerpos de pequeña masa serían los exportadores óptimos. Y aquí surge la individualidad de Marte, un planeta lo bastante masivo para retener una atmósfera importante (y así tal vez servir de plataforma para una biosfera, aunque precaria) pero al mismo tiempo lo bastante pequeño para no convertirse en un profundo pozo gravitacional. En último término, y como ha dicho un exobiólogo, lo que necesitamos para tener alguna probabilidad de éxito en la búsqueda de vida fuera de la Tierra es una teoría general de los sistemas vivos. Porque sólo podemos identificar cosas que comprendemos. 246

Ars Medica. Revista de Humanidades 2004; 2:236-251


Francisco Anguita

La historia de Marte Por todo lo que hemos visto, parece evidente que el agua estuvo presente en la superficie de Marte al principio de la historia del planeta, y también en momentos definidos de su evolución posterior; pero enclaustrada en la corteza durante el resto del tiempo. La historia del agua en Marte se podría sintetizar así: 4.500 a 4.000 millones de años: la mayor parte de la atmósfera primitiva del planeta se perdió pronto, tanto a través del escape al espacio propiciado por la escasa gravedad como mediante expulsión en los grandes impactos que crearon las cuencas. ¿4.000? a 3.500 millones de años: creación de una atmósfera secundaria (de agua y CO2) como resultado del vulcanismo de la región de Tharsis. Se genera un campo magnético dipolar, como el terrestre, que contribuye a proteger a la atmósfera de la erosión del viento solar. Ésta es una de las posibles causas de que este periodo gozase de una atmósfera densa, de precipitaciones y probablemente de un mar en la depresión del norte. Los canales más antiguos se generaron entonces. Es el primer Marte azul, la imagen de un planeta acogedor opuesta a la del desierto rojo actual. 3.500 a ¿2.000? millones de años: desaparece el campo magnético. El agua y el CO2 se pierden en el espacio, pero también se depositan en los casquetes glaciares y (quizá) en algunos depósitos de carbonatos en la corteza. 2.000 a 1.000 millones de años: probablemente en algún momento de este largo lapso se producen, a favor de una reanudación masiva del vulcanismo, surgimientos catastróficos de agua que inundan las llanuras ecuatoriales labrando los enormes cauces de inundación y rellenando, quizá por última vez, la cuenca de Oceanus Borealis. Durante este tiempo se genera una atmósfera densa, probablemente efímera. Durante todos los periodos de pérdida de atmósfera, el hielo (tanto de agua como de CO2) cubre buena parte del planeta. No sabemos casi nada de las glaciaciones antiguas; pero se sospecha que pudieron ser muy diferentes a las terrestres, debido a la inestabilidad del eje de giro: como un barco de poca quilla, Marte cabecea mucho más intensamente que la Tierra, pudiendo llegar su eje a inclinaciones de más de 45º (la actual es de 24º, casi idéntica a la terrestre). Cuando está muy inclinado, los polos son los lugares más cálidos y el Ecuador el más frío. Se ha propuesto que la última glaciación marciana duró entre 2.100.000 y 400.000 años, y que cubrió de hielo el planeta hasta una latitud de 30º (en la Tierra, la correspondiente a Arabia). Si algunos de nuestros antepasados más ilustres, las especies de homínidos erectus, habilis y heidelbergensis llegaron a interesarse por los cielos, no hubiesen encontrado en Marte inspiración guerrera alguna, puesto que hubiesen visto un astro de una brillante blancura: el Marte blanco, en oposición a la imagen actual del planeta rojo. Ars Medica. Revista de Humanidades 2004; 2:236-251

247


¿Por qué debemos ir a Marte?

Los futuros de Marte ¿Misiones tripuladas? La exploración del Sistema Solar por robots es cara; la exploración humana, carísima: la factura de un viaje tripulado a Marte asciende al coste de cien misiones robóticas. Entonces, ¿por qué astronautas? ¿Es realmente necesario que dejemos nuestras huellas en Marte? Esta cuestión ha sido debatida intensamente a lo largo de la década de los noventa, porque las dos posturas (exploración robótica, exploración humana), y también la sintética (exploración robótica como fase previa de la exploración humana), tienen parecido número de partidarios entre los defensores de la exploración espacial. Entre los argumentos a favor de la presencia humana en los viajes a Marte se cuentan los siguientes: - Hay funciones en las que un robot no puede suplir a un científico. - Los avances tecnológicos colaterales serán mayores en el caso de la exploración tripulada, ya que el mantenimiento de la vida en medios hostiles como son el espacio o la superficie marciana requiere mayores refinamientos técnicos. - La exploración tripulada promoverá más vocaciones científicas. - El envío de tripulaciones sería el primer paso para la emigración masiva al Sistema Solar, que llegaría a aliviar la crisis demográfica en la Tierra. - El público necesita héroes, personas que sean admirables no por su capacidad muscular o por su atractivo físico, sino por su destreza técnica y su capacidad científica. - Nuestra tendencia a viajar a todos los lugares adonde nuestra tecnología nos ha permitido llegar. Es evidente que ninguno de estos motivos resulta crucial: los robots y la tecnología mejorarán, con o sin viajes tripulados; hay muchas formas menos costosas (por ejemplo, mejorar las condiciones de trabajo del profesorado en la enseñanza secundaria) de estimular las vocaciones científicas; no hay emigración interplanetaria que pueda compensar el nacimiento de 250.000 nuevos jóvenes Homo sapiens cada día; y en cuanto al culto a los héroes y la compulsión a viajar, probablemente no forman parte de las grandes preocupaciones del grueso de la humanidad actual. Éste será uno de los debates que sobre la exploración del Sistema Solar deberá desarrollarse (y tal vez resolverse) a lo largo del presente siglo. El futuro más lejano: ¿terraformación o autocontención? Marte es hoy un mundo helado, donde la vida organizada parece imposible; sin embargo, todo lo que hemos aprendido en el curso de nuestra exploración indica que en otras épocas, quizás incluso recientes, su clima fue templado. Este clima, ¿podría ser restaurado? ¿Sería posible devolver a la superficie la atmósfera y la hidrosfera, hoy en parte congeladas en los polos y el subsuelo? ¿Podría llegar a ser habitable Marte por plantas terrestres y finalmente 248

Ars Medica. Revista de Humanidades 2004; 2:236-251


Francisco Anguita

por seres humanos? La respuesta técnica a estas preguntas se llama “terraformación”: la transformación del ambiente de un planeta para hacerlo habitable por la fauna y flora terrestres. De todos los mundos que hemos visitado en nuestros primeros viajes por el Sistema Solar, tan sólo Marte es susceptible de terraformación. Nuestro conocimiento del planeta es aún tan imperfecto que nadie sabe si la idea es realmente factible, pero su simple enunciado la ha hecho ya enormemente popular; pues si resultase realizable, la humanidad habría ganado un segundo planeta donde vivir. Sin embargo, el tema tiene implicaciones muy diversas, y aunque materialmente sólo es ingeniería planetaria, las consecuencias filosóficas y éticas son profundas: ¿Tiene el ser humano derecho...? Técnicamente, el problema se puede descomponer en dos: uno, hacer Marte habitable por las plantas terrestres, y dos, convertirlo en un hábitat para el hombre. La distinción tiene su base en que las necesidades fisiológicas de plantas y animales son muy distintas: las primeras pueden vivir con una presión atmosférica mínima de diez milibares (no mucho mayor que la marciana actual, que llega a los ocho), pero necesitarían un mínimo de un milibar de oxígeno, que es mucho más de lo que existe en Marte. En cuanto a los animales, somos mucho más exigentes: no nos conformamos con menos de una presión de aire de quinientos milibares, de los que al menos ciento treinta deben ser de oxígeno y trescientos de nitrógeno. En cuanto a temperaturas, flora y fauna tenemos parecidos gustos: sólo nos sentimos cómodos con temperaturas medias entre O y 30 °C (Tierra, 15 °C; Marte, -55 ºC). Teniendo en cuenta lo primero, está claro que convertir a Marte en habitable para las plantas es una tarea mucho más sencilla que hacer del planeta un segundo hogar para la humanidad. El punto de arranque es calentar el planeta para licuar sus reservas subterráneas de agua y CO2. De los sistemas propuestos, el único que parece verosímil es aumentar el efecto invernadero inyectando en la atmósfera marciana algún gas que retenga las radiaciones infrarrojas. De éstos, los más eficientes parecen ser los clorofluorocarbonos, los tristemente célebres causantes del agujero de ozono en la Tierra; naturalmente, habría que usar una variante que no destruyese el futuro ozono. El proceso sería efectivo con un ritmo de producción semejante al que hubo en la Tierra antes de la prohibición de estos gases. Al elevarse la temperatura, se fundiría el CO2 de los polos y el suelo; y mucho después, el hielo de agua. El dióxido de carbono y el vapor de agua pasarían a la atmósfera, incrementando el efecto invernadero. Los cauces secos volverían a ser valles fluviales, y hasta Oceanus Borealis podría volver a llenarse de nuevo. ¿Durante cuánto tiempo debería estar funcionando este proceso para que Marte fuese habitable por vegetales? Un cálculo (que se reconoce muy impreciso) resulta en un período mínimo de cien años para la fusión del CO2 más superficial. En ese momento, Marte tendría una atmósfera de CO2 con una presión de dos bares (o sea, el doble de la terrestre), y algo de oxígeno y agua; pero la fusión del hielo más profundo podría requerir plazos del orden de cien mil años. Desde el momento en que la presión atmosférica fuese un tercio de la terrestre, los astronautas podrían prescindir de sus trajes espaciales y usar sólo un aparato para respirar como los que llevan los submarinistas. Las plantas producirían oxígeno como Ars Medica. Revista de Humanidades 2004; 2:236-251

249


¿Por qué debemos ir a Marte?

subproducto de la fotosíntesis; pero el rendimiento de este mecanismo, la única forma conocida de cambiar la composición de la atmósfera de un planeta, es extremadamente lento (para las prisas humanas): en el mejor de los casos, la atmósfera de Marte sólo sería respirable al cabo de cien mil años. Se especula, por supuesto, que el empleo de organismos desarrollados especialmente mediante ingeniería genética podría acortar este plazo. Sin embargo, el techo del proceso no es la eficacia de la fotosíntesis, sino la tendencia del oxígeno producido a combinarse de nuevo con la materia orgánica, oxidándola. En la Tierra, sólo el enterramiento rápido, por sedimentos, de la materia vegetal impide que ésta se oxide. En Marte, haría falta algo semejante para que el oxígeno tuviese ocasión de acumularse en la atmósfera. Una de las muchas incógnitas del proceso es si la atmósfera y la hidrosfera producidas en la terraformación serían estables. En teoría, el principal mecanismo de degradación de una atmósfera de dos bares de CO2 es la precipitación de carbonatos, como el carbonato cálcico, CaCO3. Pero, afortunadamente para los ingenieros planetarios, este mecanismo tampoco es rápido: los minerales necesitarían al menos diez millones de años para volver a capturar la atmósfera. Sólo si el ser humano durara tanto tiempo en Marte tendría que buscar algún mecanismo para devolver a la atmósfera el CO2 secuestrado en los carbonatos. Por último, queda el debate ético: ¿Tiene la humanidad derecho a romper en su beneficio el equilibrio climático de otro planeta? ¿A introducir en él especies intrusas? ¿Sólo si el planeta es absolutamente estéril? ¿Y si no lo es? ¿Tienen derechos las bacterias? Cuando tomamos antibióticos las matamos a millones y nadie llama a eso un crimen; pero en el caso de Marte (y suponiendo que existan) no se trataría simplemente de bacterias, sino de otra biosfera. ¿Y si quedase en Marte solamente vida residual en hábitats extremos, como el interior de rocas profundas en algunas zonas volcánicas? ¿Se podría llamar a esto biosfera? Muchos opinan que aún en este caso la importancia de una vida nativa surgida con independencia de la terrestre (salvo si se demostrase que la panspermia es correcta) sería tan grande que estarían justificadas las mayores precauciones para evitar el riesgo de exterminarla. En el extremo de estas posturas conservacionistas se encuentran ecologistas radicales como Jorge Riechmann, que en su libro “Gente que no quiere viajar a Marte” sostiene que el hombre moderno debe “autocontenerse”, porque no todo lo que es tecnológicamente factible es también deseable. Intuye que en estos planes de huída del planeta Tierra subyace un desprecio por su conservación. Sospecha que no es la curiosidad científica el motor principal de la exploración del Sistema Solar, sino la necesidad de nuevas inversiones del capitalismo industrial, y un intento de demostrar que no hay límites al progreso económico y tecnológico. Sin duda, un debate que va más allá de la ética y que arraiga en los distintos modelos de sociedad que compiten en este principio de siglo. Nadie tiene el privilegio de permanecer neutral en esta batalla; tampoco la Ciencia básica, esta vieja institución antes encerrada en una torre de marfil y hoy abierta a todos los vientos. Por mucho que tenga que ofrecer sobre la historia de un planeta fascinante. 250

Ars Medica. Revista de Humanidades 2004; 2:236-251


Francisco Anguita

Bibliografía recomendada • Anguita, F. Historia de Marte: mito, exploración, futuro. Planeta, 1998. • Beatty, J.K., Peterson, C. y Chaikin, A. (Eds.). The new Solar System. Sky Pub. Corp. y Cambridge University Press, 1999. • Carr, M. The surface of Mars. Yale University Press, 1981. • Carr, M. Water on Mars. Oxford University Press, 1996. • Cattermole, P. Mars. Chapman & Hall, 1992. • De Pater, I. y Lissauer, J. Planetary Sciences. Cambridge University Press, 2001. • Hartmann, W.K. Moons and planets. Wadsworth, 1990. • Kargel, J.S. y Strom, R.G. Cambio climático global en Marte. Investigación y Ciencia, 1997; 244: 44-53. • Kieffer, H. H. (Ed.) Mars. University of Arizona Press, 1992. • Riechmann, J. Gente que no quiere viajar a Marte. Catarata, 2004. • Varios autores. Mars. Nature 2001; 412: 207-253.

Ars Medica. Revista de Humanidades 2004; 2:236-251

251


Artículos breves

¿Quién teme las “alianzas entre el sector público y el sector privado” en salud global? Who’s Afraid of Public-Private Partnerships in Global Health? ■ Girindre Beeharry Resumen Se han constituido en los últimos cinco años más de noventa alianzas públicasprivadas en salud global. ¿Por qué? ¿Son todas iguales? ¿Se trata de una moda o de una innovación con futuro? El autor trata de contestar a estas preguntas examinando las principales razones por las que los sectores público y privado desean servirse de tales alianzas.

Palabras clave Alianza pública-privada. Salud Global. Ciudadanía corporativa.

Abstract Over the last five years more than ninety Public-Private Partnerships have been constituted in Global Health. Why? Are they all the same? Are such partnerships a fashion or a promising innovation? The author attempts to answer these questions by examining the main reasons why the public and private sectors seem keen on establishing these partnerships.

Key words Public-Private Partnerships. Global Health. Corporate citizenship.

El autor es economista y tiene una amplia experiencia en impulsar programas de salud en países en desarrollo (girindre@yahoo.com). 252

Ars Medica. Revista de Humanidades 2004; 2:252-261


Girindre Beeharry

■ En el mundo hoy existen más de noventa “alianzas entre el sector público y el sector privado” en salud global1(1), lo que se conoce como Public-Private Partnerships, o más comúnmente con el acrónimo PPP en la literatura especializada. Diecinueve de ellas están orientadas específicamente a combatir el VIH/SIDA, dieciséis la malaria, y once la tuberculosis2. La gran mayoría de estas alianzas se han constituido en los últimos tres o cuatro años, por lo que nos hallamos ante un fenómeno muy nuevo. A continuación, analizaremos brevemente las razones de ser de estas alianzas, sus potencialidades y sus peligros.

Las alianzas públicas-privadas y las que no lo son En general, se entiende por alianza pública-privada toda clase de acuerdo en el que esté involucrado un elemento privado, cualquiera que sea la forma de participación de éste. Evitando las taxonomías ecuménicas, nos limitaremos a un universo de análisis más restringido, por lo que no consideraremos una categoría de relaciones públicas-privadas que sí suele ser considerada como alianzas en la literatura, como es la compra de bienes y servicios del sector público al sector privado. Lo que define una alianza no es la mera presencia de un agente privado, sino el hecho de que su participación vaya más allá de la relación contractual. Por ejemplo, cuando el ministerio de sanidad de un país decide contratar un proveedor privado para brindar un servicio de salud específico a una población beneficiaria determinada, no estamos en presencia de una alianza. Así, no hablamos de alianza estratégica entre el sector público y el sector de la panadería cuando el ministerio de sanidad compra pan a éstas para suministrarlo a los hospitales. El agente privado en este caso no está haciendo nada que salga de las relaciones empresariales normales. Este tipo de iniciativas, que algunos también denominan como alianzas, son más bien formas de “tercerización” (outsourcing) o de privatización de un servicio (2). De este modo hemos definido las alianzas públicas-privadas a través de una definición excluyente, eliminando las que no lo son. Una definición positiva podría ser la enunciada por Ridley (3), según el cual una alianza implica un compromiso de las partes para lograr un objetivo determinado, que se expresa mediante el aporte conjunto de recursos y conocimientos específicos, así como la asunción —también por ambas partes— de los riesgos que se deriven. Dentro del universo que hemos definido, todavía caben alianzas con objetivos y estructuras de gobierno muy distintas. Sin embargo, y de manera muy general, se puede decir que hay dos 1El

Institute of Medecine (America's Vital Interest in Global Health, 1997) define el término “salud global“, del inglés Global Health, como el conjunto de problemas, temas y preocupaciones en el ámbito de la salud que transcienden las fronteras nacionales, pueden verse influenciados por circunstancias o experiencias en otros países, y son mejor resueltos a través de intervenciones y soluciones cooperativas. 2En la página Web de la Initiative on Public-Private Partnerships for Health (1) y en varias publicaciones (2) se encuentra una extensa descripción de esas alianzas. Ars Medica. Revista de Humanidades 2004; 2:252-261

253


¿Quién teme las «alianzas entre el sector público y el sector privado» en salud global?

tipos de alianzas públicas-privadas (4): a) las basadas en investigación y desarrollo (I+D), y b) las que persiguen facilitar el acceso a productos ya existentes (fármacos en particular). Las segundas suelen consistir en donaciones de productos. En sí, una donación no implica necesariamente una alianza, puesto que es una mera transferencia financiera. La parte donante comparte, sin duda, los objetivos generales de la parte receptora, pero no participa en la definición de esos objetivos ni tampoco en la elaboración de las estrategias y acciones que dan forma concreta al objetivo general. No obstante, en la práctica los donantes tienden a tener una participación más o menos importante en la definición de las estrategias y acciones, y suelen participar también en los consejos de administración de las alianzas.

¿Modas transitorias o estructuras permanentes? La pregunta clave es: ¿por qué se han constituido tantas alianzas publicas-privadas en estos últimos años? Al analizar las razones de ello tendremos una idea más clara de si este “experimento social” (5) es un fenómeno transitorio, o si se trata de la constitución de estructuras que permanecerán, dado que responden a las necesidades del campo de la salud que no son adecuadamente satisfechas por las estructuras e instituciones tradicionales. Otra manera de formular la misma pregunta sería: ¿bajo qué condiciones tienen futuro estas alianzas? Examinemos, pues, las posibles razones por las que instituciones públicas de salud global, por un lado, y compañías privadas, por otro, buscan alianzas más allá de lo estrictamente comercial en el campo de la salud global. Las motivaciones del sector público Definimos aquí como sector público a las organizaciones internacionales constituidas por países cuyas funciones incluyen el desarrollo de políticas y la financiación de programas de salud. Comprende, pues, gobiernos y agencias supranacionales, como las agencias de Naciones Unidas (OMS, UNICEF, UNFPA, etcétera), y las agencias bilaterales y multilaterales de cooperación en salud (que incluyen a los bancos de desarrollo). Cada una de estas instituciones tiene una jerarquía propia y un funcionamiento específico, pero poseen en común la necesidad de rendir cuentas a los países que las constituyen y el objetivo de mejorar la salud de sus ciudadanos. No obstante, es importante señalar la existencia de instituciones privadas con metas claramente públicas. Aunque estas instituciones siempre han existido, como es el caso de las fundaciones filantrópicas, sin embargo, nunca han tenido un papel tan importante desde el punto de vista de su peso financiero en el campo de la salud global como para influir en las políticas de salud. Esto ha cambiado con la entrada en este campo de la salud global de fundaciones con gran capacidad económica, como es, por ejemplo, la Bill & Melinda Gates Foundation. Estas fundaciones con personalidad jurídica privada y metas públicas han difuminado la frontera entre lo público y lo privado. Sin embargo, todavía no se han estabilizado 254

Ars Medica. Revista de Humanidades 2004; 2:252-261


Girindre Beeharry

las relaciones entre las agencias públicas tradicionales y estas nuevas fundaciones. Las alianzas que se establecen entre ellas no son las tradicionales alianzas públicas-privadas, sino que en realidad constituyen alianzas privadas (con un fin público3)—privadas (con ánimo de lucro), y sobre las que aún no se ha reflexionado lo suficiente (2). Más adelante volveremos brevemente sobre este tema, pero de momento centrémonos en las motivaciones de las agencias públicas clásicas. Hemos enumerado algunas de ellas, si bien dos poseen mayor importancia: el aporte financiero y el potencial de I+D que puede brindar el sector privado. El aspecto financiero es obvio. Las agencias públicas de salud, sobre todo las que operan bajo Naciones Unidas, tienen un presupuesto directo que no llega a colmar sus ambiciones, por lo que el aporte financiero procedente del sector privado a través de las alianzas es, sin duda, muy bienvenido. Otra forma de plantear la misma cuestión sería admitir que la agenda de objetivos es demasiado amplia como para ser adecuadamente cubierta sólo por las agencias publicas. El hecho de que no se amplíe el presupuesto de esas agencias, significa que siempre tendrán el incentivo de crear y mantener alianzas con otros sectores, aunque a veces tales alianzas no sean muy deseadas. El segundo tipo de alianzas son las basadas en proyectos de I+D. El sector privado ha invertido muy poco en I+D para combatir enfermedades que afectan sólo a los países en desarrollo, porque éstos no constituyen un mercado suficientemente atractivo cómo para justificar la inversión. Sin embargo, una enfermedad que también sea prevalente en los países ricos tiene mucho más interés para las compañías privadas. Hay, pues, escasez de esfuerzos encaminados a buscar soluciones para enfermedades que en muchas ocasiones afectan a mucha gente; la malaria sería el ejemplo más conocido. Vemos aquí una importante misión para el sector público: crear las condiciones necesarias para que el sector privado invierta en I+D. Para tal fin, se han ideado dos modelos complementarios de incentivos para el sector privado: uno, que consiste en “atraer” (pull) y, el otro, en “impulsar” (push) (6). En este contexto, “impulsar” debe entenderse como transferir fondos públicos a un organismo privado para proyectos de I+D orientados a mitigar una enfermedad de interés para el sector público. Y, “atraer” significa garantizar un mercado que permita al sector privado invertir en I+D y, así, desarrollar determinados productos. Si bien ya existen alianzas basadas en el modelo “impulsar” (7, 8), todavía no se ha dado forma concreta al modelo “atraer”, quizá por la complejidad de la cuestión en juego. Garantizar un mercado significa comprometerse contractualmente y con antelación a comprar —a un precio fijado y durante un tiempo determinado— un producto que todavía no existe. Entonces, ¿cómo establecer un precio razonable? El otro reto es, obviamente, la financiación de tal esquema. Estas alianzas implican un flujo financiero desde el sector público, que tiene pocos recur3Esos entes privados con fines públicos complican bastante las cosas para el sector público, ya que éste se ve ame-

nazado de ser sustituido. Ars Medica. Revista de Humanidades 2004; 2:252-261

255


¿Quién teme las «alianzas entre el sector público y el sector privado» en salud global?

sos, al privado. La ventaja que tiene el modelo “atraer” sobre el modelo “impulsar” es que, en vez de invertir a ciegas en I+D sin la certidumbre de obtener los resultados esperados, se utiliza el dinero público para comprar productos que ya existen y que son eficaces. Los temores del sector público a los “caballos de Troya” El principal temor del sector público es que, a medida que crezca el número de alianzas, se multipliquen los centros de decisión, y por ende, el riesgo de que la agenda de salud global pierda su coherencia y se desintegre en la suma de acciones puntuales (2). Bien es cierto que la agenda de salud global nunca ha sido muy coherente; en parte debido a que los mismos criterios de coherencia cambian y a veces son incompatibles entre sí, y en parte porque a los criterios técnicos siempre se han sumado los criterios políticos y sociales cambiantes, que también influyen sobre dicha agenda. Otra variante de este temor es que las alianzas pueden incrementar las desigualdades de acceso a los servicios de salud porque ponen el énfasis en las enfermedades y no en mejorar los sistemas de salud (9). Sin embargo, aún se mantiene la ficción de una agenda de salud global coherente bajo el liderazgo de la OMS, a la par que las nuevas alianzas de salud global son quizás el primer desafío explícito al status quo. Este temor se incrementa por el hecho de que las nuevas alianzas incluyen a poderosas compañías privadas. Para las agencias públicas, la participación del sector privado es nada más ni nada menos que un “caballo de Troya”: un regalo que abre las puertas a consecuencias graves como la invasión del espacio público, hasta entonces protegido. La participación de agentes privados en la toma de decisiones pone en peligro, según algunos, la estructura de rendición de cuentas (accountability) de las agencias públicas (9). Se teme, además, que las reglas del juego no sean claras o transparentes, y que no siempre esté claro si tal alianza está exenta de conflictos de interés. En ausencia de reglas claras se teme que las alianzas con el sector privado acaben reflejando más el interés de las compañías privadas que las del sector público. Se dice, por ejemplo, que la Global Alliance for Vaccines and Immunization (GAVI), la alianza pública-privada global que promociona la vacunación, está más enfocada al suministro de vacunas que a fortalecer los sistemas de salud, y que esto se debe a la participación de las compañías farmacéuticas en la alianza (10). Por esta y otras razones, las agencias públicas que piensan que el sector privado corrompe la agenda de salud miran con mucho escepticismo las alianzas públicas-privadas. Sobre esta cuestión son previsibles dos reacciones por parte del sector público. La primera sería de rechazo absoluto, reacción improbable, pero que, dadas las circunstancias, tampoco se puede excluir. La segunda, más probable, sería que las agencias públicas retomasen las riendas o, dicho de otra manera, que las alianzas públicas-privadas operen bajo el liderazgo de las agencias públicas (2). No queda claro cómo se resolverá este asunto: ¿se aceptará tal esquema?, ¿se podrá llevar a la práctica una forma de organización en la que la alianza públicaprivada sea meramente un agente ejecutor o financiero de las decisiones tomadas sólo por el sector público? 256

Ars Medica. Revista de Humanidades 2004; 2:252-261


Girindre Beeharry

Es difícil determinar hasta qué punto esos temores se basan en la realidad, o si sólo son expresiones de una profunda antipatía hacia el sector privado (11). Lo que sí es cierto es que, al no entender el interés que tiene el sector privado en estas alianzas, siempre se sospechará algún motivo tenebroso. Tal vez sería útil que el sector privado declarase de manera más explicita qué interés tiene al buscar estas alianzas. Si reconoce simplemente que sí hay un interés —en última instancia, lucrativo— para buscar alianzas, el sector privado: a) desactivaría las inquietudes del sector público; b) señalaría a sus accionistas que sus decisiones son tomadas por el bien financiero de las compañías; y, c) precisaría que establecen estas alianzas con motivos estratégicos, y por ende más sostenibles que el mero interés filantrópico puntual que pudiera tener algún presidente de una compañía privada. Las alianzas vistas desde el sector privado Desde el sector público se ha especulado mucho sobre las motivaciones del sector privado en su búsqueda de alianzas con agencias públicas. En cambio, se ha escrito muy poco sobre los propios incentivos del sector privado y sólo se ha hablado de “ciudadanía corporativa” (corporate citizenship). Aquí también se puede distinguir entre alianzas basadas en el aporte financiero (en efectivo o en donación de productos) y las basadas en I+D. El incentivo del sector privado para el segundo tipo de alianzas es obvio: se espera el desarrollo de un nuevo mercado. El incentivo para las compañías privadas en alianzas que implican un gasto significativo para ellas, deja la puerta abierta a todo tipo de especulación. Una explicación popular, y sin duda correcta, es que, a cambio del aporte financiero o de productos, la compañía privada reivindica una asociación con organismos respetados que trabajan por el bien público. De este modo, la compañía privada suaviza su imagen: lejos de estar preocupada sólo por el lucro, también demuestra que le interesa la salud de la gente. Así pues, la alianza significa igualmente una inversión en marketing y en imagen de marca. Las compañías farmacéuticas en particular sufren de una mala imagen en algunos de sus mercados, y la protección de su imagen en esos mercados, basada en la asociación con organismos públicos que tienen buena imagen, es un objetivo legítimo. En segundo lugar, al enfrentarse al dilema de tener que bajar los precios de sus productos o perder (por medio del llamado compulsory licensing) la protección que ofrecen las patentes en los países que sufren graves problemas de salud pública, las compañías farmacéuticas han estado sometidas a una gran presión. Éstas no quieren que la historia reciente de los antirretrovirales se vuelva a repetir. Se especula, pues, que el sector privado brinda apoyos financieros o en forma de productos para que los países no recurran a fabricantes de versiones genéricas del fármaco. Según esta lógica, regalar productos sería menos costoso a largo plazo que otras alternativas, como, por ejemplo, cambiar la estructura de precios o perder la protección de la patente de manera prematura. El lector deberá decidir si se trata de un motivo realista, o no. Para el sector privado, una tercera razón es que una alianza que implica donaciones de productos es simplemente una manera de difundir el conocimiento de un producto nuevo, y cuyo Ars Medica. Revista de Humanidades 2004; 2:252-261

257


¿Quién teme las «alianzas entre el sector público y el sector privado» en salud global?

beneficio todavía está mal percibido por el mercado. Al entregar productos a los usuarios y demostradles, en directo y en su contexto particular, el impacto que puede tener un producto, se espera la fidelidad del usuario. Es un método de marketing legítimo para el sector privado. Al entender con claridad el objetivo del sector privado, el sector público puede decidir si se trata de una estrategia que coincide también con sus intereses, y aceptarla o no. Si cada uno entiende y acepta los intereses del otro, las alianzas de esta naturaleza funcionarán y tendrán éxito. Una cuarta razón para el sector privado es jugar un papel más activo en la definición de políticas y la creación de instituciones que correspondan a las realidades de un negocio cada vez más transnacional. Todavía hay un intenso debate sobre las políticas y las instituciones adecuadas para conducir los aspectos del negocio que superan las esferas estrictamente nacionales. El sector privado se preocupa por las definiciones de políticas públicas por dos razones más. La primera es que las agencias públicas de salud global adolecen de cierta falta de credibilidad en términos de su capacidad para tener impacto; y, quizás, los profesionales de la gestión del sector privado opinan que pueden ayudar a las agencias públicas en mejorar su gestión a través de alianzas con ellas. La otra razón es, simplemente, que las políticas de salud tienen implicaciones directas, tanto positivas como negativas, sobre los productos y servicios que ofrece el sector privado. Sin duda, las compañías privadas tienen interés en apoyar políticas que las favorecen, pero corren un alto riesgo al intentar influir en ellas a través de alianzas. Si esa es su intención, se encontrarán rápidamente en situación de conflicto de intereses y se arriesgarán a ser rechazadas por el sector público. En suma, desde el punto de vista del sector privado, el interés en buscar alianzas basadas en I+D es simple, lucrativo y explícito. En realidad, la misma I+D sigue cambiando y eso complica bastante el cálculo que hace el sector privado para determinar si tales alianzas son beneficiosas (12). Las alianzas basadas en el aporte financiero tal vez deberían ser repensadas como donaciones directas de dinero o de productos. Así, mantienen los beneficios en términos de imagen, pero se exponen menos a que su participación implique conflictos de interés. En la medida de lo posible, el sector privado debería expresarse más y mejor sobre el tema, y explicar sus motivaciones para buscar alianzas con el sector público, dado que su relativo silencio deja la puerta abierta a todo tipo de especulaciones.

“Predecir es difícil, sobre todo el futuro”4, o conclusión ¿Existen suficientes razones estructurales por ambas partes para que se mantenga el interés y la inversión en alianzas públicas-privadas en salud global? 4Dicho

258

atribuido a Yogi Berra. Ars Medica. Revista de Humanidades 2004; 2:252-261


Girindre Beeharry

Hemos visto que, desde el punto de vista público, las dos razones esenciales para buscar alianzas son: a) el aporte financiero que se obtiene a través esas alianzas; y b) la I+D en productos para los que no hay mercado en los países ricos. Si el interés que tienen las agencias globales públicas en salud para formar alianzas es puramente financiero, hay que temer que las alianzas sean crónicamente inestables. El sector público tendrá que “conceder algo” al sector privado a cambio de su apoyo financiero. Y, como no se valorará la contribución privada más allá del aporte financiero, el sector público tenderá a hacer el mínimo de “concesiones” al sector privado para no poner “en peligro” el mandato que tiene la agencia pública de salud. En consecuencia, no se tratará de una verdadera alianza y siempre será inestable y llena de sospechas por cada una de las partes. En esos casos, el sector público debería buscar donaciones simples sin condiciones en cuanto a su uso y no intentar darle un disfraz de alianza a lo que en realidad es una petición de donación. A su vez, el sector privado tendrá, que decidir si una donación simple es aceptable y no fomentar alianzas que sólo son de nombre. Tal vez sea más fácil para el sector privado aceptar retirarse de la mesa de decisiones si el sector público posee sistemas de gestión y distribución adecuados para el producto. En cambio, si el interés público es incentivar al sector privado para desarrollar productos que tengan un fuerte impacto sobre la salud global, los incentivos de ambas partes coincidirán y cabrá esperar una alianza fructífera. Los beneficios son claros: sin esas alianzas, no existirían esos productos. Sin embargo, esas alianzas tendrán que superar un obstáculo todavía mayor: el escepticismo del sector público. Mientras participen en tales alianzas, muchos funcionarios públicos seguirán dudando de la necesidad de nuevos productos. Es cierto que las nuevas tecnologías no constituyen una panacea y que se necesitará, entre otras cosas, mucha inversión también en rehabilitar y reforzar los sistemas de salud (4) para ver una mejora significativa y sostenible de la salud en los países en desarrollo. Dado que no existen alianzas en el campo de los sistemas de salud, hay bastante resentimiento en el sector público hacia las alianzas basadas en el desarrollo o donaciones de productos. En cierto modo, este resentimiento deriva del hecho de que en el sector público muchos no están a gusto con el hecho de que el sector privado tiene el lucro como objetivo. Si el sector privado ve que puede obtener beneficios económicos financiando masivamente la mejora de los sistemas de salud en esos países, lo hará. Si no lo ve, no lo hará; e insistir en que lo haga a todas costa es no entender o no aceptar su naturaleza (2, 13). Desde el punto de vista privado, las razones principales para mantener las alianzas son: a) la creación de mercados potenciales suficientemente atractivos como para justificar la I+D; b) los beneficios para la imagen de marca y la difusión de información sobre productos nuevos; y c) la influencia que puede tener el sector privado sobre las políticas de salud. Ya hemos visto cómo buscar alianzas por esta última razón puede tener más peligros que beneficios. Las alianzas cuyo motivo principal es mejorar la imagen de marca tienen menos riesgos para el sector privado; pero, quizás, se puede argumentar que se obtiene el mismo beneficio a menos costo con donaciones directas de productos o de dinero. En cambio, las alianzas basadas en el Ars Medica. Revista de Humanidades 2004; 2:252-261

259


¿Quién teme las «alianzas entre el sector público y el sector privado» en salud global?

desarrollo de productos no tienen por qué ser vistas con desconfianza: para el sector privado está claro el interés financiero; deja el papel rector al sector público, y tal desarrollo coincide plenamente con los objetivos del sector público. Cada alianza es distinta en su objetivo y en su forma institucional, así que no hay duda de que esas conclusiones son de aplicación general y no particular: ciertas alianzas no sobrevivirán a sus contradicciones internas o a los cambios contextuales. De hecho, ya hay registrado algún fracaso (8). Las alianzas que en esencia son formas disfrazadas de donaciones, seguirán siendo criticadas, probablemente más por la desconfianza hacia el sector privado que por problemas fundamentales relacionados con la estructura del proyecto. Hay que recordar que las alianzas que han tenido éxitos significativos son justamente las basadas en donaciones 5. El reto principal con el que se enfrentan esas alianzas es la sostenibilidad: ¿qué hacer cuando se acaba la donación? Lo anterior está basado en una visión estática de los participantes de esas alianzas. La realidad es que los mismos participantes irán cambiando por las alianzas, así que pronosticar su futuro es bastante complicado. Se ha especulado sobre los efectos, sobre todo negativos, que, por ejemplo, han tenido y tendrán las alianzas de la OMS (9), pero todavía es pronto para saber si se tratarán de cambios marginales o profundos en las instituciones participantes. Otro tema que no hemos tocado: ¿las alianzas, más allá de las buenas intenciones de cada uno, tienen resultados positivos? A fin de cuentas, la única justificación para buscar y mantenerlas es si tienen éxito. Se necesitará paciencia para evaluar las alianzas basadas en I+D por su propia naturaleza. Las demás ya han empezado a ser evaluadas, pero todavía no queda claro en qué medida han tenido éxito. Lo más probable es que tengan elementos de éxito y de fracaso, y la evaluación de la proporción de unos y otros permitirán el reajuste de las estrategias para mejorar el impacto. Para terminar, y volviendo a un punto que tocamos antes, las alianzas privadas (con un fin público)–privadas (con ánimo de lucro) tendrán en un futuro próximo un papel tan importante como las públicas–privadas (con ánimo de lucro) que hemos discutido aquí (14). Esas alianzas, con sus múltiples potencialidades, desafían quizá aún más profundamente los papeles tradicionales de los sectores públicos y privados, por lo que seguirán provocando cierto malestar. Pero eso ya es otro artículo...

5 El

más conocido e imitado es la alianza del sector público con Merck (donación de Mectizan®) para reducir la prevalencia y la incidencia del oncocercosis. Véase, por ejemplo, Peters D, Phillips T, Mectizan Donation Program: evaluation of a public-private partnership. Tropical Medicine & International Health, 9(4), 2004. Véase también, Frost L et al. A Partnership for Ivermectin: Social Worlds and Boundary Objects. En: Reich M (ed.). Public-Private Partnerships in Public Health: Boston: Harvard Center for Population and Development Studies (2002) (http://www.hsph.harvard.edu/hcpds/partnerbook/chap5.PDF) (véase referencia 7).

260

Ars Medica. Revista de Humanidades 2004; 2:252-261


Girindre Beeharry

Bibliografía 1. 2.

3. 4. 5. 6. 7. 8. 9.

10. 11. 12. 13.

14.

http://www.ippph.org/index.cfm?page=/ippph/partnerships Reich M. Public-Private Partnerships for Public Health. En: Reich M (ed.). Public-Private Partnerships in Public Health: Boston: Harvard Center for Population and Development Studies (2002). (http://www.hsph.harvard.edu/hcpds/partnerbook/chap1.PDF) Ridley R. Putting the Partnership into public-private partnerships. Bulletin of the World Health Organi-zation, 79(8), 2001. Buse K, Walt G. Global public-private partnerships: part II– what are the health issues for global governance? Bulletin of the World Health Organization, 78(5), 2000. Buse K, Waxman A. Public-private health partnerships: a strategy for WHO. Bulletin of the World Health Organization, 79(8), 2001. Batson A, Ainsworth M. Private investment in AIDS vaccine development: obstacles and solutions. Bulletin of the World Health Organization, 79(8), 2001. Webber D, Kremer M. Perspectives on stimulating industrial research and development for neglected infectious diseases. Bulletin of the World Health Organization, 79(8), 2001. Tal como la International AIDS Vaccine Initiative (http://www.iavi.org/). Buse K, Walt G. The World Health Organization and the Global Public-Private Health Partnerships: In Search of ‘Good’ Governance. En: Reich M (ed.). Public-Private Partnerships in Public Health: Boston: Harvard Center for Population and Development Studies (2002). (http://www.hsph.harvard.edu/hcpds/partnerbook/chap7.PDF) Hardon A. (2001). Immunization for all? A critical look at the first GAVI partners meeting. HAI-Lights, 6(1) (http://www.haiweb.org). Richter J (2001). ‘Partnerships’ between UN agencies and transnational companies: A critical perspective. Report on the HAI Europe/BUKO Pharma-Kampagne Seminar, November 2000 (http://www.haiweb.org). Kettler H, White K. Valuing Industry Contributions to Public-Private Partnerships for Health Product Development. (2003). (http://www.ippph.org/index.cfm?page=/ippph/publications&thechoice=retrieve&docno=35) Muraskin W. The Last Years of the CVI and the Birth of GAVI. En: Reich M (ed.). Public-Private Partnerships in Public Health: Boston: Harvard Center for Population and Development Studies (2002). (http://www. hsph.harvard.edu/hcpds/partnerbook/chap6.PDF) Walt G, Buse K. Partnership and fragmentation in international health: threat or opportunity? Tropical Medicine and International Health, 5(7), 2000.

Ars Medica. Revista de Humanidades 2004; 2:252-261

261


Artículos breves

El Institute of Medicine propone cauces para atajar la falta de seguro médico The Institute of Medicine Offers Proposals to Hold Back the Lack of Health Insurance ■ Ana Urroz Resumen La carencia de seguro sanitario que afecta a un 17% de la población estadounidense y la alta mortalidad que genera la falta de una adecuada atención médica son las realidades que han movido al Institute of Medicine de la Academia Nacional de EEUU a publicar el informe Insuring America’s Health: Principles and Recomendations. Este texto, dirigido a los órganos legislativos, contiene cinco puntos básicos (sobre los que debe asentarse un sistema sanitario) y propone cuatro posibles estrategias para acabar con el problema del aseguramiento médico. El informe del Institute of Medicine señala una fecha límite, el año 2010, para que todos los ciudadanos cuenten con un seguro médico.

Palabras clave Carencia de seguro sanitario. Cobertura universal. Modelos sanitarios.

Abstract The lack of health insurance which affects 17% of the population of the United States and the high mortality rate generated by the absence of adequate medical care are real situations which have induced the Institute of Medicine of the United States National Academy to publish the report Insuring America's Health: Principles and Recommendations. Directed to the legislative bodies, this report contains five basic points on which a health system should be established and proposes four possible strategies to put an end to the medical insurance problem. The Institute of Medicine report indicates the year 2010 as a time limit for all citizens to have a medical insurance. La autora es periodista y trabaja como free-lance en Washington DC (EEUU). 262

Ars Medica. Revista de Humanidades 2004; 2:262-267


Ana Urroz

Key words Lack of health insurance. Universal coverage. Health models.

■ Como es bien sabido, en EEUU el 17% de la población (unos 43 millones de personas) carecen de un seguro médico, y alrededor de 18.000 ciudadanos mueren anualmente por falta de una adecuada atención médica. Estos datos se volvieron a poner de relieve el pasado mes de enero al hacerse público el informe Insuring America’s Health: Principles and Recomendations (“Cómo asegurar la salud en EEUU: principios y recomendaciones”)1, que ha sido realizado por el Institute of Medicine (IOM) perteneciente a las National Academies. Este documento refleja con claridad los problemas que está padeciendo ya el conjunto de la sociedad estadounidense y lanza una recomendación clara al Presidente del Congreso, con la inclusión de una fecha concreta a fin de que se pueda cumplir el objetivo. “En el año 2010 todos los ciudadanos de EEUU han de estar asegurados”. El texto aporta una lista de cinco principios básicos, que son líneas orientadoras, a la hora de que se establezcan las condiciones y características del plan de cobertura médica. El informe es el compendio y la conclusión final de una serie de estudios anteriores, y en él se presenta un análisis global de las consecuencias que pueden derivarse para las personas, las familias y la sociedad en general, de la falta de un medio que garantice el acceso a la atención médica de aquellos o los miembros de su familia, que no tienen la posibilidad de contar con una póliza que sufrague los gastos de acceso a la sanidad dentro de los beneficios laborales de las empresas para las que trabajan. Las alarmas han empezado a sonar en las esferas de decisión política. El IOM cumple con este estudio la tarea de presentar las realidades y consecuencias para el país de la persistencia de la actual situación y del posible riesgo de que siga creciendo el número de ciudadanos que no cuentan con las necesidades de atención médica cubierta. Los estadounidenses de clase media padecen en su vida diaria la frustración de comprobar cómo los más espectaculares y asombrosos avances de la ciencia médica se presentan ante sus ojos, pero que a la vez están fuera de su alcance. El inabordable precio de la medicina, casi única y exclusivamente privada, en el país más industrializado del planeta, el que produce los mayores recursos terapéuticos y que los divulga, no sólo en las publicaciones médicas especializadas, sino también en sus medios de comunicación de masas, hace que la frustración se deje sentir en la población afectada. Son muchos millones de ciudadanos los que ni siquiera tienen la oportunidad de llegar a un quirófano o a ser tratados por un especialista. 1

El informe está disponible en: http://www.iom.edu/report.asp?id=17632 (10-09-2004). El “Institute of Medicine of the National Academies“ es una organización independiente, científica y sin ánimo de lucro que se esfuerza en asesorar de forma imparcial —basándose en pruebas y en fundamentos científicos— sobre la sanidad y la salud de los individuos dentro y fuera de EEUU. Ars Medica. Revista de Humanidades 2004; 2:262-267

263


El Institute of Medicine propone cauces para atajar la falta de seguro médico

El informe del IOM hace constar que “es más fácil de lo que podría pensarse no estar asegurado”, y que “ocho de cada diez personas sin seguro pertenecen a las clases trabajadoras, al no facilitarles sus empleos ningún tipo de seguro sanitario”. Asimismo, aporta un dato como propuesta de tema de consideración para los ámbitos de decisión política y social: “La vitalidad económica de la nación está limitada por la mala salud, la muerte prematura y las prolongadas bajas laborales de los trabajadores no asegurados”. Y hace una reflexión en cuanto a que sea examinada bajo una óptica distinta, la de la relación precio-calidad de vida, la posibilidad de destinar fondos federales para compensar el efecto de las limitaciones de acceso a los servicios sanitarios. “Si se facilitase cobertura médica general, en los mismos niveles de los de quienes están actualmente asegurados, la ganancia en años de vida saludables sería con certeza mayor que los costes adicionales de proporcionar atención sanitaria a los que carecen de seguro”, indica el informe. Según el IOM, los problemas de salud debidos a la carencia de seguro médico suponen unos costes anuales comprendidos entre 65.000 y 130.000 millones de dólares. En los dos últimos años, los medios de comunicación informan cada vez con más frecuencia sobre las situaciones de quiebra en los hospitales locales por la sobrecarga de los servicios de urgencias, ya que en ellos se atienden como una ayuda humanitaria las emergencias de quienes llegan sin asegurar. De acuerdo con lo que publica el IOM, los más de 43 millones de personas que carecen de póliza médica (cifra que equivaldría a lo que es la totalidad de la población en 26 Estados) pueden pagar solamente el 35% de su factura de atención médica. El resto de los costes ha de ser sufragado como beneficencia, por medio de la aportación de fondos de los contribuyentes, a través de subsidios y ayudas a clínicas y hospitales.

El fracaso de la salud como bien público Desde su nacimiento, EEUU ha sido el país de la sanidad privada, y los intentos de crear un seguro público y abordar una reforma sanitaria que permitiera el acceso de todos los ciudadanos a los servicios sanitarios no han salido adelante. Los políticos, sobre todo los de ideología republicana, nunca se han atrevido a proponerlo en una campaña electoral. Los demócratas son quienes han llevado a cabo la mayoría de las tentativas, especialmente Bill Clinton durante su presidencia. Su esposa, Hillary Rodham Clinton, explicaba, en un número anterior de esta misma publicación2, cómo fue derrotada en su batalla de llevar ante el Congreso una propuesta de atención sanitaria, cercana a los modelos europeo y canadiense, que evitase dejar al trabajador a merced de la voluntad de quien le emplea. El miedo a ir contra los intereses de las poderosísimas compañías de seguros, que son importantes contribuyentes con sus 2 Véase:

264

Clinton H R. Sanidad. Ars Medica. Revista de Humanidades 2004; 2:227-238. Ars Medica. Revista de Humanidades 2004; 2:262-267


Ana Urroz

fondos a la financiación de las campañas electorales, así como el pasar por alto sobre el fundamental principio de la libre competencia, han bloqueando el paso al derecho a la salud como un bien público. El informe del IOM marca, ahora, claramente, la necesidad de invertir la tendencia al afirmar: “Las consecuencias de la falta de seguro médico y la creciente amenaza que esto supone para el conjunto del sistema sanitario estadounidense, hace que el problema no pueda ser ignorado por más tiempo. El liderazgo y los dólares federales son necesarios para acabar con la falta de seguro, aunque esta tarea no corresponda necesariamente a la Administración Federal”. No es cierto que en el país no exista ninguna ayuda pública a la sanidad. Las clases más desfavorecidas y los mayores cuentan, desde 1965, con los servicios de Medicare y Medicaid. También, desde 1980, se han desarrollado, tanto a nivel del Gobierno Federal como de los de los diferentes Estados, avances destinados a ayudar a familias sin recursos económicos, sobre todo en el capítulo de la sanidad infantil, con el establecimiento del “Programa estatal de seguro médico para los niños” (Children’s Health Insurance Program, SCHIP) pero eso no palia la realidad que muestra el informe del IOM cuando indica que “una de cada cinco familias estadounidenses con hijos tiene, por lo menos, a uno de sus miembros sin seguro”. La cuantificación de esta afirmación supone que, aproximadamente, hay 8,5 millones de niños que no están asegurados. La vertebración del sistema federal hace que en EEUU se den particularidades sociales y legales muy diferentes según cada uno de los Estados. Algunos de ellos han creado condiciones y realizado avances en cuanto a la extensión de la cobertura al mayor número de personas con dificultades para acceder a un seguro, pero no han logrado acabar con el problema de la carencia del mismo. En otros Estados, debido a problemas presupuestarios, ponen todas las trabas administrativas posibles a fin de rebajar los costes del programa SCHIP y de Medicaid. Según los datos de la encuesta del US Census Bureau sobre “Seguros de salud y tipo de cobertura de las pólizas”, publicados en el 2002, más del 17% de la población de menos de 65 años carece de seguro. El IOM es tajante en su propuesta y hace una llamada clara a que se legisle a nivel nacional para solucionar este problema, afirmando en el informe: “Se necesita la participación federal para resolver el problema de la carencia de seguro”.

Cobertura universal La atención médica y los cuidados de salud como una realidad accesible para todos los ciudadanos, es el primero de los principios concretos (Health care coverage should be universal) que formula el grupo de expertos que ha redactado el informe. Para reconducir la situación de desigualdad social —que origina el que tan alto número de población no cuenArs Medica. Revista de Humanidades 2004; 2:262-267

265


El Institute of Medicine propone cauces para atajar la falta de seguro médico

te con medios para tratar sus enfermedades— incide en el significado del término “universal”, aclarando que su alcance abarca a “toda persona que viva en EEUU”. Este primer principio se sustenta en dos constataciones. La primera, hace referencia a que la falta de seguro supone “un menoscabo para la salud de los individuos, ya que los no asegurados no acuden con la misma frecuencia que los que tienen seguro a las consultas, o no tienen acceso a servicios preventivos, o de cuidado de enfermedades crónicas”. La segunda, menciona como grupos más vulnerables a los niños y a los pacientes de enfermedades crónicas como diabetes, enfermedades cardiovasculares, renales y, finalmente, sida. El documento analiza a continuación el segundo principio que hace referencia al ámbito temporal, y se titula “La cobertura sanitaria debería ser continua”. Las razones que introduce como básicas, a la hora de que los políticos y legisladores establezcan medidas que lleven a acabar con la alta tasa de no asegurados, las sustentan en que aceptar el hecho de la cobertura continua tiene “más probabilidades de garantizar mejores resultados en los tratamientos”, así como detectar y diagnosticar enfermedades que pueden convertirse en crónicas, a la vez que insiste en los servicios preventivos en pediatría. El tercer punto se adentra en el ámbito económico bajo el epígrafe: “La cobertura sanitaria debería ser económicamente asequible para los individuos y las familias”. Y adelanta la idea de que habrán de serles facilitados medios adicionales a las familias con menor nivel de ingresos “para poder costearse el seguro”. En cuanto al cuarto principio, de contenido también presupuestario, el informe del IOM lo titula “La cobertura sanitaria debería ser asequible y sostenible para la sociedad”. Su comité de redacción apela al establecimiento de mecanismos de control de la inflación y el gasto, así como a la solidaridad social por medio de “impuestos, primas médicas y reparto de costes”, basándose en el beneficio social que generaría “la cobertura universal de seguro médico”. Y manifiesta que la estrategia de reforma debería poner énfasis “en la eficiencia y la simplicidad”, por tanto, deberían facilitarse los trámites de acceso, facturas, etcétera. Por último, el IOM formula como quinto principio: “El seguro debería mejorar la salud y el bienestar, al promover el acceso a una atención de alta calidad que sea eficaz, segura, centrada en el paciente y equitativa”. Y, en el cómputo de mejoras, menciona los paquetes básicos de prestaciones que incluirían tanto los servicios ambulatorios y de hospitalización, como consultas de salud mental, cuidados preventivos y recetas de medicamentos.

Modelos para la reforma El IOM propone en su informe cuatro modelos o estrategias para lograr la cobertura sanitaria definida en los cinco principios anteriores, con los que pretende abrir la discusión de la reforma del sistema sanitario. Estas estrategias van encaminadas a simplificar el actual marco de seguros públicos, que es complicado y está muy fraccionado, ya que las ayudas públicas a 266

Ars Medica. Revista de Humanidades 2004; 2:262-267


Ana Urroz

la sanidad se canalizan a través de tres modalidades: el SCHIP, seguro infantil; Medicaid, jóvenes y adultos; y Medicare, para los mayores de 65 años. El IOM adelanta que la implantación de cualquiera de estos posibles modelos supondrá cambios fundamentales con referencia al sistema actual. El que propone en primer lugar amplía el programa de ayudas públicas y recorta la carga impositiva para el trabajador que contrate un seguro. Los beneficios fiscales que existen en la actualidad para los trabajadores que se costean su seguro se mantendrían, y los empresarios no estarían obligados a facilitarlo a sus empleados. Se mejorarían las condiciones de Medicaid y SCHIP, y Medicare cubriría a partir de los 55 años a quienes pagaran su póliza. El segundo modelo estaría basado en la obligación del empresario de facilitar seguro a los trabajadores por medio de costear parte de la póliza médica de los mismos. En el caso de los salarios más bajos se arbitraría un programa federal de ayudas. Medicaid y SCHIP se unificarían y Medicare continuaría igual. Se exigiría que todos los trabajadores estuviesen asegurados, bien en un programa público, o con un seguro individual. La tercera de las opciones de cambio del modelo sanitario que propone el IOM hace referencia al contrato del particular con compañías privadas, pero con ayudas públicas a la hora de pagar la póliza. En cuanto a las actuales modalidades de seguros públicos: Medicaid y SCHIP desaparecerían, pero Medicare seguiría igual. La cuarta y última de las estrategias se refiere al actual sistema de ayudas públicas para la sanidad en EEUU. Contempla el supuesto de que todos los ciudadanos contarían con una prima única que facilitara unos beneficios uniformes; pero deja abierta la opción de ampliar los beneficios a aquéllos que lo deseen por medio de la contratación de seguros adicionales que les faciliten servicios suplementarios. El seguro único estaría administrado y financiado por el Gobierno Federal, pero utilizaría compañías aseguradoras y auditorías privadas para atender las reclamaciones y realizar los pagos, de manera similar al actual patrón de funcionamiento de Medicare. Con la implantación de este modelo sanitario Medicaid y SCHIP desaparecerían, y los que se ven atendidos por la opción de Medicare podrían incorporarse al modelo de seguro único.

Ars Medica. Revista de Humanidades 2004; 2:262-267

267


Doce artículos para recordar Twelve Articles to Remember Entre la miríada de artículos científicos publicados en los últimos meses, la Redacción ha escogido los doce que siguen. No “están todos los que son”, imprudente sería pretenderlo, pero los aquí recogidos poseen un rasgo de sencillez, calidad, originalidad o sorpresa por el que quizá merezcan quedar en la memoria del amable lector. Saikawa Y, Hashimoto K, Nakata M, Yoshihara M, Nagai K, Ida M. et al. The red sweat of the hippopotamus. Nature. 2004; 429: 363. A los pocos minutos de empezar a sudar, el inicialmente viscoso e incoloro fluido que cubre la piel del hipopótamo toma un color rojizo que posteriormente se vuelve marrón. Ello se debe a la presencia de dos pigmentos, uno rojo y otro naranja, en tal secreción. Los autores de este artículo, de las Universidades de Keio y Kioto, comunican la caracterización de ambos pigmentos, a los que eufónicamente denominan ácido hiposudórico y norhiposudórico, respectivamente, y comprueban que uno de ellos posee capacidad antibiótica frente a bacterias gram positivas y gram negativas. Aunque por separado ambos pigmentos son muy inestables, cuando se secan en la piel en presencia de moco, conservan su color rojizo durante horas antes de polimerizarse a un compuesto sólido de color marrón. Ni el color del sudor, ni su función, se deben al azar... 1

O´Shaughnessy KM y Karet FE. Salt handling and hypertension. J Clin Invest. 2004; 113:1075-1081. Nuestros homínidos precursores probablemente tomaban menos de 100 mg diarios de sal y debieron adaptarse genéticamente a un entorno habitualmente escaso en ella. Nuestra dieta hoy aporta con frecuencia más de seis gramos diarios de cloruro sódico, una alta cantidad que guarda relación con la gran incidencia de hipertensión arterial en el mundo occidental. En este artículo, los autores, de la Universidad de Cambridge (Reino Unido), repasan el papel fisiológico que juega el riñón en la homeostasis del sodio, la diferente trascendencia de los aniones que le acompañan, los factores genéticos que predisponen a la hipertensión arterial y subrayan la importancia de reducir la ingesta de sal. Una parte significativa de la salud va en ello. 2

Srinath Reddy K. Cardiovascular disease in non-western countries. N Engl J Med. 2004; 350: 2438-2440. En China, el número de muertes por enfermedades cardiovasculares se ha multiplicado por dos en los últimos veinte años, y en las ciudades de la India la prevalencia de la enfermedad coro3

268

Ars Medica. Revista de Humanidades 2004; 2:268-272


Doce artículos para recordar

naria en los últimos cuarenta años lo ha hecho por seis. El autor de este artículo, del All India Institute for Medical Sciences (Nueva Delhi), nos recuerda cómo la globalización, iniciada a finales del siglo XX, ha impulsado a los países en vías de desarrollo hacia tales enfermedades. El incremento en la esperanza de vida, el cada vez mayor sedentarismo y los cambios en la alimentación que se han producido en ellos, se han acompañado de incrementos significativos en las cifras de tensión arterial y en las tasas de glucemia y lípidos plasmáticos, factores todos ellos que favorecen el daño vascular. Subraya la necesidad de la intervención política y educativa para reducir el hábito tabáquico, y modificar costumbres y hábitos dietéticos si se quiere evitar que esos países, además de sus propias enfermedades, sufran las que el “primer mundo” les envía. Rajkumar SV. Thalidomide: tragic past and promising future. Mayo Clin Proc. 2004; 79: 899- 903. La talidomida fue incorporada a la terapéutica como un sedante no tóxico a finales de los años cincuenta del siglo pasado. Sin embargo, antes de un lustro, casi diez mil mujeres gestantes que la habían tomado entre los días 35 y 49 después de la última menstruación, habían tenido otros tantos niños con graves malformaciones congénitas. El 40% de esos neonatos falleció dentro del primer año de vida. Considerada en 1961 como una sustancia maldita, ese poder teratogénico hizo que algunos médicos atisbaran en ella una posible utilidad en el tratamiento del cáncer. El autor de este artículo, de la División de Hematología de la Clínica Mayo (Rochester, Minnesota), nos recuerda cómo la talidomida es eficaz en el tratamiento de las aftas orales resistentes a otros tratamientos, en el cuadro consuntivo de la infección por el VIH y, especialmente, en pacientes con mieloma múltiple refractario a las medidas terapéuticas habituales. Apunta que no es aventurado pensar que la talidomida, o algún derivado de ella hoy en estudio, pueda convertirse en un tratamiento antitumoral de primera línea. 4

Pikitch EK, Santora C, Babcock E, Bakun A, Bonfil R, Conover DO, et al. Ecosystem-based fishery management. Science. 2004; 305: 346-347. Muchas especies de peces marinos están sobreexplotadas y los ecosistemas que las sostienen se han degradado hasta límites preocupantes. Para extremar el rendimiento en la captura de una especie determinada, con frecuencia se ignora el hábitat en el que se desarrolla, sus depredadores y sus presas, así como los demás componentes del ecosistema y las interacciones entre ellos. Pocos dudan ya de los efectos de la pesca sobre la destrucción del hábitat, el forzado desplazamiento demográfico de las poblaciones marinas y los cambios negativos que se han producido en la estructura y función de los ecosistemas. Los autores, (de diferentes departamentos de Nueva York, Florida, California, Washington, Londres y Australia), nos recuerdan cómo muchas de las especies en peligro no constituyen un objetivo de pesca por sí mismas, pero que caen como un lamentable daño colateral. Insisten en la necesidad de con5

Ars Medica. Revista de Humanidades 2004; 2:268-272

269


Doce artículos para recordar

trolar las pesquerías en función del ecosistema si queremos conservar algo tan importante como la pesca... y el mar. Miller J, Rosembloom A y Silverstein J. Chilhood obesity. J Clin Endocrinol Metab. 2004; 89:4211-4218. Más del 30% de los niños americanos sufren sobrepeso u obesidad, una cifra que no debe ser muy diferente en nuestro medio. Gran parte de esos niños serán adultos obesos. En este excelente artículo, las autoras, de la Universidad de Florida, por un lado repasan los factores genéticos de la obesidad, la influencia de los cambios en el estilo de vida en general y el sedentarismo en particular, el aumento en el tamaño de las raciones alimentarias y el papel que juega la publicidad; y, por otro, actualizan las complejas interacciones bioquímicas entre el cerebro y el tejido adiposo, las consecuencias metabólicas de la obesidad infantil y apuntan cómo abordar su prevención y tratamiento. No está de más recordar que ninguno de los fármacos hoy disponibles para el tratamiento de la obesidad en el adulto ha sido aprobado para su uso en la infancia. 6

Bedell SE, Graboys TB, Bedell E y Low B. Words than harm, words than heal. Arch Intern Med. 2004; 164: 1365-1368. En estas páginas, los autores, del Lown Cardiovascular Center de Massachusetts, nos recuerdan que el lenguaje no es neutro, ni tampoco un simple vehículo para transmitir ideas; y cómo el médico, al hablar con el enfermo o sus familiares, puede generar miedo, ansiedad o desesperanza. De ahí que sea necesario evitar la ambigüedad, las palabras terribles, el argot, con tanta frecuencia pobre, confuso e incomprensible, y recurrir a términos claros y acordes con la experiencia del que sufre. Todo ello unido al bien administrado silencio, que permite escuchar y aclarar sus dudas, miedos y sugerencias. Finalizan recordando lo que William Faulkner, en su discurso de aceptación del Premio Nobel de Literatura de 1951, decía de los escritores: “Es un privilegio ayudar al hombre a reconfortarse elevando su corazón. Es necesario que la voz del poeta no se limite a dar constancia del hombre, sino que se convierta en un puntal, un pilar que le conforte y ayude a prevalecer”. 7

Christian P, Khatry SK Y West KP Jr. Antenatal anthelmintic treatment, birthweight, and infant survival in rural Nepal. Lancet. 2004; 364: 981-983. Las tres cuartas partes de las mujeres embarazadas en el distrito de Sarlahi (Nepal) están parasitadas por el helminto Anquilostoma duodenale. Tal parásito causa en la gestante una anemia muchas veces notable, lo que da lugar a niños de bajo peso al nacer y alta mortalidad dentro del primer semestre de vida. Los autores de este artículo, de Baltimore y Katmandú, comunican cómo la administración de sendas dosis de 400 mg del helminticida albendazol en el segundo y tercer trimestre de embarazo, se siguió de una significativa mejoría de la anemia en las mujeres, mayor peso de los neonatos y una menor mortalidad de éstos a los seis meses. Una vez más, ¡cuánto se puede conseguir con muy poco! 8

270

Ars Medica. Revista de Humanidades 2004; 2:268-272


Doce artículos para recordar

Lund LH. Computerized interpretation of the electrocardiogram. Arch Intern Med. 2004; 164: 1698. El cardiólogo autor de este artículo, de la Facultad de Medicina de la Columbia University (NY) recuerda que entre el uno y el cuatro por ciento de los pacientes que acuden a los servicios de urgencia con un infarto de miocardio, son dados de alta erróneamente y de ellos una cuarta parte lo es por la interpretación errónea del electrocardiograma. Destaca la utilidad de incorporar programas informáticos a los electrocardiógrafos para evitar tales errores. En la bibliografía cita un artículo (What do good doctors try to do? Arch Intern Med, 2003; 163: 2681-2686) de J. Willis Hurst, profesional egregio y autor de uno de los mejores libros de Cardiología, a quien sutilmente enmienda la plana. Ello merece la contestación de Hurst (págs. 1698-1699), que nos recuerda que hasta la fecha ningún “software” ha incorporado la dirección de los vectores cardiacos, algo que es superior a los patrones memorizados, ni tampoco facilita el diagnóstico diferencial de las posibles causas de las alteraciones electrocardiográficas. El maestro nos recuerda, además, que se debe establecer una relación más cercana con el enfermo, algo que actualmente está en peligro. “En ciertas ocasiones el médico está más próximo a la máquina que al paciente”. Conviene no olvidarlo. 9

Verez-Bencomo V, Fernández.Santana V, Hardy E, Toledo ME, Rodríguez MC, Heynngnezz L, el al. A synthetic conjugate polysaccaride vaccine against Haemophilus influenzae type b. Science. 2004; 305: 522-525. Más de 600.000 niños mueren cada año en los países en vías de desarrollo por neumonía o meningitis causadas por hemófilus influenzae tipo b. Las vacunas actuales frente a este germen se preparan con polisacáridos extraídos de su cápsula y confieren una protección de intensidad y duración limitadas. En este artículo, fruto de la colaboración de las Universidades de La Habana y Quebec, los autores comunican la consecución de una vacuna frente a esa bacteria preparada con un polisacárido sintético, que proporciona una mayor y más duradera inmunidad frente al hemófilus. Junto a la indudable utilidad intrínseca de esta vacuna, con esta vía de los polisacáridos sintéticos se abre un camino probablemente aplicable a otros gérmenes. Y, de sacárido a sacárido, estas alentadoras páginas refrendarían el viejo dicho cubano: “sin azúcar no hay país”. 10

Turgeon JL, McDonnell DP, Martin KA y Wise PM. Hormone therapy: physiological complexity belies therapeutic simplicity. Science. 2004; 304: 1269-1273. La Women´s Health Initiative incluía dos ensayos, aleatorizados y comparados con placebo, dirigidos al estudio de los efectos de los estrógenos solos o asociados a progesterona sobre la enfermedad coronaria en mujeres de 50 a 79 años. Programada su duración hasta 2005, sin embargo, el ensayo de estrógenos y progesterona frente a placebo tuvo que ser suspendido en 2002 por la mayor incidencia de cáncer de mama y complicaciones cardiovasculares en el grupo tratado. E, igualmente, el ensayo de estrógenos frente a placebo tuvo que suspenderse 11

Ars Medica. Revista de Humanidades 2004; 2:268-272

271


Doce artículos para recordar

en marzo de 2004 por el hallazgo de un pequeño incremento en el riesgo de ictus en el grupo de mujeres tratadas, ello aunque no había aumentado la incidencia de cáncer de mama y sí se había reducido el riesgo de fractura de cadera. Los autores, de la Universidad de CaliforniaDavis y la Facultad de Medicina de Harvard, actualizan en este sólido artículo la fisiología de las hormonas esteroideas y se plantean si con otros tipos de preparados, otras vías y formas de administración (por ejemplo, cíclica frente a continua), así como el conocimiento previo de la dotación genética de las mujeres, podrían evitarse los efectos inaceptables del tratamiento hormonal sustitutivo. Muy probablemente este capítulo, como tantos otros, aún no esté acabado de escribir. Oransky I. Obituary: Sir Godfroy N. Hounsfield. Lancet. 2004; 364: 1032. El autor de esta página, de la Redacción de The Lancet, nos recuerda que el 12 de agosto de este año moría, a los 84 años, Sir Godfroy N. Hounsfield, el inventor del escáner. Nunca fue a la Universidad, ya que tras alistarse en la Royal Air Force a los 20 años, al finalizar la Segunda Guerra Mundial únicamente estudió en el Faraday House Electrical Engineering College de Londres. En 1967 llevaba dieciséis años trabajando en proyectos de radar y computadoras transistorizadas en la Electric and Musical Industries (EMI), una compañía que nadaba en las libras esterlinas manadas de la venta de los discos de The Beatles. Gracias a ello, Hounsfield dispuso de los recursos que le permitieron desarrollar un algoritmo para la reconstrucción de imágenes radiográficas. Fruto de ese trabajo fue el escáner o tomografía axial computadorizada (TAC), técnica revolucionaria en 1971 y hoy sencillamente imprescindible. Soltero vocacional, en 1979 Hounsfield recibió con Allan Cormack el Premio Nobel de Medicina y Fisiología. Pocas veces tan alto galardón fue tan merecido. Por el camino que abrió, la Humanidad en general y los que ejercemos la Medicina en particular le debemos recuerdo y gratitud. Descanse en paz. 12

272

Ars Medica. Revista de Humanidades 2004; 2:268-272


Relato corto

La marca del león The Mark of the Lion ■ Alonso Cueto Verónica Gazzo salió de la ducha, se enfrentó al vaho del espejo y escribió un nombre. El gas se deshacía lentamente, el dedo persistía en un gesto lento, marcando los bordes de las letras, delineando esa franja tibia: una varita mágica que ardía en la neblina. Terminó de escribir el nombre. Lo contempló. Dijo una palabra en voz baja. Tenía el cuerpo cubierto con la toalla. La dejó caer lentamente al suelo. Sintió su cuerpo alzado temblando frente a él. La revelación había ocurrido la semana anterior, o quizá la anterior. Estaba allí, parecía que siempre. La revelación… es un modo de decirlo. La tristeza, el vacío, un dolor esparcido y concreto. El hecho de haber cumplido cuarenta años quizá había influido. El hecho de haber cumplido cuarenta años y la voz de Miguel Torres (el del nombre de vino), esas frases cuando se lo había encontrado en una reunión. Lo he visto, le había dicho Miguel Torres. Lo vi el otro día. Estaba en la casa de un amigo. La verdad es que se le ve muy bien, está muy gracioso, muy elegante, es un tipo muy divertido. Y se le ve muy bien, parece que no hubieran pasado los años. Estaba hablando de Julio. El nombre en el espejo. *** Verónica se vistió rápidamente. Abrió la puerta. Era casi la hora de la reunión. Hoy iban a presentarse dos nuevos clientes. Querían hacer una gran campaña para Navidad. Los detergentes, jabones, shampoo, la marca Gómez de los hermanos Gómez. El doctor Quiroga le había encargado hablar con ellos. Hay que explicarles todas las ventajas de la agencia. Tenemos a creativos de primer nivel, vamos a hacerles una campaña publicitaria de gran impacto, es cuestión de ponernos de acuerdo en una idea base. El autor (Lima, Perú, 1954) es uno de los narradores peruanos más fecundos del momento actual. Entre sus relatos destacan: Grandes miradas, Demonio del mediodía, Amores de invierno, Deseo de noche, etc. El año pasado publicó: Mario Vargas Llosa. La vida en movimiento (una larga entrevista con el gran maestro arequipeño). Ars Medica. Revista de Humanidades 2004; 2:273-281

273


La marca del león

Verónica era una experta en el arte de persuadir a clientes de las bondades de la agencia de publicidad Cosmos. Había trabajado allí tantos años. Sabía exponer una idea ante un grupo de ejecutivos, sabía diseñar conceptos básicos para orientar a un creativo, sabía interpretar los gustos y preferencias de los sectores sociales en cualquier encuesta de mercado. Lo que no sabía era de lo otro. De lo otro: elegir una pareja, saber qué pareja le convenía. Había escogido siempre pensando en el placer y la aventura, en el baile de los próximos segundos, en la incertidumbre, en el riesgo, en el miedo, en las noches vibrantes. No elegía pensando en la sensatez, en los hechos, en los largos días, en la lenta y trabajosa vida. Por eso se había casado con Papo. Por eso veinte años antes, había hecho a un lado a Julio. Papo se le había acercado envuelto en los humos de una fiesta en el club. La había sacado a bailar tomándola de la mano. Solamente se había acercado, la había tomado de la mano y la había llevado a la pista, completamente seguro de que ella estaría contenta allí, bailando con él siempre. Papo era así. Del mismo modo que al día siguiente le había propuesto salir a cenar, que la había besado, que la había llevado a un viaje a la costa norte, que la había desnudado la segunda noche, que la había conducido de la mano al altar de una iglesia atiborrada. Julio en cambio la había invitado a salir un tiempo antes. Su trato estaba investido de las ceremonias de un caballero. Le había abierto la puerta del auto para que ella entrara, le había hablado en voz baja preguntándole por sus estudios, la había besado con toda suavidad al salir del cine. Pero no era solo un caballero. Era también un tipo que miraba la vida de frente, con las armas del optimismo y el orden y la decencia. Esa alegría natural que tenía Julio… esa alegría revelada contra las presiones del olvido. La culpa había atizado a los fantasmas. La memoria es una larga corriente subterránea. La conciencia es una selva o un río que tiene mesetas y llanuras y también follajes. En uno de estos últimos se había escondido la cara de Julio. Hasta ahora. La cara y el cuerpo de Julio esparcidos dentro del suyo. La memoria envía sus boletines, pensaba. Los despachos del pasado de los últimos días. En todos ellos, Vero aparecía parada frente a un Julio entero y risueño. Él le hablaba, la hacía reír. Las escenas fulgurantes, los pequeños relatos: cuando fueron a comer y ella pidió los platos más caros de la lista, cuando ella fue al cumpleaños de su madre y no le habló mucho a sus hermanas, cuando llegaron a un lugar a bailar y otro hombre se le acercó: historias en las que ella siempre terminaba como la culpable de los delitos de la soberbia y la indiferencia. Los recuerdos no eran imágenes que flotaban en su conciencia. Los recuerdos son máquinas letales y esas máquinas emiten comunicados y contra ellas… Vero se había separado rápidamente de Julio desde que había conocido a Papo. Para disgusto de su madre. Y de su padre. Se había separado rápidamente de Julio. Y no lo había sentido mucho. Más bien le había divertido despedirlo. 274

Ars Medica. Revista de Humanidades 2004; 2:273-281


Alonso Cueto

Hasta ahora. Hasta que se había casado con Papo y hasta que el tiempo había pasado, y hasta que había cumplido cuarenta años. La imagen de Julio se había alzado como un león. La había hecho escribir su nombre, y repetirlo en el vaho del espejo. La reunión con los clientes proseguía. Vamos a hacer una campaña masiva: el nombre y la cara, y el pelo castaño de Julio. Y nuestro objetivo es dirigirnos a los sectores populares donde más se usa el detergente, y la voz de Julio, yo lo único que te pido es estar cerca de ti. Tendremos el proyecto listo en dos días, y los ojos iluminados, ese pelo castaño derrumbado sobre su frente, esa voz clara y feliz, la claridad y la felicidad de esos momentos. La cara de Julio: un pozo del que brotaban siempre los chorros serenos de una sonrisa, los borbotones felices de palabras. Salió de la reunión con los clientes y entró a la oficina de Quiroga. Necesito ver a los creativos. Hay que presentar un proyecto en dos días. Quiero que se queden a trabajar conmigo esta noche. Quiroga la miró, las ojeras espesas, la frente arrugada, la sonrisa rápida. Ya, le dijo. Tú dispón nomás. Yo les voy a avisar que se queden. Empiecen ahorita. *** Empezar ahorita. Claro. Lo primero era ver si alguien podía darle el teléfono de Julio. ¿Alguien lo sabía? Claro. Miguel Torres, el tipo con nombre de vino. Él lo sabía. ¿Llamarlo, llamarlo así nomás? Tendría que haber algún pretexto. Algún pretexto como cuál. Sabía que Julio era profesor de finanzas en comercio exterior, en la Universidad de Lima. Era también investigador en Eco, una firma de consultoría económica. Podía llamarlo allí, podía preguntarle si habían hecho ellos alguna investigación sobre los productos de limpieza y detergentes en los sectores populares, o mejor dicho en el C y en el D. Ahora que estoy haciendo una campaña… Soñaba con estar sentada frente a él. Preguntarle por sus hijos. Sabía que tenía dos hijos. Yo en cambio no tuve hijos. Me metí a trabajar doce horas diarias después del divorcio y después ya era muy tarde y bueno, pues. Así fue. ¿El rostro invisible de él, sentado en una mesa, escuchándola? ¿Podía ser verdad? *** Verónica entró a su oficina y prendió la Internet. Google. El sonido de alguien que se ahoga convertido en nombre de buscador. El nombre de un picapedrero inscrito en una gárgara corta. “Gúgel”. Los otros: Yahoo. Un grito de hurra en un estadio o en un rodeo. “Yajú”. Vio la barra esperándola. Escribió el nombre y el apellido. Julio Pando. Apretó la tecla. Se mordió brevemente un labio. ¿Por qué de pronto esta ola de buscar a Julio, de pensar en él, por qué? Ars Medica. Revista de Humanidades 2004; 2:273-281

275


La marca del león

Se habían encontrado ciento veintitrés documentos con ese nombre. Claro que no eran todos él. Había Julio Pando en Chile, en Venezuela, en Argentina. Uno era futbolista, el otro era concejal de Táchira, el otro era sociólogo, el otro profesor de una universidad. Pero el Julio Pando de su vida figuraba en algunas entradas. Un artículo en la revista “Enlaces” de la universidad, una ponencia en un seminario, una mesa redonda en el congreso de Economía del año anterior. Había publicado también un libro, una breve historia del comercio exterior y un manual de consejos para el exportador. Citaban una frase suya: “Saber escoger los mercados requiere de mucho estudio y paciencia”. Claro, saber escoger las parejas, saber escoger las parejas requiere… Se lo contó todo a Silvia esa misma noche mientras comían chicharrones con frijoles y helados en el restaurante de la esquina. Silvia era una amiga de tantos años, no había envejecido nunca, tenía el pelo crespo y rubio, y necesitaba comer tanto como hablar pero era especialmente perceptiva a los problemas de su amiga. “No puedo dejar de pensar en él. Esa noche me acuerdo, cuando lo dejé hablando solo, declarándome su amor, esa noche que le permití besarme y luego me bajé del auto, esa vez que hablamos por teléfono y que casi le cuelgo. Y en esa época lo quería pero decidí no estar con él y ahora no sé, no sé, no sé qué me ha pasado. Era un gatito pero ha regresado y es un león. ¿Cómo voy a hacer con él?” —¿Está casado?-dijo Silvia mientras masticaba los chicharrones. —Casado pero no tan bien. Dicen que tiene una esposa muy dominante. Un poco malgeniada. Así dicen. —Bueno, ¿y qué es lo que quieres tú? ¿Se lo quieres quitar a la mujer, quieres estar con él? —No sé. Eso ya me parece mucho. —¿Cómo que mucho? Silvia terminó de masticar, se limpió con un gran pañuelo, la miró de frente con sus iluminados ojos negros. —Lo único que quiero… -Verónica parpadeó, bajó la cabeza, parpadeó-… es verlo. Verlo un ratito. —¿Y para qué? Silvia alzó el vaso de cerveza frente a ella. —No sé. Para que se me vaya la tristeza. —Bueno, entonces llámalo. Silvia pidió otro plato de chicharrón con frijoles. El mozo asintió. —¿Vas a comerte otro plato? —Si, hija, tus angustias me dan hambre. Bueno, ¿entonces vas a llamarlo? —Pero tengo miedo de crear problemas. —Igual estás en problemas tú ahorita, con tanta ansiedad. Vero tomó del vaso de cerveza. —Tienes razón. Voy a llamarlo ahora mismo. —¿Tienes su teléfono? 276

Ars Medica. Revista de Humanidades 2004; 2:273-281


Alonso Cueto

Un timbre, una pausa, un timbre. Una voz en la central, un anexo, la voz de una grabadora. Vero dejó el celular encima de la mesa. —Voy a seguir llamando –dijo-. —Sigue llamando. Si eso te hace feliz es lo que tienes que hacer. Vio a Silvia limpiarse la boca. La servilleta tenía una mancha de frijoles. Vero se puso de pie. —¿Te vas? —Sí. Ya nos vemos. *** Esa noche, sola, acostada en la cama, pensó en él. Se lo imaginó ahora. El embrujo de los años quizá lo había redondeado, le había estrechado las facciones, recortado el cuero cabelludo, finiquitado ese brillo en los ojos. ¿Había sido así? Al día siguiente, al llegar a la oficina, llamó otra vez. Era la voz de una secretaria, una voz cordial y distante, una grabadora que respiraba. Buenas tardes, de qué compañía llama usted, el doctor no se encuentra. ¿Puedo tomar su número para devolver la llamada? Y tú qué sabes, estúpida, pensó mientras colgaba. Tú qué sabes de él, de nosotros. No estoy llamando de ninguna compañía, oye. Vero se quedó sentada. Su oficina le parecía de pronto más grande. Los muebles se habían alejado de ella. La lámpara colgaba en el techo sideral. Las cortinas eran un trapo muerto y abandonado. Tenían algo de siniestro. La conciencia es una jungla, una espesura, una cabeza de león asoma. La cabeza de Julio con su pelo castaño, y algo rojizo. La melena del león. Era octubre. Veinte años antes exactamente ella lo había rechazado por última vez, en la puerta de su casa. Le había cerrado la puerta y había oído el ruido del motor, el ruido del motor alejándose. Veinte años. Ella acababa de cumplir cuarenta. Y él. Tendría cuarenta y cinco o cuarenta y seis. Y estaba casado y tenía dos hijos, y su mujer (se lo habían dicho) era algo malhumorada. La mujer de Julio se llamaba Berta. Así se llamaba. Berta. Un nombre anticuado, el nombre de una radionovela de los años treinta. Una mujer intemperante, especialmente con él. Se decía eso. En las reuniones sociales buscaba siempre la discusión, apenas alguien empezaba a hablar lo contradecía. Berta no tenía clase, no tenía educación, no había hecho feliz a Julio. Vero lo había conocido mucho antes que ella. Llamarlo a la oficina, no a la casa. En la casa Berta podía contestar. ¿Y cuáles iban a ser sus primeras palabras, apenas Julio se pusiera al teléfono? Hola, Julio. Te habla Vero. ¿Julio, eres tú? Iba a hacer una pausa, una pausa estratégica, y luego: Soy yo, soy Verónica. Ars Medica. Revista de Humanidades 2004; 2:273-281

277


La marca del león

Por supuesto que siempre cabía la posibilidad de una mueca, un silencio, una saliva de disgusto al otro lado. Siempre cabía esa posibilidad. Tenía que ver la campaña de detergente y jabones de los Gómez. Casi le salía en rima. Llamaría a Julio mañana. *** Al día siguiente, estaba sentada en su oficina, sola, con una taza de café hirviente en la mano. Eran las dos y media. Tenía reunión a las tres. Una proyección en PowerPoint para el cliente, los documentos anillados con la información. Todo listo. Le disgustaban las reuniones con los clientes. Si las hacía era para sentir la liberación del momento en el que terminaban. Dejó que pasara el tiempo. Ahora faltaban diez minutos. Los señores Gómez eran puntuales. Vio el teléfono. Marcó otra vez. La telefonista de la central. La secretaria de Julio otra vez. ¿De parte de quién? De Verónica. Hubo un silencio. Le comunico con el doctor. No corte. De pronto oyó su voz. Aló. Era él. ¿Julio, Julio? Sí. ¿Quién es? Un silencio, un labio apretado, la superficie del escritorio. Soy yo. Soy Verónica. El ruido de risa, de sonrisa. ¿Verónica? Sí. ¿Cómo has estado, Julio? Nada, bien, todo bien aquí. ¿Y tú? Bien. Muy bien. Bueno, más o menos… El corazón como un tambor. La mano que cogía el objeto más próximo, un lapicero. Te llamaba para saludarte, o sea, bueno, para saber cómo estabas, cómo estás. Tanto tiempo, atinó él. Sí. ¿Estás bien? Estoy bien, sí, se puede decir que estoy bien. ¿Siempre en la consultoría económica? Siempre. Otro silencio, el lapicero en la mano, las yemas blanqueadas. ¿Y tú? 278

Ars Medica. Revista de Humanidades 2004; 2:273-281


Alonso Cueto

Bueno, yo aquí en la agencia de publicidad, en Cosmos. ¿Y qué tal? Bien, todo bien. El silencio, los labios que se movían. ¿Tú crees, o sea tú crees que algún día podamos vernos, que nos podamos ver? Verónica había oído su propia voz. Le alegraba y la avergonzaba que su voz fuera tan audaz, más valiente que ella. Otro silencio. Sí, claro. Claro que sí. Bueno, entonces, por qué no tomamos un café. Ya. ¿Cuándo puedes? Ese era su problema. La falta de resolución. La poca resolución en un hombre. Por qué no la había citado a una hora, en un lugar. Cuándo puedes. Yo puedo cualquier día, dijo ella, cualquier día menos hoy. Pero tú eres el más ocupado. ¿El lunes, qué te parece el lunes? Ya, el lunes. Hay un lugar, decía él, hay un lugar en la cuadra tres de Camino Real. Un lugar que se llama el Casablanca, por qué no nos vemos allí. Sí, lo conozco. El Casablanca. Vero lo recordaba. Un lugar solitario y limpio. Una buena elección. El lunes entonces. A las cuatro, ¿te parece? Ya. A las cuatro. Otro silencio. Hasta luego, Julio. Adiós. Colgó y miró el reloj. El teléfono sonó. Los Gómez acababan de llegar. Era hora de empezar la reunión. Al llegar a su casa esa noche, besó a Tito, su cocker spaniel, y se sentó frente al televisor. Pasó los canales, revisó los periódicos, y miró el techo. Eran las ocho y media de un viernes. Tenía todo el fin de semana para regodearse en la espera de su cita del lunes. ¿Julio estaba en ese momento en su casa? ¿Qué cara tenía mientras salía al cine con su esposa, pensando, me ha llamado, y voy a verla, qué cara tendría? El fin de semana pasó lentamente. El sábado por la mañana Vero fue al gimnasio, por la tarde salió con su amiga Silvia (le propuso un nuevo sitio de hamburguesas). Silvia la convenció para ir al cine. A ver “Troya”. A Brad Pitt. Me dicen que las piernas se las han recortado con una computadora. No importa. Vamos. Después del cine, unos tragos en el Bohemia y después, después, una peña de música criolla. Hasta las tres. El domingo por la mañana se quedó en la casa acariciando a Tito, leyendo los periódicos. Por la tarde pasó a ver a su madre. Ars Medica. Revista de Humanidades 2004; 2:273-281

279


La marca del león

El lunes temprano, entró al baño y se enfrentó al espejo. ¿La blusa roja con pantalones? ¿El traje blanco con falda? Estaba demasiado corta y sus piernas… no muy agresiva o audaz tampoco, no declarar demasiado con la ropa. Lo mejor sería una blusa azul con pantalones negros. Zapatos con taco pero ancho. Mientras iba a la oficina, desvió el carro. Estaba frente a la oficina de Julio. Unos árboles, unos autos, una puerta grande, un guardián que la miraba. ¿Julio era de llegar temprano? Probablemente sí. Eran las ocho y media. Pero quizá él estaba allí desde las ocho. Esa chica de traje negro y zapatos de taco que entraba al local con su cartera de cadena de oro, ésa lo veía todos los días. Ella, sí. Movió furiosamente la llave. Se cuadró en el estacionamiento, junto a la agencia. Qué patética que eres Vero, esperando a ver a ese hombre en la esquina, qué mal. Por fin, dieron las tres. Entró al baño. Se delineó los ojos. Se pintó, se peinó. Podría entrar al baño otra vez. Pensó en su madre. Salió hacia el restaurante. El Casablanca tenía ventanas anchas y oscuras. Cuadró en la esquina. Caminó, un andar rápido y vacilante. Quería ser la primera en llegar. Llegar antes. Pero al entrar, lo vio. Era él. Era Julio. Era el hombre en el que había pensado todas estas semanas o meses, la forma humana que había tomado su extraordinaria tristeza de estos últimos tiempos. Lo vio pararse a darle un beso, sintió la ligera palmada en los hombros. Se sentó frente a él. Solo entonces, cuando se encontraba sonriéndole, mirándolo sonreírle, fue cuando se dio cuenta de lo que había ocurrido. Julio estaba en buena forma, no había engordado mucho, no había perdido demasiado pelo, tenía un buen semblante a pesar de alguna arruga y algunas canas en las patillas y las sienes. Tenía siempre ese aire atlético y alegre, un optimismo ágil que lo rodeaba como un halo. Pero había algo nuevo. Tenía una marca junto al labio, como una línea gruesa que lo bifurcaba, el esqueleto de un alacrán o de una lagartija, un cuerpo oscuro y unas patitas que brotaban. ¿Era una mancha nueva? ¿Cómo has estado? Tenía tantas ganas, no sé, es que durante estos años, la verdad, he pensado en ti. Y yo también, decía él, y yo también, pero es que… la verdad es que yo era demasiado niña, yo no sé, estaba tan loca, cuántos hijos tienes. Yo me casé pero no tuve hijos. Primero tuve una pérdida, un aborto natural, después me metí a trabajar sin parar y el tiempo fue pasando y no sé, me hice un tratamiento, pero luego tenía un problema con la sangre, tengo sangre Rh negativo y me dijeron que había un riesgo con el segundo hijo. Sufrí mucho y luego también me separé de mi marido. Un sinvergüenza mi marido. ¿Y a tus hijos cómo les va? Bien, creciendo. Muy bien, el mayor ya termina el colegio, quiere estudiar ingeniería de sistemas. Es la carrera de moda. 280

Ars Medica. Revista de Humanidades 2004; 2:273-281


Alonso Cueto

Tenía una sonrisa, una voz tranquila, un trato gentil. Era el mismo. Pero no. Hubo una pausa en la conversación. Julio la tomó de las manos. Vero bajó la cabeza y lo miró de frente. —Julio, dime una cosa. —Sí, ¿qué? Ella miró hacia la ventana y lo encaró. —¿Podrás perdonarme, alguna vez? ¿Podrás? Sonrió. —Claro que sí, no tengo nada que perdonarte. —Ya. Ella lo observaba. —¿Y eso? —Ah… me estás mirando aquí, la mancha esa que tengo, dices. Me han dicho que me la pueden operar. Pero no sé. Si a la gente que me quiere no le importa, no tengo para qué hacerme nada. Con mis hijos hacemos broma de la mancha. Además… -alzó la mano, terminó la taza de café-, es una mancha que siempre tuve. Cuando nos conocimos, ya la tenía. —No la recuerdo -dijo Vero lentamente. Siguieron hablando. Amigos de entonces, recuerdos de fiestas y reuniones, profesores de la universidad. Empezaba a oscurecer. Tengo que regresar a la oficina, a terminar unas cosas. Ha sido lindo verte. ¿Podremos vernos de nuevo? Para conversar, dijo él. ¿No podríamos vernos de nuevo? Claro que sí. Esa tarde, Vero no regresó a la oficina. La mancha se alargaba y de la línea central brotaban las patitas. Fue al mismo restaurante de la esquina y comió frijoles con chicharrones. Luego pidió cinco botellas de cerveza. Se las tomó rápidamente. Esa noche volvió a su casa. Se abrazó a Tito, su cocker spaniel. Llenó la tina de agua tibia y se quedó allí con una revista. Sumergirse en el agua, sentir su cuerpo disolviéndose, sus piernas entre las ondas. ¿Había tenido esa marca también cuando se habían conocido? ¿Eso le había dicho? Una corriente de alivio la estremeció. Esa noche, sacó del cajón la foto de Papo, su ex marido, y la puso en la almohada junto a ella. Se quedó dormida.

Ars Medica. Revista de Humanidades 2004; 2:273-281

281


Crítica

La sombra de John Ford The Shadow of John Ford ■ Miguel Marías ■ Cualquiera que haya visto alguna película de John Ford —sea en color o en blanco y negro, muy antigua ya o, dentro de lo que cabe, "reciente", es decir, como cercana, de 1965— se habrá dado cuenta, por muy distraído que sea, de la importancia que tienen las sombras en su cine, en una medida que está, sin duda, por encima de lo que se puede considerar "normal" en un arte que está hecho, primariamente, de luces y sombras, y desde finales de los años 20 o comienzos de los 30 —según los países— también de sonidos, que en las películas de Ford son a menudo capaces de dejar marcas igualmente indelebles (las músicas, las canciones, las voces, algunos ruidos). Pero el hecho de que nuestra memoria —incluso distante— del cine de Ford esté constituida, fundamentalmente, por sombras, no es algo anecdótico, pues nos recuerda un dato esencial, aunque no exclusivo de este director: su formación durante el periodo mudo y la primacía expresiva que ha conservado siembre en sus obras la imagen; pese a que podría decirse que Ford necesitaba el sonido para llegar a ser verdaderamente él mismo, sus mayores logros se reparten casi equitativamente entre los cuatro decenios finales de su dilatada carrera: de mediados los años 30 a la primera mitad de los 60. De las pocas que se conservan de las décadas de los 10 y los 20 hay varias excelentes, y cabe que aparezca todavía alguna aun mejor y que, por cualquier razón, en su época no llamara la atención, pero ninguna de las conocidas alcanza la altura de las mejores sonoras, y la verdad es que parece improbable que un tardío hallazgo hipotético pueda superarlas, porque Ford, aunque pudiera arreglarse muy bien sin diálogos, necesitaba del sonido para alcanzar una plenitud en la que música y voces habían de desempeñar una función fundamental, como vehículos de evocación y conductores de la emoción. Ford aprendió a bastarse de la imagen silenciosa, y pensaba automáticamente con imágenes. No se limitó nunca a ilustrar textos ni convertía en estampas piezas dramáticas, relatos breves o capítulos de novela, por mucha que fuera su capacidad para traducir ideas en imáEl autor es crítico de cine. 282

Ars Medica. Revista de Humanidades 2004; 2:282-287


Miguel Marías

genes en movimiento, o al menos palpitantes, aunque la cámara permaneciese casi siempre quieta, ligeramente apartada, sin llamar la atención, y los actores no se agitaran ni cayeran en el histrionismo ni siquiera en los momentos de mayor tensión dramática o en las breves explosiones de violencia que salpican algunas de sus obras más conocidas. Aunque tuvo muy mala vista desde joven —el fotógrafo de ¡Qué verde era mi valle! (1941) declaró que ya entonces apenas veía ¡con el ojo sano!— y es uno de los varios tuertos ilustres que, curiosamente, pueden contarse entre los más grandes cineastas de la Historia, tenía un "ojo" inigualable para la composición y el encuadre, para evocar la luz y los colores que apenas vislumbraba, y parece que casi a tientas colocaba a los actores donde su imaginación le dictaba, visualizando mentalmente sus ademanes. Como ir perdiendo la visión parece reforzar la memoria, y hacer que lo entrevisto cobre mayor valor y se grabe con mayor profundidad en ella, no es raro que su cine esté hecho, muy primordialmente, de recuerdos, y que la acción de la mayor parte de sus películas se situé, consecuentemente, en el pasado (de hecho, son contadas las películas que rozan la actualidad, incluso que abordan temas o sucesos contemporáneos al rodaje). Pero el pasado, en cuanto nos descuidamos, es historia y conflictos, a menudo convertidos, para poder soportarlos y asimilarlos, en mitos más o menos embellecidos o suavizados, idealizados o sublimados. No debe extrañar, pues, que en múltiples ocasiones Ford se viera abocado a confrontar y analizar ambas visiones o "versiones" del pasado, la “verdadera” y la “ficticia”, y que al menos en tres películas importantes mostrase cierto empeño en explicar cómo y por qué nacen los mitos (Fort Apache, 1948), por qué tienden a persistir (El hombre que mató a Liberty Valance, 1962) y lo que encubren, minimizan o edulcoran (Cheyenne Autumn, aquí indignamente motejada El gran combate, 1964). Como le gustaba rodearse de amigos y conocidos, en cada etapa de su carrera, en el seno de cada productora en la que estuvo un cierto tiempo contratado, lo mismo que cuando pudo disfrutar de una cierta independencia, Ford tendió a emplear con asiduidad y constancia a un grupo de técnicos y actores fijos, que se alternaban en los diferentes papeles y que contribuyeron a dar sus películas una profunda sensación de uniformidad. Si cambiaba el director de fotografía, el decorador, el músico o el montador, si los intérpretes principales se suceden según las obras y los periodos, el estilo plástico tiende a permanecer y los actores de reparto son casi los mismos, o miembros de una misma "familia", a veces en sentido no figurado. De ahí, para el espectador asiduo, como para el que paulatinamente va trabando relación con su copiosa filmografía, una sensación de familiaridad, de moverse en terreno conocido, de reencontrarse de nuevo con viejos amigos, que da calor a sus películas y resulta, por lo general, muy grata, además de favorecer su difusa pero inmediata incorporación a nuestra propia memoria de espectadores. Así, las imágenes contribuyen a crear la dimensión afectiva, la emoción que, sobre cualquier otro rasgo, caracteriza las películas de John Ford, y que no me cabe duda era el objetivo principal al que aspiraba como creador, más allá del placer de contar historias, recrear ambientes y épocas pretéritas. Ars Medica. Revista de Humanidades 2004; 2:282-287

283


La sombra de John Ford

Se le ha reprochado a menudo a John Ford —fue célebre y famoso, pero siempre tuvo multitud de detractores— su "sentimentalismo” irlandés, quizá para tratar de defenderse de la emoción que, sin que uno quiera, tiende a contagiar al espectador no maliciado de sus películas. No sé exactamente cómo lo conseguía, pero su sentido dramático le permitía hacernos sentir, sin necesidad de subrayados ni planos subjetivos, sin insistir con la música, apenas con palabras, sin olvidar nunca el humor, las emociones más hondas e íntimas, de sus personajes, silenciando o disimulando las suyas, que, sin embargo, es posible detectar bajo la máscara del laconismo y la socarronería, de la aparente distancia, a veces de la ironía o del deje afectuosamente burlón con que trata a los personajes por los que siente más cariño, a veces una complicidad fraternal. Se diría, al analizar una secuencia representativa de Ford, que el cineasta se avergonzaba de sus sentimientos y quería trasmitirlos como si no los hiciese suyos, con fingida impavidez, brevemente y sin énfasis, lo que le conducía a representarlos con una sobriedad admirable y un ritmo ejemplarmente expeditivo en el tratamiento de lo más dramático y de la misma violencia, relativamente frecuente en su obra, por razones de fidelidad a la historia, pero en la que nunca se complace. Hay conmovedoras historias de amor, secretos y sentimientos que jamás se mencionan, de los que nadie dice una palabra, que en los diálogos no existen, que no describe ni analiza el guión, pero con cuya seca evidencia nos topamos en una esquina del encuadre, en un plano fugaz, en una mirada silenciosa y de inmediato disimulada, en un elocuente gesto mudo que el director no aísla ni destaca, dejando la cámara inmóvil, sin aproximarse siquiera al ademán revelador. Así sucede, por ejemplo, en las hoy reconocidas obras maestras Centauros del desierto (1956) o El hombre que mató a Liberty Valance —que en su momento fueron ignoradas, tratadas como dos westerns cualesquiera, del montón, y el segundo incluso como una muestra de declive senil y pérdida de energía—, pero también, y no menos, en obras todavía hoy menos conocidas e incluso insistentemente menospreciadas, como El juez Priest (1934), Steamboat Round the Bend (1935), They Were Expendable (1945), Los tres padrinos (1948), Cuna de héroes (1954), Escrito bajo el sol (1956), El último hurra (1958), El sargento negro (1960) o Dos cabalgan juntos (1961), o injustificadamente consideradas como "menores", cuando no "de decadencia", como Río Grande y Caravana al Oeste (1950), El sol brilla en Kentucky (1953), La taberna del irlandés (1963) o 7 mujeres (1965). Es esto precisamente, sin embargo, lo que hace de una riqueza única e inagotable sus películas más logradas y personales, que no son siempre las más famosas, premiadas o taquilleras, casi todas repletas de secretos palpables o sensibles pero que es difícil señalar, que pueden pasar desapercibidos si no se mantiene una constante actitud vigilante, porque es fácil que escapen a quien no sostenga la mirada fija en la pantalla, sin prestar la atención que merece un trabajo minucioso aunque, presumiblemente, más instintivo o intuitivo que deliberado. Pero claro, los prejuicios son tan fuertes y están tan extendidos y arraigados que no se pide ni se espera sutileza ni discreción de géneros como los que con mayor frecuencia relativa 284

Ars Medica. Revista de Humanidades 2004; 2:282-287


Miguel Marías

abordó Ford, y a los que se le tiende a atribuir una dedicación casi exclusiva, o al menos prioritaria, como el western, pero que en modo alguno agotan —ni siquiera dominan— su vasta y muy variada filmografía. Es cierto que un buen número de sus películas más populares — incluso alguna de las más apreciadas críticamente— son "de vaqueros", "de indios" o "del Oeste", y es curioso, en cambio, que pese a su reconocida obsesión por la Guerra de Secesión, la guerra civil americana -de la que Ford era, según todos los testimonios, un verdadero experto-, hiciera muy pocas incursiones cinematográficas en ella —básicamente Misión de audaces (1959) y el episodio La guerra civil de la superproducción en Cinerama La conquista del Oeste (1962), de cuyos restantes capítulos se encargaron otros directores—, pero conviene no olvidar tampoco que durante doce años seguidos (1927-1938), y luego durante seis más (19401945), a pesar del éxito singular respectivo de El caballo de hierro (1924) y Tres hombres malos (1926) y de La diligencia (1939), no rodó ningún western, que no desdeñó la comedia ni las diversas variantes (aérea, naval y terrestre) del género bélico y cultivo múltiples facetas del cine de aventuras —desde Huracán (1937) en los Mares del Sur hasta Mogambo (1953) en África—, que filmó algunas biografías —en general, de personajes a los que había conocido o a los que, en todo caso, como en el de El joven Lincoln (1939), admiraba con devoción— y que —a pesar de su patente amor a la música y a las canciones— nunca hizo un musical en sentido estricto, ni un film "negro", aunque sí filmase una crónica "policiaca" cotidiana sumamente británica —Un crimen por hora (1958)—, y tenga en su haber varias adaptaciones de obras literarias de prestigio —John Steinbeck en Las uvas de la ira (1940), Eugene O'Neill en Hombres intrépidos (1940), Graham Greene en El fugitivo (1947), Sean O'Casey ya en los años 30, Liam O'Flaherty en El delator (1935)—, aunque habitualmente prefiriese tomar como punto de partida relatos breves desconocidos, publicados en revistas, o inspirarse subrepticiamente, para algunos detalles, en los magníficos cuentos de Guy de Maupassant. Dedicó una parcela de su obra —desde los años 20 a los 60— a la Irlanda de sus padres y antepasados, tierra “perdida” por la que sentía una intensa y apasionada añoranza, en parte legendaria e idealizada —véase, sobre todo, El hombre tranquilo (1952)—, sin olvidar su omnipresencia indirecta —a través de personajes, canciones y melodías, costumbres y tradiciones— en las películas estrictamente americanas, pero también consagró una de sus obras más sentidas y cargadas de nostalgia al próximo pero ajeno país de Gales, la ya mencionada ¡Qué verde era mi valle!, que sigue siendo una de sus películas más representativas y reveladoras de su carácter y su concepción tanto del cine como de la vida. Más allá de los géneros, las épocas y los escenarios en que se sitúa la acción de sus aproximadamente 160 películas, el cine de John Ford se revela, pese a su variedad y al ingente tamaño de su obra, que nadie puede abarcar porque está en buena parte perdida, de una profunda unidad temática, estilística y ética, que resulta asombrosa, y de un nivel de calidad y exigencia que parece incompatible con hacer tres o cuatro películas al año durante largos periodos de su carrera: a veces son las tres tan maravillosas que es difícil escoger una como la mejor que rodó ese año, por ejemplo 1939. Ars Medica. Revista de Humanidades 2004; 2:282-287

285


La sombra de John Ford

Con todas las convenciones narrativas, representativas y plásticas solía tomarse notables libertades, y no tanto por un prurito de originalidad o rebeldía, sino más bien porque ese era su estilo de contar historias y su manera de ser, y procuraba, siempre que podía, salirse con la suya y hacer lo que le apetecía y tal como le gustaba hacerlo, esperando que el público lo comprendería y lo disfrutaría igual que él mismo, y que eso le permitiría seguir actuando con un cierto margen de libertad —el suficiente, aunque casi nunca el ideal— dentro de la maquinaria industrial de Hollywood en la que logró introducirse muy joven y de la que nunca consiguió apartarse lo bastante, ya que todas sus tentativas por conquistar la plena independencia acabaron, antes o después, en la bancarrota. No deja de ser curioso que, las pocas veces que se dejó entrevistar, tendiese a tomar el pelo a los interrogadores y a no revelar prácticamente nada; era reacio a hablar de su trabajo, del cine en general y del propio en particular, pero las dos o tres veces que en su vida condescendió a enumerar sus películas favoritas, de entre las que él mismo había dirigido, tendió casi siempre a destacar, sin mencionar exactamente las mismas, varias de las que menos éxito comercial y crítico habían tenido, justificando su predilección con un argumento muy extraño en boca de un cineasta clásico americano: “las hice para mí mismo”. Nunca ocultó la deuda de gratitud que sentía para con la figura —que se agiganta con el paso del tiempo, pese al ocaso de su reputación y al creciente olvido de su obra, que las nuevas generaciones ignoran— de D. W. Griffith, en cuyo discutido y monumental Nacimiento de una Nación (1914) había intervenido, según la leyenda, cubierto con una capucha del Ku Klux Klan y montado a caballo, como simple extra, y del que afirmaba haber aprendido buena parte de lo que sabía; la otra parte la acreditó siempre a su hermano mayor, el actor y director antes que él Francis Ford, que le dio sus primeras oportunidades en el cine y al que él mantuvo como actor secundario de sus películas hasta la hora de su muerte. El cine de Ford puede parecer hoy antiguo o, como se dice de este arte con una crueldad desdeñosa que, curiosamente, no se aplica para la pintura ni la literatura o la música, “viejo”. Su obra permanece viva, sin embargo, y se programa con bastante frecuencia —al menos una porción de ella— en las televisiones de todo el mundo; en parte, está disponible en vídeo o en DVD, y por tanto cabe consultarla, revisitarla o conocerla en cualquier momento. Si, a pesar de su aparente sencillez, se mantiene vigente es precisamente porque permanece intacta su capacidad para conmover y emocionar hasta cuando nos pinta y describe, a través de sus actos y sus modales, a personajes con los que nada tenemos que ver, que nada deberían importarnos, que quizá en la vida real ni nos interesarían ni nos resultarían simpáticos o atractivos, y a los que su cámara, sin acercarse excesivamente a ellos, sin aislarlos de su contexto histórico o geográfico o social, sin disimular u ocultar sus defectos o sus posiciones discutibles o erradas, nos aproxima lo bastante como para que lleguemos, siquiera durante hora y media, a conocerlos y, mediante el conocimiento, a valorarlos y apreciarlos en lo que puedan tener de bueno, que de algún modo les redime de sus fallos o equivocaciones, de su empecinamiento o su fanatismo irracional. Esa generosidad y amplitud de visión, hoy infrecuentes en 286

Ars Medica. Revista de Humanidades 2004; 2:282-287


Miguel Marías

el arte, explican la perdurable grandeza de algunos creadores del pasado, que seguirán igualmente vivos, cabe apostar por ello aunque no lo veamos, así que pasen dos siglos e incluso si el cine, tal como ha sido durante cien años y todavía es hoy, dejara de existir y cediera el paso a otra forma de contar historias con imágenes y sonidos.

Ars Medica. Revista de Humanidades 2004; 2:282-287

287


Miscelánea

El señor Kant se hace mayor Mister Kant Comes of Age ■ Javier Ordóñez El pasado 22 de abril se cumplió el bicentenario de la muerte de Immanuel Kant (1724-1804). Han pasado doscientos años, dos siglos que nos han dejado la herencia petrificada de un filósofo al que tratamos más como un fósil que como un pensamiento vivo. Y precisamente por ello, optaré por rendir un homenaje al Kant inseguro de los primeros años de juventud frente al pensador triunfante y estereotipado. Ahora se acentúa la importancia del Kant maduro, tratando de reivindicar su “vigencia” por medio de preguntas como: ¿qué queda del Kant gnoseólogo, del Kant ético en nuestra cultura? ¿Cuál de los dos es más importante? En verdad, son preguntas tan académicas y respetables como manidas. Kant ha vivido en el pensamiento y los escritos de muchos científicos desde las primeras décadas del siglo XIX, provocando tanto adhesiones como controversias y críticas. Ofrezco como ejemplo científicos tan diferentes como August Moebius, William Rowan Hamilton, Carl Weierstrass, Henri Poincaré y Ernst Zermelo. Ninguno de ellos se recreó en preguntas como las anteriores, tal vez porque Kant no era entonces el negocio filosófico boyante que fue a partir de las primeras décadas del siglo XX, cuando se explotó a fondo la industria kantiana. Por todo ello, creo más adecuado dirigir brevemente la atención hacia el Kant joven, a los años de su vida anteriores a ese periodo que se suele denominar sumariamente como precrítico, denominación que parece dictada más por la pereza que por el ánimo de entender los itinerarios intelectuales del filósofo de Könisberg. Ya en el primer centenario de su muerte, en 1904, el filósofo alemán Hans Veihinger fundó la Kant-Gesellschaft, una sociedad dedicada al estudio de la obra y pensamiento de este filósofo. Gracias a su trabajo, los investigadores de la historia del pensamiento filosófico disponen de una edición cuidada de sus obras. La actividad de Kant-Studien, la revista que llegó a convertirse en su órgano oficial, ha continuado hasta nuestros días, aunque haya sufrido algunas interrupciones en su publicación. No parece que en este segundo centenario se llegue a realizar una contribución tan significativa a la filosofía kantiana, aunque, sin duda, servirá para analizar la vida de Kant y convertirlo en parte de alguna historia. En definitiva, el gran filósofo de Könisberg merecería tomar carne mortal e histórica y, en este caso, converEl autor es Profesor del Departamento de Lingüística, Lenguas Modernas, Lógica y Filosofía de la Ciencia de la Universidad Autónoma de Madrid (Madrid, España). 288

Ars Medica. Revista de Humanidades 2004; 2:288-294


Javier Ordóñez

tirse en alguien que vivió en un mundo concreto con el que mantuvo intercambios de intereses y aficiones; un mundo con encantos y problemas que determinaron sus puntos de vista y sobre el que pudo influir a través de su trabajo. Cuando se enumera la lista de los más prestigiosos filósofos de todos los tiempos, Kant suele figurar en ella. Se le considera una de las fuentes de la filosofía alemana contemporánea, aunque no se le integre en la filosofía romántica y más bien se le encasille en la Ilustración. En todo caso, como sucede con filósofos de pensamiento fuertemente personal, Kant es difícilmente clasificable. Muchos de los filósofos alemanes de la generación inmediatamente posterior lo consideraron un provinciano, tanto en cuanto a costumbres personales, como en lo que se refiere al carácter de su pensamiento. Posteriormente, el manierismo de algunos analistas de su pensamiento restringió el interés de su obra al periodo crítico, Crítica de la razón pura, Critica del juicio y obras satélites. No cabe dudar del interés de esos trabajos, ni de su carácter medular, pero la vida intelectual de Kant mantuvo una cierta unidad de intereses y de búsqueda que, habitualmente, queda camuflada por una restricción tan radical que considera todo lo anteriormente escrito por el autor como parte de un periodo de espera, de tentativas ciegas y de sueños dogmáticos. Así, la vida de Kant queda convertida en una biografía paulina en la que un conjunto de lecturas provocó una conversión radical, de la que surgió el “nuevo” Kant desprovisto del dogmatismo metafísico al que debía combatir desde el mismo momento de su conversión, eso sí, racional. Esta presentación tan sumaria, en la que además se suele destacar su puntualidad, su odio a los viajes y su talante más o menos huraño, es bastante habitual. El colmo de su excentricidad fue, se suele añadir, no sólo que nació en una ciudad del extremo oriente europeo, Könisberg, sino que además nunca salió de ella. Así, habría sido un filósofo concentrado en su dedicación al estudio, y para explicarlo se hace notar su soltería e incluso su hipotética virginidad. Todo ha jugado a favor de la creación de este estereotipo y a su difusión. Las recientes investigaciones sobre su biografía aportan detalles de su actividad intelectual y de su medio cultural que ayudan a entender mejor la generación de sus intereses en una vida menos paulina, más ilustrada y, sin duda, más rica. No obstante, parece poco razonable pretender aquí una revisión de toda su biografía, ni siquiera completarla. En todo caso, sí conviene centrarla en su contexto histórico ilustrado alemán, perspectiva donde adquiere su auténtico interés. Kant no fue un profesor de universidad al modo en que lo han sido muchos filósofos posteriores, ni lo que los herederos de la filosofía romántica quisieron que fuera. Kant vivió antes de la gran fractura gremial que, en las primeras décadas del siglo XIX, se produjo en Alemania entre los filósofos y los científicos de la mano del gran debate romántico sobre la Naturaleza. Kant fue, por el contrario, un pensador seducido por el conocimiento de las ciencias nuevas que se expandieron por Europa durante el siglo XVIII provenientes de Gran Bretaña, de Francia, de Holanda, y del norte de Italia, primordialmente. Desde su primeras obras hasta el conjunto de escritos que se denomina Opus postumum, late su interés por las ciencias de su época. Tal vez ese interés fue muy evidente para muchos científicos alemanes Ars Medica. Revista de Humanidades 2004; 2:288-294

289


El señor Kant se hace mayor

del siglo XIX que estudiaron las obras kantianas antes de que los filósofos profesionales se convirtieran en custodios de su pensamiento. Situemos a la Könisberg de Kant en el mapa de la época. Era una ciudad prusiana de origen medieval, fundada en 1255 por los caballeros teutones, asociada desde 1340 a la Liga Hanseática y capital de Prusia hasta 1701. Cuando nació Kant en 1724, Prusia estaba dividida en dos zonas geográficas separadas y Könisberg era la capital de la zona oriental, pero la cabeza política del reino se había asentado en Berlín. El reino de Prusia se había occidentalizado y los reyes residentes miraban al Oeste. A pesar de todo, Könisberg se mantenía como un puerto importante en el Báltico; un lugar que acogió minorías significativas de europeos que llegaron hasta allí por motivos comerciales, como era el caso de los holandeses o británicos; o por motivos religiosos, como ocurría con la minoría hugonote que huyó de Francia llevando su lengua y costumbres; o la minoría judía, siempre amenazada, que encontró en la ciudad una relativa buena acogida en aquellos tiempos. Könisberg era así una ciudad pequeña para las dimensiones de nuestra época, pero no una ciudad provinciana o aislada. Sirva de ejemplo que, a lo largo del siglo XVIII San Petersburgo se convirtió en la nueva y pujante ciudad rusa donde se fundó una academia de ciencias que acogió a Leonard Euler, uno de los matemáticos más prestigiosos de su época (quien con el tiempo también residió parte de su vida en Berlín, en la Academia de Ciencias). Es razonable pensar que Kant estuviese al tanto de los trabajos científicos y de las opiniones filosóficas de ese matemático y de otros pertenecientes a las diferentes sociedades que mostraban una gran pujanza en el cultivo del conocimiento. Könisberg no estaba tan lejos del resto del mundo europeo como para no conocer el auge de la influencia de Newton, por más que las universidades prusianas estuvieran bajo la influencia de los leibnizianos, y especialmente de Wolf. La universidad de Könisberg no era la más importante de Prusia. Sin duda, la universidad de Halle era la más famosa, pero debe recordarse que, en términos generales, el siglo XVIII fue la época de mayor depresión del sistema universitario. En Könisberg, la universidad no disponía de una biblioteca suficientemente dotada, sus planes de estudios estaban organizados en secciones con regusto medieval, donde la filosofía era una facultad menor al servicio de las facultades de teología, derecho y medicina, y lo que hoy conocemos como “disciplinas científicas” estaban casi fuera del alcance de los estudiantes. Apenas se estudiaban ciencias tan pujantes como la nueva matemática, que se impulsaba desde los desarrollos del análisis infinitesimal, o la química que se asentaba como una ciencia experimental con gran futuro. Una parte significativa de los que se interesaban por la filosofía estudiaban teología y terminaban por entrar al servicio de la Iglesia como pastores. Las cuestiones más “científicas” relacionadas con la naturaleza se trataban en la facultad de medicina, si es que llegaban a atraer la atención de algún miembro de la universidad. No era una situación que se diferenciara de la de muchas universidades europeas el siglo XVIII. Durante la mayor parte de ese siglo, las ciencias se desarrollaron en el seno de las sociedades ilustradas que nacieron en torno a las cortes, y que gozaron de patrocinio o al menos de protección de los gobiernos. 290

Ars Medica. Revista de Humanidades 2004; 2:288-294


Javier Ordóñez

En este contexto se formó Kant, en una universidad que gozaba de poco prestigio pero que, mejor o peor, actuaba como caja de resonancia de los problemas intelectuales que se planteaban en el mundo exterior. La singularidad de Kant es que se dio cuenta de la importancia de esos problemas y que no quedó esterilizado por el contexto universitario. Kant ingresó en la universidad en el año 1740 y no la abandonó nunca. Incluso los seis años que vivió fuera de Könisberg, porque Kant vivió tiempo fuera su ciudad natal, fue miembro de la universidad. En resumen, fue un universitario en época de preeminencia de las sociedades científicas e interesado por las cuestiones que se debatían en ellas. Contrariamente al estereotipo, Kant era un hombre de mundo que frecuentaba salones de los ilustrados prusianos, que se mostraba encantador con las damas y al que le gustaba viajar por Prusia oriental. ¿Qué le interesaba a Kant en la época de estudiante? La universidad, como ya se ha dicho, era una caja de resonancia de debates entre metafísicas de diferente orientación. Los aristotélicos todavía tenían su voz, a la que se añadía la de los cartesianos, y la de los supuestos seguidores de Leibniz que combatían contra la gran cruzada científica en que se convirtió la aventura newtoniana en el continente. No siempre se trataba de debates generales, sino de disputas en torno a problemas específicos que tenían que ver con el cálculo, la mecánica, la naturaleza de las combinaciones químicas, el origen de los planetas, las formas de manifestarse la vida o con la autonomía de los reinos. Muchas veces, se veían impulsados por las sociedades ilustradas o las academias de ciencias, que convocaban premios para dirimir las cuestiones más candentes. Otras veces, las opiniones se manifestaban en opúsculos o en publicaciones de la índole más diversa, que alimentaban los debates incluso en el ámbito local de una universidad determinada. La primera obra escrita por Kant trató sobre el problema de las fuerzas vivas que enfrentaba a cartesianos y leibnizianos, en el que también terciaban los newtonianos. La cuestión se planteaba de muchas formas, pero también a la manera metafísica: se trataba de saber si todos los movimientos podían explicarse por medio de la magnitud cartesiana de la cantidad de movimiento, o si era necesario suponer que existía una cualidad íntima en las sustancias, una fuerza viva, que pudiera expresar algún tipo de actividad desde su interior. A lo largo del siglo XVIII el debate derivó hacia consideraciones más matemáticas, sobre si se podría construir la mecánica como ciencia matemática simplemente por medio de un principio de conservación de la cantidad de movimiento, o si eran necesarias consideraciones sobre fuerzas, a la manera de Newton; o si convenía tomar en consideración la conservación de la fuerza viva de origen leibniziano. La polémica alcanzó mucha notoriedad y hubo un sinnúmero de colaboraciones que oscurecieron una cuestión ya de por sí bastante compleja. El librito de Kant contribuyó a fortalecer la confusión, pero lo importante no es fijarnos en la respuesta que dio al problema, sino destacar su interés por este tipo de cuestiones. Podemos establecer la siguiente conjetura: el joven Kant era muy ambicioso intelectualmente hablando; estudiaba a los pensadores y escritores antiguos a los que respetaba pero no veneraba; convivía en una sociedad universitaria pietista que, sin embargo, estaba muy influiArs Medica. Revista de Humanidades 2004; 2:288-294

291


El señor Kant se hace mayor

da por el leibniziano Wolf, y estaba atento a las discusiones que consideraba más prometedoras. Su ambición se centraba en saber cuál de los problemas intelectuales era más fecundo, porque sabía que no todos llegarían a tener la misma proyección en el futuro. Así, apuntó a los que consideró más prometedores, y comprobó una y otra vez que sus herramientas conceptuales eran inadecuadas para obtener de ellos ningún fruto. La conjetura se podría expresar diciendo que el Kant joven, el Kant estudiante, y luego tutor, y luego Magíster pudo tener éxito entre sus estudiantes por su penetración en los análisis realizados en las clases o en sus conferencias; pero intelectualmente tuvo la sensación de no estar a la altura de aquellos que resolvían los mismos problemas en el exterior, en las academias y en las sociedades ilustradas. Kant, por ejemplo, se interesó mucho por la teoría cometaria. Knutzen era un profesor suyo en la universidad que había predicho el regreso del cometa de 1698 para el año 1744. Efectivamente, en 1744 se atisbó un cometa, y todos los estudiantes y ciudadanos de Könisberg pensaron que Knutzen era un nuevo genio. Para celebrarlo, publicó un escrito sobre los cometas (Pensamientos sobre los cometas) que era un ensayo de naturaleza metafísica, al estilo wolfiano. Parece que su publicación despertó la vocación o la curiosidad de Kant. Pero la alegría no es muy larga en la casa del pobre, y Euler demostró que Knutzen estaba equivocado: el cometa del 1744 no podía ser el del 1698 dadas las características de su órbita y otros parámetros mecánicos. Kant también supo de las opiniones de Euler, y la metafísica se le reveló así como una herramienta inadecuada para describir los cielos. La relación de Kant con la ciencia, con las ciencias de su tiempo, ha sido objeto de estudio y de debate. Es probable que se sintiera tentado por ellas al considerarlas, más que sistemas de conocimientos, auténticas redes generadoras de problemas más o menos bien definidos y que se podían abordar con diversas herramientas. Pero, no todas daban el mismo resultado. Ante eso, la respuesta de muchos filósofos, ya en su tiempo, fue que los problemas de las ciencias eran intelectualmente banales. Algo así como decir: los únicos problemas interesantes son los que puede resolver la metafísica con sus herramientas. En el siglo XVIII, los métodos no estaban tan perfilados como para creer que las cuestiones relacionadas con las matemáticas, con la física, con la naturaleza de los cuerpos celestes o terrestres, o con la mecánica, debían abordarse de una y sólo de una forma. De hecho, la Ilustración tuvo un carácter metodológico mixto, no sólo porque se cruzaran los supuestos métodos filosóficos y científicos, sino también porque las denominaciones de los saberes ayudaban a que las fronteras fueran borrosas. Por ejemplo, lo que tenía que ver con la física no se consideraba necesariamente relacionado con la mecánica como una ciencia de la materia y el movimiento; también podía tratase de asuntos de dinámica, ciencia más cercana a ideas provenientes de teorías de la sustancia, tanto de origen neoaristotélico como leibniziano. Sin embargo, Kant no era un historiador de la Ilustración, sino un pensador de su época que padeció esa confusión metodológica, y tal vez, su mayor sagacidad, frente al resto de sus contemporáneos, fue darse cuenta de que sus soluciones no eran lo suficientemente precisas, afiladas y definitivas. Si es cierto que llegó a ver las cosas de este modo, la gran obra crítica kan292

Ars Medica. Revista de Humanidades 2004; 2:288-294


Javier Ordóñez

tiana no proviene sólo de una conversión, sino de una frustración; o, mejor, de una serie de frustraciones que comenzaron en el preciso momento en el que se sentó a escribir sus primeros ensayos. Ya he mencionado que el escrito de Kant en torno a la polémica sobre las fuerzas vivas hoy nos sirve para mostrar hasta qué punto la cuestión se había estancado en consideraciones metafísicas. El esfuerzo de Kant se embotó en el manierismo de la escolástica postleibnizaina. Otro tanto ocurre con dos escritos de 1754 sobre problemas relacionados con la mecánica de la Tierra publicados en un semanario de Könisberg. El primero trataba de resolver el problema de si la Tierra había experimentado algún cambio en sus movimientos a lo largo del tiempo, y el segundo, si la Tierra envejece desde un punto de vista físico. Son dos problemas relacionados entre sí que habían sido propuestos a discusión entre los sabios por la Academia de Ciencias de Berlín. La Academia había convocado el premio en la idea de que era un nuevo test para probar la capacidad explicativa de los distintos sistemas físicos todavía en disputa, cartesianos y leibnizianos. En realidad, se trataba de un desafío que se esperaba resolver de una manera matemática o cuantitativa. El prestigio de Newton ya era inmenso en la década de los cincuenta. La polémica sobre la forma de la Tierra había sido la caja de resonancia para aumentar la credibilidad de la teoría gravitacional. Kant no entró en los aspectos mecánicos del problema y, aunque posteriormente a la fecha de publicación de estos ensayos enseñara matemáticas en Könisberg, su información en la materia era bastante precaria, o al menos no le permitía sumergirse en la versión analítica de la mecánica que tan bien dominaban Euler y otros colegas de las academias. Así se restringió al aspecto “físico”, es decir, metafísico, en ambos casos. En 1755, Kant publicó un libro titulado Historia general de la naturaleza y teoría del cielo, un trabajo que probablemente había sido redactado a lo largo de los cuatro años anteriores. En realidad no era un tratado mecánico del cielo deducido matemáticamente a partir de principios newtonianos. Más bien, era una enorme conjetura imaginativa acerca de cómo se había formado el cielo, eso sí, basado en hipótesis newtonianas. Se enmarcaba dentro de la tradición de Thomas Wright, un teólogo natural inglés que había elaborado una descripción de cómo podría ser el universo estelar considerado desde el punto de vista de un Dios que hiciera gravitar la totalidad del universo en torno de sí mismo; eso sí, usando la teoría newtoniana de la gravitación. Kant no era amante de la teología, pero sí de la filosofía natural newtoniana, y en este libro desarrolló la hipótesis de que el mundo había sido formado a partir de una nebulosa que se fue transformando en el sistema solar que ahora vemos, y en otros sistemas solares que podrían estar diseminados por el universo conteniendo civilizaciones parecidas a las de los humanos de la Tierra. El libro fue un fracaso editorial, pero ha llegado hasta nosotros para mostrarnos la admiración que Kant sentía por Newton. Como hemos visto, Kant estuvo profundamente influido por las polémicas en torno a la ciencia de su época. Podemos citar otros ejemplos, como su vivo interés por la teoría del fuego y de la chispa eléctrica, muy de moda por aquel entonces. En el decurso de sus preocupacioArs Medica. Revista de Humanidades 2004; 2:288-294

293


El señor Kant se hace mayor

nes por estos problemas, comprobó que la metafísica en la que había sido educado no era una herramienta con mordiente para abordarlos. Pero no fue únicamente la lectura de Hume y la de otros ingleses lo que le despertó de su sueño dogmático, como creo haber reseñado; también influyó de manera notable su experiencia negativa en el tratamiento de los problemas mecánicos para lo que no tenía suficiente conocimiento matemático. Algo que le hizo concentrarse en el estudio de las características del conocimiento puro. Prueba de ello es que nunca perdió interés por la ciencia particular, la cinemática, la mecánica, la química o la astronomía. En Principios metafísicos de la ciencia de la naturaleza, una obra de 1785, es decir, posterior a la Crítica de la razón pura, todavía se plantea el sentido gnoseológico de la foronomía y de la mecánica. El atractivo que para él tuvieron las ciencias particulares no le abandonó nunca.

294

Ars Medica. Revista de Humanidades 2004; 2:288-294


Miscelánea

Tratamiento actual de la ascitis: un ejemplo de investigación traslacional Current Treatment of Ascites: an Example of Translational Research ■ Juan Rodés y Antoni Trilla En los últimos 50 años se ha producido un progreso científico extraordinario de la biomedicina, que ha permitido introducir nuevas tecnologías diagnósticas y terapéuticas, y ha conseguido mejorar la calidad y aumentar la esperanza de vida de los ciudadanos. Sin embargo, en muchas ocasiones, la transferencia de los nuevos conocimientos adquiridos en los laboratorios de investigación básica no se realiza, o se plasma, al menos aparentemente, de una forma más lenta de la esperada. Por todo ello, en los países más desarrollados se le está dando prioridad a la investigación que llamamos de transferencia o traslacional, con el objetivo de que los conocimientos básicos obtenidos se puedan trasladar lo antes posible a la actividad clínico-asistencial. Para cumplir este objetivo es imprescindible que haya un trabajo en equipo en el que intervengan investigadores básicos y clínicos en un proyecto común. Por tanto, la creación de equipos multidisciplinarios en los hospitales con nivel científico contrastado es una condición imprescindible para que este tipo de investigación se acompañe del éxito. Ésta es la única forma de lograr que los problemas clínicos que plantean los pacientes puedan resolverse mediante una investigación adecuada (1). Existen numerosos ejemplos sobre los beneficios potenciales de la investigación biomédica traslacional, tanto en ensayos clínicos como en la evaluación de servicios de salud. Algunos beneficios son secundarios, como los que emanan de la investigación de nuevas indicaciones para fármacos desarrollados para otras enfermedades, que surgen de los nuevos conocimientos fisiopatológicos o clínicos obtenidos tras su comercialización. La importancia de estas indicaciones “secundarias” es, en ocasiones, tan elevada que puede representar el 40% de las ventas totales (2). Es evidente que la investigación clínica de calidad solo es posible si la asistencia prestada es también de calidad. Además, la investigación clínica mejora la calidad profesional de los Los autores son médicos y trabajan en la Unidad de Hepatología. Hospital Clínico. Institut d’Investigacions Biomèdiques August Pi i Sunyer (IDIBAPS). Universidad de Barcelona (España). Ars Medica. Revista de Humanidades 2004; 2:295-298

295


Tratamiento actual de la ascitis: un ejemplo de investigación traslacional

médicos y en sus distintas vertientes (básica, clínica y traslacional) debe fomentarse como actividad esencial en la práctica de la medicina moderna. Los hospitales universitarios deberían desarrollar proyectos de investigación en sus tres vertientes, especialmente en la traslacional. Existen excelentes ejemplos, como los del Clinical Research Program del Massachussets General Hospital, iniciado en 1996, que recientemente ha publicado los resultados de sus primeros cinco años de existencia (3), o los del Oxford University Institute for Molecular Medicine (4). Los propios investigadores y sus instituciones deberían desarrollar sistemas que permitiesen valorar, de forma metodológicamente correcta, los resultados finales de la investigación biomédica realizada. De esta forma, se puede responder adecuadamente a las demandas de la sociedad en su conjunto, así como a los organismos que financian la investigación y a los gestores de los hospitales o de la administración sanitaria, que en ocasiones cuestionan la utilidad de la investigación biomédica (5). Específicamente, los hospitales deben hacer un esfuerzo para identificar el coste y los resultados de los proyectos de investigación y sus efectos sobre la organización y la prestación de servicios (retorno o payback), a la vez que definen y aplican un plan de difusión y transferencia de la tecnología y resultados de los proyectos al resto de la organización. El concepto de retorno de la investigación y desarrollo tecnológico es multidimensional y se basa en las premisas siguientes: a) el retorno es el valor o beneficios que se derivan de esta inversión; b) la investigación biomédica es una inversión de futuro, y c) su evaluación formal es útil para justificar las inversiones en investigación y ayuda a priorizar las inversiones futuras en I+D. Los aspectos básicos de retorno de la investigación biomédica son: a) génesis del conocimiento, valorado mediante medidas bibliométricas tradicionales y a través de la evaluación por pares (peer-review); b) posibles beneficios futuros de la investigación, por ejemplo, la delimitación de nuevos objetivos; c) posibles beneficios para el sistema sanitario, entre los que apuntamos los siguientes: reducción de costes, mejora en la prestación de servicios sanitarios, mejora en el proceso de toma de decisiones, mejora de la salud y mayor equidad; y d) beneficios económicos de más alcance, esto es, los derivados de las patentes y la explotación comercial. Cada institución, por lo tanto, debe disponer de un sistema para evaluar formalmente los resultados secundarios de la investigación clínica. Esta evaluación incluye aspectos como las citaciones recibidas de los artículos de investigación publicados, la inclusión de tales artículos en revisiones sistemáticas de tipo general, la introducción de los resultados de la investigación en las guías de práctica clínica, la posible influencia que la investigación haya tenido en la práctica médica y el análisis económico (habitualmente, coste-efectividad) de la misma, incluyendo también los beneficios finales para la salud de los ciudadanos y los pacientes, así como la influencia en la eficiencia y equidad de los servicios sanitarios que proporciona la institución. Todas ellas son, de algún modo, medidas de la traslación de la investigación. 296

Ars Medica. Revista de Humanidades 2004; 2:295-298


Juan Rodés y Antoni Trilla

Un ejemplo El tratamiento actual de la ascitis de los pacientes cirróticos es un ejemplo que puede ilustrar cómo una investigación biomédica de calidad puede demostrar claramente sus beneficios, derivados de la traslación de los resultados a la práctica médica (6). En el año 1975 se constituyó un equipo de investigación multidisciplinar formado por investigadores clínicos y básicos en la Unidad de Hepatología del Hospital Clínico y Provincial de la Universidad de Barcelona, con el objetivo de profundizar en el conocimiento de la fisiopatología, clínica y el tratamiento de las complicaciones de la cirrosis hepática. Debemos recordar aquí que la cirrosis hepática es una de las enfermedades más prevalentes en España, y que la ascitis es su complicación más frecuente asociándose a un grave pronóstico. De acuerdo con los mecanismos que se creían que eran los responsables de su formación, la paracentesis estaba proscrita porque se pensaba que podría inducir a un empeoramiento de la hipovolemia efectiva y, por tanto, facilitar la aparición de una insuficiencia renal (síndrome hepatorrenal), complicación muy grave que conducía a la muerte en el 100% de los casos. Por todo ello, el tratamiento se basaba en la combinación de una dieta baja en sodio y en la administración de diuréticos. Sin embargo, este tratamiento tenía serios inconvenientes. En primer lugar, dado que la reabsorción de la ascitis es un proceso cuya velocidad está limitada, el abordaje clínico de pacientes con cirrosis y ascitis requería habitualmente hospitalizaciones muy prolongadas (6 semanas), para evitar que la pérdida de peso excesivamente rápida se asociase a hipovolemia e insuficiencia renal. En segundo lugar, la administración de diuréticos se asociaba a un índice muy elevado de complicaciones (30%), especialmente desarrollo de encefalopatía hepática, trastornos electrolíticos e insuficiencia renal. Finalmente, el 10% de los pacientes no respondían al tratamiento diurético o desarrollaban complicaciones que impedían el empleo de estos fármacos. Los trabajos realizados por nuestro grupo de investigación permitieron precisar mucho mejor la fisiopatología de la ascitis. Se demostró que su causa fundamental era una intensa vasodilatación esplácnica secundaria a la hipertensión portal. Esta intensa vasodilatación esplácnica produce a su vez una marcada hipotensión arterial, que es un potente estímulo para la activación de los sistemas vasoconstrictores renales. El aumento de la actividad de estos sistemas vasoconstrictores es causa de un incremento de la tensión arterial pero, además, ocasiona un descenso de la perfusión sanguínea renal y, en consecuencia, aparece un aumento de la retención renal de agua y sodio, que en casos más avanzados se traducen en una insuficiencia renal. Así, esta nueva hipótesis patogenética permitió diseñar nuevas aproximaciones terapéuticas. A partir de estos trabajos, la paracentesis terapéutica asociada al empleo de albúmina intravenosa se ha convertido en la opción terapéutica más eficaz para los pacientes con ascitis, debido a su disponibilidad, facilidad de empleo, mayor eficacia clínica y menor índice de complicaciones al compararla con los diuréticos. Por ello, la paracentesis terapéutiArs Medica. Revista de Humanidades 2004; 2:295-298

297


Tratamiento actual de la ascitis: un ejemplo de investigación traslacional

ca asociada a la infusión de albúmina es actualmente el tratamiento de elección inicial para los pacientes cirróticos con ascitis en la mayoría de los centros de todo el mundo, con mejor efectividad y menor riesgo de complicaciones, asociándose incluso a una menor mortalidad. Otras investigaciones realizadas por el mismo grupo de investigadores, y de acuerdo con la patogenia de la ascitis antes expuesta, han permitido demostrar que el empleo de vasoconstrictores —que actúan principalmente en el área esplácnica (terlipresina)— asociados a la infusión intravenosa de albúmina es capaz de revertir el síndrome hepatorrenal en el 60% de los casos. Ello significa que estos pacientes pueden llegar a ser trasplantados en unas condiciones clínicas mucho más favorables. Hay que apuntar que hace muy pocos años dichos pacientes morían en dos semanas. En un análisis reciente se ha demostrado también que la relación coste-eficacia de la paracentesis con albúmina es más favorable que la administración de diuréticos y permite, además, el uso más eficiente de los recursos hospitalarios (camas). Los trabajos publicados por nuestro grupo de investigación han recibido más de 2.500 citas desde las primeras publicaciones y se han empleado en revisiones sistemáticas (7). Asimismo, han constituido la base científica para el desarrollo de guías de práctica clínica y se han convertido en el estándar de referencia de tratamiento de la mayoría de los hospitales. Han demostrado, además, que los resultados, en el caso de ser aplicados en la práctica, son más coste-efectivos que el tratamiento tradicional, y que la institución realiza —como acabamos de apuntar— un uso más eficiente de sus recursos, lo que redunda en una mejora de la equidad del sistema, al facilitar el empleo alternativo de recursos limitados. Este es, a nuestro juicio, un ejemplo claro de que la coordinación de todos los tipos de investigación (básica y clínica) es esencial, ya que consigue mejorar la asistencia clínica al permitir una más rápida incorporación de los nuevos conocimientos generados a la práctica cotidiana.

Bibliografía 1. 2. 3. 4. 5. 6. 7.

298

Rodés J,Trilla A. Investigación clínica del laboratorio al paciente. Med Clin (Barna) 2003; 121:189-191. Gelijns AC, Rosenberg N, Moskowitz AJ. Capturing the unexpected benefits of medical research. N Engl J Med 1998; 339:693-638. Crowley WF, Their SO. A Program to facilitate clinical research in an ACH: the first five years. Acad Med 2001; 76:403-409. Horton B. From bench to bedside… research makes the translational transition. Nature 1999; 402:213-215. Kirschner MW, Marincola E, Teisberg EO. The role of biomedical research in health care reform. Science 1997; 266:133-140. Ginès P, Cárdenas A, Arroyo V, Rodés J. Management or cirrhosis and ascites. N Engl J Med 2004; 350:1646-1654. Center for Evidenced Based Medicine Oxford (UK). Disponible en: http://cebm.jr2.ox.ac.uk/cats/ascites-tapvs-diuretics-rx.html. Ars Medica. Revista de Humanidades 2004; 2:295-298


Miscelánea

Sonidos en el viento Sounds in the Wind ■ Ignacio Martínez Mendizábal Con cerca de 400.000 años de antigüedad, el yacimiento conocido como la Sima de los Huesos, en la burgalesa Sierra de Atapuerca, es el lugar más rico del mundo en fósiles humanos. Entre los varios miles de restos humanos recuperados hasta la fecha, hay algunos que tienen una especial relevancia para el estudio de una de las cuestiones capitales en las investigaciones sobre la evolución humana: el origen del lenguaje. En 1992 el equipo de excavación, dirigido por Juan Luis Arsuaga, descubrió el cráneo más completo jamás hallado de una especie humana fósil. Se trata del denominado Cráneo 5, familiarmente apodado como Miguelón, que es uno de los contados casos del registro fósil en los que la región del basicráneo está completa. Esta excepcional circunstancia nos decidió a emprender una línea de investigación dedicada a intentar reconstruir la anatomía de sus vías aéreas superiores, especialmente la correspondiente al aparato fonador. Avalaban esta iniciativa decenas de artículos científicos, publicados durante más de tres décadas, que defendían cómo determinados aspectos de la anatomía basicraneal (especialmente, el mayor o menor arqueamiento de la base del cráneo en su plano medio o grado de flexión basicraneal) permitían reconstruir fidedignamente las características básicas del aparato fonador de una especie fósil y, en consecuencia, saber si ésta pudo, o no, hablar como nosotros. Aunque, a decir verdad, una parte relevante de la comunidad científica no aceptaba esta premisa de que el grado de flexión basicraneal fuera un indicador anatómico directo de las capacidades fonatorias de un humano fósil. Para estos escépticos la clave podía hallarse en la morfología del hueso hioides. Este hueso está situado en la base de la lengua y presta inserción a la mayoría de músculos implicados en los movimientos de la lengua y desplazamientos de la laringe implicados en el lenguaje hablado. Hasta 1996 solo se conocía un hueso hioides fósil, el correspondiente a un ejemplar neandertal de hace alrededor de 60.000 años, cuya morfología, indistinguible de la habitual en las poblaciones humanas modernas, llevó a sus descubridores a afirmar que los neandertales pudieron hablar como nosotros. Pero tampoco todos los autores estaban de acuerdo con esta afirmación. El autor es Profesor Titular de Paleontología. Área de Paleontología, Departamento de Geología, Universidad de Alcalá (España). Investigador en el Centro Mixto (UCM-ISCIII) para el Estudio de la Evolución y el Comportamiento Humano. Ars Medica. Revista de Humanidades 2004; 2:299-301

299


Sonidos en el viento

Entre 1996 y 1998, en el yacimiento de la Sima de los Huesos se hallaron dos huesos hioides muy completos, por lo que al disponer de una base del cráneo completa y dos huesos hioides abrigábamos la esperanza de poder establecer fehacientemente si los humanos que vivieron hace 400.000 años en Atapuerca pudieron, o no, hablar. Sin embargo, tras una larga y exhaustiva investigación, llegamos a la conclusión, decepcionante, de que ni en la anatomía de la base del cráneo, ni en la del hueso hioides, había indicadores directos de las capacidades fonatorias de las especies humanas fósiles. No obstante, el gran parecido entre las respectivas morfologías de la base del cráneo y el hueso hioides de los humanos de la Sima de los Huesos y de las actuales personas, nos llevó a proponer la hipótesis de que también serían equivalentes sus aparatos fonadores y, por ende, sus capacidades para articular palabras. Desde entonces, hemos estado trabajando para contrastar esta hipótesis mediante una línea de investigación independiente, basada en la fisiología de la audición. En los mamíferos, el sistema de conductos, cavidades, membranas y huesecillos que constituyen los oídos externo y medio tienen como misión trasladar hasta la cóclea la energía de las vibraciones del aire, que constituyen los distintos sonidos. Por su propia naturaleza física (masas, longitudes, áreas y volúmenes), estos elementos anatómicos propagan mejor unas vibraciones (frecuencias) que otras, amplificando la energía de algunas y extinguiendo la de otras. El resultado es que, en función de la morfología de sus componentes, los oídos externo y medio presentan a los receptores sensoriales del oído interno un filtrado acústico, cuya naturaleza determina el que cada especie de mamífero esté especializada en oír mejor unas frecuencias que otras. Por eso, los humanos, a diferencia de otros mamíferos, no somos capaces de percibir sonidos muy agudos, a los que denominamos ultrasonidos. Sin embargo, poseemos una exquisita sensibilidad a los sonidos que se encuentran en la gama de frecuencias en la que se propaga la voz humana, entre 1 y 4 kilohercios (kHz). El resto de los primates oyen de manera diferente y ninguno, incluidos los chimpancés, tienen esa gran sensibilidad auditiva en el espectro de frecuencias de la voz humana que nos caracteriza. Para la mayoría de los estudiosos, esta adaptación en el oído humano responde a la necesidad de percibir las sutiles diferencias acústicas existentes entre los diferentes sonidos que componen el habla. En esta línea, hace tres años nos propusimos el reto de investigar las capacidades auditivas de los humanos de la Sima de los Huesos. La hipótesis de partida era que si, como pensábamos, aquellas personas tuvieron un aparato fonador como el nuestro, sus oídos también estarían adaptados a las mismas frecuencias que nosotros. Por el contrario, si, como opinaban otros, su aparato fonador fue más parecido al de los chimpancés, necesariamente sus oídos estarían sintonizados en las mismas frecuencias que éstos. Nunca nadie había intentado nada equivalente: reconstruir el audiograma de una especie extinguida. Contando con el concurso de investigadores del Centro Mixto (Universidad Complutense de Madrid-Instituto de Salud Carlos III) para el Estudio de la Evolución y el Comportamiento 300

Ars Medica. Revista de Humanidades 2004; 2:299-301


Ignacio Martínez Mendizábal

Humanos, del Departamento de Teoría de la Señal y Comunicaciones de la Universidad de Alcalá, de la Universidad Rovira i Virgili, y la colaboración de radiólogos de la Clínica Ruber Internacional (Madrid), reconstruimos y medimos, mediante TAC y tratamiento digitalizado de las imágenes, las cavidades del oído externo y medio de cinco individuos de la Sima de los Huesos y un ejemplar de chimpancé. También medimos y pesamos los excepcionales ejemplares fósiles de los huesecillos del oído medio (martillo, yunque y estribo) hallados en la Sima de los Huesos. Los datos así obtenidos fueron introducidos en una versión computerizada y perfeccionada de un complejo modelo físico, previamente publicado, diseñado para simular el funcionamiento del conjunto del oído externo y medio. El resultado obtenido fue inequívoco (1): las curvas de transmisión de energía acústica a través de los oídos externo y medio de los humanos de la Sima de los Huesos son indistinguibles hasta 5 kHz de las obtenidas para oídos humanos modernos, y claramente distintas de las correspondientes a los chimpancés. La consecuencia que puede extraerse es inmediata: aquellas personas de hace 400.000 años oían como nosotros y, por tanto, también debían emitir los mismos sonidos: o sea, podrían hablar como nosotros. Y como los humanos de la Sima de los Huesos no se encuentran en nuestra ascendencia evolutiva directa, sino en la de los neandertales, es razonable sostener que ambas estirpes presentaban las mismas capacidades, por haberlas heredado del último antepasado común; un antepasado cuyos restos fósiles, de hace 800.000 años, han sido recuperados en otro de los yacimientos de Atapuerca y asignados a la especie Homo antecesor.

Bibliografía: 1. Martínez I, Rosa M, Arsuaga JL, Jarabo P, Quam R, Lorenzo C, et al. Auditory capacities in Middle Pleistocene humans from the Sierra de Atapuerca (Spain). Proc Natl Acad Sci USA 2004; 101: 9976-9981.

Otras lecturas de interés relacionadas con el tema: • Arensburgh B, Schepartz AM, Tillier B, Vandermeersch B, Rak Y. A reappraisal of the anatomical basis for speech in Middle Palaeolithic hominids. Am J Phys Anthropol 1990; 83: 137-146. • Arensburg B, Tillier AM, Vandermeersch B, Duday H, Schepartz LA, Rak Y. A Middle Palaeolithic human hyoid bone. Nature 1989; 338: 758-760. • Arsuaga JL, Martínez I. El origen de la Mente. Investigación y Ciencia 2001; 302: 4-12. • Lieberman P, Laitman JT, Reidenberg JS, Gannon PJ. The anatomy, physiology, acoustics and perception of speech: essential elements in analysis of the evolution of human speech. J Hum Evol 1992; 23: 447-467. • Martínez I. El origen de la mente simbólica: la evidencia paleontológica. Ars Medica. Revista de Humanidades 2003; 1: 16-29.

Ars Medica. Revista de Humanidades 2004; 2:299-301

301


Índice acumulativo de autores 2004-2005 Alcamí Pretejo, José Luces y sombras de 20 años de investigación en SIDA (Artículo breve). 2003;p. 250-259 Arsuaga, Juan Luis Veritas Praevalebit. El hombre y el mono (Artículos). 2002;p. 24-34 Benedetti, Mario Echar las cartas (Relato corto). 2002;p. 253-256 Busse, Reinhard Alemania: calidad y financiación de la asistencia en crisis (Artículo) 2004;p. 57-73 Bustamante, Cristina Las visiones apocalípticas de Beato de Liébana (Artículos). 2003;p. 48-67 Callahan, Daniel El debate acerca de las células madre (Artículos). 2002;p. 3-10 Castañares, Wenceslao La teoría de la justicia de John Rawls (Artículos breves). 2003;p. 103-110 Chapman, Evelina La reforma del sistema sanitario en Chile (Artículo breve) 2004;p. 107-115 Clarke, Arthur C. Las aplicaciones de la Luna (Artículos). 2002;p. 177-186 Corres Peiretti, María Angélica René G. Favaloro (1923-2000) (Artículos breves). 2002;p. 240-244 De Guzmán, Miguel Tensegridad. De la escultura a la célula (Artículos). 2002;p. 166-176 Dworkin, Ronald W. La revolución cultural en la asistencia sanitaria (Artículos). 2002;p. 11-23 El renacimiento de la medicina alternativa (Artículos). 2003;p. 4-15 Dyson, Freeman J. La ciencia guiada por la ética puede erradicar la pobreza(Miscelánea) 2004;p. 148-150 Fernández Pardo, Carmelo Agua y desarrollo humano (Artículo) 2004;p. 12-30 Friedman, Milton Cómo curar la sanidad (Artículo especial). 2003;p. 80-102 García Sagredo, José Miguel La ciencia borrosa o la incertidumbre genética (Artículos breves). 2002;p. 245-248 González Loscertales, Ignacio Una forma inteligente de administrar medicamentos (Artículos breves). 2002;p. 87-91 302

Ars Medica. Revista de Humanidades 2004; 2:302-305


Índice acumulativo de autores 2004-2005

González Quirós, José Luis La salud y el nudo del mundo(Crítica). 2002;p. 106-112 España y el patriotismo en la obra de Santiago Ramón y Cajal (Artículo especial). 2002;p. 214-239 Ivan Illich: cristianismo radical y crítica de la sociedad tecnológica (Artículos breves). 2003;p. 111-116 Gubern, Román Luis Buñuel: la voz de la protesta (Crítica). 2003;p. 273-282 Gunderman, Richard B. La enfermedad como fracaso: la culpación de los pacientes (Artículos). 2003;p. 189-198 Reflexiones sobre "La enfermedad como fracaso" (Miscelánea). 2003;p. 296-301 Iñigo Marzábal "¡Oh muerte! ¿Dónde está tu victoria?" La muerte en el cine (Crítica) 2004;p. 130-147 John F. Nash, Jr. El pensamiento lógico, ¿es sencillo o complejo? (Artículo) 2004;p. 3-11 Keel, Othmar Marie-François-Xavier Bichat (1771-1802) (Miscelánea). 2003;p. 151-153 Komrad, Mark S. En defensa del paternalismo médico: potenciar al máximo la autonomía de los pacientes (Artículos). 2002;p. 151-165 En defensa del paternalismo médico. Reflexiones hechas veinte años después (Miscelánea). 2002;p. 266268 Laín Entralgo, Pedro El humanismo del hombre de ciencia (Artículos). 2003;p. 160-171 Lawrence, Peter A. La política de la publicación científica (Artículos). 2003;p. 172-180 León Sanz, Miguel La evolución de la alimentación hospitalaria (Artículo) 2004;p. 45-56 Marijuán, Mabel Ética y narración. Una lectura de Las Normas de la casa de la sidra(Crítica). 2003;p. 129-141 "¡Oh muerte! ¿Dónde está tu victoria?" La muerte en el cine (Crítica) 2004;p. 130-147 Martín Araguz, Antonio Las visiones apocalípticas de Beato de Liébana (Artículos). 2003;p. 48-67 Martín, Miguel Ángel-Caos y fractales (Artículos). 2003;p. 68-79 Martínez Díaz, Sonia ¿Podemos imitar el vuelo de un insecto? (Miscelánea). 2003;p. 154-156 Martínez Lage, José Manuel Alzheimer: diez años de progreso (Artículos). 2002;p. 203-213 Martínez Mendizábal, Ignacio El origen de la mente simbólica: la evidencia paleontológica (Artículos). 2003;p. 16-29 Nuevas evidencias sobre el origen de la mente simbólica (Miscelánea) 2004;p. 159-161 Marzábal, Iñigo Ética y narración. Una lectura de Las Normas de la casa de la sidra (Crítica). 2003;p. 129-141 Ars Medica. Revista de Humanidades 2004; 2:302-305

303


Índice acumulativo de autores 2004-2005

Mayor Menéndez, Federico Cincuenta años del descubrimiento de la estructura del ADN (Miscelánea). 2003;p. 142-146 Mazana, Javier S. Arthur Guyton (1919-2003): un gigante de la Fisiología (Miscelánea). 2003;p. 302-306 McMichael, Anthony J. Patrones de salud y supervivencia en poblaciones: conductas, modos de vida, ambientes y asistencia médica (Artículos). 2002;p. 120-136 Navarro Izquierdo, Albino Cohesión farmacéutica: una necesidad (Artículos). 2003;p. 199-209 Navarro, Fernando A. En pos de la verdadera causa de los anglicismos médicos (Artículos). 2002;p. 53-64 Médicos escritores y escritores médicos (Artículo) 2004;p. 31-44 Ordóñez, Javier Los inventores de caminos(Miscelánea). 2003;p. 289-295 Ortiz, Mª Cruz Imatinib: más que una promesa (Artículos breves). 2002;p. 84-86 Otero, Joaquín R. La neumonía asiática y la ley de Murphy (Miscelánea). 2003;p. 147-150 Pacheco, José Emilio La señorita Robles (Relato corto). 2003;p. 260-268 Pando, Juan Billy Wilder: un teutón genial que conquistó Hollywood (Crítica). 2002;p. 261-265 Paniagua, Cecilio Psicología de la brujería (Artículos). 2003;p. 0-0 Psicología de la envidia (Artículos). 2002;p. 35-42 Pérez de Tudela y Pérez, César La primera exploración del cráter del Cotopaxi: el volcán activo más alto de la Tierra (Miscelánea) 2004;p. 151-155 Pérez Gutiérrez, Amparo Nota a la traducción al español del Prefacio de De Humani Corporis Fabrica (Miscelánea) 2004;p. 156-158 Piglia, Ricardo El pianista(Relato corto). 2003;p. 117-123 Prieto, Santiago Impotencia masculina (Artículos). 2002;p. 65-76 La tuberculosis en la obra de Cela (Artículos). 2003;p. 30-47-CJC (Miscelánea). 2002;p. 112-113 Puerta, José Luis El porqué de una revista como ésta (Editorial). 2002;p. 1-2 César Milstein, Premio Nobel de Medicina (In memoriam) (Miscelánea). 2002;p. 114-116 Cajal, otra vez (Editorial). Ars Médica. Revista de Humanidades 2002;p. 117-119 Partida de bautismo de Santiago Ramón y Cajal (1852-1934) (Miscelánea). 2002;p. 269-272 El peso de la salud, la enfermedad y la sanidad (Editorial). 2003;p. 1-3 304

Ars Medica. Revista de Humanidades 2004; 2:302-305


Índice acumulativo de autores 2004-2005

La historia viva de la Sanidad (Editorial). 2003;p. 157-159 Reseña conmemorativa a propósito del bicentenario del inicio de la "Real Expedición Filantrópica de la Vacuna" (1803-1810), que dirigió el doctor Francisco Javier Balmis (Miscelánea). 2003;p. 307-313 Alemania: llegó el "ticket moderador" (Editorial). 2004;p. 1-2 Andrés Vesalio: la reconciliación de la mano con el cerebro (Artículo) 2004;p. 74-95 Rafael, Courtoisie Nomeolvides crece (Relato corto) 2004;p. 116-125 Ramírez Martín, Susana María Las Juntas de Vacuna, prolongación de la obra sanitaria de la "Real Expedición Filantrópica de la Vacuna" (1803-1810) (Miscelánea). 2003;p. 314-317 Ramón Cueto, Almudena Regeneración axónica en el sistema nervioso lesionado (Artículo breve). 2003;p. 239-249 Ramos, José Antonio Cannabis: ¿droga de abuso o medicina mágica? (Artículos). 2003;p. 210-226 Rodham Clinton, Hillary Sanidad (Artículo especial). 2003;p. 227-238 Rodríguez Caballero, Mª Aranzazu Hacia la evaluación global de la respuesta inmunológica (Artículos breves). 2002;p. 249-252 Sánchez Ron, José Manuel ¿Vino nuevo en odres viejos? Biomedicina, ciencia y sociedad (Artículos). 2002;p. 137-150 Sanmartín, José J. Una mente maravillosa (Crítica). 2002;p. 99-105 Segovia de Arana, Jose Mª La formación de especialistas médicos en España (Artículos). 2002;p. 77-83 Tarrach, Rolf Reflexiones de un científico cuántico sobre el libre albedrío (Miscelánea). 2003;p. 283-288 Velasco Garrido, Marcial Alemania: calidad y financiación de la asistencia en crisis (Artículo) 2004;p. 57-73 Vesalio, Andrés Traducción al español del Prefacio de De Humani Corporis Fabrica (Artículo especial) 2004;p. 96-106 Via i Redons, Josep Mª Seguro de dependencia: descripción y situación actual (Artículos). 2002;p. 43-52 Política sanitaria en la España de las autonomías (Artículos). 2002;p. 187-202 Xingjian, Gao El calambre (Relacto corto). 2002;p. 92-95

Ars Medica. Revista de Humanidades 2004; 2:302-305

305


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.