ISAGOGE NUMERO 1.

Page 1


PRESENTACIÓN

SALVADOR DALÍ (1904-1989) Nació en Figueras (España), el 11 de mayo de 1904. Su pasión por las artes plásticas comenzó desde muy temprana edad: a los ocho años montó su primer estudio en la azotea de su casa. También afloró muy pronto su personalidad excéntrica y exhibicionista, una cierta compensación de su exagerada timidez. Recibió una formación clásica en la Academia de Bellas Artes de San Fernando (Madrid), y al mismo tiempo se interesó por las vanguardias, sobre todo el cubismo y la pintura «metafísica». Sus amistades en la Residencia de Estudiantes (Buñuel, Lorca...), lecturas (Freud) y visitas al Museo del Prado contribuyeron a forjar su estilo durante la década de los veinte. Dalí es considerado uno de los nombres fundamentales de la pintura surrealista, aunque su adhesión al movimiento tuvo lugar propiamente entre 1929 y 1937: desde el estreno de la película Un perro Andaluz y el viaje a París en el que conoció a Gala Eluard (que luego sería su mujer), a su expulsión por parte de André Breton, acusándole aquél de haberse vendido al comercialismo, a lo cual respondió: «no podéis expulsarme porque yo soy el surrealismo». Empleó el llamado “método paranoicocrítico” y configuró su universo pictórico a través de motivos muy variados de la religión, sexo, gastronomía, filosofía y ciencia (véase La persistencia de la memoria). Durante los años cuarenta residió en Estados Unidos y desarrolló una fecunda etapa, orientada hacia un cierto clasicismo. A su pintura se sumó la ilustración de libros. Buen ejemplo son las 38 láminas que en 1945 realizó sobre el Quijote, una las cuales mostramos en la portada. Dalí entregó lo mejor de sí mismo en su visión personal de la inmortal obra cervantina. En 1948 regresó a España y se consolidó su vertiente clasicista, al tiempo que se acentuaron sus excentricidades como forma de dar salida a su necesidad de destacar (ya manifestada en su autobiografía La vida secreta de Salvador Dalí, aparecida en 1942). A fines de los cincuenta inició un ciclo de pintura histórica con El sueño de Cristóbal Colón. Sus críticos tacharon de frío y mercantilista el elaborado academicismo daliniano, pero lo cierto es que siguió produciendo obras interesantes, al tiempo que consolidó su prestigio internacional a través de premios y exposiciones. En 1964 recibió la Gran Cruz de Isabel la Católica. Dos años después la Galería de Arte Moderno de Nueva York le dedicó la mayor retrospectiva a un artista vivo. Y en 1974 se instaló el Museo Dalí en Figueras (el segundo, ya que en 1971 se le dedicó uno en Cleveland). La muerte de Gala en 1982 le sumió en la tristeza, abandonó la pintura y redujo drásticamente su vida pública. Murió el 24 de enero de 1989 en su castillo de Pubol, y fue enterrado en Figueras. El payaso no soy yo sino esta sociedad monstruosamente cínica y tan puerilmente inconsciente, que juega al juego de la seriedad para disimular su locura. SALVADOR DALÍ Para conocer su obra recomendamos visitar: http://www.virtualdali.com/

0

Isagogé, 1 (2004)


ÍNDICE

Colaboran en este número:

PRESENTACIÓN Editorial................................................................................ 2 Presentación del Coordinador de actividades humanísticas......................................................................3 Presentación del Coordinador de actividades científicas......................................................................... 4

Agulló Ródenas, Iván:

ARTÍCULOS DIVULGACIÓN

Lcdo. en Física, Dpto. Física Teórica, Univ. Valencia.

Carcelén Aycart, Virginia: Estudiante de Física, UNED.

Carcelén Aycart, Álvaro: Lcdo. CC. Empresariales.

Castillo Arenas, Francisco: Lcdo. en Historia, DEA.

Fernández Borja, Enrique: Lcdo. en Física, Dpto. de Astronomía y Astrofísica, Univ. de Valencia.

García García, Laura: Estudiante de CC. Exactas. Univ. Autónoma de Madrid.

González Segura, Ana: Lcda. en Física, Dpto. Física Aplicada, Univ. de Valencia.

Irraiz Castellón, Antonio José: Restaurador de arte. Delineante.

ESPECIAL AÑO DE LA FÍSICA Modelando el Cosmos ......................................................... 5 La Necesidad de una teoría cuántica de campos ................ 11 Dinámica de fluidos computacional: Experimentos desde el ordenador ...................................................................... 16 Biosensores ópticos ........................................................... 20 ARTÍCULOS VARIOS Biología del Autismo ......................................................... 24 El ácido acetilsalicílico. El medicamento .......................... 28 Etología humana ................................................................ 31 Un ejemplo de código: El NAF .......................................... 35 Ecuaciones Diofánticas ...................................................... 38 El colector Solar térmico. ¿Cómo funciona? ..................... 41 Del empirismo y sus formas. Un modelo de explicación científica ........................................................................ 44

López Molina, Sonia: Estudiante de Farmacia, Univ. Valencia.

López Sánchez, Ángel Rafael: Lcdo. en Física. Astrofísico residente del Instituto Astrofísico de Canarias (IAC), presidente de la Asociación Astronómica de Córdoba.

OPINIÓN Y ANÁLISIS Más que laico ..................................................................... 50 Ética y estética de la política............................................... 51 Polonia un país de la «Nueva Europa»: Su pasado reciente y sus aspiraciones para el futuro ...................................... 55

Martínez García-Gil, José: Lcdo. en Biología, Lcdo. CC. Exactas, Becario de investigación del Dpto. Biol..Molecular, Univ. Córdoba.

Martínez Jiménez, José Mª: Lcdo. en Biología.

Martín-Lorente Rivera, Enrique: Ingeniero Técnico Industrial.

Miralles Aranda, Antonio José: Lcdo. en Biología.

Ruiz Gómez, Aarón: Lcdo. en Física.

Santiago del Río, José Luis: Lcdo. en Física, Becario de investigación del Departamento de Medio Ambiente del CIEMAT.

Valle Porras, José Manuel: Lcdo. en Historia.

Ventura Rojas, José Manuel: Lcdo. en Historia, Becario de investigación del Dpto. de Historia Contemporánea, Univ. Córdoba.

MISCELÁNEA Reseña musical: El sonido de las praderas, el sonido del corazón. Las similitudes de dos músicos del siglo XX ...................... 58 Reseña literaria: El código «Da Vendit»........................................................ 63 Rincón de poesía: ............................................................... 67 Relato Corto: La Estancia ......................................................................... 68 Retos: La paradoja de Zenón ......................................................... 72 INFORMACIÓN DE OURÓBOROS ¿Qué es el Instituto Ouróboros de Estudios CientíficoHumanísticos? .................................................................... 74 Memoria de actividades 2004 ............................................ 75 ¿Cómo hacerse socio? ........................................................ 76

Depósito Legal: CO 259-05 ISSN: 1885-2475

Isagogé, 1 (2004)

1


PRESENTACIÓN

EDITORIAL José Mª Martínez Jiménez Presidente del Instituto Ouróboros Somos tendentes a olvidar el pasado, lo cual es un hecho que nos debiera preocupar a todos y no sólo a los historiadores. Con esa intención se celebran continuamente actos conmemorativos para recordar eventos, personajes u obras de relevancia histórica. El presente año recordaremos a Cervantes y a su inmortal obra, pero también se celebran otras efemérides no menos destacadas a las que queremos, desde el Instituto Ouróboros, prestar la merecida atención. Es el caso del centenario de la publicación de la Teoría de la Relatividad por parte de Albert Einstein, debido a la cual, la Física experimentó una de sus revoluciones más notables. En este número 1 de la revista Isagogé pretendemos homenajear a tan insigne científico con un especial dedicado a la mencionada disciplina. Se presentan, por tanto, 365 días repletos de celebraciones, pero también estarán cargados de pesar por lo vivido en el convulso año anterior. Por este motivo queremos hacer un pequeño balance de las noticias más relevantes de este año pasado y tener presentes, para no olvidar nunca, a todas las víctimas de la violencia, provenga ésta de donde venga. Las trágicas consecuencias diarias de la invasión de Irak aún hoy son noticia, pero ganan en relevancia para nosotros los atentados del 11 de marzo en Madrid, que amenazaron incluso la vida de algunos de nuestros socios residentes allí y nos pusieron a todos en jaque al contemplar, horrorizados, hasta dónde pueden llegar el odio y la sinrazón. Justo después acudimos a unas elecciones en las que se cambió de gobierno aún con el susto en el cuerpo. Mientras tanto, al otro lado del mundo, en Darfur, se vivió la crisis humanitaria más grande del mundo a causa del genocidio africano. El 28 de abril salieron a la luz las primeras fotos de las torturas de prisioneros iraquíes en la cárcel de Abu Grahib, y un tiempo después ha vuelto a saltar el escándalo, esta vez por parte de soldados británicos. El 1 de mayo nació la Europa de los 25 y poco después se inauguró el Forum de las Culturas de Barcelona. También pudimos asistir al enlace matrimonial de los príncipes de Asturias, del mismo modo que fuimos testigos del inicio de la tramitación en el Congreso de los Diputados de una nueva ley de parejas de hecho que pretende regular los matrimonios homosexuales. En el plano deportivo fue un año futbolístico por la celebración de la Eurocopa de Portugal, y Olímpico al haber vuelto en esta ocasión los juegos a Atenas, la ciudad que los vio nacer. Hasta hoy no se sabe nada del paradero del famoso lienzo de Edvard Munch El Grito, robado impunemente en su museo anta la mirada atónita de sus visitantes. En septiembre se capturó a la cúpula de la Banda terrorista ETA, cayendo su máximo dirigente Mikel Antxa. Pero el secuestro de un colegio en Beslán, la continua lacra de la violencia en el seno del hogar y el drama de la inmigración ilegal, que se cobró 82 vidas este año, ensombrecieron de nuevo el panorama. El 2 de noviembre George W. Bush es reelegido como presidente de los EE UU y, poco después, muere Yasir Arafat y el candidato a la presidencia de Ucrania, Víctor Yushenko, es envenenado en plena crisis electoral. A principios del mes de diciembre Rafael Sánchez Ferlosio recibe el premio Cervantes y, a finales del mismo, la mayor de las tragedias imaginables azota en forma de maremoto desde Indonesia hasta Somalia, dejando tras de sí cifras de muertos cercanas a las 300.000 personas. Esperemos que el 2005 nos legue para el futuro eventos mejores que poder conmemorar.

2

Isagogé, 1 (2004)


PRESENTACIÓN DEL COORDINADOR DE ACTIVIDADES HUMANÍSTICAS José Manuel Ventura Rojas Coordinador de Actividades Humanísticas del Instituto Ouróboros

IV Centenario de la publicación de «El ingenioso hidalgo Don Quijote de la Mancha» Las conmemoraciones son, desde hace décadas, recurso harto utilizado a la hora de hacer propaganda sobre la organización de actividades culturales. Por desgracia, muchas veces importa en ellas, por así decirlo, más el envoltorio que el contenido. Pero aunque rehusamos a unirnos a dicha moda de trompeteados certámenes de floridos y huecos discursos, no podemos ignorar la importancia del 2005 como año en el cual se registran efemérides fundamentales para la historia de nuestro país y del resto del mundo. Tras el «año Dalí», el presente asistirá a los festejos del cuarto centenario de la publicación de la primera parte de El ingenioso hidalgo Don Quijote de la Mancha, una de las obras fundamentales de la literatura universal. En Instituto Ouróboros no quisimos dejar pasar la ocasión de contribuir, siquiera fuera modestamente, a recordarlo a través de su inclusión en lugar preferente como es nuestra portada. No menos importante resulta mencionar el centenario de la muerte de Julio Verne, a quien ya rendimos un discreto y anticipado homenaje en el anterior número 0 de Isagogé —véase el apartado «Los límites de la tecnología»—. Por las mismas fechas que el mencionado maestro francés de la anticipación científica, rendía cuentas a la Parca el literato y diplomático egabrense Juan Valera, cuya producción sigue, por desgracia, siendo ignorada por el gran público que, como mucho, tiene de él la imagen de un mediocre escritor local costumbrista. La lectura de sus novelas y de su rico epistolario —sin duda uno de los mejores de la historia de la literatura española— deberían, por el contrario, destruir esa acartonada y estereotipada imagen que de él se tiene, así como rescatarle del olvido. Pero es que además, en este 2005 tenemos la ocasión de recordar un acontecimiento crucial que abrió las puertas del siglo XIX. Me refiero a la batalla de Trafalgar, episodio que inauguró una centuria triunfante para la potencia vencedora (Gran Bretaña) y decadente a la par que turbulenta para España. Dejando de lado banderolas y pandereteados discursos patrioteros, la ocasión es magnífica para animar a conocer los orígenes de la contemporaneidad, a través de novelas, libros de historia, así como otras manifestaciones artísticas como la pintura o el cine, preparando así el camino para el 2008, año en el cual Zaragoza vestirá sus mejores galas para acoger una exposición universal, a la par que será una de las sedes de los actos del bicentenario de la Guerra de la Independencia, acontecimiento que, como ya hemos dicho, marcó el origen de la España Contemporánea. Entre tanto, Isagogé, como el resto de iniciativas de Instituto Ouróboros, continuarán con su paciente y continua dedicación a promover y organizar actividades de diverso tipo para beneficio de todos aquellos interesados en disfrutar de la cultura, de todos y para todos.

Isagogé, 1 (2004)

3


PRESENTACIÓN DEL COORDINADOR DE ACTIVIDADES CIENTÍFICAS Enrique Fernández Borja Coordinador de Actividades Científicas del Instituto Ouróboros

2005, Año internacional de la Física El presente año ha sido el elegido para rendir un homenaje a la física. Esto es debido a que se conmemora el centenario de la aparición de tres de los artículos más influyentes de la historia en este campo. El autor de los mismos fue Albert Einstein, y en ellos revolucionó todo el esquema anterior del entendimiento de la naturaleza desde un punto de vista físico: surgió un nuevo sentido del espacio y el tiempo con la teoría especial de la relatividad, confirmó la naturaleza cuántica describiendo en estos términos el efecto fotoeléctrico (posteriormente ello le hizo merecedor del premio Nobel), y demostró con argumentos teóricos la existencia de los átomos en un estudio sobre el movimiento Browniano. Por todo esto la comunidad internacional ha consensuado que 2005 es el año idóneo para dedicarlo a la física. El Instituto Ouróboros no ha podido más que sucumbir a esta conmemoración, y ha dado un protagonismo especial a artículos relacionados con esta área de la ciencia en Isagogé. Desde nuestra perspectiva hemos de remarcar que la física es una ciencia básica en dos sentidos. En primer lugar nos enfrenta a preguntas acerca de la propia esencia de la naturaleza, el universo, la materia. De otro lado nos proporciona las bases del desarrollo tecnológico, sustento de nuestra sociedad actual. Hemos querido que, en el número que tienen en sus manos, se pueda vislumbrar la riqueza de los temas que desarrolla la física. Veremos aspectos teóricos, así como aplicaciones directas de los principios físicos. Es importante que la sociedad, ante un futuro condenado a una creciente tecnificación, tenga una idea general del camino que lleva la física en el siglo XXI, pues resulta casi seguro que esta centuria nos llevará a un nuevo cambio en el entendimiento de la naturaleza, así como en el modo de vida actual. Queremos animar desde este foro a la participación en las diversas actividades relacionadas con la física que el Instituto Ouróboros organizará durante este año conmemorativo. Y a participar en este proyecto de dinamización de la vida cultural cordobesa, recordando que la ciencia también es cultura.

4

Isagogé, 1 (2004)


ARTÍCULOS DIVULGACIÓN ESPECIAL AÑO DE LA FÍSICA

MODELANDO EL COSMOS Ángel R. López Sánchez «Los eruditos modernos yerran cuando se burlan de James Ussher, el obispo irlandés del siglo XVII que contó los engendró (genealogía de la Biblia) y concluyó que “el comienzo del tiempo... fue en el comienzo de la noche que precedió al vigésimo tercer día de octubre, en el año... 4004 a.C.”. Lo que importa no es que las cifras de Ussher fueran erróneas, después de todo, sólo se equivocó en un factor un millón, que no es tan malo para los patrones cosmológicos, sino que consideraba que el tiempo había tenido un principio, y que el mundo se despliega de formas insospechadas, como una obra teatral».

Timothy FERRIS (1997): Informe Sobre el Universo, p. 146.

Nuestra visión cotidiana del mundo está condicionada por la intuitiva física clásica de Newton. Pero en los dominios de las galaxias y en el universo de las partículas subatómicas la lógica física clásica deja de funcionar. Puedes comprobarlo con un sencillo experimento. Una noche despejada, escápate lejos de las luces de la ciudad para evitar la contaminación lumínica y mira al cielo. Verás muchas estrellas, resplandecientes y coloridas, alguna brillante (quizás un planeta) y muchas débiles, pero todas ellas sobre el fondo negro del cielo. ¿Un fondo negro? La física newtoniana no impone límites ni al espacio ni al tiempo: miráramos donde mirásemos, siempre encontraríamos una estrella o una galaxia. Deberíamos ver un fondo blanco, por lo que o el espacio no es infinito, o el tiempo no lo es, o ambos no son infinitos. A esta observación se le conoce como la Paradoja de Olbers e indica cómo la física clásica no puede explicar algo tan común como por qué el cielo es oscuro. A principios del siglo XX dos revoluciones cambiarían radicalmente la Física: la Teoría de la Relatividad de Einstein explicaba el comportamiento del macrocosmos, mientras que el desarrollo de la Teoría Cuántica por científicos como Bohr, Pauli, Heisenberg, Planck, Fermi o Dirac daba cuenta de los movimientos del microcosmos. En la Cosmología se unen ambos mundos: el de lo muy grande (los supercúmulos de galaxias) y el de lo muy pequeño (las partículas elementales). Ahora sabemos que el Universo se expande y que está lleno de radiación, siendo en sus orígenes tan caliente y denso que constituiría un gigantesco acelerador de partículas. Por lo tanto, para estudiar el Universo y su evolución es necesaria una comprensión de ambas teorías. LA TEORÍA DE LA RELATIVIDAD La Teoría de la Relatividad Especial de Einstein NO significa que todo es relativo, sino todo lo contrario: nos habla de la constancia de la velocidad de la luz desde cualquier sistema de referencia inercial (aquel que no tiene aceleración). Todo comenzó con la siguiente pregunta: ¿con qué velocidad vería acercarse un rayo de luz si yo voy en otro rayo de luz a su encuentro?. Desde el punto de vista de la Física Clásica, el principio de relatividad de Galileo (y nuestra lógica cotidiana) nos haría pensar que la respuesta es a dos veces la velocidad de la luz: sumamos las velocidades, al igual que decimos que si un coche que se acerca a nosotros a 100 km/h, yendo nosotros también a 100 km/h, la velocidad con la que lo observamos acercarse es de 200 km/h. Este segundo razonamiento es rigurosamente cierto (y la causa de que los accidentes de tráfico sean tan peligrosos), pero no lo es el primero. No importa cómo mires al rayo de luz, siempre medirás que se mueve a una velocidad constante, c. En la jerga de los físicos, se dice que en la Teoría de la Relatividad Especial la velocidad de la luz permanece invariante. También permanece invariante la energía, siendo el origen de la Isagogé, 1 (2004)

5


famosa equivalencia entre masa y energía, E = m c2. La energía total de un sistema se conserva, pero en el balance debe incluirse también la energía en forma de masa. El objetivo de la Relatividad General es explicar la fuerza de la gravedad de forma que cumpliese la Relatividad Especial. La idea básica es que un movimiento acelerado (no inercial) y un campo gravitatorio son cosas equivalentes. Como en el primer caso no se verifica la geometría de Euclides (en donde la distancia más corta entre dos puntos es una línea recta), en un campo gravitatorio tampoco se cumple. Einstein propone que es la geometría del espacio lo que provoca la fuerza de la gravedad: las masas presentes curvan el espacio. Los planetas no describen órbitas alrededor del Sol porque existe una fuerza gravitatoria entre ambos, sino que siguen caminos de mínima resistencia a través de un espacio curvo. El espacio cósmico sólo puede representarse de forma precisa usando cuatro dimensiones: las tres espaciales y una temporal. El espacio curvo puede formar una esfera tetradimensional donde, en analogía a una esfera cotidiana, el universo es finito pero ilimitado: podemos recorrer la superficie de la esfera sin encontrar un límite. De esta manera, desaparece la paradoja del límite del Universo a la que nos referíamos al principio. Existen muchas observaciones que confirman que la Teoría de la Relatividad General es correcta: la variación de la posición aparente de las estrellas cercanas al Sol durante un eclipse, la precesión de la órbita de Mercurio (no alcanza su mínima distancia al Sol en la misma posición relativa), o incluso la detección de lentes gravitatorias en cúmulos de galaxias. Cúmulo de galaxias Abell 2218, situado a unos 2000 millones de años luz y formado principalmente por galaxias elípticas. Es tan masivo que su enorme campo gravitatorio curva los rayos de luz que pasan cerca de él, formando una lente gravitatoria: algunos objetos que se encuentran más lejos que él (de 5 a 10 veces más distantes) pueden apreciarse como “filamentos arqueados”, como predice la Teoría General de la Relatividad. En condiciones normales, estas galaxias lejanas no podrían observarse.

LA TEORÍA CUÁNTICA La palabra cuántica deriva del concepto de cuanto, introducido por Planck en el último año del siglo XIX para explicar la radiación de cuerpo negro (un objeto que emitiera exactamente toda la luz que recibe, encontrándose en equilibrio térmico). La energía de la radiación no se distribuye de forma continua, sino que lo hace en pequeños paquetes, los cuantos, cuya energía es proporcional a su frecuencia (el número de oscilaciones por segundo), E = h ?. La constante de proporcionalidad es la constante de Planck, h, un número muy pequeño que nos indica la unidad mínima de energía que un fotón con cierta frecuencia puede tener. Realizando una analogía fácil, si la constante de Planck indicara el mínimo movimiento que podríamos hacer y su valor fuese de 1 metro por cada movimiento, sólo podríamos desplazarnos un número entero de metros (5 m o 100 km) pero nunca fracciones de metro (0.5 m ó 1 mm). Con el supuesto de que la energía se encuentra cuantizada, Einstein pudo encontrar solución al efecto fotoeléctrico (la velocidad de los electrones liberados por un metal al ser iluminado depende de la frecuencia de esta radiación y no de su intensidad) y Bohr explicó las líneas espectrales de los elementos atómicos (los electrones de un 6

Isagogé, 1 (2004)


átomo se distribuyen en capas concretas). Otro descubrimiento importante fue realizado por De Broglie, quien introdujo el concepto de dualidad onda-corpúsculo al demostrar que una partícula material también podía comportarse como una onda. Pero el verdadero avance llegó cuando Heisenberg encontró en 1927 el principio de indeterminación: se puede conocer con precisión exacta o bien la posición de una partícula o bien su movimiento, pero nunca ambas a la vez. La cantidad mínima de error (incertidumbre) presente está definida precisamente por h, el cuanto de acción de Planck. La Naturaleza a escalas subatómicas pasó a ser no determinista, basándose el formalismo de la Mecánica Cuántica en estadística de probabilidades. Un electrón, por ejemplo, no se mueve alrededor de un núcleo atómico siguiendo una órbita, sino que existe una función de probabilidad (su función de onda) que indica tanto cómo se mueve como dónde puede encontrarse (su estado). Pero, ojo, si medimos alteramos el sistema. La Física Cuántica pudo clasificar las partículas en fermiones y bosones dependiendo de las leyes estadísticas que gobiernan su conducta. El primer grupo lo forman las partículas de materia, los electrones, protones y neutrones, que obedecen el principio de exclusión de Pauli (dos fermiones no pueden ocupar el mismo estado cuántico). Los bosones son las partículas que transmiten las fuerzas. Existen cuatro fuerzas (interacciones) fundamentales en la Naturaleza: la fuerza electromagnética (atracción entre partículas con cargas eléctricas o magnéticas opuestas), la fuerza nuclear fuerte (que mantiene unidos a los protones y neutrones en los núcleos atómicos), la fuerza nuclear débil (responsable de los procesos de desintegración radiactiva) y la fuerza gravitatoria (atracción entre dos partículas con masa, proporcionalmente mucho más débil que las otras tres). El bosón más famoso es el fotón, partícula que trasmite la fuerza electromagnética. Pero, ¿cuáles son los bosones responsables de las otras fuerzas?. Reconstrucción mediante ordenador de una colisión a muy alta energía de un protón con un antiprotón en el acelerador CERN. Se han producido una gran cantidad de partículas. En 1982, gracias a este tipo de experimentos, se pudieron descubrir los bosones intermedios responsables de la fuerza nuclear débil.

Teorías cuánticas de campos relativistas Las explicaciones científicas de cómo las diversas partículas se comportan bajo la influencia de las fuerzas electromagnética, nuclear fuerte y nuclear débil se denominan teorías cuánticas de campo relativistas porque usan tanto las leyes cuánticas como la teoría Especial de la Relatividad. El electromagnetismo se describe perfectamente por la teoría de la electrodinámica cuántica (QED), desarrollada por Dirac. Como consecuencia de una simetría, esta teoría predice la existencia de una partícula similar al electrón pero con carga opuesta, el positrón. En estos términos, una simetría no tiene necesariamente que ver con formas geométricas, sino que es una cantidad que permanece invariable bajo una transformación. En la QED, la simetría reside en la conservación de la carga eléctrica. Era necesario introducir el positrón para que la carga se conservase en estas interacciones. Además, la masa del fotón (el bosón de la interacción electromagnética) debía ser nula. Todos estos hechos fueron confirmados experimentalmente, proporcionando una enorme solidez a la teoría de QED.

Isagogé, 1 (2004)

7


A mitad del siglo XX los aceleradores de partículas hacían chocar protones y electrones a alta velocidad para estudiar sus interacciones y su interior. Pero sólo se producían nuevas partículas. Conforme más energía se proporcionaba, mayor número de partículas raras aparecían. En poco tiempo se descubrieron cientos de partículas. ¡Y no se sabía cómo organizarlas! La única solución es que, al igual que los protones y neutrones, fuesen entidades compuestas. Gell-Mann propuso el modelo de los quarks: los protones y neutrones estaban compuestos por tres partículas, los quarks. Nació la teoría de la cromodinámica cuántica (QCD). La simetría de esta interacción es la conservación del color de los quarks. El color de un quark no tiene nada que ver con el color ordinario, pero sirvió para hacer una analogía de cómo se combinan al interaccionar. Los portadores de la fuerza de color son los gluones, los bosones de la interacción nuclear fuerte. Esta interacción tiene dos comportamientos: la fuerza fuerte se hace más intensa al aumentar la separación de los quarks a tamaños mayores que el de un protón o un neutrón, (de ahí que esté confinada en el interior de estas partículas y sea tan difícil ver quarks libres), pero a muy corta distancia se hace tan débil que los quarks parecen estar libres. Precisamente, el estudio detallado de esta propiedad (que recibe el nombre de libertad asintótica) por Gross, Politzer y Wilczek ha sido premiado con el Nobel de Física de 2004.

Las cuatro fuerzas fundamentales descritas según los Diagramas de Feynman, mostrando el intercambio de las partículas de fuerza, los bosones (fotón, gluón, bosón débil y gravitón). En la interacción electromagnética, los electrones (e – ) interaccionan con fotones, mientras que en la interacción fuerte los quarks (q) intercambian gluones. En la interacción débil, un neutrón (n) se desintegra en un protón (p) mediante el intercambio de un bosón débil, pero a la vez libera un positrón (e + ) y un neutrino (?). La fuerza gravitatoria involucra un intercambio de un gravitón entre dos partículas masivas (m). Se indica también el alcance (en metros) y la intensidad relativa de cada fuerza con respecto a la interacción gravitatoria.

La identificación de los quarks también sirvió para comprender la interacción nuclear débil, responsable de la radiactividad natural y de los de los procesos nucleares que provocan la fusión del hidrógeno en las estrellas. La interacción débil se basaba en la desintegración de un neutrón en un protón y un electrón, pero por conservación de la energía también debía crearse otra partícula, muy difícil de detectar porque no tendría masa (o si la tuviese sería muy pequeña) y que no participaría en la interacción nuclear fuerte. Fermi bautizó a esta partícula como neutrino. Finalmente, se demostró que existían tres tipos de neutrinos y que poseen una masa distinta de cero. Al demostrarse que los quarks formaban protones y neutrones se formuló una teoría que explicaba la fuerza débil mediante el intercambio de unos bosones masivos y cargados (los bosones intermedios o débiles), descubiertos en el CERN en 1983 al hacer colisionar protones con antiprotones (protones con carga negativa) a muy alta energía. El hecho de que los bosones intermedios sean masivos (varias decenas de veces la masa del protón) hace que la interacción sea de muy corto alcance (sólo de una centésima parte de un protón). 8

Isagogé, 1 (2004)


LA UNIFICACIÓN DE LAS FUERZAS FUNDAMENTALES En los años setenta, Weinberg, Salam y Glashow encontraron una simetría que los relacionaba con el fotón, el bosón de la interacción electromagnética, unificando ambas interacciones en una única fuerza: la interacción electrodébil. Pero un fotón no se parece en absoluto a un bosón débil, ¿dónde está la simetría que los une? ¿Qué propiedad permanece invariable en estas interacciones? Ninguna, porque dicha simetría se ha roto en algún momento del pasado. La física de partículas puede considerarse como el estudio de las simetrías presentes y de las que están rotas. Las rupturas de simetría cuando el Universo era joven han sido las responsables de las diferencias observadas entre bosones intermedios y fotones. Este razonamiento indica una evolución cósmica. La simetría rota de la fuerza electrodébil se recuperaría en condiciones de alta energía, como al inicio del Universo o en enormes aceleradores de partículas. Al igual que se consiguió unir la fuerza débil con la electromagnética, ¿podríamos obtener una unificación de las demás? Se intentó acoplar la interacción electrodébil con la fuerte, creándose unos modelos que se conocieron con el nombre de Grandes Teorías Unificadas (GUT), pero no funcionaron. Se necesitaba una simetría que identificara a los fermiones (componentes básicos de la materia) con los bosones (portadores de fuerzas). Esta propiedad se llamó supersimetría. La teoría unificada de la supersimetría busca las simetrías rotas entre bosones y fermiones, siendo capaz de unir todas las partículas bajo un solo conjunto de ecuaciones. Predice un gran número de partículas raras, diferentes a las que hemos descrito aquí, que recibieron los exóticos nombres de fotinos, gluinos, axinos o neutralinos. Tendrían masa pero interaccionarían muy débilmente con la materia ordinaria, propiedad explotada por la Cosmología. Si la Teoría General de la era capaz de explicar una fuerza como consecuencia de la geometría del espacio, quizás en las demás también lo posible. Esto se consigue representando la Naturaleza en más de cuatro dimensiones. Llegamos a la Teoría de Cuerdas, formulada por Green, Schwarz y Witten en 1987, según la que todas las partículas conocidas se representan como objetos muy estrechos y largos (las cuerdas) que, dependiendo de su forma de vibrar, definen un tipo de partícula u otra. Esta teoría es supersimétrica, une las cuatro fuerzas fundamentales y hace salir todo del espacio: las cuerdas son simplemente espacio curvado. Para trabajar en ella hay que usar la rama de las matemáticas que estudia las superficies: la topología. La Teoría de Cuerdas intenta explicar cómo llegó el Universo de las 10 dimensiones originales necesarias hasta las cuatro observadas actualmente: seis de ellas se colapsaron en una transición de fase, mecanismo mediante el cual las fuerzas se dividieron y las partículas que conocemos hoy día se fueron creando a medida que el Universo se expandía y enfriaba. EL INICIO DEL UNIVERSO La teoría actualmente aceptada acerca del inicio del Universo es el Modelo de la Gran Explosión, también conocida como Teoría del Big Bang (irónicamente, el nombre que usaba el astrofísico Hoyle de forma despectiva, pues no creía en ella). No tiene sentido que preguntemos dónde ocurrió la Gran Explosión: sucedió tanto aquí como el la galaxia de Andrómeda o en un cúmulo de galaxias lejano Pasó en todo el Universo a la vez, creándose además el tiempo (cuesta bastante entender este razonamiento, siempre buscamos “algo fuera”, pero no lo había entonces). ¿Qué pasó? Ya me gustaría saber responder a esa pregunta, quizás hasta ganaba un Premio Nobel. El problema fundamental es explicar cómo algo surge de la nada. No profundizaré en temas filosóficos (y religiosos) pero sí apuntaré un aspecto de la teoría de partículas que puede dar una buena pista: el vacío cuántico está lleno de partículas virtuales. Se crean Isagogé, 1 (2004)

9


y se aniquilan casi instantáneamente. Esto ya aparecía en las teorías cuánticas de campo relativistas. ¿Se podría entender así en nacimiento del Cosmos? Sea como fuere, nos encontramos con los que los teóricos llaman una singularidad, lugar donde las leyes físicas que conocemos no tienen sentido. Las singularidades más célebres son los agujeros negros, muy explotados en las películas de ciencia ficción. Inevitablemente unimos el nombre de Stephen Hawking al concepto de agujero negro, pero en realidad es especialista en singularidades. Junto con Hartle, propuso que si se dispusiese de una teoría de gravedad cuántica quizás podríamos entender la génesis del Universo. Como hemos visto, las teorías de cuerdas también la proponen. ¿Empezaría el Cosmos es una burbuja incontrolada que emerge de una especie de espuma espacio-temporal como consecuencia de una fluctuación cuántica? Nuestra Física se desmorona para tiempos menores que 10 –43 segundos (me atrevo a escribirlo en cifras normales: 0.0000000000000000000000000000000000 000000001 segundos, 42 ceros entre la coma y el 1, un tiempo inimaginable para nosotros). Es lo que se denomina era de Planck, durante la que una partícula elemental sería tan grande como el Universo. Ya entonces existirían inhomogeneidades cuánticas aleatorias en la densidad de materia y energía. ¡Por eso estamos aquí!. Esas inhomogeneidades son las responsables de la creación de la estructura cósmica a Gran Escala. Pasado ese tiempo, la gravedad se separa de las otras tres fuerzas, que siguen combinadas. A los 10 –35 segundos se desacoplan la fuerza fuerte y la electrodébil. Sucede una ruptura de la simetría que hace distinguir a los bosones de los fermiones. Su consecuencia inmediata es provocar una expansión muy acelerada que recibe el nombre de inflación. El Universo crece enormemente es ese período, tanto que es capaz de borrar en parte las inhomogeneidades cuánticas originales. Al expandirse, la temperatura de la bola de fuego primigenia se enfría y la densidad disminuye, formándose una sopa de electrones y quarks libres. Al alcanzar los 10 –11 segundos sucede otra ruptura de simetría provocada por la separación de la fuerza débil de la electromagnética. Entre los 10 –5 y el primer segundo ocurren tres sucesos importantes: los electrones se funden con los positrones (por eso este período se llama Época de la Aniquilación: la existencia de más materia que antimateria, consecuencia de otra ruptura de simetría, es también responsable de que estemos aquí), los neutrinos se separan del resto de las partículas (desde entonces se propagan sin apenas interaccionar) y los quarks supervivientes a la aniquilación se unen para formar protones y neutrones. Un segundo después del génesis la forma más importante de energía es la radiación electromagnética, que domina sobre la materia. Es la Era de la Radiación. Ambas se encuentran fuertemente acopladas: allá donde hay más materia hay más radiación. Comienza la nucleosíntesis, donde los protones y neutrones se fusionan para formar núcleos de helio. También se crearon pequeñas cantidades de núcleos de deuterio (un protón y un neutrón), litio, boro y berilio. Los neutrones libres que quedan se desintegran: desde entonces todos ellos quedarán confinados en los núcleos atómicos. Cuando la temperatura baja aún más, pasados 100 000 años, los electrones son capturados por estos núcleos, creándose los primeros átomos. Este momento, en el que la radiación y la materia se equilibran, se conoce como Época de la Recombinación. El eco de este período es la radiación cósmica de fondo que detectamos en todas direcciones. A partir de entonces la materia comenzaría a dominar sobre la radiación: comienza la Era de la Materia. Con el paso de los eones, formarían las galaxias y los cúmulos de galaxias, confeccionando la estructura a gran escala que hoy observamos.

10

Isagogé, 1 (2004)


LA NECESIDAD DE UNA TEORÍA CUANTICA DE CAMPOS Iván Agulló Rodenas Enrique Fernández Borja INTRODUCCIÓN A principios del siglo XX surgen dos teorías llamadas a revolucionar toda la estructura conceptual de la física, la relatividad especial y la mecánica cuántica. Ambas teorías trastocan de forma radical la forma en la cual hemos de entender la naturaleza. Estos nuevos esquemas conceptuales se establecen epistemológicamente como teorías marco, es decir, la naturaleza se comporta de tal modo que todos los procesos están descritos por teorías que han de ser coherentes con los principios que imponen tanto la relatividad especial como la mecánica cuántica. Lo que vamos a intentar exponer en este trabajo es cómo el intento de hacer compatibles ambos esquemas teóricos, relatividad y mecánica cuántica, nos va a llevar, de forma inevitable, a la construcción de una nueva teoría más general, la Teoría Cuántica de Campos, la cual constituye la base teórica más potente, globalmente aceptada, que posee la física teórica en estos momentos y sobre la cual descansan todas las grandes teorías que describen tanto las partículas elementales como las interacciones entre ellas. De tal modo que la Teoría Cuántica de Campos no es más que la teoría de la mecánica cuántica relativista, pero, como sucede a menudo, el todo es algo más que la suma de las partes. Es por esto que la Teoría Cuántica de Campos hace aparecer aspectos de la naturaleza hasta entonces desconocidos y que pronto se comprobaron experimentalmente, como puede ser la existencia de antimateria, la naturaleza del espin, etc, lo cual dio a esta teoría un éxito sin precedentes que aún conserva hoy día. Por todo lo dicho anteriormente el planteamiento de este trabajo no puede ser otro que comenzar presentando de forma breve el corazón de la mecánica cuántica y de la relatividad, a partir de esto ver qué problemas de incompatibilidad presentan y finalmente en el intento de salvar sus diferencias nos encontraremos con la Teoría Cuántica de Campos y con todos sus triunfos. MECÁNICA CUÁNTICA La física clásica, la cual todos hemos estudiado, divide los sistemas físicos en dos grupos, según su naturaleza, cada uno de los cuales posee sus características y propiedades. Por un lado están las partículas cuyas propiedades son la posición, velocidad, momento angular, etc., y cuyos procesos característicos serían las colisiones, dispersiones, ... El otro gran grupo lo forman las ondas, las cuales vienen caracterizadas por su longitud de onda, frecuencia, velocidad de propagación, etc., y experimentan fenómenos típicos como son reflexión, refracción, difracción, interferencia, ... De forma resumida podríamos decir que la mecánica cuántica rompe con esta distinción y trata a todos los sistemas físicos del mismo modo, que podíamos llamar «entes cuánticos», por llamarlos de algún modo, y que podemos imaginar como algo intermedio entre las partículas y ondas clásicas. Los «entes cuánticos» vienen descritos una función, conocida como Función de onda . Esta función contiene toda la información que se puede obtener del sistema en cuestión. El calificativo de «de ondas» es debido a que es solución de una ecuación de tipo ondulatorio. El módulo al cuadrado

Isagogé, 1 (2004)

11


de esta función nos da la probabilidad de encontrar el sistema (por ejemplo un electrón) en un punto del espacio. Aquí ya podemos ver la radical diferencia entre el mundo clásico y el cuántico, la máxima información que podemos poseer sobre un sistema físico es un distribución de probabilidad de ser encontrado en el espacio, no tenemos certeza de si la partícula será encontrada aquí o allá, únicamente probabilidad. Pero eso si, esa distribución de probabilidad, la función de onda, viene perfectamente determinada por su ecuación de evolución, la Ecuación de Schrödinger. Para entender esto mejor podemos poner como analogía la imagen de una ola de criminal. Supongamos que el sur de España sufre una ola de asesinatos. Los criminólogos pueden, a través de sus estudios, llegar a conocer de forma bastante certera cuál es la probabilidad de que el próximo asesinato sea en un lugar o en otro, o en general cuál es la distribución de probabilidad de que ocurra un asesinato en las tierras andaluzas. Pero esa es el máximo conocimiento al que pueden llegar, la distribución de probabilidad, ningún criminólogo afirmará que sucederá en Zagrilla o en Rute. Es importante remarcar que, como probabilidad que es, la integral del modulo cuadrado de la función de onda extendida a todo el espacio es la unidad. Esto es, si nos preguntamos por la probabilidad de encontrar la partícula en cualquier sitio la respuesta es uno, y seguirá siendo uno por siempre. Este resultado, de capital importancia en lo que sigue, es consecuencia de la propia formulación de la mecánica y se conoce como teorema de conservación de la probabilidad. RELATIVIDAD ESPECIAL En 1905 Albert Einstein presentó las ideas de lo que hoy conocemos como Relatividad Especial que modificó de forma radical nuestras ideas sobre espacio y tiempo. Antes de la aportación de Einstein nuestra ideas sobre espacio y tiempo se remontan a los tiempos de Newton. En resumen estas ideas se basan es que vivimos en un espacio tridimensional absoluto, donde absoluto significa que la distancia que separa dos puntos de ese espacio es la misma para cualquier observador. Es decir, cada observador asignará coordenadas diferentes a un mismo punto, lo que para uno está en el eje X para otro puede estar en el eje Z, lo que para uno está parado para otro puede estar en movimiento, pero el modulo del vector que une dos puntos es el mismo para todos los observadores. Para pasar de un observador a otro hemos de entremezclar los coordenadas espaciales, pero siempre estaremos seguros que las distancias se mantendrán invariantes. El papel del tiempo no es más que el de un parámetro de evolución común o todos los observadores , que nos sirve para cuantificar cuáles son las variaciones de las cantidades que podemos situar en ese espacio absoluto, como posición, velocidad, etc. El corazón de todas las ideas que introduce la relatividad especial se pueden resumir diciendo que no vivimos en un espacio tridimensional absoluto y existe un parámetro de evolución universal para cualquier observador, sino que vivimos en un espacio cuadridimensional absoluto, el tiempo es una coordenada más que junto con las tres espaciales forman el espacio de cuatro dimensiones en el que vivimos. Y cuando decimos absoluto estamos diciendo lo mismo que decíamos para tres dimensiones, distintos observadores asignarán distintas coordenadas espaciales y temporal a un

12

Isagogé, 1 (2004)


suceso pero ahora el módulo 1 del vector cuadridimensional que une dos sucesos es el mismo para todo observador. Es decir, el tiempo no es un parámetro de evolución y el espacio tridimensional no es absoluto sino que el espacio y el tiempo forman un espacio cuadridimensional absoluto donde para pasar de un observador a otro habremos de entremezclar las cuatro coordenadas, es decir el tiempo también entra en el cambio de coordenadas como una coordenada más que es. Así dos observadores distintos pueden medir intervalos de tiempos distintos entre dos sucesos, así como distancias distintas, pero el módulo del vector de cuatro componentes (t,x,y,z) que une ambos sucesos en el espaciotiempo es el mismo para todos. Esta es la idea principal de la relatividad especial y a partir de ella se pueden obtener todas sus consecuencias. Una de las consecuencias más sobresalientes de la teoría es la fórmula archiconocida: E = c2 m Esta expresión pone de manifiesto un hecho importantísimo y es que la masa no es más que una forma de energía (c es la velocidad de la luz y no es más que una constante de proporcionalidad), como puede serlo la energía cinética o el calor, y por tanto entrará en el computo de la conservación de la energía como cualquier otra. Así la energía es susceptible de condensarse en masa y viceversa. Es imposible expresar la importancia de esta expresión que nos dice que la masa no es más que una forma de energía, ella es responsable de la evolución de la física nuclear, la física de partículas e incluso es la clave que dio lugar a la bomba atómica. LA TEORÍA CUÁNTICA DE CAMPOS La formulación de la mecánica cuántica a través de la ecuación de Schrödinger no tiene en cuenta los principios que introduce la relatividad especial y se basa en las ideas de newtonianas de espacio y tiempo. Es nuestro objetivo llegar a una formulación de la mecánica cuántica que incorpore las ideas relativistas para el espacio y el tiempo, es decir pretendemos llegar a una teoría cuántica relativista. Únicamente es necesario echar un vistazo a las ideas base expuestas anteriormente acerca de ambas teorías para darnos cuenta de que son incompatibles. Tal y como hemos formulado la mecánica cuántica, una partícula viene descrita por una función de onda que nos proporciona la distribución de probabilidad de encontrar esa partícula, y como hemos dicho, la probabilidad de encontrar la partícula en todo el espacio es uno y se conserva. Pero si esto le añadimos que la energía puede materializarse en masa y viceversa (E = c2 m) estamos permitiendo que en un cierto proceso aparezcan o se destruyan partículas (respetando ciertas leyes de conservación como la carga eléctrica, el espín, ...) vía la variación de la energía puesta en juego. Esto, evidentemente, viola la conservación de la probabilidad de la mecánica cuántica pues pueden aparecer partículas que antes no existían y pueden destruirse las que teníamos. Concluimos que ambas teorías, tal y como están formuladas, son incompatibles. No es posible construir una teoría cuántica mediante el formalismo de la función de onda si introducimos las ideas relativistas.

1

Se ha de precisar que el módulo en el espacio cuadridimensional no es el mismo que en el espacio tridimensional euclídeo y precisamente la forma de este módulo es lo que aporta las propiedades al espacio-tiempo , como por ejemplo la constancia de la velocidad de a luz. Isagogé, 1 (2004)

13


La solución la encontraremos planteando una formulación distinta de la mecánica cuántica de la que nos da la interpretación probabilística planteada por Schrödinger. Este problema se resolvió allá por finales de los años veinte del siglo pasado recurriendo a la teoría de campos. Un campo es un ente que toma un valor en cada punto del espacio y en cada instante de tiempo. Por ejemplo la cantidad de lluvia caída en España es un campo pues toma un valor en cada punto del país y en cada instante de tiempo. A diferencia de las partículas que únicamente están definidas en un lugar determinado del espacio, los campos toman un valor en todo punto del espacio simultáneamente. Consideremos el campo de la altura del agua en la superficie de un estanque respecto a la superficie del estanque cuando el agua está calma. Este campo tomará un valor mayor donde hay una ola y valor cero donde el agua está en calma. Si tiramos una piedra al estanque cuando el agua está en calma (el campo vale cero en todo los puntos) provocaremos una ola que se irá propagando a través de la superficie del estanque. Habremos creado una perturbación en el campo que se irá propagando en el espacio y en el tiempo por toda la superficie. Le hemos aportado una cierta cantidad de energía al campo que éste a manifestado como una perturbación que se ha propagado por la superficie. Los físicos teóricos del siglo pasado tuvieron la genial idea de reinterpretar el concepto de partícula en mecánica cuántica. Por ejemplo, supongamos que estamos estudiando un electrón. Consideremos que ahora tomamos la función de onda y en lugar de darle la interpretación probabilística que antes le dábamos la reinterpretamos como un campo (en este caso el campo electrónico) que toma un valor en cada punto del espacio. Los físicos decidieron interpretar las partículas (electrones en nuestro ejemplo) como las perturbaciones de dicho campo, que irán propagándose por el espaciotiempo de acuerdo con su evolución. Podemos imaginarlo como el campo de la altura del agua del estanque. Las olas en el estanque serían los electrones en el campo electrónico. De igual modo que tiramos una piedra al estanque y le comunicamos energía produciendo olas, podemos perturbar el campo electrónico comunicándole energía y produciendo perturbaciones de dicho campo que se propaguen por el espaciotiempo, es decir electrones. De tal modo que reinterpretamos las partículas como perturbaciones del campo al que pertenecen. Los más sorprendente es que esta forma de interpretar las partículas en mecánica cuántica hace que la relatividad especial sea perfectamente compatible pues, como hemos visto, podemos crear y destruir partículas sin más que comunicar la energía suficiente al campo que no es más que la materialización de la fórmula de Einstein E = m c2. Visto esto, la respuesta es evidente, la forma de construir una teoría que ponga en conjunto la mecánica cuántica y la relatividad especial es reinterpretar la función de onda como una campo cuántico e interpretar las partículas como las perturbaciones o excitaciones de dicho campo. Esto es construir una Teoría Cuántica de Campos. Evidentemente si perturbamos el campo electrónico y creamos electrones, puesto que éstos tiene carga estaremos violando la conservación de la carga, así como otras propiedades que este posee. Esto, aunque expresado de una forma algo más formal, llevó a P.A.M. Dirac a postular que cada partícula fundamental tiene asociada otra partícula con sus mismas características pero con la carga contraria. Esto es la antimateria. La antipartícula del electrón el positrón, la del protón es el antiprotón, etc...

14

Isagogé, 1 (2004)


El hecho de que 2 años más tarde de la hipótesis de Dirac se encontrara experimentalmente el positrón, y posteriormente la antipartícula de cada partícula conocida, pone de manifiesto que la Teoría Cuántica de Campo es algo más que una mera elucubración de la mente de los físicos teóricos. CONCLUSIÓN A fecha de hoy, la Teoría Cuántica de Campos es esquema teórico con mayor poder predictivo de que dispone la física teórica. Ha cambiado la forma e ver las interacciones fundamentales viéndose ahora como intercambio de partículas, o mejor dicho de excitaciones del campo responsable de la interacción (por ejemplo la interacción electromagnética se entiende ahora como intercambio de fotones entre las partícula que interaccionan). Con esto no sólo se ha roto con la idea clásica y siempre molesta de acción a distancia sino que se ha conseguido revolucionar el mundo de las partículas elementales, de la unificación de las interacciones fundamentales consiguiendo acuerdos con el experimento impensables hasta el momento. La Teoría Cuántica de Campos es uno de los grandes logros de la mente humana, en lo que a ciencia se refiere y un ejemplo de que, el universo está escrito en lenguaje matemático o no, somos capaces de decir mucho sobre él desde nuestra humilde posición. Esperamos que la lectura de este artículo haya servido para, al menos, ilustrar las ideas fundamentales que se esconden detrás del enrevesado formalismo asociado a la física teórica.

BIBLIOGRAFÍA EISBERG, R. M. (1985): Quantum Physics: Of Atoms..., John Wiley & Sons Inc. PESKIN, M.E. (1995): Introduction to Quantum Field Theory, Perseus Books. RYDER, L.H. (1996): Quantum Field Theory, Cambridge Univ. Pr. WEINBERG, S. (1995): Quantum Theory of Fields: Foundations, Cambridge Univ. Pr. WEINBERG, S.: What is Quantum Field Theory and What did we think it is?, preprint: hep-th/9702027

Isagogé, 1 (2004)

15


DINÁMICA DE FLUIDOS COMPUTACIONAL: EXPERIMENTOS DESDE EL ORDENADOR José Luis Santiago del Río Si observamos detenidamente a nuestro alrededor podemos contemplar multitud de fenómenos asociados a los fluidos y a las leyes que los rigen. Van desde el vuelo de un avión hasta el agua que fluye por una tubería, desde la aerodinámica de un coche de fórmula uno hasta la fricción del traje de baño de un nadador, desde las emisiones de contaminantes por parte de industrias hasta la atmósfera en sí misma. Este amplio abanico de situaciones y muchas más que serían imposible de enumerar conforman el, o mejor dicho, los campos de actuación de la mecánica de fluidos. Desde la Antigüedad, ya Arquímedes analizaba el comportamiento de fluidos como el agua. Observó, entre otras cosas, como un fluido sometido a un gradiente de presión se desplaza desde la zona de mayor presión hasta la de menor siguiendo la dirección de máximo decrecimiento. Hasta pasado ya mucho tiempo de esto no se obtuvieron avances destacables en este campo. Fue ya Leonardo da Vinci en el siglo XV quien realizó varias contribuciones. Una de las más sobresalientes fue la ecuación de continuidad o principio de conservación de la masa. De esta forma estableció que un fluido incompresible que se mueve en un conducto cumple que: A·V=constante donde A es la sección transversal del conducto y V es la velocidad del fluido. Esta expresión nos muestra como ante un estrechamiento del conducto produce un aumento de velocidad del fluido. Otro aspecto sorprendente en el estudio de Leonardo es capacidad para la observación de la naturaleza. En algunos esquemas dibujados por él se muestran diferentes estructuras en remolinos propias del choque del viento con objetos que lo obstaculicen a su paso. Bien podría decirse que son los primeros ensayos en «túnel de viento». De aquí, Leonardo estableció el famoso principio de reciprocidad donde establecía que es recíproca la fuerza que ejerce el aire al chocar con un objeto en reposo que la que ejerce ese mismo objeto en movimiento contra el aire en reposo. A lo largo de los siglos XVII y XVIII se fueron realizando diferentes avances como la ley del cuadrado de la velocidad o el principio de Bernouilli que relaciona la presión con la velocidad, hasta llegar al establecimiento de las ecuaciones de movimiento de los fluidos por Euler, aunque sin incluir la fricción, efecto que sería introducido ya en siglo XIX en las famosas ecuaciones de Navier-Stokes. Pero la obtención de las ecuaciones no deja el problema concluido ya que el siguiente paso es resolución de las mismas, cuestión prácticamente imposible para la mayoría de los casos desde un punto de vista analítico. Durante mucho tiempo la única manera de ver el comportamiento del aire en distintas situaciones, ya sea para calcular la resistencia de algún tipo de material de construcción, la estructura idónea de alguna instalación o la aerodinámica de un coche han sido las experiencias en túneles de viento. Los experimentos en túneles de viento consisten en la recreación de la realidad a escala mediante maquetas, para posteriormente a través de una serie de sensores colocados en zonas adecuadas poder medir en esos puntos magnitudes como la velocidad del viento, la turbulencia, la carga aerodinámica, etc. También son utilizados 16

Isagogé, 1 (2004)


en múltiples ocasiones gases trazadores para la visualización del flujo. No se debe olvidar que en estas experiencias se ha de guardar una relación de proporcionalidad adecuada en todas las magnitudes para poder comparar estas situaciones con la realidad. Los túneles de viento siguen siendo hoy en día muy empleados en todo tipo de estudios sobre fluidos y los datos resultantes de estas experiencias son muy valorados. Sin embargo, actualmente existe una alternativa a estos experimentos y son los CFDs (acrónimo procedente de la denominación inglesa, «Computacional Fluid Dynamics »). Los CFDs son programas basados en la simulación por ordenador que resuelven las ecuaciones propias de la dinámica de fluidos, transferencia de calor e incluso otras, si procede, que tengan en cuenta las reacciones químicas entre especies. Estas soluciones como es obvio son soluciones numéricas y no analíticas. En este tipo de problemas es impropio buscar las soluciones analíticas, entre otras cuestiones porque puede que no tengan. Un dato curioso es que actualmente han pasado más de 150 años después del establecimiento de las ecuaciones de Navier-Stokes, y es entonces cuando se están resolviendo mediante técnicas de cálculo aplicadas en ordenadores. La historia de los CFDs, como es lógico, va unida a la evolución de los ordenadores. Surgió en la década de los 70 como medio para simular fluidos en movimiento, aunque para situaciones muy simples. Con la evolución de los superordenadores y con el desarrollo de nuevas técnicas numéricas los problemas que resolvían eran cada vez más complejos. Ya a principios de los años 80 resolvían las ecuaciones de Euler en dos y posteriormente en tres dimensiones. A mediados de la década de los 80 se fue desplazando el interés hacia los fluidos viscosos y por tanto hacia la resolución de la ecuaciones de Navier-Stokes. También se fueron desarrollando distintos esquemas de turbulencia. El uso de los CFDs ha cambiado radicalmente. Ha pasado de ser empleado solo a nivel de investigación a ser utilizado como una potente herramienta en problemas aplicados de ingeniería. En la actualidad son múltiples los campos a los que se aplican los CFDs. La industria del automóvil es uno de estos campos, donde, por ejemplo, se puede simular el comportamiento aerodinámico del coche, de hecho las escuderías de fórmula uno emplean este tipo de software para mejorar el rendimiento de sus coches. También en el ámbito deportivo cabe destacar el uso en estudios aerodinámicos en el ciclismo, de diseño de embarcaciones e incluso en diseño de ropa de baño de alta competición. Otro campo de actuación es la ingeniería medioambiental. Los problemas que aborda en este ámbito son la dispersión de contaminantes en diferentes entornos: ciudades, dentro de calles, en complejos industriales,... Para ello también calculan los campos de viento y otras variables atmosféricas que caracterizan las distintas situaciones. Incluso se han empleado en situaciones biomédicas donde se ha simulado el flujo sanguíneo por las arterias. Otros problemas a los que son aplicables son a procesos donde se produzcan reacciones químicas como puede ser la combustión en un horno o situaciones de intercambio de masa y calor. Y así se podría seguir enumerando el amplio espectro de campos en los que los CFDs son de gran utilidad.

Isagogé, 1 (2004)

17


Figura 1. Aplicación de un CFD a la obtención del viento al chocar con varias configuraciones de edificios.

Figura 2. Aplicación de un CFD a la aerodinámica de un coche de fórmula uno. (Gráfica tomada de la página web de FLUENT, un CFD de uso comercial).

Pero este tipo de programas no se pueden tomar como la panacea: le damos a un botón y obtenemos la solución que deseamos. Existen multitud de dificultades que se han de afrontar antes de obtener una buena solución. En primer lugar no podemos perder de vista que la solución debe de ser acorde a la realidad. De nada nos sirve una «bonita» solución si no se aproxima a los experimentos físicos. Luego, el modelo que se emplee ha de superar un contraste experimental. Y para situaciones reales relativamente complejas es complicado llegar a un alto nivel de exactitud con la realidad. Para ello se crean nuevos esquemas de 18

Isagogé, 1 (2004)


turbulencia que se acerquen cada vez más a la realidad, nuevos esquemas de reacciones químicas más completos, nuevos tipos de mallado1,... Pero como contrapartida está la otra cara de la moneda: el tiempo de cálculo. Mientras más complejo sea o más completo queramos resolver nuestro problema mayor carga computacional debe soportar el ordenador, y por lo tanto mayor tiempo transcurrirá en poder obtener una solución. En determinadas ocasiones se alcanzan tiempos inmanejables para una aplicación práctica, aunque estos casos pueden ser útiles en el campo de la investigación. El orden de magnitud de tiempo de cálculo puede oscilar entre minutos para simulaciones relativamente sencillas hasta semanas para simulaciones complejas con esquemas de turbulencia avanzados como pueda ser el LES (acrónimo de la denominación inglesa «Large Eddy Simulation») donde solo se emplee un procesador. Una técnica utilizada para disminuir el tiempo de cálculo es la paralelización. Consiste en parcelar el programa en partes de forma que cada una de ellas pueda ser ejecutada por separado en una CPU distinta. Actualmente, aunque los PC son cada vez más rápidos, este tipo de programas suelen ser ejecutado en estaciones de trabajo o e superordenadores con varias CPUs. El funcionamiento de un CFD se puede dividir en tres módulos: ?? Pre-procesamiento: es en esta parte donde se define el dominio, la geometría y el mallado del problema, así como las condiciones de contorno. ?? «Solver»: aquí como su propio nombre indica se resuelven las ecuaciones mediante técnicas numéricas. ?? Post-procesamiento: esta última etapa consiste en la representación gráfica de los resultados obtenidos. En este artículo se ha pretendido dar una visión sobre la evolución de la resolución de los problemas de la mecánica de fluidos, así como su situación actual, donde los programas CFD juegan un papel relevante. Espero tener la oportunidad de en próximos artículos de Isagogé mostrar de manera más extensa algunos aspectos interesantes sobre la mecánica de fluidos computacional.

BIBLIOGRAFÍA BLAZEK, J. (2001): Computacional Fluid Dynamics: Principles and Applications, Elsevier. JOHNSON, R.W. (1998): The Handbook of Fluid Dynamics, CRC. VERSTEEG, H. K. y W. MALALASEKERA (1995): An introduction to Computacional Fluid Dynamics, Pearson Prentice Hall.

1

Mallado: División del dominio en partes discretas.

Isagogé, 1 (2004)

19


BIOSENSORES ÓPTICOS Ana González Segura ¿Qué entendemos por biosensor? Un biosensor, como su nombre indica, es simplemente un dispositivo electrónico que se encarga de detectar sustancias biológicas en una determinada muestra, o, de forma algo más rigurosa, podría definirse como «una herramienta o sistema analítico compuesto por un material biológico inmovilizado (tal como una enzima, anticuerpo, célula entera, orgánulo o combinaciones de los mismos), en íntimo contacto con un sistema transductor adecuado que convierta la señal bioquímica en una señal eléctrica cuantificable» (fig. 1).

Fig. 1. Esquema de Biosensor.

Quizá, el biosensor más conocido y difundido comercialmente sea el utilizado por los diabéticos para medir la concentración de glucosa en sangre. Su funcionamiento se basa en el anclaje sobre un electrodo de una enzima seca (en estado hidrofilizado) que, al entrar en contacto con la sangre, se regenera, originándose así una reacción química que lleva asociado un movimiento de electrones. El electrodo es capaz de registrar dicho cambio y traducirlo en la información que aparecerá en la pantalla del medidor de forma casi inmediata. Sin embargo, la cantidad y tipos de biosensores que actualmente están en uso o en periodo de investigación es mucho más amplia, ya que dentro de los mismos podemos incluir desde sensores de hidrógeno hasta sensores de ADN, pasando por dispositivos detectores de colesterol en sangre o de virus tales como el SIDA. Todos ellos poseen una característica común: para poder detectar una determinada sustancia, a la que denominaremos «analito» (por ejemplo, un antígeno), es necesario anclar a nuestro sensor otra que actúe como receptora (su correspondiente anticuerpo). Otras aplicaciones de este tipo de tecnología son las usadas en alimentación para el análisis de alimentos susceptibles de contener sustancias nocivas tales como la bacteria de la salmonella, por ejemplo. También hay muchos grupos de investigación trabajando en la creación de biosensores para la detección rápida de agentes contaminantes en caso de guerra química y bacteriológica. En realidad, el uso de biosensores puede extenderse a una infinidad de campos, ya que, como veremos, si se tiene el receptor biológico adecuado, esta tecnología es susceptible de detectar prácticamente cualquier sustancia. 20

Isagogé, 1 (2004)


Biosensores ópticos Algunas de las propiedades que posee la luz, ya sea la de ser guiada a través de ciertas estructuras o la de sufrir fenómenos de resonancia, pueden ser aprovechadas para implementar un biosensor, que en este caso recibe el nombre de biosensor óptico. Su funcionamiento es esencialmente el mismo que el sensor de glucosa, sólo que ahora es la luz la que se encarga de proporcionarnos la información. Los pasos a seguir para desarrollar uno de estos dispositivos de forma completa serían, primero, decidir que efecto óptico queremos que esté involucrado en el funcionamiento del sensor; segundo, conocer cómo inmovilizar el receptor biológico en la superficie del sensor y cómo hacer que éste sobreviva y, por último, proponer un sistema de adquisición y tratamiento de datos (hardware y software) apropiado. Veamos con más detalle los dos primeros. Los efectos ópticos que actualmente se proponen para el desarrollo de un biosensor son tres: la fluorescencia, las configuraciones de campo evanescente y la absorción. La fluorescencia consiste en la emisión de luz por parte de los átomos cuando, tras un proceso previo de excitación, éstos vuelven al estado fundamental. En nuestro caso, cada analito genera unos parámetros característicos de excitación-emisión, con lo que es posible determinarlo unívocamente. El segundo efecto tiene que ver con sensores que utilizan guías de onda. En una guía de ondas, la luz se transmite en condiciones de reflexión total interna. Sin embargo, el campo electromagnético no queda estrictamente confinado en el interior de la misma, sino que parte de él escapa al exterior presentando un decaimiento exponencial. Es el campo evanescente, que será el encargado de detectar la sustancia de interés, ya que cualquier cambio que se produzca en él influirá en las características de la luz que se propaga por el interior de la guía. También puede ocurrir que la interacción analito-receptor lleve asociado un fenómeno de absorción. De este modo, cuando ambas sustancias reaccionen, la cantidad de luz que llega al detector se verá afectada. Cuando pretendamos anclar el receptor sobre nuestro sensor, hay que tener en cuenta que la inmovilización se realiza a escala nanométrica y sobre soportes sólidos. La técnica más usada es recubrir la superficie de la guía con algún metal, de forma que ésta se consiga mediante enlaces covalentes (fig. 2). Sin embargo, también existen muchas otras técnicas como por ejemplo, el atrapamiento físico del receptor sobre una membrana o un polímero, o bien la adsorción directa sobre el sensor. Por otro lado, para que el receptor sobreviva, éste debe estar en disolución acuosa, con lo que es necesario disponer de celdas de flujo que contengan la parte adecuada del sensor y que permitan que dicha disolución se regenere. Analito Sustancia receptora En lace Cova lente

Capa de oro Gu ia

Fig. 2. Metodo de anclaje por en lace covalente

Isagogé, 1 (2004)

21


El método de anclaje por enlace covalente puede conseguirse depositando una película de oro sobre la superficie del sensor y consiste, a grandes rasgos, en provocar modificaciones químicas en la superficie de este metal que den lugar a un enlace covalente entre los átomos de su superficie y una parte específica de la sustancia receptora (deben quedar libres las partes que reaccionarán con el analito). Para conseguir el anclaje óptimo, se conectan a la placa de oro unas microcubetas con distintas disoluciones que se hacen pasar en un determinado orden (según sea su pH o concentración). Todos los pasos se monitorizan para comprobar que se están produciendo las reacciones químicas buscadas, y una vez que se comprueba que la proteína está bien anclada, se conecta a un sistema de flujo automatizado que la mantiene constantemente en contacto con una solución salina. Una de las partes más delicadas en cuanto a la construcción de un biosensor es la de mantener vivo el receptor, que no se degrade y que permanezca estable. Esto se subsana manteniéndola en disolución constante con un pH y una temperatura adecuados. Biosensores basados en dispositivos de óptica integrada Los biosensores basados en dispositivos de óptica integrada están adquiriendo una gran importancia hoy en día debido a su alta sensibilidad, estabilidad mecánica, posibilidad de miniaturización e integración en microsistemas y fabricación a gran escala. Este tipo de biosensores se basa en el principio de modulación del campo evanescente que ya se definió anteriormente. Antes de pasar a explicar su funcionamiento, merece la pena comentar que la óptica integrada es una tecnología capaz de construir a escala micrométrica cualquier dispositivo óptico (como puede ser una guía de ondas o un espejo), de forma que un microchip pueda contener un sistema óptico completo. Debido a su alta sensibilidad, una de las configuraciones que se está estudiando es la basada en un interferómetro Mach-Zender (fig.3). Un Mach-Zender es un dispositivo en el que un haz de luz se divide en dos subhaces que luego se vuelven a unir. Si por algún motivo, en alguno de los dos caminos aparece algún fenómeno que genere un retardo de fase, cuando los haces vuelvan a juntarse, obtendremos un patrón de interferencia que puede traducirse en un cambio en la intensidad del haz original.

Camino 1 Haz final

Haz original

Camino 2 Fig. 3: Interfero met ro Mach-Zender.

Los biosensores basados en interferómetros de esta clase se construyen haciendo crecer con Silicio una guía de ondas con la estructura del Mach-Zender sobre un cierto sustrato y anclando en uno de los brazos la sustancia receptora (fig. 4). Cuando, tras hacer pasar luz por el interior de la guía, tiene lugar una reacción de reconocimiento molecular en la rama sensora del interferómetro se produce un cambio de fase entre las dos ramas, que se detecta como un cambio en el patrón de interferencia. La intensidad 22

Isagogé, 1 (2004)


de este patrón dependerá, entre otras cosas, del incremento de masa en la rama de medida y será función de la concentración del analito en el medio. Obtenemos, así, un sensor directo y rápido para determinar cualquier sustancia de la que se disponga su molécula complementaria. Sustrato Gu ia Zona sensora

Zona sensora

Gu ia Sustrato

Fig. 4. Vista superior y latera l del biosensor interferometrico.

Conclusiones Las técnicas de análisis de laboratorio más habituales, ya sean de contaminantes químicos o sustancias biológicas, son generalmente tediosas e indirectas. Contar con dispositivos de alta sensibilidad, portátiles y de medición directa supondría un ahorro de tiempo y costes. Combinando componentes ópticos y microelectrónicos con materiales biológicos, es posible desarrollar biosensores basados en la tecnologías como la del silicio. En ellos la vida y la microelectrónica se alían para servir de base a unos dispositivos con múltiples aplicaciones, ya que cambiando la parte biológica pueden medir desde contaminantes ambientales hasta variaciones genéticas o contaminaciones en alimentos. Análisis directos e inmediatos sobre pequeñas muestras son las principales ventajas que ofrecen los últimos biosensores desarrollados. De este modo, estamos ante un dispositivo muy potente que permite la detección de manera selectiva, directa (sin marcadores) y rápida (de segundos a minutos).

Isagogé, 1 (2004)

23


ARTÍCULOS VARIOS

BIOLOGÍA DEL AUTISMO Antonio José Miralles Aranda «Yo soy yo y mis circunstancias». José Ortega y Gasset (1883-1955)

(En el presente artículo intentaremos hacer un recorrido por los conocimientos básicos que sobre la enfermedad del autismo tenemos hoy día, y cuyo interés se sostiene debido al aumento en la detección de estos enfermos y a la búsqueda de soluciones para un problema que cada día parece crecer entre la sociedad, o al menos del que cada vez somos más conscientes.)

El término autismo recoge un espectro de enfermedades relacionadas, que cursan por una serie de síntomas básicos tales como: ?? Incapacidad de interpretar los estados emocionales de los demás. ?? Limitación en la capacidad de expresión verbal, no verbal e imaginación. ?? Conducta repetitiva estereotipada. Se trata de un trastorno del desarrollo, que aparece en los niños de los 0 a 3 años de edad, con una frecuencia de 2 a 16 autistas por cada 10.000 niños, siendo de 3 a 4 veces más frecuente en niños que en niñas. Actualmente se reconocen hasta 5 tipologías básicas: ?? Autismo. Presentan retraso al hablar y al razonar. Sin retraso en actividades motoras. Su coeficiente intelectual está generalmente por debajo del 50. ?? Síndrome de Asperger. Sin retraso al hablar ni al razonar, puede presentarse en actividades motoras. Su coeficiente mental puede ser normal e incluso superior a 100. ?? Presentan conductas excéntricas, pensamiento concreto, excelente memoria y obsesión por ciertos temas. Pueden llegar a tener una vida normal. ?? Trastorno desintegrativo infantil (CDD). Retraso al hablar, al razonar y en actividades motoras. Retraso mental profundo o severo. ?? Síndrome de Rett. Exclusivo de niñas. Sin retraso al hablar, si en razonar y actividades motoras. Retraso mental profundo o severo. Tuercen las manos violenta y repetitivamente, pierden el habla, mecen el cuerpo, etc. ?? Trastorno generalizado del desarrollo no específico (PDD-NOS). Incluye a su vez un amplio conjunto de trastornos como: — Síndrome del X frágil. — Síndrome de Landau-Kleffner. — Síndrome de Williams. 24

Isagogé, 1 (2004)


Existen algunas manifestaciones físicas que aparecen en el niño autista, pero que no sirven para su diagnóstico como: ?? La comisura de la boca es baja, respecto al centro del labio superior. ?? La parte superior de las orejas están abatidas. ?? Las orejas se encuentran en posición más baja de la normal y son casi cuadradas. Interiormente el tallo cerebral es más corto en el autista, carece de centro superior de la oliva y su núcleo facial es menor que el de una persona normal (0,2 mm. en lugar de 1,1 mm.). Presentan hipoplasia en cerebelo e hiperplasia en lóbulo frontal, altos niveles de serotonina en plaquetas (30% más), apareciendo todas estas manifestaciones en etapas tempranas de la gestación. Sin embargo las principales manifestaciones son de tipo social como: ?? Deterioro en la comunicación. Basados en; — Agnosia auditiva verbal. Incapacidad para descodificar el lenguaje recibido y no compensados con elementos no verbales (dibujos o gestos). — Síndrome fonológico-sintáctico. Pobreza semántica y gramatical. Vocalización deficiente. — Síndrome léxico-sintáctico. Ausencia de relación entre palabra e idea. — Trastorno semántico-pragmático. Alteración del uso social o comunicativo del lenguaje. Problemas en el turno de palabra, inicio de conversación o el lenguaje figurado. — Clarificaciones. Necesidad de repetir frases, conceptos e ideas de maneras distintas. — Mutismo selectivo. Ausencia total de lenguaje en algunas ocasiones. — Trastorno de la prosodia. Errores de entonación y ritmo al hablar. — Hiperlexia. Lectura de alta perfección pero baja comprensión. ?? Interpretaciones y comportamientos restringidos y repetitivos. Obsesión por un tema. Evitan los cambios. Insistencia en acciones rutinarias sin sentido (enrollarse el pelo, mecerse, frotarse las manos, etc.) ?? Nivel intelectual anormal. Muy variable. La mayoría no superan un 50 de IQ (coeficiente intelectual), excepcionalmente existen niños autistas superdotados. ?? Efectos colaterales. Dificultad para aceptar una negativa. Ansiedad e hiperactividad ante la imposición de normas. Conductas manipuladoras. Incapacidad para interpretar estados emocionales de los demás. En cuanto a las causas que se proponen, para estos trastornos del desarrollo ya comentados, se habla de factores ambientales como: el hipotiroidismo maternal, el consumo de alcohol por parte de la madre durante el embarazo, la talidomida o ácido valproico, la infección congénita por citomegalovirus, rubéola o por vacunación del sarampión. Últimamente los esfuerzos se están centrando en el estudio de la base genética de la enfermedad, con el fin de llevar a cabo una terapia génica efectiva. La relación entre genética y autismo data de 1977, del estudio con hermanos gemelos y mellizos, al encontrar diferencias en la frecuencia de aparición de la enfermedad o por ejemplo, en Isagogé, 1 (2004)

25


casos demostrados, como el síndrome de Rett, que es causado por un malfuncionamiento del gen MECP2, cuya expresión se encarga de modular otros genes en el cerebro. Al estar dicho gen en el cromosoma X, sólo se da en niñas, ya que los niños que lo padecen no llegan a nacer. Este estudio genético está aún “en pañales” y se han propuesto varios modelos para explicar el autismo. Por ejemplo: 3 loci con interacciones epistáticas, mecanismos de autoinmunidad en neuronas específicas o mecanismos epigenéticos. En cuanto al estudio de estos genes existen muchos genes candidatos, preferentemente en los cromosomas 2, 16 y sobre todo el 7, donde está el gen HOXA-1 que interviene en el desarrollo del tronco cefálico o el SPCH1, factor de transcripción relacionado con problemas en el lenguaje. Otros candidatos se asocian al metabolismo y a receptores de serotonina, GABA, glutamato o noradrenalina. En relación a la autoinmunidad, se han encontrado alteraciones en los niveles de interleukinas 2 y 6, en la actividad de células T “killer” así como en la tasa de apoptosis neuronal, aunque al igual que con los genes aún no podemos establece relaciones claras. También se está avanzando mucho para paliar los problemas sociales del autista, en materia educativa, en el uso de medicamentos e incluso con terapias alternativas, que al menos permiten eliminar conductas “no deseables” dañinas y auto-destructivas. Existe también teorías sociales al respecto como: ?? Cerebro social, basada en el descubrimiento de una nueva región la FFA que participa en el procesamiento y discriminación de las caras, y que sería hipoactiva en los niños autistas. ?? Coherencia central. Sobre la cual, el autista se fija en detalles y en partes y carece de idea global. ?? Teoría de la mente, Centrada en un fallo en el sistema conceptual y el mecanismo de inferencia para la comprensión y predicción de los estados mentales, o la ?? Intersubjetividad, que sugiere que el autismo puede ser el producto de alteraciones en los procesos primeros de adaptaciones emocionales intersubjetivas. Existen otras medidas paliativas a destacar: las dietas sin gluten, terapias (conductistas, de integración sensorial, entrenamiento auditivo), lentes irlen, incluso se ha demostrado el efecto positivo que los animales de compañía ejercen sobre los niños autistas. El autista se enfrenta con problemas en el estudio, en la inserción laboral y sobre todo en las relaciones afectivas, aunque existen casos en los que consiguen vivir de manera independiente, e incluso llegan a casarse. Algunos se licencian y son concienzudos trabajadores, aunque no llegan a alcanzar puestos directivos. Rara vez necesitan vivir en instituciones, pero lo más frecuente es que sean sus padres los que cuiden de ellos. A pesar de los grandes esfuerzos por parte de instituciones como el NINDS e innumerables grupos de investigación, debemos decir lamentablemente que hoy día no hay curación completa para esta enfermedad. Sin embargo, en aquellos casos más leves del espectro autista, con una detección precoz y acompañada de unas medidas paliativas adecuadas, podremos conseguir que el 26

Isagogé, 1 (2004)


autista viva una vida “normal”, pues no debemos olvidar que se trata básicamente de una enfermedad de tipo social, donde la integración y el respeto juegan un papel fundamental. El mayor de los avances se conseguiría, en este aspecto, si la sociedad comprendiese la importancia que tiene ya no sólo para el autista, sino para cualquier persona, su desarrollo completo dentro de la sociedad. Para ello, debemos conocer la enfermedad, respetar y facilitar la vida del enfermo y tratar de integrarlo de la manera más natural posible al complejo mundo social en el que vivimos.

ARTÍCULOS Y PÁGINAS WEB PARA CONSULTAR ?? Genética del Autismo. II Jornadas de Autismo. Una discapacidad, física psíquica y social (20-22 Marzo 2003). Manuel Ruiz Rubio. Profesor de la UCO. Departamento de Genética. ?? Autismo Precoz. Patricia M. Rodier. Investigación y ciencia; Abril, 2000. ?? Susan E. Folstein and Beth RosenSheidley : Genetics of autism complex aetiology for a heterogeneus disorder. Nature Reviews ( Genetics ) Volumen 2. Diciembre 2001. McMillan Magazines Ltd. ?? Ruthmary K. Dewel, MD. Autism a cognitive devalopmental riddle. Elseiver Science Inc. 2002. Review article. ?? Elena Korvatska et col. Review: Genetic and inmunologic considerations in autism. Elseiver Science 2002. Neurobiology of disease. ?? M.B. Laurittsen and H. Ewald. Review article: The Genetics of autism. Acta Psychatr Scand 2001:103:411-427. A fecha de octubre de 2004: http://www.ncbi.nlm.nih.gov/ http:// www.agre.org http://www.autismgeneticresearch.org http://www.autism-society.org http://www.oneworld.org/autism_UK http://www.autismo.com/scripts/articulo/slistaesp.idc http://salud.discapnet.es/discapcidades+y+deficiencias/trastornos+del+aprendizaje/a utismo+20 http://www.ninds.nih.gov/health_and_medical/pubs/autismo.htm http://www.autismo.com http://www.elalmanaque.com/ Medicina/sabiduria/art27.htm http://www.diariomedico.com/edicion/noticia/0,2458,146959,00.html http://www.uag.mx/202/autismo_elmanejo.htm http://espanol.geocities.com/alma_rosa_99/ http://www.saludhoy.com/htm/nino/articulo/autismo.html

Isagogé, 1 (2004)

27


EL ACIDO ACETILSALICÍLICO. EL MEDICAMENTO Sonia López Molina INTRODUCCIÓN Dentro de los grandes iconos del siglo XX sin duda alguna se encuentra el ácido acetilsalicílico, más conocido como Aspirina, nombre comercial del medicamento fabricado por la Bayer. Sin duda, es un elemento común de la vida diaria, pero no por eso está dotado de interesantes propiedades inherentes a su estructura y composición. En este trabajo pretendemos dar una idea general de lo qué es el ácido acetilsalicílico, de su síntesis y su actividad biológica. Daremos unas breves notas históricas, la evolución del principio activo hasta su forma actual y estudiaremos de forma somera en que se basa su actividad farmacológica. ORIGEN Y NOTAS HISTÓRICAS El ácido acetilsalicílico es un derivado del ácido salicílico , que es un analgésico no narcótico el cual alivia principalmente cefaleas y dolores musculares, entre otras propiedades. Su uso está documentado desde la época de Hipócrates (460 a.C.), cuyos archivos relatan los tratamientos sintomáticos del dolor, fiebre y cefaleas usando corteza de sauce blanco (Spirea ulmaria). Posteriormente, en 1829, se descubre que era el salicino, ácido salicílico, el principio activo responsable de la actividad farmacológica. Esto presentaba un problema, su pH era muy bajo y por lo tanto su consumo era poco recomendable, en el desarrollo de las investigaciones se añadieron soluciones tampón para elevar el pH a niveles aceptables. La primera persona que empleó esta técnica de control del pH fue, Charles Frederic Gerhardt, un químico francés que en 1853 neutralizó el ácido salicílico con un tampón de sodio, y obtuvo el salicilato sódico que mantenía la capacidad analgésica pero producía molestias gástricas. El compuesto del ácido acetilsalicílico fue obtenido por Felix Hoffman en 1897 buscando un tratamiento para la artritis reumatoide que padecía su padre, introduciendo un grupo acetilo lo que mejoraba su tolerancia. Fue en 1899 cuando se comercializó por primera vez con el nombre de Aspirina y en forma de polvo. ESTRUCTURA Y SÍNTESIS La estructura del ácido acetilsalicílico es un éster-acetilado del ácido salicílico. Actualmente el ácido acetilsalicílico se sintetiza de forma industrial según el siguiente proceso: Fenol + Solución acuosa de Hidróxido sódico (NaOH) + Calor ? Fenolato sódico + Agua (H2O) Fenolato sódico + Dióxido de Carbono (CO2) ? Salicilato sódico + Fenol 28

Isagogé, 1 (2004)


El producto se deja enfriar y se produce la siguiente reacción: Salicilato sódico + Ácido sulfúrico (H2SO4) ? Ácido Salicílico + Sulfato sódico (Na2SO4) Ácido Salicílico + Anhídrido Acético ((CH3COO)2)? Ácido acetilsalicílico + Ácido acético (CH3COOH)

OH

O O II II CH3-C-O-C-CH3

H2SO4

CO2H

Ácido Salicílico

O II OCCH3

CO2H

Anhídrido Acético

Ácido O- Acetilsalicílico

ACCIÓN FARMACOLÓGICA Y MECANISMOS DE ACCIÓN El ácido acetilsalicílico actúa sobre un equilibrio enzimatico que se presenta en situaciones fisiológicas normales. Este equilibrio está relacionado con la producción de prostaglandinas, que son las sustancias que informan al sistema nervioso central de la lesión activando la respuesta biológica del dolor la fiebre y la inflamación. La acción se manifiesta inhibiendo la producción de estas sustancias así cómo incapacitando de forma permanente a las plaquetas de su propiedad de agregamiento que está también íntimamente ligada a la presencia de prostaglandinas. El ácido acetilsalicílico tiene los siguientes efectos terapéuticos: 1.

Efecto Analgésico: Alivio de dolores leves o moderados. Actúa bloqueando la transmisión del impulso doloroso en una acción analgésica periférica. Es decir, la actuación se realiza sobre el mismo foco del dolor no a nivel del sistema nervioso central. Una lesión en un tejido, lesión hística localizada, induce la liberación de prostaglandinas, el ácido acetilsalicílico inhibe la actuación de la enzima, la ciclooxigenasa, que activa las prostaglandinas, por lo tanto rompe el mecanismo de reconocimiento del dolor por parte del sistema nervioso. También se acopla a los receptores neuronales de la serotonina y la histamina.

2.

Efecto Antiinflamatorio: La inflamación es una respuesta del organismo de una lesión tisular ya sea interna o externa. En los procesos inflamatorios son liberadas diversas sustancias como las prostaglandinas, las cuales provocan vaso dilatación y sensibilizan los receptores nerviosos al dolor. Disminuye los síntomas inflamatorios estabilizando las membranas celulares e inhibiendo numerosas rutas que intervienen en el proceso inflamatorio.

Isagogé, 1 (2004)

29


3.

Efecto antipirético: La fiebre es una alteración de los mecanismos reguladores de la homeostasis de un organismo, es una reacción ante la presencia de la presencia de agentes externos patógenos o disfunciones fisiológicas internas. El ácido acetilsalicílico actúa como vasodilatador y ayuda a la disminución de la temperatura. El efecto antipirético es selectivo, es decir, sólo se presenta cuando el organismo presenta síntomas de febrícula ya que esta viene mediada también por la presencia de prostaglandinas.

El ácido acetilsalicílico, gracias a su acción de inhibición plaquetaria, se presenta como un tratamiento muy adecuado en la prevención de trombos vasculares, del infarto cardiaco y/o cerebral. APLICACIÓN TERAPÉUTICA Este fármaco se suele usar en cefaleas, inflamación , fiebre, dolores musculares, etc. También es un potente preventivo infarto de miocardio, angioplastia coronaria, accidentes cerebrales no hemorrágicos, etc. Todos estas aplicaciones están en correspondencia directa con la acción del ácido acetilsalicílico sobre las prostaglandinas. Se ha de tener en cuenta que se pueden dar reacciones alérgicas a los salicilatos, pudiendo llegar a ser mortales. Las reacciones principales descritas en la bibliografía medico-farmacéutica son reacciones cutáneas, respiratorias, oculares o cardiovasculares ya que produce una subida de la tensión cardiovascular. Es evidente que está contraindicado en pacientes con deficiencia en la coagulación y en aquellos con problemas gastrointestinales. Además hay posibilidad que, aún en las dosis analgésicas normales, se produzca un aumento en los niveles de ácido úrico en sangre.

BIBLIOGRAFÍA CAREY, F. A. (1999): Química Orgánica, McGraw-Hill / Interamericana de España S.A.U, 1º edición. LANGE, N. A.(1973): Handbook of Chemistry, McGraw-Hill, 11ª edición. WINDHOLZ, M. (1983): The Merck Index, Merck & Co., Inc. Rahwary, 10ª edicion.

30

Isagogé, 1 (2004)


ETOLOGÍA HUMANA José Mª Martínez Jiménez El comportamiento humano es muy complejo y explicarlo, por tanto, se hace tarea difícil al tener que barajar la multitud de factores que lo condicionan. Uno de los aspectos que repercute especialmente en el análisis comportamental del individuo, es precisamente la percepción y autorreflexión que este tiene sobre dicho comportamiento, y la consciencia de sí mismo en contraposición con los demás y su entorno. También influyen en las distintas formas de percibir dicha información, factores pertenecientes al mundo de las ideas, como las normas (leyes o normas morales), nuestra posición en la estructura social a la que pertenecemos, la experiencia,... La mente humana se caracteriza por su tendencia a repetir comportamientos exitosos, creando una «rutina» que todos tendemos a tener. La ciencia de la Psicología es la que dedica sus esfuerzos a la apasionante tarea de estudiar al ser humano en esos aspectos. En múltiples ocasiones se define la psicología como «el estudio del comportamiento humano», pero la palabra comportamiento o conducta se refiere a todo aquello que «hace» un individuo, a nivel externo u observable, y por tanto se limita así misma por el uso mismo de la palabra, y excluye el estudio de todos lo procesos internos, vivencias, experiencias, alejados de la definición de conducta de notables investigadores como Donald Olding Hebb (19041985), considerado como padre de la psicobiología cognitiva y curiosamente opuesto al conductismo radical, que describen conducta «como todo movimiento muscular o glandular». Según esto el llanto es una conducta, no así el sufrimiento que es una experiencia interna. Así mismo escribió: «La Psicología moderna reconoce tácitamente que la conducta y la función neural están perfectamente correlacionadas. No existe un alma separada o una fuerza viviente que introduzca el dedo en el cerebro de vez en cuando y haga que las células nerviosas hagan lo que no harían en forma normal. Se puede concebir que algún día esta presunción podrá ser desechada. Pero es importante también ver que ese día no ha llegado todavía... Uno no puede ser determinista en Física y en Química y ser un místico en Psicología»1.

Definir de forma precisa qué es la psicología nos llevaría mucho tiempo. A cambio dedicaremos ese tiempo a analizar los comportamientos menos conscientes o que realizamos sin necesidad de un proceso previo de pensamiento y decisión. La ciencia que se ocupa de este estudio es la Etología Humana, que descrita por Linda Mealey, presidenta de la Sociedad Internacional de Etología Humana (ISHE), «se ocupa del estudio de los comportamientos de las personas desde su aspecto biológico e innato, y por ello, independiente de la cultura en la que se desarrolle el individuo.» La etología tiene muy difícil acceder a ese conjunto de experiencias, sensaciones o vivencias internas de las que antes hablábamos por ser sus objetos de estudio animales y por tanto es una forma de estudiar el comportamiento bastante conductista. La etología como ciencia es muy reciente, fundada por Konrad Lorenz y Nikolaas Tinbergen en los años 30. En 1973, ellos junto a Karl von Frish, recibieron el premio Nobel de Medicina por sus descubrimientos y teorías con respecto a la explicación del comportamiento animal. La etología estudia el comportamiento con la Teoría de la Evolución como base teórica. Con esta perspectiva se puede ampliar la comprensión del porqué del comportamiento humano. Por ejemplo, gracias al estudio con animales hoy podemos explicar de modo satisfactorio las relaciones y las respuestas de un bebé humano en sus 1

Ver: http://www.univalle.edu/noticias/journal/journal6/pag8.htm (13 de julio 2004)

Isagogé, 1 (2004)

31


relaciones con sus padres durante los primeros años de vida y gran parte de las reacciones y del comportamiento infantil. Las diferentes respuestas sexuales en humanos de uno y otro sexo se ajustan muy bien a las explicaciones que aporta la etología, incluso podemos explicar estructuras sociales actuales valiéndonos de hipótesis que asignan importantes valores adaptativos muy considerables en cuanto al éxito reproductor de cada uno de los individuos de dicha sociedad se refiere. Hay tres conceptos básicos en los que se apoya la etología para elaborar sus propuestas y explicaciones. Uno de ellos es el de Eficacia biológica, este está íntimamente relacionado con el de éxito reproductor. Según este concepto, un individuo tiene una mayor eficacia biológica cuantas más copias de sus genes sea capaz de transmitir o fijar en la generación siguiente. Esta idea, unida al conocimiento de que existen ciertos comportamientos modulados por completo o al menos en parte por los genes, nos indica que el proceso evolutivo de las especies no solo se ve afectado por las estructuras morfológicas, fisiológicas o anatómicas. No obstante, en gran medida, ha sido la variabilidad comportamental la que ha servido de substrato diferencial sobre el que ha actuado la selección natural. De este modo podemos esperar que las conductas más básicas y menos elaboradas a partir de un proceso de pensamiento y decisión, respondan con bastante frecuencia a estrategias comportamentales que aportan un alto valor adaptativo de cara al aumento de la eficacia biológica del individuo (que es el que se reproduce). El segundo concepto es una novedad que incluye la etología en el estudio del comportamiento según este discurso, se trata de la Eficacia biológica inclusiva. Se trata de dar un paso más en la consideración del hecho reproductor. Si reproducirse es dejar cuantas más copias de nuestro conjunto de genes en la generación posterior, esto se puede hacer de varias formas. Hablamos de Eficacia biológica directa, cuando consideramos las copias procedentes del propio individuo (el hecho reproductor clásico), pero también podemos considerar una Eficacia biológica indirecta, cuando además de las copias del individuo se tienen en cuenta las copias de sus genes que sus parientes dejan cuando son ellos los que se reproducen de forma directa. Todos sabemos que compartimos una cierta cantidad de genes con nuestros parientes más cercanos, y que dependiendo de la relación de parentesco que tengan estos parientes con nosotros, compartimos mayor o menor número de genes con ellos. Esto es así porque el sistema de reproducción sexual, que comparten todos los metazoos, funciona mezclando genes de dos individuos, para obtener otro. Por ese motivo, cada uno de nosotros comparte con cada uno de sus padres sólo un 50% de sus genes, y con su hermano o hermana en caso de tenerla también el 50%. Conforme las generaciones se van sucediendo, estos porcentajes se van reduciendo, de modo que un nieto o un sobrino solo comparte un 25% de nuestros genes. Todo esto se completa con la tercera idea que más que esto es una teoría en sí misma, y es la del gen egoísta. Procede este nombre de un libro con el mismo título publicado por el etólogo Richard Dawkins2, en 1976, en el que se divulgaban las tesis de la Sociobiología expuestas anteriormente por E. O. Wilson en 1975 con su libro «Sociobiología»3. Es muy simple pero a su vez de una rotundidad aplastante. El factor determinante en la evolución no es el bien de la especie o grupo, sino el bien del individuo o gen. La selección natural no actúa sobre las especies (selección de grupos), sino sobre los individuos en función de los genes que estos expresan.

2 3

DAWKINS, R. (2000): El gen egoísta. Las bases biológicas de nuestra conducta, Salvat Editores. WILSON, E. O. (2000): Sociobiología: La nueva síntesis, Omega.

32

Isagogé, 1 (2004)


Se puede adoptar por tanto una idea de individuo como simple herramienta diseñada por los genes para su propia supervivencia en el tiempo, por tanto los «genes altruistas» se extinguen en beneficio de los «genes egoístas» que predominarán en el grupo. Esto es compatible conque el grupo pueda adquirir en su conjunto un comportamiento social o incluso cooperativo con otros individuos, puesto que esto ocurre en virtud del interés propio de cada uno de ellos por aumentar sus posibilidades de supervivencia, pero no ocurre por el interés del grupo sino por el de cada uno de los individuos. De esta forma, se ha demostrado que en poblaciones naturales de determinadas especies hay individuos que durante una temporada de cría no se reproducen y se ocupan de ayudar en la cría de hermanos o sobrinos. Este comportamiento no se comprendía desde la perspectiva del gen egoísta, puesto que realmente estos individuos invertían mucho tiempo y energía en esta labor, a cambio de ningún beneficio directo. Hoy en día se puede explicar en función de un beneficio al incrementarse la eficacia biológica inclusiva de modo indirecto. Normalmente se trata de individuos jóvenes con poca experiencia cuyo éxito hubiera sido escaso de haber criado sus propios descendientes, y que con esta estrategia se aseguran al menos que en esa temporada de cría, las copias de sus genes contenidas en sus hermanos o sobrinos (o incluso nietos), salgan adelante con las mayores garantías posibles. Se confirma por tanto, que casi todo lo que los individuos hacen, lo hacen en pro de aumentar su propia eficacia biológica. En los humanos ocurre tanto de lo mismo, el «amor» que podemos sentir por nuestros nietos o sobrinos no es gratuito y desinteresado, pues de alguna manera se trata de procurar que nuestros genes en ellos incluidos sobrevivan lo mejor posible. Puede que suene algo frío un análisis como este de las relaciones familiares pero no se trata de hacer literatura sentimentalista, sino de vislumbrar las orígenes y causas de este tipo de comportamientos desde un punto de vista evolutivo. Incluso se pueden explicar comportamientos violentos, incluso dentro del seno familiar4. Según Dawkins (en la foto) «solo el hombre puede revelarse contra la tiranía de los genes egoístas»5., debido a la consciencia y a la acción de la cultura como otro factor que tiende a replicarse en el tiempo y que tiene amplios efectos sobre nuestro comportamiento Un ejemplo de comportamiento «inexplicable» (y ahora seré un poco menos serio), es el ritual de búsqueda de pareja y cortejo que en las sociedades industrializadas se realiza en gran medida en el interior de locales nocturnos, a saber, como animales posando y compitiendo por el sexo opuesto como faisanes en sus «arenas de cortejo». A pocos se les escapa que en esos locales abunda casi todo menos la comodidad: Calor, apreturas y empujones, sonido altísimo que casi impide el atender los propios pensamientos, humo, ausencia o escasez de asientos o percheros (por regla general), contribuyen a ello. Además los precios no suelen ser bajos, y si a eso le unimos los riesgos de peleas o de que alguien en estado de embriaguez nos amargue la noche, resulta ciertamente difícil explicar porqué a pesar de todo ello, se elige sin discusión alguna este tipo de locales. Más difícil de explicar aún, cuando existen locales donde poder hablar a precios razonables y sin incomodidades como las anteriormente descritas.

4 5

DALY, M. y WILSON, M. (2003): Homicidio, Fondo de cultura económica. Ver: http://evolutionibus.eresmas.net/EvolucionBiologica.html (13 de julio 2004)

Isagogé, 1 (2004)

33


En tal caso, ¿qué beneficios obtenemos como individuo, cuando nos cansamos de estar de pié sin escucharnos a nosotros mismos ni a los demás, destruyendo células nerviosas auditivas y alvéolos pulmonares y nos gastamos rápidamente el fruto de nuestro esfuerzo en la barra, arriesgándonos a ser molestados en exceso o incluso quemados por algún cigarrillo despistado? La respuesta es sencilla, el sexo. Evidentemente en este ambiente es más fácil encontrar pareja, aunque solamente sea por una mera cuestión de número y posibilidades. En ese sentido actuamos de forma directamente animal, compitiendo unos por otros, exhibiendo como pavos reales nuestras mejores galas y atributos, potenciando nuestras feromonas con otras de origen externo (perfumes), invitándonos los unos a los otros a todo tipo de cosas, como si de prendas de cortejo a modo de ofrendas se tratase y reaccionando ante una vorágine de estímulos de forma consciente o no. En estos lugares se unen factores que determinan finalmente una respuesta favorable (a pesar de las incomodidades), como pueden ser: la concentración de feromonas naturales (imperceptibles de forma consciente pero indudablemente presentes en grandes cantidades y potenciadas por el sudor), la percepción consciente de una infinitud de estímulos sexuales, algunos exagerados, presentes en los cuerpos e indumentarias de una multitud de individuos del sexo opuesto (la gran mayoría de ellos en una misma actitud de alerta). No es de extrañar por tanto, que la pérdida de intimidad al superarse nuestra distancia personal, incluyendo roces, e incluso empujones, no nos suponga una molestia, rodeados de tanto estímulo. Por ejemplo, la luz tenue, presente en todos los locales a los que nos referimos, contribuye a dilatar las pupilas de todos los presentes, lo cual constituye un signo inequívoco de atracción sexual a quien las contempla. El alcohol ayuda a algunos a aumentar su capacidad para relacionarse con los demás y suele abundar incluso en exceso. Por otro lado encontramos las motivaciones de tipo social que indudablemente afectan, aunque no serían objeto de nuestro análisis por estar directamente relacionadas con aspectos culturales que no son estudiados por la Etología humana. Fundamentalmente afectan en una etapa del desarrollo social en la que los esquemas básicos se establecen definitivamente e intentamos fijar nuestra posición respecto de los demás. Somos individuos gregarios, lo cual nos lleva a agruparnos porque de ese modo contamos con ventajas adicionales procedentes del grupo. Así, hay quien considera «bichos raros» a aquellos que evitan o reniegan de estos locales, con lo cual estos individuos sufren rechazo o acaban siendo aislados al no integrarse en el comportamiento compartido del resto. En conclusión, para entender los comportamientos «inexplicables» del ser humano contamos con otras armas además de la psicología. Somos animales nos guste o no reconocerlo, aunque seamos un poquito especiales, dicho sea de paso. En esas diferencias con el resto de los seres vivos, debemos apoyarnos para comprender la singularidad de nuestra existencia. La consciencia nos puede ayudar a descubrir que no somos tan diferentes como pensamos y que tampoco eso nos quita humanidad, sino todo lo contrario. Pero en pro de la sensibilidad y de la huída del conductismo radical no podemos ni debemos obviar que somos producto de una selección natural, que no distingue de razones ni sensibilidades y que nos ha llevado a ser lo que somos que no es poco. En definitiva, apartándonos un poco de las bromas y las anécdotas, la ciencia nos enseña, sin excluir otras formas de percibir la realidad, que en ocasiones el mero hecho de cuidar de tu sobrina cuando tu hermano trabaja, salir de copas con los amigos o estar enamorado, no es algo tan cargado de altruismo, amistad y alegría, o amor incondicional (profundo y misterioso), como se podría pensar, aunque nadie repare en ello.

34

Isagogé, 1 (2004)


UN EJEMPLO DE CÓDIGO: EL NAF Laura García García ¿Qué es un código?. En líneas generales un código es una sucesión de símbolos (en general, números) que nos permiten comprimir o clasificar información. Los códigos los utilizamos continuamente en la vida real, aunque apenas nos percatemos de ello, por ejemplo, el código de barras de cualquier producto, el DNI, las órdenes que le damos a un ordenador, el ISBN, los códigos de un CD, etc, pero de lo que de verdad no nos damos cuenta es de toda la teoría matemática que está detrás de ellos. Hay distintos tipos de códigos, más o menos ‘buenos’ en función de distintos aspectos, como por ejemplo, detectar el olvido de una cifra, detectar una permutación de los números que lo componen o incluso tener la capacidad de corregir errores (todos, como veis, errores humanos). A continuación veremos un ejemplo concreto, el Número de Afiliación a la Seguridad Social, y paso a paso (ayudados de las congruencias) veremos de lo que es capaz y los posibles fallos que pueda tener. El N.A.F. de las personas físicas consta de 12 números en general, de los cuales: X1, X2, X3, X4, X5, X6, X7, X8, X9, X10, D1, D2 X1, X2 representa el número de la provincia de la cual es natural la persona dueña de dicho NAF, sacado de la siguiente lista: 01 Álava 05 Ávila 09 Burgos 13 Ciudad Real 17 Girona 21 Huelva 25 Lleida 29 Málaga 33 Asturias 37 Salamanca 41 Sevilla 45 Toledo 49 Zamora

02 Albacete 06 Badajoz 10 Cáceres 14 Córdoba 18 Granada 22 Huesca 26 La Rioja 30 Murcia 34 Palencia 38 Sta. Cruz de T 42 Soria 46 Valencia 50 Zaragoza

03 Alicante 07 Baleares 11 Cádiz 15 A Coruña 19 Guadalajara 23 Jaén 27 Lugo 31 Navarra 35 Las Palmas 39 Santander 43 Tarragona 47 Valladolid 51 Ceuta

04 Almería 08 Barcelona 12 Castellón 16 Cuenca 20 Guipúzcoa 24 León 28 Madrid 32 Ourense 36 Pontevedra 40 Segovia 44 Teruel 48 Vizcaya 52 Melilla

X3, X4, X5, X6, X7, X8, X9, X10 es un número consecutivo (no alfabéticamente, sino según se van creando los números) asignado a cada persona. La manera de garantizar la unicidad del NAF es asignándole unos dígitos de control, que son los siguientes: D1, D2 es el resto (de dos cifras) de dividir X1... X10 entre 97. Esto, en adelante, lo llamaremos ser congruente con D1, D2 módulo 97 ( Notación: X1... X10 ? D1, D2 mod 97) Es obligatorio poner todas las cifras del NAF, independientemente de que empiece por 0 o no (como es el caso de Álava) con lo que si se produce el olvido de una o más cifras, se detecta automáticamente. Isagogé, 1 (2004)

35


Observaciones: En ciertos casos el número de la seguridad social no es el descrito anteriormente, sino que se producen ligeras variaciones: a) Empresas u organismos públicos: En lugar de 12 dígitos son 11. Este código se conoce como Código Cuenta Cotización (CCC) X1, X2, X3, X4, X5, X6, X7, X8, X9, D1, D2 Donde: X1, X2 es el número de la provincia o centro de trabajo de la empresa según la lista anterior, X3, X4, X5, X6, X7, X8, X9, número consecutivo asignado a la empresa, D1, D2 resto de dividir X1... X9, entre 97 b) Médicos: Los médicos poseen dos identificaciones ante la S.S., una de ellas como persona física y otra es el número de colegiado, que es de la forma: 9 dígitos

X1, X2, X3, X4, X5, X6, X7, X8, D

de los cuales:

X1, X2 es el número de la provincia según la lista anterior, X3, X4, X5, X6, X7, X8 número consecutivo asignado al médico,D el resto de dividir X1... X8 entre 9 c) Huérfanos : Para las personas huérfanas de padre y madre o que no sean beneficiarios (por los motivos que sean) de otro NAF, hasta que consiguen un trabajo, obteniendo un NAF propio, la TGSS les asigna un número con la misma longitud y las mismas características que a cualquier trabajador normal, con la diferencia de que el número de provincia (independientemente de a cuál pertenezca la persona) es siempre 80. d) Cuando un afiliado fallece, la TGSS no asigna su número NAF a otra persona, ya que así queda registrado en su base de datos toda la vida laboral del fallecido para posibles consultas posteriores, si las hubiera. Una vez descrito el código, veamos cuáles son sus ventajas: NAF = X1, X2, X3, X4, X5, X6, X7, X8, X9, X10, D1, D2 1.- ¿Detecta el olvido de una o más cifras? Si, porque como hemos dicho anteriormente es obligatorio poner todas las cifras del NAF, con lo que si se nos olvida alguna cifra, automáticamente se detecta (a diferencia, por ejemplo, del NIF) 2.- Veamos si el código puede detectar un error En las cifras D1, D2 : Si se produce un error en estas cifras, al hacer la comprobación dividiendo mod 97, al ser 97 primo, automáticamente lo detectamos. En este caso se considera UN error, aunque se puede producir en cualquiera de las dos cifras, incluso en las dos, pero actúan como un solo número, por lo que SI detectamos un error en las dos últimas cifras. En las cifras X1, X2, X3, X4, X5, X6, X7, X8, X9, X10: Supongamos que el error se produce en la posición i (1 ? i ? 10), de tamaño ei (1 ? ei ? 9), entonces la cuenta queda como sigue: X1, X2, X3, X4, X5, X6, X7, X8, X9, X10 + ei·10i ? D1, D2 mod 97 36

Isagogé, 1 (2004)


(debería ser cierto para que no detectáramos el error) Como X1, X2, X3, X4, X5, X6, X7, X8, X9, X10 ? D1, D2 mod 97 Para que no se detecte un error aquí debería pasar lo siguiente: ei·10i ? 0 mod 97 Pero como m.c.d.(10i , 97) = 1 ? ei·10i ? 0 mod 97 ? ei ? 0 mod 97 ? ei = 0 ? Si no detecta un error, es que dicho error es 0 y por tanto no hay. 3.- ¿Detecta dos errores? No, ya que al ser un código lineal con distancia 2 (la distancia de un código es el mínimo número de dígitos que hay que cambiar para convertir un código válido en otro), no puede detectar dos errores, ni corregir ninguno. Aquí utilizamos el teorema : “Si la distancia de un código es d, el código puede detectar hasta d-1 errores y corregir hasta la parte entera de (d-1)/2”. La distancia es exactamente 2 porque, dado que podemos detectar un error, sabemos que es al menos dos, y dadas las palabras siguientes pertenecientes al código, cuya distancia es 2, concluimos que la distancia mínima del código es 2 y por tanto no podemos detectar dos errores, ni tampoco corregir ninguno. C1 = 0100000001 82 C2 = 0100000002 83

4.- ¿Y la permutación de dos cifras? Supongamos que se produce una permutación de las cifras Xi y Xj, con 1 ? i ? j ? 10. Entonces la cuenta queda como sigue: X1, X2, X3, X4, X5, X6, X7, X8, X9, X10 + (Xj – Xi)1010-i + (Xi – Xj)1010-j ? D1, D2 mod 97

Pero como X1, X2, X3, X4, X5, X6, X7, X8, X9, X10 ? D1, D2 mod 97 Entonces (Xj – Xi)( 1010-i – 1010-j) ? 0 mod 97 ? (Xj – Xi) 1010-j ( 10j-i – 1) ? 0 mod 97 Como (Xj – Xi) ? 0 mod 97, 1010-j ? 0 mod 97, Para que no se detecte la permutación ( 10j-i – 1) ? 0 mod 97 ? 9(1.....j-i...1), como (9,97)=1 1 ? j – i ? 9, y comprobando a mano se observa que 1, 11, 111, 1111, 11111, 111111, 1111111, 11111111, 111111111 no dan resto 0 al dividir por 97. Entonces la cuenta nunca puede salir bien si hay una permutación de dos cifras, por tanto, este código detecta la permutación de dos cifras. En resumen, el NAF está hecho de manera que detecta: — El olvido de una cifra — El error en una cifra — La permutación de dos cifras Esto, pues, es una pequeña muestra de la gran utilidad de las matemáticas en nuestra vida real. Isagogé, 1 (2004)

37


ECUACIONES DIOFÁNTICAS Aarón Ruiz Gómez Se denomina ecuación algebraica a aquella que surge de igualar a cero una función polinómica. Dentro de estas encontramos a las ecuaciones diofánticas, que cumplen que tanto los coeficientes que acompañan a las incógnitas como sus soluciones son números enteros. Esta «coletilla» de diofánticas se les asignó en honor a Diofanto de Alejandría (200-290 a. C.), matemático griego del siglo III que dedico su obra Aritmética a la determinación de soluciones particulares, enteras o racionales, de ecuaciones algebraicas. Se trata de un tratado de 13 libros del que sólo se conocen los seis primeros. Fue encontrado en Venecia por Johann Müller (Regiomontanus, matemático y astrónomo alemán), hacia el 1464. Su trabajo cayó en el olvido durante cientos de años y no fue hasta principios del siglo XVII, en que vuelve a publicarse parte de su obra, cuando pensadores como Fermat, reestudian y profundizan en la naturaleza de estas soluciones en base a los estudios previos hechos por Diofanto. En el gráfico puede verse una edición realizada por Fermat hijo (sobre la traducción de Bachet de Méziriac que fue publicada en 1621) que incluye impresas las anotaciones de su padre. En 1900 Hilbert plantea de nuevo a la comunidad matemática internacional el problema de encontrar una solución general para este tipo de ecuaciones. Actualmente no se conoce ningún algoritmo universal para resolver una ecuación de la forma f(x1,x2,...,xn) =0, siendo f una función polinómica de coeficientes enteros. Algunos matemáticos como Thue han planteado técnicas de aproximación diofántica, dando casos para los que se puede asegurar que el número de soluciones es finito, aunque no pueda determinarse cuáles son estas exactamente. En estas líneas comentaremos los pasos y procedimientos existentes para la resolución de ecuaciones diofánticas lineales. Para dar una visión más simplificada y clara de las mismas estudiaremos el caso para dos incógnitas, que puede generalizarse para más de dos. Estas ecuaciones serán de la forma Ax + By = C, con A, B, C? ? . Los pasos que vamos a seguir serán, en primer lugar, verificar la existencia de soluciones y posteriormente obtener una solución general a partir del conocimiento de una solución particular. a) Dados A, B, C? ? , la ecuación Ax + By = C tiene solución ? mcd (A, B) ? C. Demostremos ahora este enunciado, es decir, que si el máximo común divisor de los coeficientes es divisor del término independiente, entonces la ecuación tiene solución: (? ) Sea d = mcd(A, B), esto implica que ?A’, B’? ? tal que A = d·A’ y B = d·B’. Sea ahora (x0, y0) solución de Ax + By =C, lo que quiere decir que Ax0 + By0 = C. En virtud de lo que acabamos de exponer se verifica que d·A’·x0 + d·B’·y0 = C y consecuentemente d·(A’x0 + B’·y0)= C, por lo que d = mcd (A, B) ?C. 38

Isagogé, 1 (2004)


(? ) Se cumplirá ahora que d ? C, vamos a encontrar una solución particular de la ecuación Ax + By = C. Sea el conjunto H = { Ap + Bq / p,q? ? y Ap + Bq>0}, definamos D como el elemento mínimo de H, siendo D>0. Si esto es así, ?p0, q0 ? ? tal que D = A·p0 + B·q0. Además si efectuamos la división euclídea, ?c, r ? ? tales que 0 ? r < D y A = c·D + r, así A = c·( A·p0 + B·q0) + r. Despejando de aquí r obtenemos que los coeficientes que acompañan a A y B son elementos de ? , por lo que r es de la forma de los elementos de H, mas como r<D = min(H), no queda más remedio que indicar que r = 0. Consecuentemente, A = c·D, por lo que D ? A. De modo análogo se deduce también que D ? B, por tanto D ? mcd (A, B) = d y como del principio sabemos que d ?A·p0 + B·q0 = C, entonces se cumple que d = D. Tomemos ahora C = d·C’ y como d = A·p0 + B·q0 se puede sustituir para obtener: x0 = p0·C’ C= (p0·C’)A + (q0·C’)B, donde

·

será solución particular.

y0= q0·C’

b) Conociendo una solución particular podemos obtener la solución general mediante el llamado procedimiento de Brahmagupta (598-670), en honor a este matemático hindú: Sea Ax + By = C, con d = mcd (A, B), supongamos que (x0, y0) es una solución particular de la ecuación anterior, entonces (x, y) es solución general de la ecuación ? ? t? ? tal que x = x0 + t·B’ , y = y0 – t·A’, donde A = A’·d y B = B’·d. La demostración de este enunciado es bien sencilla: (? ) Sean x = x0 + t·B’ e y = y0 – t·A’, si sustituimos estas igualdades en la ecuación objeto de nuestro estudio obtenemos: Ax + By = A·x0 + A·t·B’ + B·y0 – B·t·A’ = A·x0 + B·y0 + A’·B’·t·d - A’·B’·t·d = A·x0 + B·y0 = C pues (x0 ,y0) es solución particular. (? ) Supongamos que (x, y) es tal que Ax + By = C y como (x0 ,y0) cumple también que A·x0 + B·y0 = C, si restamos ambas igualdades miembro a miembro se obtiene que : A·(x - x0) + B·(y - y0) = 0 y dividiendo entre d se llega a que A’·(x - x0) + B’·(y - y0) = 0. Como B’ ? B’·(y – y0) = -A’·(x – x0) y mcd (A’,B’) = 1, por lo que B’ ?x – x0. Esto pone de manifiesto que ?t? ? tal que B’·t = x – x0, luego x = x0 + t·B’. Fácilmente se obtiene que y = y0 – t·A’. Para obtener de forma metódica el cálculo de soluciones particulares puede aplicarse el Método de los Cumulantes de Euler, empleando el Algoritmo de Euclides, pero su estudio se escapa del propósito de este artículo. Para ilustrar todo este proceso resolutivo con un ejemplo propondremos la resolución de la ecuación: 5x + 8y = 7: Isagogé, 1 (2004)

39


Se tiene que mcd(5, 8) = 1 ? 7, por lo que la ecuación tiene solución. Fijémonos en la ecuación 5x + 8y = 1, de forma sencilla se observa que una solución particular podría ser x = -3, y = 2. Si multiplicamos toda la ecuación por 7 nos queda como solución particular x = -21, y = 14. Empleando el Procedimiento de Brahmagupta la solución general será la siguiente: x = -21 + 8t, y = 14 – 5t. Los procedimientos obtenidos se pueden ampliar a ecuaciones diofánticas con más de dos incógnitas, aunque como siempre es de esperar el proceso se complica. Otro apartado importante de este tipo de ecuaciones es el de la ecuaciones diofánticas no lineales, entre las que encontramos muchas muy conocidas, como la ecuación pitagórica (x2 + y2 = z2), conocida desde la Antigüedad. La generalización de esta constituye el conocido como Último Teorema de Fermat y que afirmaba que la ecuación xn + yn = zn con x, y, z? ? , n? ? y n>2 no tiene soluciones distintas de las triviales. Fermat afirmó tener una simple demostración de este resultado pero, o bien no se encontró o bien no llegó a escribirla. Durante siglos gran número de matemáticos estudiaron este problema, pero no fue hasta 1993 cuando un matemático británico, A. Wiles, dio una demostración del teorema en la que empleaba conocimientos tan complejos como las formas modulares o las curvas elípticas. Evidentemente, esta demostración no coincidía con la sencilla demostración que Fermat afirmó haber encontrado. Sobre la tumba de Diofanto, uno de sus discípulos escribió el siguiente epitafio a modo de problema: «Transeúnte, esta es la tumba de Diofanto: es él quien con esta sorprendente distribución te dice el número de años que vivió. Su niñez ocupó la sexta parte de su vida; después, durante la doceava parte su mejilla se cubrió con el primer bozo. Pasó aún una séptima parte de su vida antes de tomar esposa y, cinco años después, tuvo un precioso niño que, una vez alcanzada la mitad de la edad de su padre, pereció de una muerte desgraciada. Su padre tuvo que sobrevivirle, llorándole, durante cuatro años. De todo esto se deduce su edad». Un desafío, sin duda, que honra al difunto Diofanto, el cual nos legó lo que mejor tenía: Las matemáticas.

40

Isagogé, 1 (2004)


EL COLECTOR SOLAR TÉRMICO. ¿CÓMO FUNCIONA? Enrique Martín-Lorente Rivera Todos hemos oído hablar del colector solar térmico o de las placas solares, pero muchos no sabrán cuál es el secreto de su funcionamiento. En este artículo trataremos de explicarlo con sencillez y claridad. Es bien sabido que si colocamos algo al sol, sobre todo en verano, ese algo, ya sea un trozo de hierro, una piedra o nuestro coche, se calientan. Supongamos que tenemos un tubo de cobre de los que se colocan en las casas para conducir el agua a los grifos. Si coloco el tubo de cobre en algún lugar donde le dé el sol, sobre todo el de verano, éste se calienta. Podemos preguntarnos entonces: «¿Cómo puedo aprovechar el calor del tubo para mi beneficio?». La respuesta es: haciendo pasar agua fría por el interior del tubo de cobre. Este último, después de haber estado expuesto al sol, transmite al agua su calor. Éste es el principio del colector solar térmico, así de fácil. A partir de aquí el proceso se reduce a realizar mejoras en el esquema original. Una primera que podemos aplicar a nuestro tubo de cobre es pintarlo de negro. Todos sabemos, que un vestido de color negro en verano da más calor que uno blanco. Hablando claramente, el color negro absorbe más calor que el color blanco. Pues bien, pintemos nuestro tubo de color negro y aseguraremos que absorberá la totalidad de la radiación que le llega del sol. Bien, ya tenemos la primera mejora. Realicemos ahora la segunda. Un tubo de cobre es un tramo muy corto para que le dé el sol, así que haremos un emparrillado de tubos, que es similar a una parrilla de las que se pone en las brasas para asar la carne. Se puede describir como dos tubos paralelos separados cierta distancia, y los dos están unidos por multitud de tubos perpendiculares a ellos. (Fig. 1).

agua caliente

agua fría (Fig. 1)

¿Qué estamos haciendo? Pues aumentar la superficie expuesta al sol para que la radiación sea mayor y el tubo o el emparrillado por donde pasa el agua se caliente más. Sin embargo, vemos que entre los tubos queda espacio vacío, y esto se traduce en pérdida de radiación, pues parte de aquella no incide sobre los tubos y la otra parte no calienta a aquellos suficientemente para nuestros propósitos. Hacemos entonces una tercera mejora.

Isagogé, 1 (2004)

41


La tercera mejora (fig. 2) consiste en colocar una placa de un material que sea buen conductor del calor —generalmente de aluminio—, por delante del emparrillado, de manera que la placa absorba la totalidad de la radiación. Por supuesto, la placa de aluminio estará pintada de negro, y de esta forma estaremos aprovechando la totalidad de la radiación que llega a la placa, pues como vimos, con el emparrillado se quedaban espacios vacíos entre los tubos a través de los cuales se perdía energía. Ahora el emparrillado se queda detrás de la placa de aluminio, pero totalmente en contacto esta última, para que el calor de la placa calentada por el sol se transmita a los tubos de cobre y estos calienten el agua que pasa por su interior. placa de placa de aluminio aluminio

tubo de cobre

(Fig. 2)

Cuarta mejora: a veces, para comprender mejor las cosas hemos de posicionarnos en una situación límite. Así que imaginemos que estamos en invierno: hace un sol radiante pero un frío que pela, algo así como 3 ºC de temperatura ambiente. Pues bien ¿Qué le pasará a nuestro armazón (cuando hablo de armazón me refiero al conjunto fuertemente unido de placa de aluminio y emparrillado, Fig. 2)? Veamos, el armazón está bien orientado (la orientación de los colectores siempre se da hacia el sur) por lo que está recibiendo la mayor radiación del sol. Pero el armazón está rodeado y en contacto con el aire y éste recordamos que está a 3 ºC. A nuestro armazón le costará mucho trabajo calentar el agua que circula por su interior y ponerla a 40 ºC suficiente para la ducha. Así pues la cuarta mejora consiste en meter todo el armazón en una caja (fig. 3) y donde además, entre el armazón y la caja haya un aislante, de manera que el armazón se caliente pero el aire y temperatura exterior no haga que se enfríe. Por supuesto la caja no puede estar totalmente cerrada pues entonces no le da el sol al armazón. Colocaremos un cristal en el frontal para permitir que la radiación del sol entre en la caja y caliente la placa de aluminio y a la vez consigue que el armazón esté aislado del exterior por el cristal. Para verlo más claro, es como si a nuestra caja le ponemos una ventana en la cara que está orientada al sol (fig. 3). Sin darnos cuenta hemos introducido la quinta mejora, pues el cristal que hemos colocado para que pase la radiación y, a la vez, evitar que el aire enfríe nuestro armazón, es una trampa para la radiación. Esta última procede del sol y tiene una frecuencia determinada, esto es, que en cierta manera esa energía que llega a la placa vibra de un modo determinado, y es más bien una vibración alta. La radiación o energía atraviesa sin problemas el cristal de la caja y llega a la placa de aluminio y la calienta. ¿Qué ocurre a continuación? Que el armazón se calienta y éste comienza a emitir radiación o energía, pero con una vibración baja y, querido lector, cuando esta radiación pretende escaparse por el cristal, este último se comporta como un espejo y la radiación se refleja de nuevo hacia el interior. No puede salir y esta radiación que se refleja vuelve a caer sobre el armazón calentándolo de nuevo. Así pues la energía entra en la caja a través del cristal pero ésta no puede salir y se emplea toda en calentar el agua. Este fenómeno es el que se conoce como “efecto invernadero” (fig. 3). 42

Isagogé, 1 (2004)


radiación vidrio

efecto invernadero

aislante

carcasa

(Fig. 3)

Bueno, a esta altura del texto ya hemos construido nuestra placa solar térmica y ya sabemos lo que es, cómo está construida y cómo funciona. Se pueden ver estas placas que hemos descrito en los tejados de algunas casas, pero no debemos confundirlas con las fotovoltaicas, que son más pequeñas y de un color más bien violeta. El funcionamiento de estas últimas lo explicaremos en otro artículo. Resumiendo lo ya visto, una placa solar térmica es un emparrillado de cobre por donde pasa el agua (fig. 1), el cual está unido a una placa de aluminio pintada de negro (fig. 2) y todo esto metido en una caja (fig. 3), donde entre el armazón y la caja hay un aislante para evitar pérdidas y donde en la caja en el frontal hay un cristal por donde pasa la energía del sol y calienta el armazón dentro de la caja. Un último consejo: hay una forma fácil y económica de tener una ducha caliente en verano. Si tienes un patio o una terraza que de el sol, puedes comprar 40 ó 50 metros de manguera de color negro o lo más oscura posible, y desplegarla por toda la terraza. Por la mañana, conectas la manguera al grifo y la llenas de agua. Para la tarde, abres un poco el grifo, y el agua que salga de la manguera estará caliente, suficiente para una ducha. ¡Enhorabuena, ya has fabricado un colector solar!

Isagogé, 1 (2004)

43


DEL EMPIRISMO Y SUS FORMAS. UN MODELO DE EXPLICACIÓN CIENTÍFICA José Martínez García-Gil «Me pareció algo superlativo conocer la explicación de todas las cosas, por qué algo llega a ser, por qué perece, por qué es» Sócrates

En el taller, el laboratorio, el observatorio o el campo, el científico atiende a hechos y procesos reales. Anota la trayectoria de este planeta o aquel cometa, describe los restos fósiles de este trilobite o aquella gimnosperma, identifica la función de esta enzima o de aquella hormona. Luego, en una segunda etapa, que podemos calificar de reflexión, incluye lo observado y/o medido en una clase determinada de fenómenos o subsume el proceso bajo una ley o regularidad. Esto es, se propone ofrecer una explicación científica, dar el paso del conocer que existe P al comprender por qué existe P. Todos vemos que el cielo es azul, que el agua moja, pero pocos comprenden por qué es azul, por qué moja. Al científico no sólo le interesa describir el mundo, sino también, y por encima de todo, explicar por qué es tal cual es. Ese tránsito del qué al por qué constituye la esencia de su tarea. Del concepto de explicación se han ocupado los filósofos desde la antigüedad clásica. Pero con la nueva epistemología nacida del entorno del Círculo de Viena y, con mayor exactitud, a raíz de su posterior refinamiento, se ha convertido en uno de los temas centrales de la inquisición epistemológica. Es cierto que los neopositivistas rechazaban que la ciencia pudiera cuestionarse el por qué de las cosas, obsesionados por romper todo vínculo con lo que ellos reputaban metafísica idealista, incluida la causalidad. En su opinión, la ciencia, un sistema de reglas para predecir los fenómenos, debía atenerse a la descripción de los mismos, no buscar su explicación. De esa restricción empezó a liberarse Rudolf Carnap, al admitir las causas físicas. Pero fue Hempel el que consolidó el giro neoempirista hacia esa nueva orientación. En toda explicación hemos de distinguir el explanandum, el fenómeno, proceso o regularidad a explicar, y el explanans, la causa, razón o ley explicativas. Si preguntamos: ¿por qué X?, aquí X constituye el explanandum. Si respondemos: «porque Y», aquí Y es el explanans. Para conjugar uno y otro, en 1948 Hempel, en colaboración con Paul Oppenheim, publicó un artículo seminal, «Studies in the Logic of Explanation», en el volumen 15 de la revista Philosophy of Science. En este trabajo, Hempel y Oppenheim ofrecían un primer esbozo de lo que se denomina modelo deductivo-nomológico (DN) de la explicación de hechos particulares. La idea general, sin embargo, la habían avanzado ya Aristóteles en sus Analíticos posteriores, John Stuart Mill, Karl Popper y H. Feigl. Hempel y Oppenheim se proponían aportar una exposición de la estructura lógica de «explica» que se equiparara en su alcance a la exposición de la estructura lógica de «es prueba de» desarrollada por Frege, Russell, Whitehead y Hilbert. La tesis recibió plena articulación en la monografía magistral de Hempel, publicada en 1965, Aspects of Scientific Explanation and Other Essays in Philosophy of Science. Sus postulados dominaron la epistemología de la segunda mitad del siglo veinte y, aunque han sido superados, su apogeo y ocaso resultan instructivos. El modelo DN sostiene que toda explicación científica legítima, implica la subsunción del hecho a explicar bajo una ley de la naturaleza. Toda explicación cabal, tiene la estructura de un razonamiento deductivo, en cuyas premisas (el explanans) entran, con la ley o leyes, determinados enunciados verdaderos sobre las condiciones iniciales y datos de contorno, y la conclusión es el explanandum. Una buena explicación será, ante todo, un

44

Isagogé, 1 (2004)


buen argumento. Como que nos encontramos con dos tipos de explananda, los hechos particulares y las regularidades generales, habrá también dos tipos de leyes que pueden aparecer en el explanans: leyes universales y leyes estadísticas. Para Hempel, hay cuatro tipos de explicación: las explicaciones deductivo-nomológicas de hechos particulares por leyes universales; deductivo-nomológicas de regularidades generales por leyes universales; inductivo-estadísticas de hechos particulares por leyes estadísticas, y deductivo-estadísticas de regularidades estadísticas por leyes estadísticas. Se trata de cuatro tipos de explicaciones que, en última instancia, se resumen en dos: el modelo deductivo-nomológico (DN) y el inductivo-estadístico (IS). En la estructura argumentativa, el modelo DN impone tres condiciones lógicas de adecuación que las explicaciones deben satisfacer. En primer lugar, su validez; es decir, el explanans debe implicar deductivamente el explanandum. En segundo lugar, la deducción debe hacer un uso esencial de las leyes generales. Por último, el explanans debe ser empíricamente contrastable. A estas tres condiciones lógicas se le suma una cuarta, de carácter empírico: las sentencias que constituyen el explanans han de ser verdaderas. Pronto se demostró que la estructura lógica del modelo DN carecía de carácter selectivo. Podía producir, por un lado, explicaciones privadas de sentido y, por otro, explicaciones de sucesos improbables. Esto es, las tres condiciones lógicas de adecuación y el criterio empírico no son suficientes ni necesarios para una explicación convincente. Se contraargumentó que las explicaciones suelen presentar direccionalidad. Hay argumentos que sí se pueden invertir y seguir siendo buenos argumentos, pero las explicaciones, salvo pocos casos, no pueden invertirse. En consecuencia, no todos los buenos argumentos que contienen leyes son buenas explicaciones. El ejemplo más utilizado es el de la sombra arrojada por el mástil de la bandera un día soleado. A partir de la información sobre la altura del mástil (h), el ángulo que forma el palo con el sol (F ) y las leyes que describen la propagación de la luz, se deduce la longitud (s) de la sombra. Esa inferencia constituye la explicación válida de s. Pero, a partir de s, las mismas leyes y F , se puede deducir h. Tal derivación, aunque aparentemente satisface todos los requisitos de una argumentación DN, no es una explicación de por qué el mástil tiene dicha altura. No lo es porque se olvida el papel que desempeña la causalidad. La altura del mástil causa la longitud de su sombra, pero la longitud de la sombra es un efecto, no la causa de la altura del mástil; no se admite, en consecuencia, que sea buena explicación deducir h a partir de s. La actitud de Hempel ante la asimetría fue desconcertante. Para él, si la estructura argumentativa operaba en ambas direcciones entonces las dos direcciones eran legítimas, aun cuando la explicación procediera en sentido único. El problema de la irrelevancia constituye otro punto débil del modelo DN. Se presenta cuando tenemos un argumento que satisface el modelo, pero parte del explanans no es un factor pertinente a la explicación. Se suele mencionar el siguiente ejemplo: «Todos los metales conducen electricidad. Todo lo que conduce electricidad está sujeto a la gravedad. Por tanto, todos los metales están sujetos a la gravedad». Aunque se trata de un argumento bien construido, con leyes en sus premisas, resulta claro que la naturaleza conductora de los metales es irrelevante para su sujeción a la gravedad. El modelo DN defiende, además, la «identidad estructural» de explicaciones y predicciones. En ambos casos se articulan argumentos cuyas premisas establecen leyes de la naturaleza y condiciones iniciales. Con una sola diferencia: en la explicación, se conoce ya que la conclusión del argumento es verdadera, mientras que en la predicción se desconoce. La estructura lógica que funde explicación y predicción no carece de aval histórico; constituye la estructura lógica del método newtoniano. Con la física de Newton se predijo la vuelta del cometa Halley en diciembre de 1758. Una vez se observó éste, el mismo argumento explica por qué retornó cuando lo hizo. Pero existen muchos otros casos en que Isagogé, 1 (2004)

45


la observación de un fenómeno nos permite predecir la observación de otro sin que el primero explique el segundo. La caída de la aguja de un barómetro nos permite predecir que habrá tormenta, pero no explica por qué. La teoría de la evolución aporta una explicación del registro fósil, pero no puede formular predicciones adecuadas sobre nuevas especies, porque el cambio evolutivo se halla sometido a variaciones estocásticas en las condiciones ambientales y en la morfología de los organismos. Las explicaciones probabilistas ofrecen abundantes ejemplos donde la predicción y la explicación van por sendas distintas. Cuando la probabilidad conferida por el explanans al explanandum es baja, no se puede predecir que el explanandum suceda en realidad, aunque a posteriori se pueda explicar por qué aconteció. El modelo DN no sirve cuando se recurre a las leyes estadísticas para explicar los sucesos. Para ese ámbito del conocimiento, Hempel propone el modelo de inducción estadística (IS) según el cual, en los casos de explicación probabilística, las leyes más las condiciones auxiliares hacen muy plausible el explanandum. Tampoco le faltan contraejemplos a este modelo. Con todas sus debilidades, la idea de una estructura puramente lógica de la explicación es muy atractiva. Y a la idea seductora hay que atribuirle las dificultades que encontraron los diversos modelos sugeridos para paliar las deficiencias antes reseñadas. Las nuevas propuestas buscaban hacer más selectiva y pragmática la estructura lógica de la investigación científica. Una posibilidad era añadir una estructura objetiva. Esa es la postura que tomó Wesley Salmon con su teoría causal y ha extendido recientemente James Woosward. El modelo mecánico causal gira en torno a varios conceptos centrales. En primer lugar, la noción de proceso causal. Por tal se debe entender un proceso físico, como el movimiento de una partícula por el espacio, que se caracteriza por la capacidad de transmitir su propia estructura. Cuando un proceso causal interseca espacio-temporalmente con otro proceso causal, modifican ambos su estructura. En la interacción causal producida en la colisión entre dos partículas, se altera la dirección y la energía cinética de una y otra. De otra forma, la explicación de un suceso A reflejará los procesos y las interacciones causales que conducen hasta A —aspecto etiológico de la explicación— o al menos cierta porción de éstos, así como describirá los procesos y las interacciones que constituyen el propio proceso —aspecto constitutivo de la explicación—. La explicación revela que A se encuadra en un nexo causal. Además, la dirección de la causación (la interacción entre la luz solar y el mástil causan la sombra) indica la dirección de la explicación. Explicar algo es describir qué es lo que lo causó. En general, la explicación científica aporta conocimiento de los mecanismos de producción y propagación de la estructura del mundo, pues debe reflejar el modo en que opera la naturaleza. A diferencia del modelo DN, el modelo del mecanismo causal no necesita apelar a leyes, ni tendría por qué estructurarse en argumentos. Pero, cabe preguntarse por el fermento que originó el Círculo de Viena y la época dorada que floreció en Centroeuropa en los años que vivieron a caballo entre los siglos XIX y XX. En la configuración de los supuestos metodológicos que subyacen bajo buena parte de los enfoques uno de los binomios antitéticos conceptuales más discutidos, vale decir, en torno a las relaciones entre mente y cerebro, el empirismo lógico desempeñó un papel crucial en la formulación de la moderna filosofía de la mente. Una orientación que le vino dada por Mach desde el origen de esa tendencia filosófica. Ernst Mach (1838-1916) estudió en Viena, donde enseñó física en 1861; tres años más tarde se trasladó a Graz y luego a Praga en 1867 para volver a Viena en 1895, nombrado profesor de historia y teoría de la ciencia inductiva. Dictó sólo tres cursos, porque un accidente cerebro-vascular le obligó a abandonar las aulas. En la Viena de su juventud dominaba una versión del materialismo que privaba de contenido específico a

46

Isagogé, 1 (2004)


sensaciones y fenómenos mentales en la esperanza de disolverlos en partículas y fuerzas. Contra esa opinión, Mach se propuso construir una filosofía natural metacientífica que conjugara la abstracción de la física con la concreción de fisiología de las sensaciones. Para él, los datos de la psicología merecían idéntico valor que los resultados de la física. Entre la física de las fuerzas y movimientos de los objetos del mundo y la ciencia psicológica de las sensaciones y los pensamientos no mediaba hiato alguno. Era todo un continuum. A esta concepción Bertrand Russell la llamaría en 1914 «monismo neutro». De una forma más explícita, prenuncia para el empirismo lógico en sus Lecciones científicas populares (1882), que la ciencia debe ocuparse sólo de lo observable y, sus leyes, limitarse a sistematizar las relaciones entre nuestros experimentos. Abunda en esas ideas en sus trabajos histórico-críticos de mecánica y termodinámica y en su más filosófico Análisis de las sensaciones, publicado en 1886. La lectura de Kant, a sus quince años, le indujo a plantearse la posibilidad de extender los conceptos de espacio y tiempo más allá de las condiciones de la percepción. Tras dudar, more kantiano, de la cosa en sí (Ding an sich), asimilar la idea de mente propugnada en Allgemeine Metaphysík de Johann Friedrich Herbart y dejarse seducir por las relaciones cuantitativas de los experimentos psicológicos de Gustav Theodor Fechner, acometió su propia andadura en psicofísica, convencido de que los constituyentes reales del mundo eran cualidades y funciones concretas. Se propuso reconciliar la psicofísica con la física, pero no en el sentido de Fechner y otros, que buscaban la identificación de la psicofísica con la física. Mach esbozó una crítica fisiológico-sensorial de los conceptos físicos: la forma espacial y temporal de los principios físicos eran concesiones a la necesidad humana de visualizar los acontecimientos en coordenadas sensoriales. Defensor de la unificación de las ciencias, competía al físico, declaraba Mach, establecer una suerte de catálogo cualitativo de todas las formas de energía, que se van transformando unas en otras a través de una ley de conservación, una suerte de análogo de la ley de acción mínima en mecánica. La unificación de las ciencias se reflejaría en el avance hacia una unificación de los tipos de energía, con las leyes empíricas de transformación. Pero la física no podía penetrar más allá de los fenómenos de transformación de la energía. Con algunas discrepancias de puntos importantes del empirismo lógico, puestas de relieve por Banks, podemos asentir a la tesis establecida del papel precursor de Mach en esa corriente. Como lo fue Pierre Maurice Marie Duhem (1861-1916), procedente de una adscripción ideológica muy distinta. Éste se había formado en la Escuela Normal Superior de París. Tras la defensa de su tesis doctoral, en el segundo intento tras un primero fallido, y no por razones científicas, inició una carrera docente que se desarrolló consecutivamente en Lille, Rennes y Burdeos. Experto en Termodinámica, su influencia se debe sobre todo a sus tratados filosóficos e históricos. En 1906 publicó La Théorie physique: son objet et sa structure, traducida dos años después al alemán. Sus extensos Les Origines de la statique (1905-6) y Le Systéme du monde (1913-58) constituyen todavía una fuente de información, en particular, sobre el saber medieval. Por lo que al empirismo lógico respecta, afirmaba que lo propio de cualquier teoría o hipótesis era «salvar» los fenómenos. En su famosa argumentación contra el experimentum crucis, aduce que los experimentos no pueden refutar teorías aisladas, por una razón poderosa: una teoría se halla articulada siempre dentro de un complejo o sistema teórico. Lo mismo que no existen fenómenos aislados, tampoco hay teorías aisladas; sólo existen sistemas teóricos. Defendió, además, una forma de instrumentalismo; en su opinión, el significado de una ley física debe determinarse, en última instancia, por el contexto de la práctica científica y el armazón de leyes relacionadas. En esa llamada subdeterminación se apoyaba Otto Neurath, quien, por esas fechas (1907), colaboró en la gestación de la primera generación de neo-positivistas, integrada por Isagogé, 1 (2004)

47


él mismo junto con Philippe Frank (físico), Hans Hahn y Richard von Mises (matemáticos). Proponían una filosofía de la naturaleza, vale decir, de la ciencia en los antípodas de la Naturphilosophie. Rechazaban toda especulación metafísica, tomando por útil para el razonamiento la lógica matemática de Gottlob Frege y los Principia Mathematica de Bertrand Russell y Alfred North Whitehead. Su ideal de axiomatización es el recién introducido esquema de David Hilbert. El lenguaje lógico-matemático se convirtió, así, en la forma preferida, por preciso, con el que se debía configurar la filosofía de la ciencia. Partiendo de la tradición del empirismo inglés, la fundamentación en los hechos constituyó una diferencia casi insalvable entre la ciencia y otras pretensiones teóricas de conocimiento. Hacia 1922, y con la teoría de la relatividad y la interpretación «antigua» de la mecánica cuántica consolidadas, adviene la segunda generación neoempirista que se simboliza en el Círculo de Viena de Positivistas Lógicos, que se debe completar con la Sociedad de Berlín para la Filosofía Empírica y la llamada escuela de Varsovia. En Berlín trabajan Hans Reichenbach, Richard von Mises, Kurt Grelling, Walter Dubislav y poco después Carl Hempel. Del lado de los teóricos polacos, destacaban Alfred Tarski, Stanislau Lesnewski, Tadeus Kotarbinski y Lukasiewics. La figura que aglutinó el Círculo de Viena entre 1924 y 1936 fue Moritz Schlick, nombrado catedrático de filosofía de las ciencias inductivas de la Universidad de Viena, un puesto anteriormente ocupado por Mach y Boltzmann. En 1918, había avanzado ya algunas tesis del programa en su Allgemeine Erkenntnislehre («Teoría general del conocimiento»). Junto a Schlick, integran el grupo Otto Neurath, Felix Kauffman, Herbert Feigl, Friedrich Waismann, Edgar Zilsel, Victor Kraft, Kurt Gödel y Hans Hahn. En 1926 se sumó Rudolp Carnap. Muchos de los integrantes del Círculo de Viena eran judíos, lo que explica la diáspora general años más tarde. Las sesiones iniciales arrancaron con la lectura comentada del LogischPhilosophische Abhandlung que Ludwig Wittgenstein, un discípulo de Russell, acababa de publicar en 1921 (traducido al inglés un año después con el título Tractatus LogicoPhilosophicus). En este librito, se asocia la idea de mundo a la totalidad de los hechos y no de las cosas. Así, Wittgenstein ofrece un enlace adecuado entre la tradición empirista y la nueva lógica matemática. Schlick, en su epistemología general, Allgemeine Erkenntnislehre, llegaba a concepciones parecidas. Pero el primer esquema general de la doctrina comienza con la impresión en 1923 de Der logische Aufbau der Welt, redactada por Carnap. Existen ciertos paralelismos entre la Elementenlehre de Mach y la Aufbau de Carnap, sobre todo en lo que se refiere a una teoría de los elementos y la atención a la fenomenología. En la Aufbau, todas las proposiciones o teoremas de una teoría científica, y en particular sus predicciones, deben ser expresables en lenguaje observacional sobre los fenómenos. La experiencia sensorial propia es, para Carnap, el último criterio de verdad de las descripciones fenoménicas que los científicos hayan llevado a cabo. En 1926, surge la Sociedad de Ernst Mach, formada por Carnap, Neurath y Hahn. Estos redactan, en 1929, un manifiesto titulado Wissenschaftiiche Weitauffasung, der Wiener Kreis («La concepción científica del mundo actual: el Círculo de Viena»). Surge así la denominación de Círculo de Viena y las líneas maestras de un movimiento que se reconoce deudor de la tradición vienesa representada en las figuras de Mach, Ludwig Boltzmann y Franz Brentano, de los positivistas y empiristas (Hume, Comte, Mill, Avenarius y Mach), de los filósofos de la ciencia (Helmholtz, Riemann, Mach, Poincaré, Deum, Boltzmann y Einstein), de lógicos (Leibniz, Peano, Frege, Russell, Whitehead y Wittgenstein), axiomáticos (Peano, Pieri y Hilbert) y de moralistas y sociólogos (Epicuro, Hume, Bentham, Mill, Comte, Spencer, Feuerbach, Marx, y Popper). Desarrollan una actividad frenética. En 1929, el Círculo organiza su primer congreso internacional, celebrado en Praga; entre 1930 y 1940 se celebraron en Könisberg, Copenhague, Praga, París y Cambridge. En 1930, el Círculo se hizo cargo de la revista

48

Isagogé, 1 (2004)


Annalen der Philosophie y la transformó en Erkenntnis. Bajo la dirección de Carnap y Reichenbach, se convirtió esta revista en el órgano principal del movimiento positivista. En los años posteriores, se abrirían nuevas líneas editoriales con monografías bajo el epígrafe de Ciencia unificada (Einheitswissenschaft). Ese esplendor fenoménico no reflejaba el drama personal de sus integrantes. Feigl marchó a América del Norte en 1930 y fue contratado por la Universidad de Iowa en 1931. El ascenso al poder de los nacionalsocialistas supuso la disolución de los grupos de Berlín y Varsovia. Hahn murió en 1934, año en que Neurath huyó de Viena para ir a Holanda primero y luego a Inglaterra. Schlick fallece asesinado por un alumno desequilibrado en 1936. Este mismo año es contratado Carnap por Chicago. Hempel recibió una ayudantía de Carnap para el siguiente curso. Reichenbach impartió clases en la UCLA en 1938, pero hasta 1941 no se aseguró un puesto académico para dictar clases de física y matemática en Harvard. El prestigio de sus miembros acrecentado por la aureola de perseguidos por el nazismo, las doctrinas del Círculo conocieron una rápida internacionalización, sobre todo en el ámbito anglosajón. Al esquema programático vienés le sucedía la concepción heredada, en palabras de Putnam. Esta postura conceptual supone una flexibilización del empirismo ingenuo y radical de los comienzos y una incorporación del pragmatismo americano y la filosofía del lenguaje de los analistas ingleses. Pero esto último será objeto de consideración en futuras colaboraciones. El pasado 27 de enero se cumplieron sesenta años de la liberación, por parte de los rusos, del mayor campo de concentración-genocida que conoce la historia. Quisiéramos que sirviera este trabajo para reflexionar sobre cómo el hombre puede llegar a avanzar tanto en tan poco tiempo, crear un clima de ebullición intelectual cuyos vapores hoy día siguen, en gran medida, sin evaporarse, y, paralelamente, conseguir un grado de mezquindad sin parangón. Ojalá esta revista pueda constituirse en el órgano principal del espíritu que guía al Instituto Ouróboros, y que básicamente, no se diferencia del que aglutinó al Círculo, a la escuela de Berlín,… explorar el conocimiento con las únicas armas de la curiosidad y la actitud metódica y reflexiva. El autor desea dedicar este artículo: a D. Pedro Montilla López, por enseñarme que las ideas deben ir paralelas con los valores; a D. Rafael Solana Lara, por descubrirme el sentido común; a D. Manuel Santamaría Osorio, ineludible. A todos, en la Universidad de Córdoba, por alumbrarme que cada hombre tiene su propio destino y que su único imperativo es aceptarlo y seguirlo, le lleve donde le lleve.

BIBLIOGRAFÍA RECOMENDADA HEMPEL, C: Fundamentos de la Formación de Conceptos Científicos, Alianza, 1988. HIERRO, J. y S. PESCADOR: Principios de Filosofía del Lenguaje, Alianza Universidad, 1991, 2 tomos. LAKATOS, I.: La metodología de los programas de investigación científica, Alianza, 1983. MOSTERIN, J.: Conceptos y Teorías en la Ciencia, Alianza, 1984. NAGEL, E.: La estructura de la ciencia, Paidós Básica, 1991. NEWTON-SMITH, W. H.: La racionalidad de la ciencia, Paidós studio, 1987.

Isagogé, 1 (2004)

49


OPINIÓN Y ANÁLISIS

MÁS QUE LAICO Virginia Carcelén Aycart Desde el comienzo de esta legislatura, (y probablemente durante toda ella), se escuchan voces contra el actual gobierno por promover un “laicismo radical”. Es tal el terror que esto supone en algunos sectores, que la Conferencia Episcopal Española ha desarrollado una campaña contra diversas reformas sociales: Ley del divorcio, ley de investigación con células madres, matrimonio homosexual y enseñanza de religión en los colegios. También ha realizado sendas campañas sobre la eutanasia y el aborto, aunque la primera ni siquiera se ha planteado y el aborto sigue en las mismas condiciones que con el gobierno anterior. Realmente, es agotadora e intensísima la maquinaria puesta en marcha por la iglesia para defender lo que creen una intromisión en sus derechos y en su terreno. Incluso el mismísimo Papa, en su reunión quinquenal con los prelados españoles denunciaba que “en España se va difundiendo una mentalidad inspirada en el laicismo, ideología que lleva gradualmente de forma más o menos consciente a la restricción de la libertad religiosa hasta promover un desprecio o ignorancia de lo religioso”. De este modo, mientras poca gente se percata de las injustas y numerosas exenciones fiscales que la iglesia posee en nuestro país (sin mencionar el dinero que recibe anualmente del estado gracias a un antiguo convenio), se intenta difuminar las fronteras entre lo público y lo privado, lo que es pecado para unos y lo que es ilegal para todos, al tiempo que laicismo se convierte en la palabra de moda de forma tristemente peyorativa. El diccionario de la Real Academia española define a laicismo como “doctrina que defiende la independencia del hombre o de la sociedad, y más particularmente del Estado, de toda influencia eclesiástica o religiosa”. Así mismo, define la independencia como libertad y autonomía. En modo alguno, por supuesto, encontramos que independencia sea sinónimo de prohibición o exclusión. Todos deseamos una sociedad en la que esté garantizada por ley la igualdad entre todos sus miembros, sin ningún tipo de discriminación, con los mismos derechos y obligaciones en libertad. Para que esto se dé, sólo un estado laico puede garantizar que las reglas que lo regulen no tengan la tentación de favorecer o discriminar a las personas, según las directrices de un credo en particular, compartido o no por la sociedad, vulnerando las reglas de juego. Es ésta y no otra, en realidad, la esencia del laicismo en democracia, que por su misma naturaleza no podría existir sin la libertad individual de profesar o no, cualquier tipo de creencia. Nuestro marco de convivencia, la Constitución Española, establece claramente todos los principios mencionados en su artículo 14. Del mismo modo, la Constitución Europea en los artículos ?-2.Valores de la unión, ??-80.Igualdad ante la ley y ??-81.No discriminación, sienta las mismas bases de igualdad, libertad y tolerancia. Si queremos construir un país, una Europa o un mundo en el que todos tengamos cabida por igual (creyentes o no, de izquierdas o derechas), tenemos primero que abrir la mente y deshacernos de nuestros viejos prejuicios, miedos y fantasmas. Sólo así nos daremos cuenta que condición necesaria es que el estado sea laico, necesaria pero no suficiente. Entre todos podemos convertir ese sueño de libertad e igualdad en realidad, ya tenemos nuestros cimientos: nuestras constituciones, y eso es mucho más que laico. 50

Isagogé, 1 (2004)


ÉTICA Y ESTÉTICA DE LA POLÍTICA Antonio Jesús Serrano Castro Querría hacer mío un pensamiento atribuido a Flaubert: «si miramos algo atentamente durante largo tiempo se convertirá en fascinación». Al asistir al panorama político, que estos días hace amago de vibrar y se decanta (más que debate) entre las posiciones por el referéndum sobre el Tratado para la Constitución Europea o planes al unísono, a uno le gustaría dejarse caer «éticamente» en la fascinación de la política, pero nos supera la desesperación, o cuanto menos otra actitud mas pesimista, que queda confirmada por arengas que invitan a la confianza ciega sin respaldo de argumentación. Hay voces que se interrogan si estaremos en un proceso de desmantelamiento de la Democracia, por el progresivo y constante vaciado conceptual, adormecida para que desaparezca entre sus «propias contradicciones». Adormecida para que pierdan fuerza los principios fundadores de la misma y, para que, tarde o temprano, se propongan formulas «salvadoras» que dejen el poder en criterios de «eficacia» o «seguridad», que no se describen convenientemente ni son delimitados. Los datos no son invitación para el optimismo. No se pone en cuestión la Democracia en el plano teórico ni se discute dialécticamente, especialmente en sus fundamentos y principios que suelen ser incesantemente enunciados y plasmados, tal como sucedía con relativa frecuencia en los primeros esbozos de las democracias actuales. Es más, en las sociedades del área occidental, no dejan de invocar y celebrarse los logros democráticos de su vida pública. Sin embargo, a pesar de la aceptación ciudadana de este hecho, no es menos cierto que en el plano de lo concreto, aún hay actitudes y carencias, fruto de dicho uso ambiguo y desconcertante. Basta nombrar algo muchas veces para que empiece a perder sentido. Una referencia hace a ello José Luis Sampedro, que afirmaba que «son las palabras las que dan realidad a las cosas […]. Alguien inventa palabras y luego las aprovecha como armas y como títulos de propiedad». Y pone como ejemplo la palabra «liberalizar»: «Parece que hacen un favor a alguien cuando ?lo liberalizan’, parece que le quitan las cadenas, que realmente lo liberan, que le otorgan definitivamente la libertad. Pero en realidad lo que sucede es precisamente lo contrario. En un conflicto social, cuando hay partes enfrentadas, por lo común una es más fuerte que la otra; de esta manera, liberalizar quiere decir que estamos en manos del poderoso. […] los nombres son excusas para enmascarar la realidad». Deberíamos ponernos sobre aviso. Una de las cuestiones donde más debería exigirse a los políticos «profesionales» es en el problema de la pérdida del sentido ético y estético de la política. Aspectos que parecen estar conduciendo a un olvido de la res publica cívica y social, en post de planteamientos que acaban convirtiéndose en «Leyes del embudo»: Lo concebido para beneficio de todos, una sociedad más justa, obedece y se convierte en el eficaz medio de obtención de beneficios para determinados intereses. Recordando a los clásicos, para ilustrar la cuestión, Aristóteles venía a considerar como propio del ser humano «la amistad», la tendencia que nos hace sociales, sentenciando al decir que el hombre no puede vivir solo, que es por naturaleza un ser político. Es por ello un ser tendente en su sustancia ? o si alguien prefiere entenderlo así, fruto del más desaforado de los destinos? a unirse a otros y juntos configurar una «sociedad». La discusión sobre ello no es objeto de este artículo, el hecho es que vivimos inmersos en sociedades, e independientemente de la actitud que cada cual Isagogé, 1 (2004)

51


adopte ante esto, en su ser está, por tanto, la necesidad de unirse a otros y, junto a otros, empeñarse en la tarea constructora de la sociedad. En la forma de configurar estas sociedades —lo que se consigue especialmente mediante el quehacer político—, se han de tener presentes las diferentes concepciones de entender la vida, a las que denominaremos ideologías, y que han sido agrupadas en algunas categorías que con criterio no poco conflictivo podemos encuadrar como de derechas o de izquierdas. Desde el análisis de estas concepciones, se percibe que se va cayendo en una ambigüedad dirigida, que es distinta a usar unos términos amplios que podrían contribuir a romper límites estrictos y obtener consensos que estarían destinados a evitar fundamentalismos ideológicos. Con ello, se ha dado paso al sincretismo-simplismo y a la relatividad de planteamientos, acompañados de una ecléctica y cínica actitud acrítica galopante, que ni orienta ni provoca reflexión sobre cómo se avanza y hacia dónde va este correr juntos. Es en la ambigüedad y la demagogia donde encuentran su campo de desarrollo, como en aguas revueltas, los que se someten a criterios e intereses menos loables, que en modo alguno benefician al conjunto de la ciudadanía, potenciando la crítica que se dirige sobre el ejercicio político. A la vista del lento pero insidioso camino que se adopta, no extraña que se llegue a la afirmación del fin de las ideologías, en vez de plantearse como frente de trabajo la recuperación de la ciudadanía ética. Poco antes de la caída del muro de Berlín, el entonces casi desconocido funcionario del Departamento de Estado de los Estados Unidos, Francis Fukuyama, planteó la tesis del final de la historia, manteniendo que «la lógica económica de la ciencia moderna y, sobre todo, algunos factores geopolíticos, llevaban ineluctablemente a lo largo del tiempo al derrumbe de las tiranías, tanto de derechas como de izquierdas; estas fuerzas empujaban a sociedades políticamente diversas hacia la creación de democracias capitalistas liberales como ultimo eslabón del proceso histórico». Una «ideología» plantea el final de las ideologías, como manera de afianzar su hegemonía, y de justificar su triunfo sin contestación. Rompe el juego dialéctico y plantea que las únicas fichas del ajedrez serán las suyas. Únicas fichas, únicas piezas en el juego, y de ello se deduce en su raciocinio, nuevas reglas que se imponen por el sistema de la fuerza de los hechos. Bien distinta es la realidad. Si esto se aplica a la premisa mayor, a nivel internacional, el efecto dominó también juega en lo domestico, en la premisa menor de la política interior. En este hacer política por quienes la ejercen con plena dedicación ? los políticos? hay dos elementos que juegan, desplegando el equilibrio de la sociedad misma: la ética y la estética. La Ética la utilizamos como la define Agustín Domingo Moratalla, aquel «nivel reflexivo donde tomamos distancia del día a día», donde «nos movemos en un nivel más argumental y lógico que vital o existencial». Reservamos este término para responder a la pregunta «¿por qué debemos hacer aquello que hacemos?», lo que nos ofrece la posibilidad de «evitar que las razones de nuestras acciones caigan en una perspectiva 52

Isagogé, 1 (2004)


acrítica o dogmática». A este nivel es lógico pensar que el ejercicio de la política necesita y le urge recuperarla. Los cheques en blanco no casan con la política como realización de ciudadanía: otorgar representación no es dejar de dar argumentos ni de tratar a la ciudadanía como si creyesen que «somos todos estúpidos», como manifiesta con lógica indignación García Calero cuando escucha a los políticos y ve sus reacciones. Así entendemos que, al igual que nos vaticina Joaquín Estefanía, si a los ciudadanos se les gobierna con medidas contradictorias, hasta el punto de lograr que pierdan la confianza, entonces «todos podemos tener problemas que se sustancien no en los lógicos cambios de Administración, sino en un futuro tenebroso de regresión»;lo que nos lleva a comprobar todo un conjunto de imágenes de cara a la galería donde se ve a los políticos «regalar su desprecio ante la crítica, convertir el dialogo en pelea de gallos y terminar excavando sus líneas arguméntales como trincheras de autistas», (de nuevo en términos de García Calero). Aquí es donde enlazamos la ética con la estética. Esta actitud despectiva a la ciudadanía se hace más patente en el diálogo de sordos, en la crispación, en la ruptura de las reglas de juego, al no conocer lo que tienen entre manos. Pero también en que se mezcla incoherentemente con el populismo, en el sometimiento a grupos de presión, en la consecución del voto, durante el periodo electoral, en las cortas miras de los cuatro años de gobierno y en la intención de perpetuarse casi a costa de todo; y tiene como contrapartida la indignación y el no sentirse representada la ciudadanía por aquellos que se vieron sometidos a su elección. Esa actitud, esa pose ante la galería, esa imagen, no suele venir acompañada de la estética como modelo estimulante, que como afirma el dicho popular, exige serlo y parecerlo. Aquí se debería mantener una imagen que es, al mismo tiempo, educativa, formativa y creadora de criterios, que sirven para generar esa confianza que tanto se reclama. Frente a esto, el oscurantismo, las incoherencias entre lo que se dice y se hace, y las propuestas programáticas generadas para ganarse la gracia del electorado, sin la fuerza de la convicción personal sobre ellas o sobre el mismo juego democrático al que se dice servir, provocan más de un recelo que se convierte en generalizada desconfianza, ya no sólo en el gobierno de turno, sino en las mismas instituciones, lo que sí debería ser aviso de navegantes y hacer recapacitar sobre la delgada línea en que se mueve todo ello. No menos interesante es el dato de cómo se promueve la desmemoria colectiva e individual, que se activa o desactiva según convenga, dejando en estado de hibernación a la sociedad a la que se dice servir. O no se sabe lo que se tiene entre manos, o no se quiere que se sepa. Lo que es evidente y constante es el creciente auge de la partitocracia que, como nueva «tiranía», ocupa el espacio que deberían tener las ideologías como faros alumbradores de las diferentes actuaciones. Se genera con ello que, lo que era un medio inherente para la consecución de sus objetivos —el acceso al poder—, se constituya en el objetivo único de actuación de los partidos, con su connatural consecuencia, el clientelismo, olvidándose de cualquier debate ideológico. La consigna del «todo vale» campa en las vastas avenidas de la política, llegándose a intentar romper hasta las mismas reglas de juego. No es extraño que con ese afán de mantenerse en el poder, los partidos escuchen menos lo que la ciudadanía les dice y se conviertan en la nueva tiranía, la misma que en el contexto de la Grecia de Aristóteles, que nos vuelve a sorprender por la actualidad de sus palabras, explica que el tirano, en un primer paso por ganarse al pueblo, «libra de deudas y reparte tierras al pueblo y a los que le rodean y se finge benévolo y manso con todos», en un segundo paso «suscita indefectiblemente algunas guerras para que el pueblo tenga necesidad de un conductor». Insiste en este punto: «el tirano es amigo de hacer la guerra, a fin de tener ocupados a sus súbditos y de que estos necesiten Isagogé, 1 (2004)

53


constantemente un jefe». Comienzan entonces a surgir las primeras disensiones y recelos, que el tirano tiene que atajar de raíz «si es que ha de gobernar». El tirano, dice Aristóteles, tiene «que acabar con los que sobresalen y suprimir a los arrogantes». En esta situación se hace cada vez mas dependiente de su guardia personal, a la cual hay que pagar: «el pueblo que ha engendrado al tirano mantendrá a éste y a sus socios». Concluye entonces Platón: «Y el pueblo, huyendo, como suele decirse, del humo de la servidumbre bajo hombres libres, habrá caído en el fuego del poder de los siervos; y en lugar de aquella grande y destemplada libertad, viene a dar en la más dura y amarga esclavitud: la esclavitud bajo esclavos». El clientelismo, que busca sus servidores para sustentarse. La nueva «cultura», fruto de la nueva «estética», conlleva la necesidad de un cambio, una exigencia más amplia que implica reformas institucionales y transformaciones decisivas, no anecdóticas, en las prácticas diarias de la vida democrática. El electorado no solo tiene un juicio pésimo acerca de los agentes e instituciones políticos fundamentales, sino que además resulta en gran medida imprevisible. «Desestructuración» del electorado, lo llaman de un modo que parece culpar al ciudadano, cuando lo lógico es más bien tener presente que lo que les ofrece es poco y menos atractivo aún, como afirma Tusell. «El elector suele cambiar con brusquedad, se guía por la emoción que le proporcionan los líderes y a veces abraza las banderas populistas. La brusquedad de sus giros ha podido llevar incluso a que se hable de ‘voto zapping’». Al final nos encontraríamos implorando a obtener los favores de los electores ? sometidos de manera sorprendente a lobbies de presión, a las consultas electorales? , en vez de apelar a los ciudadanos. Y terminamos estas notas a vuelapluma con otra referencia a Aristóteles, que atestiguaba que «lo mismo sucede en la polis democrática, donde no gobiernan los que por naturaleza deberían hacerlo, los filósofos, sino un conjunto de ?pasteleros’ y ?cosmetólogos’ que no dan al pueblo lo que necesita, sino lo que quiere con un querer patológico». Aquí incide el último punto, la estética. La política tiene un ritual y una estética muy distinta de la pose y la imagen. Estética que como elaboración simbólica recoge y transmite los principios que la mueven. En el ejercicio de la política evitemos a los cosmetólogos, los que disfrazan y utilizan al electorado, serlo y parecerlo. Hablar de ejercicio democrático, nos llevaría a la búsqueda de un hacer ético y una estética equilibrada y formativa, que mostraran los horizontes hacia donde marchar. Es necesario que el ejercicio político se impregne con urgencia de elementos éticos y de una estética que rompa la dinámica que habitualmente sobresale. En el reino de las apariencias y la ética de circunstancias, sólo se mueven perfectamente el arribista y el servil.

54

Isagogé, 1 (2004)


POLONIA, UN PAÍS DE LA "NUEVA EUROPA": SU PASADO RECIENTE Y SUS ASPIRACIONES PARA EL FUTURO Francisco Castillo Arenas Cuando el presidente George W. Bush pidió apoyo a los países europeos para el ataque a Irak en la tercera Guerra del Golfo 1, se encontró con que el escenario en el continente era muy diferente al que tuvo su padre en la segunda. El Pacto de Varsovia había caído y los países del Este se habían liberado de las directrices soviéticas, teniendo capacidad para dirigir sus propias políticas exteriores. Este panorama podría parecer más favorable para obtener una unanimidad a favor de las tesis norteamericanas, pero en la práctica, Bush se encontró con dos posturas, una a su favor y otra en contra. El presidente de los Estados Unidos no tardó en bautizar como la «Vieja Europa» a los que se le oponían y como la «Nueva Europa» a los que le apoyaban. La «Vieja Europa» era capitaneada por el eje franco-alemán, que creó la Unión Europea y ha sido su motor. La «Nueva Europa» englobaba a su tradicional aliado, el Reino Unido, y a países occidentales con gobiernos que se habían destacado por su sintonía con la política republicana, como la España de Aznar (importante por ocupar en ese momento un asiento en el consejo de seguridad de la ONU) y la Italia de Berlusconi. Pero lo que llamó más la atención fue la practica unanimidad de militancia en este grupo de los países que había formado parte del bloque este, destacándose por su determinación Polonia. Polonia es un país que ha sido campo de batalla entre el oriente y el occidente europeo. En el siglo XVIII fue objeto de reparticiones entre Prusia (Alemania), Austria y Rusia y sólo resurgió nacionalmente tras la Primera Guerra Mundial. En el «período de entreguerras» el país combatió contra los bolcheviques y se orientó hacia el oeste. La Europa occidental la atraía, por sus países ricos y poderosos que podían sostener su independencia contra Rusia y contra Alemania. La alianza se cumplió, y la invasión alemana provocó la entrada en guerra de sus aliados, Francia y Reino Unido. No obstante, esto no sirvió para evitar que Polonia cayera, y tras la Segunda Guerra Mundial, occidente no pudo impedir que quedara bajo la tutela de las tropas soviéticas y se instalara en ella un gobierno aliado de la URSS. Para los polacos, como para todos los países de la zona, los años comunistas se recuerdan con amargura y se reniega de ellos. En sus nuevos libros de historia se hace hincapié en sus procesos democratizadores. El caso polaco fue paradigmático, pues se desmontó el sistema comunista tras la convocatoria de unas elecciones libres, ganadas por un movimiento nacido en las huelgas de 1980: el sindicato «Solidaridad». Su dominio era tan claro que el régimen tuvo que admitir elecciones parciales en 1988 y la formación del primer gobierno no comunista del este, presidido por Mazowiecki. Se presenta, pues, Polonia ante el mundo como un país consciente (y orgulloso) de haberse «liberado» a si mismo. Con un tejido intelectual importante (Geremek, el propio Mazowiecki, etcétera) y una formidable influencia de la Iglesia católica. Pero también como un país de 312.500 km² (tamaño superior a la media europea) y una población de 39 millones que crece espoleada por dicha Iglesia, y a su vez registra una

1

Se considera como la primera Guerra del Golfo, a la guerra Irán-Irak ocurrida en la década de los 80 del siglo XX. Isagogé, 1 (2004)

55


alta tasa de paro, situación que supone un revulsivo para sus habitantes, preocupados por mejorar su situación. Polonia ha vuelto sus ojos de nuevo hacia occidente. La Unión Europea ha demostrado su rentabilidad económica y su nivel de vida tiene un fuerte efecto de llamada en los países de este, como se constata en la emigración. Las negociaciones con Polonia revistieron especial dificultad, lo que no fue una sorpresa dados su tamaño y su predominante y obsoleto sector agrario; pero también una gran dureza que sorprendió a sus interlocutores europeos. El sentimiento europeísta polaco es práctico. Por un lado, su deseo de entrar en la estructura económica de la Unión es diáfano, pero ha dejado claro que no cree en tener una política exterior común. A la par, ha abrazado la idea de ligarse a un poder más fuerte y que hasta ahora sí ha demostrado tener operatividad en la práctica: los Estados Unidos. Este esquema se puede aplicar a todos los nuevos miembros de la UE venidos del este, pero el caso polaco es mas relevante, primero por ser el más grande de estos, y segundo por su determinación. Polonia no desea sólo estar abrigada por los EE UU, sino que está jugando fuerte esa baza para alcanzar un estatus mundial. En la UE sorprendió su decidido apoyo a la invasión de Irak (se rumoreaba que una vez dentro, iba a estar bajo la orbita alemana), y más aún el envío de su ejército para participar activamente en la invasión. Hubo españoles a quienes les pareció humillante que nuestras tropas quedaran bajo mando polaco en la posterior ocupación, pero los polacos fueron taxativos: ellos pelearon y los españoles no; por lo tanto, mandaban ellos. Los polacos no están habituados a ceder, y los negociadores de la UE lo han comprobado. La postura polaca está causando sentimientos encontrados entre sus socios. Por un lado causa admiración en algunos por sus aspiraciones y no plegarse ante sus socios. Para otros es un Caballo de Troya de los Estados Unidos en la Unión, siendo esta última la que la financia. Polonia ha entrado con grandes déficits y siendo una receptora nata de los fondos estructurales comunitarios que, entre otros usos, sirven indirectamente para que haya renovado sus arsenales militares con material occidental homologable con sus congéneres de la OTAN. El material que se está usando en Irak. La persistente resistencia iraquí esta haciendo enflaquecer ante su opinión publica la postura belicista del presidente Aleksander Kwasniewski y del primer ministro Marek Belka, pero no tanto porque se cuestione la rentabilidad de ir de la mano de los EE UU, sino porque Polonia esta comprobando que la Grandeur puede ser cara, tanto en dinero como en vidas. De momento, los réditos de la invasión parecen no haberse hecho efectivos. La Unión Europea tiene el problema de que no logra encandilar con su futuro prometido a Polonia, a la que le atrae más el «pájaro en mano» que le ofrecen los EE UU. Eso sí, habrá que buscar vías de armonizar los intereses de todos si se quiere que la Unión sobreviva. Un país con el poder demográfico de Polonia (y su forma de negociar) no puede ser ignorado, y más con la cantidad de fondos que recibe. Esa combinación de «está contra nosotros cuando nosotros la financiamos» es una mezcla explosiva por ambos lados. Si Polonia se sale con la/s suya/s, arrastrará a los nuevos socios del este con ella, lo que podría conducir a que los estados «pagadores» se nieguen a financiar a un país que se gasta el dinero en aventuras coloniales y que, a su juicio, peca de una soberbia poco realista.

56

Isagogé, 1 (2004)


Como dijo Niels Bohr «Predecir es muy difícil y sobre todo el futuro», pero aun así nos arriesgaremos a plantear cuatro posibilidades: 1.

Que las dificultades en Irak se acaben convirtiendo en inasumibles para Polonia y le hagan recapacitar sobre sus capacidades y aspiraciones.

2.

Que Polonia suavice sus formas de actuar y procure no irritar con ellas a sus socios (y financiadores) europeos.

3.

Que las postura polaca sea respaldada por los hechos y sea para siempre un escollo en la Unión Europea.

4.

La menos realista, que Polonia salga de la Unión y ésta siga su desarrollo sin ella.

El desafío de Polonia a la Unión ha sido lanzado.

Dinamarca

Isagogé, 1 (2004)

57


MISCELÁNEA RESEÑA MUSICAL

EL SONIDO DE LAS PRADERAS, EL SONIDO DEL CORAZÓN LAS SIMILITUDES DE DOS MÚSICOS DEL SIGLO XX José Manuel Valle Porras Forma parte de la mitología del rock el que varios de sus más renombrados sacerdotes —estos es, sus músicos— hayan desaparecido víctimas de los propios excesos que pregonan. Hendrix o Morrison son algunos de los que han pasado a la leyenda por la forma de afrontar aquel último trago que cantaba Manrique. Sin embargo, entre los menos conocidos están dos voces que han tenido una página propia en la historia del último gran estilo de música popular que ha creado el siglo XX. Uno de ellos estadounidense, español el otro. De ellos van a tratar las humildes líneas que siguen. Y precisamente de ellos dos porque lo que les une es más fuerte que los 26 años que separan sus parejas muertes. LOS PROTAGONISTAS Gram Parsons, (en la foto, a la derecha), está considerado como el fundador del country-rock, género surgido a fines de los años 60 cuya fórmula era explicada como la música country interpretada por una agrupación de música rock. A la electrificación de sus instrumentos se unió un cambio en la actitud de los intérpretes y sus canciones, que dejaron de ser una exclusiva de las clases altas de la sociedad yanqui (recordemos a Johnny Cash por aquellos años, dando conciertos en las cárceles). Es importante tener esto en cuenta. Cuando Bob Dylan volvió a grabar discos, tras su accidente de moto, en 1967, fue culpabilizado de una nueva «traición», tal vez aún más grave que la anterior: estaba haciendo música country. De ser el abanderado de los jóvenes reivindicativos de esa década había pasado a convertirse en un juglar del enemigo, de los amos de siempre. Esa música estaba indeleblemente asociada a las clases conservadoras. Bob Dylan no fue el único que por aquellos años se acerca a la nueva moda. Presley, con discos como From Elvis in Memphis, o el mismo Neil Young que, de hecho, se dio a conocer con un grupo de sonoridad folk y country —Buffalo Springfield—, atestiguan que entre el último tercio de los 60, y, cada vez con menos fuerza, hasta mediados de los 70, la música tradicional de los blancos estadounidenses estaba conociendo un nuevo auge. Sin embargo, a pesar de las figuras capitales que hemos nombrado, será un joven del estado de Georgia quien, en una brevísima serie de discos, definirá los rasgos del nuevo género. Su importancia y labor la podemos comparar con la que, en la fusión del rock con el flamenco, han tenido Camarón de la Isla o Veneno. En España, el country-rock ha sido y es un género minoritario, pero hay una figura que logró cierta popularización de la música de cowboys. Se trata de Enrique Urquijo, el músico que lideró durante dos décadas a Los Secretos. Su labor de cualificado artesano de canciones permitió difundir entre el gran público el timbre del dobro o la sublime guitarra pedal steel.

58

Isagogé, 1 (2004)


LAS SIMILITUDES Más allá de que tanto Gram Parsons como Enrique Urquijo, (en la foto, a la derecha), hayan cultivado el countryrock, lo que permite justificar el que, algún día, alguien decidiera trazar, cual nuevo Plutarco, sus «vidas paralelas», es aún más significativo. Parsons fue el principal arquitecto del género aludido, y es visto como gran antecedente del posterior country alternativo. Enrique, por su lado, ha sido la figura que dio a conocer dicha música a una gran masa de aficionados en nuestro país. Ambos, sin embargo, procedían de la música rock, siendo progresivo su acercamiento a la música «campestre». De hecho, se cuenta que Parsons, en su infancia, fue un gran oyente de canciones de tal género, pero lo abandonó por el rock durante su adolescencia. Posteriormente, habiendo formado su primer grupo, fue uno de sus compañeros el que le hizo escuchar y volver a aquellas audiciones que, a la postre, determinarían el estilo de sus discos. En el caso de Enrique Urquijo, curiosamente, también nos encontramos con el gran interés que le suscitó la música country en sus inicios. Sin embargo, sus primeros discos con Los Secretos tienen un carácter más pop/rock, que harían retornar posteriormente hacia sus originales caladeros de escuchas. Los músicos de country, como los de otras músicas tradicionales o folclóricas, se caracterizan porque, en sus discos, suelen predominar las versiones de temas ajenos, siendo una porción reducida las composiciones originales, e incluso, en ocasiones, inexistentes. Es esto lo que nos encontramos en los trabajos de Parsons y de Enrique — sobre todo en los últimos—, en los cuales las composiciones propias son minoría, frente a la preponderancia de versiones. Entre las que hiciera Parsons están algunas de Bob Dylan, ya desde los 60 considerado como el mejor songwriter y autor de las más logradas letras. Pues bien, también Los Secretos de los hermanos Urquijo incluyeron en sus discos canciones de Joaquín Sabina, al que admiraban y con el que mantenían una buena amistad. No es novedad el que escriba aquí que Sabina está considerado como el mejor letrista en español del rock. A este respecto podemos aludir a aquella declaración de Enrique Bunbury. Decía éste que Calamaro, en cierta ocasión —en los años 90, en todo caso— había intentado «venderle la moto» de que Sabina era el Bob Dylan español, por la razón aludida. Bunbury, por su parte, respondió recordando que el «tío Bob» siempre había tenido una buena banda detrás, mientras que Sabina se había servido de músicos de sesión, de mucha menor calidad interpretativa y sonora. A todo esto, y a modo de anécdota, apuntemos que la confrontación Bunbury/Sabina es como la pescadilla que se muerde la cola, pues éste decía de aquel —en sus tiempos en los Héroes del Silencio— que sus letras eran incomprensibles. LOS DISCOS A un primer disco en solitario, Safe at home (1968), con la Internacional Submarine Band, siguieron escasas ventas y repercusión. Considerado por muchos como el primer disco de country-rock, habría de ceder el papel de referente del nuevo género a favor de los dos siguientes trabajos de Parsons. Éste se unió aquel mismo año a los folkies Byrds, que estaban reestructurando la composición de la banda. Allí entró de la mano de Chris Hillman, y en seguida pasó a ser el mayor rival del líder, Roger McGuinn. De hecho, el nuevo disco del grupo, ya con Parsons en él, se reorientó hacia el terreno musical que éste marcó. La voz principal, incluso, iba a ser en un principio la suya, y así se empezaron a grabar los temas. Sin embargo, problemas legales con la Isagogé, 1 (2004)

59


anterior compañía le impidieron ser el intérprete central (salvo en un par de temas), posición que volvió a McGuinn. Tras dicho disco, Sweetheart of the rodeo (1968), Parsons vuelve a cambiar de planes. Abandona el grupo coincidiendo con su negativa a ir de gira a la Sudáfrica del apartheid. Algo después, junto a Hillman, qu e también abandona a los Byrds, forma la banda —los Flying Burrito Brothers— que ha dado más relevancia a ambos músicos y con la que crearán el disco más importante y definidor del countryrock: The gilded palace of sin (1968), (en la foto). En él los sonidos eléctricos, hasta psicodélicos, se combinan con teclados de aire campestre y temas tradicionales. La amalgama de estilos lograda aquí se convertirá en un clásico de referencia para la posteridad. De los años posteriores no hay aportaciones tan relevantes. A un paupérrimo Burrito deluxe (1970) sigue un nuevo abandono de Parsons, que se marcha con sus amigos los Rolling Stones a vivir las locas y lisérgicas experiencias que corresponden —así parece que pensaba él por entonces— a una estrella del rock. Volverá a su país para grabar GP (1973), uno de los trabajos más finos de su carrera. Para ello se rodea de la banda que desde fines de los 60 acompañaba a su admirado Elvis Presley. El guitarrista James Burton o el teclista Hardin serán en gran medida responsables de un sonido esmerado y pulido. GP supone un cierto retorno, una vez tomadas las enseñanzas de la combinación con el rock, a una vertiente menos estridente, edulcorada por la introducción de violines y acompañamiento de voz femenina: la de la joven Emmylou Harris. Lo mismo se puede decir de su siguiente y último trabajo, Grievous Angel (1974), el cuál se distingue del anterior por una profundización en la ralentización de los ritmos. Enrique Urquijo, por su parte, presenta una trayectoria algo similar. Para empezar, también en él encontramos, allá por los años 70, una atracción por los sonidos countries, que no se hace, sin embargo, muy patente en los tres primeros discos de Los Secretos, a principios de la siguiente década. Pensemos en su primer éxito, la legendaria «Déjame». Su estética responde a la new wave del momento, con un sonido de rock amable —aunque ya por entonces melancólico—. Los temas más campestres, como «No me imagino», serán minoría. A esta primera etapa —la de los años de la «movida»— que les dio la fama, siguió un paréntesis, a mediados de la década, motivado por la pérdida de varios componentes del grupo. Será en 1986 cuando Los Secretos retornen con fuerza y con un disco country-rock: El primer cruce. Seis canciones (entre ellas «Cerrar todos los bares», versión de un tema del repertorio de Gram Parsons) que marcan con rotundidad un retorno a sus gustos musicales previos. Entre aquel puñado de éxitos estaba «Quiero beber hasta beber el control»: tema inexcusable de toda antología que se precie del rock hispano. A la nueva sonoridad contribuyó la adquisición para el grupo de Ramón Arroyo, que deleitaría con su dobro, mandolina y guitarra pedal steel. Su protagonismo fue básico tanto en ese trabajo como en las doce canciones de Continuará (1987), quizás el mejor disco de Los Secretos. Sin embargo, el aire vaquero comenzó a diluirse a partir de La calle del olvido (1989), dando paso a la preponderancia de la otra gran influencia: el rock de la costa oeste norteamericana. No desaparecieron del todo, a pesar de ello, alguna que otra canción campestre, o incluso rancheras, en los siguientes discos.

60

Isagogé, 1 (2004)


Por otro lado, ya en los 90, Enrique Urquijo se embarca en un proyecto paralelo: el grupo Los Problemas, con el cual publicó dos discos (el último, Desde que no nos vemos, el mismo año de su muerte). En ellos el músico abraza sonidos acústicos, los más suaves y preciosistas de su carrera, una formación con preponderancia de violín y acordeón, así como la práctica indiscriminada de las adaptaciones: la inmensa mayoría de los temas que graba son ajenos, incluyendo incluso versiones de temas propios, y tan sólo una pequeña porción de novedades con su firma. LAS CANCIONES Son ellas, al fin y al cabo, lo único importante en toda esta historia. Tanto las que cantaba Parsons como las de Enrique Urquijo responden a tres palabras: tristeza, mujeres y romanticismo. La electrificación no había cambiado el espíritu ni la temática de los versos que estos músicos cantaban, tan característicos del country. Las hembras traicioneras, las penas ahogadas —o no— en alcohol, las referencias al suicidio, las vueltas que nos da la cabeza pensando en aquella que no terminamos de volver a encontrar, la memoria que hace su trabajo demasiado bien cuando debiera irse de recreo, etc. Y esta temática se da tanto en las propias como en las de otros músicos interpretados por ellos. Si nos centramos en las suyas, podemos encontrar un par de canciones que, curiosamente, rezuman un color de, pudiera ser, similar inspiración. En «Wheels» (The gilded palace of sin, 1969), Parsons habla de las «ruedas» que nos llevarán lejos, que nos harán recorrer nuestro propio camino; camino cuyo destino es, realmente, el hogar: «Come on wheels take this boy away./ We're not afraid to ride./ We're not afraid to die./ Come on wheels take me home today». En «Las cosas que quieres» (Dos caras distintas, 1995), (foto), Enrique relata que, después de muchas experiencias y vida recorrida, se da cuenta de que las cosas importantes siempre habían estado junto a él: «Pero las cosas que quieres/ no las debes de olvidar./ Toda la vida buscando/ lo que al lado tienes ya». LA MUERTE Y EL LEGADO Dijimos que ambos músicos habían encontrado un final prematuro, un final, en realidad, que vino de su propia mano. En 1999 moría Enrique, el mismo año que publicaba su último disco, a causa de las drogas. En 1973 había fallecido Gram Parsons, a causa de una sobredosis de morfina y tequila. Ambos se convertirían, en sus respectivos países, en figuras legendarias de la música rock. La muerte de Parsons, sin embargo, dio aún más motivos para el mito. Al parecer, había llegado a un acuerdo con su manager, Phil Kaufman: el que muriese antes incineraría al otro. Lo cierto es que, una vez que el padre adoptivo se había hecho cargo del cuerpo, y éste se encontraba en un aeropuerto esperando su salida a Nueva Orleáns, Kaufman se las apañó para robar ataúd y cadáver, llevándolos al Desierto del Árbol de Jessé, en California –lugar donde había fallecido–, y allí lo roció con alcohol y lo hizo arder, dando cumplimiento a la promesa (Kaufman fue encarcelado, no por robar el cuerpo, sino por hacer tal cosa con el ataúd). Poco antes de su muerte, Parsons había dejado grabado el que sería su disco póstumo, Grievous Angel (1974). Dicho trabajo finaliza con una canción compuesta entre él y su compañera Emmylou Harris, «In my hour of darkness». Pocas como ésta se pueden considerar tan proféticas. Parsons canta a varios amigos fallecidos, y en el

Isagogé, 1 (2004)

61


estribillo repite estos cuatro versos: «In muy tour of darkness,/ in my time of need,/ oh Lord grant me vision,/ oh Lord give me speed». La letra, la delicada interpretación de ambos cantantes, la genialidad de los instrumentistas, todo ello, sumado a lo que poco después pasó, hacen de esta canción algo realmente sublime. Fue, además, la única que compuso Parsons con Emmylou, la mujer que, dos años después de su muerte, tomaría el relevo en el sentido más pleno: recogió sus enseñanzas, el estilo musical de sus últimos discos; más aún, asumió el liderazgo de los mismos músicos que habían trabajado para Parsons, e incluso incluyó en sus siguientes discos varias canciones de su mentor. La historia, en buena medida, podía continuar. Con Enrique Urquijo ocurrió algo similar. No es demasiado frecuente que, desaparecido el principal intérprete y compositor de un grupo de rock, éste prosiga su actividad. Esto es, no obstante, lo que ocurrió con Los Secretos: Álvaro Urquijo tomó el relevo de su hermano; se dio cuenta de que debía esmerarse en las letras, siguiendo lo que de su hermano había aprendido en tantos años; los estupendos músicos de la banda continuaron, ahora bajo su dirección; incluso en estilo se abrió al campo dejado por Enrique: los sonidos más campestres —algo que era degustado especialmente por el difunto Urquijo— fueron territorio a reconquistar por Álvaro, como así lo podemos apreciar en ese bonito tema que es «Años», aparecido en Con cierto sentido (2003). Terminamos con una postrera coincidencia. En el primer disco que Emmylou y Álvaro sacaron tras el fallecimiento de Parsons y Enrique, encontramos, entre una multitud de temas ajenos, una canción compuesta por cada uno de ellos: en Pieces of the sky (1975) Emmylou canta «Boulder to Birmingham»; en A tu lado (2000) Álvaro hace lo propio con «Te he echado de menos». Dos canciones especialmente escritas y dedicadas a la pareja de ausentes. Quizá hayamos llevado los paralelismos ad nauseam, pero he de confesar que, conforme escribía este texto, me sorprendí a mí mismo descubriendo uno y otro más. No quise dejar ninguno atrás, aunque tampoco creo que haya que darle excesiva importancia a la mayoría de ellos. Lo que sí es cierto es que, en conjunto, nos autorizan a mirar a Enrique Urquijo como el principal representante, en nuestro país, del espíritu de Gram Parsons.

62

Isagogé, 1 (2004)


RESEÑA LITERARIA

EL CÓDIGO “DA VENDIT” José Manuel Ventura Rojas BROWN, Dan (2003): El código Da Vinci, Editorial Umbriel, Barcelona, 557 pp.

La aparición de un libro que alcanza un enorme éxito de ventas es, por sí mismo, lo bastante importante como para merecer atención, aunque sólo sea en su aspecto de fenómeno de mercado en una sociedad como la actual, que parece preferir otros medios audiovisuales a la lectura. Mas si se le añade el componente de las polémicas y controversias que la obra que abordamos ha despertado, suscitando tanto rendidos admiradores como enconados detractores, aumenta considerablemente el interés por ella. Mucho se ha escrito en torno a esta novela desde su aparición, por lo cual nos limitaremos aquí a señalar los aspectos que más nos interesan, remitiendo al lector a dicha bibliografía para ampliar detalles1. Y antes de comenzar, avisamos que en los comentarios de nuestra reseña desvelaremos algunas de las claves básicas de la trama del libro, no vaya a ser que nos critiquen por «contarles el final» sin anunciárselo, habida cuenta de que el esclarecimiento de los acertijos que conforman la trama de este best-seller constituye una de las bazas que han contribuido su éxito. La principal virtud de El código Da Vinci es, en efecto, una trama que engancha al lector. La obra se estructura en forma de breves capítulos que concluyen dejándonos con la miel en los labios, impulsándonos a seguir leyendo para «saber en qué acaba todo». En ellos van sembrándose enigmas lo suficientemente complejos como para que no sea demasiado fácil desvelarlos, pero a la vez manteniendo el interés del lector, para que no decaiga su atención ni se dé por vencido. La fórmula se afianza gracias al recurso añadido de la típica combinación de líneas argumentales que se alternan en cada nuevo capítulo para aumentar el suspense y dar una cierta impresión de variedad en los contenidos y agilidad en su desarrollo. No es para nada un planteamiento nuevo, ni su uso original por parte del autor. Pero esa es precisamente, la mayoría de las veces, la clave del éxito de los best-sellers, obras cuyo componente innovador no lo es tanto, pues antes que esto último les interesa, por supuesto, captar la atención de un público lo más amplio posible. Ello ha dado sus frutos gracias, igualmente, a una campaña lanzada desde internet, donde se ha creado una página web oficial con un concurso que reta al ingenio de los lectores a través de enigmas que deben resolver. Estamos hablando de una novela muy entretenida, que posee la virtud de atraer la atención de los acostumbrados devoradores de éxitos de ventas, y también a lectores principiantes, ocasionales, o gente que prácticamente no lee. Facilitan su labor la utilización de una prosa fácil y un mayor énfasis en la acción que en las descripciones y personajes, bastante sencillos estos últimos, y con marcada recurrencia a tópicos 1

D. BURSTEIN (ed.) (2004), Toda la verdad sobre El Código da Vinci, Temas de Hoy; S. COX (2004), Diccionario del Código Da Vinci: una guía para descifrar sus claves, Edaf; y A. WELBORN (2004), Descodificando a Da Vinci: los hechos reales ocultos en “El Código da Vinci”, Palabra. Por último, recomendamos los artículos de N. LABARI, «Las claves de ‘El código Da Vinci’» <http://www.elmundo.es/elmundolibro/2004/02/06/narrativa_extranjera/1076089843.html>, 16-II-2004; y P. J. GINÉS RODRÍGUEZ, «El hecho y su contexto. La estafa del ‘Código Da Vinci’, un best-seller mentiroso», <http://www.aciprensa.com/controversias/davinci.htm>, 8-I-2004. Isagogé, 1 (2004)

63


lindantes con el estereotipo (véanse los casos de Bezu Fache y Leigh Teabing, arquetipos del francés y del inglés respectivamente). Entre el público lector mencionado debemos añadir a individuos atraídos por la novela que no suelen frecuentar el mundo de los best-sellers, pero cuya inteligencia y gustos es lo suficientemente abierta como para deshacerse de prejuicios e interesarse directamente por una manifestación tan sonada. Aunque ha de decirse que estos últimos son los menos. El problema de las controversias deriva, como en otros casos, de tomar la obra por lo que no es. El error está en tomarse demasiado en serio el libro, y muchos han incurrido en ello, empezando por la misma campaña de ventas de autor y editorial. Al componente informal del juego-concurso se han añadido comentarios de Dan Brown que habla de su novela no sólo como tal, sino como una historia que, además, revela secretos ciertos y verdaderos. El análisis de todo ello constituye por sí mismo un buen ejemplo de los errores y tergiversaciones que amenazan al adecuado cultivo de la disciplina histórica. En el comienzo de la novela, Dan Brown sitúa un apartado denominado «los hechos», donde comienzan los equívocos. En primer lugar, asimila la Orden de Sión fundada en 1099 con el Priorato de Sión, organización esta última creada hacia 1956. En la historia de las sociedades, secretas o no, es harto frecuente que éstas proclamen unos orígenes fabulosamente remotos, pero carentes de base real, fruto del establecimiento de una impostada continuidad, de falsos lazos con otras organizaciones del pasado. Por otra parte, concede automáticamente certificado de autenticidad a lo que dicen Les Dossiers Secrets cuando se trata de una fuente más que dudosa, incapaz de probar que Leonardo Da Vinci u otros personajes pertenecieran a la organización que se describe. En segundo lugar, la nota preliminar sobre el Opus Dei no está mal, pues sólo habla de controversias en torno a la misma; la polémica y tergiversación llegará más tarde, a medida que avancen los primeros capítulos de la novela. En tercer lugar, queda bien apuntado que las descripciones de las obras que hace Brown son «veraces», pero ello no quiere decir que sus interpretaciones sean «verdaderas». Nótense los matices de los términos entrecomillados. Así pues, la novela juega a la ambigüedad, y si se quedara en su categoría no tendríamos por qué objetarle nada, pues la ficción literaria debe ser lo suficientemente libre como para permitirnos toda suerte de especulaciones verosímiles e inverosímiles. Incluso el libro puede aportarnos la idea de que la investigación histórica nos exige una mente abierta y desprejuiciada. Pero pretender pasar El código Da Vinci por una obra construida con rigor histórico y que transmite «una profunda verdad» es una tomadura de pelo de muy mal gusto, demagógica y fraudulenta. El clima intelectual de las creaciones populares de nuestro tiempo contribuye a alimentar la credulidad de quienes se han dejado engañar tomándola por una obra rigurosa. Si añadimos la inmatizada cerrazón y el unilateral desdén de ciertos críticos y «prebostes literarios», ya tenemos configurados dos bandos enfrentados e irreconciliables. Pero veamos con detenimiento las claves de ese juego de seductoras ambigüedades y medias verdades. Un pilar maestro de todo ello es la profusa utilización en la trama de las «teorías de la conspiración» y «espíritu de lucha antisistema», de cuyos peligros ya nos ha advertido el desarrollo de manifestaciones como la paradigmática serie televisiva Expediente X, donde sus protagonistas parece que cada vez están más cerca de hallar «toda la verdad», cuando en realidad se alejan progresivamente de ella para caer en los abismos del delirio inverosímil, el ridículo y el tedio a merced de tanto cliché repetitivo que estira el argumento ad infinitum. Y es que hay que tener un gran cuidado para no caer en un talante «conspiranoico», en la paranoia y la esquizofrenia. Toda «trama conspiranoica» necesita de un poder en la sombra, con ingentes recursos y que trata de ahogar la «verdad» con una «historia oficial». En este caso la elegida es la Iglesia Católica, y más concretamente el Opus Dei, que hace las veces de la Inquisición en esta nueva versión de la «Leyenda Negra», 64

Isagogé, 1 (2004)


puesta al día para los tiempos que corren, pero cuyos elementos de antaño todavía se perciben claramente. Sobre todo algunas mentiras como la de atribuir al papa la proscripción de los templarios, cuando su persecución fue ordenada por el monarca francés Felipe IV; o la quema de brujas por la Inquisición, cuando este fenómeno se desarrolló preferentemente en el mundo protestante durante la Edad Moderna, en tanto el «Santo Oficio» apenas prestó atención a ello en contadas ocasiones, dedicándose más bien a perseguir y desenmascarar a los criptojudíos y la heterodoxia en el seno católico. Con todo, en el último bloque de la novela, ésta se queda en una cierta postura de «medias tintas» que tanto gusta al público actual. Nos explicamos: al final del libro el obispo Aringarosa (por cierto que el Opus Dei no cuenta realmente con una jerarquía propia de este tipo) y su sicario Silas se van transformando, y tras el manto de conspiradores que no se detienen ante nada aparecen personajes más «humanos», con sus flaquezas y debilidades que desmienten un poco la «monstruosidad» de todo «malo» que se precie, que hasta ahora se les había venido atribuyendo. Descubrimos a la par que, como manda el arquetipo de las novelas de misterio, el «malo» o contrafigura rival del protagonista es quien menos se espera. Y centrándonos un momento en el plano estrictamente literario, percibimos tanto en el desenlace como en otros puntos de la obra una sensación de apresuramiento en la labor del escritor, que ata algunos cabos sueltos algo toscamente. Pero en fin, no olvidemos que, ante el éxito de su anterior Ángeles y Demonios, Dan Brown tuvo que ceñirse a la máxima editorial de producir con la mayor celeridad posible ésta su continuación. Sumergiéndonos un poco más en los componentes históricos, en primer lugar está el recurso de suponer que las religiones paganas del culto a la tierra y a la fecundidad se han perpetuado desde la Prehistoria hasta la contemporaneidad manteniendo inalteradas sus creencias y manifestaciones, identificadas con las prácticas de las brujas medievales y modernas. Como bien dijo H. P. Lovecraft de los libros de Margaret Murray que sostenían esta interpretación, si bien es una buena idea para la novelística, sus postulados son históricamente insostenibles. El cristianismo se valió, en su labor de expansión y proselitismo, de la suplantación de ritos paganos por los suyos propios, quedando de los primeros únicamente pervivencias aisladas e inconexas, mas no la antigua doctrina. En segundo lugar, se nos presenta a Constantino como «el gran manipulador» de la historia del cristianismo, que habría ocultado e intentado destruir el mensaje del «Hijo de Dios». Lo cierto es que la composición del «Nuevo Testamento» tal y como hoy lo conocemos ya había sido realizada bastante antes del mandato de este emperador, por lo menos desde hacía dos siglos. La mayoría de los textos apócrifos que se mencionan en El código Da Vinci (los evangelios gnósticos, sobre todo) son posteriores a los cuatro Evangelios bíblicos. Además, en el aludido Concilio de Nicea del 325 no ganó la ortodoxia oficial por una estrecha mayoría como se nos dice, sino por amplio margen sobre un arrianismo cuyo ideario apenas concuerda con la idea que el autor nos quiere dar de un supuesto «cristianismo original». La trama religiosa de la novela de Dan Brown es un cóctel de diversos elementos: modismos new age, ocultismo, teorías conspiratorias, neopaganismo, wicca, astrología, préstamos orientales, etcétera. Pero la «base de la macedonia», como bien han señalado Pablo J. Ginés y otros analistas, son los elementos del gnosticismo y un cierto feminismo de cariz ultramontano, o más bien pseudofeminismo. Lo sorprendente es que, si analizamos de modo inteligente y bien informado todo ello, descubrimos que la interpretación del «auténtico cristianismo» propuesta en El código Da Vinci es más reduccionista y retrógrada que el dogma tradicional al cual critica. Brown nos presenta estas ideas del gnosticismo (con alguna alusión al catarismo) como doctrinas más igualitarias y comunitaristas que el cristianismo católico y ortodoxo, cuando lo cierto es que dichas creencias «heterodoxas» eran mucho más elitistas de lo que supone, y el Isagogé, 1 (2004)

65


componente «feminista» que algunos les atribuyen hoy no es ni mucho menos un hecho autentificado. Y es que constituye un error muy difundido equiparar fenómenos del pasado a los del presente sin una base sólida y real, en tanto ignoramos el componente de «modernidad» de otros movimientos e ideas tradicionalmente tenidos por «carcas» o retrógrados. Es posible que algunos vean con buenos ojos la idea de un linaje de Jesucristo cuyos descendientes carnales lleguen a nuestros días. A mí francamente no me parece nada creíble ni moderno. Lo primero de todo es, por supuesto, que si ya es difícil mantener incólume y dotada de continuidad una entidad o asociación a través de los siglos, resulta casi imposible preservar la, digamos, «pureza de sangre» de un linaje familiar. Creer en la asimilación de esa hipotética descendencia de Cristo con la dinastía merovingia resulta algo tragicómico: tras tantas décadas de luchas del Liberalismo para demostrar la falsedad del origen divino de la realeza, nos vienen con esto. Ello me hace pensar en que constituye un nuevo indicio de que nuestra sociedad actual está, en cierto sentido, volviendo al Antiguo Régimen. La idea de la existencia de unos «descendientes de Jesús» que aún viven y son los legítimos herederos de su mensaje desfigura y pervierte esa bella idea de Cristo como padre y hermano de todos los hombres. Estoy hablando en el plano filosófico, cada cual puede creer o no en la religión cristiana, pero no me negarán que es mucho más progresista la idea de un Dios padre de todos los hombres y a la vez hermano de todos ellos a través de su personalidad de Jesús. Como hemos visto, aparece un cierto componente «feminista» que impregna la trama, construida a partir del abuso de un cierto maniqueísmo «paz-femenina-positiva / guerra-masculino-negativo». Asimismo, diversos elementos de las realidades materiales y espirituales del cristianismo no son tan crípticos como apunta Dan Brown, que parece olvidarse del importantísimo papel de María, madre de Dios, figura que ha cobrado enorme fuerza en la iconografía e interpretación religiosa de muchas épocas, desde el siglo XII al catolicismo barroco. Por supuesto que este componente de «feminidad» no tiene nada que ver con las ideas del «feminismo» que aparecieron tal y como hoy las conocemos en el siglo XIX. Una cosa es identificar sus notables precedentes, que los hay, y otra cosa es hacer un totum revolutum de ideas, algo que gusta mucho en nuestros días, como no podía ser menos en una sociedad que se pretende «multicultural» pero que no comprende que la convivencia y el respeto difícilmente puede construirse sobre el analfabetismo. Buen ejemplo de lo que digo es el perfil difuso y superficial que se deduce de las alusiones a Leonardo Da Vinci en la obra. Y no digamos ya la mención a Walt Disney, literalmente designado como «una versión moderna de Leonardo», afirmación que verdaderamente hace a uno plantearse si merece la pena seguir leyendo una obra que se nos vende como «bien documentada». Dicho sea de paso, las adaptaciones de Walt Disney de los tradicionales «cuentos de hadas» contribuyen a empobrecer, en lugar de a enriquecer, los motivos alegóricos y las enseñanzas que dichas manifestaciones albergan. Para finalizar, El código Da Vinci es una novela con aspectos positivos, destacando una trama que, además de entretener, alienta a un público muy amplio a interesarse por la lectura. Gracias a esta que, para algunos, puede ser una primera lectura elegida y no impuesta, tal vez se despierte su interés por otras obras que, además de entretenerles, les informarán con mayor rigor (el caso de las novelas de, por ejemplo, Umberto Eco). Pero, por supuesto, es necesario que autores y editores descarten esos burdos trucos de hacer pasar por bien fundamentada y científicamente comprobada una «mercancía averiada». Y es que no todo debería valer en el «código Da Vendit», esto es, en las normas de la creación y el mercado literarios.

66

Isagogé, 1 (2004)


RINCÓN DE POESÍA

SUAVE

LLAMAD A UN ÁNGEL

Para siempre seguirá mi corazón en el mismo sitio en la misma senda insondable en aquel bosque de azoteas encaladas de deseo anclado en el destierro del marinero en la libertad arrebatada por vidas de hastío pendientes de la reválida de los años de crecerse, de amarse, de volar como un pájaro de aquellos oficios por el hombre perdidos de arrebatarse y ser arrebatado mantenerse suicida, en espera de la eternidad, a los árboles revestidos de otoño de hojas doradas por el sol de primavera recostado contemplar ese tenue reflejo que fugazmente [les da sentido perderme en la espesura de sueños viejos en aquellas vidas de las cavernas sin límites, ni pesares, en el mundo más antiguo pero menos absurdo a los mares de vida eterna, a ellos vuelvo la mirada y mi alma se enternece y me sobran los placeres, y nada es lo que era, y vuelvo a ser aquel niño que jugaba con su madre vuelvo al asfalto y sigo rasgado dormido, sesgado por el tiempo olvidado de los poderosos avatares del destino me vuelve a parecer extraño, que mi camino sea siempre el mismo desierto por que siempre imagino que no te has ido pero nunca estoy en lo cierto allá donde se mueven los hilos de las circunstancias de aquellos sensuales bosques perdidos se duerme mi mundo absorto en la indiferencia en él me alejo de todo convencionalismo de aquella corriente que alternamente fluye en mi cabeza del molesto progreso y su dureza de la piel que irradia libertad del pecho a las entrañas de aquel suceso maravilloso que me turba me desvela, fulgor que no ha empezado y siempre acaba cuando todo vuelve a la tierra mudo y triste, yo también vuelvo a tu lado por que siempre que miro al mar, siempre que tu me llamas me encuentro con la inmensa pradera azul celeste del precioso oleaje de tu mirada.

Llamad a un ángel Que esté en el cielo, Que crea en Dios. Llamad a un ángel Y que cubra el cielo de lágrimas, Que pregunte a los vivos por la vida Y se la dé a los muertos. Sí llamad a un ángel sin alas, Pero no caído, Que de forma a la perfección, Que me hable de la vida eterna Aunque no pueda dármela. Basta con que se incline y rece, Que recuerde haber vivido, Que tenga rosas en la boca o espinas, Que sufra y ría Pero ante todo que sepa mentirme. ¿Qué esperáis?: Llamad a ese hipócrita Y arrancadlo del cielo, Que Dios se quede con su alma Y nosotros, con su cuerpo.

Antonio José Irraiz Castellón Finalista del concurso de poesía del Centro español de estudios poéticos y literatura

Isagogé, 1 (2004)

Álvaro Carcelén Aycart

SEGUIRÉ Seguir algo es continuar. Seguir el viento es llegar lejos. Seguir el sol es no descansar jamás. Para seguir la luna hay que detenerse y besar. Seguir las estrellas es soñar, y cuando las alcances con las [manos, llorar. Enrique Martín-Lorente Rivera

67


RELATO CORTO

LA ESTANCIA Antonio José Irraiz Castellón Sólo pude ver cómo desaparecía el suelo, y el resto se quedó encerrado en una nebulosa, transformándose en un camino de hilos fluorescentes que me rodeaban haciendo espirales sinuosas a mi alrededor, y aquel olor, aquel penetrante olor. Una voz femenina me llamaba. Tardé tiempo en reconocer que era la voz de mi madre muerta hace años. Aquello terminó por desconcertarme del todo. Yo jamás había tenido nunca una experiencia paranormal. Es más, no creía ni mucho menos en ellas, pero en aquel momento caía a un vacío oscuro, incomprensible para mi mente escéptica. Entonces una luz cegadora invadió mis ojos y tras ella, una especie de cuerdas que podían verse en la oscuridad. Aquellas líneas fluorescentes se habían tornado, tras ensancharse milagrosamente, en un valle muy húmedo, un precioso paraje, un lugar de esos que sólo pueden existir en los sueños, o en todo caso, no precisamente en el país en el que vivía. Ahora mi trayectoria no era de caída, había cambiado radicalmente. Ahora parecía volar, y no acertaba a comprender qué era lo que me estaba pasando, ¿por qué a mí? El valle quedó atrás, las montañas quedaron atrás, y a lo lejos se alzaba una especie de puerta de al menos unos cien metros de altura. Parecía ser de piedra, pero aún estaba muy lejos para poder asegurarlo. Sus formas no eran rectas sino curvas en su inicio, rematando la estructura un triángulo inacabado, sin base. Mi velocidad de vuelo no era ni mucho menos la de caída y por eso tardé un rato en darme cuenta que en la parte superior de aquel dintel había dos letras, alfa y omega, principio y fin, una a cada extremo del triángulo inacabado. El interior de aquel extraño espacio tornó a un rosa suave en cuestión de segundos. Mi sensación de bienestar aumentaba en proporción directa al color rosáceo de aquella enigmática puerta. Mi rumbo de colisión era imparable e inminente, chocaría con el haz de luz y nadie podría evitarlo. Intentos anteriores por hacerme con las riendas de mi trayectoria habían fracasado y lo único que había conseguido eran unos espasmos nerviosos que me aturdían durante algunos segundos. De repente mi velocidad se triplicó, la puerta me atraía, y su inmenso poder no se hizo esperar, me consideró su presa, esa materia viva que debía absorber sin más. Ese era su trabajo, no dejar “al otro lado” cualquier rastro de vida humana. Cada célula parecía separarse de mi cuerpo, sentía terror mientras atravesaba el umbral. Para aquel entonces había supuesto la posibilidad de estar muerto. Tras la puerta, la nada más absoluta, vacío, desolación, ausencia de todo. No puedo deciros si levitaba, porque debajo de mis pies no había nada, pero sentía como podía apoyarlos en algo. ¿Un suelo invisible? Quién lo sabe, el hecho es que me atreví a moverme, podía andar por la nada, podía incluso saltar por la nada, por la más pura y aterradora ausencia. De repente, me di cuenta de que, a lo lejos, venían caminando hacia mí diez personas vestidas con unos hábitos blancos. Más que hábitos parecían cuando ya pude observarlos más de cerca, de color hueso, limpios e inmaculados. Aquellas personas me resultaban familiares. ¡Eran mis amigos, eran los diez amigos que más había querido durante mi vida! Cada uno de ellos tenía la misma edad que la última vez que los vi, o al menos cuando dejaron de ser amigos de verdad. Cuando llegaron a donde yo estaba, quedaron todos enfrente mía, con las manos cruzadas por delante, serenos y con una sonrisa amplia en sus rostros. Para ellos no había pasado el tiempo, seguían tal y como el ultimo día que los vi. Fue entonces cuando Julián, el más 68

Isagogé, 1 (2004)


pequeño, con el que tantas veces había jugado de niño en el parque, se adelantó y me pidió la mano derecha. —Hola Luis ¿Qué tal ha sido tu viaje compañero? —Me preguntó con voz dulce y tranquilizadora— Supongo que te preguntarás qué es todo esto. ¿Verdad? Amigo mío, ni el más sabio podría decírtelo. Aquí cada uno tiene el viaje que sus sentimientos le permiten, cada visión, cada sensación es inexplicable según quien la viva. Nosotros sólo hemos venido para darte la bienvenida a este lugar, —¿A qué lugar te refieres? Yo no veo nada —le respondí. —Creo que no ves este sitio con los ojos que deberías. La racionalidad ha hecho a las personas que hemos habitado el inframundo ser materialistas, fijándonos sólo en aquello que tenemos delante de nuestras narices, sin sentir cada blanca margarita del campo, despreciando cada pájaro de aquel frondoso bosque, regalos para la vista. No valoramos los montes y los valles que antaño fueron sagrados. No recordaba que Julián hablara así cuando éramos compañeros de juegos. —Verás Luis, estás en lo que nosotros llamamos “la estancia”: un lugar de espera. Todos tus recuerdos acumulados durante tus años en el inframundo se graban en una especie de estanterías que aquí se guardan, para cuando el poseedor de esos recuerdos tenga que visitar este lugar, por alguna razón. Aquellos son comprimidos y entregados al portador en una caja de madera de cedro, la más versátil, y nosotros somos tus elegidos para entregártelos. —¿Mis elegidos? Perdona, pero yo no he elegido a nadie. —Sigues sin darte cuenta —me replicó Julián—. Dime en quién has pensado en ese valle que tu mismo has fabricado, antes de la puerta de piedra. Me estremeció pensar que durante mi vuelo pensé qué dirían mis amigos de todo aquello, y desee que ellos pudieran haber disfrutado conmigo, amantes de la naturaleza al igual que yo, de ese precioso paisaje. Sobre todo Julián. Solíamos de pequeños huir de los deberes escondiéndonos en aquel bosque cercano, escenario de nuestras peleas con corsarios del caribe, luchando en una tierra inhóspita con mercenarios, jugando a ser exploradores, —Ahora empiezas a entender. Cada esencia física de la existencia pasada, presente y futura es materialmente inconsistente. Es decir, lo que hace a una persona estar viva no son precisamente sus funciones orgánicas, sino su interior, porque cuando tu personalidad corporal desaparezca, ¿Crees que tú también desaparecerás? El camino está lleno de preciosos sitios para detenerse y admirar el horizonte, que a veces es incomprensible, como esta sala. Cuando llegaste aquí creías que no había nada. Mira a tu alrededor y cree, Luis. Retiré la mirada de los ojos de Julián, alcé la vista y no podía creer lo que estaba viendo. Poco a poco iban apareciendo los pilares de una estructura cilíndrica, iban surgiendo ante mis ojos estanterías llenas de cajitas de madera con nombres de Isagogé, 1 (2004)

69


personas. Un suelo ajedrezado en blanco y beige remató aquella maravillosa construcción. Al final de aquel proceso me encontraba en un cilindro de miles de metros de radio lleno de estanterías en espiral ascendente hasta donde la vista podía alcanzar. A ellas iban llegando desde lo alto una especie de bolas de varios colores. Unas eran totalmente blancas, otras grises, amarillas. La verdad es que, más que bolas, aquellos “orbes” parecían burbujas que se introducían en las cajas. Llegaban a millones y cada una sabía perfectamente cual era su caja de destino. De repente una de esas bolas se separó del resto. Era de color blanco y bajó hasta donde nosotros estábamos, se colocó al lado de Julián, y pareció transmitirle algo. De repente aquella burbuja se esfumó, como cuando explota una pompa, él me sonrió —Parece que vas comprendiendo, mi buen amigo. Tu caja está en camino compañero. No quiero que te marches de nuestro lado sin que sepas que, durante el tiempo que estuvimos contigo, fuiste un amigo fiel. Las circunstancias del destino nos separaron, pero quedaron esos lazos que no se ven pero que son irrompibles. Guarda con primor esta caja porque en ella, entre otras cosas, van guardados todos esos momentos que todos nosotros vivimos a tu lado. Ahora sin más... Miró hacia arriba. De lo más alto de aquel cilindro bajaba un objeto oscuro. Más bien flotaba como una pluma, y se posó dulcemente en las manos de aquel chiquillo, era una caja de madera, ricamente tallada con motivos florales, —Toma, esto te pertenece. Adiós y hasta siempre. Con una sonrisa aquellos amigos se esfumaron poco a poco, sin perder esa dulce alegría. De repente el suelo comenzó a bajar. Me dejaron al pie de un pasillo larguísimo, forrado entero de madera y sólo una puerta al fondo. Como había pasado ya por tantos sucesos inexplicables, armarme de valor para afrontar este reto me pareció cosa fácil. La verdad es que podía ahora enfrentarme a cosas que antes mi personalidad “poco atrevida” no me permitía afrontar. Cuando llevaba andado más de la mitad de aquel pasillo escuche una voz a mi espalda que me dejó petrificado. —¿A dónde vas? Era la voz del principio, me giré y vi a mi madre tal y como la dejé aquel día, tan hermosa como siempre. —Madre, ¿tu aquí? —pregunté. —¿Te alegras de verme, hijo? Yo he deseado durante años tenerte aquí cerca, poder verte, tocar tu pelo, poder ver tus ojos, recordar todas aquellas vivencias de pequeño. Yo te he traído hasta aquí. Puedo verte en el inframundo, solo, perdido, sin rumbo en la vida, sin pasado y lo que es peor, sin futuro. Necesitabas volver a ti mismo, a tu esencia. Por eso he querido que visitaras la estancia. Todos acabamos pasando por ella, tarde o temprano. No pude resistir correr hacia ella para abrazarla y cuando llegué a sus brazos me invadió aquella sensación de alegría y ganas de vivir que sentí cuando pude ver a mis antiguos amigos. —Luis, en el inframundo las cosas nunca son lo que nosotros esperamos. Las circunstancias nos hacen ser justo las personas que no somos, y por añadidura la persona que no necesitamos. Su voz se tornaba cada vez más tierna y maternal. 70

Isagogé, 1 (2004)


—Por desgracia nunca sabrás qué ha sido todo esto. Mientras que vivas allí, nunca te darás cuenta de si lo que te está pasando ha sido real o pura ficción. No sabrás que has estado aquí. ¿Podrías discernir lo natural de lo antinatural en este pasillo de madera? ¿Quién crees que era realmente Julián y qué piensas que le dijo aquella burbuja? El hecho es que eso ya no importa. Lo único que importa es que nos hemos tenido el uno al otro de nuevo y que la estancia haya podido cambiar tu rumbo. Se quedaron un rato mirándose a los ojos. —El tiempo se nos agota, Luis, y debes llegar al final del pasillo. Camina con paso firme antes y después de cruzarlo. —Noté un cierto aire de tristeza en su rostro. —¿Qué voy a encontrar cuando traspase el dintel de esa puerta? —Pregunté. —Eso no puedo decírtelo. Quizás una nueva vida, un nuevo destino, no lo sé. No recordarás ni el viaje hasta la estancia, ni la estancia misma, ni este pasillo, ni tan siquiera esta conversación. Guarda esa caja de madera, pero eso sí, no intentes buscarla en el inframundo, porque nunca la encontrarás. Sólo la hallarás si miras en tu interior. Ahora debes marcharte, tu estrella te espera. Camina y vuela libre sin miedos, vive Luis, ¡vive! Y tal como llegó se fue de aquel pasillo largísimo que aun me quedaba por recorrer, así es que, con talante decidido, me di la vuelta, clavé la vista en la puerta que estaba al final y me dirigí hacia ella con paso firme. Conforme me acercaba a la puerta reflexionaba lo que me había ocurrido desde que caí por aquel abismo de hilos fluorescentes. Me habían vuelto unas ganas de vivir, de luchar, que hacía tiempo que no experimentaba. Mis amigos, mi madre todo lo que un día me resultó grato se habían reunido en todo aquella escena pasajera. Ya no me importaba si estaba soñando o quizás si estaba muerto, y detrás de aquella puerta se encontraba el mismísimo dios. Después de mucho rato llegué justo al final de aquella puerta. La puerta era impresionante, de unos cuatro metros de altura, de pura madera tallada. Dentro de mi mente empezó a repetirse la misma frase una y otra vez, una y otra vez: «si estas seguro crúzala». No sé de dónde salía esa voz. Era de hombre, de hombre mayor. Cerré los ojos y aunque aquellas gigantescas puertas de cuatro metros de madera maciza parecían pesar toneladas se abrieron con un simple roce de mis dedos. Una luz cegadora me obligó a taparme los ojos con los brazos mientras la voz de hombre me seguía repitiendo la misma frase, y traspasé el umbral. Cuando, habiéndome recobrado, abrí los ojos de nuevo, me vi tumbado en la cama de lo que parecía un hospital. Allí estaban mi mujer y a mi padre llorando, y un médico mirándome las pupilas. El alcohol y el coche me jugaron una mala pasada. Después de aquel día mi vida cambió, volví a disfrutar de todo lo que la existencia me regalaba en cada momento, y aprendí a vivir cada segundo como si fuera el último. Eso es lo que iba encerrado en mi caja de cedro finamente tallada y que descubrí después de que despertara del coma. Os estaréis preguntando una cosa. Si había regresado de aquel sitio, ¿como podía recordarlo, si mi madre me dijo que no podría hacerlo? De esto que os he contado hace ya más de doscientos años. Cuando dejé mi cuerpo, todos esos recuerdos volvieron a mi ser, y desde que dejé el inframundo sigo recordándolo cada día. Quién sabe si una estancia está destinada a alguno de vosotros. Quizá me veáis algún día en vuestra estancia y yo camine a vuestro encuentro para entregaros vuestra caja de madera.

Isagogé, 1 (2004)

71


RETOS

LA PARADOJA DE ZENÓN En esta sección pretendemos proponer una serie de problemas curiosos de distintas disciplinas y dificultades, pero que, en general, puedan ser afrontados por cualquiera de nuestros lectores. Con ello pretendemos despertar o alimentar su curiosidad científica con el fin de que puedan experimentar por sí mismos el gran placer que supone el simple hecho de pensar, de razonar acerca de una cuestión que haya despertado su interés y llegar por sí mismos a alguna conclusión satisfactoria, sea o no completamente acertada. Animamos, por tanto, a todos nuestros lectores a plantearse dichas cuestiones y a remitirnos sus soluciones a los problemas, que serán debidamente contestadas de manera personalizada. En el próximo número de la revista publicaremos las soluciones más acertadas de entre las recibidas. El primer problema es una versión de la conocida paradoja de Zenón. Supongamos una carrera entre una liebre y una tortuga. Nuestra liebre es capaz de correr bastante más rápido que la tortuga. Obviamente daremos ventaja a la tortuga, de lo contrario no habría emoción. Cuando la liebre sale, la tortuga ya ha recorrido una cierta distancia. La liebre sale a la caza de la tortuga, y tardará un cierto tiempo desde el momento de salir, hasta llegar al punto donde se encontraba la tortuga en dicho momento. Pero durante ese tiempo, la tortuga habrá seguido avanzando, de modo que cuando la liebre llegue, la tortuga ya no estará allí, sino un poco más adelante. Nuevamente la liebre sigue hacia el punto en que se encuentra la tortuga en ese instante, pero mientras llega a ese punto, la tortuga avanza un poquito más. Claramente, la liebre está cada vez más cerca de la tortuga, pero siempre que invierte un cierto tiempo en recorrer la distancia que le separa de ella en un determinado momento, durante ese tiempo invertido, la tortuga se desplaza un poco más y por poco que sea, nuevamente la liebre se ve obligada a repetir el proceso. De esta forma, por mucho que avance la liebre y mucho que se acerque a la tortuga, siempre le quedará un trocito, por pequeño que sea, para alcanzarla. La conclusión es obvia: ¡la liebre nunca alcanza a la tortuga! Obviamente es fácil demostrar que esto no es así, planteando el problema desde un punto de vista completamente distinto. Bastaría con tomar un cierto intervalo de tiempo y calcular la distancia recorrida por ambas. Si el intervalo de tiempo es lo suficientemente grande, la distancia recorrida por la liebre sería mayor que la recorrida por la tortuga, y por tanto ya la habría alcanzado. Incluso resultaría muy sencillo con conocimientos elementales de cinemática calcular el tiempo exacto que tardaría la liebre en alcanzar a la tortuga. Sin embargo, lo que proponemos aquí es algo distinto y más interesante. Se trata de demostrar que la liebre alcanzará a la tortuga pero sin cambiar el enfoque del problema, es decir, siguiendo el mismo argumento expuesto. En otras 72

Isagogé, 1 (2004)


palabras, se trata de encontrar dónde está el fallo en el argumento de Zenón que hace que la paradoja deje de serlo. Con el segundo problema pretendemos que se realice una reflexión acerca de los conceptos de continuidad, e infinito. Se trata de una pregunta bastante ambigua y a la que no resulta fácil contestar con seguridad. De hecho, si se está muy seguro de la respuesta es porque quizá no se haya pensado con la suficiente profundidad. La pregunta es simple: ¿Dónde hay más puntos, en una recta o en un plano?

Por último, el tercer problema es un poco más técnico y quizá requiera algo de cálculo, pero tampoco pretendemos aquí que se realice un estudio exhaustivo, sino más bien, que se consideren las variables que intervienen en el problema y cómo afectan y se trate de llegar a una solución intuitiva y cualitativa, más que cuantitativa, del problema. Se trata de lo siguiente. Supongamos un globo de goma hinchado con helio. Como sabemos, el helio es menos denso que la atmósfera terrestre a nivel del mar y, por tanto, el globo tiende a subir. Pero, ¿qué ocurrirá cuando el globo vaya ganando altura? ¿Seguirá subiendo indefinidamente? ¿Se detendrá en algún momento? ¿En ése caso, cuándo? Para simplificar el problema, supondremos que la subida es lo suficientemente lenta como para que el globo y la atmósfera estén siempre en equilibrio, tanto térmico como mecánico, y además supondremos que el globo no tiene límite elástico, y por lo tanto nunca explotará por mucho que se hinche. Sí que podría, sin embargo, considerarse el aumento de la tensión superficial del globo en caso de que aumente su volumen. Esperamos que todos nuestros lectores encuentren interesante alguno de estos problemas y puedan disfrutar un rato poniendo a prueba sus capacidades de razonamiento y abstracción. Animamos a todos a hacerlo. Pueden enviarnos sus propuestas a nuestra dirección de correo electrónico (instituto_ouroboros@hotmail.com), o remitírnoslas a nuestra página web, http://ouroborosweb.topcities.com/, a través de la sección FORO.

Isagogé, 1 (2004)

73


¿QUE ES EL INSTITUTO OURÓBOROS DE ESTUDIOS CIENTÍFICO-HUMANÍSTICOS?

El Instituto Ouróboros es una asociación sin ánimo de lucro nacida de la inquietud de un grupo de amigos y que tiene vocación abierta para todas aquellas personas que compartan dicho interés. La principal finalidad del Instituto Ouróboros es la defensa de la «cultura del conocimiento» como opción frente a los valores que imperan en la sociedad actual y que no solo favorecen la desaparición de la capacidad crítica, que tanto interesa a muchos poderes económicos y políticos del planeta, sino que deshumanizan al ser humano ? valga la redundancia? en su empeño por convertirlo en máquina especialista, que domina su campo de acción pero que luego sale al mundo y es abrumado por la creciente complejidad de éste. Se trata de retomar en los principios del siglo XXI, el antiguo concepto de hombre renacentista, que lejos de parecer una máquina que se especializa en un aspecto muy concreto del conocimiento, se siente libre y capaz como solo el ser humano puede, de abarcar todas las ramas del conocimiento. Ahora bien, si no con el dominio en la materia del especialista, si con la capacidad, gracias a este empeño, de enfrentarse al mundo sin el miedo y la desconfianza que inunda en nuestros días a la gran mayoría de los miembros de la sociedad. En definitiva, alentar un cambio en la mentalidad del hombre, para que gracias al conocimiento amplíe sus fronteras y pierda el miedo a reivindicar sus derechos, defender sus libertades y desarrollarse como personas. Para ello el Instituto Ouróboros ha de tener como fin la promoción de la cultura en todas sus vertientes, la facilitación del acceso al conocimiento científico y humanístico entre las personas, el fomento de la cultura oral como principal medio de transmisión de conocimientos y experiencias entre los individuos, sin olvidar el medio escrito que perpetúa el mantenimiento de los conocimientos en el seno de la sociedad; promocionar la implantación de una actitud crítica y científica, y por último, el intento de alejar al conocimiento de la visión tradicionalmente elitista. Además, no se debe entender, que esta organización tenga tintes políticos orientados en sentido alguno, porque ni se pretende, ni mucho menos es esa nuestra intención, sino todo lo contrario. Como decimos, uno de los objetivos debe ser alejar el viejo concepto de que el interés por el conocimiento de las ideas, postulados o propuestas —tanto filosóficos como de otro tipo, procedentes de cualquier orientación, pueda ser política o religiosa o similar— , implique un acercamiento o pertenencia alguna a dicha tendencia. Por tanto no es un grupo de derechas ni de izquierdas —ni de centro—, tan solo se trata de un asociación sin ánimo de lucro que asume los valores y objetivos anteriormente expresados, lo cual le lleva forzosamente a un compromiso de tipo social tanto en el entorno de la ciudad de Córdoba como en ámbitos superiores de la sociedad.

74

Isagogé, 1 (2004)


MEMORIA DE ACTIVIDADES 2004

?? Seminario: “Partículas elementales”. Sábado 3 de enero de 2004, 10:30 horas. ?? Cine-Forum: Inteligencia Artificial. Casa de la Juventud, sábado 17 de enero, 10:30 horas. ?? Cine-Forum: El Show de Truman. Casa de la Juventud, sábado 31 de enero, 10:30 horas. ?? Cine-Forum: El Hombre Bicentenario. Casa de la Juventud, sábado, 6 de marzo, 10:30 horas. ?? Conferencia: “Las Matemáticas y el cine”. Casa de la Juventud, viernes 2 de abril, 20 horas. ?? Ciclo de Cine-Forum: “Las Matemáticas en el Cine”. Proyección de las películas El indomable Will Hunting, Pi, Cube y Una Mente Maravillosa y debates en torno a ellas. Casa de la Juventud, viernes 2, 16, 23 y 30 de abril, 21:30 horas. ?? Conferencia y Cine-Forum: “El sentido de nuestra existencia”, acompañada de proyección de la película El Séptimo Sello y debate. Facultad de Filosofía y Letras de Córdoba, sábado 24 de abril, 10:30 horas. ?? Conoce tu ciudad: Seminario “Una visión matemática de la Mezquita de Córdoba” y visita guiada al monumento. Sábado 11 de septiembre, 10:30 horas. ?? Mes Temático: “Terror; una mirada distinta”. Casa del Ciudadano, noviembre: — Exposición: “Terror, una mirada distinta”. Del 2 al 30 de noviembre. — Ciclo de Cine: Proyección de las películas: Nosferatu, una sinfonía del horror, Psicosis, El resplandor, y Braindead, tu madre se ha comido a mi perro. Viernes 5, 12, 19, 26 de noviembre, 19:30 horas. — Conferencias: “Historia del cine de terror”, 19 de noviembre, 18:30; y 27 de noviembre, 10:30. “Historia del cine Gore”, 26 de noviembre, 18:30. ?? Ciclo de Conferencias: “Nuevas tendencias en: las Ciencias ante el siglo XXI”: “La Historia ante el siglo XXI: situación actual y perspectivas”, “Últimos avances en biología del Autismo”, “El vacío, la última frontera” y “Mecánica de fluidos computacional: simulando la realidad en un ordenador”, Casa del Ciudadano, lunes 20, martes 21 y jueves 23 de diciembre, 17:30 horas. ?? Seminario: “Supercuerdas”. Casa del Ciudadano, lunes 27 y martes 28 de diciembre de 2004, 10:30 horas. ?? Conferencia: “Teoría matemática de Cuerdas: una introducción para iniciarse”. Casa del Ciudadano, miércoles 29 de diciembre, 11 horas. ?? Seminario: “Loop Gravity: gravedad cuántica de lazos”. Casa del Ciudadano, jueves 30 de diciembre, 11 horas.

Isagogé, 1 (2004)

75


CÓMO HACERSE SOCIO Ser socio del Instituto Ouróboros de estudios Científico-Humanísticos, es ciertamente sencillo. Solo tiene que rellenar esta solicitud que puede fotocopiar, y enviarla al Centro Cívico Municipal de Levante situado en la Avda. Carlos III Nº 53 bis 14014. Córdoba, o remitir un correo electrónico a <instituto_ouroboros@hotmail.com>, con los datos requeridos en la solicitud incluida unas líneas más abajo. Una vez recibamos su solicitud, nos pondremos en contacto con usted, para terminar de tramitarla. Ser socio del Instituto Ouróboros es contribuir con los fines que este persigue, sólo por 8 € al año. Anímese y entre a formar parte de una asociación joven y con proyección de futuro y participe en un proyecto que tiene a la cultura y a las personas como primer objetivo.

Solicitud de Admisión INSTITUTO "OURÓBOROS" DE ESTUDIOS CIENTÍFICO-HUMANÍSTICOS Nombre: Apellidos: D.N.I.

Dirección: Provincia:

Localidad:

e-mail:

Teléfono: Fecha de Nacimiento:

C.P.:

Estudios:

Intereses: (solo a efectos estadísticos)

Ocupación: Firma:

Sí, deseo ser socio del Instituto Ouróboros de estudios CientíficoHumanísticos. Con este motivo, les remito mis datos personales para que puedan ponerse en contacto conmigo para terminar de tramitar mi solicitud.

Firma: (Imprescindible)

76

Isagogé, 1 (2004)


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.