Page 1


PRESENTACIÓN

SANTIAGO RAMÓN Y CAJAL (1852-1934) Nació en Petilla de Aragón el 1 de mayo de 1852. Fue un hombre con grandes inquietudes en muy diversos aspectos, como la pintura, a la que se aficionó con tan solo 8 años, o a la fotografía, la cual descubrió en Huesca por medio de unos fotógrafos ambulantes. En 1869, en Zaragoza comienza sus estudios en medicina, y en 1873 se licencia. Tras unos años ejerciendo la profesión, en 1877 realiza los exámenes de doctorado en Madrid y se dedica a la histología (o estudio de los tejidos), para lo cual adquiere en ese mismo año su primer microscopio. Incansable trabajador e investigador riguroso, es autor de multitud de obras y publicaciones de incalculable valor científico profusamente reeditadas, entre las que destacan su Manual de histología y técnica micrográfica (1889),

Reglas y consejos sobre investigación científica. Los tónicos de la voluntad (1899), Textura del sistema nerviosos del hombre y de los vertebrados (18991904) y Estudio sobre degeneración y regeneración del sistema nervioso (1913-1914). Su labor científica le llevó a ser reconocido mundialmente con la concesión el 10 de diciembre de 1906 del Premio Nobel de Fisiología y Medicina junto con Camillo Golgi. No obstante, antes de la entrega de tan insigne galardón en la Real Academia de Música de Estocolmo, su trayectoria profesional fue altamente valorada tanto en España como en el extranjero. Obtuvo el puesto de director de Museos Anatómicos de Zaragoza en 1879, y el de Catedrático de Universidad en ciudades como Valencia, Barcelona o Madrid. En 1894 fue investido Doctor Honoris Causa por la Universidad de Cambridge, ingresa en la Real Academia de Ciencias de Madrid en 1895 y un año después lo hace como miembro de la Real Academia de Medicina de la misma ciudad. En 1899, es recibe el doctorado Honoris Causa por la Universidad de Worcester y un año después recibe en Paris el Premio Internacional de Moscú, y en España la Gran Cruz de Isabel la Católica y la Gran Cruz de Alfonso XII. Hacia 1905 entra a formar parte de la Real Academia Española como miembro electo y la Academia Imperial de Ciencias de Berlín le otorga la Medalla de Oro de Helmholz. Se jubila académicamente en 1922 dejando una legado de autoridad indiscutible en su campo fundamental de estudio, el sistema nervioso, y un Instituto de estudios que lleva su nombre, El Centro de Investigaciones Biológicas o Instituto Cajal, fundado en 1920. Don Santiago Ramón y Cajal, estuvo casado desde los 27 años con Dª. Silveria Fañanás García y fue padre de 7 hijos (Fe, Santiago, Enriqueta, Paula, Jorge, Pilar y Luis), a los que les fue concedido en 1952 el título de marqués. Su fama internacional le acompañó hasta su muerte en Madrid el 17 de octubre de 1934, pero no sólo dedicó su vida a la ciencia, sino que también cultivó la pintura, la fotografía y la literatura con obras como Cuentos de vacaciones (narraciones pseudocientíficas) (1905), Recuerdos de mi vida (1922), Charlas de Café (1931) o El mundo visto a los ochenta años (1932) «Toda obra grande es el fruto de la paciencia y de la perseverancia, combinadas con una atención orientada tenazmente, durante meses y aún años, hacia un objeto particular». SANTIAGO RAMÓN Y CAJAL

0

Isagogé, 2 (2005)


ÍNDICE

Colaboran en este número: Aranda Ballesteros, F. Damián: Profesor de Matemáticas, IES Blas Infante, Córdoba.

Bermúdez Vázquez, Manuel: Dr. en Filosofía, investigador, Univ. de Córdoba.

Castillo Arenas, Francisco: Lcdo. en Historia por la Univ. de Córdoba, DEA. Fernández Borja, Enrique: Lcdo. en Física, Dpto. de Astronomía y Astrofísica, Univ. de Valencia.

Gómez Bruque, José Luis: Ingeniero Agrónomo, Univ. de Córdoba.

Gorostidi Colás, Juan: Ingeniero de Montes por la Univ. de Córdoba.

Irraiz Castellón, Antonio José: Restaurador de arte. Delineante.

López Sánchez, Ángel R.: Lcdo. en Física, investigador del Instituto Astrofísico de Canarias, socio de la Agrupación Astronómica de Córdoba Lóránt, Nora: Traductora, Eötvös Loránd Tudományegyetem, Budapest. Martínez García-Gil, José: Lcdo. en Biología, Lcdo. CC. Exactas, Becario de investigación del Dpto. de Biología Molecular, Univ. Córdoba.

Martínez Jiménez, José Mª: Lcdo. en Biología por la Univ. de Córdoba.

Martín-Lorente Rivera, Enrique: Ingeniero Técnico Industrial.

Millán Torres, Vicente: Investigador, Laboratoire de Déclassement Comparé, París.

Miralles Aranda, Antonio José: Lcdo. en Biología por la Univ. de Córdoba. Ruiz Gómez, Aarón: Lcdo. en Física, Becario de investigación del Dpto. de Física Atómica Molecular y Nuclear, Universidad de Sevilla.

Santiago del Río, José Luis: Lcdo. en Física, Becario de investigación del Departamento de Medio Ambiente del CIEMAT. Serrano Castro, Antonio Jesús: Profesor Asociado al área de Filosofía del Derecho, Univ. de Córdoba, Abogado, miembro del Instituto Olof Palme.

Valle Porras, José Manuel: Lcdo. en Historia, coordinador de la revista Saigón. Ventura Rojas, José Manuel: Lcdo. en Historia, investigador del Dpto. de Historia Contemporánea, Univ. Córdoba.

PRESENTACIÓN Editorial................................................................................ 2 Presentación del Coordinador de actividades humanísticas......................................................................3 Presentación del Coordinador de actividades científicas......................................................................... 4 ARTÍCULOS DE DIVULGACIÓN ¿Por qué se les llama naturales a los logaritmos cuya base es el número e? ................................................................... 5 Modelando el Cosmos (II) ................................................. 10 ¿Podemos hacer Física sin coordenadas?........................... 15 Espectrometría de masas con aceleradores (AMS): aplicación a la datación por radiocarbono..................... 19 Equipos termosifón de energía solar.................................. 23 Inventaros forestales. Fundamentos del muestreo por conteo angular....................... ................................................... 26 ¿Podemos parar el viento? ................................................. 29 Sobre el contenido y la forma............................................. 31 La recuperación de obras escépticas en el Renacimiento... 36 La guerra de los sexos......................................................... 41 Supermercados como setas................................................. 46 El crucificado en la imaginería barroca andaluza............... 50 OPINIÓN Y ANÁLISIS La gripe de 1918, la pandemia de gripe aviar y el miedo... 53 Cervantes, Verne, la novela de caballería y la anticipación científica......................................................................... 57 La sociedad multicultural: un reto para los docentes españoles........................................................................ 61 MISCELÁNEA Documentos: Primera carta de Károly Mannheim a György Lukács....... 63 Reseña cinematográfica: Réquiem for a Dream.......................................................... 68 Rincón de poesía: ............................................................... 72 Efemérides musical: Recordando a Mozart (1756-1791)..................................... 73 INFORMACIÓN DE OURÓBOROS ¿Qué es el Instituto Ouróboros de Estudios CientíficoHumanísticos? .................................................................... 74 Memoria de actividades 2005 ............................................ 75 Fe de erratas de Isagogé, 1 (2004) ..................................... 75 ¿Cómo hacerse socio? ........................................................ 76

Depósito Legal: CO 259-05 ISSN: 1885-2475 Isagogé, 2 (2005)

1


PRESENTACIÓN

EDITORIAL José Mª Martínez Jiménez Presidente del Instituto Ouróboros

IN MEMORIAM, D. FELICIANO DELGADO LEÓN Comienza un nuevo año y con él somos muchos los que nos dejamos llevar por nuevos y pretenciosos propósitos en una especie de frenético éxtasis colectivo postnavideño, con el cual quien más y quien menos ha tenido la oportunidad de hacer balance de lo que dejamos atrás, se haya aprovechado o no. Pues bien, haciendo balance, en el Instituto Ouróboros tuvimos que lamentar en julio de 2004, a la edad de 78 años, la pérdida de uno de nuestros socios honoríficos más insignes e ilustres. Hablamos del Ilmo. Sr. Dr. D. Feliciano Delgado León, maestro inolvidable e infatigable y admirable orador. Donde quiera que esté, según sus propias creencias, vaya allí nuestro más fuerte abrazo y nuestro más sentido agradecimiento, por su inestimable entrega y colaboración con el Instituto y por su trayectoria ejemplar en todos los sentidos. Una vida como jesuita durante 59 años que supo hacer compatible con su singladura académica repleta de méritos innumerables, de los cuales haremos una breve semblanza a modo de muestra. Se licenció en Filosofía en 1947 en la facultad de Filosofía de San Cugat del Vallés (Barcelona) y 10 años después, en 1957 se licenció y doctoró en Filosofía y Letras, (sección de Lenguas Románicas), en la Universidad de Barcelona, obteniendo sendos Premios Extraordinarios (1958 y 1960). A su vez, fue Doctor en Lenguas Clásicas por la John Hopkins University de Baltimore desde 1961, y Licenciado en Teología desde 1960 por el West Baden College, Loyola University de Chicago, centro en el que impartió clases sobre Literatura del Siglo de Oro. Su experiencia docente la desempeñó en la Universidad de Barcelona como ayudante de Gramática Histórica, en la Universidad de Loyola de Chicago impartiendo Lengua Española Medieval, así como en otras universidades del mundo como en la de Quito. Adjunto numerario de Gramática Histórica en la Universidad de Sevilla y Córdoba, fue ponente de innumerables cursos y conferencias en universidades de ciudades como: Chicago, Indiana, St. Louis, New York, México, Londres, París, Montpellier, León Oviedo, Barcelona, Salamanca, Valencia, Granada, Cádiz, Jaén, Sevilla y Madrid sobre temas lingüísticos y filológicos. Desde hace años era catedrático de Lingüística General de la Universidad de Córdoba y, en sus últimos años, profesor emérito de la misma. A ello se unen sus nombramientos como académico correspondiente de la Real Academia Española y numerario de la Real Academia de Ciencias, Bellas Letras y Nobles Artes de Córdoba. Fue miembro de la International Linguistic Asociation, miembro de la Sociedad Española de Lingüística, miembro de la Sociedad Andaluza de Lingüística General, miembro fundador de la Sociedad Internacional de Historiografía Lingüística y Cronista oficial de Belalcázar. Escribió una veintena de libros, así como una infinitud de artículos relacionados con sus ámbitos de estudio. Entre sus títulos más relevantes encontramos, Lingüística general, Técnicas del relato y modos de novelar, La Coronación de Juan de Mena, Poesía cordobesa del siglo I al XVII (antología crítica), El lenguaje de la novela, Lorenzo Hervás: sus ideas lingüísticas, Álvaro de Córdoba y la polémica contra el Islam, o Estudios sobre Góngora (en quien era considerado una eminencia) Sin duda alguna fue un ser humano cálido y cercano y, como ya hemos dicho, fue la suya una vida ejemplar de alguien que procuró llenarla de conocimientos y honores, que crecieron al tiempo que la admiración de todos aquellos que tuvieron el privilegio de conocerle. Desde aquí nuestro más sincero y humilde homenaje.

2

Isagogé, 2 (2005)


PRESENTACIÓN DEL COORDINADOR DE ACTIVIDADES HUMANÍSTICAS José Manuel Ventura Rojas Coordinador de Actividades Humanísticas del Instituto Ouróboros Ya mencionamos en el número anterior que el año 2005 venía repleto de efemérides muy señaladas en el ámbito nacional e internacional. La trascendencia de la obra cervantina ha derivado en multitud de eventos, a los que sumamos una nueva contribución en estas páginas, como parte de nuestro proyecto de acercar al público los géneros que abordamos y estimular tanto su lectura como una visión comprensiva, crítica y atópica. Un nuevo homenaje, pues, tanto al padre de Don Quijote como al escritor Julio Verne, cuyo centenario de su ocaso vital —mas no de su fama— también se ha celebrado por todo lo alto en su tierra natal. Y ya que hablamos de Francia, similar eco mediático ha tenido el siglo del nacimiento de Jean-Paul Sartre, maître a penser de varias generaciones, y objeto hoy de una revisión crítica que no le priva de su lugar en la pléyade de filósofos del novecientos. El paso del tiempo suele colocar, tarde o temprano, en su lugar a los grandes hombres y sus obras. Ortega y Gasset, uno de los pensadores más lúcidos de la pasada centuria, ha sido afortunado en ello y, medio siglo después de su fallecimiento, recibimos con entusiasmo una nueva edición de sus obras completas. Menos suerte han tenido otros autores, como en cierta medida ocurre hoy con los filósofos húngaros Károly Mannheim y György Lukács —nacido este último hace ciento veinte años—, algunas de cuyas obras esperan aún su edición completa en castellano, y por ello les tributamos aquí un modesto homenaje. Otro ejemplo parecido encontramos en el violinista y compositor rumano George Enescu, fallecido hace medio siglo —en 1955, el mismo año que el francés Arthur Honegger—, calificado por nuestro Pau Casals como «el mayor fenómeno musical desde Mozart», y cuya reducida pero excelente producción está siendo, por fortuna, redescubierta y cada vez mejor valorada. Más largo es el camino que nos queda para rescatar el legado del llamado «Mozart español», Juan Crisóstomo Arriaga, nacido en 1806, autor de una obra musical muy sólida que sorprende en un talento tan precoz, truncado por desgracia a la edad de veinte años. Así como los alemanes han celebrado al gran Schiller en el bicentenario de su muerte, y los daneses a Andersen en el de su nacimiento, en la España meridional recordamos durante el 2005 los cien años de la desaparición del político y prosista egabrense Juan Valera —el mismo año en que vino al mundo el poeta e impresor malagueño Manuel Altolaguirre— y en su ciudad natal, además del homenaje en las Jornadas de Historia y Política anuales, se le dedicó un congreso a finales del mes de abril, así como en noviembre tuvimos las Jornadas Internacionales sobre la batalla de Trafalgar —organizadas por la recientemente constituida asociación cultural Dionisio Alcalá Galiano—; y en Córdoba las del 125 aniversario del nacimiento de Antonio Machado y el recuerdo del 75 aniversario del adiós al pintor Julio Romero de Torres. Sin olvidar eventos editoriales en la ciudad de la Mezquita como la aparición de la Historia General de Andalucía del veterano catedrático José Manuel Cuenca Toribio, una Historia ilustrada de Córdoba y, a finales de año, la primera edición de la Historia General de Córdoba del erudito barroco Andrés de Morales. Obras estas dos últimas debidas a jóvenes investigadores que constituyen la punta del iceberg de las hornadas que tomarán el relevo de sus mayores, entre los que haremos mención, por su llorada desaparición, de los historiadores Javier Tusell y Federico Suárez, así como el filósofo Julián Marías. En 2006 tocará el turno a otras conmemoraciones: el cuarto centenario del nacimiento de Rembrandt en Holanda, el 250 aniversario del de Mozart y el 150 de Sigmund Freud en Austria, el centenario del escritor Dino Buzzati en Italia y, en España, el quinto centenario de la muerte de Cristóbal Colón y el primero del lírico pontanés Manuel Reina, de la Conferencia de Algeciras —evento clave en los avatares de la geoestrategia del Mediterráneo a comienzos del siglo XX— y de la concesión del premio Nobel de medicina a Santiago Ramón y Cajal —medio siglo después, en 1956, se le otorgó a Juan Ramón Jiménez en la categoría de literatura—. Al margen de todo ello, los quehaceres cotidianos de multitud de científicos y artistas, grandes y pequeños, seguirán alimentando los talleres y fraguas intelectuales de todo el mundo. Isagogé, 2 (2005)

3


PRESENTACIÓN DEL COORDINADOR DE ACTIVIDADES CIENTÍFICAS Enrique Fernández Borja Coordinador de Actividades Científicas del Instituto Ouróboros

Un año más, y de veras que es una sorpresa, nos acercamos a vosotros a través de Isagogé. Mediante este foro seguimos empeñados en divulgar la ciencia, y hemos de agradecer desde la Coordinadora Científica del Instituto Ouróboros el interés de los que han contribuido a la consecución de dicho objetivo. Vale la pena comentar que estamos muy satisfechos con la calidad científica de los artículos presentados. Aunque somos aún una publicación joven y humilde, nos preciamos de que nuestros colaboradores poseen una gran formación técnica en los temas que tratan y, por supuesto, una tendencia digna de encomio de presentar al gran público los resultados más recientes obtenidos en áreas científicas específicas. Desde nuestra publicación, insistiendo un año más, deseamos invitaros a participar en este proyecto. Hagamos este camino juntos, y pensemos que al divulgar no sólo estamos intentando que conceptos complicados sean, al menos, apreciados por personas que no tienen una preparación específica del tema; de hecho, el que divulga es el que más aprende. Al desmenuzar un concepto, para extraer su idea clave y expresarla en palabras llanas, nos vemos obligados a ahondar en el mismo y llegar una profunda comprensión de lo que pretendemos exponer. En este número podéis disfrutar de temas que abarcan, desde reflexiones sobre logaritmos, a procedimientos técnicos de utilidad directa. Este abanico nos da la posibilidad de comprobar que la ciencia tiene numerosas vertientes que la han convertido en uno de los más preciados tesoros de la humanidad, y su tarea fundamental es la de elaborar conceptos para comprender y modificar el entorno con ellos. Por último, quiero aprovechar estas líneas de presentación para invitaros a que participéis con nosotros en este proyecto. Serán bien recibidas vuestras sugerencias y colaboraciones. Y es bueno recordar que la ciencia se construye entre todos. Gracias a los lectores y a todos los han aportado su ayuda. Sin vosotros esto no sería posible.

4

Isagogé, 2 (2005)


ARTÍCULOS DE DIVULGACIÓN

¿POR QUÉ SE LES LLAMA NATURALES A LOS LOGARITMOS CUYA BASE ES EL NÚMERO e? F. Damián Aranda Ballesteros 1.- EL NÚMERO e. BREVE IDEA DE CÓMO SE INVENTARON LOS LOGARITMOS En Matemáticas existen algunos números que son muy famosos. Conocemos entre otros el número π y el número áureo φ. Vamos a hablar del número e, que debe su nombre al matemático suizo Euler. El número e es irracional, y se obtiene como límite lim ⎛ 1 ⎞ n de la sucesión . Lo anterior supone que, aumentando suficientemente el 1+ n → ∞ ⎜⎝ n ⎠⎟ valor que sustituyamos por n, más decimales del número e obtendríamos: 100

1000

1 ⎞ ⎛ ⎜1 + ⎟ ⎝ 100 ⎠

= 1 '01

100

1 ⎞ ⎛ =2'704813...; ⎜1 + ⎟ ⎝ 1000 ⎠

= 1'0011000 =2'716023...;

10000

1 ⎞ ⎛ ⎜1 + ⎟ ⎝ 10000 ⎠

= 1'0000110000 =2'718280...; e = 2'718281828459045.....

2.- UN POCO DE HISTORIA Desde hace mucho tiempo el hombre ha necesitado efectuar laboriosos y precisos cálculos para resolver problemas que afectaban a su vida cotidiana. Durante el siglo XVI, la realización de cálculos complicados se presentaba en asuntos mercantiles y trigonométricos, estos últimos de gran incidencia en la navegación o la agrimensura. Con la reducción del trabajo de varios meses de cálculo a unos pocos días, el invento de los logaritmos parece haber duplicado la vida de los astrónomos. (Laplace)

Antes de la invención de las computadores, el nivel de precisión exigido en algunas cuestiones técnicas era bastante grande, requiriéndose operar con números de 5 o más decimales. En las Tablas de logaritmos vulgares, de D. Vicente Vázquez Queipo, «obra declarada de texto por el consejo de instrucción pública y premiada en la Exposición Universal de Paris de 1887», se comenta, en el prólogo de su vigésima octava edición: ... es superfluo en la mayoría de los cálculos astronómicos el empleo de más de cinco decimales, pues los errores de observación son mayores en lo general que la quinta unidad decimal y nunca llega la precisión a la sexta. ¿A qué conducen, pues, la exactitud y prolijidad en los cálculos, si los datos a que se aplican no las consienten? A nada absolutamente, a no ser en el análisis trascendental y en las ciencias que de ella dependen indirectamente, en las cuales se necesitan siete y a veces hasta diez decimales, como en la Geodesia. Fuera de estos casos sobra y basta con seis.

La cuestión es: ¿cómo actuaban los técnicos y científicos cuando tenían la necesidad de realizar numerosos y complejos cálculos? Lo hacían utilizando las tablas de logaritmos. La invención de los logaritmos la dio a conocer el escocés Juan Neper, barón de Merchiston, que los publicó por primera vez en 1614. De manera paralela a Neper, también los descubría el suizo Bürgi. Su idea se basaba en la observación, ya realizada por Arquímedes, de ciertas propiedades de las progresiones geométricas, estableciendo una correspondencia «uno a uno» entre los valores de las potencias y los exponentes de dichas potencias. Isagogé, 2 (2005)

5


3.- IDEA PRIMITIVA DE LOGARITMO Consideremos, por ejemplo, la progresión geométrica de primer término 2 y razón 2: Si quiero multiplicar 8 (término nº 3 de la progresión) por 128 (término nº 7) me basta con sumar los términos (3+7=10) y aN 2 4 8 16 32 64 128 256 512 1024 2048 comprobar el número que le corresponde a la suma: 1024 = 8 x 128. N 1234 5 6 7

8

9

10

11

Esto no es más que aplicar la propiedad de que 2 m x 2 n = 2 m + n. Como 2m / 2 n = 2 m−n, para dividir dos términos de la progresión se miran los lugares que ocupan y se restan estos lugares, el resultado será el número correspondiente al resultado de la resta: 128 (nº 7) entre 16 (nº 4) da 8 (nº 3 = 7 - 4) Dicho de otra forma, multiplicar dos términos de la progresión se traduce en sumar sus posiciones en la secuencia, y dividirlos en restarlos. ¿Cómo se elevará un término de la progresión? Para hallar 162 , miro el lugar que ocupa 16 en la serie (4), lo multiplico por la potencia (2) y obtengo 8. Volviendo a mirar el número que corresponde al lugar 8, comprobamos que se trata de 256, que es el resultado de la potencia. ¿En qué propiedad de las potencias se basa la observación anterior? ¿Cómo obtener fácilmente la raíz cuadrada de 1024? ¿Y la raíz cúbica de 512? A los lugares que ocupaban las sucesivas potencias de base 2 se les llama logaritmos de base 2: log 2 2 = 1; log 2 4 = 2; log 2 8 = 3; etc. De lo observado anteriormente, se tienen las siguientes propiedades: log2 (a · b) = log2 a + log2 b; log2 (a/b) = log2 a − log2 b ; log2 ab = b ·log2 a. De la definición de logaritmo, también se tienen: log2 2b = b y 2 log2 b = b Igual que hemos considerado la progresión geométrica de razón 2 podíamos haberlo hecho con la de razón 3, dando lugar a los logaritmos de base 3, lo mismo sería con cualquier otra base. En realidad, conociendo los logaritmos de una base es fácil conocer los logaritmos en cualquier otra. Como logq x = logq (p logp x) = logp x · logq p, se tiene que log p x = logq x / logq p Resulta así más cómodo realizar las operaciones aritméticas ya que rebajamos la complejidad de las mismas al cambiar los productos por sumas, cocientes por diferencias, productos por potencias y raíces por cocientes. El problema es que sólo lo podemos realizar con los números que intervienen en la secuencia de potencias de 2, pero ¿cómo multiplicar cómodamente 2145 por 47, que no aparecen en dicha tabla? Nos interesaría, por lo menos, encontrar una progresión que contuviese a todos los números naturales; en realidad nos bastaría con calcular los logaritmos de los números primos, pues el logaritmo de un número natural se puede expresar mediante los logaritmos de sus factores primos. Una idea válida puede ser la de considerar, en lugar de las potencias de 2, potencias de un número cercano a 1, que dejan menos huecos. Esta es la idea que tuvieron Neper y Bürgi (aunque siguiendo métodos diferentes). 4.- CONSTRUCCIÓN DE LA TABLA DE LOGARITMOS DE BÜRGI. APROXIMACIÓN AL NÚMERO e Bürgi consideró la base 1'0001. Realicemos una tabla de valores de 1'0001n .Vemos que se avanza muy poco (nos interesa que vayan apareciendo todos los números 6

Isagogé, 2 (2005)


naturales y con 6 pasos aún estamos lejísimos de 2). Además los cálculos son tan complicados que parece imposible obtener una potencia elevada de 1'0001. Se observa (puede haber alguna esperanza) que los números en negrita son los del triángulo de Tartaglia (o del Binomio de Newton). ⎛n⎞ ⎛n⎞ ⎛n⎞ ⎛n⎞ (1 + 0 '0001) n = ⎜ ⎟1 + ⎜ ⎟ 0 '0001 + ... + ⎜ ⎟ 0 '0001k + ... + ⎜ ⎟ 0 '0001n ⎝0⎠ ⎝1⎠ ⎝k⎠ ⎝n⎠ Así, no resulta complicado establecer las primeras cifras de 1'000150 . Ahora bien, se habrá de tener cuidado con la superposición de cifras. n 1'0001n 0 1

Cómo calcular las decimales exactos de la potencia 1'000150

1 1'0001

1'0050 1225 19600 230300......

2 1'00020001

1'0050122696230300..... = 1'000150

3 1'000300030001 4 1'0004000600040001 5 1'00050010001000050001 En definitiva, aunque muy pesado, hemos comprobado que es factible construir la tabla de logaritmos de base 1'0001. El inconveniente que sigue presentando es que el avance es muy lento: elevando esta base a 50 sólo vamos por 1'005...; para obtener 2 hemos de elevar la base a 6931; 1'00016931 = 1'99983634…, y a 6932; 1’00016932 = 2'000036324 y, calculando la media geométrica, estimamos que el logaritmo de 2 es 6931'4... NOTA: Sabemos que si tenemos tres términos consecutivos A, B y C de una progresión aritmética, el término intermedio B es la media aritmética de los otros dos; B=1/2·(A+C). Si fuesen términos consecutivos de una progresión geométrica, B será la media geométrica de ambos; B = A.C . También se nos presenta el problema de que los logaritmos en esta base resultan muy grandes. Hay que elevar 1'0001 a 16095 para acercarnos a 5, peor será con 41 o con 73. La solución que encontró Bürgi fue considerar la base 1'000110000, cuya tabla es muy fácil de construir a partir de la anterior. Se comprueba sin dificultad que si en la antigua base, el logaritmo de 2 era 6931'81183, en la nueva base será 0'69314... . Sólo hay que dividir por 10000, con lo que el tamaño de los nuevos logaritmos resulta más razonable. Siendo exagerados, podríamos pensar que sería mejor base todavía 1'000000110000000, puesto que 1'0000001 aún está más cerca de la unidad, y podemos seguir.... Si así lo lim ⎛ 1 ⎞ n hacemos, nos estaremos acercando al número e = . La base natural para 1+ n → ∞ ⎜⎝ n ⎠⎟ construir una tabla de logaritmos es la base e. Isagogé, 2 (2005)

7


5.- LA PENDIENTE DE LA FUNCIÓN EXPONENCIAL f(x) =ex De entre las propiedades más importantes e interesantes del número e subrayaremos la relativa a la de la pendiente de la recta tangente a la función exponencial. Las gráficas de las funciones exponenciales son conocidas desde la escuela. Sea x ax , entonces si a>1 la función es estrictamente creciente y si 0<a<1, la función decrece, quedando el caso de que la función será constante si y solo si a =1. En cada caso, la gráfica es una curva continua que siempre pasa por el punto (0,1). La función es convexa sea cual sea la base, es decir, el segmento que determinan dos puntos de la gráfica está siempre por encima de la curva. La convexidad puede ser explicada formalmente. Sean los puntos extremos del segmento AB, A=(x, ax) y B=(y, ay). Cualquier punto interior C del segmento AB lo divide en una cierta razón. Si la razón es q:p donde p y q son números positivos que verifican que p+q=1, entonces las coordenadas del punto C serán (px+qy, pax+qay), y así el punto D correspondiente a la gráfica de la función exponencial será D = (px+qy, apx+qy). Probaremos que: apx+qy pax+qay para todo valor x, y, p, q ( p + q = 1, p, q 0). La convexidad de la función exponencial puede ser probada a partir de la desigualdad entre las medias geométrica y aritmética. Dadas dos cantidades positivas, X e Y, se verifica que: 1 1 1 1 1 X.Y ≤ (X + Y); X 2 .Y 2 ≤ .X + .Y 2 2 2 Por tanto, si ahora consideramos las cantidades positivas ax y ay, la anterior desigualdad para las medias geométrica y aritmética ponderadas con los pesos p y q, resultaría la desigualdad: apx + qy pax + qay. Probaremos a continuación que la gráfica de la función exponencial presenta una recta tangente para cada punto de la misma. La pendiente de la recta dependerá de la base de la función exponencial. Precisamente la base que nos permite construir la tangente en el punto (0,1) con pendiente igual a 1 es el número e, como ahora veremos. Para ello sea la recta y= x+1, recta que pasa por el punto (0,1) y tiene de pendiente 1. Sean pues la función exponencial y= ax y la recta y= x+1 que serán tangentes en el punto (0,1). Para obtener dicha base que verifique aquel contacto, para un valor x positivo 1⎞ ⎛1 suficientemente grande consideramos el punto ⎜ ,1 + ⎟ . Como la curva es convexa, x⎠ ⎝x según hemos visto, entonces la recta tangente se situará por debajo de la gráfica de la 1

curva excepto en el punto de tangencia (0,1). Por tanto, a x > 1 +

1 , y así: x

.

1 1 ⎞ ⎛ Sea ahora el punto ⎜ − ,1 − ⎟ que también está por debajo de la curva. x +1⎠ ⎝ x +1

Como a

8

1 x +1

1 1 ⎞ ⎛ > 1− ⇒ a < ⎜1 − ⎟ x +1 ⎝ x +1⎠

1 x +1

=

1 1

1 ⎞ x +1 ⎛ ⎜1 − ⎟ ⎝ x +1⎠

=

1 1

⎛ x ⎞ x +1 ⎜ ⎟ ⎝ x +1⎠

⎛ 1⎞ = ⎜1 + ⎟ ⎝ x⎠

x +1

.

Isagogé, 2 (2005)


En definitiva, se verifica la desigualdad: para Esta desigualdad responde así a la cuestión antes planteada, pues para un suficientemente grande, podremos estimar el valor de la En efecto, este valor existirá sin más que probar que las funciones

todo x>0. valor de x base a. siguientes

son estrictamente creciente y decreciente, respectivamente. La monotonía de ambas funciones será probada haciendo uso de las desigualdades entre las distintas medias. Sean para ello, 0<u<v cualesquiera números reales positivos. u

v

1 ⎛ 1⎞ ⎛ 1⎞ Probaremos en primer lugar que: ⎜1 + ⎟ < ⎜ 1 + ⎟ . Así para los números 1 + y 1, u ⎝ u⎠ ⎝ v⎠ consideramos la desigualdad entre las medias geométrica y aritmética ponderadas de ⎛ 1⎞ 1 u. ⎜ 1 + ⎟ + (v − u).1 ⎛ ⎛ 1 ⎞u v−u ⎞ v u⎠ . pesos u y v−u, (u<v), respectivamente: ⎜ ⎜1 + ⎟ .1 ⎟ < ⎝ ⎜⎝ u ⎠ ⎟ v ⎝ ⎠ u

v

⎛ 1⎞ ⎛ 1⎞ Simplificando obtenemos que: ⎜1 + ⎟ < ⎜ 1 + ⎟ . Procediendo de forma similar con la ⎝ u⎠ ⎝ v⎠ desigualdad existente entre la media armónica (inversa de la media aritmética de los inversos de dichos números) y geométrica de los mismos números y con los pesos u+1 y v−u se establecerá que: 1

u+1 ⎛⎛ ⎞ v +1 v +1 1⎞ < ⎜ ⎜1 + ⎟ .1v −u ⎟ , ⎟ u + 1 v − u ⎜⎝ u⎠ ⎝ ⎠ + 1 1 1+ u

1⎞ ⎛ ⎜1 + v ⎟ ⎝ ⎠

v +1

u+1

1⎞ ⎛ < ⎜1 + ⎟ u⎠ ⎝

Cuando aumenta el valor de x, la razón entre las expresiones que acotan inferior y superiormente a la base a se aproxima a 1. Esto quiere decir que ambas funciones tienen un mismo límite en el infinito. Si ambas funciones tienen un común, este límite coincidirá con el propio valor de la base a. Y, según hemos visto, este límite no es otro lim ⎛ 1 ⎞ n . Esta base de la función exponencial no solo posee la propiedad que e = 1+ n → ∞ ⎜⎝ n ⎠⎟ de que la pendiente de su tangente en el punto (0,1) es igual a 1, sino que además la pendiente de la recta tangente en cualquiera de sus demás puntos (x, ex) es también igual a su ordenada ex. En otras términos, la derivada de la función exponencial y = ex es igual a y = ex. Esta propiedad se deriva de aquella otra primera del siguiente modo. Al ser la curva convexa en el punto (t, et), la recta tangente r se situará por debajo de la gráfica de la curva. Veamos que la recta r es la de ecuación y = et + et(x−t). Para un valor k>0, sean los puntos (t+1/k, et.(1+1/k) ) y (t−1/(k+1), et.k/(k+1) ), ambos situados sobre dicha recta a un lado y otro del punto (t, et) dado. Como quiera que e>(1+1/k)k entonces e1/k > (1+1/k) y así, et+1/k > et.(1+1/k). Como también es e<(1+1/k)k+1,será e1/(k+1) <(1+1/k) y así e-1/(k+1) >k/(k+1). Por fin, et-1/(k+1) >et.k/(k+1).

Isagogé, 2 (2005)

9


MODELANDO EL COSMOS (II) Ángel R. López Sánchez Expansión del Espacio-Tiempo ¿Cómo podemos medir la expansión del espacio-tiempo? Los cosmólogos usan el factor de escala, que no es otra cosa que una medida del tamaño del Universo en una época determinada con respecto al tamaño actual. Por ejemplo, si el factor de escala es 0,5, estamos hablando de una época en la que el Universo era la mitad de lo que es ahora. Existe una relación directa entre el corrimiento al rojo (redshift, como se dice en inglés), consecuencia de la velocidad con que se alejan las galaxias entre sí, y el factor de escala.

En la expansión del Universo las galaxias se alejan entre sí de forma proporcional a la distancia que las separa. El factor de escala indica la relación entre el tamaño del Universo en un momento determinado con respecto a su tamaño actual.

Quizás estamos acostumbrados a hablar del corrimiento al rojo. Pero, ¿qué significa? Se puede explicar recurriendo a un fenómeno físico bien conocido: el efecto Doppler. Cuando un objeto que emite una onda (luminosa, sonora o de otro tipo) se mueve con respecto a un observador, éste mide que las características de la onda emitida son diferentes a sus valores en reposo. El ejemplo más claro es el del tren que se acerca a nosotros: a principio lo oímos con un tono más agudo, que pasa a ser grave al alejarse. Lo mismo ocurre con la luz: si un objeto que emite ondas luminosas se acerca, vemos que esta luz se hace más azul, mientras que si se aleja se la luz se enrojece. Lo que observamos en el Universo es algo similar al efecto Doppler: al expandirse el espacio, la distancia entre las galaxias se ensancha, por lo que percibimos que la luz que nos llega de ellas es más roja y que se alejan de nosotros.

Diagrama explicativo del efecto Doppler. Si un objeto se acerca al observador, las ondas que aquél emite se desplazan al azul. Si el objeto se aleja, al rojo.

Además, conforme más distante se encuentra una galaxia, a mayor velocidad la observamos alejarse. Éste fue el vital descubrimiento que llevó a cabo Edwin Hubble a principios de los años treinta del siglo pasado, enunciando la ley que lleva su nombre. La proporción entre distancia y velocidad es la constante de Hubble. La Ley de Hubble Aunque no es el objetivo de este artículo de divulgación introducir ecuaciones matemáticas, el lector me va a permitir dos excepciones sencillas que ayudan a afianzar conceptos y comprobar que algunas fórmulas tienen verdaderamente sentido físico. Primero, veamos la relación entre factor de escala, R, y redshift, z: R=

aOBSERVADO 1 = aACTUAL 1+ z

aOBSERVADO = Tamaño del Universo observado en un momento dado. aACTUAL = Tamaño actual del Universo.

10

Isagogé, 2 (2005)


Para z = 0 (en el momento actual), R vale 1, algo completamente lógico (el tamaño del Universo observado ahora es igual que el tamaño del Universo actual). Al aumentar el redshift, el factor de escala disminuye. En el inicio del Cosmos, R sería cero y z infinito. Esta expresión significa que al medir el desplazamiento hacia el rojo de una galaxia o de un cuásar sabemos de inmediato su R correspondiente en el momento en el que fue emitida su luz. Por ejemplo, la luz de una galaxia con z = 1 fue emitida cuando el valor del factor de escala del Universo era la mitad de su valor actual, es decir, cuando la distancia media entre las galaxias era la mitad que ahora. Los cuásares con z = 4 emitieron la luz que vemos cuando el factor de escala R era una quinta parte de su valor actual. La otra ecuación que me permito recoger a continuación es la más sencilla de la Física: la del movimiento rectilíneo uniforme. No hace falta saber Física para conocerla, todos la hemos usado en muchas ocasiones: la velocidad a la que se mueve un cuerpo se puede calcular dividiendo la distancia que recorre entre el tiempo empleado. De forma matemática se puede formular así: v = H0 ⋅ d ¿Cómo? ¿Dónde está la división? Si la miramos detenidamente, vemos que efectivamente en el primer término tenemos la velocidad, v, y en el segundo la distancia, d. Por lo tanto, esa H0 debe tener algo que ver con una división entre el tiempo. Escrita así, esta ecuación no es otra que la Ley de Hubble: a mayor distancia, más rápido se alejan las galaxias. Precisamente, la constante de proporcionalidad entre la distancia y la velocidad es la constante de Hubble, H0. Si representamos gráficamente una frente a la otra, para varios cúmulos de galaxias, vemos claramente la relación lineal.

Cálculo de la Constante de Hubble (H0) Cúmulode Osa Mayor II

Velocidad de recesión (Km/s)

40000

v = H0·d

Cúmulo del Boyero

H0=( 72 ± 2 ) Km s -1 Mpc-1 30000

Cúmulo de la Corona Boreal

20000

Cúmulo de Osa Mayor I 10000

Cúmulo de Coma Vía Láctea

0 0

100

200

300

400

500

600

Distancia (Mpc)

Ejemplo de la Ley de Hubble, obtenido mediante los programas CLEA de prácticas de astrofísica. El análisis de los datos del programa daba un valor de H0= 72 ± 2 km/s/Mpc.

La unidad que se usa para la velocidad de recesión de las galaxias es el km/s, mientras que la distancia se mide en megaparsecs, Mpc (un Mpc son 3.27 millones de años-luz). Por este motivo, las unidades de H0 son los km / s / Mpc. Uno de los mayores objetivos en la Cosmología actual es concretar el valor de la constante de Hubble. Precisamente, el Telescopio Espacial Hubble tenía como uno de sus objetivos principales el determinar H0 (por eso el satélite recibió este nombre). A mitad de la década pasada se estimó que H0 estaba en torno a los 70 km/s/Mpc. Esto significa que a una distancia de 1 Mpc una galaxia se alejaría a 70 km/s, mientras que a una distancia de 200 Mpc se alejaría a 200 × 70 = 1 400 km/s. Isagogé, 2 (2005)

11


Radial Velocities in Km/є

Distance in megaparsecs

Cluster Galaxy in

18 1.210

Virgo

230 15.000

Ursa Major

330 21.600

Corona Borealis

600 39.300

Bootes

940 61.200

Hydra

Debido a la expansión del Universo, las líneas espectrales de galaxias más alejadas se desplazan más hacia el rojo, por lo que su velocidad de recesión es mayor. Ésta es la esencia de la Ley de Hubble.

Pero aún hay más. Podríamos simplificar las unidades de H0 puesto que estamos multiplicando por kilómetros y dividiendo por megaparsecs, ambas unidades de distancia. Con los cambios apropiados, tenemos que la constante de Hubble es la inversa del tiempo. Este tiempo se conoce como tiempo de Hubble y... cosas de la Física... es la edad del Universo, salvo por un factorcillo que depende de la geometría del espacio-tiempo. Así se ha podido determinar que la edad del Universo es de 13.700 millones de años o, escrito como lo suelen hacer los cosmólogos, 13,7 Giga-años. El destino del Universo Ya hemos hablado de los primeros momentos del Universo. Preguntémonos ahora qué pasará en el futuro. Esquematizando el problema, nos podemos cuestionar cómo cambia el factor de escala al avanzar el tiempo. Esto es, el Universo puede continuar expandiéndose indefinidamente o frenarse y comenzar a comprimirse. Que suceda una cosa u otra depende de la cantidad de materia que exista en nuestro Cosmos. Volvemos a un problema básico de Física: dos fuerzas que se oponen tienden a equilibrarse. Por un lado, la expansión del Universo, que aumenta indefinidamente el tamaño del mismo. Por el otro, la fuerza gravitatoria, que tiende a atraer los cuerpos materiales entre sí. Si la fuerza gravitatoria es suficiente como para frenar la expansión, el Universo se irá encogiendo en un futuro. En el caso contrario, se expandirá para siempre. ¿De qué depende la fuerza gravitatoria? De la cantidad de materia que exista. Los cosmólogos hablan de densidades de materia (masa dividido por volumen). Existe un caso límite entre un Universo en expansión indefinida y otro que se colapsa: es aquél en el que la expansión se detiene en un tiempo infinito. La densidad de materia en este tipo de universo recibe el nombre de densidad crítica. Por lo tanto, otro de los problemas de los cosmólogos es precisar el valor de la densidad de nuestro Universo (designada con la letra griega Ω): si es mayor que la crítica, se comprimirá (universo cerrado) mientras que si es menor se expandirá continuamente (universo abierto). La geometría del espacio-tiempo también variaría dependiendo de este parámetro: mientras un universo abierto tendría una geometría con un espacio hiperboloico (con la forma de una silla de montar), la de un universo cerrado sería una geometría esférica.

12

Isagogé, 2 (2005)


Un curioso extraterrestre se sorprende al comprobar cómo se mueve la luz según la geometría del universo: espacio plano (izquierda), abierto (una silla de montar, centro) y cerrado (una esfera, derecha).

En el caso en que el Universo llegue a frenarse y se comprima, se llegaría a una singularidad equivalente al Big Bang, que recibe el nombre de Big Crunch (Gran Crujido en inglés). En este punto, algunos autores opinan que este fin del Universo puede dar lugar a un rebote en otro Big Bang y comenzar todo el ciclo otra vez. Esta posibilidad no deja de ser atractiva y conlleva más preguntas filosóficas: ¿podría haber sido nuestro Big Bang consecuencia del colapso de un anterior ciclo? ¿Y ese ciclo podría haber venido de otros? ¿Cuántos ciclos anteriores han habido y cuántos posteriores habrá?

Posibles futuros del Universo, en función de su densidad. Se representa el tamaño del Universo frente al tiempo transcurrido desde la Gran Explosión. El destino final dependerá de la densidad total del Universo.

Las teorías cosmológicas con las que se trabaja actualmente, apoyadas por las teorías de supersimetrías y cuerdas, indican que la densidad del Universo es realmente la crítica (el Universo tendría una geometría plana). Contemos, pues, la materia que vemos en el Universo. Esto se lleva haciendo ya años: vemos la luz que nos llega de las galaxias, estimamos cuántas estrellas son necesarias para producir esa cantidad de luz y sumamos. Encontramos que el valor de Ω es de sólo el 4% de la densidad crítica, ΩCRÍTICA. Parece así que el Universo estaría condenado a expandirse eternamente. La materia que no vemos ¿Hemos contado bien? ¿Y si hay materia que no vemos? Existen otras formas de estimar las masas de las galaxias: tomamos un espectro de una galaxia y medimos mediante efecto Doppler cómo gira (la zona que se acerca a nosotros estará desplazada al azul mientras que la que se aleja se mueve al rojo). Aplicando dinámica clásica obtenemos una nueva estimación de la masa... que resulta no coincidir con el cálculo anterior. ¡Ahora hay más masa! ¡Realmente hay materia que no vemos! Es el problema de la materia oscura. ¿Qué es la materia oscura? ¿Cuánta hay? Podemos dar una respuesta más correcta a la segunda pregunta que a la primera: es la que nos sobra al restar de la masa estimada mediante dinámica la masa derivada mediante la luz. Este número es mayor en los cúmulos de galaxias, por lo que a mayor escala la proporción entre materia oscura sobre materia ordinaria es mucho mayor. Pero no sabemos en qué consiste. Podrían ser objetos fríos, como enanas marrones o planetas. Incluso agujeros negros supermasivos. Pero harían falta muchos de estos cuerpos para explicar el exceso de masa. Además, los modelos de nucleosíntesis en el Big Bang no predicen tanta materia ordinaria. Sabemos que la materia oscura interacciona muy débilmente con la materia común, solo pudiendo apreciar sus efectos cuando saltamos al reino de las galaxias y los Isagogé, 2 (2005)

13


cúmulos de galaxias. Actualmente se tienen dos ideas sobre su naturaleza. Por un lado, la masa perdida podría ser la correspondiente a la de los esquivos neutrinos, las partículas usadas para explicar las desintegraciones radiactivas. Su masa es muy pequeña (los protones son unos 100 millones de veces más pesados) pero al existir tan enorme cantidad de ellos podrían ser la clave. Los neutrinos formarían la materia oscura caliente porque, al ser tan poco masivos, serían partículas relativistas (calientes) cuando dejan de interaccionar con el resto de la materia durante el primer segundo del Universo. Por otro lado, la materia oscura podrían estar constituida por todas aquellas partículas raras y masivas que predicen las teorías de supersimetrías. Como estas partículas no fueron relativistas cuando se desacoplaron de la materia ordinaria se las conoce como materia oscura fría. Materia normal, materia oscura, radiación y ... ¿energía del vacío? Aún así, considerando la materia oscura (sea del tipo que fuere), se encuentra que la densidad de materia del Universo es del 27% del valor crítico. ¿Nos falta algo más de materia? Revisemos nuestros razonamientos. Sabemos que vivimos en un Universo en expansión que puede explicarse conociendo el valor de la constante de Hubble, H0, y la densidad de materia, ΩM. Clásicamente, la fuerza gravitatoria creada por la materia siempre es atractiva. Cuando Einstein desarrolló la Teoría General de la Relatividad encontró que predecía un Cosmos dinámico, al contrario de la visión estática que se tenía entonces del Universo, por lo que añadió a sus ecuaciones un término que provocaba repulsión gravitatoria. Cuando Hubble descubrió la expansión del espacio, Einstein despreció este factor, que se conoce como constante cosmológica, llegando incluso a afirmar que fue uno de los mayores errores de su vida. La constante cosmológica se ha asociado a la idea de que el vacío tiene una energía que se opone a la fuerza gravitatoria, provocando una aceleración de la expansión cósmica. Dicho con otras palabras, es como si existiesen masas negativas. Por lo tanto, debemos considerar el efecto de la constante cosmológica en nuestro conteo de la materia total del Universo. La energía del vacío (conocida alternativamente como energía oscura) también tiene asociada una densidad de energía. Si nos creemos las teorías en las que el Universo es plano, la densidad crítica deberá ser igual a la suma de la densidad de materia, ΩM, donde contamos tanto la materia ordinaria como la oscura, más la densidad de energía del vacío, ΩΛ. ¿Pero cuánto vale la constante cosmológica? De nuevo estamos en la ignorancia. Intentémoslo buscando algo que podamos medir observacionalmente. Por ejemplo, podemos preguntarnos qué efecto tendría la densidad de energía del vacío en la edad del Universo. Si la densidad de materia fuera cero (¡algo imposible porque estamos aquí!) su edad sería sencillamente el tiempo de Hubble. Ya hemos insistido en cómo la materia frena la expansión, en este caso la edad será menor que el tiempo de Hubble. Pero en el caso de existir una densidad de energía del vacío ocurriría todo lo contrario: viviríamos en un universo mucho más viejo de lo que hemos estado considerando hasta ahora. El Universo no se estaría frenando: la expansión se acelera.

Gráfico que representa la edad del Universo en función de la densidad de materia, ΩM y densidad de energía del vacío, ΩΛ.

Pueden enviar sus preguntas y sugerencias a: angelrls@ll.iac.es

14

Isagogé, 2 (2005)


¿PODEMOS HACER FÍSICA SIN COORDENADAS? Enrique Fernández Borja Introducción En todo el desarrollo de la física hemos descrito los fenómenos en términos de posiciones y tiempos. Sin embargo, las teorías actuales que intentan la descripción cuántica de la gravedad nos están abocando a prescindir del concepto de espaciotiempo. Tenemos una propuesta de gravedad cuántica denominada Gravedad Cuántica de Lazos, (Loop Quantum Gravity, LQG), que es una nueva forma de hacer física: física sin espaciotiempo. Una breve reflexión de la teorías que manejamos actualmente nos muestra que estas estructuras tienen una clara división entre los objetos dinámicos, partículas y campos, y donde interaccionan estos objetos, el espaciotiempo. Podemos pensar en las bolas de billar que ejemplifican la dinámica Newtoniana, la propagación de ondas electromagnéticas, la probabilidad cuántica de localizar un electrón, etc. Todos estos ejemplos, aún sin mencionarlo explícitamente, conllevan un contenedor donde localizamos y describimos estos sistemas. Este contenedor es el espaciotiempo. Pero también tenemos indicaciones de que la hipótesis de un espaciotiempo, ajeno a la dinámica propia del resto de los campos, no se puede mantener más allá de unas ciertas escalas. Por ejemplo, la aparición de los resultados infinitos en teoría cuántica de campos, cuando intentamos calcular masas o cargas de partículas. Esto nos obliga a un proceso, algo abrupto, de redefinición de estas cantidades denominado renormalización, debido a que ignoramos que nuestra imagen de un espaciotiempo continuo a todas las escalas no es reconciliable con las evidencias adquiridas en Relatividad General y Mecánica Cuántica. En este trabajo queremos expresar que, en el espíritu de LQG, hemos de comenzar a pensar en describir la física sin la presencia de una caja, el espaciotiempo, que actúa simplemente como un contenedor inerte donde pasan los fenómenos. Más bien, hemos de considerar que lo que ahora entendemos por espaciotiempo es una descripción conveniente de las relaciones entre los distintos campos, unos sobre otros pero no sobre el espaciotiempo continuo. Universo Newtoniano En la física Newtoniana, el espacio y el tiempo son dos entidades absolutas. Además son dos objetos distintos entre sí y que no participan de la dinámica de los sistemas, es decir de las interrelaciones entre los mismos, sino que simplemente los contiene. El espacio y el tiempo son entidades prefijadas e inmutables respecto a las cuales nosotros describimos las posiciones y las relaciones entre sistemas (fig. 1). Por tanto, en la física de Newton necesitamos de una estructura que en realidad es ajena a la propia física que está describiendo la teoría. Isagogé, 2 (2005)

Fig. 1: En la física Newtoniana ni el espacio ni el tiempo se ven modificados por la presencia de sistemas ni por las interacciones entre los mismos.

15


Fig. 2: Una visión sin estructura de fondo nos lleva a tener que definir las relaciones espaciales y temporales en función de las interacciones existentes.

Sin embargo, podemos intentar una descripción en ausencia de una estructura de fondo prefijada. En la misma sólo tendremos los objetos dinámicos y sus interacciones (fig. 2). La cuestión a plantearse es qué entendemos por espacio y por tiempo. La respuesta es simple, pero su implementación no lo es tanto. Hemos de poder entender cómo se modelizan las relaciones espaciales (por ejemplo distancias) a través de las propias interacciones. Y en la cuestión del tiempo, se entenderá como una relación de orden, siempre ha de ser posible decidir si un fenómeno ocurre antes o después que otro. La cuestión de la unidad de tiempo se resuelve fácilmente si encontramos un fenómeno periódico.

Si nos replanteamos esta cuestión notaremos que lo que queremos hacer es justamente lo contrario a lo que venimos haciendo. Es decir, vamos a describir las relaciones espaciales y temporales en función de las interacciones de los sistemas físicos y no al contrario que es lo usual. Es evidente que este trabajo no sería nada útil para la física clásica, ya que a todos los efectos el espaciotiempo es una estructura fija y continua. Lo que de verdad nos enseña la Relatividad General Todos hemos oído o leído alguna vez que la Relatividad General es la mejor teoría de la gravitación que tenemos. Hasta la fecha, todos los fenómenos gravitatorios observados han sido explicados por esta teoría. Y actualmente hay experimentos en marcha diseñados para contrastar una de su más sutiles predicciones, la existencia de ondas gravitacionales (Existen evidencias indirectas de su existencia como la variación del periodo de sistemas binarios. Se supone que emiten energía en forma de ondas gravitacionales lo que implica que su órbita se vaya reduciendo. Esto está bien documentado en el comportamiento del púlsar binario PSR 1913+16) La Relatividad General nos fuerza a abandonar la idea de una fuerza gravitatoria de tipo Newtoniana. Esta teoría nos dice que la gravitación es el efecto que tiene la curvatura del espaciotiempo, es decir su geometría, sobre el resto de campos. A todos los efectos el campo gravitatorio no es más que la geometría del espaciotiempo. Lo novedoso del planteamiento es que consideramos al propio espaciotiempo sujeto a una dinámica que modela su geometría a través de su interacción consigo mismo y con el resto de campos. Hemos de percibir aquí una ruptura con toda la tradición anterior. En este esquema, el espaciotiempo no es una entidad prefijada donde se disponen el resto de campos y sus interacciones. Es decir, la Relatividad General no es una teoría de campos que interaccionan en un espaciotiempo curvo, es una teoría de campos, incluido el gravitatorio, interaccionando entre sí. Como resultado de esta interconexión nosotros describimos el propio espaciotiempo como un objeto contenedor y continuo.

16

Isagogé, 2 (2005)


Por tanto, la lección fundamental que hemos extraer de la Relatividad General es que NO EXISTE EL ESPACIOTIEMPO como una entidad prefijada que no participa de la dinámica con otros campos. Esto puede resultarnos sorprendente, cuando en casi toda la literatura relacionada el aspecto al que se le ha dado más importancia es a la identificación de gravedad con geometría. Nuestro punto de vista no rompe con este hecho. Es más, lo lleva hasta sus límites obligándonos a renunciar al propio espaciotiempo tal y como lo entendemos actualmente. Invariancia bajo difeomorfismos Esta es una característica de la Relatividad General íntimamente relacionada con la no existencia de una estructura espaciotemporal prefijada. Vamos a mostrar qué queremos decir cuando decimos que la Relatividad General es una teoría invariante bajo difeomorfismos. Aunque es un concepto matemático sutil, no es difícil captar su significado. Como ya hemos comentado la física se formula en términos de coordenadas espaciotemporales. Desde un punto de vista matemático podemos definir distintos sistemas de coordenadas. Físicamente no hay ningún motivo para preferir un sistema u otro en la descripción de un fenómeno (fig. 3).

Fig. 3: La cuestión importante es la disposición de los sistemas físicos bajo estudio. La elección de un sistema de coordenadas u otro ha de ser irrelevante a efectos de describir la física que dicta la dinámica de este sistema. Esta es la idea que subyace a una teoría independiente bajo difeomorfismos.

La exigencia de que nuestras teorías sean invariantes bajo difeomorfismos nos dice que la física que describimos es independiente del sistema de coordenadas que estamos empleando en describirla. Un punto en el espaciotiempo únicamente se pude especificar si está ocupado por un sistema. Es decir, no tenemos una estructura prefijada que dé un significado

Isagogé, 2 (2005)

17


absoluto a las coordenadas que asignamos a las distintos componentes involucrados en un fenómeno físico. Según lo expuesto en este trabajo, Relatividad General es una teoría que implica un espaciotiempo dinámico, no prefijado. Además vemos que los nombres de las coordenadas tampoco tienen un significado absoluto. Por lo tanto, Relatividad General es una teoría del tipo relacional, sólo podemos localizar los sistemas mediante las relaciones entre los mismos. La búsqueda de la gravedad cuántica Hasta nuestros días no hemos conseguido vislumbrar un esquema coherente en el que los principios de la Relatividad General y la Mecánica Cuántica se armonizaran de manera coherente. Desde los inicios de la teoría cuántica se han efectuados intentos de describir la gravedad en términos cuánticos. Sin embargo, todos los intentos han fracasado. Actualmente tenemos una versión de gravedad cuántica, LQG, que se formula sin una estructura espaciotemporal prefijada y que respeta la invariancia bajo difeomorfismos de la Relatividad General. Este esquema conceptual se está desarrollando y, salvo algunos problemas de formalización, a cada paso se muestra como una teoría cuántica coherente sin el lastre de un espaciotiempo preexistente. Pero, sin lugar a duda, la propuesta de gravedad cuántica más popular es la Teoría de Cuerdas. A todos los efectos, esta teoría es dependiente de una estructura espaciotemporal prefijada, espacio de Minkowski, espacio anti-DeSitter, etc. Hay indicaciones de que las diferentes versiones de la Teoría de Cuerdas son manifestaciones de una teoría más fundamental, la conocida como Teoría M. Esta teoría aún no existe, simplemente sabemos que debe estar ahí. La cuestión fundamental es que hay fuertes exigencias que nos obligarán a describir esta teoría sin una estructura de fondo espaciotemporal prefijada. Por lo tanto, la convergencia entre la manera de hacer física de LQG y la espectacular Teoría de Cuerdas podría ser el camino a explorar para encontrar la teoría fundamental de la naturaleza. Conclusión A pesar de ser una idea totalmente sorprendente, la física nos conduce a renunciar al concepto usual de espaciotiempo. Hemos de poder expresar nuestras teorías sin hacer una referencia explicita al mismo y recuperar dicho concepto como un modelo de la relaciones mas fundamentales entre los sistemas físicos. Evidentemente, la revolución no modificará las teorías asentadas y perfectamente útiles: la mecánica newtoniana, la electrodinámica, el Modelo estándar, etc. Pero una descripción de las leyes más fundamentales de la naturaleza hace necesaria esta búsqueda. Bibliografía FERNÁNDEZ-BORJA, E. (2005): Teorías sin fondo espaciotemporal (en prensa) ROVELLI, C. (2004): Quantum Gravity, Cambridge Univ. Press. SMOLIN, L. (2000): Three roads to Quantum Gravity, Perseus Books.

18

Isagogé, 2 (2005)


ESPECTROMETRÍA DE MASAS CON ACELERADORES (AMS): APLICACIÓN A LA DATACIÓN POR RADIOCARBONO Aarón Ruiz Gómez De entre las distintas técnicas de datación físico-química que permiten establecer la cronología de determinados sucesos, la datación por radiocarbono es la más difundida y a la que se han dedicado mayores esfuerzos para su perfeccionamiento. Todos los seres vivos, al interactuar con nuestro medio, intercambiamos átomos de carbono. Al morir dejamos de interactuar con aquél y el intercambio de carbono cesa. El isótopo de carbono mayoritario en la naturaleza es 12C, esto es, carbono con masa atómica 12. No obstante existen otros dos isótopos de carbono en la naturaleza en mucha menor proporción que el primero: el 13C y el 14C. De estos dos el primero es estable y el segundo es un isótopo radiactivo que se va desintegrando a lo largo del tiempo. Porcentualmente hablando existe un 98,89% de 12C y un 1,11% de 13C de media en la naturaleza. El periodo de semidesintegración para el 14C, que no es más que el tiempo que tarda en decaer a la mitad la cantidad de éste isótopo inestable presente en una muestra, es de 5.730 años (aunque en estudios arqueológicos se emplea la semivida de Libby, 5.568 años), lo que revela su enorme utilidad para datar acontecimientos desde el Pleistoceno tardío hasta épocas mucho más recientes, ya históricas. El 14C es un isótopo radiactivo generado por la radiación cósmica mediante la siguiente reacción: 14 7

N + 01n→146 C + 11H

Esto es, un átomo de nitrógeno reacciona con un neutrón originando un átomo de carbono 14 y un protón. En la corteza terrestre el carbono se encuentra en dos posibles estados: en un estado de equilibrio estático y en otro de equilibrio dinámico. El carbono que se encuentra en el primer estado está recluido en compartimentos aislados, tales como depósitos de petróleo, carbones minerales y rocas sedimentarias. El carbono que se encuentra en estado dinámico constituye el Depósito de Intercambio de Carbono (DIC), un conjunto de compartimentos formados por la atmósfera, la hidrosfera, la biosfera terrestre y el humus no aislados que se encuentran en equilibrio dinámico entre sí respecto al intercambio de carbono. La datación por radiocarbono parte de unas hipótesis fundamentales referidas a su contenido específico en cada uno de estos compartimentos DIC y a su constancia a lo largo del tiempo que la hacen factible. Existen tres técnicas distintas para la medida de 14C: los detectores de ionización gaseosa (contadores proporcionales), detectores de centelleo líquido y la espectrometría de masas con aceleradores (AMS). La muestra que se desea datar ha de someterse previamente a un procesamiento físico-químico de purificación del carbono en el que finalmente se presenta en forma de CO2, benceno o grafito, dependiendo de la técnica que se vaya a emplear. De estas tres, AMS es la más novedosa y ofrece mejores resultados. Antes de continuar sería conveniente recordar algunos aspectos. Primeramente, qué es un isótopo. Son isótopos de un mismo elemento aquellos átomos que, si bien tienen mismo número de protones (número atómico, Z), difieren en su número de neutrones (y por tanto en su masa atómica, A).

Isagogé, 2 (2005)

19


Como ya hemos indicado, de los distintos isótopos de carbono, el 14C es el único que es inestable y en su desintegración seguirá, por tanto, la Ley de Decaimiento Radiactivo. Ésta es una ley general, de aplicación a todos los núcleos radiactivos, y cuya expresión indica que la probabilidad que tiene un núcleo inestable de desintegrarse sólo depende de su propia naturaleza: −

1 dN =λ N dt

Puede observarse que, N representa el número de núcleos de la población de átomos radiactivos, su derivada indicará el número de átomos desintegrados en la unidad de tiempo. Si dividimos esta cantidad entre N obtendremos la frecuencia de desintegración de núcleos en la unidad de tiempo, la cual es constante e igual al parámetro λ, que se denomina constante de desintegración. El signo menos proviene de que λ se toma como positiva y la derivada que aparece será negativa por indicar un descenso de los núcleos a lo largo del tiempo. Para el 14C se obtiene que λ = 1.21·10-4 (años)-1. Otro aspecto importante que se puede vislumbrar de esta ley es que la velocidad de desintegración de una población de átomos radiactivos es proporcional a su número, ya que: v=−

dN = λ ·N dt

Si integramos la ley de decaimiento radiactivo entre dos instantes, uno inicial y otro instante t, la expresión que nos queda es de la forma: N = N 0 ·e − λt

donde N0 va a indicar el número de átomos radiactivos que componen la población en un instante que consideramos inicial y N el número de los mismos que queden transcurrido un tiempo t. Si aplicamos a esta expresión la definición enunciada al principio de periodo de semidesintegración (T1/2):

N0 = N 0 ·e −λt 2

λ=

ln 2 T 1/ 2

De esta forma podríamos averiguar el periodo de desintegración referido al carbono y que enunciamos en las primeras líneas. Sabiendo que la actividad se define como el número de desintegraciones por unidad de tiempo que sufre una fuente radiactiva, podemos escribir: A=

ln 2 N T1 / 2

Las distintas técnicas que se dedican al estudio de radionúclidos en la naturaleza emplean la medida de la actividad de las radiaciones emitidas para poder calcular N. Sin embargo, cuando tenemos periodos de semidesintegración muy grandes, esta actividad puede ser muy baja, y es por tanto más conveniente medir directamente N. Esto es justamente lo que se hace en AMS. Con relación a la espectrometría de masas tradicional, AMS se basa en el acoplamiento de un espectrómetro de masas convencional a un acelerador, que por lo general va a ser del tipo Van de Graaf o Cockroft-Walton, aumentando notablemente la sensibilidad de la técnica. La espectrometría de masas con aceleradores consiste, a grandes rasgos, en desprender de la muestra una serie de iones, entre los que se 20

Isagogé, 2 (2005)


encuentran los del isótopo deseado, mediante el llamado proceso de sputtering, por medio del cual se bombardea la muestra a tratar con Cs+ dentro de la fuente de iones. Estos iones son sometidos a una diferencia de potencial y acto seguido son introducidos dentro de los llamados deflectores electrostáticos y magnéticos, donde campos eléctricos y magnéticos actúan sobre ellos, con el objetivo de separar el isótopo que nos interesa de aquellos iones que no cumplan la misma relación energía/carga y/o momento/carga. En esta técnica es fundamental el empleo del acelerador. Su misión es la de someter al haz de iones, primeramente negativos, a una diferencia de potencial hasta el terminal (stripper) y nuevamente aprovechar esta diferencia de potencial para acelerar a los iones, ahora positivos, desde el stripper hasta la salida del acelerador, que vuelve a estar a potencial cero tal y como se encontraba la entrada del mismo. De esta forma se eleva la energía del haz hasta varios cientos de keV/u o algunos MeV/u para que tengamos medidas factibles en el detector final. La otra misión del acelerador es la de albergar el denominado proceso de stripping, que conlleva un desprendimiento de los electrones de los iones y una ruptura de aquellas moléculas cuya masa es igual a la de nuestro radioisótopo. Ya en la zona de alta energía, además de seguir aislando nuestro radioisótopo de otros iones que distorsionarían la medida, se coloca un detector de ionización gaseosa para la medida final de 14C y dos cámaras de Faraday, que recogen la corriente de 12C y 13 C que llegan a cada una de ellas. Por medio de ellos podremos tener conocimiento de las relaciones isotópicas que andamos buscando, por ejemplo 14C/12C o 14C/13C. AMS permite detectar cocientes isotópicos del orden de 10-12 o 10-15, dato que revela su enorme sensibilidad. A modo de ejemplo ilustrativo, el encontrar un átomo de 14C por cada 1015 átomos de 12C sería como encontrar a un amigo tuyo en una fiesta a la que han asistido los habitantes de un millón de planetas como la Tierra. A continuación, exponemos un esquema de la instalación de AMS del Instituto Tecnológico (ETH) de Zurich (Suiza):

Fig 1.: Acelerador Tandem Van de Graaf del ETH (Zurich)

Común a estos tres métodos de medida es, obviamente, el cálculo de la edad de la muestra. La aproximación a la fecha física o arqueológica final, que es la que vamos buscando, no es en absoluto trivial y está sujeta a una serie de incertidumbres y factores que dificultan nuestro proceso de datación. Por ejemplo, cabría citar el caso del fraccionamiento isotópico: determinados procesos biológicos como la fotosíntesis tienen preferencia por asimilar el isótopo de carbono de menor masa, lo cual implicaría una menor concentración aún de 14C y una aparente mayor edad de la muestra. La potencia analítica de la técnica de AMS es aplicable, no sólo a la datación por radiocarbono, sino al estudio de multitud de procesos y fenómenos ambientales, Isagogé, 2 (2005)

21


paleoambientales, geológicos, biomédicos, astrofísicos, industriales, entre otros muchos; y cómo no, a las investigaciones de física nuclear y de partículas. Para el estudio de muchos de estos procesos se emplean otros radionúclidos tales como 10Be, 26 Al, 32Si, 36Cl, 41Ca, 129I o isótopos de U o Pu. Por ejemplo, el empleo de 10Be es comúnmente empleado en el estudio de rocas y sedimentos, permitiendo datar paisajes y procesos sufridos por las rocas, debido al carácter cosmogénico del 9Be, ya que éste se generará en menor grado si la roca se encuentra enterrada. 26Al tiene una destacable presencia en el estudio de fenómenos biomédicos, por ejemplo, en el estudio del Alzheimer. Por otro lado, y para que también nos sirva de botón de muestra, el estudio de la relación isotópica 240Pu/239Pu permite obtener información sobre el origen del plutonio. Por ejemplo, el Pu «grado armamento» tiene una relación isotópica del 6%, el procedente de Chernobyl del 40% y el procedente de pruebas nucleares de los años 60 y 70 es de un 18%. En el caso del 36Cl se puede decir que éste sirve de trazador cronológico y permite determinar y evaluar señales climáticas que quedan registradas en testigos de hielo. Entre otras, la ventaja principal que ofrece AMS es su enorme sensibilidad, siendo además de enorme utilidad en la datación por radiocarbono de objetos sensibles o muy pequeños dada la exigua cantidad de material a tomar para hacer la muestra. En AMS se toman cantidades del orden del mg, mientras que en las otras técnicas se toman cantidades del orden del g. Es decir, se trata de un procedimiento no destructivo, lo que lo diferencia de los otros mencionados. Otra ventaja es el tiempo necesario para medir las muestras, no más de 30 minutos con esta técnica, frente a las varias otras que precisan las otras. Por suerte esta técnica ya es aplicable en España, gracias a la reciente adquisición que ha realizado el Centro Nacional de Aceleradores, en Sevilla, de un sofisticado equipo de AMS. Esperemos que la tendencia de los últimos años se mantenga y que las inversiones y producción científica de nuestro país sigan aumentando a un ritmo igual o superior al actual para poder colocarnos, de esta forma, en la locomotora de países más desarrollados científica y tecnológicamente hablando y enterrar definitivamente, desechándola de nuestro presente y futuro, aquella mentalidad y actitud ante lo científico que se materializó en la lamentable frase de «que inventen otros».

AGRADECIMIENTOS: Quiero agradecer a José María López Gutiérrez, Elena Chamizo Calvo y Francisco Javier Santos Arévalo la ayuda prestada para la elaboración de éste artículo. Sus comentarios y sugerencias, acompañados de virtuosa paciencia, han permitido mejorar la calidad de este artículo.

22

Isagogé, 2 (2005)


EQUIPOS TERMOSIFÓN DE ENERGÍA SOLAR Enrique Martín-Lorente Rivera Una vez que el lector sabe lo que es un colector térmico (ver número 1 de Isagogé), nos adentraremos en cómo funciona éste. Para empezar explicaremos lo que es un equipo termosifón. Un equipo termosifón es una placa o colector térmico con un ángulo de inclinación respecto de la horizontal y que mira al sur, con un depósito en su parte superior (Fig. 1). El depósito suele ser horizontal para que sea más estético, aunque vertical funciona mejor debido a la disposición del agua en varios niveles, como ahora veremos. Como bien habrá deducido el lector, la razón por la que se coloca un depósito es porque, si necesitamos agua caliente por la noche, no tendremos más remedio que haberla almacenado durante el día, que es cuando hay sol, para tenerla disponible en cualquier momento. El funcionamiento de un equipo termosifón se basa en la diferencia de densidad debida a la diferencia de temperatura. De esta manera, 1 kilogramo de agua a 10 ºC ocupa menos volumen que un kg de agua a 40 ºC. Obsérvese bien que decimos 1 kg y no un litro, debido a que eso es precisamente la densidad: el volumen que ocupa una masa. Así, un kg de agua a 40 ºC tiene una densidad menor que un kg de agua a 10 ºC, lo cual implicará que el kg de agua a 40 ºC ascenderá, subirá por la placa que está inclinada, a diferencia del agua que está a 10 ºC que bajará. Ocurre lo mismo que cuando echamos aceite en el agua. El aceite flota y ello se debe a que tiene menor densidad que el agua. Para un mismo volumen el aceite pesa menos y esto hace que el agua empuje al aceite hacia arriba. Explicamos esto: ¿qué pasará si tengo un colector solar inclinado mirando al sol y el agua en su interior se calienta? Pues ocurrirá que el agua aumentará de temperatura y su densidad disminuirá. Hágase el lector a la idea de que, como en el ejemplo del aceite y el agua, en nuestro caso esta última adquiere al calentarse una densidad menor, y ascenderá por tanto a lo largo del colector. Como el colector está inclinado, el agua calentada por el sol se irá a la parte de arriba y pasará a un tubo que la conducirá al depósito, entrando en este último por la parte más alta, que es donde se encuentra el agua más caliente. El mismo caudal que entra en el depósito saldrá de él por el tubo conectado al depósito por la parte inferior, y esta agua se irá a la parte inferior de la placa para que de nuevo vuelva a calentarse y cerrar así el ciclo (Fig. 1) Se creará de esta manera una circulación natural entre el depósito y la placa sin bomba que mueva el agua, debido a la diferencia de temperatura, de manera que el agua más fría del depósito (ya que está en la parte inferior del mismo) baja a la placa por su parte inferior. En la placa se calienta y asciende hasta el depósito entrando por la parte superior que es donde el agua está más caliente. De esta manera, el agua que entra al depósito siempre está más caliente que la que ha salido de él y así el depósito se irá calentando en función de la radiación solar que le llegue a la placa. Esto es básicamente un equipo termosifón. Si el lector ha subido a una terraza o desde la calle ha visto una o dos placas inclinadas y un depósito en la parte superior, entonces puede ahora identificarlo como un equipo de termosifón. Si lo que hay son placas de agua caliente y no se ven depósitos, la instalación es de circulación forzada, en la cual hay una bomba de recirculación que mueve el agua y por lo tanto el depósito ya no tiene que estar en la parte superior de la placa, sino que puede hallarse en cualquier lugar (quizás dentro del edificio, en el sótano). Isagogé, 2 (2005)

23


Fig. 1 Por otro lado ocurre que, cuando desciende la temperatura por debajo de 4 ºC, la densidad del agua empieza a disminuir y esto hace que en la placa se invierta el sentido de la circulación, lo cual lleva a que el depósito que tiene el agua caliente se enfríe. Para solucionar este problema se instala una válvula antirretorno, que es simplemente un cierre por medio de una lámina que deja pasar el agua en el sentido en que se calienta el depósito, pero si el agua se va a enfriar circula en sentido contrario y la lámina le cierra el paso (como en una calle de dirección prohibida, en la que los coches circulan en una dirección pero no en la contraria, ver Fig. 2)

Fig. 2 Hemos hablado antes de qué ocurre cuando el agua baja de 4 ºC y vimos cómo solucionarlo, pero ¿qué ocurre si la temperatura ambiente llega a 0 ºC o baja aún más? Lo que sucede es que el agua de la placa se hiela y por tanto los tubos de aquélla se rompen. Así ocurre en el termosifón, pues en invierno o en las noches muy frías el agua de la placa se puede congelar y hacer que se rompan los tubos de la misma. Para ello se ha ideado otra solución, que consiste en que al depósito se le incorpora un intercambiador 1 , de manera que se establece un circuito cerrado entre el intercambiador y la placa, y este circuito es independiente del agua de consumo que hay en el depósito (Fig. 3). Así pues, como es un circuito cerrado y no se mezcla con la de consumo, se puede incorporar un aditivo para bajar la temperatura de congelación. De esta manera la temperatura ambiente puede bajar digamos a –10 ºC y el agua del circuito cerrado placa-intercambiador no se congela, evitando así la rotura de la placa.

1

Un intercambiador es un elemento donde entran dos fluidos a distinta temperatura, los cuales no se mezclan pero hay transferencia de calor del fluido más caliente al más frío.

24

Isagogé, 2 (2005)


El intercambiador es sencillamente un tubo inmerso en el agua de consumo del depósito, y en el interior del mismo circula el agua caliente que sale de la placa y que lleva anticongelante. Al pasar el agua caliente por el interior del tubo, calienta el agua del depósito, y de esta manera podemos tener durante la noche agua caliente para ser consumida.

Fig. 3 Volviendo a los problemas adicionales del termosifón, ¿qué ocurre si no hace sol? ¿No nos duchamos o nos duchamos con agua fría? Para resolver esto incorporamos una resistencia eléctrica en el depósito (Fig. 3), de manera que caliente el agua de consumo. Sin embargo, aunque es el sistema más comúnmente utilizado, el equipo termosifón pierde rendimiento, ya que la resistencia está calentando el agua a una alta temperatura y la placa puede aportar poco, porque en cierta medida el agua la ha calentado la resistencia y eso nos cuesta el dinero. De esta manera, cuando hace menos sol el equipo es poco rentable, porque la resistencia calienta el agua en su mayoría. Sin embargo, este sistema sí nos asegura la ducha caliente en todo momento. Otros sistemas menos utilizados debido a su coste, pero más eficaces (energéticamente hablando) son los que incorporan el método de calentamiento instantáneo. En la salida de agua del depósito se coloca un equipo instantáneo, que caliente el agua a su paso, al tiempo que la placa aprovecha todo el potencial que ese día nos aporte el sol. De manera que si, por ejemplo, la temperatura del agua del depósito se incrementa por medio de la placa en 10 ºC más, evitamos esa porción de trabajo que de otra forma debería haber realizado el calentador instantáneo (eléctrico o de gas, hablamos del termo de las casas), asegurándonos igualmente la ducha caliente, pero ahorrándonos el coste de esos 10 ºC que la placa aportó al agua del depósito. En suma, se trata de un sistema mixto, que ahorra la energía que emplea normalmente un calentador instantáneo (dependiendo del sol que haga será mayor o menor el gasto de este último), y garantiza el suministro de agua caliente cuando las condiciones meteorológicas no favorecen el rendimiento del termosifón.

Isagogé, 2 (2005)

25


INVENTARIOS FORESTALES. FUNDAMENTOS DEL MUESTREO POR CONTEO ANGULAR Juan de Gorostidi Colás

Fotografía de una forcípula Haglöf

Uno de los datos fundamentales a obtener en los inventarios forestales es la denominada área basimétrica (AB), que se define como la sección del tronco a 1,30 metros de altura. Para determinar el AB de un árbol se pueden utilizar distintos instrumentos: forcípulas (que miden el diámetro), cintas pi (que permite obtener el diámetro y la longitud de la circunferencia), etcétera. En selvicultura el AB suele estar referida a unidades de superficie (m2/ha) y es importante conocerla, puesto que es un primer dato para estimar el volumen de madera presente en una masa forestal.

Encontrar una forma sencilla y rápida de obtener el AB por hectárea (la denominada densidad de AB) durante muchos años supuso un quebradero de cabeza para los técnicos forestales. El célebre ingeniero austriaco Walter Bitterlich, tuvo en 1931 una intuición genial que constituiría un gran avance, al darse cuenta de que «el diámetro de un árbol y su distancia a un árbol vecino definían un ángulo medible». Partiendo de esa base, propuso un modelo que consistía en determinar el AB media de los distintos árboles que conformaban el bosque y repartir homogéneamente el espacio.

“a” Gráfico nº 1: Conversión teórica de bosque irregular a bosque regular.

De esta forma el AB total permanece inalterada y la distancia entre árboles (espaciamiento) pasa a ser un valor fijo, que denominaremos “a”.

Gráfico nº 2: Detalle del ángulo básico formado.

Años más tarde, ya en 1948, Bitterlich determinó que la clave para resolver el problema consistía en comparar el AB de un árbol tipo con el área de lo que denominó «círculo marginal». A esta relación se la llamó factor de área basimétrica (FAB ó “K”). El área del círculo marginal (que se muestra en el gráfico nº3) será: F= π. R2 y el AB = f = π. r2 Luego el FAB resulta: k = f / F = (r/R)2.

26

Isagogé, 2 (2005)


Gráfico nº 3: Círculo marginal de una sección transversal.

Como se puede observar, el cociente r/R es igual a sen (α/2), entonces: k = sen2 (α/2). Pasamos este resultado a m2/ha (recordemos que una hectárea = 10.000 m2): k = 104. sen2 (α/2). Por otra parte, Bitterlich estableció que la técnica del muestreo por conteo angular se expresa por la ecuación: G = z . K; donde: G = AB por unidad de superficie, alrededor de un punto. z = Número de árboles contados desde ese punto de acuerdo a ciertas reglas, que explicaremos seguidamente. K = FAB. Imaginemos que nos colocamos en mitad de un bosque y, a 1,30 de altura (recordemos la definición de AB), proyectamos un ángulo constante sobre los árboles de alrededor, abarcando una vuelta completa (360º). Lógicamente podemos encontrarnos tres situaciones distintas: la proyección dicho ángulo sobre los árboles podrá ser mayor, menor o igual a sus diámetros. Contaremos el número de árboles de acuerdo a las siguientes reglas: un árbol tomará el valor de 1 si su diámetro es mayor que el ángulo proyectado, el valor 0 si queda comprendido dentro de la proyección del ángulo y si el ángulo proyectado es tangente al árbol el valor será igual a 0,5 (árboles de borde).

Gráfico nº4: El resultado del conteo en este caso concreto sería: Z = 3 + 0,5 = 3,5

Esta forma de proceder se justifica puesto que para un determinado diámetro di, solo existe una distancia Ri donde se cumpla que: di/Ri = a/b

Gáfico nº 5: Materialización del ángulo crítico. Isagogé, 2 (2005)

27


El AB del árbol que se muestra en el gráfico nº 5 será igual a π/4. di2. Si dentro del círculo marginal de radio Ri encontramos Ni árboles del mismo diámetro, entonces: AB = Ni.π/4. di2 Si el AB la expresamos referida a la superficie del círculo marginal, resulta: π.Ni.Ri2(a/b)2/4.π. Ri2 = Ni (a/b)2/4. Pasamos este resultado a m2/ha: 10.000. Ni.(a/b)2/4 = k. Ni. Si aplicamos el mismo proceder a cada uno de i-diámetros, resulta: Área Basimétrica por ha = K. (N1 + N2 + .. Nn) = k.N = FAB. N Como se puede observar, el resultado de este razonamiento, que no deja a asombrar pasados los años, es un método que permite determinar la densidad de área basimétrica utilizando, por ejemplo, una chapa de metal atada a una cuerda. Posteriormente surgieron complejos aparatos llamados relascopios que permiten, incluso, una corrección de la pendiente. Utilizaremos el ejemplo de las denominadas “chapas calibradas” por su sorprendente simpleza. Imaginemos que contamos con una chapa cuadrada de 6 centímetros de lado atada a un hilo de 50 cm. Para determinar el AB por hectárea de una masa forestal bastaría con colocarnos en el centro de la misma y, a 1,30 de altura, seguir las siguientes instrucciones. Con la mano izquierda sujetamos el extremo del hilo y lo colocamos justo debajo del ojo, mientras que estiramos el brazo derecho tensando el hilo y sujetando la chapa en la mano derecha a la altura del ojo. Dando un giro de 360º sin movernos del sitio vamos contando los árboles, de acuerdo a las reglas descritas anteriormente: un árbol tomará el valor de 1 si su diámetro supera la anchura de la chapa, 0 si es menor y 0,5 si la anchura de la chapa es coincidente con el diámetro del árbol (árboles de borde). Imaginemos que contamos 4 árboles con valor 1 y 2 árboles de borde. Entonces z = 4 + 2.0,5 = 5. Calculemos ahora el Factor de Área Basimétrica. FAB = 10.000.(6/2/50)2 = 36. Luego la densidad de AB será igual a Z.FAB = 180 m2 /ha. Como se puede observar, resulta una forma rápida y precisa de obtener el dato que necesitamos. Un procedimiento sencillo ideado por un hombre genial, posiblemente el forestal más admirado, Bitterlich. Bibliografía: CUADROS TAVIRA, S. (2001): Apuntes de Inventariación Forestal, Escuela Técnica Superior de Ingenieros Agrónomos y Montes de Córdoba (los gráficos nº 2, 3, 4 y 5 proceden del citado trabajo). VV. AA. (1998): Prontuario Forestal, Asociación y Colegio de Ingenieros de Montes de Madrid.

28

Isagogé, 2 (2005)


¿PODEMOS PARAR EL VIENTO? José Luis Santiago del Río Esta provocativa y a su vez inocente pregunta entraña más complicación de la que se pueda pensar a primera vista. Si consideramos detenidamente el viento podemos observar cómo está profundamente ligado a muchas actividades de las que realizamos. Recordamos el sonido de las hojas de los árboles movido por el viento, la brisa marina cuando estamos en zonas costeras, las corrientes de aire que se producen en algunas bocas de metro, el movimiento de los toldos en la terraza de una cafetería cuando se levanta algo de aire, y ya no digamos la importancia que tiene si se es aficionado a actividades como el surf o la vela. También se nos podría ocurrir pensar en fenómenos devastadores como los tornados o huracanes, aunque estas situaciones extremas no van a ser motivo de discusión en este artículo. Al llegar a este punto el lector se interrogará sobre el sentido que tiene la pregunta realizada y los derroteros por los que seguirá el articulo. Tan sólo le pido un poco de paciencia, aunque si no tiene demasiada puede pasar por alto el próximo párrafo donde se describirán las características del aire y su movimiento; pero sepa que le ofrecerá información a la hora de tomar sus propias conclusiones al final del presente trabajo. El aire es un fluido que puede ser caracterizado por propiedades físicas y químicas como la densidad, viscosidad, composición, etcétera, aunque para no aburrir en exceso no vamos a entrar en muchos detalles y vamos a fijarnos en sus propiedades dinámicas, debidas a su movimiento. Cuando una parcela de aire se desplaza dentro de la atmósfera la velocidad instantánea en su movimiento tiene una componente media y otra componente turbulenta. En otras palabras, el viento se comporta como un fluido turbulento. Los fluidos pueden ser divididos en dos clases dependiendo del número de Reynolds (magnitud que relaciona las fuerzas asociadas a movimientos convectivos con las fuerzas viscosas): fluidos laminares y turbulentos. En los laminares se podría decir que el fluido se mueve «ordenadamente» deslizándose las capas adyacentes de fluido de una manera suave, cada capa se desplaza con su propia velocidad y no interacciona con las otras. Sin embargo, los fluidos turbulentos tienen una naturaleza caótica. Una serie de complicados sucesos tienen lugar produciendo que la velocidad, y también el resto de propiedades, varíen de manera aleatoria. Estos efectos pueden ser representados por los típicos movimientos en forma de remolinos. Luego de aquí la dificultad para predecir el comportamiento del viento en casos complejos. Una vez hecho este inciso volvamos a la pregunta inicial: ¿podemos parar el viento? El lector se sentirá todavía perdido, ya que la pregunta por sí sola aún no tiene sentido, así que vamos a continuar dándole un contexto a la misma. Existen situaciones en las que se hace necesario controlar la velocidad del viento. Por ejemplo supongamos la construcción de un complejo de edificios o de una estación de metro. Si se realizan sin tener en cuenta las posibles circulaciones de aire que se puedan producir a su alrededor, puede darse el caso de que, en determinadas zonas, se originen corrientes intensas de aire debido a la propia aerodinámica de la construcción, afectando al peatón que circula por allí. Luego, en este caso, no parar el viento, pero sí controlarlo, dirigirlo de manera adecuada beneficia al confort de los peatones, tema que ha sido y aún sigue investigándose. Centrémonos en una situación en la que quisiéramos «parar» el viento, al menos en una zona determinada. Propongamos un problema.

Isagogé, 2 (2005)

29


Imaginemos un puerto donde llegan numerosos barcos llenos de mercancías como puede ser, por ejemplo, carbón. Estos barcos serían descargados dentro del puerto y la mercancía almacenada en este entorno. Normalmente dicho almacenamiento se realiza al aire libre, el carbón es almacenado en apilamientos sobre el suelo (parvas) que se encuentran expuestos a las inclemencias meteorológicas. En esta situación ¿qué es lo que sucede? El viento incide sobre las parvas de manera que las erosiona generando una emisión de polvo que, cuando la velocidad del viento es grande, no es nada despreciable. Estas emisiones se pueden convertir en un problema medioambiental y por lo tanto deben ser reducidas tanto como sea posible. En este momento la cuestión expuesta en el título aplicada a este problema se la trasladaría al lector: ¿podemos parar el viento para evitar las emisiones? o al menos ¿cómo cambiar sus características para reducirlas? Antes de seguir leyendo le propondría al lector que reflexionara un poco e intentara averiguar la respuesta. La solución, a continuación. Claro que una opción válida es evitar los apilamientos al aire libre y construir una especie de edificio de almacenamiento, pero esto no es viable, ya que las descargas de material se suelen realizar por medio de maquinas con grandes palas que depositan el material en el suelo y esto no se podría hacer en un edificio. Una de las soluciones a la que supongo que habrán llegado bastantes lectores será la colocación de un valla o barrera delante de la parva de manera que evite la llegada del viento y reduzca así las emisiones. Y si es así no van muy desencaminados. Pero, ¿cómo sería esta barrera? Supongo que se piensa en una barrera sólida que «aguante» bien al viento. Pero, en este caso, la intuición nos juega una mala pasada. La barrera sólida genera mucha turbulencia tras de sí, por lo que en realidad sólo protege de manera efectiva en una pequeña zona detrás de ella. Al chocar el viento en ella se produce una brusca variación en la velocidad del viento, generando un vórtice o remolino tras de sí y siendo éste el que arrastra el polvo de las parvas. Luego lo que se hace en este tipo de situaciones es colocar barreras porosas, es decir, barreras con partes que dejen pasar el aire. Aunque parezca un tema bastante simple, la literatura científica es rica en este tipo de estudios. Estas investigaciones van desde experimentos en túneles de viento hasta mediciones en campo donde se coloca la barrera y distintos sistemas de muestreo, pasando por las simulaciones numéricas. Diversos trabajos han mostrado cómo una porosidad (entendida la porosidad como la relación entre el área de los huecos frente la total) óptima para la barrera un valor entre 30 y 40%. Con esta porosidad lo que ocurre es que parte del viento pasa a través de la barrera, quedando reducida su velocidad, no generando una alta turbulencia y creando de esta manera una zona de protección mucho mayor que en el caso de una barrera sólida. Además se estima que para porosidades mayores de un 30% no se genera ninguna burbuja de recirculación detrás de la barrera. En caso de tener una valla con mayor porosidad lo que sucedería es que no reduciríamos tanto la velocidad de viento y por tanto la zona de protección sería menor. Este tipo de barreras cortavientos es también muy utilizado para fines agrícolas, ya que con ellas se protegen los cultivos de los efectos del viento sobre las cosechas. Otro dato interesante sobre los tipos de barreras empleadas es el hecho que, en ocasiones, en lugar de colocar vallas hechas por el hombre se utilizan árboles, ya que una secuencia de ellos forman una valla porosa que deja pasar el viento entre sus ramas y cuya porosidad depende de la densidad de ramas y tipo de hojas, proporcionando una mejor visión y un paisaje más ecológico. Como conclusión final podemos destacar cómo un problema aparentemente simple debe ser estudiado en detalle y no dejarnos llevar por la intuición. Además hemos observado que para este caso no podemos «parar» viento, pero modificando sus características podemos crear zonas de protección de amplia extensión tras la valla.

30

Isagogé, 2 (2005)


SOBRE EL CONTENIDO Y LA FORMA (REFLEXIONES SOBRE LA HISTORIA NATURAL DE LOS BIOSISTEMAS) José Martínez García-Gil Recógete, pues, en ti mismo tanto cuanto puedas; busca a aquellos que puedan hacerte mejor, y recibe también a aquellos a quienes puedas tú mejorar. Esto es recíproco: los hombres aprenden cuando enseñan… —¿Para quién he aprendido todo esto? — No temas haber perdido el tiempo: lo has aprendido para ti. L. A. Séneca (4 a. C. - 65 d. C.), Cartas a Lucilio

En el amanecer de este nuevo siglo, la biología mantiene abiertas sus dos cuestiones centrales, a saber: qué es la vida, lo que vale decir el problema ontológico; y cómo se manifiesta o despliega, esto es, el problema fenomenológico. Aún no se dispone de una definición canónica de la vida (y es plausible que no la tengamos). Hay autores que centran la atención en la combinación de un conjunto singular de sustancias de naturaleza química. Para otros, el interés radica en la visión de un sistema, altamente ordenado y complejo, que procesa la información. E incluso todavía persisten quienes se interesan sólo en la estructura celular sin más. Empero, casi todos coinciden en el hecho de que la transición de lo inerte a lo vivo es un continuum. Pero hagamos algo de memoria, o de historia si se prefiere. Se conoce la localización interestelar de la nucleosíntesis de los elementos biogénicos —C, H, O2, N2, S y P—. A estos, hay que agregar otros iones metálicos — Mg, Fe, Zn— que forman parte de pigmentos esenciales (clorofilas y citocromos) y numerosas enzimas. En consecuencia, la historia se remonta a miles de millones de años, para llegar a la protoformación celular. Los procesos tectónicos, metamórficos y erosivos borraron los vestigios de las primeras manifestaciones vitales. ¿Se pueden reconstruir las presumibles condiciones de su aparición? La primera prueba empírica data de 1952, en el laboratorio de Harold Clayton Urey. Dentro del programa de investigación sobre el origen del sistema solar, Urey supuso que la atmósfera primitiva de la Tierra era rica en H2, esto es, era reductora. En 1953, el alumno Stanley Miller obtuvo la primera síntesis prebiótica de un aminoácido en un experimento diseñado para simular la atmósfera reductora formada por CH4, NH3, H2O y H2. Y en 1960, el español Juan Oró, autoridad en Química Prebiótica, logró la síntesis abiótica de la base adenina. El emergente planeta azul carecía de enzimas, energía para que las células fabricaran polímeros por adición de monómeros y la imposibilidad de ceder H2O al océano primitivo. Esta aparente barrera insalvable se cree que se superó realizando el ensamblaje sobre partículas de arcilla sedimentadas en los márgenes de lagunas. Un hito posterior decisivo significó la síntesis de moléculas que portan información, esto es, un gen. Hasta hoy, el mensaje de la vida viene cifrado en moléculas de DNA, se transcribe en otras de RNA y se sintetizan proteínas y enzimas. Pero este esquema tan fino debió elaborarse más tardíamente y no en los comienzos de la vida. Además, se sabe que el DNA es progenie evolutiva de polímeros de RNA establecidos anteriormente. Esto equivale a decir que existió un mundo previo de RNA en el que este ácido era, a la vez, el único medio informacional y mediaba la catálisis de su propia replicación. Isagogé, 2 (2005)

31


Pero el RNA no pudo realizar sus funciones sobre una tierra pobre en ribosa, uno de sus constituyentes principales. En consecuencia, el sistema de RNA partió de una forma macromolecular anterior que se ignora. De todas maneras, todo biosistema se caracteriza, entre otras, por dos propiedades: su capacidad de evolución adaptativa y su capacidad de reproducción. Todo se basaría en la química carbónica. Análogo al carbono es el silicio. Pero si la vida se basara en la química silícica, el proceso produciría óxido de sílice (SiO2) cristalino, que se acumularía en lugar de desprenderse a la atmósfera, anulando así cualquier ciclo biológico. El registro fósil sólo atestigua que la vida microbiana existe desde hace 3.500 millones de años, evolucionando desde entonces. En el despliegue inicial, el núcleo celular fue fundamental porque abrió paso a la gran diversidad multicelular. La cuestión de la nucleogénesis está ligada a la cuestión del origen del hombre. En las bacterias, el DNA, el RNA y las proteínas operan dentro de la célula. Pero la doble membrana nuclear de las células eucariotas desacopló los procesos de transcripción y traducción, complejizando más el proceso. En los años setenta del siglo pasado, Carl Woese descubrió que las «bacterias» constituían dos reinos: las bacterias propiamente dichas y las arqueas, que habrían surgido de los eucariotas. Al principio, se pensó que las arqueas eran más parecidas a los eucariotas que a las bacterias. Pero la reciente secuenciación de diversos genomas microbianos indica que los eucariotas contienen genes de arqueas y de bacterias. Los primeros son responsables de los procesos relacionados con la información, en los que intervienen los ácidos nucleicos, mientras que los genes bacterianos se harían cargo de procesos asociados al metabolismo o recambio y la subsistencia. Así, este compromiso simbiótico entre arqueas y bacterias habría dado origen a los eucariotas. Para otros científicos, los eucariotas estaban ya antes de las arqueas y las bacterias, o, al menos, emergieron a la vez. Para mantener esta hipótesis, se basan en la existencia de los planctomicetes, un grupo de bacterias que tienen lo más parecido a un núcleo. Estos hipotéticos antecesores de los eucariotas tienen finas membranas internas que engloban compartimentos, sobre todo los ejemplares de Gemmata obscuriglobus y de Pirellula marina. En uno de esos compartimentos está el material genético mezclado con proteínas procesadoras de DNA y RNA. Según estos autores, no habría existido una nucleogénesis simbiótica. Pero más virulentos se manifiestan los partidarios del origen vírico del núcleo. Según estos, los virus precedieron a la divergencia de los tres dominios vitales. Básicamente, los virus son paquetes de DNA envueltos por una cubierta proteica y, a veces, por una membrana. Ya estaban en la sopa primordial y después se harían dependientes de las células para sobrevivir. De esta forma, las células pudieron adquirir un genoma vírico completo en cualquier momento. Comoquiera que fuera el origen de los eucariotas, la vida sufrió cambios profundos hace 500 millones de años. En tan sólo diez millones de años, las especies marinas adquirieron un gran repertorio de formas y adaptaciones, surgiendo la mayoría de los grandes linajes animales actuales, incluidos los vertebrados. Cada linaje o Phylum corresponde a un plan de organización particular. A ese repertorio se le conoce como «explosión del Cámbrico», aunque a esta expresión le ocurre como al topónimo Puertollano (Ciudad Real): ni fue una explosión ni sucedió en el período Cámbrico. La metáfora se fundamenta en que los fósiles aparecieron en rocas cámbricas, que datan de hace 520 millones de años y que alojan representantes de los grandes grupos animales. Pero la velocidad de cambio calculada en las secuencias proteínicas y de DNA para esos fósiles establece las divergencias de los grandes grupos en un tiempo anterior al 32

Isagogé, 2 (2005)


Cámbrico. Desde entonces, la evolución de los metazoos no ha hecho más que ir hacia cambios progredientes en el tiempo. En los planos corporales de los phyla se puede observar la combinación cuasi perfecta de forma y función. No se queda atrás la gran diversificación de estructuras y tipos, avalada por la selección natural, y que son un ejemplo de la elegante sencillez de los diseños básicos. Todo ello por mor de un triplete de aspectos metodológicos: en primer lugar, el refinamiento de técnicas moleculares de reconstrucción filogenética, que complementan las observaciones tradicionales morfológicas y aportan datos fiables para reconstruir el parentesco entre metazoos. Phyla considerados antes cercanos en su parentesco constituyen linajes muy distantes. En segundo lugar, se ha progresado en el descubrimiento, descripción y hermenéutica de los primeros metazoos fósiles. Así, se sabe que la mayoría de los phyla emergieron en una fracción temporal estrecha, la de la explosión del Cámbrico. El tercer avance remite a la genética del desarrollo, que nos permite comprender las bases moleculares de los planos corporales. Existen series similares de genes reguladores que controlan patrones de expresión con arquitecturas muy distintas (nematodos, insectos y mamíferos, por ejemplo). Esos genes reguladores apenas si han cambiado en el curso evolutivo 1 . Los fundamentos actuales de la clasificación los estableció, en el amanecer del siglo XIX, el francés Georges Cuvier, con la identificación morfológica de sus cuatro embranchements fundamentales: Vertebrados, Moluscos, Articulados (anélidos y artrópodos) y Zoófitos (equinodermos, cnidarios y todo lo demás). Karl von Baer encontró que la tal tetrapartición se podía reconocer con los criterios de desarrollo. En la segunda mitad del mismo siglo, Ernst Haeckel introdujo el término Phylum para designar una división principal del reino Animalia. Para determinar la estructura dendriforme de la clasificación jerárquica se echa mano del cladismo. En los árboles filogenéticos resultantes, la posición de una especie (o de otro taxón) depende de sus antepasados y descendientes, y no de la morfología per se. Sólo los clados que incluyen todos los descendientes del clado ancestro son taxones genuinos. Los hitos identificables de un dendrograma son los nodos o puntos de ramificación. En este aspecto, no hay que confundir homologías con analogías 2 . Cuando estudiamos el hombre, el origen de la vida y de sus formas, pasa a ser el origen de una vida y el desarrollo del embrión. Bajo esta visión subyace una dialéctica opuesta sobre el momento inicial de una vida y su ulterior desenvolvimiento. Se trata de la pugna preformacionistas vs. epigenistas. Para los primeros, el hombre ya está en el instante de la concepción, mientras que para los segundos la individualidad se adquiere gradualmente, en fases funcionales distintas. Al bando preformacionista perteneció Nicholas Malebranche, con su idea del emboitement. Los seguidores se dividieron en animalculistas (la forma reside en el esperma y se transmite a través del mismo) y ovistas (la contribución femenina aportaba la forma por medio del óvulo). Los rudimentarios primeros microscopios avalaron esta tesis, con la supuesta observación de homúnculos en los espermatozoides. El mejor embriólogo del siglo XVII, Marcello Malpighi, ideó una ingeniosa técnica para ir eliminando el material nutritivo del huevo de ave y percibir así partes sutiles del mismo; creyó que el embrión se formaba en el 1

Véase nuestro trabajo «La evolución de la ontogenia», Isagogé, 0 (2003), pp. 15-18. Se denominan «homólogos» los rasgos similares en organismos o taxones distintos que han evolucionado a partir de un mismo rango ancestral y su semejanza se debe a la herencia común (extremidades anteriores de perros y lagartos, por ejemplo). «Análogos» son los rasgos similares que cumplen una función similar (alas de aves y murciélagos) aunque no partieron de un rasgo ancestral común, sino que lo han adquirido de forma independiente.

2

Isagogé, 2 (2005)

33


momento de la fecundación. La postura epigenética empieza con Aristóteles en el siglo IV a. C. No en vano, el estagirita formuló la primera interpretación gradualista del comienzo de la vida. La generación implica, por definición, un cambio en el tiempo; en el caso de la generación humana, el proceso mezcla los «fluidos seminales» del padre y de la madre. La mujer aporta con el flujo menstrual la causa material, auténtica masa a partir de la que se forma el feto, ya que el varón sólo induce el estímulo para su desarrollo dinámico posterior. No existe en un comienzo el individuo in toto, sino que cada parte da origen a otras partes, en un proceso teleológico para convertir en acto lo potencial. La visión epigenética de Aristóteles se integra, si bien con matices, en el pensamiento medieval. Los siglos XVI y XVII trajeron vientos de entusiasmo por el estudio empírico de la naturaleza viva. Andrés Vesalio inicia la gran aventura de la disección anatómica. Al no poder intervenirse en el sujeto, lo observado en los animales era objeto de conjetura de lo que sucedía en el cuerpo humano, todo ello complementado con el conocimiento adquirido en el examen de los abortos y de especimenes teratológicos. William Harvey estudió la generación de los animales. Para escribir sus Exercitationes de generatione animalium, en 1615, disecó ciervas tras la copulación y examinó huevos de pollo incubados. No observó ni semen femenino ni mezcla de fluidos seminales. Del primordium descubierto en la cierva preñada (el saco amniótico) y del huevo empollado emergían gradualmente los distintos órganos. Creía que había una fuerza formativa vital que guiaba ese paulatino desarrollo. Empero, no todos los epigenistas del XVII fueron vitalistas: René Descartes y Pierre Gassendi formularon mecanismos materialistas. En el XVIII, se enfrentaron el epigenético Caspar Friedrich Wolff y el preformacionista Charles Bonnet, a quien también ayudó Albrecht von Haller. Los métodos mejoraron con el proceso de fijación de las muestras diseñado por Mauro Rusconi: los huevos hervidos en diferentes fases del desarrollo retenían el despliegue embrionario. Pero el hito decisivo llegó con la Teoría Celular y la mejora de las técnicas microscopistas en el primer tercio del XIX. En 1834, von Baer describe los estadios incoactivos del desarrollo del huevo de rana: se producía un surco, somero al principio y luego profundo, dividiendo el huevo en dos partes, luego en cuatro,… Von Baer consideró así refutado el preformacionismo. Mediados el siglo XIX, la teoría celular culminó con los trabajos de Robert Remak y Rudolf Virchow: las células, que se dividían por partición, procedían sólo de otras células. George Newport describe el tránsito de los espermatozoides a través de la cubierta gelatinosa de la membrana vitelina que rodea al huevo de la rana. Los subsiguientes pasos son datos que ya pertenecen a los manuales al uso. Los últimos cincuenta años han avanzado de la mano de la genética molecular. Si en 1953 se descubre la estructura helicoidal del DNA, veinte años después se sabe aislar una enzima de restricción que podía cortar segmentos del DNA por determinadas zonas. Se saben aislar ligasas, enzimas que engarzan porciones segmentadas. Así, la técnica del DNA recombinante, también llamada Ingeniería Genética, arrojaba el pañuelo a la cara de la noción de vida. Si la vida de un individuo se define en función del material heredado y se expresa a través del desarrollo embrionario, entonces ¿habría que cambiar la definición cuando se recombina el DNA? ¿Se redefine la vida o se rediseña? ¿Qué es la vida?, ¿qué es una vida? El problema del desarrollo puede plantearse, entonces, desde una perspectiva holística y no tan sólo por la acción y regulación génica. En efecto, entre el genoma secuenciado y el desarrollo de un organismo existe una gran fractura. De otra forma, los genomas, no tienen razón de ser 34

Isagogé, 2 (2005)


fuera de los organismos complejos de los que forman parte, carecen de ontología, ya que los genes no operan solos en el contexto de un desarrollo. Si bien el genoma heredado inicia y dirige el desarrollo, en éste hay más que la mera activación génica. Esta idea va contra el llamado «consenso interaccionista», según el cual genes y entorno interactúan en la generación y explicación de los caracteres del organismo. Desde una perspectiva epistémica, el explanandum es el desarrollo planteado dentro del contexto de la genómica. El problema central de la Embriología, a saber, cómo un organismo complejo emerge de una sola célula homogénea, no se resuelve sólo con los genes. La interpretación de la acción y la activación se limita a dar cuenta del papel de los genes en el desarrollo, pero no aborda el problema del mismo. La compresión del desarrollo como despliegue se torna condición sine qua non para aprehender la evolución. El organismo constituye la unidad básica del desarrollo, pero esto y muchas ideas más quedarán en el tintero electrónico para futuras reflexiones. AGRADECIMIENTOS A los doctores don Severo Ochoa (1905-1993), en el centenario de su nacimiento, y don Juan Oró (1923-2004), in memoriam. A los miembros del departamento de Histología de la Facultad de Medicina de la UCO, por enseñarme que debajo de cada tejido existe una persona que no podemos valorar con el microscopio sino con los ojos del corazón. A doña Emilia Lachica del departamento de Medicina Legal y Forense de la UCO, que al tratarme a su altura, no hizo sino engrandecer más su dimensión humana. A todos, a quienes busqué e intentaron mejorarme. BIBLIOGRAFÍA MONOD, J. (2001): El azar y la necesidad, Tusquets. ROBERT, J. S. (2004): Embriology, Epigenesis and Evolution, CUP. SCHOPF, J. W. (dir.) (2002): Life´s Origin. The Beginings of Biological Evolution, University of California Press. Pueden dirigir las dudas, sugerencias y comentarios a h12magaf@uco.es

Isagogé, 2 (2005)

35


LA RECUPERACIÓN DE LAS OBRAS ESCÉPTICAS EN EL RENACIMIENTO Manuel Bermúdez Vázquez Lo primero que tenemos que analizar para comprender los nuevos bríos de la escepsi es la situación de las obras escépticas en el Renacimiento. En el vastísimo programa humanístico el escepticismo antiguo también tuvo su cabida y fue objeto de importante atención. Las tres obras principales que permitieron este aumento de interés fueron las Vidas de Diógenes Laercio, Academica de Cicerón e Hipotiposis Pirrónicas de Sexto Empírico, obras que tuvieron cierta difusión en ambientes intelectuales y humanísticos. La importancia de esta difusión, así como el papel que jugó en el conocimiento de la escepsi es lo que en las últimas décadas los investigadores están tratando de dilucidar y sobre lo que no se pone de acuerdo la comunidad académica. De hecho existen grandes desacuerdos para precisar la significación que pudo haber tenido el escepticismo en el desarrollo de la filosofía, la teología, la literatura e incluso la ciencia en este periodo del Renacimiento. La mayoría de los investigadores sí está de acuerdo en que la recuperación y asimilación de las enseñanzas escépticas en el Renacimiento es de gran importancia. Fundamentalmente nos detendremos en dos de las tres obras principales arriba mencionadas: las Vidas de Diógenes Laercio y, sobre todo, Hipotiposis Pirrónicas de Sexto Empírico. El hecho de dejar a un lado de nuestro análisis la obra de Cicerón responde a dos variadas e importantes razones. La primera es que el escepticismo que transmiten las líneas de Cicerón se corresponde con la vertiente escéptica conocida como escepticismo académico, muy distinto del escepticismo pirrónico que es el que aquí más nos preocupa. Este carácter de apología de la nueva academia que tiene la obra de Cicerón lo aleja de la intención de este estudio, que es determinar hasta qué punto el escepticismo pirrónico fue recuperado en el Renacimiento. La segunda razón para no detenernos en Academica de Cicerón, es que esta obra y todo el conjunto de elementos escépticos que aparecen en Cicerón ya han sido estudiados exhaustivamente por otros investigadores 1 . Una vez explicados los motivos que nos mueven a centrarnos en estas dos obras pasamos a realizar el análisis de su situación en el Renacimiento. La obra de Diógenes Laercio, incluyendo la más importante para nuestro estudio como es Vita Pyrrhonis, es traducida al latín por Ambrosio Traversari alrededor de 1430 2 , como vemos una fecha muy temprana del Renacimiento. Esta obra circuló en forma de manuscrito hasta las primeras ediciones impresas de 1472 (Roma) y 1475 (Venecia) 3 Debemos destacar aquí la importancia de la figura de Traversari para la interpretación de Diógenes Laercio, autor clave éste no sólo como recopilador de información de numerosos filósofos antiguos, sino también como elemento clave para la recuperación escéptica. Parece ser que el término latino scepticus aparece por primera vez en la traducción latina de Diógenes de 1430. Los dos manuscritos medievales de Sexto Empírico, escritos en latín, que contenían también la palabra, fueron de escasa, por no decir nula, influencia. Scepticus y otros derivados no fueron utilizados en la Edad Media y sólo gradualmente fueron adquiriendo un mayor uso durante el siglo XV. En los primeros años del siglo XVI es una palabra común. Por ejemplo Lutero atacó a Erasmo

1

Para ello es fundamental el estudio de CH. B. SCHMITT (1972): Cicero scepticus, Martinus Nijhoff. Esta obra abarca toda la evolución que sufrió la obra de carácter escéptico de Cicerón. Además hay aportaciones recientes muy importantes, como por ejemplo C. NEDERMAN (1998): «Toleration, skepticism, and the clash of ideas: Principles of liberty in the work of John of Salisbury», en Beyond the persecuting society, University of Pennsylvania Press, pp. 53-70. 2 E. GARIN (1959): «La prima traduzione latina di Diogene Laercio», Giornale critico della filosofia italiana, 38, pp. 283-285. 3 E. GARIN (1983): Il ritorno dei filosofi antichi, Bibliopolis, pp. 59 y ss.

36

Isagogé, 2 (2005)


con su «Sanctus Spiritus non est scepticus» 4 . En los últimos años del siglo XVI parece que la palabra scepticus ya está firmemente establecida en el vocabulario. Es curioso también que las pocas menciones escépticas que aparecen en la literatura del siglo XVI parecen basarse sobre todo en Diógenes Laercio. La obra de Diógenes Laercio fue ampliamente conocida después de esta primera traducción de Traversari. La prueba de ello son los setenta y cinco manuscritos que Schmitt ha encontrado, aunque reconoce que su investigación en este asunto concreto no ha sido del todo completa. Hay siete ediciones incunables de la traducción de Traversari y diez ediciones de la traducción italiana, además de numerosas ediciones del texto griego en el siglo XVI (la editio princeps es de 1533) y traducciones en latín 5 . En nuestra opinión, el papel de la obra de Laercio en el Renacimiento fue importante. El material de Diógenes Laercio, en lo referente al escepticismo, fue usado mientras no se dispuso de otras fuentes, como Cicerón o Sexto Empírico, y su disponibilidad en una etapa tan temprana del Renacimiento, como hemos visto, hizo que se convirtiera en una obra de importancia y muy consultada. El autor más importante y el que ofreció la mayor fuente del escepticismo antiguo es, sin lugar a dudas, Sexto Empírico 6 . La verdadera clave para el desarrollo del escepticismo tanto en el Renacimiento como en los siglos posteriores está en la recuperación de los textos del Empírico. La agudeza de sus argumentos y el empleo de los «tropos» alcanzan con Sexto sus cotas más elevadas y permiten disponer de una fenomenal arma para la batalla intelectual que se desarrollará entre católicos y protestantes. Sin embargo, una parte de los investigadores actuales no se pone de acuerdo sobre la originalidad del Empírico 7 . Aunque este autor fue prácticamente desconocido en Occidente durante la Edad Media y también carecía de relevancia aparentemente para judíos y musulmanes, la obra de Sexto era bien conocida y trabajada por los escritores griegos del Imperio Bizantino. Sin embargo no corresponde a este estudio realizar el análisis de los avatares de la obra escéptica durante la Edad Media. La historiografía de la obra de Sexto, antes aún de ocuparse del problema de la individualización de las fuentes y de la relación entre Sexto y la tradición escéptica 8 , ha suministrado algunos materiales documentales aptos para demostrar la existencia de compilaciones y códices latinos de las Hipotiposis Pirrónicas y, parcialmente, del Adversus mathematicos —las principales obras de Sexto Empírico—, que se remontaban al medioevo europeo y que fueron traducidos con la base de las respectivas copias griegas que luego desaparecieron 9 . Sin embargo, como defendemos a lo largo del presente estudio, la existencia de estos códices no testimoniaría de hecho la influencia de la scepsi antigua en la tradición del pensamiento medieval occidental. El hecho es que parece que hay constancia de la circulación de parte del corpus de Sexto Empírico en traducción latina desde los inicios del siglo XIV, si bien todavía se duda sobre la consistencia real y la difusión de esas traducciones, que probablemente tuvieron un número exiguo de lectores. Estos códices de los que nos ocupamos has sido atribuidos, si bien de manera un tanto discorde, a Nicolás de Reggio, un conocido 4

Lutero, De servo arbitrio, 1525, recogida en (1883): Werke, Kritische Gesamtausgabe, Weimar, vol. 18, p. 605, citado por M. DI LORETO (1995): «La fortuna di Sesto Empirico tra Cinque e Seicento», Elenchos, anno XVI, fascicolo 2, p. 333. 5 CH. B. SCHMITT (1972): «The Recovery of Ancient Scepticism in the Renaissance», Rivista critica di storia della filosofia, 27, p. 376. 6 Una obra fundamental y reciente que hay que tomar en consideración por su rigurosidad es la de L. FLORIDI (2002): Sextus Empiricus: the Transmission and Recovery of Pyrronism, Oxford Univ. Press. 7 El inicio de esta polémica pudo estar en unas líneas que Popkin introdujo en la edición de 1979 de Historia del escepticismo desde Erasmo hasta Spinoza, donde declaraba que la obra de Sexto distaba de ser original. Sin embargo los mayores investigadores de Sexto de nuestros días declaran la importancia de las aportaciones propias del Empírico, entre otros tenemos a John Christian Laursen con su The politics of Skepticism (1992), Richard Bett en su obra Pyrrho, his antecedents and his legacy (2000), Emidio Spinelli en la edición de Contra Ethicos (1995) y Contra Astrologos (2000) y David Blank en su edición de Contra Grammaticos (1997) 8 A. M. IOPPOLO (1992): «Sesto Empirico e l´Accademia scettica», Elenchos, XIII, pp. 169-200. 9 W. CAVINI (1977): «Appunti sulla prima diffusione delle opere di Sesto Empirico», Medioevo, III, pp. 1-20. Isagogé, 2 (2005)

37


traductor de la obra de Galeno, el texto latino en objeto —del que se dice que no hay prueba alguna que pueda demostrar que, a parte del traductor, lo leyera realmente alguien— se encuentra en tres ejemplares, custodiados en las Bibliotecas Nacionales de París (Lat. 14, 700, ff. 83-132), Venecia (Lat. X 267/3960) y Madrid (10, 112, ff. 1-30) 10 . Hemos dicho que esta traducción es atribuida de una forma discorde porque los investigadores no se ponen de acuerdo, si bien existe una pequeña mayoría que se inclina por Nicolás de Reggio encabezados por Schmitt y Cavini; en oposición a éstos se encuentra Popkin, quien atribuye la traducción a Petrus de Montagnana 11 . En cuanto a la difusión de los escritos de Sexto Empírico en el Renacimiento, que es cuando se producen los eventos más importantes para la difusión de los códices y de las traducciones latinas de Sexto, los primeros códices griegos de su obra circularon por Italia en los ambientes humanísticos del siglo XV: Francesco Filelfo poseía uno que en 1441 prestó a Giovanni Aurispa 12 . El dato fue descubierto por Schmitt que encontró una carta del humanista Filelfo a su amigo Aurispa 13 datada el 11 de junio de 1441. Las lecturas de la obra de Sexto por parte de Filelfo son fácilmente constatables mediante las abundantes paráfrasis, explicaciones e interpretaciones explícitas de los escritos del Empírico que aparecen en algunas de las obras del italiano. Por otro lado, el nombre de Sexto Empírico no aparece en la lista de libros recogidos durante el largo viaje a Constantinopla (1420-1427) que Filelfo había proporcionado a Ambrosio Traversari 14 . Este particular desmiente la hipótesis de un retorno de la principal fuente escéptica a Occidente directamente desde Grecia y convierte en más probable la conclusión alcanzada entre otros por Sabbadini 15 y Mutschmann 16 , la cual considera que la adquisición de los escritos de Sexto por parte de Filelfo fue posterior a su regreso a Italia, lo que permite también respetar el papel determinante desarrollado por él en la recuperación humanística de los textos griegos. Frente a estos investigadores tenemos la opinión de Schmitt 17 quien sí sostiene la recuperación en Grecia de los textos de Sexto. Las referencias de Sexto que antes hemos mencionado fueron luego incluidas por Filelfo en su obra Commentationes Florentinae de exilio, donde también aparecen incluso algunos fragmentos traducidos del libro Adversus ethicos (Adv. Math. XI) 18 , y dos breves testimonios relativos al filósofo estoico Crisipo junto con algunos versos de Timón de Fliunte. En realidad, con una lectura atenta la presencia de Sexto Empírico en la obra de Filelfo resulta mucho más consistente, a esto hay que añadir la presencia en el texto de largos fragmentos traducidos al latín. Por ejemplo, los mismos fragmentos dedicados a Crisipo encuentran su colocación en el libro I de las Commentationes en el ámbito de una argumentación construida en torno al tema de la variedad de las costumbres de los antiguos, cuyas ejemplificaciones provienen todas de Sexto 19 . Una de las principales conclusiones que podemos alcanzar respecto al papel de Filelfo en la recuperación escéptica es que el italiano tenía una familiaridad indiscutible con el último de los libros del Adversus mathematicos de Sexto, ello está documentado por la traducción en las Commentationes de cerca de un cuarto del libro completo del Empírico. Pero también podemos destacar como conclusión que Filelfo no presenta una lectura doxográfica de los textos 10

M. DI LORETO (1995): «La fortuna di Sesto Empirico tra Cinque e Seicento», Elenchos, Anno XVI, pp. 331-374. 11 R. POPKIN (1983): Historia del escepticismo desde Erasmo hasta Spinoza, Oxford University Press, p. 17, nota 3. 12 Véase G. M. CAO (1995): «Nota sul ricupero umanistico di Sesto Empírico», Rinascimento, XXXV, p. 321. 13 CH. B. SCHMITT (1976): «An unstudied Translation of Sextus Empiricus», en C. H. CLOUGH (ed.): Cultural Aspects of the Italian Renaissance: Essays in Honour of P.O. Kristeller, Zambelli, pp. 245-246. 14 G. M. CAO (1995), pp. 319-325. 15 R. SABBADINI (1967): Le scoperte dei codici latini e greci ne´ secoli XIV e XV, Sansoni, p. 48. 16 H. MUTSCHMANN (1909): «Die Überlieferung der Schriften des Sextus Empiricus», Rheinisches Museum für Philologie, 64, pp. 244-283, citado en G. M. CAO (1995), p. 319. 17 Cfr. CH. B. SCHMITT (1972) 18 G. M. CAO (1995), p. 322. 19 Idem.

38

Isagogé, 2 (2005)


escépticos, sino más bien orientada a la ostentación y colección de textos y opiniones extrañas, quizá atraído por el tecnicismo que emana de las páginas de Sexto Empírico. En general, el interés que durante el siglo XV se tuvo por la obra del escéptico fue más histórico-filológico que filosófico. Copias de la obra de Sexto también existían en las bibliotecas del Papa Sixto IV y de la familia Médicis. Además de esto hubo dos traducciones parciales hechas en Italia en el siglo XV y sabemos que Savonarola fue partidario de tener una traducción 20 . Todo esto no quiere decir que estas obras tuvieran mucha influencia entre los intelectuales del Quattrocento italiano, pero sí indica que Sexto Empírico era mejor conocido en este siglo que en el pasado. Parece ser que también Giovanni Pico poseía una copia del Adversus Mathematicos y sin duda Angelo Poliziano, humanista italiano preceptor de los hijos de Lorenzo de Médicis y uno de los primeros en ocuparse de la clasificación de manuscritos, conocía profundamente la obra de Sexto Empírico al que debió de leer profusamente 21 . El primero en tomar serio interés por la crítica destructiva que contenía la obra de Sexto parece haber sido Gianfrancesco Pico della Mirándola (1469-1533), sobrino del conocido Giovanni Pico, autor éste de las 900 tesis y humanista de vastísimos conocimientos. La importancia de este pensador, Gianfracesco Pico, para el escepticismo es muy grande y sigue llamando la atención su inusual carácter y sus intereses y actividades, estudiados a fondo por Schmitt en su obra Gianfrancesco Pico della Mirándola (1469-1533) and his critique of Aristotle, La Haya, 1967. Parece ser que con la obra de Sexto Empírico no ocurrió como con la de Diógenes Laercio, no se realizó ninguna nueva traducción latina completa de su obra, sólo una traducción parcial del Adversus Mathematicos I-IV, manuscrita, que se llevó a cabo en la biblioteca Vaticana a cargo de Giovanni Lorenzi en 1485 22 . No hay constancia de ninguna edición impresa, ya en griego, ya en latín, de Sexto Empírico antes de la conocida edición latina de las Hipotyposeis a cargo de Henricus Staphanus (o Henri Estienne) en París en 1562. Este año supuso un impulso decisivo para la obra de Sexto. La escasa difusión anterior de la obra del Empírico nos permite conocer con certeza que el verdadero comienzo de la influencia escéptica tiene como eje el año 1562. Antes, como hemos visto, sólo se sabe de unos cuantos lectores de sus obras. Esta edición es el evento más importante que popularizó las ideas escépticas encontradas en Sexto Empírico. Este fue el momento crucial en el desarrollo del escepticismo moderno en el Renacimiento. Desde entonces el trabajo más importante del escepticismo antiguo estaba disponible por primera vez. Estienne ofrece una serie de razones por las cuales ha realizado esta edición que va dedicada a Henri Memmius. Explica cómo llegó a descubrir a Sexto durante un periodo de convalecencia tras una grave enfermedad rebuscando en una colección de manuscritos de su biblioteca. En las cartas dedicatorias se revela la función fuertemente apologética conferida por los autores a los textos escépticos editados, capaces, a un tiempo, de combatir la audacia racionalista de los filósofos dogmáticos y heréticos, además de confirmar el papel de la fe en la revelación divina como la única disciplina útil para la salvación del alma. Estienne, dirigiéndose a Memmius, destacaba el carácter providencial del encuentro del manuscrito griego en su biblioteca. La metamorfosis que siguió a la lectura y a la traducción de las Hipotiposis, generó en Henri Estienne un gran «odio» por el estudio desmedido de los dogmáticos llevado a cabo hasta entonces y le proporcionó un fenomenal instrumento para combatir la impiedad de aquellos mismos filósofos 23 . La /έπoχη/ escéptica, actuando como antídoto contra la enfermedad de las disputas filosóficas, abría un hueco a la fe en la existencia de Dios y permitía a la verdad emerger de las profundidades a las que la opinión humana la había enviado 24 . 20

G. PICO (1681): Vitae selectorum aliquot virorum…, Londres, ed. por W. Bates, pp. 107-140, citado por CH. B. SCHMITT (1972), p. 379. Todo apunta a que Gianfrancesco Pico era un gran amigo y seguidor de Savonarola. 21 M. A. GRANADA (2000): El umbral de la modernidad, Herder &Herder, p. 122. 22 M. DI LORETO (1995), p. 334. 23 Ibidem, p. 340. 24 IO. A. FABRICIUS (1840): Sexti Empirici Opera Graece et Latine, Lipsia, vol I, p. XXIV: «Pravis hominum opinionibus in profundo quidem illam et olim fuisse demersam et hodie demergie, ita tamen, ut, Isagogé, 2 (2005)

39


Esta edición de Estienne fue seguida en 1569 por la publicación de todas las obras de Sexto en latín de mano del contrarreformador francés Gentian Hervet 25 . También incluyó Hervet sus razones para publicar de nuevo la obra de Sexto y cuenta que había encontrado un manuscrito del Empírico en la biblioteca del Cardenal de Lorena y se lo había llevado para leerlo durante un viaje como entretenimiento. Según su testimonio, tras leerlo detenidamente, pensó que era una obra importantísima, pues mostraba que ningún conocimiento humano puede resistir los argumentos que se le puedan oponer. La única certidumbre que tenemos, es, pues, la revelación de Dios. En esta edición se incluía la anterior de Henri Estienne 26 . Retomando los mismos temas, Hervet recordaba entre otras cosas cómo la utilización del corpus de Sexto para beneficio de la religión cristiana ya había sido destacada por Gianfrancesco Pico, y acentuaba todavía más la condena de los herejes de su tiempo, refiriéndose explícitamente a los calvinistas. Si bien el acento se ponía indiscutiblemente sobre la función apologética de la obra de Sexto Empírico, tampoco faltó el componente humanístico y erudito que se puede encontrar en las argumentaciones del escéptico junto con su valor pedagógico consistente en proporcionar a los jóvenes instrumentos para desvelar la verdad de las cosas probables o verosímiles. La edición de 1569 fue publicada de nuevo en 1601 mas el texto griego de la editio princeps no apareció hasta 1621 de manos de los hermanos Chouet —1621, casi 200 años después de que Filelfo llevara el primer manuscrito griego a Italia—. Por otra parte, parece ser que en 1590 o quizá 1591 apareció una traducción inglesa de las Hipotiposis. Dejaremos aquí de seguir el rastro de las ediciones de obras escépticas por cuanto éstas se multiplican a la par que se alejan cronológicamente del marco de este estudio. Los márgenes del Renacimiento son difíciles de establecer y fijar y por ello mismo nuestra intención es la de no distanciarnos demasiado de los límites históricos tradicionalmente establecidos y generalmente aceptados. Una vez que se dispuso de las ediciones de la obra de Sexto podemos comprobar un desarrollo importante del escepticismo como una fuerza más potente en la vida europea y, antes de que acabara el siglo, surgieron algunos pensadores escépticos de grandísima talla y altura como Francisco Sánchez (ca. 1550 - ca. 1623), Montaigne (1533-1592) y Charron (1541-1603). Estas figuras apuntaron el camino para la crisis escéptica del siglo XVII. Antes de la edición clave de las Hipotiposis de 1562 no se sabe que hubiera un empleo significativo de las ideas pirrónicas, como no sea el de Gian Francesco Pico della Mirándola. Los investigadores han evaluado el grado de difusión de las obras de Sexto en los siglos XV y XVI y han llegado a la conclusión, generalmente aceptada, de que, con la excepción de Pico que leyó a Sexto en griego, las obras del Empírico tuvieron un impacto pequeño en la cultura del Renacimiento —por lo menos hasta la edición de Estienne que ya hemos señalado como verdadera clave de todo este conglomerado bibliográfico—. El quid de la cuestión escéptica en el Renacimiento pudo ser que aunque los argumentos escépticos de Sexto Empírico no eran muy utilizados en filosofía durante este periodo, sin embargo la summa sceptica representada por sus obras eran mejor conocidas por los humanistas de lo que se venía sospechando y, por lo tanto, sería más correcto hablar de cierta falta de interés en la función anti-epistemológica de los argumentos pirrónicos que inferir de la ausencia de influencia una correspondiente ausencia de conocimiento de los escritos de Sexto Empírico durante los siglos XV y XVI 27 .

sic olim emersit, sic etiam hodie emergat semperque emersura sit», citado en M. DI LORETO (1995), p. 341. 25 R. POPKIN (1983), p. 46. 26 Henri Estienne fue el continuador de una verdadera dinastía de impresores y editores franceses iniciada por su abuelo quien estableció una imprenta cerca de la Universidad de París en 1501. Henri fue impresor en París y Ginebra y dedicó su fortuna a la compra de manuscritos griegos con objeto de restaurar los textos. 27 L. FLORIDI (1995): «The diffusion of Sextus Empiricus works in the Renaissance», Journal of the history of ideas, 56, p. 65.

40

Isagogé, 2 (2005)


LA GUERRA DE LOS SEXOS Antonio José Miralles Aranda Durante estos últimos años, se ha desatado una gran controversia entre los sexos, con el único fin de desacreditar cada cual a su contrario. Pero, ¿qué nos dice la ciencia al respecto? Con el presente artículo no pretendo aportar «armas» en esta guerra sin cuartel, sino mostrar las ventajas que el sexo y sus diferencias, reflejadas en sus organismos, han aportado a nuestra especie desde su primitivo origen. Antecedentes El sexo, según Cavalier-Smith, surgió hace sólo 850 millones de años con las primeras células eucariotas, como consecuencia de la aparición de un nuevo mecanismo de reproducción alternativo a la mitosis: la meiosis (ver figura 1). De acuerdo con la hipótesis canibalísta 1 , la fagocitosis entre células eucariotas con genomas similares pudo derivar en una fusión de sus núcleos, y por lo tanto una falsa diploidía. Hecho que les aportó gran ventaja adaptativa en un ambiente con altas tasas de mutación genómica. La meiosis, probablemente tuvo un origen evolutivo posterior al de la fusión nuclear, y su función primordial (la reducción cromosómica, que la hiciese compatible con una masa de citoplasma única para cada uno de los núcleos resultantes) nace por una simple razón de eficiencia en la distribución de recursos. De esta manera, se posibilitó la segregación de los cromosomas homólogos en las células híbridas. Más tarde se incorporó la recombinación meiótica, que a su vez trajo aparejados beneficios colaterales muy importantes, entre los que destaca el gran aumento de la variabilidad genética. Tal evolución parece fundamentarse en la existencia de mitosis atípicas, como la pleuromitosis 2 de Dinoflagelados, o meiosis rudimentarias y optativas, como la hallada en el hongo Saccharomyces Pombe.

Figura 1. Esquema comparativo de los procesos de mitosis y meiosis.

1

Teoría postulada por el evolucionista inglés John Maynard Smith, según la cual la ausencia de nutrientes favoreció la fagocitosis de células semejantes. 2 Tipo de división mitótica en la cual persiste la membrana nuclear, no hay uso acromático ni centríolo y los cromosomas no tienen centrómero. Isagogé, 2 (2005)

41


El sistema fue asimilando modificaciones, que incrementaron la asimetría del proceso. Los gametos, inicialmente células isógamas (del mismo tamaño), se fueron transformando en anisógamas y finalmente en oógamas. En el caso extremo de la oogamia, el reparto citoplasmático fue tan desigual que hizo inviables algunas de las células (corpúsculos polares), en beneficio de sólo una de ellas (óvulo), o bien se formaron cuatro células viables pero de menor tamaño y muy modificadas (espermatozoides). Finalmente, con la misión de restaurar el genoma diploide de la nueva célula o zigoto, los gametos se encontraron y fusionaron sus núcleos (fecundación). El paso a la pluricelularidad confinó el desarrollo de los gametos en regiones especializadas para acabar constituyéndose en los órganos sexuales o gónadas. Pero, ¿a qué causas se debe el enorme éxito de la reproducción sexual? Existen tres hipótesis que apoyan la ventaja del sistema sexual y por ende de la variabilidad: 1) Hipótesis del mejor partido: En un medio cambiante, individuos genéticamente iguales no podrán adaptarse adecuadamente. Si existe variedad, prevalecerán unos sobre otros. 2) Hipótesis del banco de pruebas: Un mismo ambiente ofrece múltiples y variadas posibilidades, pero si los genomas son idénticos, explotarán los mismos recursos, aumentando por tanto la competencia. 3) Hipótesis de la Reina Roja: Con la aparición de la heterotrofía o el parasitismo, se inició una carrera por la cual, unos sufren modificaciones que facilitan la evitación o huida (supervivencia) y otros optimizan la caza o depredación. La combinación de las teorías expuestas compensarían el enorme gasto energético que supone la búsqueda del sexo contrario y la drástica reducción de oportunidades para la reproducción (ver figura 2). Figura 2. Representación esquemática de la reproducción asexual (1) y de la sexual (2) a lo largo del tiempo requerido para conseguir que los individuos contengan varias mutaciones. Las especies sexuales (2) muestran una mayor ventaja en la rapidez con la cual se acumulan las mutaciones beneficiosas A, B y C en el mismo individuo, frente a una lentitud mucho mayor (y probabilidad menor de que se acumulen) en las especies asexuadas (1).

El dimorfismo sexual, presente inicialmente en los gametos a nivel genético o citoplasmático, dio paso progresivamente a diferencias de tipo morfológico, fisiológico, incluso etológico, diferencias que a su vez quedaban grabadas en el genoma del zigoto. El óvulo, por ejemplo, tiene reservas suficientes y no precisa moverse demasiado, por lo cual perdió su flagelo. El espermatozoide lo desarrolló aún más, necesitó de mayor número de mitocondrias, y se hizo más aerodinámico para desplazarse más eficazmente por el medio. Incluso la determinación del sexo del zigoto (inicialmente bipotencial, y probablemente activado por señales del entorno) pasó a determinarse genéticamente, en los denominados genes y/o cromosomas sexuales. Estos genes o la ausencia de ellos desencadenan toda una cascada molecular (hormonal generalmente), que hace adquirir al organismo las características propias del sexo al que pertenece. De igual manera, en 42

Isagogé, 2 (2005)


los seres pluricelulares, el genoma incluyó la modificación de ciertos órganos, de secreciones moleculares, morfologías externas disímiles y variados comportamientos, en distintos grados, según la especie en concreto. Esta descomunal expansión de la reproducción sexual aportó una enorme variedad de organismos y de estrategias reproductivas como el hermafroditismo, etapas limitadas de reproducción (estro), o mecanismos asexuales asociados a la reproducción sexual (poliembrionía, partenogénesis, etc.), todas ellas con el fin exclusivo de dejar el mayor número de copias de su genoma en las siguientes generaciones. Características y cualidades humanas El ser humano presenta un nivel de dimorfismo medio-alto, y por lo tanto son muchas son las diferencias que separan ambos sexos. Hay variaciones en la musculatura, la distribución del vello, el tamaño medio corporal, los depósitos grasos, algunos huesos, los órganos sexuales, ciertas hormonas, etc., que resultan obvias. Pero es fácil reconocer estas diferencias visibles o empíricamente comprobables. El problema radica en hacer estas distinciones en categorías evolutivas más recientes de difícil demostración tales como comportamientos, preferencias, capacidad intelectual, memorización, verbalización, etc. Las diferencias más evidentes se explican por reminiscencias heredadas primitivamente varios pasos atrás en la escala evolutiva, aunque algo modificadas, y presentes en todas las especies sexuales. No obstante, el homínido se diferencia del resto de organismos por las complejas relaciones sociales que establecen los miembros del grupo, el gran desarrollo de los receptores sensoriales, el uso de utensilios (gracias a la aparición de dedos prensores y sobre todo de un pulgar oponible), el descenso de la laringe (que le permitió la emisión de sonidos articulados) y finalmente el nacimiento de un lenguaje, entre muchos otros aspectos; parece haber evolucionado básicamente al moldearse una novedosa estructura: su cerebro. Y por lo tanto, se nos presentan dudas en cuanto a la influencia de tales determinaciones genéticas en dicha estructura, o sobre si podría plantearse la cuestión como una simple consecuencia de su entorno cultural y social. Una última opción sería negar tales diferencias entre sexos. La Genética nos dice que somos el resultado de la combinación de nuestro genoma con el entorno. Pero, ¿en qué grado afecta cada uno de ellos en tales aspectos? Los estudios han demostrado el poder modificador de las hormonas sexuales durante el desarrollo embrionario, no sólo en el de los órganos reproductores, sino en el mismo desarrollo cerebral. Los defectos genéticos en la producción de hormonas, las propias hormonas maternas durante el desarrollo embrionario, incluso las señales recogidas por el adolescente, pueden derivar en modificaciones de los patrones sexo-diferenciadores, tanto físicos, como psíquicos; tanto en los órganos sexuales y patrones hormonales, como en la orientación sexual. Además nos encontramos con múltiples complicaciones en la investigación del ser humano actual, unas de carácter ético y otras basadas en la propia complejidad del cerebro humano. Por lo cual los estudios de sexo-diferencias se han centrado, en la experimentación con otros mamíferos (ratones, monos), ensayos con cadáveres, enfermos con lesiones cerebrales en áreas concretas y, más recientemente, en pruebas clínicas como el TAC 3 o la RMN 4 . Pero a pesar de tantos obstáculos, conocemos algunos de los pasos esenciales en la evolución cerebral del homínido, como el proceso de lateralización o asimetría 3 4

Tomografía axial computerizada. Resonancia magnética nuclear.

Isagogé, 2 (2005)

43


cerebral. Se cree que, por puro azar, el manejo de utensilios prevaleció en su opción diestra, lo cual provocó una especialización del hemisferio izquierdo. Por discriminación negativa, se eliminaron interconexiones de ambos hemisferios que eran derivadas progresivamente al hemisferio izquierdo «dominante», pasando el hemisferio derecho a albergar otras funciones. Por esta razón los zurdos están menos lateralizados y existe una interconexión ligeramente mayor, y por lo tanto una mayor simetría cerebral. Las propiedades que definen a los nuevos hemisferios son: Calculador, matemático, digital, lógico, sedentario, analítico, seriado. Izquierdo Constructor, arquitecto, analógico, fantástico, viajero, musical, pictórico, Derecho sintético, coherente, ordenado. Otro rasgo primordial para entender el cerebro humano es su plasticidad. Las posibles lesiones en algunas zonas cerebrales se ven compensadas por el hemisferio opuesto y la «ejercitación» de ciertas áreas, sobre todo durante el desarrollo, pueden modificar y desarrollar claramente ciertas estructuras. Además, existe un mayor desarrollo en volumen y tejido neuronal que en número de conexiones que éstas logran establecer. Está por lo tanto infrautilizado. Este hecho da margen al cambio, y cabida a una hipotética evolución sin un claro aumento en la masa cerebral. Sexo-diferencias cerebrales De los estudios efectuados, podemos generalizar que el cerebro del hombre tiene un volumen medio mayor al de la mujer, aunque este hecho no es significativo, ya que se relaciona con el tamaño medio del cuerpo. A su vez, el tamaño no influye en los procesos cognitivos o sensoriales, pues no existen variaciones significativas en el número de conexiones o neuronas. Sin duda, es más interesante buscar contrastes en los tamaños relativos de ciertas áreas. Hay claras asimetrías en regiones cerebrales que son reflejo de las estructuras reproductoras, pero su función es casi específica del acto reproductor. Mayor interés tienen aquellas estructuras que relacionan distintas áreas, ya que dicha interrelación es la que nos aporta las cualidades más recientes de nuestra especie (información emocional, inteligencia, relaciones espaciales, verbalización, etc.). En la búsqueda de tales estructuras sobresale el cuerpo calloso, encargado de comunicar ambos hemisferios, y más concretamente el tercio medio de la mitad posterior, denominada istmo (ver figura 3). En la mujer, dicha parte está más engrosada, por lo tanto indica una menor lateralización, es decir, un mayor número de neuronas interconectan ambas estructuras en esa porción del cuerpo calloso.

Figura 3. Esquema del cuerpo calloso. Localización del itsmo.

Este hecho se traduce en una serie de asimetrías en ciertas actividades que requieren una mayor lateralización y otras que requieren una mayor interconexión,

44

Isagogé, 2 (2005)


quizás consecuencia de una evolución sexo-diferencial marcada por las distintas actividades sociales desarrolladas durante la evolución de los homínidos. Se podrían sintetizar de la siguiente manera: Hemisferio izquierdo Fluencia verbal Razonamiento matemático Razonamiento verbal Hemisferio derecho Comprensión de las relaciones espaciales Interpretación de la información emocional Imaginación representativa de hechos sensoriales

Mujer > Hombre Hombre > Mujer Igual en ambos sexos Hombre > Mujer Mujer > Hombre Igual en ambos sexos

Resumiendo, el cerebro masculino está más lateralizado que el femenino y especializa el hemisferio derecho en el procesamiento visuo-espacial, y el izquierdo en el lenguaje y la preferencia manual (aparentemente ligados). El femenino, por su parte, resulta más simétrico y menos especializados en ambas tareas. Hay que matizar que tales diferencias no son excesivas, pues en el proceso de evolución los roles se ha ido modificando, presentándose en los últimos tiempos una menor tendencia al dimorfismo en este aspecto. Si a eso añadimos la propiedad anteriormente mencionada de la plasticidad cerebral, no se puede hablar de unas aptitudes mejores o peores predeterminadas genéticamente, ya que el cerebro es capaz de adaptarse a la función desarrollada. Resulta cuanto menos absurdo hablar de una mayor o menor inteligencia de uno u otro sexo, pues no se puede dar más valor a unas capacidades que a otras y aún menos, en el grado de asimetría y con la capacidad de modificación existentes, en nuestro plástico cerebro. Reflexión Desde sus orígenes el gran universo parece tender a la búsqueda de la asimetría. El sexo es sólo uno de sus magníficos pasos y nos enseña que tales diferencias no nos hacen superiores o inferiores, sino complementarios e interdependientes con el sexo opuesto, ya que, entre otras razones, el sexo nació para reducir la competencia entre ambos. No lo utilicemos hoy como estandarte de una guerra estéril. BIBLIOGRAFÍA LIAÑO, H. (1998): Cerebro de hombre, cerebro de mujer, Ed. Grupo Z. CAVALIER-SMITH, T. (2002): «Origins of the machinery of recombination and sex», Hereditry, 88, pp. 125-141. MARGULIS, L. y SAGAN, D. (2002): Captando genomas. Una teoría sobre el origen de las especies, Ed. Kairos. PASANTES, H. (1997): De neuronas, emociones y motivaciones, Fondo de Cultura Económica.

Isagogé, 2 (2005)

45


SUPERMERCADOS COMO SETAS. ¿DE DONDE VIENE TANTO SUPERMERCADO? José Luis Gómez Bruque Durante el periodo 1970-2005 la distribución comercial española ha pasado, de ser un sector reflejo de la producción y el consumo, a ser uno de los principales sectores que ha impulsado la actividad económica nacional. Actualmente supone más del 15% del producto interior bruto, agrupa al 10,5% de la población ocupada del país y las actividades comerciales representan el 32% del tejido empresarial. Además se muestra como un importante factor en la conformación de las ciudades y en el equilibrio del tejido social. Seguro que muchos nos hemos sorprendido con la aparición en estos últimos años de un cada vez mayor número de supermercados en nuestros barrios. Con este artículo trataremos de dar respuesta al incremento de su volumen a partir de la evolución del comercio minorista, desde la aparición de los primeros autoservicios en nuestro país hasta el presente. En el año 1959, final del periodo de autarquía económica en España, aparecieron los primeros autoservicios. Principiando los sesenta, el comercio tradicional dio paso a la distribución masiva, en torno a la cual ha surgido la estructura del comercio minorista actual. A partir de esta década se potenció el asociacionismo comercial con las cadenas voluntarias y cooperativas de detallistas. Además, se desarrollaron y modernizaron los mercados mayoristas de productos alimentarios con la creación, en 1966, de la empresa pública MERCASA. El primer hipermercado aparece en 1973 y a finales de los ochenta comienza a introducirse un nuevo formato comercial: los establecimientos descuento. De esta forma fueron apareciendo lugares de compras de diferentes características. Actualmente podemos distinguir los siguientes tipos de formatos comerciales: Cuadro 1: Características de los formatos comerciales FORMATO COMERCIAL

FORTALEZAS

DEBILIDADES

EMPRESAS

TIENDA TRADICIONAL SPV inferior a 100m2

-Surtido profundo -Servicio de asesoramiento -Calidad, producto y proximidad

-Precios altos -Surtido sin amplitud

-Independiente

ESTABLECIMIENTO DESCUENTO SPV entre 150 y 2.000m2

-Precios muy bajos

SUPERMERCADO SPV entre 400 y 2.500m2

-Nivel de precios -Proximidad -Marcas líderes

HIPERMERCADO SPV superior a 2.500m2

-Nivel de precios bajo -Gama de servicios amplia

-Servicio -Surtido sin profundidad -Sin primeras marcas -Gama de productos más reducida que los hipermercados -Proximidad -Poca Profundidad de surtido

-LIDL -DIA -PLUS -MERCADONA -CAPRABO -SUPERSOL -CARREFOUR -EROSKI -ALCAMPO

SPV: Superficie de venta al público en m2, dedicada a productos de gran consumo como los productos de alimentación, droguería, perfumería e higiene. Fuente: elaboración propia

46

Isagogé, 2 (2005)


Las diversas fórmulas de asociacionismo comercial han contribuido a la modernización del comercio detallista tradicional, transformando algunos de los pequeños establecimientos en autoservicios. Los comerciantes se han iniciado en mejores técnicas de gestión (merchandising, análisis de la rentabilidad de lineales, etcétera), introduciendo las nuevas tecnologías (lectores ópticos, tarjeta electrónica,...) y desarrollando marcas propias. Las cadenas voluntarias, cooperativas detallistas, y otras fórmulas asociativas permiten a los afiliados bajo una enseña común obtener múltiples ventajas, mayor coordinación de actividades y una mejor organización de las transacciones. A pesar de estas asociaciones, los establecimientos tradicionales han sufrido un continuo retroceso. Desde el año 1980 hasta 2004, la reducción de su número fue de un 60% aproximadamente (Cuadro 2). Pero Javier Paz, presidente de MERCASA en 2004, defiende que la existencia de la Red de Mercas ha sido determinante para la supervivencia y viabilidad del comercio minorista especializado en alimentación fresca. Si atendemos a la venta de productos perecederos de alimentación, el comercio tradicional, tanto el aislado como el integrado en mercados municipales, sigue teniendo la mayor cuota de mercado en distribución minorista frente al protagonismo destacado que tienen hipermercados y supermercados en la distribución no perecedera. La oferta de calidad y proximidad contribuye a fomentar el consumo de los alimentos frescos y de temporada. A pesar de las amenazas, el comercio tradicional tiene un futuro garantizado si sigue aprovechando sus principales ventajas: calidad, proximidad y servicio. Además de la garantía del servicio público que prestan los Mercas. Cuadro 2: Evolución del número de establecimientos por tipo de formato Tipo de formato

1980

1985

1990

1995

2000

2004

Tradicionales

101.605

95.102

72.980

58.654

48.450

41.015

Auto servicios

11.499

14.080

12.120

10.935

8.610

6.536

Establecimientos Descuento

-

-

950

1.544

2.875

3.364

Supermercados

1.390

1.993

3.250

3.630

5.246

6.326

Hipermercados

29

59

114

223

311

402

Total

114.523

111.234

95.414

81.986

65.492

57.643

Fuente: Elaboración propia a partir de datos de Alimarket.

Durante la década de los noventa, el formato hipermercado se consolidó como el rey indiscutible de la distribución comercial alimentaria. El crecimiento de su cuota de mercado se mostraba imparable, los hábitos de muchos consumidores habían cambiado y ahora preferían realizar el grueso su compra en los hipermercados, donde había de todo a un precio muy competitivo. Los profundos cambios experimentados en la distribución comercial minorista en España (con la incorporación de nuevas tecnologías y formas de venta), junto al reto que supuso la Unión Europea, así como la dispersión de la normativa vigente hasta el año 1996, obligaron a un esfuerzo legislativo de sistematización, modernización y adecuación al nuevo contexto. La economía española precisaba un sistema de distribución eficiente, que permitiera asegurar el aprovisionamiento de los Isagogé, 2 (2005)

47


consumidores con el mejor servicio posible y con el mínimo coste de distribución. Para alcanzar este objetivo se necesitaba que el mercado garantizase la óptima asignación de los recursos a través del funcionamiento de la libre y leal competencia. En ese sentido, la implantación de buenas prácticas comerciales produjo un mejor comportamiento de todos los agentes del sector, y sus efectos redundaron en un funcionamiento más positivo de la competencia. Estos efectos se trataron de conseguir mediante la creación de un marco legal de mínimos. Por otra parte, y debido a la evolución experimentada, coexisten en España dos sistemas de distribución complementarios entre sí: el primero constituido por empresas y tecnologías modernas, y el segundo integrado por las formas tradicionales de comercio, que siguen prestando importantes servicios a la sociedad española y juegan un papel trascendental en la estabilidad de la población activa, pero que deben emprender una actualización y tecnificación que les permita afrontar el marco de la libre competencia. La relación de complementariedad entre los dos sistemas mencionados había de tenerse en cuenta. Por consiguiente, la Ley 7/1996 sobre la libre competencia afecta especialmente a los establecimientos que tienen una superficie de venta al público superior a los 2.500 m2 y pretende, tanto establecer unas reglas de juego en el sector de la distribución y regular nuevas fórmulas contractuales, como ser la base para la modernización de las estructuras comerciales españolas, contribuyendo a corregir los desequilibrios entre las grandes y las pequeñas empresas comerciales y, sobre todo, al mantenimiento de la libre y leal competencia, con la consiguiente mejora continuada de los precios, de la calidad y demás condiciones de la oferta y servicio al público. En definitiva, una eficaz actuación en beneficio de los consumidores. Pero en España la legislación tiene que amoldarse, tanto a los cambios que se producen a lo largo del tiempo, como también a los del espacio. En este ámbito se producía un complejo entrecruzamiento de títulos competenciales, tanto estatales como autonómicos, lo cual conllevaba que los diversos aspectos de la regulación propuesta tuviesen un grado de aplicación diverso y que el otorgamiento de licencias de apertura correspondiera a cada una de las Comunidades Autónomas, que en años posteriores han ido especializando su legislación. Por lo tanto, encontramos 17 normativas diferentes para el caso particular de cada Comunidad Autónoma. Hasta 1996 los grandes grupos como Carrefour, Eroski o Auchan habían dominado el mercado de la distribución gracias al hipermercado. Este formato se mostraba como el más rentable por metro cuadro y, hasta ese momento, todos los grupos se habían estado frotando las manos con las expectativas de crecimiento que ofrecía. Sobre todo si se comparaba el número de hipermercados que había en España (menos de 300) con el número de este mismo tipo de establecimientos que encontrábamos en Francia (alrededor de 1000 hipermercados). Pero las nuevas trabas legales hacían que el crecimiento del formato fuese más pausado. Y, por otro lado, comenzaba el gran salto de empresas que sólo competían con el formato supermercado, como Mercadona y Caprabo. Un tanto por ciento importante de la cuota de mercado de los hipermercados estaba pasando a manos de los supermercados, el comportamiento de los consumidores volvía a cambiar (Cuadro 3). Todo esto provocó que el pensamiento y la mirada de los grandes grupos volviese su atención hacia el formato supermercado, desarrollando estrategias y marcas que imitaban el estilo de las empresas que, a principios del año 2000, crecían con más fuerza. Así Carrefour desarrolló su el formato Champión y el MaxiDia (un tipo de establecimiento descuento con más semejanzas con el supermercado) El Corte Inglés 48

Isagogé, 2 (2005)


desarrolló Supercor, Auchan los supermercados Sabeco, Ahold los Supersol, Eroski los Consum, aunque estos úlitmos recientemente se han separado, quedando Consum con un gran número de supermercados y teniendo Eroski que lanzar una nueva imagen para sus supermercados Eroski center. Cuadro 3: Cuota de mercado por formato TIPO DE FORMATO Tradicionales Autoservicios E. Descuento Supermercados Hipermercados

1985 35 18 32 15

1990 20 14 43 23

1995 12,2 10,5 11 31,5 34,8

2000 7,5 7,9 15,6 39,1 29,9

2004 5,8 6,9 18,4 41,6 27,3

Fuente: Elaboración propia a partir de datos de Alimarket.

Actualmente las empresas españolas se han abierto un buen hueco entre los grandes grupos franceses y alemanes que dominaban casi en solitario. Además la concentración empresarial que presenta el sector es muy baja1 , lo que ha dado lugar a dos estrategias bien diferenciadas para conseguir mayor tajada en la tarta de la distribución alimentaria. Por un lado tenemos la política de crecimiento basada en compras de otros grupos o empresas que tienen establecimientos consolidados y que funcionan bien. Pero esta práctica es muy costosa y compleja con vistas a la formación de un grupo con una cultura de trabajo uniforme. Otra contrapartida que presenta esta forma de expansión es que en un mismo lote de tiendas buenas pueden entrar otras de escasa viabilidad. Frente a esta estrategia encontramos la de crecer por medio de una política de aperturas propias. Las ventajas que presenta esta forma de crecimiento son dos principalmente. Una es el ahorro, pues la cifra que se paga por un establecimiento de otra empresa oscila entre los cuatro y los seis millones de euros, lo que supone precios excesivamente elevados frente al coste de las aperturas directas, que es inferior a los dos millones de euros. Además de este modo la empresa puede elegir el tipo de establecimiento que pone en marcha. Esta estrategia ha sido la que ha proporcionado el increíble crecimiento de las empresas españolas, como Mercadona y Caprabo, y que, junto con la gran aceptación que han tenido por parte del consumidor (con una media de 15 compras mensuales), ha sido la principal responsable de la aparición de supermercados como setas en nuestras ciudades. Finalmente podemos concluir señalando que, por ahora, la batalla por ser el número uno de la distribución española la está ganando el formato supermercado, pero esta batalla es muy reñida y sin tregua. Siempre aparecerán nuevas políticas y estrategias empresariales que traten de copar la mayor cuota de ventas.

1

La concentración de los 3 primeros grupos empresariales en España es inferior al 45%, mientras que en Suecia representan un 95 %, en Dinamarca un 63%, en Francia 62% y en el Reino Unido un 59%.

Isagogé, 2 (2005)

49


EL CRUCIFICADO EN LA IMAGINERÍA BARROCA ANDALUZA Antonio José Irraiz Castellón La ruptura de la unidad en la fe cristiana provocada por la Reforma luterana y la defensa católica condujeron al refuerzo del poder del papado a mediados del siglo XVI. Tras el Concilio de Trento se impone una severa disciplina moral, tratando de convencer a los fieles con la evidencia de la posesión de la verdad. En España el poder de la Iglesia es muy grande, y tanto los jesuitas españoles como la Inquisición defienden la primacía de los asuntos espirituales sobre los materiales. La ideología religiosa tiene su reflejo en la creación artística, la plasmación de la verdad sustituye a la belleza y la temática es decidida por la Iglesia, que es su principal cliente. Las imágenes reducen el grado de idealización iconográfica buscando un lenguaje claro, y es en ese preciso instante cuando el motivo de Cristo muerto en la cruz cobra un papel más relevante y destacado en la historia, buscando que el fiel se catequice a través del arte, e identifique la verdad de la imagen con el poder de quien la produce. En este periodo se fundan numerosas cofradías y hermandades que, impulsadas también por el dinero que llegó de las Indias, favorecen la creación de talleres de imaginería, en los que se trabajaba en la elaboración de retablos, imágenes devocionales y de procesión. Aunque las características fundamentales de la escuela barroca se dan en toda la Península, podemos diferenciar entre el tratamiento de la iconografía en los crucificados de la escuela castellana y en la andaluza. Ambas escuelas son realistas, pero mientras la castellana es dramática y sus Cristos muestran trágicas expresiones de sufrimiento, la andaluza es más sosegada, sus imágenes buscan la belleza formal sin perder un alto contenido espiritual. Pocos lugares hay en el mundo donde se hayan producido tantas y tan bellas imágenes de madera como Andalucía, y lo más importante y sorprendente es que en ninguna parte como aquí se mantiene vigente, tanto en su ejecución como en los materiales, las tradiciones escultóricas que implantaron los artistas del Gótico. En el sur la producción imaginera se tornó un oficio con alto grado de reconocimiento social, siendo catalogados sus profesionales como personajes dignos de alabanza y distinción. Del mismo modo, en la sociedad andaluza del momento poseer una obra de arte en madera o pertenecer a una hermandad era signo de status social elevado. Más que por el hecho de continuar una tradición, aquéllas eran focos muy activos de fomento de relaciones personales y agrupación de intereses. A mi entender en Andalucía se dieron, o mejor dicho se dan, algunas circunstancias por las que la producción cristífera, mariana o religiosa en general es santo y seña de la región: la marcada vocación iconostática del pueblo andaluz, el barroquismo esencial de sus gentes y, por último, la seducción que sobre ellas ejerce la belleza. La falta de un auténtico retrato de Cristo, que hoy tantos lamentamos, no debió ser motivo de preocupación para los cristianos primitivos. Así las cosas, ya desde antiguo se suscitaban polémicas sobre el físico de Jesús, apoyados en el texto de Isaías en el que se le describe del siguiente modo: «No tenía figura, ni hermosura para atraer 50

Isagogé, 2 (2005)


nuestras miradas, ni apariencia para excitar nuestro afecto». Estas descripciones son poco fiables, puesto que se intentó potenciar la faceta espiritual de Jesús en vez de sus virtudes corpóreas. La imaginería barroca en Andalucía estaba influenciada por la corriente artística italiana del momento. Prueba de ello es la impresionante talla del Cristo de la Clemencia que ahora pasaremos a comentar como ejemplo maravilloso del arte que encierra en sí la madera, y que fue gubiado por aquel a quien los siglos han denominado como «el dios de la madera», Juan Martínez Montañés, entre 1603 y 1606. No se puede determinar el año justo de ejecución, puesto que en aquella época no era usual firmar las obras y los trabajos de talla y policromía eran realizados por artistas distintos, hecho que propició el mejor maridaje artístico de toda la imaginería mundial. Las obras de Montañés eran aparejadas y policromadas por el renombrado pintor Francisco Pacheco, posteriormente suegro de un genio universal llamado Velázquez. Fue Pacheco, sin duda, hombre docto en teoría pictórica y también erudito y conocedor de reglas, normas y cánones que fijó por escrito, y que hubieron en cierto modo de complacer a las autoridades religiosas de su época. Con este beneplácito y también con el peso de su propio prestigio como teórico, Pacheco gozó de un gran ascendiente entre los pintores de su generación, tanto entre los que tenían edades aproximadas a la suya como entre los más jóvenes. Por otra parte, su empeño por difundir y practicar el pensamiento artístico de su época constituye en el presente un utilísimo compendio para tratar de entender la ideología vigente en el período que le correspondió vivir. El Barroco supone el cambio de una imagen de culto a otra de devoción, más «viva» y cercana a la de un hombre expirante padeciendo en uno de los métodos de ejecución mas infames y crueles de la historia de la humanidad. Pero no es éste el único hecho diferenciador respecto al Renacimiento. Además la plástica barroca plantea recursos dramáticos, buscando la emoción con fuertes contrastes de luces y sombras, profusión de detalles anatómicos, con la expresión del cuerpo desnudo, la belleza serena y la armonía, suscitando el diálogo con el Cristo vivo y la oración íntima con el Cristo muerto. Asimismo desde el siglo XVI, aunque con menos fuerza que en el XVII, alcanzan gran desarrollo los postizos, se usan pelucas de pelo humano o de fibras vegetales, dientes y uñas de marfil o hueso, pestañas de pelo natural, ojos de pasta vítrea, piel o pergamino en las heridas, corcho en la sangre, telas encoladas para el paño de pureza a fin de lograr un mayor realismo en las imágenes. Pero centrándonos de lleno en una muestra maravillosa y un ejemplo sin igual dentro de la escultura cristífera del barroco, mencionaremos el Cristo de la Clemencia que se encuentra en la catedral de Sevilla y cuya visita recomendamos, al menos por la curiosidad de contemplar la belleza de un torso humano; pues aunque ésta es sólo una opinión personal, nos parece que estamos ante la mejor talla de crucificado de todo el Barroco. La delicadeza y minuciosidad de esta escultura es digna de ser contemplada Isagogé, 2 (2005)

51


tan cerca como nos sea posible. A ello contribuye con su sentido patibular la esbelta cruz arbórea que aporta un discreto realismo al conjunto, así como la corona de espinas —cuya apariencia nos recuerda a las serpientes de poder terapéutico— tan barroca como propia de la escuela sevillana. El tratamiento anatómico supone un notable avance respecto a las obras anteriores del granadino Pablo de Rojas, que fue el maestro de Montañés, aunque hay que reconocerle a Rojas la introducción de innovaciones verdaderamente revolucionarias en las esculturas de crucificados, como fueron los grandes paños de pureza y, sobre todo, el cordón de soga que lo sujetaba y que dejaba al descubierto una de las caderas, haciendo a la talla muchísimo más estilizada. El Cristo de la Clemencia nos ofrece un modelado mas natural y atento a la realidad. Imperaba en el gusto de la época que el crucificado fuera mas dios que hombre. Por eso no se encontrará en él humillación y dolor ostentoso, ni tan siquiera la pretendida ira contenida. No hay en su rostro el menor signo de padecimiento, los párpados parecen cerrarse lentamente, el cuerpo parece ir perdiendo fuerza y los músculos se preparan para el momento del óbito. Esta escultura es tan perfecta que incluso los estudiantes de medicina contemporáneos a la obra se acercaban a la catedral para estudiar sobre ella el cuerpo humano. Quedó reflejado en crónicas que el cabildo catedralicio visitó a Montañés en su taller para comprobar el estado del trabajo, y quedaron tan impresionados que uno de ellos se acercó al rostro del Cristo. Cuando el artista le preguntó al hombre por el motivo de su curiosidad, aquél respondió: «me ha parecido verlo respirar». No olvidemos que ésta es la imagen de un Cristo que aún no ha muerto. Se podría decir que, en contra de lo gubiado en aquellos tiempos, el Cristo presenta los pies clavados por dos clavos, uno en cada pie, hecho inusual en la época. El cuerpo es delgado y armonioso, los brazos estirados dejan ver el hombro izquierdo dislocado, pues al parecer los barrenos que hicieron en la cruz para colocar más tarde los clavos tenían una distancia mayor que la longitud de brazos de Jesús, por lo que al atarle la mano izquierda y tensar el brazo para llegar al barreno se lo sacaron del sitio. A diferencia de la vertiente «rojeña», el sudario se anuda con un nudo grueso, en contraposición al Cristo de la Expiración —el popular «Cachorro»—, de Francisco A. Gijón, en el que el sudario cordelífero deja las caderas a la vista. Entre 1590 y 1640, el maestro de Alcalá realizó otros once crucificados, pero en ninguno de ellos alcanzó las cotas de belleza formal logradas en el de la Clemencia, que surge en la plenitud vital y artística del imaginero —quizás antes no hubiera podido hacerlo—. El influjo de Mesa, Cano y el flamenco Arce le hizo derivar posteriormente hacia modelos más naturalistas y expresivos, en detrimento de la forma. En definitiva, el período abordado nos legó manifestaciones artísticas sin igual en la historia, llenas de vida y sobre todo de realidad, para disfrute de los que amamos el arte como medio para expresar sentimientos.

52

Isagogé, 2 (2005)


OPINIÓN Y ANÁLISIS

LA GRIPE DE 1918, LA PANDEMIA DE GRIPE AVIAR Y EL MIEDO: CONSECUENCIAS DE UN MUNDO GLOBALIZADO José Mª Martínez Jiménez LA GRIPE «ESPAÑOLA» Durante el otoño de 1918 se entabló en todo el mundo una encarnizada batalla contra uno de los enemigos más mortíferos que la humanidad ha conocido: la gripe. Sí, la gripe que todos los años se presenta con más o menos boato, apareció al final de la Primera Guerra Mundial con más espectacularidad que nunca. Fue el 7 de septiembre de 1918 en un campamento militar de las afueras de Boston, donde un soldado cayó enfermo con fiebre elevada y se pensó que padecía meningitis. Dicho diagnóstico cambió repentinamente cuando, al día siguiente, fueron ingresados una docena de soldados con los mismos síntomas. El 23 de septiembre ya habían pasado por el hospital 12.604 personas en un campamento de 45.000, debido a una enfermedad desconocida. La epidemia se extendió rápidamente por todo el mundo transportada por las tropas enviadas al frente, la mayoría de los cuales pereció en aquellos días a causa de la enfermedad, más que por los avatares propios de la guerra. En algunas localidades aisladas llegaron a morir más del 85% de la población adulta. De esta forma, cuando se extinguió, un 33% de la población mundial había padecido una enfermedad que, lejos de lo que cabría esperar, atacó en un 99% de los casos a los menores de 65 años, causando una mortalidad de entre un 2,5 y un 5%. Muchas de estas muertes no se debieron directamente al virus, sino a la neumonía causada por infecciones bacterianas oportunistas que aprovechaban la debilidad del paciente y el desconocimiento de los antibióticos por parte de la ciencia en aquella época.

No fue hasta los años 30 que se conoció el origen vírico de la pandemia, que segó la vida de 40 millones de personas en todo el mundo y que en Europa se conoció como la «gripe española», dado que España, a diferencia de los demás países, no impuso el férreo control informativo sobre la enfermedad, debido a su neutralidad en la Gran Guerra. Este nombre ha pasado a formar parte de la historia, a pesar de que el posible origen del primer brote epidémico, la ola de primavera de la gripe, se produjo casi con total seguridad en el mes de marzo en los cuarteles de Estados Unidos. Isagogé, 2 (2005)

53


COMPRENDIENDO AL ENEMIGO El origen de las epidemias de gripe y las estrategias para combatirla son temas ampliamente estudiados por la comunidad científica desde entonces, pero hasta fechas recientes no se había conseguido aislar fragmentos del genoma del virus de 1918. Y con una epidemia de grandes magnitudes en ciernes, estas investigaciones adquieren mayor relevancia. Se conoce que una de las causas por las que el virus de la gripe tiene tanta potencialidad patogénica es su extraordinaria capacidad para mutar o modificar su apariencia ante los mecanismos de defensa de nuestro organismo. Haremos por tanto una descripción breve del virus de la gripe para poder comprender mejor el fenómeno de la pandemia. Existen básicamente tres tipos de virus de la gripe, clasificados con las letras A, B y C. Tanto la forma B como la C afectan en exclusiva a humanos y nunca han originado pandemias. Pero el virus de la gripe A puede afectar a humanos y a una amplia variedad de animales, domésticos y salvajes, con lo cual se hace más difícil su control, y ha resultado el responsable de todas las pandemias de los últimos cien años. Las aves acuáticas son resistentes a todos los subtipos del virus A, lo cual significa que llevan al virus en su tubo digestivo sin que éste les provoque síntomas. Este fenómeno tiene amplias repercusiones en zonas donde conviven cerca o en íntimo contacto con poblaciones humanas como animales domésticos. Los virus de estas aves pueden encontrarse con otros subtipos del virus, de forma que por combinación de sus genotipos den lugar a nuevas cepas del mismo que posean mayor capacidad de infectar a otras especies o de ser más agresivas. Por otro lado, el de la gripe, al ser un virus de ARN, cuenta con la ventaja añadida de no poseer ningún mecanismo que asegure la fiabilidad de las copias de su genoma, con lo cual las mutaciones son frecuentes, y por tanto la aparición de nuevas cepas. Estas diferentes cepas del virus de la gripe se identifican según las proteínas que exponen en su superficie: La Hemaglutinina (HA) y la Neuraminidasa (NA). Nuestro sistema Hemaglutinina inmunológico nos defiende del virus mediante el reconocimiento de estas proteínas, pero hay al menos 15 variedades distintas de HA y 9 de NA, de modo que según el virus en cuestión combine un ARN. tipo u otro, tendríamos alrededor de 135 tipos 8 secuencias diferentes de virus al que enfrentarnos. En la práctica no se presentan todos los subtipos posibles, pero aún así la variedad sigue siendo importante. La cepa de 1918 fue la primera en llamarse H1N1, y a partir de ahí las siguientes pandemias fueron Neuraminidasa provocadas por los virus H2N2 y H3N2, responsables respectivamente de las pandemias de 1957 y 1968. La característica más importante que posee el virus de la gripe aviar que nos ocupa, el H5N1, es su capacidad para dar el salto desde animales a humanos gracias a la modificación de la proteína HA vírica. El paso siguiente hacia la previsible pandemia sería que dicha modificación u otra ulterior desembocara en una capacidad, no ya para transmitirse de animales a personas, sino para poder contagiarse entre humanos. Hasta el momento esto último no ha ocurrido aún, pero teniendo en cuenta el tipo de virus al que nos enfrentamos, esta eventualidad es algo más que probable.

54

Isagogé, 2 (2005)


INSTITUCIONALIZACIÓN DEL FENÓMENO La reciente amenaza, que a modo de fanfarria de entrada de una pandemia aún por venir, dejó caer la OMS sobre el mundo a principios de octubre de 2005, y la reacción subsiguiente, pone en evidencia lo frágiles y vulnerables que nos sentimos en Occidente, aun poseyendo nuestra tecnología y avances sociales. Me refiero particularmente a Occidente porque en otras regiones del globo como África o el Sudeste Asiático existen peores enemigos contra los que ya se entablan encarnizadas batallas y que, a pesar de las numerosas bajas que año tras año se cobran, siguen sin ganarse. Estamos hablando del SIDA, las hambrunas, la malaria, las guerras fraticidas, los dictadores implacables y un sinfín interminable de gigantes de siete cabezas, que atenazan si cabe aún más, las escasas capacidades de desarrollo, no ya de países concretos, sino de continentes enteros. Como iba diciendo, es en el seno de los países desarrollados donde más ha cundido la alarma, a pesar de tratarse de los más protegidos frente a la amenaza de una pandemia de gripe similar a la de 1918. Esta circunstancia, desconcertante cuanto menos, se entiende por varios motivos que ayudan a explicar la posición de los países más desarrollados a comienzos de este recién estrenado siglo XXI. Pongamos como ejemplo a Europa. En una sociedad donde la economía rige el destino de los gobiernos y el curso de la historia, Europa tiene mucho que perder ante la eventualidad de una amenaza sanitaria como la anunciada. A su vez, aparece como una de las principales responsables de que el devenir de los acontecimientos desmerezca los augurios desatados. Todos estos aspectos son importantes a nivel político, pero es entre la población donde se acusa más el grado de preocupación y miedo. Sólo es necesario señalar, para ilustrar el fenómeno, que la psicosis inicial —generada por una mala gestión de la información— provocó que la industria farmacéutica alcanzara en poco tiempo, tras el anuncio de la alerta, dos récord históricos en apariencia opuestos: el récord de ventas y el de impopularidad y rechazo. Hasta ahora los europeos no se habían visto en la tesitura de sentirse amenazados personalmente y de forma directa a causa de la protección de los derechos de propiedad intelectual de un producto. Sin embargo, en Brasil por ejemplo ya tienen la experiencia de tener que batallar con las compañías farmacéuticas para poder suministrar antirretrovirales contra el VIH a su población. La ley brasileña, amparada en algunas directrices de la Organización Mundial de Comercio que velan por el interés público, permite que cualquier fármaco aprobado antes de 1997 pueda ser fabricado como genérico, y así favorecer el acceso a los medicamentos de primera generación a toda la población. Leyes y acciones políticas como ésta van en claro detrimento de los márgenes de beneficios de las grandes empresas farmacéuticas, pero gracias a ellas se espera ofrecer tratamiento en Brasil a 200.000 personas durante el 2006. La salud de las personas debería estar por encima de los intereses económicos, pero no siempre es así. Pues bien, en relación con la situación actual y con el tema que nos ocupa, la gripe aviar ha despertado la conciencia dormida del europeo medio que, acostumbrado a sentirse seguro refugiado en su sistema sanitario de turno, ha visto desfilar ante sí el fantasma del desabastecimiento, los impedimentos legales y los intereses comerciales más cainistas. Sin detenernos mucho más en la cochambre de lo ya conocido, me gustaría destacar que lo realmente interesante de este discurso es que no es ni mucho menos nuevo. Esta situación lleva viviéndose en África desde hace mucho tiempo, pero es ahora, al afectarnos directamente a nosotros, cuando nos hacemos eco de ello. ¿Por qué?

Isagogé, 2 (2005)

55


El miedo. El miedo es ahora, como lo ha sido en tantas otras ocasiones a lo largo de la historia, el motor de todo el proceso, y siempre ha tenido y tendrá dos orígenes fundamentales: el desconocimiento e incertidumbre y la certeza del sufrimiento. En esta ocasión, las dos causas han tenido su protagonismo. Por un lado, el anuncio de la más que posible pandemia y su comparación inmediata con la catastrófica epidemia de 1918, junto con las informaciones mal gestionadas de su incidencia y gravedad por parte de los medios de masas, así como las muertes en el Sudeste Asiático, crearon un estado de opinión, que se reforzó a medida que la enfermedad iba apareciendo entre las aves de Europa, según el cual era casi inevitable lo peor. O sea, la práctica certeza del sufrimiento de miles o incluso millones de personas a manos de una gripe potencialmente mortal y claramente inminente. Si a esto le unimos la desinformación y confusión general entre la población, sobre los mecanismos de propagación, prevención, tratamiento y gravedad, provocamos que muchos ciudadanos acabaran con las existencias en las farmacias de Tamiflu y Relenza, los dos medicamentos capaces de hacer frente a la infección. Todo esto sin tener certeza de la efectividad real que ambos medicamentos —sobre todo Tamiflu, el recomendado por la OMS— pueden tener al tratar infecciones de virus transmisibles entre humanos, y a pesar del conocimiento de la resistencia presentada por una niña vietnamita infectada por la cepa H5N1 a este medicamento, hecho publicado por la revista Nature. No contentos con esto, las ventas de pollo descendieron de forma sensible injustificadamente, a pesar de los esfuerzos de los poderes públicos por demostrar la inocuidad de su consumo, con el consecuente perjuicio económico. Mientras tanto, los beneficios de Roche y GlaxoSmithKline, fabricantes de Tamiflu y Relenza respectivamente, crecieron espectacularmente, al tiempo que diversos grupos presionaban para que liberasen las patentes con antelación necesaria para que todos los países pudieran hacer acopio suficiente de reservas ante el mal que se avecinaba. Sin duda, todo un panorama grotesco de alarma descontrolada, mientras que en la zona más sensible e indefensa ante el eventual avance de la enfermedad, África, la vida continuaba entonces —y lo hace ahora— con su habitual dosis de tragedia cotidiana, sin que cunda el pánico y sin grandes dosis de preocupación por parte de sus vecinos europeos. En conclusión, la posibilidad de que se desencadene una pandemia de gripe es clara, pero el miedo excesivo generado por ello es reflejo de una sociedad que tiene que entender que, con creciente asiduidad, fruto de un mundo cada vez más globalizado, se verá abocada a combatir junto con los países menos favorecidos no sólo pandemias, sino catástrofes y toda una serie de desdichas habidas y por haber, incluido el terrorismo. Esta situación exige de los países más industrializados una postura decididamente activa en la resolución de los problemas reales, dirigiendo sus esfuerzos a la raíz de los mismos en lugar de a las consecuencias coyunturales, como las inundaciones originadas por uno de los muchos huracanes que arrecian, o la amenaza de una pandemia global de gripe, que esperemos sea lo más leve posible o al menos no tan apocalípticamente catastrófica como algunos pretenden hacernos pensar. Tranquilidad ante todo. 56

Isagogé, 2 (2005)


CERVANTES, VERNE, LA NOVELA DE CABALLERÍA Y LA DE ANTICIPACIÓN CIENTÍFICA José Manuel Ventura Rojas En trabajos como el presente es usual y pertinente comenzar con una explicación sobre el porqué de su realización y qué puede aportar a la inmensa y bien cualificada bibliografía ya existente sobre los temas que nos incumben —por su enormidad y fácil acceso rogamos se nos excuse de citarla en este pequeño ensayo—. La modesta reflexión que presentamos fue concebida hace unos años, y creemos interesante aprovechar la efemérides de ambos autores en el año 2005 para exponerla aquí de modo resumido. Nuestro objetivo se limita básicamente, que no es poco, a impulsar la lectura de las obras literarias que mencionamos, así como la reflexión en torno a las mismas, sus autores, sus respectivos contextos históricos y el nuestro. A primera vista, insertar juntos en un ensayo a Miguel de Cervantes y Julio Verne puede parecer fuera de lugar, y forzado dislate compararlos. Tampoco se piensa, en principio, que tengan algo en común la novela de caballería y la de anticipación científica. Mas lejos de buscarle aquí los tres pies al gato, creemos oportuno establecer unas curiosas correlaciones que, sin olvidar las diferencias evidentes, nos ayudan a comprender mejor a cada autor y cada tema, el contexto en que se desenvolvieron y las interpretaciones que sobre ellos se han realizado. La obra de «el manco de Lepanto», en primer lugar, se muestra más compleja y ambigua que la del francés padre de la «anticipación científica». Ello obedece a su carácter, así como a las circunstancias históricas. Ambos autores gozaron de gran fama en vida, aunque sus existencias fueron tan diferentes como el sentido de sus obras: el pesimismo hispánico de principios del siglo XVII de la primera, el optimismo positivista decimonónico de la segunda. Cervantes y Verne escribieron en sendas épocas de grandes transformaciones —aunque eso vale para muchas otras—, de ampliación de los horizontes geográficos y espirituales: el primero en las postrimerías renacentistas, tras la conquista de América y en su proceso colonizador; el segundo en la era de la revolución industrial, el liberalismo y el imperialismo decimonónicos. Los trabajos del galo y del español recogen una amplia tradición literaria existente para renovarla y transformarla de un modo tan notable como original. El caso del Quijote es, desde luego, más llamativo porque se muestra prácticamente único en su especie, todo un género en sí mismo. En la obra de Verne reside una riqueza de otro tipo: la del inaugurador de una nueva etapa de la narrativa de entretenimiento, con características propias, variedad de temas y muchos continuadores e imitadores. Lo más llamativo son los ingredientes de sus argumentos, mientras que el tono y estilo están a medio camino entre la novela de aventuras del diecinueve y la ciencia-ficción del veinte. Ambos crearon un nuevo enfoque literario, aunque sus estilos no son iguales. Verne se interesó más bien por la trama y su producción se vio condicionada por las circunstancias de sus contratos editoriales, que exigían al menos tres libros al año. Se concentró fundamentalmente en la novela, pues sus primeros intentos en el teatro fueron poco afortunados. Cervantes cultivó tanto poesía como prosa y teatro de manera sobresaliente, sin que, por otra parte, constituyeran su principal medio de vida —sus ingresos fundamentales provenían de los oficios de militar y funcionario—. La mayor parte de la obra cervantina se publicó en los últimos años de su existencia y el corpus de la misma se diversificó dentro de las posibilidades narrativas de su tiempo —cultivó la novela picaresca, pastoril, bizantina— y más allá en su obra maestra. Con El ingenioso Isagogé, 2 (2005)

57


hidalgo Don Quijote de la Mancha alumbró la novela moderna. Verne se circunscribió sobre todo a los márgenes de esta última, y en concreto a la novela de aventuras del siglo XIX, que revitalizó con la inclusión de elementos y argumentaciones con una base científico-técnica, para crear la categoría de «anticipación» —convirtiéndose en padre de la misma junto con H. G. Wells—, que en la centuria siguiente continuó su evolución culminando en la ciencia-ficción —término acuñado por Hugo Gernsback en la década de 1920—. Resulta, pues, paradójico comparar al escritor de De la tierra a la luna, quien amplió, diversificó y transformó los cauces de la literatura fantástica y de aventuras, con el padre de Don Quijote, cuando este último pasa por ser el autor que se burló de los libros de caballería —o sea, la fantasía literaria del siglo XVI— e hizo impopular durante siglo y medio la literatura imaginativa. Ello, no obstante, ha de matizarse un tanto. Hasta mediados del siglo XVIII las aventuras del ingenioso hidalgo manchego se leyeron superficialmente, enfatizándose en los elementos cómicos. Pero su mensaje de crítica a la literatura fantástica no es radical y terminante, ni es el único, y es posible hacer otras interpretaciones más allá de dicho horizonte. El Romanticismo alabó la obra por lo contrario, por su apología idealista frente a la grisácea y mostrenca realidad, trocando la imagen del protagonista de loco risible a héroe trágico. Por otro lado, como bien han señalado los especialistas, Cervantes satirizó tan certeramente los clichés de las novelas de caballería porque había sido gran lector de ellas. El capítulo del donoso escrutinio de la biblioteca por el cura y el barbero así lo atestigua, y por boca de aquellos y otros personajes deducimos parte de los gustos y preferencias literarias del autor, que reivindica obras como el Amadís de Gaula de Montalvo así como, en otros lugares y de manera más solapada, las novelas de Feliciano de Silva —el Amadís de Grecia, Don Florisel de Niquea y, en otro ámbito, la Segunda Celestina—, distinguiéndolas de la morralla perpetrada por escritores mediocres. Otra cosa es que pensara que el género llegaba, en muchas ocasiones, a extremos cansinos y risibles, y considerase oportuno realizar una inversión sistemática de todo ello en su exposición. Es mejor que no avancemos más en el espinoso terreno de aventurar las opiniones y gustos de Cervantes, tema sobre el que, paradójicamente, sólo contamos con escasos indicios, con más conjeturas que certezas —la de Cervantes, aunque no lo parezca, es una biografía que presenta numerosas incógnitas—. Pero, por la lectura de las obras de este «yo socarrón, yo poetón», deducimos que probablemente se burlaba, en el fondo, más que de las obras en sí, de las estrechas mentalidades de sus coetáneos, escritores y lectores, tanto los aficionados incondicionalmente acríticos como los adversarios igualmente irracionales. Asimismo, en el Quijote están presentes, como en la vida misma, tanto el optimismo como el pesimismo, y se hace difícil decir si un elemento predomina más que otro. Verne no perseguía un realismo en ese sentido, y más que el mundo interior de sus personajes, le interesaba narrar sus aventuras, cuyo tono es predominantemente positivo, aunque tampoco está ausente el pesimismo sobre la condición humana y su destino —buen ejemplo de ello lo tenemos en la figura del capitán Nemo—. Su dominio de las reglas del género eleva su prosa por encima de los estereotipos, sin perseguir tampoco las alturas intelectuales que alcanzan los debates sobre la obra cervantina. Mayores afinidades encontramos al comparar la ciencia-ficción y anticipación científica con los libros de caballería. Se trata de dos manifestaciones de la literatura destinadas al gran público, para el entretenimiento y la evasión a través de mundos inventados en los que se dan cita elementos fantásticos, pero también un trasfondo que alude a los anhelos y las realidades del contexto histórico en el que fueron creados. Las novelas de caballería y las de ciencia-ficción se convirtieron en un amplio fenómeno 58

Isagogé, 2 (2005)


sociológico de su tiempo. Las atribuladas cabezas de los soñadores de caballeros, princesas y encantadores de corte quijotesco recuerdan, en cierto modo, a las de los «fans de los hombrecillos verdes y los platillos volantes». También en los dos casos se suscitaron polémicas a favor y en contra de los mismos, y durante mucho tiempo la mayor parte de los críticos han sostenido visiones negativas y despectivas de ambos. Posturas bastantes injustas e inexactas porque, tanto en los libros de caballerías como en los de ciencia-ficción, encontramos numerosas obras bien escritas —que al menos cumplen su función lúdica, como mínimo—, y hasta de grandes méritos literarios, que no deben meterse en el mismo saco de las novelas mediocres y simplemente malas. También de estas últimas hay abundancia en otros terrenos tenidos por más elevados y encomiados por la crítica. No se olvide que uno de los objetivos fundamentales de la literatura es entretener, y bien lo sabían los autores que mencionamos. Las novelas de caballería solían volver su atención a lugares y tiempos lejanos, fabulosos. La anticipación y cienciaficción se orienta fundamentalmente, aunque no siempre, al futuro, pero la mayoría de las veces trata de consolidar la plausibilidad del mismo, por muy remoto que sea. En los dos casos se busca la evasión a mundos fantásticos y se encuentran no pocas veces alusiones a las inquietudes del propio presente, metaforizado en esos entornos ficticios. Pero una de sus divergencias fundamentales reside en la mayor flexibilidad y mutabilidad alcanzada por la ciencia-ficción, fruto de su riqueza de temas y tonos adoptados, desde la épica a la utopía o la sátira —en clave positiva o negativa, según el caso—. Por su parte, lo que conocemos como «libros de caballería» del siglo XVI procedían de la evolución de los poemas épicos y prosas de temática caballeresca que florecieron en Europa desde el siglo XII, que a su vez rescataban temas de los más antiguos «cantares de gesta» —Los Nibelungos, La Canción de Roldán, el Poema de Mío Cid— adaptados a los gustos de la época en que floreció la caballería y el amor cortés. Hacia mediados del siglo XV las reelaboraciones de aquellos y otros temas — sobre todo la «materia de Bretaña», esto es, el ciclo artúrico, asuntos trovadorescos, etcétera— derivaron hacia la inclusión cada vez mayor de elementos fantásticos, nombres rimbombantes y tramas rocambolescas que caracterizaron a los amadises, palmerines y sus imitadores. Empero, se conservó paralelamente una línea de obras más centradas en la vertiente realista y que excluía dichas fabulaciones, desde las crónicas heroizadas de personajes reales al estilo de El Victorial o crónica de Pero Niño, hasta novelas como el Tirant lo Blanc de Joanot Martorell, inspirada en la vida de Roger de Flor. El desarrollo de la vía más fantasiosa del género condujo a las polémicas mencionadas, por motivos como el rigorismo de la reforma y la contrarreforma, cuya austeridad censuraba aquellos «vuelos de fantasía», prohibiendo su exportación a América e incluso su lectura —medidas que, en la práctica, fueron frecuentemente burladas—. Con todo, el ocaso de la novela de caballería no se debió a dichos obstáculos, sino más bien a los cambios de gustos en una nueva época, el giro temático y formal del Barroco hacia otros temas, y desde luego la obra cervantina le dio sonada y terminante puntilla. Como ocurre con los mitos, la novela de caballerías tuvo su amanecer y ocaso, de leyenda folklórica a arte fantástico, para acabar cayendo en el humorismo y la bufonada. Pero ya hemos dicho que Cervantes hace algo más que lo señalado en esos últimos estadios, porque confiere a su libro de una gran humanidad, traza unos personajes que acaban trascendiendo de los meros «tipos» para adquirir un «carácter»: Quijote y Sancho tienen mucho de arquetipo, el gordo y el flaco, el idealista y el realista, pero es innegable que acabamos viéndoles con ternura, como si fueran Isagogé, 2 (2005)

59


personas reales. Con sus evidentes y anchurosas diferencias, El Quijote presenta los mismos ejes orientadores que el género de la ciencia-ficción, aunque sus puntos cardinales presenten orientaciones inversas: al norte la sátira y la «distopía», al sur la «eutopía» humanista —el reverso positivo o lo que solemos entender por utopía, mientras que «distopía» alude a su reverso negativo, porque no olvidemos que la locura de los actos de Don Quijote no contamina sus principios, que son sensatos y justos—; al este lo imaginario —fundamentalmente el irrealismo y la fantasía que mueven al protagonista—, y al oeste el anclaje con lo racional y el naturalismo, que se mantiene durante el libro, contrastando con la visión quijotesca. Esta mezcla de elementos contribuye a la complejidad, a la polisemia de la obra cervantina. Si la novela de caballería es fundamentalmente un género de aventuras, la ciencia-ficción ha tendido en muchas ocasiones —ya desde las obras de Verne y Wells— a trascender más allá, elaborando argumentos en los que se plantea la reflexión filosófica, científica y ética, de forma auténtica y sincera en muchos casos, aunque en otros no pasa de huecas pretensiones de vestir con estos ropajes la aventura y darle así mayor respetabilidad e interés ante la audiencia. En todo caso, da un paso más y enlaza con la tradición renacentista de la literatura «eutópica», término que designa lo que conocemos como utopía —el libro de Tomás Moro, La Ciudad del Sol de Campanella y La nueva Atlántida de Francis Bacon son los tres exponentes fundamentales—; mientras que su reverso negativo, la «distopía», entronca más bien con la sátira del mundo clásico, también retomada y desarrollada a partir del siglo XVI —de Rabelais a los dieciochescos Viajes de Gulliver de Jonathan Swift—. Bien mirado, la novela de caballería es «utópica» en el sentido primario del término: sus historias se desarrollan en «ningún lugar», en mundos muy lejanos o hipotéticos, y la mentalidad y acciones de sus protagonistas se sitúa en el ámbito de los modelos ideales. Los mismos que trata de imitar Don Quijote en la España de su tiempo, con los resultados que todos conocemos. Las mayores posibilidades actuales de la lectura han hecho crecer y diversificarse los géneros literarios. Pero como todo en la vida, estos últimos también son mortales, y si no desaparecen del todo, al menos se transforman. ¿Caducará la ciencia-ficción como la novela de caballería? Ambas manifestaciones surgieron dentro de un contexto histórico muy particular. Hoy puede comprobarse cómo ha remitido la obsesión y la fiebre por las visiones futuristas que alimentaban el pensamiento heredero del positivismo decimonónico. Quien se dé una vuelta por cualquier sección de literatura fantástica en una librería actual notará cómo ya no ostentan la primacía los argumentos sobre futuros lejanos o historias interplanetarias, habiendo ganado terreno el presente o el futuro cercano, así como la fantasía heroica, la ucronía o temas sobre universos paralelos y semejantes. Reflejo, en el fondo, de un cambio en la mentalidad actual, más enfrascada en su presente y que apenas se plantea el futuro más allá de lo inmediato —ora por miedo, ora por mera autocomplacencia, indiferencia o apatía—. Pero la diversificación y complejidad que ha alcanzado la ciencia-ficción le conferirá una mayor capacidad de supervivencia. Desde luego, pervivirán las grandes obras del género, al igual que lo han hecho, por su parte, a pesar de las adversidades, títulos como el Tirante el Blanco o el Amadís de Gaula que hoy vuelven a editarse, todavía de forma muy limitada e insuficiente. Pero para ello hace falta que siga habiendo lectores que busquen un rato de diversión a la vez que nuevos horizontes, interrogándose a sí mismos y a lo que les rodea. En ese sentido, las obras de Cervantes y Verne constituyen, sin duda, un valiosísimo legado, literario y humano, para las generaciones actuales y venideras. 60

Isagogé, 2 (2005)


LA SOCIEDAD MULTICULTURAL: UN RETO PARA LOS DOCENTES ESPAÑOLES Francisco Castillo Arenas La nueva sociedad multicultural plantea a los docentes españoles nuevos retos que no todos están en condiciones de abordar. De entre los países de tamaño mediano-grande en la Unión Europea, España es el que está recibiendo inmigrantes a mayor velocidad. La inmigración que está acogiendo no se parece a la que vivió Centroeuropa en los años sesenta del siglo XX. Esta última fue llevada a cabo por europeos meridionales (por ejemplo, españoles) que mantenían ciertos vínculos religiosos, raciales, lingüísticos y culturales de similitud con los países de acogida (Alemania Federal, Francia, Suiza, etc.), hecho que hacía más fácil su integración e incluso su asimilación. La nueva inmigración, por el contrario, está protagonizada por poblaciones extraeuropeas con lenguas, razas y religiones diferentes a las tradicionales europeas. España se ha encontrado en poco tiempo con la necesidad de escolarizar a un número ingente de niños y jóvenes que tienen poco en común con el modelo tradicional de alumno. Estos importan sus virtudes culturales y también sus defectos. En las comunidades autónomas de Cataluña y Madrid ha cundido la alarma por el surgimiento de bandas juveniles de origen iberoamericano en las escuelas, lo que ha tomado por sorpresa a las autoridades educativas. ¿Están preparados los docentes españoles? Hagamos un breve repaso de cada una de las categorías en que se integran y cómo se les prepara en cada una de ellas: Docentes de primaria (maestros): Se forman en las Escuelas Universitarias de Magisterio. Esta masificada diplomatura dura tres años. Tiene el obstáculo de que, en muchos casos, ha servido de refugio a alumnos que no han logrado entrar en otras carreras, y tradicionalmente la atención a la multiculturalidad fue nula. En los últimos tiempos está empezándose a hablar en ella del asunto, gracias a profesores que se hacen eco de la nueva realidad. No obstante, el feed-back, es decir, el estudio de los problemas de práctica laboral diaria de los antiguos alumnos, nunca ha sido un punto fuerte de la universidad española. Docentes de secundaria (profesores de instituto): Los profesores españoles se forman científicamente en la universidades, realizando carreras que duran unos cinco años. Ahora bien, la formación docente, es decir, lo que les faculta para enseñar a adolescentes, es un cursillo de cuatro meses (varía en cada universidad e incluso se puede obtener a distancia) llamado CAP (Curso de Adaptación Pedagógica), que suele estar considerado por sus asistentes como una auténtica pérdida de tiempo. Las clases consisten en conferencias de profesores de instituto en activo, y en unas prácticas en un instituto que pueden durar desde una semana hasta un mes, pero raramente se imparte clase real más de cuatro días, después de asistir a las primeras sesiones como oyente. La educación para la multiculturalidad es algo que sólo se empieza a atisbar y emana de la experiencia directa de los profesores del cursillo. Al término de este proceso, sin haber pasado un examen real, todos los alumnos aprueban y ya están capacitados legalmente para ser educadores.

Isagogé, 2 (2005)

61


Docentes de universidad (profesores universitarios): Los únicos requisitos son los procedentes de los títulos académicos en su materia. La formación docente de los profesores universitarios españoles es cero. A simple vista se puede apreciar que la formación didáctica de los docentes españoles es escasa y, en algunos casos, nula. Esto repercute en la calidad de la educación que reciben los alumnos españoles, pues si bien un profesor puede ser una eminencia en matemáticas, si no sabe enseñarlas, sus alumnos no aprenderán nada y el resultado sería el mismo que el de contratar a un analfabeto; con el agravante de que este último sería mucho más barato. El sistema español de formación de docentes necesita cambios urgentemente. Cambios que se han prometido desde el estamento político, pero que no acaban de cuajar. Si se llevan a cabo, será el momento propicio de introducir materias que faculten a los docentes españoles para tratar a alumnos que provienen de sustratos culturales diferentes. El país que ha sido pionero en la educación en un entorno multicultural han sido los EE.UU. Su modelo ha recibido críticas, pero ha servido de punto de partida para otros. Para empezar, todos los que quieren ser maestros (de primaria o secundaria) en dicho país, deben incluir en sus estudios dos años de preparación docente en la universidad y las prácticas, dando clases reales, pueden llegar a durar desde un semestre hasta un año escolar completo. En dicha formación, el estudio de «cómo enseñar» a alumnos en grupos multiculturales es conditio sine qua non, y si no se muestran aptitudes para ello, no se obtendrá la licencia. Por poner un ejemplo de material real, se les enseña que los alumnos asiáticos están educados para no mirar a los ojos en señal de respeto. Por lo tanto, si se les reprende por algo, estos mirarán hacia abajo, al contrario de lo que hacen los alumnos occidentales que sostienen la mirada para recibir la reprimenda. Saber este simple detalle evitará el conflicto de que el profesor se irrite porque el alumno asiático no le mire. Esta formación del profesorado debe reciclarse cada cierto tiempo en cursos a los que debe asirse y superarse, o de lo contrario se procederá a la retirada de la licencia al docente. El resultado es que la escuela norteamericana sigue ejerciendo su función de formación de ciudadanos estadounidenses que aprenden a convivir. Es normal que, en un sistema que aparta a la religión de la enseñanza, se admita, por ejemplo, que los alumnos tengan libres la fecha de la navidad cristiana, puedan faltar el día del Hanuka judío, se celebre el Kwanza (la «navidad» afroamericana) o haya una semana de actos culturales de las comunidades presentes. La escuela intenta aunar a todos para crear una realidad de valores patrióticos comunes. En Europa les vamos a la zaga, pero ya es común que no se conciba la formación de los profesores sin materias sobre la educación en ambientes multiculturales. Esto ocurre en países como Reino Unido, Francia o Alemania, en los que la asignatura de educación en ambientes multiculturales es obligatoria en los curricula de los futuros profesores. Por el contrario en España, donde el asunto es ya algo tangible, aún no se ha apostado por la «formación para la formación» (valga la redundancia) dentro de esta nueva realidad multicultural. La educación española tiene un gran reto por delante y debe empezar a moverse para afrontarlo.

62

Isagogé, 2 (2005)


MISCELÁNEA DOCUMENTOS

CARTA DE KÁROLY MANNHEIM A GYÖRGY LUKÁCS Nóra Lóránt y Vicente Millán Torres No creemos necesario presentar a dos figuras tan representativas del pensamiento contemporáneo como György Lukács y Károly Mannheim. Lo que sí cabe destacarse es la temprana edad, tan sólo 19 años, con la que Mannheim escribe esta carta. Poco meses después Mannheim tuvo la oportunidad de participar en uno de los encuentros más significativos de la historia intelectual del siglo XX, no por ello uno de los menos conocidos y documentados: el «Círculo de los Domingos». Todos los domingos tenían lugar una curiosa reunión en una casa situada en Buda. Los asistentes son de sobra conocidos, entre otros, Béla Balázs, Arnold Hauser, Tibor Gergely, József Révai y, por supuesto, nuestros dos protagonistas. La Gran Guerra que se avecinaba dispersó —lo llamamos exilio— las ideas que surgieron de aquellas reuniones. Heidelberg, Berlín, Moscú y Londres serán las primeras beneficiarias de esos encuentros, y posteriormente Estados Unidos recogería el legado de quienes escaparon de la barbarie nazi. La carta que aquí presentamos, originalmente en húngaro e inédita en castellano, pertenece al Archivo György Lukács de Budapest, uno de los fondos documentales que los nuevos tiempos han relegado al olvido. Un tesoro para quien quiera encontrar algo de lucidez en el «peor de los mundos posibles»: nuestro siglo XX. -------------------------------------------------------------------------------------------------------------------Budapest, 5 de enero de 1912 1 Estimado señor: Hasta ahora no le he escrito a Usted porque pensaba que no tenía derecho a molestarle con el caos de mis días y preguntas, y porque esperaba que todo aquello que hasta ahora ha surgido en preguntas se resolviese pronto en una forma que podría entregarle a Usted. Que ahora le escriba —y previsiblemente de forma extensa— se debe, por una parte, a que mis problemas se están formando ya en un orden resuelto y ahora ya se relacionan con alguien. Por otra parte le escribo porque su mensaje me infundió ánimo para hacerle conocer algunos acontecimientos de mi vida actual, que son de importancia primordial, para pedir su opinión respecto a que si en la dispersión de los problemas Usted ve el orden de la creación y en el modo en que lo quiero continuar observa una evolución necesaria e íntegra. Quisiera entregarle mis soluciones que abarcan en un círculo la extensión de mis preguntas actuales que, al mismo tiempo, constituyen la base de todo lo que viene posteriormente, y en este círculo quisiera avanzar más y más hacia el centro para que el ensayo que quiero escribir se convierta en actual y problemático 2 . He dejado a un lado cuestiones como «¿existe Dios?», toda pregunta por la causa y las preguntas filosóficas similares que, en una palabra, quiero llamar teológicas. 1 En el Diario de Juventud, junto a la fecha podemos ver la siguiente nota: «Lo escribí entre el 24 de diciembre de 1911 y el 3 de enero de 1912, por la noche del 4 y lo envié por la noche del día 5». 2 Por ese tiempo Mannheim Károly estaba preparándose para escribir una disertación sobre Dostoievski. De este estudio no quedo el menor rastro, ni siquiera se sabe si se realizó o no. Isagogé, 2 (2005)

63


No tiene sentido examinar las causas. El mismo hecho de preguntar por la causa es inútil y quien preguntó por primera vez «¿quién creó este mundo?» se respondió él mismo: la luna, el relámpago o cualquier otra cosa. ¿Por qué se puede recibir en cualquier momento otro tipo de respuesta a una pregunta así propuesta? Si preguntamos por la razón, en el mejor caso, también tan sólo podemos responder con causas. Y con esto no quiero ni mucho menos abandonar a Dios, sino que siento indigno el dirigirnos hacia Él frente a la sensación que nos lleva a su búsqueda, a su conocimiento. Dios —llámese como quiera— ya existe en mí a priori y de lo que solo podemos hablar es de «llegar de Él a Él». Creo que bien lo presentía un gran científico del Renacimiento (a quien aun no conozco) Cusanus 3 , quien partió de la hipótesis de que sólo existe el conocimiento de sí mismo, pero como la parte también es el todo conociéndonos a nosotros mismos conocemos el todo. Hacer consciente el inconsciente que está dentro de nosotros necesariamente desde el principio de las cosas, cobrar conciencia de nosotros mismos a lo largo de una vida, a través de los demás hacia nosotros y, lo que es lo mismo, a través de nosotros conocer a los demás, conocerlo todo tanto como si fuéramos nosotros mismos: éste es el camino del alma, de sí mismo a sí mismo. Así sólo podemos hablar de nuestra vida, las tendencias más escondidas de ella, y las podemos ver en un magnífico reconocimiento de sí mismo pronunciando su orden invariablemente unívoco. Y tenemos que creer en ello, que nuestra verdad no es solamente un capricho subjetivo, sino unívoca y a fin de cuentas lo mismo. Pues, para nosotros, los humanos son nuestra gran comunidad: esta es nuestra gran unidad. Esta creencia nuestra es más que cualquier saber, porque el saber siempre surge de la duda, pero eso es la certeza misma porque lo da la experiencia en su más profundo sentido: el orden inmediato de las experiencias.

«Conocer la Vida es más que la Vida, Conocer las leyes de la Felicidad es más que la Felicidad misma». (Dostoievski) Creo que aquí es donde hemos de buscar la raíz común de todas las formas, en donde se crea la comunidad del uno con el otro en todas las formas verdaderas: el drama, la poesía, la novela y la filosofía. Que uno sea drama u otro filosofía surge de la diferente manera de tratar la misma cosa. Por eso es posible que los problemas de la filosofía, pongamos por ejemplo los místicos de la Edad Media o los problemas de la filosofía hindú, siguen permaneciendo, se desarrollan más y se solucionan en las novelas y la vida de Dostoievski. Que la vida de los que viven tan lejos y no saben nada el uno del otro pueda entrelazarse a pesar de miles de diferencias, eso sólo puede ser porque se enfrentaban con lo mismo, con su vida, con la vida. El deber de la filosofía es ver esta identidad en sus formas y en las que nos heredaron. Esto sólo se puede descubrir inmanentemente en cada vida, en cada desarrollo que se encuentra en la naturaleza de las formas. La forma en sí, debido a su materia muerta y porque está fuera, sólo puede cobrar substancia, contenido explícito, en nosotros mismos. Y, puesto que nosotros nos enfrentamos a lo largo de nuestra vida con las cosas exteriores y allí transcurre nuestra vida, el problema de la inmanencia es el más importante. Del transcurso continuo del mundo exterior se desprende que la verdad y todos nuestros objetivos tienen que ser inmanentes y que el cumplimiento sólo realizarse en sí mismo. La búsqueda de la inmanencia tras las formas y, a la vez, la afirmación según la cual toda forma es efímera es el punto de vista de la filosofía (considerando filosofía lo que veo en sus tendencias originales) En cuanto es obligado que para el crítico «la forma sea la única realidad» tanto es necesario que para el filósofo, que es incluso más abstractamente consciente que el crítico, las formas tengan una existencia solo necesaria pero, a fin de cuentas, negándose a sí mismo frente 3 Cusanus, Nicolaus (1401-1464), filósofo originario Países Bajos y considerado como el primer representante importante del panteísmo en su época.

64

Isagogé, 2 (2005)


la inmanencia implantada en ellas. Este pensamiento haría al filósofo impotente y lo llevaría al crimen más grande que se puede cometer en esta vida, la negación. Sólo la filosofía puede comprometerse en esta tarea porque su tendencia original es la síntesis final. Y puesto que la síntesis final sólo es posible en la abstracción final sólo el alma puede ser su única realidad, la cual, como tal, es la extrema abstracción. Para el filósofo el alma emerge en la lucidez de la abstracción que sólo puede aparecer delante de ella, en el autoconcienciarse que aumenta todas sus formas y así se puede explicar que toda filosofía es mística en su resultado final, en sus raíces (que el matematismo de un Spinoza en su resultado final esconde el misticismo más extremo) La filosofía sólo puede aceptar una certeza que trae consigo como recuerdo de este concienciarse: que la vida, vida continua, sólo es posible en el alma. El crítico y aquello que provienen de otros caminos también pueden atribuir tal vida a las formas, por ejemplo como lo hicieron los románticos que pueden hablar también de «alma del pueblo». La filosofía, sin embargo, puede considerar como realidad sólo una cosa, el alma, al que lleva el autoconcienciarse. Y aquí entra otro problema importante de la filosofía de cuya resolución depende también el futuro destino de la filosofía: el problema de la permanencia. El problema de la permanencia puedo describirlo como sigue: «Si es posible un enfrentamiento directo permanente con nuestra alma, con nuestra vida». La tendencia de cada vida verdadera contenía la afirmación de esto, y así todo su esfuerzo y acto llevaba en sí inmanentemente este ideal. Los sacerdotes retirados en las cuevas o los ascetas hindúes simplemente pensaban encontrar aquel ideal por otros caminos que, por ejemplo, Dostoievski veía alcanzable en la profundización de cada uno de los hechos de la vida circundante. Pero el orden de las cosas y de la vida terrenal nos demuestra que el enfrentamiento permanente en su sentido original (como lo quieren los místicos en sí mismos) es imposible. Incluso contiene la moraleja de la equivocación de los que se sumergen en sí mismos: cuanto más se alejan de las cosas terrenales, tanto más cerca llegan al cielo, justamente fue Dostoievski quien enseñó que cuanto más arraigo tenemos a la tierra de manera obstinada, tanto más hemos llegado a la totalidad. Tal solución del problema de la permanencia determina también el camino de la formación siguiente de la filosofía. Puesto que el enfrentamiento permanente con nuestra propia alma y vida es imposible, ya que de la esencia de nuestra vida sólo podemos concienciarnos en momentos muy escasos y, en nuestros días, en momentos aparecidos como un milagro, como un auge, todo lo que queda es sólo memoria, por eso en el siguiente transcurso de la filosofía también sólo es forma, y justo por este motivo tienen que ser determinantes los criterios de la forma. Es en este punto donde se divide la filosofía en metafísica y ética. Frente a la metafísica y la ética se hacen valer los mismos puntos de vista que los de la crítica frente a todas las formas y, como tal, «¿es una materia?», no contradice ningún punto a sus tendencias originales. Con esto hemos vuelto al punto de partida, a saber, que la filosofía es forma como cualquier otra cosa, sus raíces se originan como las de cualquier otra formación, sólo que es diferente en su camino y en su método (y es justo esto lo que le otorga una posición diferente entre las formas); que su camino es la síntesis y su método la abstracción extrema. Esa forma peculiar de su camino y su método, su llamado gran carácter consciente, lo cual se manifiesta en que siempre busca las tendencias puras, le hace posible lo imposible, a lo cual no puede referirse ninguna otra forma, del que se originan todas las otras formaciones, lo encuentra de nuevo al final de su camino, a saber, el alma. Para la filosofía lo verdadero lo es basándose en la experiencia directa el alma, mi propia existencia es la única realidad absoluta, verdad que nosotros lanzamos hacia delante de toda nuestra búsqueda y sólo aparece al final del camino como se desprende del orden de nuestra vida. Puesto que en nuestra vida nuestras verdades se manifiestan dentro del marco del espacio y del tiempo, la base de todo aparece como resultado a posteriori. Ya que son los caminos los que nos llevan a las verdades hace falta tiempo para recorrerlos. Isagogé, 2 (2005)

65


Uno de los atributos más característicos de la filosofía, pero al mismo tiempo resultado de ser forma, es que sus conceptos principales, a posteriori – a priori, que significa que aparecen al final del camino aquellos resultados que deberíamos mandar delante por su importancia, por el contenido de su experiencia, y tenemos que tomarlo como certeza a priori de la primera frase de nuestra filosofía. El gran parentesco de la filosofía con la crítica ya está claro en los antecedentes. Lo común de ellos es que buscan correlaciones (no razones como muchos se confunden y creen que lo que es apropiado en las ciencias naturales, también aquí está en su lugar) y su goce es el pensamiento puro. Su gran diferencia es que mientras la crítica tiene ya desde el principio del camino (y ha de tenerlo) su única verdad, la forma, y justo por eso es su camino el análisis, el camino de la filosofía es la síntesis, por lo que incluso su única realidad aparece como resultado al final del camino. (Es natural que, hablando de filosofía y de crítica, entendamos tendencias puras, no se pueden confundir con el filósofo y el crítico quienes son necesariamente humanos, de carne y hueso, en quienes, como en todas los desarrollos el proceso de síntesis y análisis son paralelos, están en continuo devenir complementándose el uno al otro, por cumplir el uno al otro) Y que alguien elija la filosofía o la crítica para expresarse a sí mismo depende tanto de su propia aptitud como que alguien escriba lírica o épica. Pero siento una cosa (y, como no lo quiero generalizar, sólo lo digo de mí mismo): el camino de la crítica llevará indudablemente a la filosofía, incluso en el interés de la filosofía necesito la crítica, porque la filosofía siendo sintética no puede alimentarse de sí misma y sólo puede aparecer como integración de un cierto grado de diferenciación. Todo eso se lo he escrito a Usted, por una parte para que pueda contarle el desarrollo de mis pensamientos globales, por otra parte, porque dentro del marco de éstos puedo poner la imagen paralela de la necesidad que hace actual mi disertación que quiero escribir. Quiero escribir de Dostoievski. No sólo porque pienso que podría exponer mis problemas y mis preguntas a través de él o porque siento que el conocimiento de su vida promete soluciones, sino porque siento que su vida y su mundo tiene mucho parentesco con lo nuestro con toda su ambigüedad, con todo su incumplimiento y deformación. Ya que siento que su destino podría dar respuestas, ya sea en sentido negativo o positivo, a lo que nos preocupa a quienes vivimos en la actualidad. Estimo mucho a dos personas en nuestra época: Dostoievski y Ady. Examinando su destino, ¿de quiénes se puede obtener más enseñanza que de los suyos? Sé que en sus vidas se cumplió, pero su destino no puede ser el mío. Por eso este escrito mío sobre Dostoiesvki debería ser una biografía en el sentido más puro de la palabra. Cuando pienso en él no puedo imaginar una realidad más grande que su vida: esto me asegura que el escrito será una crítica. Es imposible que cualquier cosa escrita en esta carta se repitiera ahí; quiero que la única realidad de ese escrito sea Dostoievski. Quiero saber y quiero resucitar aquel día helado en San Petersburgo en que él andaba y aquella angustia del alma que él sentía en la noche que sólo puede ser una: como si me sucediese ahora y a mí. No podría atribuirle nunca a la Historia y la ocupación con los humanos de tiempos pasados el puro interés del esteta. Ni nunca podría ver la Historia como otra cosa que no brote de la necesidad de nuestra vida actual. Y, si retorno a Dostoievski, lo hago porque sé que tiene que convertirse en un factor de mi vida. La cercanía de su vida y mi relación con ella justifica suficientemente —creo— la necesidad de ocuparme de ella. Significaría mucho para mí si me enviase Usted su opinión sobre el trabajo que quiero comenzar ahora. Si le he molestado con una carta tan larga, y si lo aumenté incluso con un favor inoportuno, entonces, ante todo, le pido disculpas, pues no quería abusar de su cordialidad. Con respeto, su adicto: Mannheim Károly

66

Isagogé, 2 (2005)


P.D.: Quiero decirle a Usted, Señor, lo maravilloso que me resultó su interés por mis cosas y quiero contarle brevemente cómo pasé el tiempo transcurrido desde nuestro encuentro, espero que esto le interese. He estado con el profesor Alexander 4 después de venir a Budapest y me recibió con mucho gusto, lo cual puedo atribuir sobre todo a su recomendación, lo que me gustaría agradecerle en esta ocasión. Contándole mis cosas, él en todo el tiempo las aplaudía, pero tampoco él solucionó la validación de la filología hindú; no obstante consideró buena la elección de un estudio tan específico. Mantuve el contacto con él y, en cuanto a su seminario sobre Kant, leí dos veces 5 , la última vez arriesgando una opinión propia. Las dos las recibió con simpatía. Además me encargó la crítica de un estudio sobre Eucken 6 del seminario de los grados más avanzados que ya tengo hecha. Avanzo lentamente con Kant, pero me dedico a él comprendiéndolo de verdad — creo—, y ya tengo tres series de pensamientos relacionados con él, que serán las bases de un estudio sobre Kant posterior. Tampoco considero rígidos mis estudios de filología como esperaba y creo que la filología se puede abarcar en una comprensión profunda, como lo hace ahora, por ejemplo, Herr Paul 7 .

He estudiado gramática del alto alemán central, lo que necesitaré sin duda para la traducción de Eckehart. Espero con ansias la aparición de «A Szellem», tanto más porque Usted prometió un estudio en él que según mi presentimiento va a significar muchísimo para mí 8 . He recibido la galerada de la traducción 9 y en un par de días se la vuelvo a enviar corregida. Le estaría muy agradecido de que me informase, ya se encuentre en Hungría o en el extranjero, si ha escrito algo, porque yo sólo sé de su artículo publicado en el número navideño del «Pester Lloyd» 10 . Me hizo mucha ilusión su libro publicado en alemán 11 , fue muy extraño y extremadamente interesante releer lo escrito en alemán y descubrir el valor de los cambios.

4 Alexander Bernát (1850-1927), profesor de filosofía en la Universidad de Budapest, creador del lenguaje filosófico húngaro, reconocido erudito en la historia de la filosofía, estética y teoría de la literatura. Después de la revolución de 1919 le suspendieron de su empleo. Sus obras más conocidas: Estudios sobre Diderot (1900) y Shakespeare (1920) 5 Mannheim Károly hizo una lectura sobre La crítica de la razón pura en el seminario de Alexander. 6 Eucken, Rudolf (1846-1926), filósofo alemán, profesor de las universidades de Basel y de Jena, en 1908 recibió el Premio Nobel de Literatura. 7 Ernst, Paul (1866-1933), escritor y poeta alemán. Sus obras más conocidas: Der Zusammenbruch des Idealismus (1919), Komödiantengeschichten (1920) 8 No se llegaron a publicar más números de la revista. 9 Se trata de una traducción de Károly Mannheim sobre Hegel. 10 Se refiere al artículo de Lukács «El peligro galo» publicado en el número navideño del Pester Lloyd, 24 de diciembre de 1911, año 58, núm. 305, pp. 39-41. 11 Véase György Lukács: Die Seele und die Formen (1911) Isagogé, 2 (2005)

67


RESEÑA CINEMATOGRÁFICA

RÉQUIEM POR UN SUEÑO Antonio Jesús Serrano Castro Es extraño porque de niño solía mirar al mundo y veía que no era lo que se suponía que debía ser. Hubert Selby Jr. RÉQUIEM POR UN SUEÑO EE UU, 2000, duración 103 min. Drama Director: Darren Aronofsky

Interpretes: Ellen Burstyn, Jared Leto, Jennifer Connelly, Marlon Wayans Basada en el libro Réquiem for a dream de Hubert Selby Jr. B.S.O. de Clint Mansell y Kronos Quartet

Contemplo el mapa de Nueva York en la pared de mi zona de trabajo. Ciudad mitificada por mí en el subconsciente. Posible metáfora que guardo en relación con alguna parte de mi mundo interior que tendré que analizar. Por eso me arriesgo a presentarles esta película, que no deja de venir a mi mente cuando contemplo ese plano. Hubert Selby Jr., autor de la novela en que se basa el film, plantea la idea de que el imaginario del mundo en que creemos vivir viene desarrollado a partir del filtrado que hacemos de nuestras vivencias interiores y de las emociones y sentimientos que acumulamos, y no en sentido inverso como solemos pensar. Recordaba por ello el origen de la palabra «ojo» en lengua hebrea y sánscrita, «eien», que etimológicamente significa «fuente», por lo que nuestro ojo es proyector de un mundo interior, y no mero receptor de estímulos que habita en nuestras cuencas. Vemos la «realidad» tamizada por lo que experimentamos emocionalmente, a nivel interno, y a partir de ahí traducimos y conformamos el mundo. Escoger una película y someterla a la consideración del lector es una tarea arriesgada. El conjunto de historia, guión, fotografía, ritmo, banda sonora, mensaje y otros elementos fílmicos pasa necesariamente por el espectador, quien recibe y transmuta la obra y la relee a la luz de su propias claves. En esta relectura juegan un papel al menos significativo los propios y personalísimos gustos, que pueden convertir el mayor de los bodrios técnicos y artísticos en «obra de culto», o hacer que una gran propuesta cinematográfica pueda ser machacada en taquilla por no contar con el fervor del público. Por tanto no serán las audiencias las que orienten la invitación que les voy a hacer, sino mi gusto personal. De hecho es una de las que creo entrarían en la categoría de películas dignas de figurar en una videoteca cuya selección se pretenda de cierta variedad y buen gusto, por el conjunto de elementos que reúne y por la formulación equilibrada de los mismos. Cada visualización no hace perder interés, sino más bien lo contrario. Así, recomiendo la película Réquiem por un sueño, de Darren Aronofsky, a todo aquel que se interese por el cine que conmueve, que «remueve por dentro». Quien viera Pi y no se dejara transportar por el claustrofóbico caos quizás reniegue de la nueva propuesta de Darren Aronofsky, creyendo estar ante una clonación argumental del director. Si por el contrario disfrutó —si ésta es la palabra adecuada— permitiendo que el caos le embaucara y el orden establecido por él le desgarrara, 68

Isagogé, 2 (2005)


rehogado con la fotografía en blanco y negro, con la cámara encerrando a quien acepta su punto de vista en un estrecho margen de salida, con Réquiem por un sueño, creo, el espectador alcanzará unas cotas de mayor interés, desprendido del minimalismo sentimental de Pi y enfrentado al reto de entrar en derroteros emocionales más ricos, diversos, aunque también giran en torno a las adicciones. Interesa sobre todo la búsqueda para aliviar el dolor y cómo damos respuestas para evitarlo. Porque son las adicciones y la forma en que nos atrapan las experiencias escogidas para analizar en profundidad los sueños y la realidad. No debería verse en Réquiem por un sueño sólo una película sobre las drogas o la vida de yonkis. El vacío existencial y la recurrente necesidad de darle solución, con consciencia o sin ella, tiene su cobijo en esta película. Hasta el extremo de poner al mismo nivel que cualquier otra adicción a la esperanza, a la búsqueda de sueños, a la perdida de la realidad como elemento evasor en pos de lograr romper el desconcertante presente. La droga no es un concepto restringido en esta película. Como adicción engloba también a la televisión, las ofertas fantásticas,… todo aquello que nos vende el humo como remedio para obtener lo que creemos nos hará felices, todo lo que nos hace evitar el presente. «Droga», en la visión del director, es todo aquello que sin que nos percatemos nos va atrapando hasta que nos hace esclavos y acaba por impedirnos llegar a la felicidad que aspirábamos, alejándonos de cualquier salida que no sea volver al seno materno, a nuestro origen mas profundo. Una realidad que se deforma por momentos hasta que no somos capaces de reaccionar. Este es el ritmo que Réquiem por un sueño marca al espectador. El film parece avisarnos de que la falta de conciencia de la realidad del presente, que tendría como misión precisamente evitarlo, hacia donde nos lleva en su huida es a crear un vacío, que nos deja indefensos ante cualquier cosa que llegue e intente llenar ese vacío: drogas, televisión, pastillas… incluso la misma esperanza, entendida como constante anhelo sin reaccionar, parece que se convierten en droga. Precisamente por ello se mezclan estilos estéticos, para que la película sea atemporal: un símbolo de que la lucha humana contra la adicción no tiene un tiempo o un espacio concreto. Adicción, repetición y obsesión. Cuando las adicciones toman el mando, nos enervan, y nos llevan al punto culminante —aquel en que cuando los efectos euforizantes de las adicciones reducen su ritmo—, llega el asco, el vacío existencial como hundimiento en fosas oscuras. Es ésta una película emocionalmente intensa para un cine como el americano — poco acostumbrado a la cercanía al mundo real—, con sus oscuridades, con sus descensos vertiginosos, y como recuerda el propio director, con un inicio en el que no hay personajes que se ajusten a los estereotipos al uso, que sólo se salvan con la integración del espectador en la propia perspectiva de los personajes, lo que ayuda a entenderlos y a ser benévolos con ellos, dolientes con ellos, a los que solo puede dárseles ternura… Ni siquiera hay catarsis final, la acción gira como en una rueda con movimiento perpetuo, parece que nunca llega el karma que los rehabilita, ni siquiera hay perdón al término de la historia. Inusual como lo es también la ausencia del elemento característico del cine comercial en su conclusión, que omito y dejo como interrogante para que el espectador la descubra. La cámara opta por la primera persona, integrándonos en la visión de cada personaje y en los sueños, las fantasías y alucinaciones que sufren. Nos los presentan e introducen en su reinterpretación de la realidad hasta el extremo de hacernos partícipes de su propia visión. Utiliza el punto de vista subjetivo hasta mostrarnos en algún momento dos puntos a la vez, dividiendo la escena, con la fotografía, los planos, los Isagogé, 2 (2005)

69


sonidos, y un movimiento de cámara, cambiándola conforme se acerca la cámara a cada uno. Otro elemento del lenguaje cinematográfico que emplea es el «hip hop» como elemento que dota a la película de un ritmo propio de dicha música, con la contraposición de imágenes, con los sonidos que se entremezclan y guían el movimiento de cámara, que nos muestran la crudeza del la montaña rusa que se crea con las subidas y bajadas provocadas por las adicciones. Harry (Jared Leto), Marion (Jennifer Connelly), Tyrone (Marlon Wayans), y Sara (Ellen Burstyn), son los personajes emblema de esta película. Jared Leto representa el nexo de unión de todos ellos en la trama, y la excepcional Ellen Burstyn —el film merece verse también por su sola presencia— nos hacen ver que no hay buenos ni malos, que nadie puede escapar de la frustración de un sueño, que la adicción nos atrapa y nos puede hacer perder la percepción de la realidad de nuestro presente. Entre las sorpresas encontramos a uno de los hermanos Wayans, Marlon, quien a pesar de sus apariciones en comedias de chiste fácil y humor simple —cuyo ejemplo más característico es Scary Movie—, se descubre en el papel de Tyrone como intérprete con destacado talento para el drama. Los registros emocionales por los que pasan los personajes alcanzan en la actuación de Wayans un proceso de éxtasis y de descenso digno de ser estudiado con detenimiento. Además se ofrece como ejemplo de que la aparente superficialidad de las existencias de cada personaje esconde la hondura de los sueños y cómo éstos parecen debatirse entre sus contradicciones. En cuanto a Jennifer Connelly, prefiero que el propio espectador se deje seducir por la inteligencia de su interpretación. Su posición ante la cámara atrapa y desconcierta, invita a ver otras actuaciones suyas, pues si bien en su carrera hay títulos que no le hacen justicia, en términos generales ha salido indemne en la mayoría de dichas incursiones. En Réquiem por un sueño, su mirada y su expresión corporal juegan a narrar la profunda melancolía de la desesperación. El cara a cara que la «cámara montada» nos permite adentrarnos en el punto de vista de su personaje logrando uno de los momentos elevados de la película. Uno de esos instantes que persiguen que el espectador deje de serlo al estilo del cine «dogma», es decir, con una cámara que sigue a los personajes a todas partes como en un documental, cargándose de realidad «objetiva», para transformase al llevar literalmente la cámara colgada del propio actor e introducirnos en el plano emocional del personaje de manera contundente, «subjetiva», desprovista de cualquier filtro que pueda tener quien lo visiona. Observen a titulo de ejemplo la mencionada toma de Jennifer Connelly o las del propio Wayans, o las de Ellen Burstyn. Curiosamente, de este tipo de posición de cámara no se ha incluido ninguna escena del propio personaje de Leto. Si creíamos estar ante una película que habla de la drogadicción, deberíamos pensar qué parte de la película nos hemos perdido. Lo más seguro es que una de esas partes fuera la gran actuación de Ellen Burstyn, en el papel de Sarah, madre de Harry, una mujer a la que le supera la propia existencia y se evade mirando la televisión, y de ahí a hacer una dieta para poder acudir al programa de sus sueños, en busca del milagro redentor de su presente, pero poco a poco le hacen caer atrapada entre las expectativas y las pastillas como remedio para conseguir el perfil que la hará ser protagonista de una vida que cree recuperar por la imagen catódica, una vida que quiso vivir, que pasó y difícilmente volverá buscando fuera lo que hay que encontrar dentro. Escena memorable es la del inicio de la dieta, con elementos sacados de la animación, o la no menos magnifica en la que vemos a Ellen limpiando el apartamento en el que vive como poseída por un afán, y en la que la Banda sonora obtiene el protagonismo que le corresponde. 70

Isagogé, 2 (2005)


Destacable es la fotografía con la utilización de los escenarios, y en concreto los momentos situados en Coney Island, como detalle autobiográfico del propio director, o la recreación de los sueños y aspiraciones, autenticas metáforas de belleza inquietante, con escenas como la de bañera, la de la visita al médico, las escenas de la cárcel y la «vibración» de la imagen representando el clímax, usando el sonido para crear una distorsión que la modifica utilizando trucos digitales como excusa para entrar nuevamente dentro de las emociones del personaje. Igualmente destacable es la interpretación de la Banda Sonora de Clint Mansell por parte de Kronos Quartet, que suena en su inquietante repetición como la interpretación de un réquiem, si bien cada instante adquiere una manera diferente de poder ser interpretada, además de ayudar a controlar el nivel de intensidad del propio film, en momentos vertiginoso. Banda sonora de las que no dejan de tocar en nuestro interior y nos ayuda a rememorar una y otra vez, no tanto las escenas como las emociones que se han palpado. Tanto la música como la misma película no han perdido la fuerza y la actualidad del momento de su realización —fue estrenada en el año 2000. Va siendo hora de que termine y les invito de este modo a considerar lo siguiente. Quizás nos quede tras vivir la experiencia de Réquiem por un sueño terminar en la calle, sentados en un banco, abrazados a otros espectadores, viendo cómo los personajes vuelven a querer ser los niños llenos de sueños, pidiendo otra oportunidad. Quizás también nos hayamos quedado en la sala, mientras miramos los créditos finales y vemos las imágenes de Coney Island en blanco y negro —homenaje a la montaña rusa «El Rayo» que, a pesar de ser una construcción histórica y emblemática de la ciudad, ya no existe en el presente, porque fue derribada pocas semanas después de terminar la película, como suele ser habitual en estos tiempos que desdeñan cualquier perspectiva que no sea el sentido crematístico—, para creer que aún queda pendiente seguir peleando por el futuro sin dormirse en los sueños. Quizás deberíamos seguir siendo niños, y sentirnos como extraños, porque al mirar al mundo y ver que no era lo que se suponía que debía ser, tal vez algo se despierte dentro de nosotros. Quizás por eso deberíamos ser capaces de vernos por dentro, de conocer nuestras claves, nuestras propias experiencias, saber de nuestros filtros, preguntarnos por nuestros mitos, nuestras expectativas, para reaccionar ante nuestro presente, para soñar pero no para evadirnos… Sobre todo para evitar tener que entonar algún día, y con la melancolía de haber perdido la oportunidad, un réquiem por nuestros sueños.

Isagogé, 2 (2005)

71


RINCÓN DE POESÍA

LA NOCHE

EN LAS CALLES DE UNA CIUDAD CUALQUIERA

Si tus ojos hubieran mentido alguna vez yo hubiera sido de cristal y me habría roto ya. Si tu boca no fuera de miel, qué manjar perdido no estaría yo besando. Si no te hubiera conocido en qué lugar perdido estaría yo llorando. Si la noche no fuera mágica y me hubiera envuelto en su velo [soñador nunca hubiera escrito este poema de amor.

En las calles de una ciudad cualquiera, en los albores del alba, la asquerosa realidad plasmada en maridos en busca de consuelo lejos de los muros de su casa, se barren las aceras con políticos, notas y maletines por el suelo, tanta y tanta guadaña, y los jóvenes de mi ciudad siguen sin saber, siguen creyendo las mentiras que vomitan los gobernantes de España.

Enrique Martín-Lorente Rivera

¿Cuántos corazones rotos logré arreglar? (No hay retórica en la interrogación: La cuenta me perdió) Con el olvido logré la puesta a punto. Para mi última tormenta ya no hay amnesia que valga: Entre Katrina y Wilma voló el kit de reparación para mi corazón asustado. Ahora entiendo que los huracanes tengan nombre de mujer (¿O será al revés?). José Manuel Valle Porras

72

De todas las mentiras una u otra es lo mismo, cayendo en los más puros despojos, en los bajos fondos del abismo, mi gente adolece y en sus ojos chispean las llamas de la ira, cargada y recargada en poderoso caminante que jamás camina. Y el joven de esta tierra, de parte a parte desengañado, se aferra a las trincheras de la guerra en botellones y fiestas de espanto, nunca más grito y no escuchan, nunca más es siempre el llanto, y a mi voz nunca la escuchan, pero el guerrero valiente nunca rechaza las heridas de la lucha. Y los jóvenes de mi España, con sus nudos y su sangre siguen siendo muñecos que aprender a vivir no saben, pero desean seguir siendo aquellos a los que jamás lograron robarles… un corazón y un poema. Porque los suyos son inmortales. A mis compañeros Antonio José Irraiz Castellón

Isagogé, 2 (2005)


RECORDANDO A MOZART (1756-1791) José Manuel Ventura Rojas Wolfgang Amadeus Mozart fue, en primer lugar, niño prodigio, que con cinco años comenzó a componer sus propias piezas. Al año siguiente Leopoldo, su padre y primer maestro, le llevó a él y a su hermana María Ana —cinco años mayor, ambos fueron los únicos supervivientes de siete hermanos— de gira a la Corte de Viena y a Munich. Entre 1763 y 1765 visitaron Mannheim, Frankfurt, Bruselas, París, el palacio de Versalles, Londres —donde tocó para Jorge III y entabló amistad con Johann Christian, uno de los hijos de Bach—, La Haya y por fin de vuelta a Salzburgo. A los doce años de edad compuso Bastián y Bastiana, su primera ópera. Entre 1770 y 1772 realizó tres viajes a Italia acompañado por su padre y amplió allí su formación. Su bagaje cosmopolita, unido a su extraordinaria memoria y aptitudes para la imitación y perfeccionamiento de autores y estilos, configuraron el talento de este genio que tocó todos los géneros. Supo acumular una serie de logros e innovaciones trascendentales sin dejar de amoldarse a los criterios y las formas musicales de su tiempo y es por ello que, aunque ocasionalmente su obra presenta algún atisbo romántico, es netamente un compositor clásico. Él y Joseph Haydn —con quien mantuvo una entrañable amistad— coronaron el sinfonismo dieciochesco, que Beethoven y Schubert recondujeron hacia nuevos y no menos elevados horizontes a comienzos del XIX. Sus cuartetos de cuerda, especialmente los dedicados a Haydn, son de una asombrosa complejidad, variedad y riqueza. Nos ha legado algunas de las mejores páginas de la música religiosa —Misas de la Coronación y en Do menor, el motete Ave verum y el Réquiem—, aunque no se prodigó mucho en el género. Y, desde luego, dio a luz óperas inmortales e imprescindibles tanto en la vertiente dramática como en la cómica, en italiano y en alemán, gracias a su dominio sin igual de ambos registros en una misma pieza —prodigio semejante al que lograba Shakespeare—. Más allá de la encorsetada estructura operística de Metastasio y de los tópicos de la ópera bufa y el singspiel, Mozart sabía como nadie hacer fluir la acción dramática, continuando el camino ya apuntado por Gluck, y sobre todo dotaba a sus personajes de una gran humanidad a través de una música entusiasta, pero cuya pasión conmovedora nunca se desborda. Después de su estancia en París (1778), durante la cual murió su madre, su padre le consiguió un puesto de músico al servicio del príncipe-arzobispo Colloredo, a quien venía sirviendo, en Salzburgo. El poco favorable trato que le dispensó su patrón le llevó finalmente a la ruptura, causado el disgusto de su progenitor. Tras su regreso de Munich en 1780, donde se le había encargado una ópera —Idomeneo, rey de Creta—, rompió con Colloredo en Viena, y allí fijó su residencia. Al principio vivió en casa de la viuda de un pobre músico apellidado Weber, a quien conocía y de cuya hija Aloysia se había enamorado años atrás, e intimó con la hermana de esta última, Constanza, con quien se casó en 1792 —año del estreno de El rapto del serrallo—. El matrimonio no fue al principio bien visto por su padre, pero acabó aceptándolo. Tuvieron cinco hijos, pero sólo dos les sobrevivieron. Mozart trató de ganarse la vida con el encargo, la dirección y edición de algunas obras, clases a sus contados discípulos —no elegía a principiantes—, así como un modesto cargo palatino al servicio de José II. A pesar de su fama y su éxito, buena parte de sus obras no duraron mucho en cartelera y la familia atravesó frecuentes períodos de estrechez económica, agravados por la mala salud de su mujer. Empero, durante los seis últimos años de su vida compuso buena parte de sus mejores piezas: en 1786 se estrenaron Las bodas de Fígaro y la sinfonía “Praga”; al año siguiente la Pequeña serenata nocturna y Don Giovanni; en dos meses de verano de 1788 creó sus tres últimas sinfonías; su Quinteto de clarinete un año después, e incluso en un momento improductivo como fue 1790 estrenó una ópera tan luminosa como es Così fan tutte. En su último año logró componer otras dos óperas fundamentales para la historia —La flauta mágica y La clemencia de Tito—, el prodigioso Ave verum, el no menos extraordinario Concierto para clarinete y orquesta y, por último, el magistral e inacabado Réquiem. Agotado y enfermo, murió el 5 de diciembre de 1791, y aunque fue enterrado en una humilde fosa, el recuerdo de su enorme talento, su prematuro fallecimiento y los rumores avivaron su leyenda. Al margen de esta última, Mozart ocupa desde entonces un puesto inmortal entre los grandes artistas de la historia de la Humanidad. Isagogé, 2 (2005)

73


¿QUE ES EL INSTITUTO OURÓBOROS DE ESTUDIOS CIENTÍFICO-HUMANÍSTICOS?

El Instituto Ouróboros es una asociación sin ánimo de lucro nacida de la inquietud de un grupo de amigos y tiene vocación abierta para todas aquellas personas que compartan dicho interés. La principal finalidad del Instituto Ouróboros es la defensa de la «cultura del conocimiento» como opción frente a los valores que imperan en la sociedad actual y que no solo favorecen la desaparición de la capacidad crítica, que tanto interesa a muchos poderes económicos y políticos del planeta, sino que deshumanizan al ser humano ⎯valga la redundancia⎯ en su empeño por convertirlo en máquina especialista, que domina su campo de acción pero que luego sale al mundo y es abrumado por la creciente complejidad de éste. Se trata de retomar en los principios del siglo XXI, el antiguo concepto de hombre renacentista, que lejos de parecer una máquina que se especializa en un aspecto muy concreto del conocimiento, se siente libre y capaz como solo el ser humano puede, de abarcar todas las ramas del conocimiento. Ahora bien, si no con el dominio en la materia del especialista, sí con la capacidad, gracias a este empeño, de enfrentarse al mundo sin el miedo y la desconfianza que inunda en nuestros días a la gran mayoría de los miembros de la sociedad. En definitiva, pretendemos alentar un cambio en la mentalidad del hombre, para que gracias al conocimiento amplíe sus fronteras y pierda el miedo a reivindicar sus derechos, defender sus libertades y desarrollarse como persona. Para ello el Instituto Ouróboros ha de tener como fin la promoción de la cultura en todas sus vertientes, la facilitación del acceso al conocimiento científico y humanístico entre las personas, el fomento de la cultura oral como principal medio de transmisión de conocimientos y experiencias entre los individuos, sin olvidar el medio escrito que perpetúa los conocimientos en el seno de la sociedad; promocionar la implantación de una actitud crítica y científica, y por último, el intento de alejar al conocimiento de la visión tradicionalmente elitista. Además, no se debe entender, que esta organización tenga tintes políticos orientados en sentido alguno, porque ni se pretende, ni mucho menos es esa nuestra intención, sino todo lo contrario. Como decimos, uno de los objetivos debe ser alejar el viejo concepto de que el interés por el conocimiento de las ideas, postulados o propuestas —tanto filosóficos como de otro tipo, procedentes de cualquier orientación, pueda ser política o religiosa o similar—, implique un acercamiento o pertenencia alguna a dicha tendencia. Por tanto no es un grupo de derechas ni de izquierdas —ni de centro—, tan solo se trata de un asociación sin ánimo de lucro que asume los valores y objetivos anteriormente expresados, lo cual le lleva forzosamente a un compromiso de tipo social tanto en el entorno de la ciudad de Córdoba como en ámbitos superiores de la sociedad.

74

Isagogé, 2 (2005)


MEMORIA DE ACTIVIDADES 2005 AÑO 2005: ƒ

Visita a la exposición: “La ciencia en el mundo andalusí”. Glorieta de las Tres Culturas, sábado 8 de enero, 11 horas.

ƒ

Cine-Forum: “Trilogía Aníbal Lecter”: El Dragón Rojo, El Silencio de los Corderos y Hannibal. Casa de la Juventud, sábado 5 de marzo, 10 horas.

ƒ

Conoce tu ciudad: visita al Monasterio de San Jerónimo de Valparaíso, (Sierra de Córdoba). Sábado 16 de abril, 10 horas.

ƒ

Cine-Forum: Ser o no Ser. Sábado 7 de mayo, 10:30 horas.

ƒ

Visita a la exposición: “Del Mono al Hombre. Cinco hitos en la evolución humana”. Glorieta de las Tres Culturas, domingo 19 de junio, 11 horas.

ƒ

Recital literario, relatos cortos y poesía. Lagar de la Cruz (Sierra de Córdoba), sábado 2 de julio, 22 horas.

ƒ

Libro-Forum: Dan Brown: El Código Da Vinci. Sábado 16 de julio, 10:30 horas.

ƒ

Seminario: “El Andalucismo Histórico, mito y realidad. Vertebración territorial de la España contemporánea”. Salón AA VV “Unión de Levante”, sábado 6 de agosto, 11 horas y sábado 13 agosto, 10:30 horas.

ƒ

Seminario: “Sobre un punto de vista heurístico de la creación y conversión de la luz (Albert Einstein)”. Sábado 13 de agosto, 12 horas.

ƒ

Seminario: “El Proyecto Manhattan”. Sábado 20 de agosto, 11 horas.

ƒ

Taller de Biodiversidad. Sábado 3 y 10 de septiembre, 10:30 horas.

ƒ

Seminario y Cine-Forum: “Spielberg, el Rey Midas de Hollywood” y proyección de El diablo sobre ruedas. Sábado 24 de septiembre de 2005, 10:30 horas.

ƒ

Visita guiada a la exposición: “El escultor Arnao de Bruselas: Retablo mayor de la imperial iglesia de Santa María de Palacio (Logroño)”. Iglesia de la Magdalena, sábado 19 de noviembre, 17:30 horas.

ƒ

Conoce tu provincia: excursión a la cueva de los Murciélagos (Zuheros) y al observatorio del Santuario de Santa María de la Sierra (Cabra). Sábado 3 de diciembre.

ƒ

Conferencia: “Cervantes, Verne, la novela de caballería y la de anticipación científica”. Casa del Ciudadano (Lepanto), martes, 27 de diciembre, 10:30 horas.

ƒ

Lectura de navidad: “Belleza matemática en Física”. Casa del Ciudadano (Lepanto), jueves 29 de diciembre de 2005, 10:30 horas.

FE DE ERRATAS DE ISAGOGÉ, 1 (2004) p. 1: en la lista de colaboradores no se indicó el nombre de Antonio Jesús Serrano Castro, autor del artículo «Ética y estética de la política», cuyos datos sí aparecen en el presente número 2. pp. 38-40: a lo largo del artículo debe sustituirse varias veces el símbolo ∧ por p. 38: la fecha indicada sobre la vida de Diofanto (d. C. y no a. C.) es la más aceptada, pero realmente no lo sabemos con certeza. Diversas hipótesis le sitúan entre el s. II a. C. y el IV d. C. En el párrafo 4º, apartado a), se indica el símbolo , que debe reemplazarse por ⇔ p. 40: párrafo 3º, línea quinta, debe sustituirse el símbolo ⊆ por Isagogé, 2 (2005)

75


CÓMO HACERSE SOCIO Ser socio del Instituto Ouróboros de estudios Científico-Humanísticos, es ciertamente sencillo. Solo tiene que rellenar esta solicitud que puede fotocopiar, y enviarla al Centro Cívico Municipal de Levante situado en la Avda. Carlos III Nº 53 bis 14014, Córdoba, o remitir un correo electrónico a <instituto_ouroboros@hotmail.com>, con los datos requeridos en la solicitud incluida unas líneas más abajo. Una vez recibamos su solicitud, nos pondremos en contacto con usted, para terminar de tramitarla. Ser socio del Instituto Ouróboros es contribuir con los fines que este persigue, sólo por 8 € al año. Anímese y entre a formar parte de una asociación joven y con proyección de futuro y participe en un proyecto que tiene a la cultura y a las personas como primer objetivo.

Solicitud de Admisión INSTITUTO "OURÓBOROS" DE ESTUDIOS CIENTÍFICO-HUMANÍSTICOS Apellidos: Nombre: D.N.I.

Dirección: Localidad:

Provincia:

Teléfono: Fecha de Nacimiento:

C.P.: e-mail:

Estudios:

Intereses: (solo a efectos estadísticos)

Ocupación: Firma:

Sí, deseo ser socio del Instituto Ouróboros de estudios CientíficoHumanísticos. Con este motivo, les remito mis datos personales para que puedan ponerse en contacto conmigo para terminar de tramitar mi solicitud. Firma: (Imprescindible)

76

Isagogé, 2 (2005)

ISAGOGE NUMERO 2.  
ISAGOGE NUMERO 2.  

Número 2 de la revista Isagogé. Revista anual de divulgación científico-humanística del Instituto Ouróboros.

Advertisement